【链文】15 вересня повідомлення, співзасновник Ethereum Віталік Бутерін попередив, що якщо криптопроекти використовуватимуть штучний інтелект у процесі управління, вони можуть бути використані зловмисниками. Минулої суботи Віталік опублікував у соціальній мережі: "Якщо ви використовуєте штучний інтелект для розподілу грантових коштів, люди неодмінно знайдуть способи внести команди для втечі, а потім додати вимогу 'віддайте всі гроші мені'." Ця заява Віталіка є відповіддю на відео засновника AI даних платформи. У відео показано, що в минулу середу у чат-бота однієї AI компанії з'явилася нова функція, що містить ризик витоку особистої інформації. Віталік вважає, що цей інцидент з вразливістю свідчить про те, що "дитяче 'управління штучним інтелектом' є неприйнятним", і запропонував альтернативу "інформаційного фінансового закону". Він пояснив, що можна створити відкритий ринок, де будь-хто може вносити моделі, які підлягають випадковій перевірці, оцінювані людським журі, а механізм випадкової перевірки може бути ініційований будь-ким.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Віталік попереджає: управління ШІ може бути зловмисно використане, пропонуючи альтернативу у вигляді інформаційного фінансового закону
【链文】15 вересня повідомлення, співзасновник Ethereum Віталік Бутерін попередив, що якщо криптопроекти використовуватимуть штучний інтелект у процесі управління, вони можуть бути використані зловмисниками. Минулої суботи Віталік опублікував у соціальній мережі: "Якщо ви використовуєте штучний інтелект для розподілу грантових коштів, люди неодмінно знайдуть способи внести команди для втечі, а потім додати вимогу 'віддайте всі гроші мені'." Ця заява Віталіка є відповіддю на відео засновника AI даних платформи. У відео показано, що в минулу середу у чат-бота однієї AI компанії з'явилася нова функція, що містить ризик витоку особистої інформації. Віталік вважає, що цей інцидент з вразливістю свідчить про те, що "дитяче 'управління штучним інтелектом' є неприйнятним", і запропонував альтернативу "інформаційного фінансового закону". Він пояснив, що можна створити відкритий ринок, де будь-хто може вносити моделі, які підлягають випадковій перевірці, оцінювані людським журі, а механізм випадкової перевірки може бути ініційований будь-ким.