Google, Amazon, Microsoft і Meta зобов’язалися стежити за безпекою своїх систем штучного інтелекту

штучний,інтелект

Американські Amazon.com Inc, Microsoft Corp., Meta, Google, що входить до Alphabet Inc., і ще три компанії добровільно взяли на себе зобов’язання щодо забезпечення безпеки своїх рішень у галузі штучного інтелекту.

Як ідеться в повідомленні Білого дому, компанії зобов’язалися перевіряти ШІ-системи на безпеку ще до випуску, у тому числі із залученням незалежних експертів, інформувати учасників галузі, владу та громадськість про управління ШІ-ризиками, інвестувати в кібербезпеку та сприяти виявленню вразливостей у своїх системах, передає Інтерфакс-Україна.

Крім того, компанії будуть розробляти механізми, які дозволять відрізняти звичайний контент від створеного штучним інтелектом, включно з тими, що припускають використання водяних знаків, а також публічно інформувати про можливості, обмеження та види належного та неналежного використання своїх ШІ-систем.

Фірми, серед яких, крім вищевказаних, входять OpenAI, що розробила популярний чат-бот ChatGPT, і стартапи Anthropic і Inflection, також зобов’язалися приділяти підвищену увагу аналізу потенційних суспільних ризиків, пов’язаних з використанням ІІ-систем.

Раніше повідомлялося, що Google тестує продукт, який використовує технологію штучного інтелекту для створення новин.