fbpx
Сьогодні
15:42 22 Лип 2023

OpenAI, Alphabet та ще пʼять компаній пообіцяли Байдену ставити водяні знаки на контент, створений штучним інтелектом

Сім компаній штучного інтелекту добровільно взяли на себе зобов'язання перед Білим домом позначати водяними знаками контент, створений штучним інтелектом. Це допоможе зробити цю технологію безпечнішою.

Про це повідомив президент США Джо Байден 21 липня, цитує Reuters.

Ідеться про компанії OpenAI, Alphabet, Meta Platforms Anthropic, Inflection, Amazon.com, Microsoft. Їхні представники зокрема пообіцяли ретельно тестувати системи перед їхнім випуском і ділитися інформацією про те, як зменшити ризики й інвестувати в кібербезпеку.

Компанії також узяли на себе зобов'язання розробити систему «водяних знаків» для всіх форм контенту: від тексту, зображень, аудіо до відео, створених ШІ. Це потрібно для того, щоб користувачі знали, коли при створенні контенту була використана ця технологія.

Водяний знак маж бути вбудований у вміст контенту технічним способом. Імовірно, це допоможе користувачам виявляти підроблені зображення й аудіо, які можуть, наприклад, демонструвати насильство, якого не було. Наразі незрозуміло, як водяний знак буде видно під час обміну інформацією.

Компанії також пообіцяли зосередитися на захисті конфіденційності користувачів штучного інтелекту та забезпечити, щоб технологія була вільною від упереджень і не використовувалася для дискримінації вразливих груп.

Серед інших зобов'язань — розробка рішень штучним інтелектом у межах медичних досліджень і зменшення кліматичних змін.

«Ці зобов'язання є багатообіцяльним кроком, але нам потрібно ще багато працювати разом», — заявив Байден, який перед цим розповідав про зростання стурбованості на тлі потенціалу використання штучного інтелекту для руйнівних цілей.

Як пише агентство, цей крок від семи компаній можна розглядати як перемогу для адміністрації Байдена, яка намагається регулювати технології штучного інтелекту.

ШІ — небезпечний?

Останніми місяцями кілька кібернаглядових груп опублікували звіти, у яких попередили про гіпотетичні ризики штучного інтелекту. Особливо швидко розвиваються програми, які використовують величезні обсяги тексту для створення переконливих діалогів, документів тощо.

Британський національний центр кібербезпеки раніше заявляв у своєму дописі в блозі про ризик того, що злочинці можуть використовувати ШІ для своїх кібератак і виходити за межі поточних можливостей.

Нещодавно один із колишніх хакерів заявив, що попросив штучний інтелект скласти переконливу спробу обманом змусити когось здійснити грошовий переказ. І ШІ написав приклад електронного листа з трьох абзаців із проханням допомоги з терміновим рахунком-фактурою.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Завантажити ще

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: