Невідомий, використовуючи deepfake, намагався обманути сенатора США: видав себе за Кулебу
Американський сенатор Бенджамін Кардін, голова Комітету з міжнародних відносин, став жертвою фейкового дзвінка, де невідомий видавав себе за українського чиновника. Це посилює побоювання щодо спроб зловмисників впливати на політику Сполучених Штатів або добувати секретну інформацію.
Про це повідомляє Рубрика з посиланням на The New York Times.
Минулого четверга офіс сенатора отримав електронного листа, нібито від імені міністра закордонних справ України Дмитра Кулеби, із проханням провести відеоконференцію щодо Zoom.
Під час дзвінка людина мала вигляд і говорила як Кулеба, але викликала підозри, ставлячи політично забарвлені запитання, зокрема про підтримку обстрілу росії ракетами дальнього радіусу дії.
Сенатор перервав розмову і повідомив Держдепартамент США, який підтвердив, що це був самозванець.
Хоча в електронному листі сенатської служби безпеки не було зазначено, що сенатор – це Кардін, двоє співробітників Сенату, знайомі з цим питанням, підтвердили, що йдеться саме про нього.
Кардін, демократ від штату Меріленд, також частково підтвердив цей епізод у своїй заяві в середу ввечері. У ній він зазначив:
"В останні дні якийсь зловмисний суб'єкт зробив обманну спробу поговорити зі мною, видаючи себе за відому людину".
При цьому Кардін не сказав, що цією людиною був Кулеба, і не зробив жодних посилань на Україну.
Представники розвідки попередили, що іноземні суб'єкти, включно з Росією, Іраном і Китаєм, використовують deepfake і штучний інтелект для втручання у вибори.
Хоча невідомо, чи стоїть росія за діпфейком Кулеби, однак деякі питання, поставлені сенатору, мають інтерес для рф, насамперед питання щодо підтримки ударів по росії західними ракетами.
Довідка
Deepfake – це технологія, заснована на штучному інтелекті, яка дає змогу створювати реалістичні, але підроблені відео або аудіо. Іншими словами, це свого роду фотошоп для відео, але на набагато вищому рівні. За допомогою deepfake можна замінити обличчя однієї людини на обличчя іншої в наявному відео, створити відео з людиною, яка говорить слова, які вона ніколи не вимовляла, або навіть імітувати голос знаменитості.
Технологія deepfake використовує нейронні мережі для навчання на величезних обсягах даних. Ці мережі аналізують риси обличчя, міміку, рухи і голос людини, щоб створити цифрову модель. Потім цю модель можна використовувати для створення нових зображень або відео з цією людиною, але зі зміненими характеристиками.
Цю технологію використовували для наслідування громадських діячів, зокрема, 2022 року в соціальних мережах було поширено відео, на якому президент України Володимир Зеленський неправдиво оголошує про капітуляцію у війні з Росією.
Нагадаємо, раніше, 2022 році, міським головам кількох європейських столиць розіслали запит на онлайн-розмову з "фальшивим мером Києва". Віталій Кличко розповів, що хтось прикидався ним у розмові з бургомістеркою Берліна Францискою Ґіффай, міськими головами Мадрида та Відня.
Окрім того, росіяни за допомогою технології "діпфей" спробували зв'язатися з Халюком Байрактаром — одним із засновників компанії Baykar, яка виробляє знамениті безпілотники "Байрактар". Для цього використали образ прем'єр-міністра України Дениса Шмигаля.
Нагадаємо, Пентагон має намір провести спеціальні дослідження щодо захисту даних для нейромереж.
У Пентагоні не можуть обійтися без ШІ, але заявляють, що його використання має бути вкрай обережним, а дані багато разів перевірені ще раз.
А українські розробники на базі Штучного Інтелекту створили платформу Mantis Analytics, яка вміє моніторити, аналізувати події та виявляти маніпуляції в інформаційному просторі.