Неизвестный, используя deepfake, пытался обмануть сенатора США: выдал себя за Кулебу
Американский сенатор Бенджамин Кардин, глава Комитета по международным отношениям, стал жертвой фейкового звонка, где неизвестный выдавал себя за украинского чиновника. Это усугубляет опасения попыток злоумышленников влиять на политику Соединенных Штатов или добывать секретную информацию.
Об этом сообщает Рубрика со ссылкой на The New York Times.
В прошлый четверг офис сенатора получил электронное письмо, якобы от имени министра иностранных дел Украины Дмитрия Кулебы, с просьбой провести видеоконференцию по Zoom.
Во время звонка человек выглядел и говорил как Кулеба, но вызвал подозрения, задавая политически окрашенные вопросы, в частности о поддержке обстрела россии ракетами дальнего радиуса действия.
Сенатор прервал разговор и сообщил Госдепартаменту США, который подтвердил, что это был самозванец.
Хотя в электронном письме сенатской службы безопасности не было указано, что сенатор – это Кардин, двое сотрудников Сената, знакомые с этим вопросом, подтвердили, что речь идет именно о нем.
Кардин, демократ от штата Мэриленд, также частично подтвердил этот эпизод в своем заявлении в среду вечером. В ней он отметил:
«В последние дни какой-то злонамеренный субъект предпринял обманную попытку поговорить со мной, выдавая себя за известного человека«.
При этом Кардин не сказал, что этот человек был Кулеба, и не сделал никаких ссылок на Украину.
Представители разведки предупредили, что иностранные субъекты, включая Россию, Иран и Китай, используют deepfake и искусственный интеллект для вмешательства в выборы.
Хотя неизвестно, стоит ли россия за дипфейком Кулебы, однако некоторые вопросы, поставленные сенатору, имеют интерес для России, прежде всего вопрос поддержки поддержки ударов по России западными ракетами.
Справка
Deepfake — это технология, основанная на искусственном интеллекте, позволяющая создавать реалистичные, но поддельные видео или аудио. Другими словами, это своего рода фотошоп для видео, но на гораздо более высоком уровне. С помощью deepfake можно заменить лицо одного человека на лицо другого в существующем видео, создать видео с человеком, говорящим слова, которые он никогда не произносил, или даже имитировать голос знаменитости.
Технология deepfake использует нейронные сети для обучения на больших объемах данных. Эти сети анализируют черты лица, мимику, движения и голос человека для создания цифровой модели. Затем эту модель можно использовать для создания новых изображений или видео с этим человеком, но с измененными характеристиками.
Эту технологию использовали для подражания общественным деятелям, в частности, в 2022 году в социальных сетях было распространено видео, на котором президент Украины Владимир Зеленский ложно объявляет о капитуляции в войне с Россией.
Напомним, ранее, в 2022 году, мэрам нескольких европейских столиц разослали запрос на онлайн-разговор с «фальшивым мэром Киева» . Виталий Кличко рассказал, что кто-то притворялся им в разговоре с бургомистершей Берлина Франциской Гиффай, городскими головами Мадрида и Вены.
Кроме того, россияне с помощью технологии «дипфей» попытались связаться с Халюком Байрактаром — одним из основателей компании Baykar, производящей знаменитые беспилотники «Байрактар». Для этого был использован образ премьер-министра Украины Дениса Шмигаля.
Напомним, Пентагон намерен провести специальные исследования по защите данных для нейросетей.
В Пентагоне не могут обойтись без ИИ, но заявляют, что его использование должно быть крайне осторожным, а данные многократно перепроверены.
А украинские разработчики на базе Искусственного Интеллекта создали платформу Mantis Analytics, умеющая мониторить, анализировать события и выявлять манипуляции в информационном пространстве.