Обманываться рады. Мария Шакирова
го офиса, попросив перевести €220 тыс. венгерскому поставщику. Отправить деньги нужно было в течение часа. Несмотря на то что просьба выглядела странной, управленец не стал спорить с боссом. Лишь позднее он узнал, что голос руководителя, который был ему так хорошо знаком, принадлежал… компьютерной программе. Неизвестный злоумышленник использовал сгенерированную нейросетями имитацию. И хорошо, если бы это был единичный случай…
Что такое дипфейки Название «дипфейк» – гибрид от англоязычных терминов deep learning (глубокое обучение) и fake news (фальшивые новости). Так называют фото-, видео- и аудиоконтент, старающийся ввести в заблуждение пользователя. Для их создания чаще всего используются генеративно-состязательные сети. Они состоят из двух нейронных сетей, соревнующихся друг с другом: одна генерирует фальшивые кадры, а другая пытается определить, реальны они или нет. Этот цикл повторяется множество раз до тех пор, пока вторая сеть окажется неспособной отличить сгенерированное изображение от подлинного.
Если бы несчастный гендиректор следил за развитием технологий, он бы наверняка знал о том, что подделать теперь можно не только голос, но и лицо человека, «вклеив» его в любое видео. Такого рода подделки, получившие название дипфейк, не раз становились причинами политических скандалов. Весной 2019 года президент США Дональд Трамп опубликовал видеозапись выступления председателя конгресса Нэнси Пелоси, которая выглядела пьяной. Выяснилось, что авторы ролика намеренно обработали запись: скорость уменьшили, а голос изменили так, что речь стала невнятной. После инцидента конгресс США запустил расследование, заявив, что такие видео могли фатально повлиять на выборы президента в ноябре 2020 года. Университетский колледж Лондона называет одиозную технологию главной угрозой ближайших 15 лет. «Индустрия дипфейков развивается стремительно. По данным компании Sensity, которая занимается кибербезопасностью, количество таких видео увеличилось в два раза в период с января по июнь 2020 года. В настоящее время существует порядка 15 тыс. дипфейк-видео», – говорит Аркадий Оверин, технический директор «Номикс», компании-разработчика интерактивных AR/VR-приложений и игр. Авторы сфабрикованных роликов зачастую стараются бросить тень не только на политиков, голливудских актрис и прочих знаменитостей, но и на обычных людей – например, шантажируют с помощью сгенерированного порно их «участниц» – замужних женщин. Делают дипфейки и в России, причем официально. Как выяснилось, использовать их можно не только в дурных целях: огромный запрос на дипфейки существует со стороны рекламной и развлекательной индустрии. Обман с Обамой Для тех, кто следит за развитием технологий, слово «дипфейк» уже знакомо – впервые мир заговорил о новом явлении еще в 2017 году, когда пользователь новостного агрегатора Reddit стал выкладывать порноролики, где лица актрис были «позаимствованы» у голливудских знаменитостей. Это применение дипфейков, кстати, до сих пор остается основным: по данным Sensity, 96% технологичных подделок – именно порно. В Telegram существуют десятки ботов, которые по запросу пользователей создают порнографические ролики и фотографии на основе изображений реальных людей. К июлю 2020 года в общедоступных каналах мессенджера были опубликованы более 100 тыс. таких дипфейков, в том числе с участием несовершеннолетних. Позже на YouTube стали появляться видео, где политические деятели делали неожиданные громкие заявления. Например, видео 2018 года с Бараком Обамой, в котором экс-президент США рассказывает о дипфейках, параллельно оскорбляя Дональда Трампа. Этот ролик, впрочем, был создан в благих целях – его сгенерировал американский актер Джордан Пил совместно с BuzzFeed, чтобы показать, насколько реальна угроза дезинформации, созданной с помощью искусственного интеллекта. А вот появившееся летом 2019 года в Instagram фальшивое видео с Марком Цукербергом, в котором он рассказывает о том, как Facebook управляет будущим благодаря украденным данным пользователей, многих легковерных настроило против этой соцсети. Зимой 2020 года CNN рассказал историю старшеклассника из штата Нью-Йорк, который создал и смог верифицировать в Twitter аккаунт несуществующего кандидата в президенты от Республиканской партии. На подростка сильно подействовал школьный урок истории, на котором учитель рассказал о якобы имевшем место российском вмешательстве в американские выборы. Молодой человек задался вопросом: как соцсети будут бороться с подобными угрозами на следующих выборах? И провел эксперимент: с помощью нейросети, которая генерирует фото несуществующих людей, создал кандидата Эндрю Вальца, сочинил ему легенду и слоган для предвыборной кампании. Обеспокоенность подобными инцидентами привела к тому, что осенью 2019 года в штате Калифорния приняли закон, запрещающий использование нейронных сетей для манипуляций вниманием без прямого указания на это.
Конец ознакомительного фрагмента.
Текст предоставлен ООО «ЛитРес».
Прочитайте эту книгу целиком, купив полную легальную версию на ЛитРес.
Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.