Синтезированная «правда» — одно из самых опасных изобретений столетия. Как ее распознать?

Синтезированная «правда» — одно из самых опасных изобретений столетия. Как ее распознать?

Facebook объявил войну роликам, в которых голоса людей синтезированы с помощью нейросетей. С 1 января в Китае распространение фейков объявлено уголовным преступлением. А чуть ранее министерство обороны США заявило о начале крупномасштабного проекта по разработке программного обеспечения, которое могло бы обнаруживать подделки в разнообразном контенте. Эксперты бьют тревогу: изготовить «на кухне» информационную атомную бомбу становится все проще. А на смену только-только освоенному явлению фейков пришла их принципиально новая (и не в пример более опасная) форма — дипфейки.



Синтезирование правды

Ничего общего с дипломатией и ее диппочтой дипфейки не имеют. Этим словом (deepfakes, или «глубокие фейки») стали называть реалистичную замену лиц на видео при помощи GAN — генеративно-состязательных нейросетей (generative adversarial network). Проще говоря, на основе исходных данных — реальных видео и фотографий человека — одна нейросеть начинает генерировать искусственные модели, а вторая — определять и отбраковывать неудачные результаты. Этот процесс повторяется многократно, при этом первая нейросеть то и дело повышает качество фейка, добиваясь совершенства. Причем подобные методы применимы не только для видео. Так, стартапы Lyrebird и iSpeech успешно занимаются моделированием голоса.

Чем это может быть чревато, весной 2018 года продемонстрировал всему миру американский режиссер Джордан Пил. Он опубликовал в интернете короткое видеообращение Барака Обамы, в котором экс-президент США, рассуждая о распространении фейковых новостей, назвал своего преемника Дональда Трампа неприличным словом. После чего на экране появляется режиссер, объясняющий, что данное видео является подделкой, сфабрикованной из кадров реального интервью Обамы с помощью нейросети. Шокированная мировая общественность стала осознавать: увиденное на телеэкране, а тем более в распространяемых по интернету роликах, перестало быть отражением истины.

Эксперты бьют тревогу

Проблема отнюдь не шуточная. На этой неделе увидел свет очередной выпуск совместного проекта Белорусского института стратегических исследований (БИСИ) и информагентства БЕЛТА, посвященный как раз дипфейкам. Заведующий кафедрой социально-гуманитарных дисциплин Академии управления при Президенте Ольга Агейко, опираясь на имеющиеся научные данные, пришла к неутешительному выводу:



— Что бы мы ни делали в этом направлении, все равно будем лишь «догонять уходящий поезд». Мы 50 лет жили с четкой иллюзией, что есть искусственный интеллект, который можно программировать, контролировать и развивать. Искусственный же интеллект как самоорганизующаяся система, возникающая в процессе самообучения, известен лишь последние лет 5. Но за эти 5 лет мы получили результатов больше, чем за предыдущие 50. Сегодня на пике развития интеллект стратегический.

Отличить высокотехнологичную ложь от правды без специальных технических средств зачастую не представляется возможным, констатировал старший научный сотрудник Института государства и права РАН Виктор Наумов:



— Кроме того, срабатывает эффект жизни лайками — сколько лайков поставишь, столь больший эффект условного доверия. На самом деле это развитие печально известной культуры потребления: упаковка создает эффект качества. В информационном пространстве такой упаковкой выступают репосты, лайки, комментарии. Эффект массового перераспространения искажает адекватность восприятия. 

На руку распространителям фейков играет и научно-технический прогресс, отмечает аналитик БИСИ Виталий Демиров:



— Есть немало программ, посредством которых можно создавать фейковые ролики. Уже на втором этапе этого процесса вмешательство автора не требуется — сеть вырабатывает модель самостоятельно. Воздействие deepfakes и fake news на политику, общество и бизнес становится гораздо более ощутимым, а новые технологии, которые пытаются усилить этот эффект, более заметными. Однако сейчас пока нет завершенных техрешений, которые бы помогали распознавать дипфейки.

Вызов принят

Реагировать на складывающуюся ситуацию необходимо безотлагательно. Министр информации Александр Карлюкевич предлагает для этого как минимум внести понятия фейков и дипфейков в действующее законодательство:



— В Парламенте уже стоит всерьез обсуждать это явление. А осознав его масштабы и потенциальные угрозы — подумать, как это вложить в законодательную базу. Обществу надо разъяснить, чем чреваты такие проявления. Разъяснить, что у нас не принято, что может носить противоправный характер. Если мы сегодня к этому не подготовимся, завтра можем просто опоздать. Также нам надо задуматься о радикальных скоростях в эволюции наших отечественных массмедиа.

По мнению Виктора Наумова, в борьбе с дипфейками стоит объединить усилия государства, общества и производителей технологий. А для этого заключить с этой триадой нечто вроде общественного договора:

— Те, кто продумывает технологии и затем их внедряет, — это уже самостоятельная сила, и с ними нужно договариваться. Кроме того, надо понимать, что в новых информационных реалиях любой человек, по сути, это почти журналист, может быть уже почти редактором, а в ближайшее время — и почти продюсером. Но у основной массы населения нет осознания ответственности за распространение информации. В действительности это ситуация изготовления атомной бомбы на кухне — но бомбы информационной. А потому ключевой вопрос при этом, в том числе, несомненно, и в законодательстве, — воспитание информационной культуры. Причем воспитание жесткое и массовое: с позиций того, что любые твои слова должны соотноситься с ответственностью за то содержание, которое ты хочешь сказать вслух. Чем меньше наши знания о чем-либо, тем более велика вероятность купиться на дипфейк. Поэтому самая большая группа риска — наши дети.

ДИПФЕЙКИ: ОТКУДА НОГИ РАСТУТ

Британское неправительственное Бюро журналистских расследований утверждает, что Пентагон с 2003 года заплатил более 500 млн долларов британской пиар-компании Bell Pottinger за создание поддельных видеосюжетов, на которых запечатлены различные действия боевиков и террористов, не совершавшиеся ими на самом деле.

МАСШТАБЫ ЛЖИ

В 2019 году только с апреля по сентябрь Facebook удалил 3,2 млрд фальшивых аккаунтов. В 2018-м за аналогичный период было удалено 1,55 млрд аккаунтов.

МАНИПУЛИРОВАНИЕ ТОЛПОЙ

По оценкам Пентагона, инструменты информационных операций на основе искусственного интеллекта могут сопереживать аудитории, что-то высказывать по мере необходимости и изменять общее восприятие. Совсем скоро информационные системы смогут индивидуально контролировать и влиять на десятки тысяч людей одновременно.

Информация подготовлена по материалам Издательского дома “Беларусь сегодня”



Опубликовано:
Просмотров:
751