Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Мировая политика
Правильная ссылка на статью:

Потенциальные угрозы несанкционированного использования политических дипфейков в период политических выборов: международный опыт

Виноградова Екатерина Алексеевна

ORCID: 0000-0001-8055-6612

кандидат политических наук

Директор; Научно-исследовательский центр: технологии искусственного интеллекта в международных отношениях

102151, Россия, г. Москва, ул. Нерасовская, 1, оф. 3

Vinogradova Ekaterina Alekseevna

PhD in Politics

Director; Research Center: Artificial Intelligence Technologies in International Relations

102151, Russia, Moscow, Nerasovskaya str., 1, office 3

kata-vinogradova@mail.ru
Другие публикации этого автора
 

 

DOI:

10.25136/2409-8671.2024.3.71519

EDN:

KNTVCO

Дата направления статьи в редакцию:

19-08-2024


Дата публикации:

05-10-2024


Аннотация: Предметом данного исследования выступают новые политические технологии, основанные на использовании искусственного интеллекта, в частности, практики введения избирателей в заблуждение посредством создания и распространения дипфейков (англ. «deepfake»). Целью данного исследования является выявление угроз и рисков, связанных с несанкционированным применением политических дипфейков в международной практике. Для достижения этой цели автор анализирует концепции влияния политических дипфейков на выборы, выделяет типы, виды и риски дипфейков в политической практике различных стран. Политический дипфейк (ПД) автор данного исследования определяет, как специальную кампанию с применением технологии искусственного интеллекта (ИИ) для подрыва репутации политических лидеров с целью изменения хода избирательной борьбы или для дискредитации уже действующего политика. В процессе исследования помимо нормативно-институционального и исторического методов применялись концептуальный и контент-анализ (при изучении основных подходов и интерпретаций технологии дипфейк в научной литературе), элементы анализа вторичных статистических данных. В статье дается характеристика основных типов политических дипфейков и приводятся примеры их злонамеренного использования на политических выборах 2023-2024 гг. На основе авторского анализа в научный оборот впервые вводиться классификация видов политических дипфейков, оказывающих воздействие на когнитивные функции целевых аудиторий. Классификация видов политических дипфейков, приведенная в данном исследовании позволяет по-новому взглянуть на проблему когнитивного влияния этого вида дезинформации на общественное мнение. Полученные выводы свидетельствуют о том, что в период 2017-2024 гг. технологии искусственного интеллекта стали активно применяться для манипулирования целевыми аудиториями во время политических выборов. Одной из основных трудностей в регулировании политических дипфейков является их завуалированность за счет использования смешанных типов данного вида манипуляций. Существенным препятствием в регулировании данной технологии является также отсутствие общепризнанных международных стандартов. Полученные автором результаты будут интересны для политологов, социологов, специалистов в области СМИ, государственной политики, мировой политики и международных отношений, а также для студентов перечисленных специальностей.


Ключевые слова:

Политический дипфейк, Технологии искусственного интеллекта, Международные отношения, Дезинформация, Цифровой аватар, Когнитивная безопасность, Политический лидер, Информационно-психологические операции, Выборы, Классификация дипфейков

Abstract: The subject of this study is new political technologies based on the use of artificial intelligence. The purpose of this study is to identify the threats and risks associated with the unauthorised use of political deepfakes in international practice. To achieve this goal, the author analyses the concepts of the influence of political deepfakes on elections, identifies types and risks of deepfakes in the political practice of different countries. The author of this study defines a political deepfake as a special campaign using artificial intelligence technology to undermine the reputation of political leaders in order to change the course of the electoral struggle or to discredit an incumbent politician. In the process of research, in addition to normative-institutional and historical conceptual and content analysis, elements of analysis of secondary statistical data were used. The article gives a characteristic of the main types of political deepfakes and provides examples of their maliciousness. On the basis of the author's analysis, the classification of types of political deepfakes, which have an impact on the cognitive functions of target audiences, is introduced into scientific circulation for the first time. Classification of types of political deepfakes, given in this study allows us to take a new look at the problem of cognitive impact of this type of disinformation on public opinion. The findings suggest that between 2017 and 2024, artificial intelligence technologies have become actively used to manipulate target audiences during political elections. One of the main difficulties in regulating political deepfakes is their veiling due to the use of mixed types of this type of manipulation.


Keywords:

Political deepfake, Artificial intelligence technologies, International relations, Disinformation, Digital avatar, Cognitive security, Political leader, Psychological information operations, Elections, Deepfakes Classification

Введение

Актуальность выбранной темы исследовании заключается в широком использовании технологий искусственного интеллекта (ИИ), в частности дипфейков, для влияния на политических акторов во время проведения политических выборов и для дестабилизации политической обстановки на международной арене.

В статье задействованы следующие группы источников: статистические данные зарубежных и российских исследовательских лабораторий, политические стратегии, отчеты, аналитические доклады, судебные акты, интервью, СМИ, научные работы зарубежных и отечественных исследователей.

Политический дипфейк автор данного исследования определяет как специальную кампанию с применением технологии искусственного интеллекта для подрыва репутации политических лидеров с целью изменения хода избирательной борьбы или для дискредитации уже действующего политика.

Развитие цифровых технологий произвело революцию в медиапространстве, заставив традиционные массмедиа пересмотреть свои операционные модели. Переход от аналоговых технологий к цифровым изменил не только способ доставки контента, но и его потребление и монетизацию [8, с.33].

Исследование, проведенное сотрудниками Массачусетского технологического института (Massachusetts Institute of Technology, MIT) за 2018 г, показало, что фейковые новости на 70% чаще попадают в новостную ленту и распространяются с большей скоростью, чем достоверная информация традиционных СМИ [37].

Согласно отчету Европола за 2022 год большой скачок в доступности технологии дипфейк был сделан благодаря адаптации генеративно-состязательной сети, которую описал Ян Гудфеллоу из компании Google в 2014 году [21, p.8].

Впервые эта технология была применена осенью 2017 года, когда анонимный пользователь с ником «deepfakes» опубликовал ряд порнографических видеороликов, в которых использовал изображения известных актрис, на сайте Reddit [33, p.145].

В конце 2018 года общественное внимание сфокусировалось на возможных политических рисках, связанных с применением технологии дипфейк. Поводом послужил видеоролик Дональда Трампа, в котором он призывал Бельгию покинуть Парижское климатическое соглашение. Видеоролик распространила Фламандская социал-демократическая политическая партия в Бельгии (Vooruit) с целью привлечения внимания к манипулированию общественным мнением по вопросам, связанным с изменением климата. Подчеркивая фальшивость данного видеоролика в конце, звучало заявление: «Мы все знаем, что изменение климата — это обман, подобный этому видео» [33, p.145].

Однако первым официально злонамеренным политическим дипфейком был признан инцидент связанный с главой МИД и заместителем премьер-министра Бельгии Софи Вильмес в 2020 году. В видеоролике политик произносила вымышленную речь о связи между COVID-19 и изменением климата [45, p.4].

Большую озабоченность вызывает повсеместное использование технологии дипфейк в образовании, СМИ и в сфере культуры, которая может привести к искажению исторических фактов и манипулированию общественным мнением с злонамеренной целью выработки антигуманных и антидемократических ценностей у определенных групп целевых аудиторий.

Американские исследователи Элла Буш и Джейкоб Уэр из Международного центра по борьбе с терроризмом в своем докладе «Вепонизация дипфейков: цифровой обман со стороны крайне правых» отмечают, что экстремисты скорее всего воспользуются синтетическими средствами массовой информации для достижения своих целей, таких как распространение ложной провокационной информации, выступления авторитетных лиц, дезинформация о выборах и искажение социальных и политических событий с целью подстрекать к насилию. Дипфейки предоставят экстремистам идеологическую амуницию, позволяя влиятельным лицам создавать «доказательства» предполагаемых правонарушений, оправдывающих экстремистские взгляды [13, p.5].

Многочисленные социологические исследования последних лет показывают, что использование политических дипфейков во время проведения выборов вызывают у целевых аудиторий обеспокоенность и недоверие к официальным СМИ.

Так, в 2023 году кампания Luminate провела исследование, в котором было обнаружено, что более 70% граждан Великобритании были обеспокоены влиянием дипфейков на предстоящие выборы в стране [39, p.2].

Британские ученые Твеша Сиппья, Флоренс Э. Энока, Джонатан Брайта, Хелен З. Маргетца, в статье «За дипфейками: 8% создают; 90% обеспокоены. Исследование о влиянии и восприятии дипфейков среди населения Великобритании» отмечают, что общая доля политических дипфейков в Великобритании за 2024 год составила 34,1% [39, p.1].

В 2019 году в Сингапуре принят Закон о защите от ложных сведений и манипуляций в Интернете (Protection from Online Falsehoods and Manipulation Act, POFMA). POFMA распространяется не только на письменный контент, но и на «ложные или вводящие в заблуждение» изображения и видео, что позволяет регулировать в том числе и дипфейки [2, с.231].

10 января 2023 г. закон о дипфейках вступил в силу в Китае. Согласно документу, дипфейк-контент несет в себе риски заражения вирусом (сетей и компьютеров) и кражи личных данных. Среди ключевых новых правил — необходимость предоставлять согласие на использование изображений пользователем и запрет использования технологий такого типа для распространения новостей. Перед публикацией контента с использованием технологии дипфейк обязательным становится размещение уведомления, указывающего пользователям, что это — отредактированное или измененное изображение. В случае, если создатель не выполнит это требование, он будет вынужден удалить контент и привлечен к уголовной ответственности за угрозу национальной безопасности [3, с.41].

По состоянию на 2024 год согласно отчету Ballotpedia законы в отношении политических дипфейков приняты в США в 17 штатах [10, p.5].

В преддверии муниципальных выборов в Бразилии, которые пройдут в октябре 2024 года, Высший избирательный суд страны, регулируя использование искусственного интеллекта на выборах, ввел запрет на использование дипфейков в избирательных кампаниях для искаженных образов политических оппонентов [38].

На сегодняшний день правительства многих стран ведут поэтапную работу по совершенствованию своих правовых систем на предмет дипфейков. Наиболее активно, в том числе и на законодательном уровне, противодействуют распространению вредоносного ложного контента Индия, КНР, США, Сингапур, Великобритания, Южная Корея, Австралия, Япония, Австрия и Евросоюз [1, с.38].

Типизация политических дипфейков и виды злонамеренных угроз

В 2021-2024 гг. в зарубежной научной литературе были выделены типы политических дипфейков и описаны риски, связанные с их воздействием на целевые аудитории.

Польский исследователь Агата Зиобронь в статье «Политический дипфейк: рекомендации по принятию закона и необходимые стандарты, которым он должен соответствовать» приводит следующую типизацию дипфейков:

  • Политический дипфейк – применяется для ироничного изображения или дискредитации политических деятелей;
  • Порнографический дипфейк – несет в себе черты визуальной порнографии;
  • Креативный дипфейк – используется в сферах образования, искусства и кинематографии;
  • Сатирический дипфейк – нацелен на высмеивание недостатков определенной группы людей или отдельно взятой личности, иногда содержит клевету;
  • Террористический дипфейк – создается с целью распространения террористической пропаганды;
  • Дипфейк доказательств – создается с целью представления ложных доказательств в судебных органах. Этот вид дипфейка является наиболее опасным с точки зрения достижения целей судебного процесса;
  • Насильственный дипфейк – применяется для угроз или принуждения к выполнению определенных действий или нанесению вреда;
  • Смешанный дипфейк – может включать элементы двух или более вышеперечисленных типов [41, p.80].

На сегодняшний день существуют две научные гипотезы влияния технологий ИИ, и, в частности, дипфейков на общество.

Авторами первой гипотезы выступают бразильские ученые Андерсон Рёэ Фонтан Батиста, Люсия Сантаэлла, которые считают, что использование генеративного искусственного интеллекта в политических кампаниях на данный момент обладает двойственной природой, способной порождать как позитивные, так и негативные последствия. С одной стороны, он может служить средством поощрения активности и вовлеченности избирателей. С другой стороны, может привести к усилению политической поляризации, вызывая непредвиденные угрозы, такие как массовое распространение дезинформации, фальсификация и манипуляция результатами выборов [23, p.193].

Эту концепцию разделяют американские ученые Этан Буэно де Мескита, Брэндис Канес-Врон, Эндрю Б. Холл, Кристиан Лум, Грегори Дж. Мартин, Ямиль Рикардо Велес, которые изложили свою позицию в статье «Подготовка к использованию генеративного искусственного интеллекта на выборах 2024 года: рекомендации и лучшие практики, основанные на научных исследованиях».

По мнению авторов, использование дипфейков во время предвыборной кампании имеет как отрицательные, так и положительные аспекты. Среди отрицательных аспектов они выделяют ухудшение информационной среды. Исследования показывают, что генеративный искусственный интеллект способен создавать убедительные дипфейки, что увеличивает вероятность появления ложной информации в период проведения предвыборной агитации. Большое опасение вызывает факт обращения избирателей за фактической информацией о выборах к чат-ботам, которые не являются надежными источниками информации.

Вторым отрицательным аспектом является использование микротаргетинга и манипуляций. Существует риск того, что микротаргетинг, опирающийся на искусственный интеллект, или эмоционально манипулятивные чат-боты могут убеждать избирателей действовать вопреки их интересам и разъединять электорат. Тем не менее, многочисленные социологические исследования указывают на то, что массовое убеждение или манипуляция избирателями маловероятны, и что большее беспокойство вызывает восприятие таких манипуляций, чем их реальное воздействие на выборы.

Говоря о положительном воздействии, авторы отмечают, что применение генеративных технологий искусственного интеллекта в политике открывает перспективы для создания доступных обзоров политики, помощи избирателям в оценке кандидатов, содействия общению между гражданами и государством, а также установлению равных правил игры для кампаний с ограниченными ресурсами.

Ко второму положительному моменту американские исследователи относят централизацию данных. В связи с тем, что инструменты генеративного искусственного интеллекта сконцентрированы в нескольких технологических компаниях, возникают опасения относительно уровня контроля, который они могут осуществлять над политической информацией. Это может привести к серьезным проблемам модерации контента, предвзятости [19, p.2].

Менее оптимистичного взгляда относительно влияния политических дипфейков на общество придерживается перуанский исследователь Матиас Лаванда в своей статье «Дипфейк: когда искусственный интеллект угрожает закону и демократии». Ученый считает, что политические дипфейки, в отличие от порнографических дипфейков, могут быть намного опаснее, так как они способны изменить мнение определенного сегмента избирателей и, в крайнем случае, вызвать общий хаос [29, p.89].

Эту концепцию разделяет немецкий исследователь Мария Павелец, которая в своей статье «Дипфейки как возможность для демократии?» отмечает, что дипфейки могут быть использованы для нападения на политических оппонентов и углубления социальных разногласий, разжигая конфликты как внутри страны, так и между государствами. В настоящее время дипфейки все чаще применяются в международных кампаниях по дезинформации, вызывая опасения у наблюдателей по поводу возможного подрыва доверия граждан к общепризнанным нормам, что, в свою очередь, подрывает основы демократического дискурса [31, p.89].

Индонезийские ученые в статье «Этика в эпоху искусственного интеллекта: как обеспечить честность коммуникации» отмечают, что дипфейки представляют значительную угрозу для общества, политической системы и бизнеса, поскольку они: 1) оказывают давление на журналистов, которые стараются отделить реальные новости от фейковых; 2) угрожают национальной безопасности, распространяя пропаганду и вмешиваясь в выборы; 3) подрывают доверие граждан к информации, предоставляемой государственными органами; и 4) поднимают вопросы кибербезопасности в обществе [30, p.240].

Ряд зарубежный ученых полагает, что использование маркетинговых приемов для распространения политических дипфейков, в частности таргетированной рекламы, способны в корне изменить политическую обстановку. Так канадский ученый Симон Робишо-Дюран в своей статье «Гиперфейки: анализ феномена «дипфейков» и рекомендации» выделяет несколько целей использования дипфейков: порнографические цели гиперфейсинга, которые наносят ущерб репутации, частной жизни и достоинству жертвы [34, p.83], политические цели гиперфейсинга, которые причиняют вред обществу, подрывая доверие к государственным институтам и часто используются во время выборов [34, p.85].

Нидерландские ученые Т. Доббер, Н. Метуи, Д. Триллинг, Н. Хельбергер и К. де Вриз высказывают схожую позицию в своей статье «Реализация микротаргетинга: влияют ли дипфейки на политические настроения?», утверждая, что использование методов микротаргетинга может усилить эффект дипфейков путем адаптации под приемлемость целевой аудитории. В своем исследовании они подчеркивают, что дипфейки представляют собой эффективную и реалистичную форму дезинформации [16, p.70].

Большинство современных исследований, посвященных явлению политических дипфейков, уделяют значительное внимание классификации потенциальных угроз, связанных с использованием этой технологии в политике.

В 2021 году Европейский парламент опубликовал документ под названием «Европейская стратегия по борьбе с дипфейками», в котором выделяются три основные категории вреда обществу, который может быть причинен дипфейками: психологический, финансовый и социальный.

Психологический ущерб включает в себя вымогательство, клевету, запугивание, издевательство и подрыв доверия. Финансовый ущерб может проявляться через вымогательство, кражу личных данных, мошенничество (например, в области страхования и платежей), манипулирование ценами акций, а также нанесение ущерба бренду и репутации. Социальный ущерб связан с манипулированием информацией в СМИ, угрозой экономической стабильности, вредом для системы правосудия и научной сферы, эрозией доверия, угрозой демократии, манипулированием выборами, ущербом международным отношениям и национальной безопасности [36, p.29].

Немецкий исследователь Мурат Карабога в своей статье «Регулирование дипфейков на уровне ЕС: обзор одного лоскутного одеяла. Классификация Закона о цифровых услугах и предложение по регулированию ИИ» выделяет риски, связанные с использованием дипфейков. Первый риск заключается в возможном психологическом вреде, особенно для тех, кого дипфейк затрагивает напрямую, поскольку он может быть использован в целях запугивания и клеветы. [28, p.204].

Второй риск заключается в возможном финансовом ущербе как для отдельных лиц, так и для организаций, так как они могут применяться для кражи личных данных. В частности, такой вид мошенничества может нацелиться на организации, компании или отдельных лиц [28, p.203]. В перспективе дипфейки могут также быть использованы для нанесения ущерба брендам или репутации, например, путем распространения ложных утверждений о бизнесе или банкротствах менеджеров. Как отмечают российские ученые в учебнике «Международная безопасность в эпоху искусственного интеллекта» размещение в Сети роликов определенного содержания, например с ложными заявлениями о трудном финансовом положении одной из крупных компаний, может даже изменить фондовый рынок в интересах злоумышленников. И совершенно очевидно, что включение в фишинговую рассылку дипфейков повышает эффективность в разы [7, с.163].

Третий риск связан с возможным социальным вредом. Этот вид ущерба относится к дискуссионному и, вероятнее всего, будет рассматриваться как средне- или краткосрочная опасность, чьи последствия станут явными лишь при более частом использовании дипфейков или при существенном влиянии отдельных дипфейков на общество в целом. Дипфейки могут повлиять на различные сферы общества, однако особое внимание уделяется потенциальным последствиям для средств массовой информации, судебной системы, научных и экономических учреждений, национальной безопасности и международных отношений.

Российский исследователь Ю. В. Лукина отмечает, что особенное внимание необходимо уделить аудиоподделкам, созданным при помощи искусственного интеллекта, которые становятся новым мощным оружием на поле битвы за дезинформацию в Интернете, угрожая усилить возможность широкого распространения ложной информации в преддверии выборов 2024 года, проходящих во многих странах [6, с.45].

В своем исследовании «Искусственный интеллект, глубокие подделки и дезинформация» американский исследователь Тод Хельмус выделяет несколько видов угроз, связанных с дипфейками: вмешательство в выборы, увеличение социальных разногласий и снижение доверие целевых аудиторий к СМИ подрыв доверия целевой аудитории к СМИ [25, p.19].

Виды политических дипфейков для когнитивного влияния на целевые аудитории

Автор данного исследования выделяет несколько видов политический дипфейков, направленных на оказание когнитивного влияния над целевыми аудиториями.

Политический дипфейк действующего политического лидера, созданный на основе реального видео, изображающий действующего политического лидера, направлен на быстрое воздействие на массовое сознание и формирование недоверия к правительству, что может повлечь за собой возможность государственного переворота и посеять моральную панику.

Ярким примером может послужить злонамеренный политический дипфейк российского президента В.В. Путина в июне 2023 года. В ложном видеоролике транслировалось «обращение Путина» о военном положении в ряде областей России [4, с. 54]. Вирусный ролик был показан не только в российских соцсетях, но и в эфире межгосударственной телерадиокомпании «Мир», которая была взломана злоумышленниками для размещения провокационного видео России [42].

Дипфейк-фишинготносится к типу смешанного дипфейка. В ноябре 2023 года в ЮАР появилась новая мошенническая схема, затронувшая репутацию известных журналистов страны. В начале ноября в сети распространились дипфейк-ролики ведущих Южноафриканской вещательной корпорации (SABC) Бонгиве Зване и Фрэнсис Херда, рекламирующих фальшивые криптовалютные инвестиции.

Дипфейк-видео, рекламирующие мошенническую инвестиционную схему, привлекли к себе большое внимание целевых аудиторий страны, а одно из них с участием Фрэнсис Херда с момента своего появления 3 ноября собрало более 123 000 просмотров на YouTube. В ответ на аферу Фрэнсис Херд и Бонгиве Зване публично опровергли свою причастность к видеороликам, сгенерированным искусственным интеллектом. Мошо Монаре, руководитель отдела новостей SABC, осудил аферу, подчеркнув необходимость защиты репутации вещательной корпорации и ее журналистов. Этот инцидент не только подорвал доверие к отдельным журналистам, но и раскрыл более серьезную угрозу для СМИ, затрудняя способность общественности отличать реальный контент от манипулятивного.

Политический дипфейк-аватар представляет собой форму манипуляции, направленную на постепенное изменение мировоззрения целевой аудитории в возрасте от 20 до 45 лет. Эта аудитория включает в себя людей, получающих информацию через социальные сети, чат-ботов, а также геймеров. Чаще всего эта целевая группа, избегающая личного общения и предпочитающая виртуальное взаимодействие. Она склонна к привязанности к виртуальным персонажам, что приводит к размыванию границ между реальностью и виртуальным миром.

По функционально-ценностному признаку существующие аватары делятся на три категории. 1) Медийная категория (звезды шоу-бизнеса, публичные личности). 2) Аватары, оказывающие профессиональные услуги (виртуальные эксперты, врачи, учителя). 3) Аватары-спутники жизни (домашние животные, родственники) [44].

Ярким примером может послужить случай, который произошел в Южной Корее 6 декабря 2021 года, когда главный оппозиционный кандидат в президенты от партии «Сила народа» Юн Сок Ёл использовал в своей предвыборной компании искусственный интеллект для создания цифрового персонажа Юна. Сообщается, что аватар ИИ Юна был чрезвычайно популярен среди молодых южнокорейцев, как и его дерзкие ответы в духе Трампа на вопросы в Интернете от избирателей, а также журналистов. Юн Сок Ёл записал свой голос и предоставил изображения для создания цифрового аватара, а его ответы были предоставлены сотрудниками кампании [32]. Кандидаты в президенты Кореи извлекают выгоду из цифровых технологий, чтобы получить больше поддержки, используя виртуальных персонажей, работающих на основе ИИ, которые заменяют их в избирательных кампаниях.

В Южной Корее «дипфейки» разрешены в избирательных кампаниях, если на них стоит метка «цифровые аватары», не подстрекают к насилию, не лгут и не распространяют «фейковые новости».

Политический дипфейк умершего политика.Относится к третьей категории, рассчитанной на виртуальное взаимодействие. Используется радикальными и террористическими группировками для вербовки через игры и социальные сети. Как отмечают китайские психологи, взаимодействуя с аватаром, нельзя понять – человек ли это, либо машина, что приводит к тревоге и изменению психики, вызывая когнитивную неопределенность [46, p. 419]. Таким образом такая форма подачи информации не формирует ментального навыка обстоятельного анализа и понимания [9, с. 409].

Такой вид дипфейка может быть использован как инструмент вербовки для экстремистских группировок. Онлайн-вербовка становится все более важной для процесса радикализации насильственного экстремизма. В 2016 году 90 процентов экстремистов были набраны через социальные сети [13, p. 7].

Политический дипфейк-карикатура. Относится к типу сатирического дипфейка и используется для различных политических пародий. Как и последние виды, направлен на постепенное влияние на целевые аудитории с целью формирования негативной информации о политическом лидере в общественном мнении. Данный вид дипфейка может стать серьезной угрозой для политических дискуссий, воздействуя на когнитивные функции целевых аудиторий с целью обмана. Очень часто политические дипфейки маскируются под сатиру во избежание удаления, продолжая дезинформировать целевые аудитории [31, p. 94].

Ярким примером может послужить случай, произошедший 23 сентября 2019 года в Италии. В сатирическом шоу Striscia la notizia был показан вымышленный эпизод с участием бывшего премьер-министра Маттео Ренци в главной роли. В дипфейковом видео Ренци высмеивал некоторых членов правительства и демократической партии, которую он покинул. Во время трансляции в эфире не было отмечено, что данный ролик является дипфейком, новость о фейковом персонаже Ренци была размещена позже на сайте шоу Striscia la notizia [14].

Одним из активных новаторов и изобретателей политической карикатуры посредством технологии дипфейк является бразильский маркетолог и видеомейкер Бруно Сартори, получивший известность благодаря целой серии видеороликов, высмеивающих политических лидеров [5, p. 42]. Используя технику синтеза человеческих изображений и звуков, включая рендеринг видео известных телесериалов и музыкальных клипов, Б. Сартори демонстрирует политическую сатиру, создавая мемы президентов Бразилии Ж. Болсонару, Л. да Силву и других политиков. Видеомейкер уверен, что дезинформационная компания при помощи технологии дипфейк способна в корне изменить политические выборы [12].

Таким образом сатирические дипфейк-ролики Б. Сантори являются новым инструментом мягкой силы, который использует национальные формы межкультурной коммуникации (фольклор, музыка, телесериалы, литература), влияя на целевые аудитории страны.

Несанкционированное воздействие политических дипфейков на выборах 2023 -2024 гг.

В период 2023-2024 гг. использование политических дипфейков на выборах получило массовую вирусализацию.

Нынешний год стал рекордным периодом выборов во многих странах мира. Президентские и парламентские выборы проходят в 64 странах, на которые приходится больше половины мирового населения земли.

Согласно данным компании Sumsub за 2024 год, количество дипфейков по всему миру выросло более чем на 245%. В некоторых странах, где выборы намечены на 2024 год, таких как США, Индия, Индонезия, Мексика и Южная Африка, отмечен значительный прирост дипфейков [15].

Увеличение злонамеренных дипфейков особенно заметно в странах, где выборы запланированы на 2024 год: Сальвадор и Венесуэла (на 200%), Индия (на 280%), США (на 303%), ЮАР (на 500%), Мексика (на 500%), Молдова и Чили (на 900%), Индонезия (на 1550%) и Южная Корея (на 1625%). В Европейском союзе, где в июне состоялись выборы в Европарламент, наблюдается увеличение числа случаев фальсификации по сравнению с предыдущим годом в таких странах, как Болгария (3000%), Португалия (1700%), Бельгия (800%), Испания (191%), Германия (142%) и Франция (97%) [15].

Газета Korea Times сообщает, что по информации Корейской национальной избирательной комиссии (НИК) за период с 29 декабря 2023 года по 1 января 2024 года выявлено 129 случаев использования дипфейков, связанных с предстоящими выборами. Все случаи были признаны нарушением закона о выборах государственных служащих [24].

В октябре 2023 года за несколько дней до парламентских выборов в Словакии в социальных сетях распространился политический дипфейк лидера Словацкой прогрессивной партии Михала Шимечка обсуждавшего с журналисткой из ежедневной газеты Dennik N Моникой Тодовой свои планы по манипулированию голосами на избирательных участках [35].

В ноябре 2023 года жертвой вирусного политического дипфейка с элементами доксинга в Аргентине стал кандидат партии «Союз ради Родины» Серхио Масса. В злонамеренном видеоролике будущий президент был запечатлен с пакетом кокаина. Ролик набрал более 190 тысяч «лайков» в TikTok и активно распространялся в мессенджере WhatsApp [18].

В декабре 2023 года в социальных сетях появилось дипфейк-видео бывшего премьер-министра Пакистана Имрана Кана, отбывающего трехлетний тюремный срок, направленное на агитацию партии «Движение за справедливость (PTI)» на предстоящих всеобщих выборах в стране [26]. В четырехминутном видеоролике было показано фейковое видео заключенного лидера, сидящего рядом с государственным флагом Пакистана, призывающего голосовать за партию PTI и обвиняющего действующие власти в запрете публичных митингов, а также в преследовании и похищении членов его партии.

В январе 2024 года дипфейк-фишинг был направлен на подрыв репутации Клаудии Шейнбаум, кандидата в президенты от партии Морена в Мексике [40]. Изображение Клаудии Шейнбаум было использовано для создания смешанного типа дипфейка, в котором она предлагала мексиканцам инвестировать в предполагаемую финансовую платформу. Дипфейк использовался для искажения политических высказываний, распространения ложной информации и манипулирования общественным мнением, представляя серьезную угрозу для политической и финансовой обстановки Мексики в преддверии выборов 2024 года.

Как отмечали многие эксперты, выборы в Мексике стали самыми масштабными по числу использования технологий искусственного интеллекта для влияния на ход избирательной кампании. За два последних года в Мексике на 300% выросло использование дипфейков. Эта ситуация привела к росту дезинформации и манипуляций в Интернете. Согласно исследованию, проведенному компанией «Лаборатория Касперского» за 2023 год, 72% мексиканских пользователей не знают о существовании этой технологии [17].

Использование дипфейк-аватаров во время политических выборов приобрело особую актуальность после предвыборного скандала в Индонезии в январе 2023 года.

В середине февраля 2024 года в Индонезии прошли президентские и парламентские выборы. 6 января 2024 года Эрвин Акса, председатель политической партии «Голкар», на социальной медиаплатформе X распространил дипфейк-видео, изображающее покойного индонезийского президента Сухарто. Видео представляет собой реалистичную симуляцию бывшего президента, призывающего избирателей голосовать за кандидатов партии «Голкар»: «Я президент Сухарто, второй президент Индонезии, приглашаю вас избрать представителей народа из Голкара».

Политический дипфейк-аватар стал вирусным, набрав за пять дней 4,2 миллиона просмотров и 1200 комментариев [22]. В конце декабря 2023 года Министерство связи и информационных технологий Индонезии выпустила депешу об этичности использования искусственного интеллекта, но она носила лишь рекомендательный характер [20]. Скандал с приведенным выше политическим дипфейком вызвал громкие дебаты об этических и юридических последствиях использования таких технологий для политических кампаний страны. Рассматриваемая нами предвыборная манипуляция в очередной раз указывает на то, что технологии ИИ могут нести злонамеренный посыл для управления целевыми аудиториями во время политических выборов.

Использование политических аватаров для влияния на целевые аудитории - новый этап развития цифрового государства. В 2024 году Британская технологическая компания Smarter UK анонсировала запуск своего первого аватара-политика [11].

Подобная практика не является новой и была применена в Южной Корее в 2022 году, когда кандидат в президенты Юн Сок Ёль использовал официального политического аватара для привлечения избирателей.

Британский AI Steve представляет собой виртуальную версию политика Стива Эндакотта, который потерпел поражение на местных выборах 2022 года в Рочдейле (графство Большой Манчестер), представляя Консервативную партию. Инициатива заключается в том, что ИИ Стив планирует «переосмыслить демократию», предлагая избирателям возможность голосовать за действия, которые ИИ Стив должен предпринять в роли местного депутата. Затем реальный Стив Эндакотт примет это решение в парламенте.

Используя механизм одобрения или неодобрения через ИИ Стив, будет определено, какие действия предпримет Эндакотт (если более 50% проголосует за конкретное действие, оно будет осуществлено). В компании считают, что этот подход основан на принципе большинства, который является ключевым аспектом демократического управления. Согласно данному принципу, решения с наибольшей поддержкой должны быть приняты. Учитывая потенциальное влияние избирателей на решения парламента, специалисты из Smarter UK считают, что использование ИИ Стива может способствовать укреплению доверия между избирателями и их представителями.

Лидером по использованию политических дипфейков на выборах 2024 годасталаИндия. Согласно исследованию, проведенному компанией Adobe под названием «Перспективы доверия в Индии», почти 86% жителей Индии считали, что злонамеренные дипфейки могут повлиять на результаты выборов в стране [23].

В мае 2024 года Избирательная комиссия Индии предложила всем политическим партиям воздержаться от использования дипфейков и других форм дезинформации в своих сообщениях в социальных сетях во время проведения выборов. Этот шаг был предпринят после того, как Избирательная комиссия была критикована за неэффективные меры по борьбе с такими кампаниями в самой густонаселенной стране мира [27].

Опубликованные рекомендации требуют, чтобы политические партии удаляли все фейковые аудио- и видеозаписи в течение трех часов с момента их обнаружения. Кроме того, сторонам рекомендуется выявить и наказать лиц, ответственных за создание поддельного контента. Решение Избирательной комиссии было принято после обращения в Высокий суд Дели с просьбой рассмотреть этот вопрос.

Заключение

Использование политических дипфейков на выборах 2023-2024 гг. свидетельствует о возрастающей угрозе использования цифровых дезинформационных технологий для оказания влияния на целевые аудитории разных стран, затрудняя способность общественности отличать реальный контент от манипулятивного, что может привести к политической дестабилизации.

Многочисленные исследования утверждают, что к 2026 году до 90 процентов онлайн-контента может быть создано синтетически, а это означает, что использование дипфейков, вероятно, станет распространенным источником киберпреступности [13, p.3]. и прямого вмешательства в выборы.

Несанкционированное использование политических дипфейков во время выборов представляет собой глобальную проблему. В современной научной литературе выделены различные виды политических дипфейков, которые оказывают влияние на целевую аудиторию во время политических выборов. Классификация видов политических дипфейков, приведенная в данном исследовании, позволяет по-новому взглянуть на проблему когнитивного влияния этого вида дезинформации на общественное мнение.

Несмотря на существующие законы, ограничения и рекомендации, активность по распространению дезинформации при помощи политических дипфейков в последние годы показала значительный рост своей массовой вирусализацией. Одной из основных трудностей в регулировании политических дипфейков является их завуалированность за счет использования смешанных типов данного вида манипуляций.

Существенным препятствием в регулировании данной технологии является также отсутствие общепризнанных международных стандартов. Еще одним барьером для эффективного изучения и внедрения технологий искусственного интеллекта в области кибербезопасности является распространение ложно-негативного образа России и Китая как лидирующих стран в этой области в англоязычной научной литературе.

По результатам проведенного анализа автор предлагает следующие рекомендации:

— разработка отечественных детекторов для обнаружения дипфейков;

— проведение широкой информационной кампании о технологии дипфейков для населения;

освещение случаев использования политических дипфейков во время выборов в СМИ и социальных сетях;

— наложение штрафов на социальные сети и информационные ресурсы за размещение дипфейков на своих платформах;

— внедрение обязательных водяных знаков в дипфейковые видеоролики;

— введение законодательного регулирования в области политических дипфейков;

— мониторинг дипфейковой пропаганды силами цифровой полиции;

— создание специализированной исследовательской группы для анализа воздействия дипфейков на общество.

Библиография
1. Аналитический обзор. Дипфейки в цифровом пространстве: основные международные подходы к исследованию и регулированию. М.: АНО «Центр компетенций глобальной ИТ-кооперации». 2023. – 54 с.
2. Виноградов В. А., Кузнецова Д. В. Зарубежный опыт правового регулирования технологии «дипфейк» // Журнал Высшей школы экономики. Право. 2024. Том 17. № 2. С. 215-239. DOI: 10.17323/2072-8166.2024.2.215.240.
3. Виноградова Е.А. Злонамеренное использование политических дипфейков и попытки их нейтрализации в странах Латинкой Америки // Латинская Америка. 2023, №. 5. С. 35-48. DOI: 10.31857/S0044748X0025404-3.
4. Виноградова Е.А. Технологии искусственного интеллекта в политической повестке БРИКС // Латинская Америка. 2024, № 1. С. 46-60. DOI: 10.31857/S0044748X0024415-5.
5. Виноградова Е.А. Технологии искусственного интеллекта и нарастающие киберугрозы в Латинской Америке // Латинская Америка. 2023. № 3. С. 34-48. DOI: 10.31857/S0044748X0024415-5.
6. Лукина Ю. В. Использование дипфейков в общественно-политической жизни // https://rupolitology.ru/wp-content/uploads/2024/01/RP_27_Lukina.pdf (дата обращения: 13.06.2024)
7. Международная безопасность в эпоху искусственного интеллекта. В двух томах. Том 1. Учебник для вузов. Под редакцией М.В. Захаровой и А.И. Смирнова, М.: Издательство Аспект-пресс, 2024. – 401 с.
8. Образ цифрового будущего России: формирование и репрезентация. Под общей редакцией В.В. Зотова, Г.Р. Консона, С.В. Володенкова М.: МФТИ, физтех, 2024 – 150 с.
9. Пролегомены когнитивной безопасности. Коллективная монография под редакцией И.Ф. Кефели. СПб.: ИД «Петрополис», 2023 – 488 с.
10. Ballotpedia’s Artificial Intelligence Deepfake Legislation Tracker. Annual Report. // State of Deepfake Legislation, 2024. – 13 p.
11. Britain’s first AI politician claims he will bring trust back to politics – so I put him to the test. // https://www.deepl.com/ru/translator#en/ru/Britain%E2%80%99s%20first%20AI%20politician%20claims%20he%20will%20bring%20trust%20back%20to%20politics%20%E2%80%93%20so%20I%20put%20him%20to%20the%20test (дата обращения: 17.07.2024)
12. Bruno Sartori: deepfakes, política e ameaças // https://revistatrip.uol.com.br/trip/bruno-sartori-deepfakes-politica-e-ameacas (дата обращения: 18.07.2024)
13. Busch Ella, Ware Jacob. The Weaponisation of Deepfakes. Digital Deception by the Far-Right. // ICCT Policy Brief December. 2023. – 20 p. DOI: 10.19165/2023.2.0720.
14. Che cosa sappiamo del deepfake di Renzi (e di tutti gli altri) // https://pagellapolitica.it/articoli/che-cosa-sappiamo-del-deepfake-di-renzi-e-di-tutti-gli-altri (дата обращения: 20.07.2024)
15. Deepfake Cases Surge in Countries Holding 2024 Elections, Sumsub Research Shows. URL: https://sumsub.com/newsroom/deepfake-cases-surge-in-countries-holding-2024-elections-sumsub-research-shows/ (дата обращения: 22.07.2024)
16. Dobber T., Metoui N., Trilling D., Helberger N., de Vreese C. Do (Microtargeted) deepfakes have real effects on political attitudes? // International Journal of Press. Politics. 2021. Vol. № 26 (1). P. 69-91. DOI: 10.1177/1940161220944364.
17. En México 72% de las personas desconoce qué es un deepfake. URL: https://notipress.mx/tecnologia/en-mexico-72-por-ciento-personas-desconoce-que-es-deepfake-11679 (дата обращения: 24.07.2024)
18. Es falso que en este video viral Sergio Massa recibe una bolsa con cocaína, lo que le arrojan son cartas. URL: https://chequeado.com/ultimas-noticias/es-falso-que-en-este-video-viral-sergio-massa-recibe-una-bolsa-con-cocaina-lo-que-le-arrojan-son-cartas/ (дата обращения: 23.07.2024)
19. Ethan Bueno de Mesquita., Brandice Canes-Wrone., Andrew B. Hall., Kristian Lum., Gregory J. Martin., Yamil Ricardo Velez. Preparing for Generative AI in the 2024 Election: Recommendations and Best Practices Based on Academic Research. Stanford Graduate School of Business and the University of Chicago Harris School of Public Policy November. 2023. – 14 p.
20. Ethical guidelines on use of artificial intelligence (AI) in Indonesia. URL: https://www.herbertsmithfreehills.com/notes/tmt/2024-02/ethical-guidelines-on-use-of-artificial-intelligence-ai-in-indonesia (дата обращения: 15.07.2024)
21. Facing reality? Law enforcement and the challenge of deepfakes. // An Observatory Report from the Europol Innovation Lab. 2022. – 23 p.
22. Fake Suharto video fuels debate on AI use in Indonesian election campaign. URL: https://www.benarnews.org/english/news/indonesian/suharto-deepfake-used-in-election-campaign-01122024135217.html (дата обращения: 9.07.2024)
23. Fontão Batista Anderson Röhe., Santaella Lucia. Prognósticos das deepfakes na política eleitoral. Pronósticos del ultrafalso en la política electoral. // Organicom. 2024. № 21(44). P. 187-196. DOI: 10.11606/issn.2238-2593.organicom.2024.221294.
24. Hàn Quốc: Chuyên gia lo ngại nội dung deepfake ảnh hưởng kết quả bầu cử. URL: https://hanoimoi.vn/han-quoc-chuyen-gia-lo-ngai-noi-dung-deepfake-anh-huong-ket-qua-bau-cu-658823.html
25. Helmus T. C. Artificial Intelligence, Deepfakes, and Disinformation. 2022, 24 p. // https://www.rand.org/pubs/perspectives/PEA1043-1.html (дата обращения: 2.04.2024)
26. Imran Khan–Pakistan’s Jailed Ex-Leader–Uses AI Deepfake To Address Online Election Rally. // https://www.forbes.com/sites/siladityaray/2023/12/18/imran-khan-pakistans-jailed-ex-leader-uses-ai-deepfake-to-address-online-election-rally/ (дата обращения: 13.07.2024)
27. India urges political parties to avoid using deepfakes in election campaigns. // https://techcrunch.com/2024/05/07/india-elections-deepfakes/ (дата обращения: 16.07.2024)
28. Karaboga M. Die Regulierung von Deepfakes auf EU-Ebene: Überblick eines Flickenteppichs und Einordnung des Digital Services Act- und KI-Regulierungsvorschlags. // Digitale Hate Speech. 2023. P.197-220 DOI:10.1007/978-3-662-65964-9_10.
29. Lavanda Oliva Matías. Deepfake: Cuando la inteligencia artificial amenaza el Derecho y la Democracia. // Revista de Derechoy Tecnología. 2022. № 2. P. 84-95.
30. Leliana Intan., Irhamdhika Gema., Haikal Achmad., Septian Rio., Kusnadi Eddy. Etika Dalam Era Deepfake: Bagaimana Menjaga Integritas Komunikasi' // Jurnal Visi Komunikasi. 2023. № 22(02). P. 234-243. DOI: https://doi.org/10.32699/device.v14i1.6984
31. Pawelec Maria. Deepfakes als Chance für die Demokratie? // The Nomos eLibrary. 2024. P.89-101. DOI: https://doi.org/10.5771/9783748928928-89
32. Presidential candidates' computer-generated avatars heat up debate. URL: https://www.koreatimes.co.kr/www/nation/2024/07/113_320192.html (дата обращения: 6.07.2024)
33. Rini Regina., Cohen Leah. Deepfakes, Deep Harms. // Journal of Ethics and Social Philosophy. 2022. № 22(2). Pp. 143-161. York University, Toronto. DOI: 10.26556/jesp.v22i2.1628.
34. Robichaud-Durand S. L’hypertrucage: analyse du phénomène des «deepfakes» et recommandations. // Lex Electronica. 2023. Volume 28. № 4. Pp. 78-98. DOI: https://doi.org/10.7202/1108807aradresse copiéeune.
35. Slovakia’s Election Deepfakes Show AI Is a Danger to Democracy. // https://www.wired.com/story/slovakias-election-deepfakes-show-ai-is-a-danger-to-democracy/ (дата обращения: 6.07.2024)
36. Tackling deepfakes in European policy. STUDY. Panel for the Future of Science and Technology. // EPRS. European Parliamentary Research Service Scientific Foresight Unit (STOA). 2021 – 116 p.
37. The spread of true and false news online. // https://www.science.org/doi/10.1126/science.aap9559 (дата обращения: 19.02.2023).
38. TSE proíbe uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições. // https://www.tse.jus.br/comunicacao/noticias/2024/Fevereiro/tse-proibe-uso-de-inteligencia-artificial-para-criar-e-propagar-conteudos-falsos-nas-eleicoes (дата обращения: 21.08.2024).
39. Tvesha Sippya., Florence E. Enocka., Jonathan Brighta., Helen Z. Margettsa. Behind the Deepfake: 8% Create; 90% Concerned Surveying public exposure to and perceptions of deepfakes in the UK. // arXiv:2407.05529v1 [cs.CY]. 8 Jul 2024. DOI: https://doi.org/10.48550/arXiv.2407.05529.
40. Video circulating of Claudia Sheinbaum is apparently a ‘deepfake’. // https://mexiconewsdaily.com/politics/video-circulating-of-claudia-sheinbaum-is-apparently-a-deepfake/ (дата обращения: 23.07.2024).
41. Ziobroń Agata. Political deepfake. Remarks de lege lata and postulates de lege ferenda. Rozprawy i Materiały. 2024. № 1 (34). Pp. 79-95. DOI: 10.48269/2451-0807-sp-2024-1-04.
42. На ТВ показали «обращение Путина» о военном положении в ряде областей России. Это был взлом, а ролик оказался дипфейком. // https://rusnewshub.ru/2023/06/05/ (дата обращения: 20.09.2023)
43. per cent Indians believe misinformation and harmful deepfakes will affect future elections. // https://indianexpress.com/article/technology/tech-news-technology/misinformation-and-harmful-deepfakes-will-affect-future-elections-in-india-adobe-9357027/ (дата обращения: 22.07.2024)
44. 聊天機器人能改善心理健康?研究:可有效協助憂鬱症患者緩解症狀. // https://heho.com.tw/archives/256168# (дата обращения: 11.03.2023)
45. 오일석 연구위원. 딥페이크(Deep Fake)에 의한 민주적 정당성의 왜곡과 대응 방안. 2024. – 27 p.
46. 元宇宙中虚拟人相关的心理问题探讨 心理技术与应用. Psychology:Techniques and Applications. 2023. Vol. 11. No. 7. Pp. 414-420.
References
1. Analytical review. (2023). Deepfakes in the digital space: main international approaches to research and regulation. Moscow: ANO ‘Competence Centre for Global IT Cooperation’.
2. Vinogradov, V., & Kuznetsova, D. (2024). Foreign Experience in Legal Regulating Deepfake Technology. Law. Journal of the Higher School of Economics, 2, 215-239. doi:10.17323/2072-8166.2024.2.215.240
3. Vinogradova, E. (2023). The malicious use of political deepfakes and attempts to neutralize them in Latin America. Journal «Latinskaya Amerika», 5, 35-48. doi:10.31857/S0044748X0025404-3
4. Vinogradova, E. (2024). Artificial Intelligence Technologies in the BRICS Political Agenda. Journal «Latinskaya Amerika», 1, 46-60. doi:10.31857/S0044748X0024415-5
5. Vinogradova, E. (2023). Artificial intelligence technologies and the rise of cyber threats in Latin America. Journal «Latinskaya Amerika», 3, 34-48. doi:10.31857/S0044748X0024415-5
6. Lukina, Y. V. The use of dipfakes in social and political life. Retrieved from https://rupolitology.ru/wp-content/uploads/2024/01/RP_27_Lukina.pdf
7International Security in the Age of Artificial Intelligence. (2024). In two volumes Volume 1. Textbook for universities. Edited by M.V. Zakharova and A.I. Smirnov. Moscow: Aspect Press.
8The Image of Russia's Digital Future: Formation and Representation. (2024). Under the general editorship of V.V. Zotov, G.R. Konson, S.V. Volodenkov. Zotov, G.R. Konson, S.V. Volodenkov Moscow: MIPT, phystech.
9Prolegomena of Cognitive Security. (2023). Collective monograph edited by I.F. Kefeli. SPb.: Publishing House ‘Petropolis’.
10Ballotpedia’s Artificial Intelligence Deepfake Legislation Tracker. (2024). Annual Report.. State of Deepfake Legislation.
11. Britain’s first AI politician claims he will bring trust back to politics – so I put him to the test. Retrieved from https://www.deepl.com/ru/translator#en/ru/Britain%E2%80%99s%20first%20AI%20politician%20claims%20he%20will%20bring%20trust%20back%20to%20politics%20%E2%80%93%20so%20I%20put%20him%20to%20the%20test
12Bruno, Sartori: deepfakes, política e ameaças. Retrieved from https://revistatrip.uol.com.br/trip/bruno-sartori-deepfakes-politica-e-ameacas
13. Busch, Ella, & Ware, Jacob. (2023). The Weaponisation of Deepfakes. Digital Deception by the Far-Right. ICCT Policy Brief December. doi:10.19165/2023.2.0720
14Che cosa sappiamo del deepfake di Renzi (e di tutti gli altri). Retrieved from https://pagellapolitica.it/articoli/che-cosa-sappiamo-del-deepfake-di-renzi-e-di-tutti-gli-altri
15. Deepfake Cases Surge in Countries Holding 2024 Elections, Sumsub Research Shows. Retrieved from https://sumsub.com/newsroom/deepfake-cases-surge-in-countries-holding-2024-elections-sumsub-research-shows/
16. Dobber, T., Metoui. N., Trilling, D., Helberger, N., & de Vreese C. (2021). Do (Microtargeted) deepfakes have real effects on political attitudes? International Journal of Press. Politics, 26(1), 69-91. doi:10.1177/1940161220944364
17En México 72% de las personas desconoce qué es un deepfake. Retrieved from https://notipress.mx/tecnologia/en-mexico-72-por-ciento-personas-desconoce-que-es-deepfake-11679
18. Es falso que en este video viral Sergio Massa recibe una bolsa con cocaína, lo que le arrojan son cartas. Retrieved from https://chequeado.com/ultimas-noticias/es-falso-que-en-este-video-viral-sergio-massa-recibe-una-bolsa-con-cocaina-lo-que-le-arrojan-son-cartas/
19. Ethan Bueno de Mesquita, Brandice Canes-Wrone, Andrew B. Hall, Kristian Lum, Gregory J. Martin, & Yamil Ricardo Velez. (2023). Preparing for Generative AI in the 2024 Election: Recommendations and Best Practices Based on Academic Research.. Stanford Graduate School of Business and the University of Chicago Harris School of Public Policy November.
20. Ethical guidelines on use of artificial intelligence (AI) in Indonesia. Retrieved from https://www.herbertsmithfreehills.com/notes/tmt/2024-02/ethical-guidelines-on-use-of-artificial-intelligence-ai-in-indonesia
21Facing reality? (2022). Law enforcement and the challenge of deepfakes. An Observatory Report from the Europol Innovation Lab.
22Fake Suharto video fuels debate on AI use in Indonesian election campaign. Retrieved from https://www.benarnews.org/english/news/indonesian/suharto-deepfake-used-in-election-campaign-01122024135217.html
23. Batista Anderson Röhe, Santaella Lucia. (2024). Prognósticos das deepfakes na política eleitoral. Pronósticos del ultrafalso en la política electoral. Organicom, 21(44), 187-196. doi:10.11606/issn.2238-2593.organicom.2024.221294
24. Hàn, Quốc: Chuyên gia lo ngại nội dung deepfake ảnh hưởng kết quả bầu cử. Retrieved from https://hanoimoi.vn/han-quoc-chuyen-gia-lo-ngai-noi-dung-deepfake-anh-huong-ket-qua-bau-cu-658823.html
25. Helmus, T. C. (2022). Artificial Intelligence, Deepfakes, and Disinformation. Retrieved from https://www.rand.org/pubs/perspectives/PEA1043-1.html
26Imran Khan–Pakistan’s Jailed Ex-Leader–Uses AI Deepfake To Address Online Election Rally. Retrieved from https://www.forbes.com/sites/siladityaray/2023/12/18/imran-khan-pakistans-jailed-ex-leader-uses-ai-deepfake-to-address-online-election-rally/
27India urges political parties to avoid using deepfakes in election campaigns. Retrieved from https://techcrunch.com/2024/05/07/india-elections-deepfakes/
28. Karaboga, M. (2023). Die Regulierung von Deepfakes auf EU-Ebene: Überblick eines Flickenteppichs und Einordnung des Digital Services Act- und KI-Regulierungsvorschlags. Digitale Hate Speech, 197-220. doi:10.1007/978-3-662-65964-9_10
29. Lavanda, Oliva Matías. (2022). Deepfake: Cuando la inteligencia artificial amenaza el Derecho y la Democracia. Revista de Derechoy Tecnología, 2, 84-95.
30. Leliana, Intan, Irhamdhika. Gema, Haikal. Achmad, Septian. Rio, Kusnad.i Eddy. (2023). Etika Dalam Era Deepfake: Bagaimana Menjaga Integritas Komunikasi'. Jurnal Visi Komunikasi, 22(02), 234-243. doi: https://doi.org/10.32699/device.v14i1.6984
31. Pawelec, Maria. (2024). Deepfakes als Chance für die Demokratie? The Nomos eLibrary, 89-101. Retrieved from https://doi.org/10.5771/9783748928928-89
32Presidential candidates' computer-generated avatars heat up debate. Retrieved from https://www.koreatimes.co.kr/www/nation/2024/07/113_320192.html
33. Rini, Regina, & Cohen, Leah. (2022). Deepfakes, Deep Harms. Journal of Ethics and Social Philosophy, 22(2), 143-161. York University, Toronto. doi:10.26556/jesp.v22i2.1628
34. Robichaud-Durand, S. (2023). L’hypertrucage: analyse du phénomène des «deepfakes» et recommandations. Lex Electronica, 4, 78-98. Retrieved from https://doi.org/10.7202/1108807aradressecopiéeune
35Slovakia’s Election Deepfakes Show AI Is a Danger to Democracy. Retrieved from https://www.wired.com/story/slovakias-election-deepfakes-show-ai-is-a-danger-to-democracy/
36Tackling deepfakes in European policy. (2021). STUDY. Panel for the Future of Science and Technology. EPRS. European Parliamentary Research Service Scientific Foresight Unit (STOA).
37The spread of true and false news online. Retrieved from https://www.science.org/doi/10.1126/science.aap9559
38TSE proíbe uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições. Retrieved from https://www.tse.jus.br/comunicacao/noticias/2024/Fevereiro/tse-proibe-uso-de-inteligencia-artificial-para-criar-e-propagar-conteudos-falsos-nas-eleicoes
39. Tvesha, Sippya, Florence, E. Enocka, Jonathan, Brighta, Helen, Z. Margettsa. Behind the Deepfake: 8% Create; 90% Concerned Surveying public exposure to and perceptions of deepfakes in the UK.. arXiv:2407.05529v1 [cs.CY]. 8 Jul 2024. Retrieved from https://doi.org/10.48550/arXiv.2407.05529
40Video circulating of Claudia Sheinbaum is apparently a ‘deepfake’. Retrieved from https://mexiconewsdaily.com/politics/video-circulating-of-claudia-sheinbaum-is-apparently-a-deepfake/
41. Ziobroń, Agata. (2024). Political deepfake. Remarks de lege lata and postulates de lege ferenda. Rozprawy i Materiały, 1(34), 79-95. doi:10.48269/2451-0807-sp-2024-1-04
42. На ТВ показали «обращение Путина» о военном положении в ряде областей России. Это был взлом, а ролик оказался дипфейком. Retrieved from https://rusnewshub.ru/2023/06/05/
43. Per cent Indians believe misinformation and harmful deepfakes will affect future elections. Retrieved from https://indianexpress.com/article/technology/tech-news-technology/misinformation-and-harmful-deepfakes-will-affect-future-elections-in-india-adobe-9357027/
44. 聊天機器人能改善心理健康?研究:可有效協助憂鬱症患者緩解症狀.. https://heho.com.tw/archives/256168#
45. 오일석 연구위원. 딥페이크(Deep Fake)에 의한 민주적 정당성의 왜곡과 대응 방안. 2024. – 27 p.
46. 元宇宙中虚拟人相关的心理问题探讨 心理技术与应用. (2023). Psychology: Techniques and Applications, 7, 414-420.

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Предметом рецензируемого исследования выступают новые политические технологии с использованием искусственного интеллекта – введение избирателя в заблуждение при помощи создания и распространения дипфейков (“deepfake”). Актуальность данной темы автор справедливо связывает с мощным влиянием, оказываемым дипфейками на политических акторов, что имеет существенный потенциал дестабилизации пространства политики. Обычно исследование применения данных технологий в политике ограничивалось внутристрановыми процессами (прежде всего, избирательных кампаний) ввиду более глубокого воздействия на обывателя этих технологий. Обычно предполагалось, что профессиональные политики и чиновники более рациональны и потому обладают компетенциями для отличения дипфейков от фактов реальности. Однако автор помещает данную проблему в международный контекст, исследуя особенности и последствия применения дипфейков как на внутристрановом, так и на международном уровнях, что само по себе придаёт рецензируемому исследованию некоторую научную свежесть. К сожалению, сам автор ни слова не говорит об использованной им методологии, перекладывая этот труд на читателя. Однако из контекста можно понять, что в процессе исследования помимо нормативно-институционального (при анализе конкретных институтов в различных странах, регулирующих процессы, связанные с политическими дипфейками) и исторического (при анализе истории создания и трансформации указанных институтов) применялись концептуальный и контент-анализ (при изучении основных подходов и интерпретаций технологии дипфейк в научной и публицистической литературе, деклараций политических акторов и другого медиаконтента), а также некоторые элементы анализа вторичных статистических данных. Вполне корректное применение перечисленных методов позволило автору получить результаты, обладающие признаками научной новизны. Прежде всего, речь идёт о систематизации видов технологии дипфейка, а также типизации производимых ими эффектов. Любопытен также анализ использования технологий дипфейка в избирательных кампаниях 2023–24 гг. и выявленная по результатам этого анализа специфическая трансформация этих технологий в последнее время. Наконец, как говорилось выше, определённый научный интерес представляет перенос автором проблематики на международный уровень и сделанный вывод об отсутствии международно признанных стандартов в регулировании указанных технологий, что ведёт к многочисленным злоупотреблениям на национальном уровне, с одной стороны, или напротив, к попустительству со стороны правительств разных стран. В структурном плане работа также не вызывает существенных нареканий: её логика достаточно последовательна и отражает основные аспекты проведённого исследования. В тексте выделены следующие разделы: - «Введение», где ставится научная проблема, аргументируется её актуальность, а также проводится первичная концептуализация; - «Типизация политических дипфейков и виды злонамеренных угроз», где в процессе анализа релевантной литературы разрабатывается классификация политических дипфейков и порождаемых ими последствий; - «Виды политических дипфейков для когнитивного влияния на целевые аудитории», где раскрываются особенности каждого из видов технологии дипфейк с позиций их когнитивного воздействия; - «Несанкционированное воздействие политических дипфейков на выборах 2023–2024 гг.», где на примере избирательных кампаний в разных странах раскрывается трансформация технологии дипфейк в последние годы; - «Заключение», где резюмируются итоги проведённого исследования, делаются выводы и определяются перспективы дальнейших исследований. Стиль рецензируемой статьи научно-аналитический. В тексте встречается некоторое количество стилистических погрешностей (например, стилистически некорректное название одного из разделов статьи: «Виды политических дипфейков ДЛЯ когнитивного влияния на целевые аудитории»; и др.), но в целом он написан достаточно грамотно, на хорошем русском языке, с корректным использованием научной терминологии. Библиография насчитывает 46 наименований, в том числе источники на нескольких иностранных языках, и в должной мере отражает состояние исследований по проблематике статьи. Апелляция к оппонентам имеет место в части концептуализации политических дипфейков. К специально оговариваемым достоинствам статьи можно отнести достаточно широкий эмпирический материал, привлечённый для анализа, а также весьма актуальную и интересную тему.
ОБЩИЙ ВЫВОД: предложенную к рецензированию статью можно квалифицировать в качестве научной работы, отвечающей основным требованиям, предъявляемым к работам подобного рода. Полученные автором результаты будут интересны для политологов, социологов, специалистов в области СМИ, государственной политики, мировой политики и международных отношений, а также для студентов перечисленных специальностей. Представленный материал соответствует тематике журнала «Мировая политика». По результатам рецензирования статья рекомендуется к публикации.