Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Litera
Правильная ссылка на статью:

Специфика применения искусственного интеллекта в современном медиапространстве

Неренц Дарья Валерьевна

кандидат филологических наук

доцент, кафедра журналистики, Российский государственный гуманитарный университет

125993, Россия, Московская область, г. Москва, Миусская площадь, 6, ауд. 525

Nerents Daria Valer'evna

PhD in Philology

Associate professor, Department of Journalism, Russian State University for the Humanities

125993, Russia, Moskovskaya oblast', g. Moscow, Miusskaya ploshchad', 6, aud. 525

ya.newlevel@yandex.ru
Другие публикации этого автора
 

 

DOI:

10.25136/2409-8698.2024.8.44025

EDN:

UUYSOS

Дата направления статьи в редакцию:

14-09-2023


Дата публикации:

05-09-2024


Аннотация: В 2023 году с новой силой разгорелись споры и дискуссии относительно применения искусственного интеллекта (ИИ) в разных сферах жизнедеятельности. В качестве неоспоримых достоинств применения автоматизированных систем и алгоритмов в медиа указываются эффективность (способность быстро и точно осуществлять поиск информации, создавать шаблонные тексты, осуществлять проверку данных), всесторонность (способность анализировать любую тему, работать с любым направлением деятельности), удобство (при грамотной настройке не требуется лишних усилий со стороны медиаспециалиста), обучение (способность быстро усваивать новые знания и анализировать запросы и потребности аудитории). В качестве недостатков отмечается заметное количество ошибок и неточностей, опасения сокращения рабочих мест (особенно работников новостных отделов), ограничения в общении, отсутствие законодательного регулирования деятельности ИИ, зависимость от технологий, этический аспект работы. Научные и профессиональные сообщества все чаще обращают внимание на серьезные угрозы, связанные с применением нейросетей и компьютерных алгоритмов. В статье поднимаются вопросы, связанные с рисками и вызовами применения искусственного интеллекта, анализируются его возможности касательно угроз медиабезопасности (как создание фейков и дипфейков, так и разоблачение подобного контента). Особое внимание уделено способам применения нейросетей в медиапространстве, что представляется особенно актуальным на современном этапе, когда IT-разработки стали одной из центральных тем обсуждения на многих площадках международного уровня. В качестве выводов представлены возможные варианты дальнейшего применения этих технологий в ближайшем будущем и последствия этого применения.


Ключевые слова:

медиа, искусственный интеллект, СМИ, фейк, нейросеть, медиабезопасность, медиаконтент, аудитория, алгоритм, журналистика

Работа выполнена в рамках проекта РГГУ «Медиабезопасность в эпоху цифровых трансформаций» (конкурс «Проектные научные коллективы РГГУ»).

Abstract: In 2023 the disputes and discussions about the use of artificial intelligence (AI) in different spheres of life have flared up with renewed vigor. As the indisputable advantages of the use of automated systems and algorithms in the media are efficiency (the ability to quickly and accurately search for information, create template texts, check data), comprehensiveness (the ability to analyze any topic, to work with any direction), convenience (when properly configured does not require extra effort from the media specialist), learning (the ability to quickly absorb new knowledge and to analyze the needs and demands of the audience). The disadvantages are a noticeable number of errors and inaccuracies, fears of job cuts (especially in newsrooms), limitations in communication, lack of legislative regulation of AI, dependence on technology, the ethical aspect of work. The scientific and professional communities are increasingly drawing attention to the serious threats posed by the use of neural networks and computer algorithms. The article raises questions about the risks and challenges of using artificial intelligence, analyzes its capabilities regarding the threats to media safety (both the creation of fakes and deepfakes and the exposure of such content). Special attention is given to the methods of applying neural networks in the media space, which seems especially relevant nowadays, when IT developments have become one of the central themes for discussions at many international venues. Possible options for the further use of these technologies in the near future and the consequences of this application are presented as conclusions.


Keywords:

media, artificial intelligence, mass media, fake, neural network, media safety, media content, audience, algorithm, journalism

В 2023 году тема применения искусственного интеллекта и его последствия все более актуальна. Нейросети по типу ChatGPT-4 становятся способны заменить человека при подготовке текстовых материалов, создавать фотоиллюстрации по любой теме, превратить одного человека в другого в видеороликах с помощью технологии дипфейка. Все это требует глубокого осмысления для понимания последствий дальнейшего развития ИИ и его влияния на жизнь людей.

Самый важный кластер данных, способный оказать как серьезное положительное влияние, так и стать крайне опасной информационной угрозой, – данные о людях. Для высокой точности прогнозов и выводов от алгоритмов распознавания образов, требуются огромные объемы данных. Чем более открыта страна в плане сбора персональных данных и чем слабее требования к защите неприкосновенности частной жизни граждан, тем более высока вероятность создания эффективных алгоритмов, способных с предельной точностью угадывать интересы, предпочтения, привычки, желания каждого пользователя цифровых технологий. Активному сбору таких данных помогают звонки, покупки онлайн, посты с фотографиями или видео, отметки геолокаций в социальных сетях, использование «умных» часов, мобильных приложений и пр. Все это используют крупные IT-гиганты, способные благодаря такому неисчерпаемому ресурсу повлиять на мировоззрение, жизненные ценности человека, изменить образ жизни и привычки пользователя и способствовать формированию общественного мнения.

Искусственный интеллект так резко развивается, что становится все менее заметен для человека. Личные данные анализируются, уточняются все менее очевидно для самих пользователей, а человеческая способность понимать, каким способом автономные системы принимают решения, снижается. Таким образом, в 2023 году можно с уверенностью утверждать, что большая часть аудитории не в состоянии понять, каким образом ИИ влияет на нашу жизнь, и этот разрыв продолжает расти.

Положительные и отрицательные стороны использования ИИ стали предметом оживленных дискуссий благодаря осознанию того, что «машины» уже не просто помощники в решении простейших задач, а серьезные инструменты, которые используют во всех сферах жизнедеятельности. На основе ИИ работают:

- личные ассистенты (Siri от Apple, Google Assistant от Google, Алиса от Яндекса или Маруся от Mail.ru), которые способны обрабатывать голосовые команды, отвечать на вопросы, управлять устройствами «умного дома» и пр.;

- рекомендательные системы (YouTube или Ozon используют алгоритмы ИИ для анализа предпочтений клиентов или пользователей для составления персональных рекомендаций фильмов, музыки, товаров, услуг);

- автономные автомобили (Tesla) с помощью ИИ все лучше способны передвигаться в любых дорожных условиях с соблюдением всех правил ПДД;

- медицинская диагностика (ИИ способен диагностировать заболевание с помощью снимков КТ, МРТ или рентгена);

- системы машинного перевода (Google Переводчик или DeepL с помощью ИИ могут переводить тексты с высокой точностью на множество языков);

- социальные сети (ИИ способен персонализировать рекомендации, фильтровать контент, как предотвращать, так и молниеносно распространять нежелательную информацию);

- системы распознавания речи (текстовая транскрипция аудио- и видеофайлов);

- системы распознавания лиц (ИИ способен сравнивать изображения лиц с огромной базой данных фотографий, например, для идентификации преступников).

Сферы, где ИИ занимает одну из важных позиций, можно перечислять еще долго. Это и сельское хозяйство (мониторинг заболевания растений, улучшение урожайности, контроль за оборудованием), и метеорология (прогноз погоды), и спорт (анализ статистики игр, разработка стратегии, прогноз исхода матча и т.д.), и финансы (прогнозирование рыночных тенденций, анализ финансовых активов компаний и пр.), и юриспруденция (систематизация и анализ определенных судебных дел, ведение стандартной отчетности).

Несмотря на явные преимущества, важно понимать, что ИИ кардинально меняет жизнь людей, делая одни действия проще и доступнее, а другие труднее и непонятнее. Такой скачок в развитии нейросетей не позволяет человечеству осознать и обдумать происходящее, заставляя осваивать и усваивать все буквально на ходу (чего только стоит первая книга, написанная ChatGPT-4, под названием «Автобиография нейросети», которая была целиком написана ИИ с помощью тех данных, которые были в него заложены). Все это делает современного пользователя уязвимым с точки зрения медиабезопасности, ведь человеческое сознание не успевает отгородиться от всех нововведений, которыми активно пользуются манипуляторы.

ИИ способен создавать настолько качественные фейки, что они неотличимы от оригинала. В будущем такие технологии из-за создания ложного видеоролика или фотоизображения могут не только испортить жизнь одному человеку, но привести к массовым беспорядкам, митингам и даже военным столкновениям.

Нашумевшим примером таких возможностей стала фейковая фотография Папы Римского, одетого в модный пуховик и гулящего по улицам Нью-Йорка, которая была сделана с помощью нейросети Midjorney (Гостева А. Вирусное фото папы римского в стильном пуховике оказалось фейком // Lenta.ru. URL: https://lenta.ru/news/2023/03/27/thepope1). Или фотографии с арестом Д. Трампа, которого якобы насильно сажают в полицейскую машину (Макарычев М. В Сети появились фейковые снимки «силового ареста» Трампа полицейскими // Российская газета. URL: https://rg.ru/2023/03/21/v-seti-poiavilis-fejkovye-snimki-silovogo-aresta-trampa-policejskimi.html).

Особенно опасными в этом контексте стали так называемые дипфейки (deepfakes) [5, c. 74]. Искусственный интеллект объединяет большое количество фотоизображений и делает из них видеозапись. Программа может с высокой точностью определить, как человек будет реагировать и себя вести в определенной ситуации. Иными словами, суть технологии заключается в том, что часть алгоритма детально изучает изображение объекта и пытается его воссоздать, пока другая часть не перестает различать реальное изображение и созданное нейросетью. Дипфейки практически невозможно распознать, поскольку видео как правило отличается высокой степенью реалистичности [4, c. 35].

Нередкими становятся случаи, когда ИИ используется для модуляции голоса и создания поддельного номера телефона, что позволяет обмануть доверчивых граждан и выманить у них большие суммы денег.

Подобные примеры демонстрируют серьезные угрозы для неподготовленной аудитории со стороны ИИ. Этим «оружием» могут умело пользоваться манипуляторы и мошенники, преследующие свои цели. Особенно остро этот вопрос встал с созданием нейросети ChatGPT-4, тексты, фотографии, видео которой порой невозможно распознать и выявить генерацию. В Российской Федерации к развитию ИИ относятся осторожно, не стремясь внедрить его во всех сферы производства резко и оперативно.

Однако особенно большое развитие эта практика получила в период пандемии Covid-19. В декабре 2020 года президент РФ В.В. Путин во время выступления на международной конференции по будущему искусственного интеллекта отметил необходимость проведения цифровой трансформации по всей России в ближайшее десятилетие. Более того, он подчеркнул, что благодаря использованию алгоритмов в сфере государственных услуг в скором времени станет возможным решать каждую проблему граждан индивидуально (Важные заявления сделал Владимир Путин на международной конференции по искусственному интеллекту // Первый канал. URL: https://1tv-ru.turbopages.org/1tv.ru/s/news/2020-12-04/397930-vazhnye_zayavleniya_sdelal_vladimir_putin_na_mezhdunarodnoy_konferentsii_po_iskusstvennomu_intellektu). С 2019 года применение ИИ стало обсуждаться более предметно, чему во многом способствовало появление Указа Президента «О развитии искусственного интеллекта в Российской Федерации» (Указ Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» // Гарант.ру. URL: https://www.garant.ru/products/ipo/prime/doc/72738946).

В медиа применение искусственного интеллекта на современном этапе вызывает у журналистов и других работников индустрии неоднозначную реакцию. Непрозрачность и непредсказуемость многих из этих технологий вызвали широкую озабоченность касательно их применения в самых разных социальных сферах – от системы правосудия до медиакоммуникаций [13, p. 14-15]. В ответ на это IT-специалисты, специалисты по этике, социологи и политики ищут способы сделать алгоритмические системы доступными, т.е. способными к осмысленному пониманию, в том числе для обеспечения прозрачности и объективности. Это важные ценности для журналистики, которая стремится к точности, беспристрастности и объективности для завоевания доверия аудитории и поддержания легитимности в обществе. Однако вопрос о том, что значит для ИИ и алгоритмов быть понятными в журналистском контексте, еще не до конца решен. Значительный массив исследований свидетельствует о том, что эти технологии меняют медиапрактики и процессы и перестраивают представление о том, что значит создавать и потреблять новости [3; 7; 9; 10; 12; 14].

На перспективность внедрения ИИ в медиаотрасль указывает ряд российских (В.Н. Богатырева [1], А.О. Третьяков, О.Г. Филатова, Д.В. Жук [8], А.Д. Иванов [4], Д.В. Неренц [6]) и зарубежных исследователей (Р. Замит [16], С. Льюис и М. Логан [11], Дж. Стрей [15]), которые отмечают мгновенный поиск запрашиваемых сведений по всему интернет-пространству, скрупулезную и точную проверку фактической информации, создание «шаблонных» новостных текстов, мониторинг постов в социальных сетях, анализ данных любого объема, идентификация фото- и видеоматериалов. Так можно отметить такие положительные аспекты, как экономия временных затрат, облегчение процесса работы с поиском информации и фактчекингом, сокращение финансовых затрат (в перспективе).

Проведенное сотрудниками факультета журналистики РГГУ исследование в рамках научного проекта «Медиабезопасность в эпоху цифровых трансформаций» основывается на сплошной выборке материалов российских СМИ (как федерального, так и регионального уровня) в период 2021–2023 гг., обозначенных самими авторами как тексты или видеозаписи, созданные с помощью ИИ или машинного обучения. Всего было проанализировано 53 публикации. Кроме того, было проведено 10 глубинных интервью с представителями редакций, использующими в своей работе ИИ (РБК, Интерфакс, «Рифей ТВ», «360»), с целью определить положительные и отрицательные стороны этой деятельности.

Результаты позволяют говорить, что в качестве положительных нюансов журналистами отмечается возможность уйти от рутинных задач, таких как поиск и обработка информации, подборка изображений, составление справочной информации и т.п. В качестве негативных последствий возникают опасения касательно сокращения репортеров и новостных журналистов, большой объем финансирования, который может не окупиться, постоянное наличие специалистов, работу которых тоже необходимо оплачивать, а также оплата обучения самих работников медиапредприятия. Кроме того, нет регулирования деятельности ИИ в медиа ни с законодательной, ни с этической стороны, что также делает подобную деятельность рискованной.

В 2022–2023 гг. сразу несколько региональных телеканалов запустили ведущих, созданных нейросетями. 23 марта 2023 года появилась новость о том, что телеканал «360» запустил прогноз погоды от искусственного интеллекта. Технология GPT-4 генерирует прогноз на день, а бот «Максим» воспроизводит получившиеся данные вслух (Искусственный интеллект вытеснит метеорологов? // Российская газета. URL: https://rg.ru/2023/03/22/iskusstvennyj-intellekt-vytesnit-meteorologov.html).

Таким образом, сначала свой прогноз озвучивают метеорологи, а затем транслируют версию от нейросети. А на ставропольском телеканале «Свое ТВ» у виртуальной ведущей есть уже сложившийся образ. Ее зовут Снежана Туманова, и она ежедневно рассказывает о прогнозе погоды на телеканале. Над ее обликом работает сразу несколько нейросетей: одна отвечает за внешний вид, вторая – за мимику, третья генерирует текст («Я не болею, не хожу в отпуск»: девушка, созданная нейросетями, стала ведущей на российском ТВ. Как она выглядит? // NGS24.ru. URL: https://ngs24.ru/text/entertainment/2023/03/23/72158123). Такую же практику начали и на «ДОН 24», запустив виртуальную ведущую Аксинью для озвучивания прогноза погоды в эфире телеканала.

Буквально на следующий день пермский телеканал «Рифей-ТВ» использовал в качестве ведущего новостной программы «Вечер на Рифее» виртуальный образ. Он озвучил одну из новостей (Нейросеть стала ведущим новостей на пермском телеканале «Рифей-ТВ» // Рифей. URL: https://rifey.ru/news/list/id_122380). Спустя несколько дней появилась новость о том, что на телеканале «Прима» в Красноярске появилась виртуальная ведущая по имени Дарья, которая поделилась в эфире новостями, а также задала несколько вопросов зрителям. Текст для нее также был сгенерирован нейросетью (Девушка, созданная нейросетями, стала ведущей на красноярском ТВ // NGS24.ru. URL: https://ngs24.ru/text/job/2023/03/25/72164072).

При этом, помимо ведения телепроектов, на российском телевидении ИИ применяют для создания заставок («Хабаровск»), оформления постеров на основе синопсисов проектов («Ю»), монтажа новостных дайджестов («Ямал-Медиа»).

Однако ИИ применяют не только на телевидении, но и в интернет-изданиях, а также в прессе. Примечателен пример РБК, выпустившего номер газеты (№ 61 от 28.04.2023 г.) совместно с GigaChat, нейросетью, созданной Сбербанком (РБК Газета. Выпуск № 61 (3731) от 28.04.2023. URL: https://www.rbc.ru/newspaper/2023/04/28). Все материалы так или иначе относятся к применению новых технологий в различных областях и сферах деятельности, помимо «традиционного», написанного журналистом текста, отдельной вставкой на светло-зеленом фоне опубликованы материалы от GigaChat. В основном это саммари (резюме) к написанным статьям или справочная информация, а также сгенерированные иллюстрации.

А «Русская медиагруппа» запустила радиостанцию под названием Neuro Flow, созданную нейросетью Mubert. Нейросеть написала уже около 200 треков в формате танцевального хауса (Игнатьев Д. «Русская медиагруппа» запустила в интернете созданную ИИ радиостанцию // Ведомости. URL: https://www.vedomosti.ru/media/articles/2023/03/28/968350-russkaya-mediagruppa-zapustila-v-internete-sozdannuyu-ii-radiostantsiyu).

Однако эксперименты с внедрением ИИ в медиасреду начались еще несколько лет назад. Так, еще в 2017 году медиахолдинг Hearst Shkulev Media стал использовать алгоритм Дженни для создания журналистских текстов (Холина А. Секс-машина: с кем лучше в постели — с роботом или человеком? // Elle. URL: https://www.elle.ru/otnosheniya/lubov-i-seks/seks-mashina-s-kem-luchshe-v-posteli-s-robotom-ili-chelovekom). Несмотря на то, что первые эксперименты были не очень успешны, примерно через год в журнале Elle (прекратил издаваться на территории РФ) уверенно начали публиковать материалы, написанные «роботом». А в 2018 году отечественный телеканал ТНТ4, ориентированный на развлекательный контент, начал использовать нейросеть с целью исследования зрительских интересов и предпочтений в рамках телепросмотра.

Более того, на сегодняшний день ИИ стал действительно важным инструментом для дата-журналистов, работающих с Big data. Обработка больших наборов данных, систематизация, агрегация, обобщение, сведение данных в одну таблицу по заданным параметрам – лишь немногие задачи, которые способны выполнять компьютерные алгоритмы.

Анализ медиатекстов, созданных с помощью ИИ, демонстрирует, что современный этап характеризуется рядом возможностей его применения:

- создание автоматизированных (однотипных) текстов новостного и рекламного характера и справочных материалов без ошибок и опечаток;

- мониторинг новостей (или отслеживание данных по конкретной теме);

- сбор и агрегирование данных (в том числе Big data);

- анализ постов или фотоизображений (видеороликов), твитов, комментариев в социальных сетях;

- коммуникация с аудиторией через чат-боты;

- создание алгоритмов и специальных кодов в рамках анализа информации (в особенности финансового характера);

- фактчекинг (проверка статистических показателей, дат, имен и пр.).

Указанные выше преимущества являются прямым свидетельством того, что грамотное использование IT-технологий способно не только облегчить, но и повысить эффективность рабочего процесса в любой медиасфере.

Результатом проведенных интервью стали выводы касательно нюансов применения ИИ в редакциях. В настоящее время существует множество возможностей применения искусственного интеллекта в медиасекторе. Некоторые системы ИИ огромны и способны осуществлять большое количество вычислений, другие – узки и предназначены для решения всего одной задачи.

8 из 10 опрошенных журналистов указали, что в их редакциях используются небольшие по своей мощности нейросети, способные выполнять ряд рутинных, не требующих значительных энергозатрат и данных операций.

При этом в качестве серьезных рисковдля аудитории с позиции использования ИИ в медиа является создание фейкового контента, преднамеренно или по неосторожности. Социальные сети и блогерский контент является источником информации не только для молодежной аудитории, но и для многих журналистов, которые в погоне за трафиком и популярностью стремятся не столько проверить новость, сколько стать первым и опубликовать «эксклюзив» (9 из 10 интервьюируемых назвали это одной из главных проблем). Благодаря ИИ фейки (а еще чаще дипфейки) становятся неотличимы от настоящего контента, чем и пользуются недоброжелатели, обманывая даже опытных репортеров.

Другой вариант – когда сама нейросеть ошибается, неверно прочитав обозначения (например, вместо 1–7% указывая 17% или вместо 1925 г. говоря о 2025 г.). Такие фактические ошибки в рамках новостей о котировках акций или финансовых сделках могут привести к глобальным последствиям. В текстах, созданных нейросетью, может отсутствовать контекст происходящего, что также приведет читателя к неверному выводу. Об этом завили 7 из 10 опрошенных журналистов.

Еще одним важным с этической точки зрения аспектом является отсутствие указания, когда материал опубликован ИИ, а когда – реальным журналистом. Например, новостная лента во многих интернет-изданиях построена по принципу отсутствия авторства, что не позволяет читателю увидеть, кто и каким способом написал этот текст. Например, спортивное издание Sports.ru применяет ИИ при ведении спортивной хроники и генерации различных заголовков, которые иногда имеют ошибки и неточности. И тут уже встает следующий вопрос: кто несет ответственность за неточности, фактические ошибки, неверную интерпретацию данных или комментариев? Согласна ли аудитория читать тексты, сгенерированные нейросетями или смотреть новости с виртуальными ведущими?

Недоверие аудитории к нейросетям и компьютерным алгоритмам может стать существенной преградой на пути к развитию ИИ в медиасфере в целом. Согласно исследованию ВЦИОМ, в 2022 году более трети опрошенных (32%) россиян не доверяют технологиям ИИ. Самыми сильными страхами названы утечка собираемых им данных, использование в корыстных целях и риск принятия решений, за которые никто не несет ответственности (Россияне назвали свои главные страхи перед искусственным интеллектом // РБК. URL: https://www.rbc.ru/society/28/12/2022/63ab45de9a7947664c3ef893). Помимо названного, респонденты считают, что ИИ приведет к деградации населения (что, в целом, может быть близко к истине, учитывая последние тенденции в сфере образования, когда студенты считают приемлемым сдавать сгенерированный нейросетями текст в качестве реферата, курсового проекта и даже ВКР), а также слишком велики риски систематических сбоев и ошибок в работе.

Важным является и недостаток квалифицированных кадров для настройки и управления таким программным обеспечением (эту проблему назвали 6 из 10 интервьюируемых). Это не позволяет редакции углубляться и изучать все возможности нейросети, а, что называется, идти «по верхам», используя только доступные и понятные всем функции. Подобный подход приводит к низкому качеству создаваемого контента и негативному отношению аудитории к подобным опытам. А редакция в результате теряет большие деньги и не может продолжать свои эксперименты.

Значительной сложностью является отсутствие полной картины мира (алгоритмы создают «информационный пузырь»), когда именно ИИ решает за пользователя, что главное, а что второстепенно и может быть проигнорировано, тем самым, не позволяя человеку увидеть все происходящее вокруг, а сосредоточиться только на маленькой части. В результате, это приводит к ограниченности восприятия, а журналистские тексты с таким подходом не могут претендовать на качественный, полноценный медиапродукт.

Перевешивают ли плюсы использования ИИ минусы пока определенно сказать невозможно. Но в противовес негативным последствиям можно отметить и позитивные мероприятия. Например, в Роскомнадзоре обсуждается перспектива использования искусственного интеллекта для борьбы с дезинформацией в интернете. ИИ сможет выявлять дипфейки, определять контекст происходящего на видео и проверять факты. Его внедрение может произойти в срок от 3 до 5 лет (Гуреева Ю. Роскомнадзор использует искусственный интеллект в борьбе с интернет-фейками // Российская газета. URL: https://rg.ru/2023/04/24/roskomnadzor-ispolzuet-iskusstvennyj-intellekt-v-borbe-s-internet-fejkami.html).

Можно отметить, что проведенное исследование позволяет говорить о значительной временной и финансовой экономии при использовании в медиа технологий искусственного интеллекта. Именно этот фактор назвали все 10 интервьюируемых сотрудников медиасферы. Кроме того, все также отметили упрощение работы журналистов за счет выполнения «машиной» рутинных задач, что в свою очередь повышает производительность.

ИИ способен распознавать закономерности и быстро принимать решения, находить закономерности в больших наборах данных и делать точные предсказания. Искусственный интеллект эволюционировал от простой программы по помощи в поиске информации к сложной системе, способной создавать аналитические тексты с последующей минимальной редактурой со стороны человека.

Отрицательные последствия заключаются прежде всего в том, что ИИ может представлять неточную или неполную информацию (для полных данных необходимо постоянно пополнять базу данных), неправильно интерпретировать контекст, усиливать существующие стереотипы и предубеждения. Кроме того, краткосрочная память ограничивает нейросети в способности обрабатывать большие по объему тексты, а также не позволяет понимать эмоции и чувства, чтобы выразить их в материале в дальнейшем.

Корпус проанализированных публикаций демонстрирует четкую разницу между виртуальными и реальными авторами, которая заключается в богатстве используемых выражений, эмоциональной окраске представляемых данных, правильной интерпретации происходящих событий. ИИ способен представить фактическую информацию, краткую справку, озвучить подготовленный текст, не более того. При этом непрерывное совершенствование нейросетей позволяет предположить в ближайшем будущем возможности создания аналитических материалов, созданных с помощью ИИ, который станет способен выявлять причинно-следственные связи, делать выводы, создавать точные прогнозы на основе загруженной в него системы данных (такое будущее видят 7 из 10 опрошенных представителей СМИ).

При этом есть опасения, что аудитория пока не готова увидеть виртуальных ведущих и роботов вместо реальных журналистов. Социологические исследования последних двух лет показывают, что россияне скорее негативно воспринимают ИИ в качестве создателя медиаконтента, относясь к машинным текстам скептически и крайне настороженно. Открытыми остаются и вопросы юридической ответственности за недостоверные данные и этическое регулирование работы нейросетей в качестве авторов или телеведущих. Все эти важные факторы свидетельствуют о научном потенциале данной темы и перспективах дальнейшего обсуждения.

Библиография
1. Богатырева В.Н. Искусственный интеллект в журналистике как современный медиатренд // Скиф. Вопросы студенческой науки. 2019. Август. С. 26–29.
2. Галяшина Е.И. и др. Фейковизация как средство информационной войны в интернет-медиа: научно-практическое пособие. М.: Блок-Принт, 2023.
3. Замков А.В. Новостной медиаробот: теоретические аспекты интеллектуальной системы генерации контента // Вопросы теории и практики журналистики. 2019. Т. 8, № 2. С. 260–273.
4. Иванов А.Д. Роботизированная журналистика и первые алгоритмы на службе редакций международных СМИ // Знак. Проблемное поле медиаобразования. 2015. № 2 (16). С. 32–40.
5. Колесникова Е.В. Технология deepfake в журналистике // Мир современных медиа: новые возможности и перспективы: сборник научных трудов / под общ. ред. Д.В. Неренц. М.: Знание-М, 2022. С. 74–77.
6. Неренц Д.В. Способы применения искусственного интеллекта в журналистской деятельности // «MEDIAОбразование: медиа как тотальная повседневность»: материалы V Международной научной конференции (Челябинск, 24–25 ноября 2020 года): Часть 1 / под ред. А. А. Морозовой. Челябинск: Изд-во Челябинского государственного университета, 2020. C. 334–341.
7. Социальные факторы риска возникновения интернет-зависимости: монография / Т.Н. Светличная, Е.А. Смирнова, А.П. Суходолов [и др.]; под ред. Г.А. Ковалевой, А.А. Меховой. Череповец: Изд-во ЧГУ, 2018.
8. Третьяков А.О., Филатова О.Г., Жук Д.В. и др. Метод определения русскоязычных фейковых новостей с использованием элементов искусственного интеллекта // International Journal of Open Information Technologies. 2018. Т.6, № 12. С. 54–60.
9. Beckett Ch. New Powers, New Responsibilities – a Global Survey of Journalism and Artificial Intelligence, A global survey of journalism and artificial intelligence // LSE Polis Report, 2019.
10. Diakopoulos N. Automating the News: How Algorithms Are Rewriting the Media. Cambridge, MA: Harvard University Press, 2019.
11. Lewis S., Logan M. A Decade of Research on Social Media and Journalism: Assumptions, Blind Spots, and a Way Forward // Media and Communication. 2018. No 6 (4). P. 11–23.
12. Marconi F. Newsmakers: Artificial Intelligence and the Future of Journalism. New York: Columbia University Press, 2020.
13. Pasquale F. The Black Box Society. Cambridge, MA: Harvard University Press, 2015.
14. Porlezza C., Ferri G. The Missing Piece: Ethics and the Ontological Boundaries of Automated Journalism // #ISOJ Journal. 2022. No 12(1). P. 71–98.
15. Stray J. Making Artificial Intelligence Work for Investigative Journalism // Digital Journalism. 2019. No 7 (8). P. 1076–1097.
16. Zamith R. Algorithms and Journalism / In Oxford Encyclopedia of Journalism Studies; ed. by Henrik Ornebring. Oxford: Oxford University Press, 2020.
References
1. Bogatyreva, V.N. (2019). Artificial Intelligence in Journalism as a Modern Media Trend. Skif. Issues of Student Science, Aug., 26–29.
2. Galyashina, E.I. & others. (2023). Faking as a means of information warfare in the Internet media: scientific and practical manual. Moscow: Blok-Print.
3. Zamkov, A.V. (2019). News media robot: theoretical aspects of the intellectual system of content generation. Issues of journalism theory and practice, 8(2), 260-273.
4. Ivanov, A.D. (2015). Robotic Journalism and the First Algorithms at the Service of International Media Editors. Sign. Problem field of media education, 2(16), 32–40.
5. Kolesnikova, E.V. (2022). Deepfake technology in journalism. The world of modern media: new opportunities and prospects: collection of scientific papers. Pp. 74–77. Moscow: Znanie-M.
6. Nerents, D.V. (2020). Ways of applying artificial intelligence in journalistic activity. MEDIAeducation: Media as Total Everyday Life: Proceedings of the V International Scientific Conference (Chelyabinsk, November 24-25, 2020): Part 1. Ed. by A.A. Morozova. Chelyabinsk: Chelyabinsk State University Publishing House, 334–341.
7 Social risk factors of Internet addiction: a monograph. (2018). T.N. Svetlichnaya, E.A. Smirnova, A.P. Sukhodolov [et al.]; ed. by G.A. Kovaleva, A.A. Mekhova. Cherepovets: Izd-vo CSU.
8. Tretyakov, A.O., Filatova, O.G., Zhuk, D.V., et al. (2018). A method for identifying Russian-language fake news using artificial intelligence elements. International Journal of Open Information Technologies, 6(12), 54–60.
9. Beckett, Ch. (2019). New Powers, New Responsibilities – a Global Survey of Journalism and Artificial Intelligence, A global survey of journalism and artificial intelligence. LSE Polis Report.
10. Diakopoulos, N. (2019). Automating the News: How Algorithms Are Rewriting the Media. Cambridge, MA: Harvard University Press.
11. Lewis, S., & Logan, M. (2018). A Decade of Research on Social Media and Journalism: Assumptions, Blind Spots, and a Way Forward. Media and Communication, 6(4), 11–23.
12. Marconi, F. (2020). Newsmakers: Artificial Intelligence and the Future of Journalism. New York: Columbia University Press.
13. Pasquale, F. (2015). The Black Box Society. Cambridge, MA: Harvard University Press.
14. Porlezza, C., Ferri, G. (2022). The Missing Piece: Ethics and the Ontological Boundaries of Automated Journalism. #ISOJ Journal, 12(1), 71–98.
15. Stray, J. (2019). Making Artificial Intelligence Work for Investigative Journalism. Digital Journalism, 7(8), 1076–1097.
16. Zamith, R. (2020). Algorithms and Journalism. In Oxford Encyclopedia of Journalism Studies; ed. by Henrik Ornebring. Oxford: Oxford University Press.

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Представленная на рассмотрение статья «Специфика применения искусственного интеллекта в современном медиапространстве», предлагаемая к публикации в журнале «Litera», несомненно, является актуальной, ввиду того, что в 2023 году тема применения искусственного интеллекта и его последствия становится все более востребованной, ввиду того, что технологии нейросети все больше входят в нашу жизнь и способны заменить человека при подготовке текста, иллюстраций и т.п.
С учетом развития искусственного интеллекта необходимо осмысление тех возможностей, которые мы получаем и последствий неразумного применения системы. Автор в статье анализирует возможности искусственного интеллекта и риски и последствия его использования. Особо ценным является проецирование проблематики на профессиональную сферу – журналистику.
Статья является новаторской, одной из первых в российской лингвистике, посвященной исследованию подобной тематики в 21 веке. В статье представлена методология исследования, выбор которой вполне адекватен целям и задачам работы. Автор обращается, в том числе, к различным методам для подтверждения выдвинутой гипотезы. В статье используются общелингвистические методы наблюдения и описания, а также методы дискурсивного и когнитивного анализа.
Вопросы возникают по практическому корпусу исследования, на каком материале проводил исследование автор?
Данная работа выполнена профессионально, с соблюдением основных канонов научного исследования. Исследование выполнено в русле современных научных подходов, работа состоит из введения, содержащего постановку проблемы, основной части, традиционно начинающуюся с обзора теоретических источников и научных направлений, исследовательскую и заключительную, в которой представлены выводы, полученные автором. Отметим, что в вводной части слишком скудно представлен обзор разработанности проблематики в науке. Отметим, что заключение требует усиления, оно не отражает в полной мере задачи, поставленные автором и не содержит перспективы дальнейшего исследования в русле заявленной проблематики. К сожалению, в работе отсутствуют убедительные данные, полученные в ходе исследования, описание методики работы с корпусом, удобные для восприятия информации читателем таблицы и диаграммы, содержащие результаты работы.
Библиография статьи насчитывает 6 источников, среди которых теоретические работы представлены исключительно на русском языке. Считаем, что обращение к работам зарубежных исследователей, несомненно, обогатило бы работу.
К сожалению, в статье отсутствуют ссылки на фундаментальные работы отечественных исследователей, такие как монографии, кандидатские и докторские диссертации. Технически при оформлении библиографического списка нарушены общепринятые требования ГОСТа, а именно несоблюдение алфавитного принципа оформления источников. Кроме того, в тексте статьи даны библиографические данные источников, а они должны быть оформлены ссылками на библиографию.
В общем и целом, следует отметить, что статья написана простым, понятным для читателя языком.
Работа является новаторской, представляющей авторское видение решения рассматриваемого вопроса и может иметь логическое продолжение в дальнейших исследованиях. Практическая значимость определяется возможностью использовать представленные наработки в дальнейших тематических исследованиях. Результаты работы могут быть использованы в ходе преподавания на специализированных факультетах. Статья, несомненно, будет полезна широкому кругу лиц, филологам, магистрантам и аспирантам профильных вузов. Статья «Специфика применения искусственного интеллекта в современном медиапространстве» может быть рекомендована к публикации в научном журнале после внесения корректив, а именно: 1) оформления корректной библиографии, 2) усиления теоретической составляющей исследования и выводов, 3) приведение доказательной базы, например, убедительных статистических данных доказывающих выводы.

Результаты процедуры повторного рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Представленный к публикации текст затрагивает остроактуальную проблему современной науки, причем синкретический характер статьи, что и хорошо, просматривается и в названии, и содержательном блоке, и ряде точечных позиций, выраженных автором. Стоит признать, что искусственный интеллект на данный момент задача не вполне решаемая. Перспектива создания т.н. искусственного разума по оценки специалистов долгосрочна; элементарно, не изучен полновесно и целостно тот или иной естественный язык, который является базисом-алгоритмом для претворения в жизнь ИИ. Однако оценка опасности / безопасности, роли / значимости, анализ результатов деятельности ИИ в научном пространстве манифестируется часто. Данное исследование ориентировано на анализ специфика применения искусственного интеллекта в медиапространстве. Сфера, которая взята в качестве базовой, на мой взгляд, претерпевает сейчас особое влияние продуктов ИИ, насколько удачно – это уже момент дискуссионный. Следовательно, предметно работа оправдана, ее направленность конструктивна, выводы, в большей части, объективны. Стиль сочинения ориентирован на научный тип речи, логика наррации поддерживается на протяжении всего труда. Например, «в 2023 году тема применения искусственного интеллекта и его последствия все более актуальна. Нейросети по типу ChatGPT-4 становятся способны заменить человека при подготовке текстовых материалов, создавать фотоиллюстрации по любой теме, превратить одного человека в другого в видеороликах с помощью технологии дипфейка. Все это требует глубокого осмысления для понимания последствий дальнейшего развития ИИ и его влияния на жизнь людей», или «искусственный интеллект так резко развивается, что становится все менее заметен для человека. Личные данные анализируются, уточняются все менее очевидно для самих пользователей, а человеческая способность понимать, каким способом автономные системы принимают решения, снижается. Таким образом, в 2023 году можно с уверенностью утверждать, что большая часть аудитории не в состоянии понять, каким образом ИИ влияет на нашу жизнь, и этот разрыв продолжает расти. Положительные и отрицательные стороны использования ИИ стали предметом оживленных дискуссий благодаря осознанию того, что «машины» уже не просто помощники в решении простейших задач, а серьезные инструменты, которые используют во всех сферах жизнедеятельности…» и т.д. Импонирует в работе удачная врезка т.н. дискуссионных фрагментов, автор т.о. старается сформировать эффект диалога как с потенциально заинтересованным читателем, так и научным пространством. Видим это, допустим, в следующей части статьи: «в ответ на это IT-специалисты, специалисты по этике, социологи и политики ищут способы сделать алгоритмические системы доступными, т.е. способными к осмысленному пониманию, в том числе для обеспечения прозрачности и объективности. Это важные ценности для журналистики, которая стремится к точности, беспристрастности и объективности для завоевания доверия аудитории и поддержания легитимности в обществе. Однако вопрос о том, что значит для ИИ и алгоритмов быть понятными в журналистском контексте, еще не до конца решен. Значительный массив исследований свидетельствует о том, что эти технологии меняют медиапрактики и процессы и перестраивают представление о том, что значит создавать и потреблять новости…». Объективность данных не вызывает серьезных нареканий, должная отсылка верифицирована: «на основе ИИ работают: - личные ассистенты (Siri от Apple, Google Assistant от Google, Алиса от Яндекса или Маруся от Mail.ru), которые способны обрабатывать голосовые команды, отвечать на вопросы, управлять устройствами «умного дома» и пр.; - рекомендательные системы (YouTube или Ozon используют алгоритмы ИИ для анализа предпочтений клиентов или пользователей для составления персональных рекомендаций фильмов, музыки, товаров, услуг); - автономные автомобили (Tesla) с помощью ИИ все лучше способны передвигаться в любых дорожных условиях с соблюдением всех правил ПДД; - медицинская диагностика (ИИ способен диагностировать заболевание с помощью снимков КТ, МРТ или рентгена); - системы машинного перевода (Google Переводчик или DeepL с помощью ИИ могут переводить тексты с высокой точностью на множество языков); - социальные сети (ИИ способен персонализировать рекомендации, фильтровать контент, как предотвращать, так и молниеносно распространять нежелательную информацию); - системы распознавания речи (текстовая транскрипция аудио- и видеофайлов); - системы распознавания лиц (ИИ способен сравнивать изображения лиц с огромной базой данных фотографий, например, для идентификации преступников)». Материал имеет как чисто практический характер, так и может стать импульсом для дальнейших теоретических разработок. Иллюстративный фон достаточен, формальные требования учтены: «нашумевшим примером таких возможностей стала фейковая фотография Папы Римского, одетого в модный пуховик и гулящего по улицам Нью-Йорка, которая была сделана с помощью нейросети Midjorney (Гостева А. Вирусное фото папы римского в стильном пуховике оказалось фейком // Lenta.ru. URL: https://lenta.ru/news/2023/03/27/thepope1). Или фотографии с арестом Д. Трампа, которого якобы насильно сажают в полицейскую машину (Макарычев М. В Сети появились фейковые снимки «силового ареста» Трампа полицейскими // Российская газета. URL: https://rg.ru/2023/03/21/v-seti-poiavilis-fejkovye-snimki-silovogo-aresta-trampa-policejskimi.html)», или «Однако особенно большое развитие эта практика получила в период пандемии Covid-19. В декабре 2020 года президент РФ В.В. Путин во время выступления на международной конференции по будущему искусственного интеллекта отметил необходимость проведения цифровой трансформации по всей России в ближайшее десятилетие. Более того, он подчеркнул, что благодаря использованию алгоритмов в сфере государственных услуг в скором времени станет возможным решать каждую проблему граждан индивидуально (Важные заявления сделал Владимир Путин на международной конференции по искусственному интеллекту // Первый канал. URL: https://1tv-ru.turbopages.org/1tv.ru/s/news/2020-12-04/397930-vazhnye_zayavleniya_sdelal_vladimir_putin_na_mezhdunarodnoy_konferentsii_po_iskusstvennomu_intellektu). С 2019 года применение ИИ стало обсуждаться более предметно, чему во многом способствовало появление Указа Президента «О развитии искусственного интеллекта в Российской Федерации» (Указ Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» // Гарант.ру. URL: https://www.garant.ru/products/ipo/prime/doc/72738946)». Работа интересна, структурно верна, думается, что материал можно использовать как в формате освоения технических дисциплин, так и гуманитарных. Автор аргументировано позиционирует собственный взгляд на проблему, аналитика и оценка находятся на должном уровне. Например, «анализ медиатекстов, созданных с помощью ИИ, демонстрирует, что современный этап характеризуется рядом возможностей его применения: - создание автоматизированных (однотипных) текстов новостного и рекламного характера и справочных материалов без ошибок и опечаток; - мониторинг новостей (или отслеживание данных по конкретной теме); - сбор и агрегирование данных (в том числе Big data)…», «указанные выше преимущества являются прямым свидетельством того, что грамотное использование IT-технологий способно не только облегчить, но и повысить эффективность рабочего процесса в любой медиасфере» и т.д. Статья полновесна, целостна, общие принципы и требования издания учтены, расширять текст не имеет смысла. Считаю, что цель работы достигнута, задачи по ходу работы решены. Итогом автор тезирует, что «есть опасения, что аудитория пока не готова увидеть виртуальных ведущих и роботов вместо реальных журналистов. Социологические исследования последних двух лет показывают, что россияне скорее негативно воспринимают ИИ в качестве создателя медиаконтента, относясь к машинным текстам скептически и крайне настороженно. Открытыми остаются и вопросы юридической ответственности за недостоверные данные и этическое регулирование работы нейросетей в качестве авторов или телеведущих. Все эти важные факторы свидетельствуют о научном потенциале данной темы и перспективах дальнейшего обсуждения». Таким образом, вектор исследования и оценки результатов активных действий ИИ задан, видимо, стоит ждать хороших наработок, крупных, конструктивных решений этой непростой задачи. Статья «Специфика применения искусственного интеллекта в современном медиапространстве» может быть рекомендована к публикации в журнале «Litera».