Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Культура и искусство
Правильная ссылка на статью:

Социально-культурные риски мультимодальных больших генеративных моделей «искусственного интеллекта» (GenAI)

Былевский Павел Геннадиевич

ORCID: 0000-0002-0453-526X

кандидат философских наук

Доцент кафедры информационной культуры цифровой трансформации, доцент кафедры международной информационной безопасности; Московский государственный лингвистический университет

119034, Россия, г. Москва, ул. Остоженка, 36, оф. 106

Bylevskiy Pavel Gennadievich

PhD in Philosophy

Associate Professor, Department of Information Culture of Digital Transformation, Department of International Information Security, Moscow State Linguistic University

119034, Russia, Moscow, Moscow, Ostozhenka str., 36, office 106

pr-911@yandex.ru
Другие публикации этого автора
 

 

DOI:

10.7256/2454-0625.2024.6.70926

EDN:

DWMERQ

Дата направления статьи в редакцию:

02-06-2024


Дата публикации:

03-07-2024


Аннотация: Статья посвящена исследованию условий обеспечения информационной безопасности российских граждан при использовании технологий генеративного «искусственного интеллекта» в социально-культурной сфере. Актуальность темы обусловлена современными высокими темпами развития компьютерных нейронных сетей, генерирующих мультимедийный контент: тексты, изображения, звуки и видео. Разработчики относят генеративные технологии к «искусственному интеллекту», позиционируют как «новый атомный проект», способный радикально повысить производительность социально-культурного творчества, и получают значительное государственное, корпоративное и инвестиционное финансирование. Объектом исследования являются современные мультимедийные генеративные модели, предметом исследования служат возможности их использования в социально-культурной сфере и сопутствующие риски информационной безопасности. Цель исследования – определить условия обеспечения информационной безопасности российских граждан при использовании мультимодальных генеративных технологий в социально-культурной сфере. Материалами исследования являются научные публикации последних лет (2021–2024 гг.) в российских журналах перечня ВАК (категории К1, К2) и международных изданиях Scopus (квартили Q1, Q2), посвященные исследованиям и критическому анализу возможностей мультимодальных генеративных моделей, сопутствующих рисков и средств обеспечения безопасности. Применена философская методология: теоретико-культурный анализ, синтез. Научная новизна статьи обусловлена применением философской теоретико-культурной методологии для критического сравнения деклараций разработчиков и действительного потенциала применений мультимодальных генеративных технологий. Результатом исследования является оценка как сильно преувеличенных рисков, прогнозируемых из-за причисления рассматриваемых технологий к «искусственному интеллекту». К реальным рискам предлагается относить: несопоставимость затрат на разработки с полезностью результатов; понижение культурного уровня профессионального и самодеятельного творчества и ухудшение вкусов массовой аудитории; использование в «социальной инженерии», мошенничествах, массовой дезинформации, фейк-новостях, манипуляциях общественным сознанием, «культуре отмены», разрушении традиционных ценностей и подмене социально-культурной идентичности. Рекомендованы средства обеспечения безопасности российских граждан при разработках и использовании мультимедийных генеративных технологий в социально-культурной сфере.


Ключевые слова:

информационная безопасность, искусственный интеллект, мультимедийные генеративные модели, массовая культура, дезинформация, фейк-новости, социальная инженерия, культура отмены, традиционные ценности, социально-культурная идентичность

Abstract: The article is devoted to the study of the conditions for ensuring the information security of Russian citizens when using generative "artificial intelligence" technologies in the socio-cultural sphere. The relevance of the topic is due to the modern high rates of development of computer neural networks that generate multimedia content: texts, images, sounds and videos. The developers classify generative technologies as "artificial intelligence", position them as a "new nuclear project" capable of radically increasing the productivity of socio-cultural creativity, and receive significant government, corporate and investment financing. The object of the study is modern multimedia generative models, the subject of the study is the possibility of their use in the socio-cultural sphere of creativity and the associated risks of information security. The purpose of the study is to determine the conditions for ensuring the information security of Russian citizens when using multimodal generative technologies in the socio-cultural sphere.  The research materials are scientific publications of recent years (2021–2024) in Russian journals of the HAC list (categories K1, K2) and international Scopus publications (quartiles Q1, Q2) devoted to research and critical analysis of the possibilities of multimodal generative models, associated risks and security tools. The philosophical methodology is applied: theoretical and cultural analysis, synthesis. The scientific novelty of the article is due to the application of a philosophical theoretical and cultural methodology for a critical comparison of the declarations of developers and the actual potential of applications of multimodal generative technologies. The result of the study is an assessment of how greatly exaggerated the risks predicted based on the positioning of the technologies in question as "artificial intelligence". The real risks are proposed to include: the incompatibility of development costs with the usefulness of the results; lowering the cultural level of professional and amateur creativity and worsening the tastes of the mass audience; use in "social engineering", fraud, mass disinformation, fake news, manipulation of public consciousness, "cancellation culture", destruction of traditional values and substitution of socio-cultural identity. The means of ensuring the safety of Russian citizens in the development and use of multimedia generative technologies in the socio-cultural sphere are recommended.


Keywords:

information security, artificial intelligence, multimedia generative models, mass culture, disinformation, fake news, social engineering, cancel culture, traditional values, socio-cultural identity

Введение

Среди современных компьютерно-сетевых технологий «искусственного интеллекта» важное место занимают мультимодальные большие генеративные модели, позволяющие в индустриальных масштабах автоматизировать создание текстов, звуков, изображений и видео (Generative Artificial intelligence – GenAI). Разработчики позиционируют генерируемый мультимедийный контент как «сопоставимый» с человеческим творчеством, прогнозируя возможности многократного удешевления при повышении скорости и производительности. Сравниваясь с «новым атомным проектом», подобные разработки получают поддержку на уровне национальных программ и федеральных проектов, значительное и быстро растущее государственное, корпоративное и инвестиционное финансирование. Учитывая важность социально-культурных потребностей массовой аудитории, профессионального и самодеятельного творчества, мультимодальные большие генеративные модели признаны одним из приоритетных направлений государственных программ развития технологий «искусственного интеллекта» (см. Указ Президента Российской Федерации от 15.02.2024 №124 «О внесении изменений в Указ Президента Российской Федерации от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации" и в Национальную стратегию, утвержденную этим Указом»).

Однако появление, развитие и массовое использование в различных отраслях и сферах новых компьютерно-сетевых технологий сопряжено с сопутствующими рисками, в оценке которых должны участвовать профильные специалисты. Исследуя итоги и перспективы применения GenAI в социально-культурной сфере, важно избежать некритических трансляций деклараций разработчиков, порой носящих маркетинговый характер. Для мультимодальных больших генеративных моделей профильным является философский, теоретико-культурный анализ, позволяющий критически оценить возможности их использования в творчестве, рассмотреть социально-культурные риски применения – восприятия массовой аудиторией, рекомендовать эффективные меры безопасности.

1. Производность «очеловечивания» техники от механистической редукции человека

Можно выделить три основных нарратива исследований философских и социально-культурных аспектов разработок и применения GenAI, опубликованных в российских научных журналах перечня ВАК (категории К1, К2) и международной базы Scopus (квартили Q1, Q2): возможности использования GenAI в профессиональном и любительском творчестве; влияние GenAI на социально-культурное восприятие массовой аудитории; перспективы признания машинной генерации творчеством, а GenAI автором. Диалектическая методология позволяет выделить два противоположных подхода: один включает некритическую трансляцию деклараций разработчиков в духе «философии искусственного интеллекта», второй основан на приоритете специфики социально-культурного творчества, признавая за техникой любой сложности лишь инструментальный характер.

Преувеличенным оценкам возможностей мультимодальных больших генеративных моделей способствует сам факт причисления их к технологиям «искусственного интеллекта»: признание сгенерированных текстов, звуков и изображений и видео «сопоставимыми» с результатами человеческой деятельности. В основе критерия «сопоставимости» лежит классический тест Тюринга, основанный всего лишь на мнении эксперта, оценивающего результаты генерации, возможно ошибочном, иллюзорном или заинтересованном [1]. Восприятие и оценки сгенерированного мультимедийного контента, как показали экспериментальные исследования, в значительной, если не в решающей степени зависят от характера осведомлённости пользователей о том, что такое «искусственный интеллект» [2]. В этой области, как и во многих других, часто «видят» именно то, что аудитории достаточно убедительно «обещали» в соответствии с её социально-культурными ценностями [3]. Поведение потребителей, операции пользователей с сервисами GenAI и степень их удовлетворённости также во многом зависят от ожиданий «превосходства над человеческими способностями» [4].

К «очеловечиванию» компьютерной техники неожиданно приводит критика «инструментализма» методом межсекторального феминистского дискурсивного анализа метафорических значений термина «искусственный интеллект». Подход к GenAI как к инструменту в преподавании английского языка сопоставляется с прежним колонизаторским отношением к коренным народам Австралии как к объекту. Делается вывод по аналогии с обретением гражданских прав женщинами и представителями колониальных народов: для достижения планетарной справедливости, после преодоления расового и гендерного неравенства, может потребоваться начать относиться к GenAI как чему-то большему, чем просто к инструменту [5]. Если признать за машиной способность мыслить и творить, формально логичен вывод о возможностях «превзойти человека» с помощью всё более мощных и совершенных электронно-вычислительных компьютерно-сетевых решений.

Подобное допущение, предполагающее встречную редукцию человека до машины (автоматизированного механизма), порождает завышенные ожидания возможностей GenAI в диапазоне от утопии до антиутопии. Технологии «искусственного интеллекта» нового поколения вызывают как восторги, так и опасения. Теоретических дискуссий о потенциальных возможностях, ограничениях и «подводных камнях» внедрения GenAI в творческую деятельность пока мало, но часто встречаются оценки мощных социотехнических моделей как «чудовища, вызывающего глубокий ужас и споры» [6]. ChatGPT, генератор всего лишь текстов по запросам пользователей, выглядит угрозой вытеснения человека из целых отраслей и исчезновения профессий, например, в рекламе [7]. Социолингвистические системы GenAI способны превратиться в «агентов цифровых владык» – владельцев интернет-сервисов, стать третьей стороной их общения с пользователями, формируя новый общественный уклад «алгоритмического», «платформенного» капитализма «всеобщего наблюдения» [8].

Условное приравнивание человека и машины порождает логическую цепочку: машинная генерация мультимедийного контента без понимания смыслов уподобляется человеческому творчеству, осуществляемому без полного знания его принципов и последствий. Сложность и признание «частичного превосходства над человеком» позволяют воспринимать GenAI уже не как инструмент, но как непредсказуемого и непостижимого «помощника», способного «взаимодействовать с обществом». Далее формулируются прогнозы, близкие по уровню эсхатологическим: предполагается, что GenAI способен обрести опыт самостоятельного наличного бытия, запустить цикл бесконечного самосовершенствования и самопорождения, трансформировать материю в цифроматериальное общество роевого интеллекта [9].

2. Современная постановка проблемы творчества и правосубъектности электронно-вычислительной машины

Преувеличенные прогнозы возможностей, и соответственно, рисков, вызванные причислением мультимодальных больших генеративных моделей к «искусственному интеллекту», можно условно разделить на два уровня, фундаментальный и прикладной. Смежные прикладные социально-культурные проблемы, решение которых требует философской методологии, таковы: следует ли признавать творчеством машинную генерацию мультимедийного контента и правосубъектность «искусственного интеллекта». Вторая проблема не является чисто юридической, поскольку правовая терминология необходимо соотносится с философскими понятиями общества и человека. Анализ уже прикладных возможностей и рисков может показать, целесообразно ли дальнейшее рассмотрение фундаментальных прогнозов разработок и применения технологий GenAI, как утопических, так и антиутопических. Точно и однозначно ответить на вопрос, может ли техника, компьютерный программно-аппаратный комплекс для генерации мультимедийного контента признаваться творцом и субъектом права, можно посредством классической философской методологии диалектического материалистизма.

В соответствии с классической политической экономией теоретико-культурный подход позволяет выделить в творческом труде творца-человека и вещные факторы: орудие (инструмент), материал и результат. Точно так же, как перо, кисть и музыкальный инструмент являются ручными инструментами, GenAI тоже выступает инструментом человеческого творчества, только стационарным и автоматизированным. Обработка текстов и звуков, изображений и видео посредством автоматизированных компьютерных сетевых программно-аппаратных комплексов с этой точки зрения принципиально не отличается от машинного производства прочей промышленной и бытовой продукции. В таком случае субъектом автоматизированной творческой деятельности и автором сгенерированного контента является человек, пользователь. Именно он решает, воспользоваться ли данным сервисом, формулирует текстовый запрос, принимает или отвергает результат.

Напротив, механистическая редукция человека к машине и «очеловечивание» электронно-вычислительной техники помогают успешному маркетингу технологий, причисляемых к «искусственному интеллекту», получению государственной поддержки и инвестиций. Однако некритическая трансляция этих постулатов «философии искусственного интеллекта» в социально-культурную сферу приводит к некорректной, на грани заведомой неразрешимости, формулировке проблематики.

Трактовка использования текстовых больших генеративных моделей как «сотрудничества», «взаимодействия» с человеком уводит исследование от вопросов эффективности создания и редактирования текстов для разных целей в сторону «диалектических переговоров, совместному с искусственным интеллектом написанию с помощью повторяющихся подсказок» [10]. Применение мультимодальных больших генеративных моделей в социально-культурной сфере предстаёт уже не как опосредованное технологиями взаимодействие творческих работников, аудитории, создателей и поставщиков сервисов. Прогнозируется новая эра «творческих отношений» между художниками и технологиями, огромные перспективы расширения творческого потенциала благодаря «симбиозу человека и искусственного интеллекта» [11].

Некритическая трансляция постулатов «философии искусственного интеллекта» в социально-культурную сферу критикуется юристами, которые придерживаются определения GenAI как об объекта, а не субъекта права, в том числе в области авторства. Чтобы поколебать их позицию, ради признания за собственником, а не за пользователем генеративного сервиса хотя бы временных прав на результат, применяются терминологические иносказания. Таковы, например, эвфемизмы генераторы результатов, «сопоставимых с результатами интеллектуальной деятельности», «создатель результата, не являющийся человеком» [12]. Творческий характер и оригинальность сгенерированного результата [13] могут трактоваться не как совместный продукт пользователя и создателей автоматизированного сервиса, но как аргумент в пользу возможности придания правосубъектности «искусственному интеллекту» [14].

Вопрос «машинного творчества» напрямую связан не только с авторскими правами, но и с ответственностью за правонарушения, совершённые с использованием техники. Мультимодальные большие генеративные модели «искусственного интеллекта» являются техникой, хотя и автоматизированной, в значительной степени автономной от создателей и операторов. Признание способности современных нейронных сетей создавать «объекты, до сих пор считавшиеся достижениями творческой деятельности человека», классификация цифрового искусства как «машинного творчества» [15] всего лишь маскирует, переносит на инструмент ответственность человека, который сделал запрос и опубликовал сгенерированный контент, нарушающий закон.

3. Теоретико-культурный анализ творческого содержания компьютерной генерации

Философско-культурный анализ творчества позволяет классифицировать мультимодальные большие генеративные модели не как «искусственный интеллект», но как автоматизированные системы машинной электронно-вычислительной обработки электронных (также цифровых) документов – текстовых, звуковых, изображений, видео, а потенциально и других видов (оцифрованных запахов, вкусов, тактильных ощущений и т.п.). Творческим характером может обладать лишь труд людей – субъектов, которые используют, обслуживают, разрабатывают, администрируют генеративные сервисы как объекты. Принципиальное устройство мультимодальной большой генеративной модели можно описать по аналогии с промышленным машинным массовым производством стандартизированных изделий, индустриальных или бытовых. Применение машины как автоматизированного средства труда заключается в обработке предмета труда (сырья, заготовки) в готовое изделие; устройство машины необходимо включает двигатель, управляющую трансмиссию и рабочие инструменты.

«Сырьём» для обработки, то есть предметом труда, являются электронные документы – результаты оцифровки человеческих действий: письма, рисования, речи, пения, исполнения музыкальных произведений, ролей в театре и кинофильмах, участия в массовых мероприятиях и т.п. Эти документы формализованы, индексированы по заданным параметрам и структурированы в электронные мультимедийные библиотеки – своего рода упорядоченный «склад сырья» с каталогом. Рабочими инструментами для обработки «сырья» являются специализированные программы – шаблоны операций, моделирующих приёмы редактирования человеком исходных документов (текстов, изображений, звуко- и видеозаписей и т.д.), объединённые в структурированные собрания.

Роль автоматизированной управляющей трансмиссии («руля») играют поисковые и управляющие алгоритмы, определяющие «сырые» исходных документы, операции обработки и их последовательность, наиболее соответствующие запросу пользователя по формальным критериям. «Двигателем» мультимодальных больших генеративных моделей как электронно-вычислительных программно-аппаратных комплексов являются генерирующие электроэнергию мощности – ГЭС, ТЭЦ, АЭС и т.п.

Генерация документа (текста, изображения, звукового, видео) по запросу пользователя, вплоть до режима трансляции в режиме реального времени, осуществляется следующими техническими средствами. По текстовому запросу с описанием результата автоматически определяются наиболее соответствующие по формальным признакам исходные документы из имеющейся библиотеки, а затем инструменты (программы) из наличного перечня и последовательность их выполнения. Генерация результата представляет собой автоматизированную обработку исходных документов («сырья») последовательностью операций (программами-инструментами).

Пользователь с помощью генеративного сервиса сам, незаметно для себя, выбирает из имеющихся в наличии наиболее подходящие исходный документ, программы-инструменты, определяет последовательность операций, выполнение которых и создаёт обработанный, «сгенерированный» документ. Для генерации результата могут потребоваться много документов; операции способны включать фрагментацию, компиляцию фрагментов, применение спецэффектов к «коллажу» и финальную «оригинализацию» (защиту от «антиплагиата»), что нисколько не меняет сути дела. Большие мультимодальные генеративные модели являются средствами самообслуживания пользователей, причём не в большей степени, чем для водителя – богато оснащённый электронной автоматикой автомобиль. Завышенные ожидания и некритическое восприятие GenAI как потенциального «художественного сверхразума» порождаются таким феноменом «массовой культуры» как современная мифология «искусственного интеллекта».

Наиболее верным и продуктивным представляется «инструментальный» подход к GenAI, подтверждаемый уже наработанной практикой применения в социально-культурной сфере. Творчество остается монополией человека, требует воображения, таланта, мастерства, а цифровизация и нейросети освобождают художника только от повторов самых простых рутинных операций [16]. GenAI применим для стимулирования и расширения технических возможностей человеческого творчества на основе автоматизированного анализа крупномасштабных наборов «больших данных» [2],[17]. «Искусственный эмоциональный интеллект» может быть полезен в статистической аналитике, разработке норм и стандартов, крупных проектов в сфере искусства и культуры [18]. Свободное от иллюзий «искусственного интеллекта» применение мультимодальных больших генеративных моделей может способствовать укреплению технологического и культурного суверенитета, преодолению потребительства, превращению социального творчества в высшую ценность [19],[20].

4. Социально-культурные риски мультимодальных больших генеративных моделей

Основываясь на определении мультимодальных больших генеративных моделей как автоматизированного технического инструмента творчества, можно выявить и определить различные «прикладные» социально-культурные риски, сопутствующие их разработке и применению. В случае реализации этих рисков ущерб может быть нанесён государственным и корпоративным интересам, профессиональным и непрофессиональным, самодеятельным творческим работникам, а также гражданам и пользователям, представляющим массовую аудиторию интернет-сервисов.

Государственной и корпоративной поддержке сопутствует риск несоответствия затрат ресурсов на разработку и внедрение GenAI получаемым результатам, неэффективное расходование финансовых средств, затрачиваемых на дорогостоящее оборудование, закупку у операторов «больших персональных данных», регулярное долговременное «обучение» (точнее, настройку) GenAI на многих людях. Уязвимостями здесь выступают некритическое восприятие прогнозов эффективности, заведомо завышенных разработчиками, обоснованное лишь постулатами «философии искусственного интеллекта», а также недостаточно широкое привлечение к экспертизе и разработкам отечественных философов, теоретиков культуры и искусства, культурологов, достаточно хорошо разбирающихся в современных цифровых технологиях.

Риском для профессиональных и самодеятельных творческих работников, особенно для начинающих и обучающихся, выступает иллюзорное восприятие мультимодальных больших генеративных моделей не как сервиса самообслуживания, но как образца «творческого сверхразума». Сгенерированные GenAI компиляции из «сырья», фрагментов работ никому не известных авторов, не представляющих художественной ценности, преобразованные автоматическими спецэффектами и замаскированные «защитой от антиплагиата», могут благодаря причислению к «искусственному интеллекту» восприниматься как высокие образцы подлинно современного «высокотехнологичного» искусства, превосходящие классические шедевры культуры, как ориентиры для совершенствования собственного мастерства.

Подобный риск значительного понижения художественного вкуса в результате цифровой автоматизации индустрии «массовой культуры» существует и для широкой аудитории, потенциально для всех граждан, пользователей. Машинная генерация в индустриальных масштабах вторичного и третичного «культурного ширпотреба» создаёт иллюзию подлинного творчества, отвечающего моде на «искусственный интеллект», поддерживается массированной трансляцией в интернет-коммуникациях, автоматизированным агрессивным маркетингом и навязчивой рекламой «рекомендательных сервисов».

Можно выделить целую группу социально-культурных рисков для российских государственных, коммерческих, некоммерческих организаций и всех граждан, связанных с использованием злоумышленниками быстроты, высокой производительности и дешевизны генерируемого GenAI убедительного фальсифицированного мультимедийного контента. Для трансляции массовой аудитории посредством прессы и социальных сетей быстро и недорого могут быть сгенерированы убедительные высококачественные (Deepfake) поддельные выступления авторитетных лидеров, руководителей и экспертов, подделки произведений искусства, исторических, политических и других документов, мнений граждан.

Таким образом, возможности использования злоумышленниками мультимодальных больших генеративных моделей порождают целую группу социально-гуманитарных рисков, сопряжённых с высокопродуктивной автоматизацией деструктивных манипуляций сознанием. GenAI в качестве высокопроизводительной «машины иллюзий и обмана» может эффективно применяться криминалом как автоматизирующее техническое средство «социальной инженерии», мошенничеств в социальных сетях и торговых сервисах, в том числе совершаемых посредством мобильных телефонов, интернет-мессенджеров и т.д. В корпоративных и межгосударственных конфликтах, «гибридных войнах» потенциал GenAI способен быть использован недружественными странами и организациями для массовой дезинформации, производства фейк-новостей, проведения кампаний «культуры отмены», фальсификации истории, разрушения традиционных ценностей и подмены социально-культурной идентичности.

Заключение

Результатом исследования является вывод об иллюзорности «фундаментальных» рисков того, что мультимодальные большие генеративные модели, причисляемые к «искусственному интеллекту», превзойдут качеством и сделают излишним человеческое творчество. При понимании GenAI как автоматизированного высокопроизводительного эффективного сервиса индустриального создания поддельно оригинального, но убедительного контента прорисовываются более реальные риски. К ним можно отнести риск низкой эффективности государственных и корпоративных затрат на разработки мультимодальных больших генеративных моделей, несопоставимых с полезностью результатов, а также понижение мастерства профессиональных и непрофессиональных творческих работников, ухудшение художественного вкуса массовой аудитории. Криминал, недружественные страны и организации могут использовать GenAI как высокопроизводительное и быстродействующее техническое средство в таких методах нарушения информационной безопасности как «социальная инженерия», мошенничество, манипулирование сознанием, дезинформация, фейк-новости, «культура отмены», разрушение традиционных ценностей и подмена социально-культурной идентичности.

Для минимизации рассмотренных социально-культурных рисков, обеспечения информационной безопасности национальных интересов и граждан России при разработке и применении мультимодальных больших генеративных моделей могут быть рекомендованы следующие средства. Во-первых, привлечение к разработкам и экспертизе российских моделей GenAI отечественных философов, теоретиков культуры, искусствоведов и др., являющихся одновременно профильными специалистами в социально-культурной проблематике, современных цифровых технологиях и в обеспечении информационной безопасности. Во-вторых, востребованы расширение и углубление научных исследований социально-культурных аспектов эффективности и безопасности мультимодальных больших генеративных моделей. В-третьих, результаты таких исследований рекомендуется использовать в образовании и популяризации посредством отечественной массовой прессы, социальных сетей, цифровых платформ и социальной рекламы для актуализации и повышения культуры информационной безопасности российских граждан.

Библиография
1. Былевский П.Г. Культурологическая деконструкция социально-культурных угроз ChatGPT информационной безопасности российских граждан // Философия и культура. 2023. № 8. С. 46-56. DOI: 10.7256/2454-0757.2023.8.43909 EDN: UZDRFW URL: https://e-notabene.ru/fkmag/article_43909.html
2. Akin N., Bergdahl J., Cvetkovic A., et al. Artificial intelligence in fine arts: A systematic review of empirical research // Computers in Human Behavior: Artificial Humans. 2023. Vol. 1. Iss. 2. 100004. DOI: 10.1016/j.chbah.2023.100004
3. Мирин И.Г. Стереотипы восприятия работ искусственного интеллекта discodiffusion и их отличий от визуального творчества человека // Дизайн. Материалы. Технология. 2023. No 2(70). С. 59-66. DOI: 10.46418/1990-8997_2023_2(70)_59_66
4. Hermann E., Puntoni S. Artificial intelligence and consumer behavior: From predictive to generative AI // Journal of Business Research. 2024. Vol.180. 114720. DOI: 10.1016/j.jbusres.2024.114720
5. McKnight L., Shipp C. “Just a tool”? Troubling language and power in generative AI writing // English Teaching: Practice & Critique. 2024. Vol. 23. Iss. 1. Pp. 23-35. DOI: 10.1108/ETPC-08-2023-0092
6. Edgell R.A. A monstrous matter: The three faces of artificial creativity // Journal of Creativity. 2024. Vol. 34. Iss. 4. DOI: 10.1016/j.yjoc.2024.100075
7. AlRabiah S., Angell R., Gao L., et al. To ChatGPT, or not to ChatGPT: Navigating the paradoxes of generative AI in the advertising industry // Business Horizons. 2024. In Press, Journal Pre-proof. DOI: 10.1016/j.bushor.2024.05.002
8. Dyke Van R., Harrison S. Beyond the break, theory on a dramatic scale // Computers and Composition. 2023. Vol. 69. 102795. DOI: 10.1016/j.compcom.2023.102795.
9. Шаткин М.А. Социально-философские аспекты развития генеративного искусственного интеллекта // Известия Саратовского университета. Новая серия. Серия: Философия. Психология. Педагогика. 2023. Т. 23. No 4. С. 414-418. DOI: 10.18500/1819-7671-2023-23-4-414-418
10. Li R. A “Dance of storytelling”: Dissonances between substance and style in collaborative storytelling with AI // Computers and Composition. 2024. Vol. 71. 102825. DOI: 10.1016/j.compcom.2024.102825
11. Дружинина А.А. Художник и нейросеть: симбиоз будущего? // Декоративное искусство и предметно-пространственная среда. Вестник РГХПУ им. С.Г. Строганова. 2023. No 3-3. С. 39-64. DOI: 10.37485/1997-4663_2023_3_3_39_64
12. Луткова О.В. Правовое регулирование участия искусственного интеллекта и других генераторов в процессе создания результатов, сопоставимых с произведениями // Вестник Университета имени О.Е. Кутафина (МГЮА). 2023. No 9(109). С. 108-117. DOI: 10.17803/2311-5998.2023.109.9.108-117
13. Fenwick M., Jurcys P. Originality and the future of copyright in an age of generative AI // Computer Law & Security Review. 2023. Vol. 51. 105892. DOI: 10.1016/j.clsr.2023.105892
14. Кухно М.О. Искусственный интеллект – новый субъект авторского права: недалекое будущее или фикция? // Журнал Суда по интеллектуальным правам. 2023. No 3(41). С. 72-86. DOI: 10.58741/23134852_2023_3_8
15. Беликова Е.К., Попов Е.А. Современные проблемы соотношения естественного и искусственного интеллекта в парадигме культуры // Социально-гуманитарные знания. 2023. No 11. С. 9-13. EDN: ZDLWBE
16. Сафронов Н.С. Цифровая эволюция в международной культурной среде // Международная жизнь. 2023. No 12. С. 128-131. EDN: CBXBYE.
17. Бобков С.П., Галкин Д.В., Коновалова К.В. К проблеме автоматизации творчества в сфере искусства и дизайна: инструментальный и генеративный подходы // Вестник Томского государственного университета. Культурология и искусствоведение. 2021. No 44. С. 14-24. DOI: 10.17223/22220836/44/2
18. Ильин Р.В., Сандакова Л.Г. Цифровизация творческого процесса: проблемы и перспективы // Вестник Бурятского государственного университета. 2022. No 2. С. 64-71. DOI: 10.18101/1994-0866-2022-2-64-71
19. Карпухин О.И., Макаревич Э.Ф. Изменение парадигмы общественного развития в России – от массового общества потребления к обществу социального творчества в условиях трансформации массовых коммуникаций // Социально-гуманитарные знания. 2023. No 6. С. 11-20. DOI: 10.34823/SGZ.2023.6.52019
20. Карпухин О.И., Макаревич Э.Ф. Изменение парадигмы общественного развития в России – от массового общества потребления к обществу социального творчества в условиях трансформации массовых коммуникаций // Социально-гуманитарные знания. 2023. No 7. С. 27-36. DOI: 10.34823/SGZ.2023.7.5201
References
1. Bylevskiy, P.G. (2023). Culturological deconstruction of socio-cultural threats ChatGPT information security of Russian citizens. Philosophy and Culture, 8, 46-56.
2. Akin, N., Bergdahl, J., Cvetkovic, A., et al. (2023). Artificial intelligence in fine arts: A systematic review of empirical research. Computers in Human Behavior: Artificial Humans, 1(2), 100004. doi:10.1016/j.chbah.2023.100004
3. Mirin, I.G. (2023). Stereotypes of perception of artificial intelligence discodiffusion works and their differences from human visual creativity. Design. Materials. Technology, 2(70), 59-66. doi:10.46418/1990-8997_2023_2(70)_59_66
4. Hermann, E., & Puntoni, S. (2024). Artificial intelligence and consumer behavior: From predictive to generative AI. Journal of Business Research, 180, 114720. doi:10.1016/j.jbusres.2024.114720
5. McKnight, L., & Shipp, C. (2024). “Just a tool”? Troubling language and power in generative AI writing. English Teaching: Practice & Critique, 23(1), 23-35. doi:10.1108/ETPC-08-2023-0092
6. Edgell, R.A. (2024). A monstrous matter: The three faces of artificial creativity. Journal of Creativity, 34(4), 100075. doi:10.1016/j.yjoc.2024.100075
7. AlRabiah, S., Angell, R., Gao, L., et al. (2024). To ChatGPT, or not to ChatGPT: Navigating the paradoxes of generative AI in the advertising industry. Business Horizons. In Press, Journal Pre-proof. doi:10.1016/j.bushor.2024.05.002
8. Dyke, Van R., & Harrison, S. (2023). Beyond the break, theory on a dramatic scale. Computers and Composition, 69, 102795. doi:10.1016/j.compcom.2023.102795
9. Shatkin, M.A. (2023). Socio-philosophical aspects of the development of generative artificial intelligence. Proceedings of the Saratov University. A new series. Series: Philosophy. Psychology. Pedagogy, 23(4), 414-418. doi:10.18500/1819-7671-2023-23-4-414-418
10. Li, R. (2024). A “Dance of storytelling”: Dissonances between substance and style in collaborative storytelling with AI. Computers and Composition, 71, 102825. doi:10.1016/j.compcom.2024.102825
11. Druzhinina, A.A. (2023). The artist and the neural network: a symbiosis of the future? Decorative art and the subject-spatial environment. Bulletin of the Russian State Pedagogical University named after S.G. Stroganov, 3-3, 39-64. doi:10.37485/1997-4663_2023_3_3_39_64
12. Lutkova, O.V. (2023). Legal regulation of the participation of artificial intelligence and other generators in the process of creating results comparable to works. Bulletin of the O.E. Kutafin University (MGUA), 9(109), 108-117. doi:10.17803/2311-5998.2023.109.9.108-117
13. Fenwick, M., & Jurcys, P. (2023). Originality and the future of copyright in an age of generative AI. Computer Law & Security Review, 51, 105892. doi:10.1016/j.clsr.2023.105892
14. Kukhno, M.O. (2023). Artificial intelligence – a new subject of copyright: the near future or fiction? Journal of the Court of Intellectual Rights, 3(41), 72-86. doi:10.58741/23134852_2023_3_8
15. Belikova, E.K., & Popov, E.A. (2023). Modern problems of the correlation of natural and artificial intelligence in the paradigm of culture. Socio-humanitarian knowledge, 11, 9-13.
16. Safronov, N.S. (2023). Digital evolution in the international cultural environment. International life, 12, 128-131.
17. Bobkov, S.P., Galkin, D.V., & Konovalova, K.V. (2021). On the problem of automation of creativity in the field of art and design: instrumental and generative approaches. Bulletin of Tomsk State University. Cultural studies and art history, 44, 14-24. doi:10.17223/22220836/44/2
18. Ilyin, R.V., & Sandakova, L.G. (2022). Digitalization of the creative process: problems and prospects. Bulletin of the Buryat State University, 2, 64-71. doi:10.18101/1994-0866-2022-2-64-71
19. Karpukhin, O.I., & Makarevich, E.F. (2023). Changing the paradigm of social development in Russia – from a mass consumer society to a society of social creativity in the conditions of transformation of mass communications. Socio-humanitarian knowledge, 6, 11-20. doi:10.34823/SGZ.2023.6.52019
20. Karpukhin, O.I., & Makarevich, E.F. (2023). Changing the paradigm of social development in Russia – from a mass consumer society to a society of social creativity in the conditions of transformation of mass communications. Socio-humanitarian knowledge, 7, 27-36. doi:10.34823/SGZ.2023.7.52019

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

В журнал «Культура и искусство» автор представил свою статью «Социально-культурные риски мультимодальных больших генеративных моделей «искусственного интеллекта» (GenAI)», в которой проведено исследование потенциала влияния современных технологий на социокультурную среду.
Автор исходит в изучении данного вопроса из того, что появление, развитие и массовое использование в различных отраслях и сферах новых компьютерно-сетевых технологий сопряжено с сопутствующими рисками, в оценке которых должны участвовать профильные специалисты, поэтому, исследуя итоги и перспективы применения GenAI в социально-культурной сфере, важно избежать некритических трансляций деклараций разработчиков, порой носящих маркетинговый характер.
Актуальность этого исследования обусловлена важностью мультимодальных больших генеративных моделей, которые признаны одним из приоритетных направлений государственных программ развития технологий «искусственного интеллекта».
Целью настоящего исследования является оценка возможности использования мультимодальных больших генеративных моделей в творчестве. Для достижения цели автором поставлены следующие задачи: рассмотрение социально-культурных рисков применения–восприятия массовой аудиторией, выработка рекомендаций по созданию эффективных мер безопасности.
В качестве методологического обоснования автор применяет комплексный подход, включающий философский, теоретико-культурный анализ. Теоретическим обоснованием послужили труды таких исследователей как О.И. Карпухин, П.Г. Былевский, И.Г. Мирин, М.А. Шаткин и др.
На основе анализа научной обоснованности проблематики автор выделяет три основных нарратива исследований философских и социально-культурных аспектов разработок и применения GenAI: возможности использования GenAI в профессиональном и любительском творчестве; влияние GenAI на социально-культурное восприятие массовой аудитории; перспективы признания машинной генерации творчеством, а GenAI автором. Автором выделено два противоположных подхода: один включает некритическую трансляцию деклараций разработчиков в духе «философии искусственного интеллекта», второй основан на приоритете специфики социально-культурного творчества, признавая за техникой любой сложности лишь инструментальный характер. Автор не разделяет опасений некоторых исследователей в возможности замены творчества человека процессом создания культурного контента при помощи технологий искусственного интеллекта, равно как и очеловечивание таких технологий.
Преувеличенные прогнозы возможностей, и соответственно, рисков, вызванные причислением мультимодальных больших генеративных моделей к «искусственному интеллекту», автор разделяет на два уровня, фундаментальный и прикладной. Смежные прикладные социально-культурные проблемы, решение которых требует философской методологии, по мнению автора, таковы: следует ли признавать творчеством машинную генерацию мультимедийного контента и правосубъектность «искусственного интеллекта». Однако, по мнению автора, признание способности современных нейронных сетей создавать объекты, до сих пор считавшиеся достижениями творческой деятельности человека, классификация цифрового искусства как машинного творчества всего лишь маскирует, переносит на инструмент ответственность человека, который сделал запрос и опубликовал сгенерированный контент, нарушающий закон.
Философско-культурный анализ творчества позволил автору классифицировать мультимодальные большие генеративные модели не как «искусственный интеллект», но как автоматизированные системы машинной электронно-вычислительной обработки информации разного вида. Творчество остается монополией человека, требует воображения, таланта, мастерства, а цифровизация и нейросети освобождают художника только от повторов самых простых рутинных операций. GenAI применим для стимулирования и расширения технических возможностей человеческого творчества на основе автоматизированного анализа крупномасштабных наборов «больших данных».
Основываясь на определении мультимодальных больших генеративных моделей как автоматизированного технического инструмента творчества автор выявляет и определияет различные «прикладные» социально-культурные риски, сопутствующие их разработке и применению.
Для минимизации рассмотренных социально-культурных рисков, обеспечения информационной безопасности национальных интересов и граждан России при разработке и применении мультимодальных больших генеративных моделей автор рекомендует следующие средства. Во-первых, привлечение к разработкам и экспертизе российских моделей GenAI отечественных философов, теоретиков культуры, искусствоведов, являющихся одновременно профильными специалистами в социально-культурной проблематике, современных цифровых технологиях и в обеспечении информационной безопасности. Во-вторых, востребованы асширение и углубление научных исследований социально-культурных аспектов эффективности и безопасности мультимодальных больших генеративных моделей. В-третьих, использование результаты таких исследований в образовании и популяризации посредством отечественной массовой прессы, социальных сетей, цифровых платформ и социальной рекламы для актуализации и повышения культуры информационной безопасности российских граждан.
В заключении автором представлен вывод по проведенному исследованию, в котором приведены все ключевые положения изложенного материала.
Представляется, что автор в своем материале затронул актуальные и интересные для современного социогуманитарного знания вопросы, избрав для анализа тему, рассмотрение которой в научно-исследовательском дискурсе повлечет определенные изменения в сложившихся подходах и направлениях анализа проблемы, затрагиваемой в представленной статье.
Полученные результаты позволяют утверждать, что комплексное изучение влияния технологического прогресса на социокультурные трансформации представляет несомненный практический культурологический интерес и может служить источником дальнейших исследований.
Представленный в работе материал имеет четкую, логически выстроенную структуру, способствующую более полноценному усвоению материала. Этому способствует и адекватный выбор методологической базы. Библиографический список исследования состоит из 20 источников, что представляется достаточным для обобщения и анализа научного дискурса.
Автор выполнил поставленную цель, получил определенные научные результаты, позволившие обобщить материал, показал глубокое знание изучаемой проблематики. Следует констатировать: статья может представлять интерес для читателей и заслуживает того, чтобы претендовать на опубликование в авторитетном научном издании.