Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Философская мысль
Правильная ссылка на статью:

Философско-антропологический анализ противоречий развития искусственного интеллекта

Глуздов Дмитрий Викторович

ORCID: 0000-0001-7043-5139

аспирант, кафедра философии и общественных наук, Нижегородский государственный педагогический университет имени Козьмы Минина

603950, Россия, г. Нижний Новгород, ул. Ульянова, 1

Gluzdov Dmitry Viktorovich

Postgraduate Student, Department of Philosophy and Social Sciences, Nizhny Novgorod State Pedagogical University named after Kozma Minin

603950, Russia, Nizhny Novgorod, Ulyanova str., 1

dmitry.gluzdov@mail.ru
Другие публикации этого автора
 

 

DOI:

10.25136/2409-8728.2023.10.40062

EDN:

NFQRFV

Дата направления статьи в редакцию:

27-03-2023


Дата публикации:

28-10-2023


Аннотация: Объектом философского исследования является искусственный интеллект. Предмет исследования охватывает воздействие процесса развития искусственного интеллекта на человека, на формирование и изменение представления о человеке, его природе и сущности. Но в исследовании акцент делается на противоречивость этого воздействия. Философско-антропологический анализ искусственного интеллекта ориентирован на понимание влияния этой технологии через феномен человека, человеческое существование и его опыт. Статья является попыткой изучить с разных позиций проблему, в том числе вопрос, как обеспечить контроль над растущим "потреблением" искусственного интеллекта в самых разных, а так же, что может повлиять на возможности развития самого человека и того, как современные тенденции способствуют изменению или созданию социальных и культурных норм, таких как идеи «робоэтики» и этическая ответственность при создании и использовании интеллектуальных машин. Наличие разрозненного или недостаточно полного охвата в изучении представленной темы в работах исследователей позволяет ставить задачу формулирования проблемы и её изучение. Именно потребность в комплексном исследовании является идеей инициировавшей данную работу, что сводится к попытке проведения философско-антропологического анализа, выявления недостатков существующей ситуации и определения перспектив. С этой позиции, в процессе исследования не было обнаружено материалов, рассматривающих проблему всеобъемлюще, а с другой, объединяющих в себе задачу выявления причин и оснований этих противоречий с целью их анализа с позиций философской-антропологии, что и определяет новизну исследования.


Ключевые слова:

философская антропология, человек, искусственный интеллект, технология, противоречия, сознание, свобода, идентичность, этика, междисциплинарное сотрудничество

Abstract: The object of philosophical research is artificial intelligence. The subject of the study covers the impact of the development of artificial intelligence on a person, on the formation and change of ideas about a person, his nature and essence. But in the study, the emphasis is on the contradictoriness of this impact. The philosophical and anthropological analysis of artificial intelligence is focused on understanding the impact of this technology through the phenomenon of man, human existence and his experience. The article is an attempt to study the problem from different positions, including the question of how to ensure control over the growing "consumption" of artificial intelligence in a variety of ways, as well as what can affect the development of a person himself and how current trends contribute to change or create social and cultural norms, such as the ideas of "roboethics" and ethical responsibility in the creation and use of intelligent machines. The presence of fragmented or insufficiently complete coverage in the study of the presented topic in the works of researchers allows us to set the task of formulating the problem and studying it. It is the need for a comprehensive study that is the idea that initiated this work, which boils down to an attempt to conduct a philosophical and anthropological analysis, identify the shortcomings of the existing situation and determine the prospects. From this position, in the process of research, no materials were found that consider the problem comprehensively, and on the other hand, combine the task of identifying the causes and foundations of these contradictions in order to analyze them from the standpoint of philosophical anthropology, which determines the novelty of the study.


Keywords:

philosophical anthropology, human, artificial intelligence, technology, contradictions, consciousness, freedom, identity, ethics, interdisciplinary cooperation

Введение

В последние годы искусственный интеллект (далее – ИИ или ИИ-системы) добивается значительного прогресса благодаря развитию вычислительных мощностей, накоплению данных в цифровом виде (материала для обработки), а также благодаря достижениям в областях машинного обучения, нейронных сетей и алгоритмов глубокого обучения. Поскольку ИИ продолжает развиваться и становиться все более изощренным, его развитие ставит ряд разнородных задач, требующих междисциплинарного подхода для их решения. Несомненно, развитие ИИ сопровождается определёнными противоречиями, для полного и разностороннего понимания которых требуется философское осмысление проблемы.

Искусственный интеллект способен качественно изменить бытие человека. Поэтому именно перед философской антропологией, стремящейся понять принципы, управляющие человеческим существованием, стоит задача проанализировать вопросы и проблемы, связанные с развитием искусственного интеллекта. Цель данной статьи - проанализировать противоречия в развитии ИИ с позиций философской антропологии, что соответствует и её исследовательским целям – познанию того, что значит быть человеком.

Актуальность определена тем, что существующие состояние контроля за развитием ИИ можно назвать ничтожно малым. Несмотря на то, что государственные органы разных стран уже начали формировать законодательную базу по контролю за искусственным интеллектом, она не охватывает все возможные сферы и проблемы. Чаще затрагиваются только отдельные вопросы в отношении изучаемой предметной обрасти (например, только юридические аспекты или вопросы, или безопасности) и не рассматриваются противоречия в целом.

Новизна исследования заключается в выявлении причин и оснований противоречий развития искусственного интеллекта, попытке проанализировать эти противоречия с позиций философской антропологии.

В методологическом плане в данной работе используются классификация, сравнительный анализ. Также применен герменевтический подход, позволяющий интерпретировать первоисточники, и феноменологический подход, позволяющий рассмотреть ИИ как феномен социокультурной среды человека.

Об истоках противоречий в развитии искусственного интеллекта

Различные причины способствовали развитию искусственного интеллекта и актуализации потребности в исследовании противоречий. Эти противоречия возникают из-за различий в ожидании от применения искусственного интеллекта, возможностью выбора разных направлений в его развитии, а также отсутствием регулирующих принципов и контролирующих органов.

Начало ускоренного развития искусственного интеллекта стало одним из самых значительных технологических достижений в новейшей истории. Начиная от виртуальных помощников, гаджетов, персональных компьютеров, до беспилотных транспортных средств – искусственный интеллект проник почти во все аспекты современной жизни и продолжает проникать всё глубже и глубже. Но одним из основных источников противоречий, связанных с развитием ИИ, является отсутствие единого подхода, теории, юридических норм, контролирующих структур, которые могли бы направлять и координировать его развитие [1, с.501-502][2, с.91][3, с.18,22]. В настоящее время исследования искусственного интеллекта характеризуются наличием различных подходов: изучение через нейронные сети, эволюционные алгоритмы, глубокое обучение и др. Каждый из подходов имеет свои сильные и слабые стороны. Но развитие искусственного интеллекта осложняется наличием этических и социальных проблем. Среди них и обязательное влияние на область занятости человека, и проблемы с доступом к конфиденциальной информации, и её безопасность, и не корректность обработки данных. Последнее может повлечь усугубление существующих неравенств и несправедливости. Если алгоритмы не разработаны и не протестированы должным образом, то ИИ-системы могут сохранить в самой «сердцевине» искусственного интеллекта – «знаниях», определённую предвзятость, а как следствие и дискриминацию в отношении человека (или групп людей).

Одним из ключевых источников противоречий в развитии искусственного интеллекта является противоречие между стремлением к повышению эффективности и необходимостью этической и социальной ответственности. ИИ действительно может значительно повысить производительность и эффективность, автоматизируя задачи и процессы, которые ранее выполнялись людьми, может повысить скорость и точность принятия решений. Как пример, это приводит к разработке алгоритмов, которые могут более эффективно прогнозировать поведение потребителей, быстрее оптимизировать цепочки поставок и качественнее диагностировать заболевания. Но какова обратная сторона повышения эффективности?

Применяемые алгоритмы для создания ИИ (за редким исключением) представляют из себя обученный «чёрный ящик», в отношении которого отсутствует уверенность в правильности принимаемого решения в 100% случаев. Это связано с тем, что собираемый для него обучающий материал не содержит варианты ответов на все случаи жизни, а возможность принимать идеально правильное и морально взвешенное решение не всегда доступно даже человеку.

Так же противоречия возникают на границе между потребностями в большем контроле над ИИ и в случаях необходимости большей автономии, предоставляемой создаваемым системам. Такая потребность возникает в связи с тем, что создаваемые системы искусственного интеллекта имеют возможность адаптироваться и извлекать уроки из своего же опыта. Результаты этого можно увидеть в разработке беспилотных автомобилей, которые используют датчики и алгоритмы для навигации в сложных условиях. Однако эта же адаптивность может привести к непредсказуемому поведению, что вызывает опасения по поводу безопасности систем искусственного интеллекта.

Обзор литературы

Если в рамках границ философской антропологии останавливаться только вопросах интеллекта с точки зрения проблемы философии сознания, то можно отметить, что в европейской философии вопрос о природе человека и о его сознании возникал постоянно. Так в Новое время активно поднимались вопросы как о самом мышлении человека, так и о характере этого мышления. И естественно, что именно в это время происходит сравнение естественного человеческого интеллекта с машиной. В то время, когда происходило взрывное развитие механики как науки, не удивительно, что сравнение интеллекта сводилось к сравнению с часами, как с машиной, которая была больше всего изучена и развита. Подобное сравнение с часами мы обнаруживаем у разных философов Нового времени и в первую очередь у Рене Декарта, Готфрида Лейбница и у Жюльена Офре де Ламеттри.

Проблемы искусственного интеллекта, находят отражение в работах многих зарубежных учёных, среди которых М. Арбиб, Дж. Вейценбаум, С. Дрейфус, X. Дрейфус, Дж. Маккинси, X. Патнэм, Р. Пенроуз, Б. Розенблум, А. Тьюринг, Р. Шенк. Несомненно, не обходят эту тему отечественные ученые и философы, среди которых А. П. Алексеев, А. Ю. Алексеев, И. Ю. Алексеева, В. В. Васильев, Д. Б. Волков, Д. И. Дубровский, А. Ф. Зотов, В. А. Лекторский, А. П. Огурцов, Ю. В. Орфеев, В. И. Самохвалов, Н. М. Смирнова, А. Г. Спиркин, В. С. Тюхтин, Н. С. Юлина.

Непосредственно противоречия искусственного интеллекта в том или ином виде в своих работах рассматривали Н. Виннер, Н. Бостром, Д. Деннет, X. Дрейфус, П. Норвиг, С.Рассел, Д. Сёрл. Из отечественных учёных и исследователей, можно выделить таких как А. Ю. Алексеев, Д. И. Дубровский, Э. В. Ильенков, В. А. Кутырёв, А.Л. Лекторский, Ю. Ю. Петрунин. Логические проблемы искусственного интеллекта рассматриваются также в работах И. Ю. Алексеевой, С. Л. Катречко. Достаточно обширный круг вопросов информатизации, в котором тема искусственного интеллекта составляет только часть, рассматривается в работах Дж. Вейценбаума, Н. Винера, В.А. Звегинцева, К.А. Зуева, Г. Л. Смоляна, А. И. Ракитова.

По результатам рассмотрения научных источников можно сказать, у авторов нет единой позиции в терминологии. Как правило, раскрываются только отдельные стороны проблемы искусственного интеллекта, чаще фокусирующиеся на негативной составляющей его развития. Тем не менее, большое число ученых, работающих в рамках изучения ИИ, еще раз подчеркивает актуальность исследуемой темы.

Роль философской антропологии в развитии искусственного интеллекта

Технологии можно рассматривать как расширение человеческих возможностей и инструмент для достижения имеющихся целей. И если человек – это голая обезьяна, которая прикрыта созданным им покрывалом культуры, – то технологии можно (однобоко) рассматривать как «утепление» этого «одеяла».

Однако с позиции философской антропологии есть и другая сторона. Технологии можно рассматривать как силу, участвующую в формировании нашего восприятия, наших ценностей и социальных отношений. Ключевой вопрос: как технологии меняют наше понимание того, что значит быть человеком? Меняет ли наша растущая зависимость от технологий наше чувство свободы действий и автономии или же повышает нашу способность создавать и вводить новшества? Не менее важные вопросы: как технологии влияют на наши отношения с другими людьми? Позволяет ли использование социальных сетей и цифровых коммуникационных технологий по-новому общаться с другими людьми или же оно приводит к ощущению изоляции и оторванности от отношений в реальном мире?

Учёные и философы исследуют этические и моральные последствия технологий. Например, они задают вопросы об обязанностях тех, кто создает и проектирует технологии, и о том, как мы должны сбалансировать технологический прогресс с заботой о человеческом процветании и, например, экологической устойчивостью.

Искусственный интеллект – та же технология, но с заметно более широкими и изощрёнными возможностями проникновения в жизнь человека и с возможностями влиять на неё. Философская антропология способна и должна играть заметную роль в выявлении и разрешении противоречий, возникающих в развитии ИИ. Изучая природу и смыслы человека, философская антропология может помочь нам лучше понять этические и социальные последствия развития искусственного интеллекта.

Одной из категорий философской антропологии является агентность – способность выступать в качестве самостоятельного агента и делать осознанный и свободный выбор. Хотя системы ИИ могут выполнять задачи и принимать решения, им не хватает самостоятельности, которая является фундаментальным аспектом человеческого существования. Но наличие агентности у систем с искусственным интеллектом – это уже открыто обсуждаемый вопрос [4, с.296-297], по этой причине данная тема поднимает вопросы о возможности моральной ответственности систем искусственного интеллекта и роли человеческого контроля в их разработке и развертывании [5, 6].

Другой важной категорией в философской антропологии является сознание. Хотя системы искусственного интеллекта уже могут имитировать человеческое поведение и принятие решений, им всё же не хватает субъективного опыта сознания. Эта сфера затрагивает вопросы об отношениях между искусственным интеллектом и человеческим сознанием [7, с.19-20], а также и этических последствиях создания сознательных машин [8, с.33][9].

При определении предмета исследования была поставлена задача обозначить роль философской антропологии в исследовании проблем искусственного интеллекта. Говоря о роли философской антропологии в развитии искусственного интеллекта, можно выделить следующее:

· Искусственный интеллект – это быстро развивающаяся область, которая трансформирует общество и влияет на жизнь людей разными способами. Как следствие, разработка искусственного интеллекта требует понимания человеческой природы и человеческого опыта, которые можно получить благодаря исследованиям, которыми занимаются в том числе и философы в отношении человека.

· Философская антропология обеспечивает основу для понимания отношений между людьми и технологиями, включая этические и социальные последствия применения технологий искусственного интеллекта.

· Разработчики искусственного интеллекта считают возможным выделить интеллект из человека как функцию, что ведёт к следующему выводу – существует возможность пересадить его во что-то другое [10, с.58-59]. Редуцируя человека до уровня функций, можно в итоге отказаться от человека. Получается, это путь к постчеловеку. Включив философскую антропологию как участника междисциплинарного сотрудничества по вопросам развития ИИ, мы сможем создать системы, которые в большей степени ориентированы на человека и лучше соответствуют нашим ценностям и целям общества.

· Развитие искусственного интеллекта ставит новые задачи перед философской антропологией, требуя от нас пересмотра и уточнения нашего понимания человеческой природы в свете новых возможностей и ограничений технологий.

· Философская антропология может помочь выявить потенциальные ограничения ИИ в понимании и оценке всей сложности человеческого опыта и культуры, подчеркивая важность воплощенного опыта, языка и культуры, иррациональных факторов и контекста. Понимание этих ограничений может помочь при разработке и использовании систем ИИ более ответственно и с уважением относиться к человеческому опыту и культуре.

· Философская антропология может способствовать разработке систем искусственного интеллекта, которые лучше отражают разнообразие и богатство человеческого опыта и культуры, обеспечивая более инклюзивные и справедливые результаты.

· Благодаря междисциплинарному сотрудничеству мы можем развивать более комплексные и тонкие подходы к разработке искусственного интеллекта, учитывающие этические, социальные и культурные аспекты технологий.

Возможные вопросы и противоречия

Развитие искусственного интеллекта вызывает противоположные оценки и опасения в разных плоскостях. С одной стороны, искусственный интеллект может улучшить качество жизни человека и ускорить решение сложных задач. Однако с другой стороны, он может привести к сокращению рабочих мест, породить этические проблемы, привести к проблемам информационной безопасности, таких как нарушение конфиденциальности и доступа к информации.

Попробуем классифицировать и сгруппировать противоречия развития искусственного интеллекта по типам. Сделаем это следующим образом:

1. Экономические противоречия. Высокая эффективность искусственного интеллекта может увеличить производительность, но в то же время может, например, уменьшить число рабочих мест, что включает в себя:

· Повышение производительности труда. Развертывание ИИ может принести значительную пользу экономике, в том числе повысить производительность, улучшить процесс принятия решений и открыть новые возможности для бизнеса.

· Ликвидация рабочих мест. ИИ может автоматизировать многие задачи и рабочие функции, что приведет к потере работы людьми [21].

· Воздействие на распределение рабочей силы. Развертывание систем ИИ может разрушить существующие рынки труда и повлиять на рабочие места и навыки работников в самых разных отраслях. Это требует тщательного рассмотрения влияния ИИ на рабочую силу, а также разработки политики и программ, поддерживающих переподготовку и повышение квалификации работников в ответ на меняющиеся требования рынка труда.

· Усугубление неравенства. Стоимость разработки и развертывания систем ИИ высока, и существует риск того, что только ограниченное количество организаций и отдельных лиц будет иметь доступ к технологии. Это вызывает озабоченность по поводу распределения благ и возможности усугубления существующего неравенства.

2. Противоречия в области социальных воздействий. Развертывание ИИ может изменить общество различными способами, включая новые формы коммуникации, через улучшение здравоохранения, внесение изменений в формы образования, предлагать иные, возможно, более эффективные и действенные системы и средства предоставления основных услуг. Также необходимо понимать то как он может оказывать потенциальное воздействие на общество в целом, обеспечивать распределение его выгод и понимание его воздействия на различные сообщества и группы. Здесь можно выделить:

· Доступность и справедливость. Существует риск того, что ИИ принесет пользу только тем, у кого есть доступ к технологиям и ресурсам для их разработки и использования, что усугубит существующее неравенство [3, с.30].

· Предвзятость и дискриминация, предубеждения и предрассудки. Алгоритмы ИИ могут увековечивать (сохранить в своих в наборах данных – «знаниях») и, возможно, усиливать человеческие предубеждения и предрассудки, включая вопросы, связанные с расой [3, с.32], полом и социально-экономическим статусом, что, в том числе, приведёт к дискриминационным результатам [3, с.30-31].

· Улучшенная поддержка работы по уходу за людьми: системы ИИ могут использоваться для поддержки работы по уходу, например, путем предоставления роботов для ухода или цифровых инструментов, которые упрощают работу по уходу и делают ее более управляемой.

· Инклюзивность и разнообразие. Развитие искусственного интеллекта может принести пользу обществу в целом, но необходимо обеспечить справедливое распределение его преимуществ и доступность технологии для всех. Это требует соответствующего подхода к развитию ИИ, учитывающего перспективы и потребности различных сообществ и групп.

3. Этические противоречия.

Системы с искусственным интеллектом принимая решения, могут осуществлять действия, которые не соответствуют этическим нормам [13]. К этическим можно отнести проблемы, связанные нарушением конфиденциальности и доступа к информации. Кроме этого ИИ может быть использован для целей, не только приносящих пользу, но и в иных, таких как, например, взлом или нападение. Поэтому важными моментами являются:

· Безопасность и этика. По мере того, как системы ИИ становятся более автономными, возникает риск несчастных случаев или непредвиденных последствий, и необходимо учитывать этические последствия принятия решений ИИ.

· Согласование ценностей. Растет потребность в обеспечении того, чтобы системы ИИ соответствовали человеческим ценностям и этическим принципам, включая вопросы, связанные со справедливостью, прозрачностью и подотчетностью. Сюда входят вопросы о разработке систем искусственного интеллекта, соответствующих человеческим ценностям и этическим принципам, а также о разработке алгоритмов принятия решений, учитывающих человеческие предубеждения и предпочтения.

4. Технологические противоречия. «В настоящее время наступила посттьюринговая эпоха, которая зафиксировала технологические противоречия в развитии искусственного интеллекта и заточена на переход от попыток имитации интеллекта человека к созданию нечеловеческого интеллекта, дополняющего человеческий» [23, с.62].

5. Экология – воздействие на окружающую среду. Развертывание систем ИИ может принести значительные экологические выгоды [24, 25], но также важно учитывать воздействие технологии и связанной с ней инфраструктуры на окружающую среду и обеспечивать ее устойчивость в долгосрочной перспективе. Это требует тщательного рассмотрения воздействия ИИ на окружающую среду, а также разработки политики и программ, способствующих устойчивой и экологически ответственной практике.

6. Технологические и регулятивные вопросы, противоречия и вызовы [3].

· Отсутствие объяснения, интерпретируемость модели. Многие модели ИИ считаются «черными ящиками» [3, с.31], из-за чего даже специалистам сложно объяснить, как принимаются решения – это может снизить доверие к технологии. То есть системы с искусственным интеллектом поднимают важные вопросы об объяснимости, интерпретируемости их функционирования, интерпретации принимаемых решений и результатов. Это требует разработки и реализации мер, обеспечивающих прозрачность и понятность процессов принятия решений.

· Стандартизация, регулирование, и управление. Быстрые темпы развития ИИ превзошли возможности правительств и контролирующих органов по его регулированию, что привело к формированию «лоскутного одеяла» из несовместимых законов и стандартов в разных юрисдикциях. Для разработки и внедрения ИИ требуется надежная нормативно-правовая база, учитывающая его этические, социальные и технические последствия. Это включает в себя потребность в четких и эффективных правилах, обеспечивающих ответственное использование ИИ и защиту отдельных лиц и общества, а также в разработке рамок управления, поощряющих сотрудничество и координацию между различными заинтересованными сторонами.

· Человеческий контроль и надзор. Внедрение систем ИИ связано с важными вопросами о человеческом контроле и надзоре, включая необходимость обеспечения того, чтобы системы ИИ находились под контролем людей-операторов, и чтобы их результаты контролировались человеком. Это требует разработки систем искусственного интеллекта, которые должны быть управляемыми и подлежащими надзору со стороны человека, а также принятия мер для обеспечения того, чтобы их результаты соответствовали ценностям и принципам общества.

· Ответственность и подотчетность. Развертывание систем ИИ поднимает важные вопросы об ответственности и подотчетности, включая необходимость обеспечения ответственности систем ИИ и подотчетности их результатов. Это требует разработки систем искусственного интеллекта, которые должны быть ответственными и подотчетными, а также принятия мер для обеспечения того, чтобы их результаты соответствовали ценностям и принципам общества.

· Подотчетность человека. С развитием ИИ растет потребность в ответственности человека при их развертывании и использовании. Сюда входят вопросы о том, кто должен нести ответственность за действия систем ИИ и как привлечь отдельных лиц и организации к ответственности за любой ущерб, причиненный технологией ИИ.

· Интероперабельность (функциональная совместимость). Разработка систем и платформ ИИ разными организациями привела к фрагментации ландшафта ИИ, что поднимает важные вопросы о функциональной совместимости. Это включает в себя потребность в открытых стандартах и протоколах, которые могут позволить различным системам искусственного интеллекта беспрепятственно работать вместе.

· Неправомерное использование. По мере того, как системы ИИ становятся более способными, возрастает риск их неправомерного использования в злонамеренных целях, включая кибератаки, пропаганду и манипуляции. Важно устранить эти риски и разработать меры безопасности для предотвращения неправомерного использования технологии ИИ.

7. Интеграционные коммуникационные вопросы.

· Взаимодействие с человеком. ИИ все больше интегрируется в нашу повседневную жизнь и возникают вопросы о том, как люди будут взаимодействовать с технологией и дополнит ли она человеческие возможности или заменит их.

· Взаимодействие с людьми. В результате распространения ИИ в нашей повседневной жизни растет потребность в понимании того, как люди взаимодействуют с технологиями, и она взаимодействует с ними. Сюда входят вопросы о пользовательском опыте, интерфейсах и возможностях сотрудничества человека и ИИ.

· Интеграция с другими технологиями. Поскольку ИИ продолжает развиваться, растет потребность в его интеграции с другими появляющимися технологиями, такими как Интернет вещей, блокчейн и 5G. Это включает в себя разработку систем на основе ИИ, которые могут беспрепятственно работать с другими технологиями, предоставляя новые возможности и преимущества.

· Совместная разработка. Разработка ИИ – это глобальная задача, требующая сотрудничества между различными организациями, группами и отдельными лицами, включая промышленность, академические круги и правительство. Для этого требуется совместный подход к разработке ИИ, объединяющий опыт из различных областей и поощряющий открытый и прозрачный диалог о потенциальных преимуществах и проблемах, связанных с технологией.

8. Противоречия, вносимые междисциплинарным подходом. Разработка и развертывание ИИ требует междисциплинарного подхода, объединяющего экспертов из различных областей, включая информатику, инженерию, социальные и гуманитарные науки. И это разнообразие создаёт свои проблемы и противоречия. Это потребует разработки междисциплинарных исследовательских и образовательных программ, направленных на изучение этических, социальных и технических аспектов ИИ.

9. Вопросы образования и здравоохранения.

· Изменения в образовании: образовательные инструменты и ресурсы на основе ИИ могут не только расширить доступ к образованию, особенно в регионах, где возможности получения образования ограничены, но и разрушить то что существует: «Другие идут дальше и говорят, что ChatGPT и его неизбежно более умные преемники означают мгновенную смерть традиционного образования» [21].

· Развитие в области здравоохранения: системы искусственного интеллекта можно использовать для улучшения результатов в области здравоохранения, например, за счет разработки персонализированной медицины [26], но, несомненно, будут иметь и обратную сторону. Например, можно предположить снижение практических навыков у профессиональных медицинских работников в случае если оценку состояния больного будет проще осуществлять «автоматически».

10. Международные противоречия[27, с.23].

· Международное сотрудничество. Разработка и внедрение ИИ – это глобальное явление, и для обеспечения справедливого распределения его преимуществ во всем мире требуется международное сотрудничество. Это требует разработки международных структур и инициатив, которые способствуют сотрудничеству и сотрудничеству между странами и заинтересованными сторонами и обеспечивают ответственное и устойчивое развитие и использование ИИ в разработке основ управления ИИ и этических норм, а также развитие глобальных сетей для обмена идеями и информацией.

· Международная конкуренция. Разработка и внедрение ИИ является источником глобальной конкуренции, поскольку страны и организации соревнуются за то, чтобы быть в авангарде технологий. В то же время необходимо глобальное сотрудничество для решения проблем и противоречий, связанных с ИИ, и обеспечения его ответственной разработки и использования.

Мы ещё не прошли длительный путь адаптации этой относительно новой технологии в свою жизнь (она лишь проходит путь становления) и по этой причине, как у любого «ребёнка», велико разнообразие создаваемых ею проблем. Но это только подчёркивает наличие противоречий и потребность в поиске решений. Все эти противоречия и их решения необходимо анализировать через призму влияния именно на человека, возможность его развития и его жизненные принципы, что ещё больше выделяет роль философской антропологии, как возможного участника и арбитра.

Важность междисциплинарного сотрудничества

Разработка ИИ является по сути междисциплинарной проблемой. Происходящее вовлечение философии, этики и социальных наук только усиливает этот тезис. Более того, всё сказанное выше, подтверждает то, что подобное сотрудничество принципиально необходимо, так как только науки, ориентированные на человека и общество, могут дать требуемый ориентир в развитии – то, чего не способна дать ни одна инженерная наука. И здесь философия может играет ключевую роль, имея в своём арсенале, например, этику. Специалисты по этике могут помочь обозначить и решить этические проблемы ИИ, а также обеспечить разработку и использование систем ИИ в соответствии с нашими этическими и социальными ценностями. Более того, специалисты по этике могут способствовать повышению осведомленности общества и вовлечению ее членов в этические последствия развития и внедрения искусственного интеллекта в нашу жизнь.

Социальные науки также играют важную роль в понимании социальных и политических аспектов развития ИИ. Социологи, антропологи и политологи могут помочь в изучении социальных и культурных последствий развития ИИ, включая его влияние на занятость, конфиденциальность и безопасность. Более того, социологи могут помочь выявить и устранить потенциальное социальное и экономическое неравенство, которое может возникнуть в результате разработки и внедрения ИИ.

Устранение противоречий в развитии искусственного интеллекта

Здесь, несомненно, необходимо использовать междисциплинарный подход, который включал бы позицию философии. Устранение противоречий в развитии искусственного интеллекта с участием философской антропологии предполагает применение её принципов и концепций, к системам с ИИ на стадии их разработки и развития.

В разделе «Возможные вопросы и противоречия» мы показали в каких плоскостях можно рассматривать противоречия, связанные с ИИ и каждая из них – это отдельный спектр проблем. Но в каждом случае можно выделять как минимум два возможных направления: с позиции частных наук и с позиции общечеловеческих (философских) вопросов. Проблемы частных наук не являются предметом данной статьи, поэтому остановимся общечеловеческих и философских. Здесь отталкиваться нужно от природы человека и, следовательно, вопроса «Что значит быть человеком?». С этой позиции мы можем определить потенциальные области противоречий и сформировать следующие вопросы:

· Как дальнейшее развитие ИИ влияет на формирование нашей идентичности, наших целей и смыслов?

· Как обеспечить многообразие человеческих ценностей: расовых, национальных, этнических, гендерных и т.д.?

· Что необходимо запретить «улучшать» в человеке?

· Как мы можем гарантировать, что системы ИИ разработаны таким образом, чтобы уважались и сохранялись права и интересы всех людей?

· Какие качества людей мы можем или должны обеспечить системами с искусственным интеллектом для их мотивации или улучшения?

· Каким образом мы сможем гарантировать, чтобы системы с ИИ были разработаны с сохранением автономии человека?

· Каковы этические последствия создания систем ИИ, имитирующие человеческое поведение и эмоции?

… вопросам не будет конца.

Подход «от человека» (фактически с позиции философской антропологии) сразу позволяет локализовать потенциальные области противоречий в развитии систем ИИ и работать над их устранением. Таким образом, обозначив человека как «точку опоры» в вопросе о противоречиях, мы автоматически обозначаем вектор движения в противоречиях, которые без этой «точки» изначально были равноправны. Так, например, без культурного контекста, в котором существует человек, любое техническое решение не имеет признаков оценки в парах «хороший – плохой», «удачный – неудачный», «нужный – не нужный» и т.п. Изучая природу людей, определяя этические последствия, понимая культурный контекст и учитывая конечную цель ИИ, мы можем работать над созданием ответственных и этичных систем ИИ, которые соответствуют нашим фундаментальным ценностям и интересам.

Будущее развития искусственного интеллекта

Будущее развития ИИ, вероятно, будет определяться рядом факторов, включая достижения в области машинного обучения и алгоритмов глубокого обучения, разработку более сложной робототехники и систем автоматизации, а также растущую доступность больших данных.

Экономические выгоды коммерческих структур, выгоды маркетологов и политических групп, получаемые от результатов обработки больших объёмов данных, не остановят, или скорее простимулируют развитие ИИ, которое продолжается, и остановить этот процесс невозможно. Но важно, чтобы мы сохраняли критическую, взвешенную и обоснованную позицию в отношении его развития.

Предполагая вовлеченность философских антропологов, одним из потенциальных направлений будущего развития ИИ является и будет являться учет этических соображений при разработке систем с ИИ. Обозначая этические рамки и формируя рекомендации/требования в процесс разработки, мы можем начинать гарантировать, что системы ИИ разрабатываются и используются в соответствии с нашими этическими и социальными ценностями. К счастью, в крупных корпорациях и международных политических и экономических образованиях, в последние несколько лет такой подход начал практиковаться [18, 19, 20].

Ещё одним потенциальным направлением будущего развития ИИ может являться формирование и разработка теоретической и практической базы для исключения понятия «чёрный ящик» при обсуждении ИИ, что приведёт к построению более прозрачных и объяснимых ИИ-систем. Это может помочь гарантировать, что решения ИИ не будут определяться предвзятостью или дискриминацией, и может способствовать большему общественному доверию и уверенности в технологии.

Заключение

Развитие искусственного интеллекта ставит серьезные задачи перед человеком, обществом и человечеством. В настоящее время не существует ни арбитра по любым вопросам, ни готовых практических или хотя бы теоретических решений для разрешения противоречий, возникающих в процессе развития искусственного интеллекта. Противоречия, присущие развитию ИИ, такие как противоречия между эффективностью и ответственностью, контролем и автономией, требуют междисциплинарного подхода, объединяющего идеи из философии, этики, социальных и технических наук. Но место философской антропологии оказывается одним из наиболее релевантных для участия в решении этих противоречий, так как подходит к любому вопросу с позиций человека, при этом имея возможность не только выступать в качестве ментора, а ещё и накапливать новые исследования и материал в рамках своей предметной области. Философская антропология обладает потенциалом для гармоничного развития ИИ, обогащает своими концепциями философию науки и техники, для которой ИИ также является предметом пристального изучения.

Поскольку ИИ продолжает развиваться, крайне важно, чтобы мы придерживались критической и взвешенной позиции в отношении его разработки, развития и применения. Мы должны гарантировать, что ИИ-системы развиваются и используются в соответствии с нашими этическими и социальными ценностями. Более того, мы должны оставить под постоянным контролем оценку потенциального влияния ИИ на человека.

Подход к изучению и развитию искусственного интеллекта именно с позиций философской антропологии помогает человеку понимать и интерпретировать степень влияния ИИ на собственное бытие, общество, государство. Философская антропология поможет вербализовать возможные проблемы, оценить пути развития ИИ с точки зрения изменения бытия человека и в нужный момент скорректировать это направление. Поэтому очень важно, чтобы и технические специалисты, и ученые разных областей знаний, и философы, участвовали в открытом диалоге о развитии и применении ИИ сейчас и в будущем.

Библиография
1. Mittelstadt B. Principles alone cannot guarantee ethical AI // Nature Machine Intelligence – Volume 1, November 2019 – p.501-507. DOI: 10.1038/s42256-019-0114-4
2. Афанасьевская А.А. Правовой статус искусственного интеллекта // Вестник саратовской государственной юридической академии – 2021, №4 (141), – с.88-92 DOI: 10.24412/2227-7315-2021-4-88-92
3. Preparing for the Future of Artificial Intelligence. 2016. Washington, DC. Executive Office of the President National Science and Technology Council Committee on Technology – 2016 – [Электронный ресурс]. URL: https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf (дата обращения: 14.03.2023)
4. Шаткин М. А. Агентность цифровых платформ: ценностный подход // Известия Саратовского университета. Новая серия. Серия: Философия. Психология. Педагогика – 2022, №3 – с.293-297. DOI: 10.18500/1819-7671-2022-22-3-293-297
5. Лещев С. В. Искусственно-интеллектуальная агентность в пространстве гуманитарного измерения // Современные проблемы гуманитарных и общественных наук – 2021 – с.65-68.
6. Мерцалов А. В. Агентность, тождество личности и моральная ответственность // Вестник московского университета. Серия 7: Философия – 2022, №5 – с.72-90.
7. Глуздов Д. В. Философско-антропологические основания взаимодействия искусственного и естественного интеллекта // Вестник Мининского университета. 2022. Т. 10, № 4. С.15. DOI: 10.26795/2307-1281-2022-10-4-15
8. Яковлева Е. В., Исакова Н. В. Искусственный интеллект как современная философская проблема: аналитический обзор // Гуманитарные и социальные науки. 2021. №6. – С.30-35. DOI: 10.18522/2070-1403-2021-89-6-30-35
9. Roche C., Wall P. J., Lewis D. Ethics and diversity in artificial intelligence policies, strategies // AI and Ethics. – Springer Nature, 2022. DOI: 10.1007/s43681-022-00218-9 – URL: https://link.springer.com/article/10.1007/s43681-022-00218-9
10. Смирнов С. А. Место человека в антропологии будущего // Человек как открытая целостность: Монография / Отв. ред. Л. П. Киященко, Т. А. Сидорова. – Новосибирск: Академиздат – 2022 – С.54-62 DOI: 10.24412/cl-36976-2022-1-54-62
11. Thomas S. AI is the end of writing. The computers will soon be here to do it better. // The Spectator – 11Mart 2023 – [Электронный ресурс]. URL: https://www.spectator.co.uk/article/ai-is-the-end-of-writing/ (дата обращения: 14.03.2023)
12. Jones M. Is ethical risk getting the better of artificial intelligence? // TechHQ, 2021 – 2 February 2021 – [Электронный ресурс]. URL: https://techhq.com/2021/02/is-ethical-risk-getting-the-better-of-artificial-intelligence/ (дата обращения: 14.03.2023).
13. Цуркан Д. А. Проблема человеческого конституирования и личностного самоопределения в цифровую эпоху риска: дис. … канд. философ. наук. – Курск, 2020 – Режим доступа: https://cloud.kursksu.ru/kursksu.ru/pages/2020/December/9/5HhGA8Yy.pdf (дата обращения: 14.03.2023)
14. Kwame N. E, Cobbina S. J., Attafuah E. E., Opoku E., Gyan M. A. Environmental sustainability technologies in biodiversity, energy, transportation and water management using artificial intelligence: A systematic review // Sustainable Futures – 2022, Volume 4 – [Электронный ресурс]. URL: https://www.sciencedirect.com/science/article/pii/S2666188822000053 (дата обращения: 14.03.2023), DOI: 10.1016/j.sftr.2022.100068
15. Городнова Н. В. Применение искусственного интеллекта в проектах «Smart-экология» // Дискуссия. 2021. №2-3 (105-106), DOI: 10.24411/2077-7639-2019-10094
16. Абдуганиева Ш.Х., Никонорова М.Л. Цифровые решения в медицине // Крымский журнал экспериментальной и клинической медицины – 2022, Т.12, №2 – c.75-83 DOI: 10.37279/2224-6444-2022-12-2-73-85
17. Коробков А.Д. Влияние технологий искусственного интеллекта на международные отношения // Вестник МГИМО-Университета. – 2021 – С.1-25 DOI: 10.24833/2071-8160-2021-olf1
18. The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. [Электронный ресурс]. – Режим доступа: URL: https://standards.ieee.org/industry-connections/ec/autonomous-systems.html (14.03.2023)
19. ЮНЕСКО Recommendation on the Ethics of Artificial Intelligence – 23 November, 2021 – [Электронный ресурс]. – Режим доступа: URL: https://unesdoc.unesco.org/ark:/48223/pf0000381137_eng (дата обращения: 14.03.2023)
20. Pullella P., Dastin J. Vatican joins IBM, Microsoft to call for facial recognition regulation // Reuters – FEBRUARY 28, 2020 – [Электронный ресурс]. – Режим доступа: URL: https://www.reuters.com/article/us-vatican-artificial-intelligence/vatican-joins-ibm-microsoft-to-call-for-facial-recognition-regulation-idUSKCN20M0Z1 (дата обращения: 14.03.2023)
References
1. Mittelstadt B. Principles alone cannot guarantee ethical AI // Nature Machine Intelligence-Volume 1, November 2019-p.501-507. DOI: 10.1038/s42256-019-0114-4
2. Afanasevskaya A.A. Legal status of artificial intelligence // Bulletin of the Saratov State Law Academy-2021, No. 4 (141),-p.88-92 DOI: 10.24412/2227-7315-2021-4-88-92
3. Preparing for the Future of Artificial Intelligence. 2016. Washington, DC. Executive Office of the President National Science and Technology Council Committee on Technology-2016-[Electronic resource]. URL: https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf (accessed 3/14/2023)
4. Shatkin M. A. The agency of digital platforms: a value approach. Bulletin of the Saratov University. New episode. Series: Philosophy. Psychology. Pedagogy-2022, No. 3-p.293-297. DOI: 10.18500/1819-7671-2022-22-3-293-297
5. Leshchev S. V. Artificial-intellectual agency in the space of the humanitarian dimension // Modern problems of the humanities and social sciences-2021-pp. 65-68.
6. Mertsalov A. V. Agency, personal identity and moral responsibility // Bulletin of the Moscow University. Series 7: Philosophy-2022, No. 5-p.72-90.
7. Gluzdov D.V. Philosophical and anthropological grounds for the interaction of artificial and natural intelligence // Bulletin of the Minin University. 2022. V. 10, No. 4. P.15. DOI: 10.26795/2307-1281-2022-10-4-15
8. Yakovleva E. V., Isakova N. V. Artificial intelligence as a modern philosophical problem: an analytical review // Humanitarian and social sciences. 2021. №6. – P.30-35. DOI: 10.18522/2070-1403-2021-89-6-30-35
9. Roche C., Wall P. J., Lewis D. Ethics and diversity in artificial intelligence policies, strategies // AI and Ethics. Springer Nature, 2022. DOI: 10.1007/s43681-022-00218-9
10. Smirnov S. A. The place of man in the anthropology of the future // Man as an open integrity: Monograph / Ed. ed. L. P. Kiyashchenko, T. A. Sidorova.-Novosibirsk: Academizdat-2022-P.54-62 DOI: 10.24412/cl-36976-2022-1-54-62
11. Thomas S. AI is the end of writing. The computers will soon be here to do it better. // The Spectator-11 March 2023-[Electronic resource]. URL: https://www.spectator.co.uk/article/ai-is-the-end-of-writing/ (accessed 03/14/2023)
12. Jones M. Is ethical risk getting the better of artificial intelligence? // TechHQ, 2021-2 February 2021-[Electronic resource]. URL: https://techhq.com/2021/02/is-ethical-risk-getting-the-better-of-artificial-intelligence/ (accessed 03/14/2023).
13. Tsurkan D. A. The problem of human constitution and personal self-determination in the digital era of risk: dis. … cand. philosopher. Sciences. – Kursk, 2020 – Access mode: https://cloud.kursksu.ru/kursksu.ru/pages/2020/December/9/5HhGA8Yy.pdf (date of access: 14.03.2023)
14. Kwame N. E, Cobbina S. J., Attafuah E. E., Opoku E., Gyan M. A. Environmental sustainability technologies in biodiversity, energy, transportation and water management using artificial intelligence: A systematic review // Sustainable Futures-2022, Volume 4-[Electronic resource]. URL: https://www.sciencedirect.com/science/article/pii/S2666188822000053 (Accessed: 03/14/2023), DOI: 10.1016/j.sftr.2022.100068
15. Gorodnova N. V. The use of artificial intelligence in projects "Smart-ecology" // Discussion. 2021. No. 2-3 (105-106), DOI: 10.24411/2077-7639-2019-10094
16. Abduganieva Sh.Kh., Nikonorova M.L. Digital solutions in medicine // Crimean Journal of Experimental and Clinical Medicine-2022, V.12, No. 2-p.75-83 DOI: 10.37279/2224-6444-2022-12-2-73-85
17. Korobkov A.D. The impact of artificial intelligence technologies on international relations // Bulletin of MGIMO-University. – 2021 – С.1-25 DOI: 10.24833/2071-8160-2021-olf1
18. The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. [Electronic resource]. – Access Mode: URL: https://standards.ieee.org/industry-connections/ec/autonomous-systems.html (03/14/2023)
19. UNESCO Recommendation on the Ethics of Artificial Intelligence-23 November, 2021-[Electronic resource]. – Access mode: URL: https://unesdoc.unesco.org/ark:/48223/pf0000381137_eng (Accessed: 03/14/2023)
20. Pullella P., Dastin J. Vatican joins IBM, Microsoft to call for facial recognition regulation // Reuters-FEBRUARY 28, 2020-[Electronic resource]. – Access Mode: URL: https://www.reuters.com/article/us-vatican-artificial-intelligence/vatican-joins-ibm-microsoft-to-call-for-facial-recognition-regulation-idUSKCN20M0Z1 (date accessed : 03/14/2023)

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

В рецензируемой статье рассматриваются вопросы влияния развития искусственного интеллекта на социальные и межличностные отношения, а также возможные негативные последствия этих процессов в области безопасности человека и поддержании нравственных ценностей. Нельзя сказать, что в современной отечественной литературе эта проблематика обсуждается недостаточно, тем не менее, автору удалось найти некоторые аспекты темы, которые раскрыты в его статье весьма полно и обстоятельно. Автор полагает, что исходным и наиболее острым является противоречие между стремлением государственных структур и бизнеса к повышению эффективности труда и необходимостью поддержания на должном уровне ответственности тех, кто разрабатывает и использует технические устройства, работающие на основе искусственного интеллекта. Далее, автор, думается, оправданно отстаивает точку зрения, в соответствии с которой именно философская антропология способна сыграть важную роль в выявлении и разрешении противоречий, возникающих в развитии искусственного интеллекта: «Изучая природу и смыслы человека, – пишет он, – философская антропология способна помочь нам лучше понять этические и социальные последствия развития искусственного интеллекта». Невозможно не согласиться с автором и с подчёркиваемой им важностью «социального аспекта» проблемы: «Одной из ключевых проблем в устранении противоречий в развитии ИИ является необходимость повышения осведомленности и участия общественности». Тем не менее, несмотря на общую достаточно высокую оценку статьи, в ней осталось много упущений, которые препятствуют решению о возможности публикации её в имеющемся на сегодняшний момент виде. Прежде всего, статья может быть существенно сокращена (и это придаст изложению дополнительную смысловую насыщенность) за счёт устранения фрагментов, в которых автор предлагает читателю лишь некие общеизвестные констатации (например, что такое философская антропология, и какое место этот раздел занимает в философском знании; следует также заметить, что подобные ремарки о «философской антропологии» или «искусственном интеллекте» ещё и неоднократно повторяются в тексте). Можно постараться также менее «формально» описать актуальность, предмет, значимость темы, в рамках журнальной статьи следует делать акцент на концептуальной строгости обоснования темы и решения поставленных проблем, а не на соблюдении «академических» требований, на которые принято ориентироваться в диссертационных исследованиях и отражающих их содержание и структуру авторефератах. Тем более избыточным даже на этом фоне представляется подробный обзор литературы, который свидетельствует об эрудированности автора, но мало помогает читателю вникнуть в существо проблемы. Нередко возникают замечания к стилистике текста, например: «Разные причины простимулировали развитие искусственного интеллекта и т.д.». По-видимому, следовало сказать «различные», а не «разные», а «простимулировали» – это и вовсе выражение из словаря «современных управленцев», в науке явно излишнее. Или: «Можно считать, что…», – считать «несомненным»? Но что означает «можно считать»? Прочитаем начало ещё одного предложения: «Учёные от философской антропологии также исследуют…», – почему «от» философской антропологии? Кое-где встречаются и лишние запятые, которые, может быть, были поставлены автором в соответствии с интонацией русской речи, например: «…формирование теории в прошлом веке и начало ускоренного развития искусственного интеллекта в этом веке, стало одним из самых…». Остались и опечатки, например, «конфициальности» вместо «конфиденциальности». Устранение подобных недостатков необходимо для доведения уровня текста до состояния, соответствующего требованиям современной научной публикации. Рекомендую отправить статью на доработку.

Результаты процедуры повторного рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Рецензия на статью
Философско-антропологический анализ противоречий развития искусственного интеллекта

В научной статье «Философско-антропологический анализ противоречий развития искусственного интеллекта», представленной автором в журнал «Философская мысль», затрагивается актуальная тема, вызывающая в последнее время интерес и острые дискуссии в самых разных научных кругах.
Цель обозначена в статье как анализ противоречий в развитии искусственного интеллекта с позиций философской антропологии.
Актуальность предложенной темы исследования автор видит в том, что сегодня практически нет должного контроля «за развитием искусственного интеллекта» (видимо речь идет о государственных структурах). Отсутствует сформированная законодательная база и в целом противоречия в этой сфере не рассматриваются. Автор статьи утверждает, на мой взгляд, совершенно не обосновано, что данный вопрос не исследуется современными учеными специально с позиции философской антропологии (не понятно отечественными или западными учеными?). В целом за последние несколько лет, объем исследований, связанных с проблемой взаимодействия человека и искусственного интеллекта в ближайшем будущем, возрос многократно. Примером может служить и список литературы автора статьи, который составил 39 позиций!
Одна из задач, которую автор указывает в работе, связана с классификаций уже имеющегося материала в области развития и широкого внедрения искусственного интеллекта в современной практике. Надо отметить, что автору удалось собрать обширный материал по исследуемой теме и упорядочить его.
В вводной части своего исследования автор приводит довольно объемный обзор мыслителей, так или иначе рассматривающих тему искусственного интеллекта, но указывает, что все они являются недостаточно глубокими и затрагивают слишком узкий круг вопросов. В этом случае хотелось бы возразить автору, что работа над конкретной проблематикой как раз и является примером профессионализма. В статье, присутствует очень краткий обзор исследований (как отечественных, так и зарубежных) по данной тематике, но представлен он крайне странно для научной статьи, то есть простым перечислением (даже в автореферате имеет место более развернутое описание). Перечисление такого обширного списка имен без ссылок на источники выглядит сомнительно.
Отдельное место занимает в работе заявленная методология исследования, она указана достаточно широко, однако трудноопределима в тексте. Особенно это касается герменевтики, феноменологического анализа, исторического и диалектического метода. Не понятно, зачем автор включил гипотетико-дедуктивный метод, что именно он хотел этим сказать? На мой взгляд, автор обобщает материал, классифицирует некоторые моменты и проводит частично сравнительный анализ.
Название статьи соответствует содержанию.
Новизна исследования не очевидна, поскольку статья носит обзорный характер. Автору необходимо специально обозначить новизну в работе.
Рассматривая основное противоречие, автор отмечает действительно важные моменты, например, он пишет: «Одним из ключевых источников противоречий в развитии искусственного интеллекта является противоречие между стремлением к повышению эффективности и необходимостью этической и социальной ответственности». Об этом, правда, уже писали ученые и писатели в XX веке, задолго до современных технологических прорывов. Автор подчеркивает, что именно: «философская антропология может помочь нам лучше понять этические и социальные последствия развития искусственного интеллекта».
В тексте встречаются несогласованные предложения, поэтому важно еще раз вычитать статью. Например, автор пишет:
 «системы искусственного интеллекта проектируются, например, для быстрой реакции на окружающую среду, могли иметь возможность адаптироваться…»
 «При определении предмета исследования была поставлена задача обозначить роль философской антропологии, которая должна быть сформулирована»
 «ИИ ставит перед человеком и возможностью выбора разных направлений в его развитии, но и отсутствием регулирующих принципов»?
 Наличие разных подходов? (таких как системы, нейронные сети, эволюционные алгоритмы и глубокое обучение).
И таких предложений в статье встречается много!
По тексту сделаны необходимые ссылки. Библиография отражает исследовательский материал и оформлена в соответствии с требованиями.
Статья структурирована, но характер и стиль изложения материала требует доработки. Текст написан, с моей точки зрения, «тяжелым» языком (многие фразы приходится несколько раз перечитывать из-за неправильной структуры). В некоторых случаях в изложении автора сложно уловить логику и последовательность мысли. Часто возникает ощущение пересказа отдельных идей самых разных исследователей, занимающихся данной проблемой, но ссылки и прямое цитирование отсуствуют.
Библиография хотя и отражает в целом исследовательский материал, но не совсем уместно включает в себя ряд источников. Не думаю, что к библиографии относятся подобные источники в виде статей в газете: РПЦ: Стратегии развития искусственного интеллекта нужен этический регламент // Российская газета – 2021 – [Электронный ресурс].
Очень не хватило полноценного заключения и выводов по теме исследования! Подводя итоги, автор указывает на необходимость акцентировать внимание на проблеме: «противоречия между эффективностью и ответственностью, контролем и автономией», которые должны рассматриваться с позиции, междисциплинарного подхода. Далее автор делает и так очевидный вывод, что: «философская антропология обладает потенциалом для гармоничного развития ИИ, обогащает своими концепциями философию науки и техник». Никаких конкретных выводов по тексту не удалось обнаружить в заключении, хотя потенциал в самом содержании присутствует.
Несмотря на высказанные замечания, данная тема, на мой взгляд, имеет хорошие перспективы и может быть интересна для широкого круга аудитории, если ее развернуть в правильном ключе, чего я искренне и желаю автору. Статья может быть интересна для специалистов в области философской антропологии, философии науки.
Таким образом, статья «Философско-антропологический анализ противоречий развития искусственного интеллекта» при условии доработки статьи, исправлении указанных замечаний и более развернутого заключения, может быть рекомендована к публикации.

Результаты процедуры окончательного рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

Настоящая статья посвящена интересной и актуальной современной теме, которая находится в постоянной сфере внимания исследователей когнитивных способностей человека различных направлений. «Интеллект» – понятие, содержание которого уже давно настолько разноаспектно, что без уточнения этого содержания невозможно ни сформулировать цели и задачи исследования, ни правильно интерпретировать, понять результаты этого исследования. Данным понятием оперируют не только психологи, но и социологи, педагоги, философы, оно нашло своё место в кибернетике.
В быту, говоря об интеллекте в самом общем смысле, мы говорим о сознании и
способности мыслить. Интеллект считался особым свойством человеческого существа – тем, чего нет ни у животных, ни у предметов, вещей, и, как следствие, интеллект определяли таким образом, чтобы выделить человеческую особенность, специфику того, что у человека есть. При этом интеллект чаще всего рассматривался через такие понятия, как «разум», «рассудок», «здравый смысл», что до сих пор вызывает сомнение об идентичности или различии этих понятий. Действительно, этимология слова «интеллект» связана с латинским словом «intellectus», означающим «восприятие» и «ощущение», «разумение» и «понимание», «смысл» и «значение», «рассудок». Стоит обратить внимание, что все эти значения относятся к сознательному опыту, к тому, что сложно увидеть со стороны – тому, что является некоторой внутренней «жизнью», внутренним процессом. Это стало причиной, почему долгое время человек замечал свойства интеллекта только у себя. Но в XX веке понятие интеллекта было расширено новыми значениями, в частности понятие интеллекта было также соотнесено с животными, чей интеллект начал изучаться. Сегодня интеллект связывают с набором способностей, которыми должно отличаться существо, обладающее им. И среди этих способностей: способность логически рассуждать, способность мыслить абстрактно (об отвлечённых понятиях), планировать и прогнозировать свои действия, способность гибко адаптироваться к окружающему миру, обучаться – аккумулировать опыт и использовать его для дальнейших своих действий.
Автор ставит проблему и выявляет направления, имеющие самое прямое отношение
к вопросам современного существования человека. «Локомотив» повсеместной
цифровизации, где в качестве одного из передовых видов топлива используются достиженияФилософская антропология, философия культуры в сфере искусственного интеллекта, уже не сможет остановиться. Но должны быть найдены средства управления этим локомотивом, его направлением и скоростью движения.
Выделенные нами направления в развитии искусственного интеллекта выбраны не случайно.
Так, дихотомии, являющиеся частью сущности человека, подталкивают его к поиску
вариантов возможного ускорения своего развития, сохранения своего существования.
Однозначного понимания последствий этого нет. На фоне этого мы видим и прогнозируем,
что системы с элементами искусственного интеллекта ограничат возможности
самостоятельного выбора человеком вектора своего развития, снижая его волевые и
умственные качества, нивелируя возможную свободу и растворяя идентичность в своих
скрытых или даже не интерпретируемых целях. И если это не цели коммерческих
корпораций, то непонимание существования возможностей диалога естественного и
искусственных интеллектов в случае серьёзного развития последнего ещё раз обозначает
неготовность осознать, понять и проанализировать эти самые цели.
Учёный какой сферы деятельности способен быть вовлечён в выявление,
формулирование и участие в разрешении возникающих вопросов? Несомненно, современная
наука (в том числе техническая) всё более отделяется от сферы использования
(то есть социального внедрения) своих достижений. Исследователь как бы продаёт итог своего труда как продукт на рынке. И если с потребительской точки зрения существуют экспертизы, контролирующие качество продукции на соответствие техническим нормативам и нормативам, то кто способен контролировать и ограничивать такую продукцию, которая влияет на существенные человеческие качества в человеке? Наличие такой экспертизы в век цифровизации и цифровой трансформации можно уже считать более важным, особенно когда при ускоряющемся темпе жизни во главу всё чаще ставятся только задачи эксплуатационной оптимизации, оптимизации функционирования устройства, программ или системы, а не вопросы человека.
Работа анализирует различные точки зрения на данную проблематику, причем присутствует в том числе и апелляция к аргументам оппонентов, статья базируется на большом библиографическом массиве как отечественной, так и зарубежной исследовательской литературы. Текст будет интересен определенной части аудитории журнала.