Перевести страницу на:  
Please select your language to translate the article


You can just close the window to don't translate
Библиотека
ваш профиль

Вернуться к содержанию

Юридические исследования
Правильная ссылка на статью:

Риски и этико-правовые модели использования систем искусственного интеллекта

Бахтеев Дмитрий Валерьевич

кандидат юридических наук

доцент, кафедра криминалистики, Федеральное государственное бюджетное образовательное учреждение высшего образования «Уральский государственный юридический университет»

620137, Россия, Свердловская область, г. Екатеринбург, ул. Комсомольская, 21, кафедра криминалистики

Bakhteev Dmitrii V.

PhD in Law

Docent, the department of Criminalistics, Ural State Law University

620137, Russia, Sverdlovskaya oblast', g. Ekaterinburg, ul. Komsomol'skaya, 21, kafedra kriminalistiki

dmitry.bakhteev@gmail.com
Другие публикации этого автора
 

 

DOI:

10.25136/2409-7136.2019.11.31333

Дата направления статьи в редакцию:

11-11-2019


Дата публикации:

16-12-2019


Аннотация: Предметом исследования выступают закономерности взаимодействия общества и индивидов с технологиями искусственного интеллекта. Составляющими данного предмета являются технологические основы функционирования систем искусственного интеллекта, возможные риски и негативные последствия от применения этой технологии на примере интеллектуальной обработки персональных данных и существования автономных транспортных и боевых комплексов, этические и правовые подходы к её регулированию. Рассматриваются модели позиционирования систем искусственного интеллекта относительно возможности признания их личностей и, соответственно, наделения их правами. В основе исследования лежит метод моделирования, с помощью которого были определены стадии (этапы) этико-правового исследования технологии искусственного интеллекта, предложены модели реакции общества на развитие этой технологии. Основными выводами исследования является формулирование этапов изучения технологии искусственного интеллекта: исследования самой технологии, её рисков, моделей реакции общества и создания этических, а затем и правовых норм её регулирования. Приведён анализ возможных этико-правовых моделей субъектности систем искусственного интеллекта с точки зрения необходимости и возможности наделения их правами, в числе которых рассматриваются инструментальная, толерантная, ксенофобная и эмпатическая. Сформулированы основные положения кодекса этики разработчика и пользователя систем искусственного интеллекта.


Ключевые слова:

искусственный интеллект, этика искусственного интеллекта, правосубъектность искусственного интеллекта, регулирование робототехники, кодекс этики, машинное обучение, искусственная нейронная сеть, автономные транспортные средства, большие данные, персональные данные

Исследование выполнено при финансовой поддержке Российского фонда фундаментальных исследований в рамках научного проекта 18-29-1600118 «Комплексное исследование правовых, криминалистических и этических аспектов, связанных с разработкой и функционированием систем искусственного интеллекта».

Abstract: The matter under research of the legal patterns of interaction between the society and individuals and artificial intelligence technologies. Elements of the matter under research is the technological grounds for functioning of artificial intelligence systems, potential risks and negative consequences of using this technology based on the example of intellectual processing personal data and autonomous vehicles and weapon systems, ethical and legal approaches to its regulation. Bakhteev analyzes approaches to describing positions of artificial intelligence systems and whether these systems have personalities and thus certain rights. The research is based on the method of modelling that is used to describe stages of ethical-legal research of artificial intelligence technology. The author also describes different kinds of responses of the society to the development of the aforesaid technology. The main conclusions of the research is the description of stages of artificial intelligence studies, in particular, analysis of the technology itself, associated risks and responses of the society and creation of ethical and then legal grounds for regulation of this technology. The author gives the results of the analysis of possible ethical-legal models of subjectivity of artificial intelligence systems from the point of view of the need and possibility to grant them certain rights. These models include instrumental, tolerant, xenophobic and empathetic. The author also states the main provisions of the code of ethics for developer and user of artificial intelligence systems. 


Keywords:

artificial intelligence, ethics of artificial intelligence, legal personality of artificial intelligence, regulation of robotics, code of ethics, maсhine learning, artificial neural network, autonomous vehicles, big data, personal data

До двадцатого века единственным субъектами в деятельности человека, поведение которых могло быть заблаговременно спрогнозировано, были исключительно сам человек и объединения людей. Однако уже в настоящее время с определёнными оговорками можно говорить о процессе появления субъектов, которые человеком не являются, хотя и созданы им, и которые способны оказывать вполне заметное влияние на общество и отдельных его индивидов. Даже сейчас программное обеспечение способно привлекать и захватывать человеческое внимание и инициировать (или провоцировать) определённое поведение человека. Это может привести как к положительным изменениям в обществе, так и, при неправильном использовании, к негативным. Одной из ключевых задач развития юриспруденции в настоящее время является обеспечение готовности к восприятию и потенциальному регулированию ещё более перспективных технологий, одной из наиболее значимых из которых являются технологии искусственного интеллекта (далее – ИИ).

Создание так называемого «сильного» или «восходящего» искусственного интеллекта, способного по глубине и разнообразию своих когнитивных способностей сравниться или превзойти человека, что в свою очередь является одним из факторов ситуации технологической сингулярности, остаётся пока недостижимым. Большинство современных систем ИИ обладают, тем не менее, в определённых пределах антропоморфизмом (реально или предполагаемо). Речь в данном случае не идёт о человекоподобных роботах; сходство с человеком в данном случае следует понимать функционально, то есть большинство задач, решаемых такими системами, сводятся к ускорению и увеличению точности того, что уже может совершать человек, то есть влияние современных систем ИИ на общество носит скорее количественный, а не качественный характер. Более того, в основе таких систем лежат субъективные представления их создателей, а архитектура искусственных нейронных сетей – наиболее доступной технологии искусственного интеллекта – воспроизводит принципы работы мозга человека. Исследования Баррета и Кейла продемонстрировали, что при моделировании ситуации со всемогущим ИИ испытуемые наделяют его человекоподобными качествами [1; 2]. Из этого можно сделать вывод, что к настоящему моменту человек может представлять разумность и интеллектуальность исключительно на примере самого себя. При этом один из разработчиков современных научных основ машинного обучения Ричард Саттон указывает, что одной из главных проблем при разработке систем ИИ является то, что их разработчики пытаются смоделировать человеческое мышление, в том числе механически воспроизвести физическую топографию человеческого мозга, в то время как агенты (системы) искусственного интеллекта должны уметь совершить открытия, а не просто понимать содержание того, что открыл человек [3]. Таким образом, регулирование систем искусственного интеллекта может быть построено по аналогии не только с регулированием исключительно использования предметов и технологий, но и регулирование деятельности субъектов.

Исследование этико-правовых аспектов использования, а в перспективе и регулирования искусственного интеллекта следует осуществлять по следующему алгоритму.

Во-первых, требуется изучить необходимый минимум технико-технологических основ исследуемой технологии. В контексте искусственного интеллекта для этого требуется не просто визионирование и представление очень тёмного или очень светлого будущего, а понимание основ математической модели и способов реализации данной технологии.

Во-вторых, необходимо выработать понимание возможных рисков распространения технологии.

В-третьих, следует изучить возможные модели реакции общества на технологию искусственного интеллекта с учётом возможных ситуаций максимального и минимального воплощения указанных рисков.

В-четвёртых, исходя из полученных на предыдущих стадиях данных, должны быть сформулированы этические, а затем и правовые нормы, регулирующие как общие аспекты взаимодействия систем «человек – искусственный интеллект», так и отдельные направления и ситуации такого взаимодействия.Так, к примеру, должны быть установлены области человеческой деятельности, в которых применение систем искусственного интеллекта полностью исключается.

Основным отличием систем ИИ на основе искусственных нейронных сетей от традиционных программных комплексов является их обучаемость. Возможности по обработке данных всегда зависят от «опыта», который система ИИ набирает на стадии тренировки, обучаясь выявлять отдельные признаки и закономерности в предоставляемом для обучения массиве данных. Соответственно, качество реализации искусственной нейронной сетью своих функций напрямую зависит от количества элементов базы данных для обучения и их ограниченного разнообразия. Во многом бурное развитие рассматриваемой технологии было вызвано появившимися возможностями сбора больших данных (Big Data).

Такого рода данные могут принимать две основные формы: неструктурированные и структурированные.

К информации, относящейся к неструктурированным данным, относятся:

• видеопоток, формируемый камерами наблюдения, видеорегистраторами и пр.;

• поток мультимедийной (видео, звук, текст) информации, передаваемой и обрабатываемой операторами сотовой связи и интернет-провайдерами [4. C. 166–167].

С точки зрения правоохранительной деятельности, такая информация может быть использована в качестве оперативной и ориентирующей.

Сбор структурированных данных подчинён заранее установленной цели и производится по определённым критериям. Примером таких данных могут служить объекты автоматизированных учётов, к примеру, АДИС «Папилон». Обработка таких данных может осуществляться как с частичной автоматизацией, так и полностью без участия оператора. Сведения такого рода зачастую могут быть использованы в судебно-экспертной деятельности.

Однако сами по себе большие данные, несмотря на их очевидную полезность, не содержат интеллектуального компонента и не могут быть, в силу их объёма, использованы человеком индивидуально. Большие данные, при этом, позволяют искусственной нейронной сети накапливать опыт и минимизировать количество совершаемых ошибок.

При этом, как и в случае с обучением и подготовкой специалиста-человека, обучение ИИ никогда не способно охватить все возможные сценарии и варианты его будущего функционирования. Соответственно, ИИ, подобно человеку, способен ошибаться. Любые ошибки способны причинить вред, однако наибольший вред ошибки ИИ способны причинить в физическом мире. Наиболее очевидными примерами ситуаций, в которых уже сейчас ощущается присутствие ИИ в физическом мире, являются автономные транспортные и боевые системы.

Группы негативных ситуаций, возникающих с использованием ИИ в автономных мобильных системах, сводятся к следующим:

1. Риск совершения ошибки при распознавании объектов. К примеру, автономное транспортное средство может не распознать велосипедиста или пешехода в камуфляжной одежде (ложно-отрицательная ошибка), либо принять небольшую яму на дороге за значительное препятствие (ложно-положительная ошибка).

2. Базовые «этические настройки» программного обеспечения. В целом они сводятся к известной этической «проблеме вагонетки» и включают расстановку приоритетов в ходе принятия решения в условиях аварийной дорожной ситуации. К примеру, каким образом должен действовать двигающийся на большой скорости грузовик, управляемый ИИ, на дороге перед которым внезапно появляется группа людей, а на встречной полосе сформировался плотный поток автомобилей?

В последнем случае этические модели могут принимать следующие формы:

1. Совершить наезд на людей или выехать на встречную полосу, спровоцировав лобовое столкновение. Эти варианты предусматривают значительный риск гибели людей и причинения большого материального ущерба третьим лицам;

2. Съехать в кювет, что неминуемо вызовет критические повреждения автомобиля и угрозу жизни и здоровью пассажиров.

Такое ограниченное количество вариантов, которые могут обрабатываться с позиций человеческой этики вызвано ограничением познавательных способностей человека [5]. «Экспериментальные данные указывают на то, что реализация этического поведения робота должна требовать лишь небольшого числа поведенческих альтернатив, которые должны быть сгенерированы и оценены. Оценка ограниченного числа поведенческих альтернатив улучшит отзывчивость роботов» [6].

Поведение ИИ в аварийных ситуациях может иметь этическую окраску: быть «альтруистичным» или «эгоистичным». Представляется, что в большинстве случаев «настройки этичности» будут производиться при тренировке ИИ, однако следует упомянуть интересную идею, согласно которой этическая ответственность может быть переложена на лицо, владеющее автономным автомобилем. Для этого потребуется программный или программно-аппаратный комплекс – т. н. «этический рычаг», который «переключал бы настройки автомобиля с «полностью альтруистичного» режима на «полностью эгоистичный» и обратно, при этом режим по умолчанию был бы беспристрастным, то есть действующим исключительно согласно «заводским настройкам» [7].

Иначе обстоит дело с автономными боевыми системами, к которым с определённой долей условности можно отнести военных и полицейских роботов и системы обеспечения домашней безопасности. Указанные объекты могут быть рассмотрены как интеллектуальные системы только при возможности принятия ими самостоятельных решений, на основе анализа входящей информации и без участия и вмешательства оператора-человека. Автономный боевой дрон, самостоятельно принимающий решение о поражении целей, создаёт двойственную с этико-правовой точки зрения ситуацию: с одной стороны, ответственность за причинение смерти или повреждений должна быть возложена на сторону, которая применила данное устройство. С другой стороны, ни один человек не может нести ответственность за итоговое решение, то есть, автономный дрон выступает в определённом смысле субъектом охранительных правоотношений.

Также следует упомянуть проблему идентификации комбатантов и гражданских лиц в ходе боевых действий: если идентификация представителей своей стороны боевым роботом обеспечивается довольно просто (с помощью униформы или радиометок), то вопрос различения противников и гражданских лиц остаётся открытым. «Существует бесконечное число ситуаций, в которых применение оружия будет неуместным. Достаточно подумать о детях, которых заставляют переносить разряженное оружие, или комбатантов, занятых похоронами своих погибших товарищей» [8. С. 118].

Несмотря на то, что физический вред может быть причинён только системами ИИ, имеющими материальное воплощение – роботами, вред, равно как и положительное воздействие, может и не носить материальный характер (по крайней мере, напрямую). К примеру, сбор и обработка сведений о гражданах Российской Федерации с помощью автоматизированных систем, в том числе и систем искусственного интеллекта ограничены только случаями их добровольного квалифицированного согласия. Искусственный интеллект при обработке таких сведений может быть использован как для получения и обработки данных, так и для их защиты [9]. С одной стороны, исключительно машинная обработка данных позволяет исключить возможность их распространения или использования во вред субъекта персональных данных, с другой стороны, такая технология может быть использована для их защиты и помощи субъекту обработки персональных данных в защите таких сведений. Так, разработано программное обеспечение, которое позволяет идентифицировать человека без возможности утечки персональных данных. К примеру, если клиент передаёт организации копию своего паспорта, система искусственного интеллекта разделяет изображение документа на множество мелких частей и уже по ним осуществляется идентификация клиента. Полной копии паспорта в системе при этом не содержится, доступ оператора-человека к базе данных также может быть затруднён или исключён [10].

В рамках рассматриваемой темы возможными представляется два диаметрально противоположных варианта отношения к использованию ИИ при обработке персональных данных, либо иных данных, свободное распространение которых исключается:

1. В случае доверия общества к идее автоматизированной обработки таких данных, сохраняется текущее положение дел, или даже в перспективе полностью исключается возможность ручной обработки данных. При этом желательно, чтобы пользователь получал детализированную и доступную для понимания (то есть, не в форме нескольких страниц юридического текста) информацию о сущности операций с его данными и возможного их использования, в том числе третьими лицами. Такую модель можно выразить формулой «Без вмешательства оператора-человека данные будут в безопасности». Данная позиция представляется более правильной, тенденции трансформации общественного сознания также ведут именно к этому варианту.

2. Автоматизированная обработка данных будет восприниматься как ненадёжная или впоследствии даже незаконная. Такое изменение общественного сознания возможно лишь в случае нескольких последовательных случаев массовой утечки данных и причинённого в результате этой утечки реально оцениваемого значительного в рамках глобального общества ущерба.

Следует также кратко рассмотреть ситуацию, когда пользовательские данные уже не обрабатываются с помощью систем искусственного интеллекта, а используются для тренировки таких систем. Компания Microsoft для обучения искусственной нейронной сети в рамках проекта Celeb для распознавания лиц использовала миллионы фотографий, размещённых пользователями в социальных сетях [11]. В результате давления общества полученная база была удалена, что, впрочем, не свидетельствует о её окончательной ликвидации. Данные снимки размещались под лицензией Creative Commons, которая позволяет использовать их для развития новых технологий. Однако даже легальное разрешение данной ситуации не гарантирует возникновения подобных случаев. Интересы развития технологии и защиты приватности могут вступать в противоречие.

Иная форма риска, возникающего при функционировании рассматриваемых объектов (как материальных, так и действующих в цифровой среде), состоит в отсутствии полной прозрачности в основах их деятельности. Разработчикам программного обеспечения в силу конкуренции невыгодно раскрывать алгоритмы обучения и принятия решений коммерческих продуктов. Один из первых таких случаев произошёл в 2015 году при запуске беспилотных автомобилей под управлением ИИ, созданного компанией Nvidia, когда разработчик отказался предоставить доступ к исходному коду.

Другим аспектом непрозрачности, имеющим большее отношение к правовому полю, является затруднённость проверки оснований принятия системой ИИ решений: в структуре искусственной нейронной сети присутствует так называемый скрытый слой, находящийся между исходными данными и результирующим выводом, который слабо поддаётся расшифровке, что в определённом смысле опять же приближает логику ИИ к мышлению человека.

С усложнением систем искусственного интеллекта возрастает количество вопросов относительно их возможности воспринимать, чувствовать и осознанно действовать. Люди уже продемонстрировали способность испытывать симпатию и эмпатию к роботам, будь это персонажи художественных произведений, домашние помощники или детские развивающие игрушки. В этом смысле системы искусственного интеллекта (как правило, овеществлённые) уже воспринимаются с точки зрения этики, применимой к домашним питомцам. Примером могут служить отключение серверов, обслуживающих роботов Jibo, которое многие пользователи восприняли как смерть своего компаньона и отреагировали крайне эмоционально [12]. Но может ли искусственный интеллект стать хотя бы приблизительно равным человеку?

Для формирования представления о возможности наделения систем искусственного интеллекта субъектностью, человечество должно ответить на несколько частных вопросов:

· Способен ли ИИ осознавать реальность? В когнитивных науках отсутствует точное определение сознания, так что можем ли мы категорично утверждать, что машина не способна мыслить? Ранее считалось, что ключевым отличием человека от машины является возможность творчества, но современные искусственные нейронные сети уже продемонстрировали способность создавать художественные произведения: от произведений живописи до музыки и стихов.

· Может ли ИИ испытывать негативные или позитивные эмоции? Принуждение свободного человека к выполнению неприятной для него работы с помощью силы мы считаем насилием и всячески осуждаем. Не считать ли в таком случае ситуацию, когда разработанную и натренированную для выполнения определённой задачи систему искусственного интеллекта перепрограммируют для выполнения совершенно других операций также проявлением насилия? Или перепрограммированная система уже считается совершенно другой и потому страдать не может? Или всё же такие системы несмотря на свою сложность и возможности являются не более, чем инструментом?

Такие вопросы могут показаться абсурдными, однако если заранее не проанализировать возможные ситуации будущего и производные от них риски, вряд ли общество и государство смогут оказаться готовыми к развитию рассматриваемой технологии.

Д. Гункель предлагает четыре исчерпывающие модели позиционирования роботов относительно возможности признания их личностей и наделения их правами. Представляется, что сужение рассматриваемого вопроса только до роботов, то есть до физически овеществлённых и автономно действующих объектов не совсем корректно. Системы искусственного интеллекта, не имеющие постоянного физического воплощения и существующие преимущественно в цифровой форме, также должны быть включены в рассматриваемые модели. Построение таких моделей осуществляется с точки зрения возможности и необходимости признания за такими объектами (или уже субъектами?) определённых прав. Права при этом следует понимать не только в юридическом, но также и в социально-этическом смысле. С учётом изложенного, модели приобретают следующий вид.

1. Роботы (системы ИИ) не могут иметь права, роботы (системы ИИ) не должны иметь права;

2. Роботы (системы ИИ) могут иметь права, роботы (системы ИИ) должны иметь права;

3. Роботы (системы ИИ) могут иметь права, но не должны иметь права;

4. Роботы (системы ИИ) не могут иметь права, но должны иметь права [13. C. 26–52].

С нашей точки зрения эту систему следует дополнить этическими аспектами, поскольку мораль выступает более ранним регулятором, особенно в контексте внедрения в общественную жизнь технологий, способных оказать на неё существенное воздействие. В рамках настоящего исследования были сформулированы четыре вероятные мировоззренческие и поведенческие модели данной реакции, с учётом минимального или максимального воплощения указанных рисков:

1. Инструментальная модель: системы искусственного интеллекта или их физические воплощения (роботы) представляют из себя не более, чем инструмент для решения частных прикладных или научных задач. Инструмент – продукт деятельности человека и способ изготовления других предметов, в том числе и инструментов. Однако данная точка зрения имеет ряд существенных недостатков. Если инструмент призван облегчить труд человека, то ИИ может заменить своей деятельностью труд человека. При этом некорректным будет сравнение искусственного интеллекта со станками времён промышленной революции. Такие станки лишили работы множество людей, однако при этом они создали новые рабочие места. В случае автоматизации вообще и использования систем искусственного интеллекта в частности мы уже наблюдаем ликвидацию определённых профессий, в первую очередь – связанных с посредническими услугами: консультантов, диспетчеров, маркетологов и т. д. Можно возразить, что при этом увеличивается количество разработчиков искусственного интеллекта, однако увеличение числа программистов не идёт в сравнение с уменьшением рабочих мест других профессий. Данная модель к настоящему времени является доминирующей, остальные же представляют сценарии вероятного характера.

2. Толерантная модель предполагает создание «сильного» ИИ, по своим когнитивным возможностям сравнимым со способностями человека. При этом предполагается определённое равенство между человеком и системой искусственного интеллекта, который при этом не вызывает угрозы обществу, соответственно, в силу ограниченного или полного равенства когнитивных и эмпатических способностей человека и системы искусственного, последняя должна быть наделена статусом субъекта права. Данная проблема находится в области этики, однако должна рассматриваться и с правовых позиций. Если в будущем роботы и другие формы искусственного интеллекта обретут самосознание и будут способы испытывать эмоции, концепцию правосубъектности придётся на них распространить. Уже известны примеры, когда отдельными правами человека наделялись искусственные личности. К примеру, известный робот София с октября 2017 года является подданной Саудовской Аравии, а Shibuya Mirai, программа, не имеющая физического воплощения, имитирующая речь и реакции 7-летнего мальчика, была признана гражданином Токио. До этого между 2004 и 2012 годами как минимум девять роботов были наделены специальным видом на жительство в Японии [14]. Очевидно, что эти примеры носят скорее рекламный, популистский характер, однако являются первым прецедентом подобного рода. К настоящему времени до создания полноценного искусственного интеллекта, подобного человеческому, ещё далеко, однако исключать такой вариант нельзя, поэтому требуется разработка подходов к восприятию систем искусственного интеллекта как личностей и правового регулирования их статуса.

Если роботы достигнут определённого уровня когнитивных способностей, то есть, если они будут обладать очевидной моральной значимостью, проявляющейся в разуме или чувствительности, тогда они, вероятно, будут претендовать на признание их морального статуса и должны иметь права, то есть некоторую долю привилегий, претензий, полномочий или иммунитетов [13. C. 79]. Очевидно, что для описания данной модели используется слишком много слов «если» и «вероятно». Это выражает степень неуверенности в возможности развития ИИ до таких пределов, однако исключать такую возможность всё же нельзя.

3. Ксенофобная модель предполагает по сути ситуацию рабства: человечество, формально признавая когнитивные способности систем искусственного интеллекта, по разным причинам предпочитает придерживаться инструментальной концепции и не признаёт личностных и, соответственно, субъектных (в том числе и правосубъектных) качеств ИИ. Учитывая множество социальных, национальных и расовых противоречий и предрассудков, такой вариант может оказаться вполне реальным.

4. Эмпатическая модель, по сути, представляет максимально человечное отношение человека к системе искусственного интеллекта. Общество, воспринимая в целом положительно домашних и иных социально-бытовых интеллектуальных роботов и программных помощников, благоприятно воспринимает идею распространения технологии и не исключает возможности наделения систем искусственного интеллекта свойствами субъекта права (в ограниченном смысле). Такое отношение может оказаться довольно опасным: «Социальные роботы, которые устанавливают с людьми эмоциональный контакт и, как следствие, последние глубоко доверяют роботам, что в свою очередь может быть использовано для манипулирования людьми ранее невозможными способами. Например, компания может использовать уникальные отношения робота со своим владельцем, чтобы робот убедил владельца приобрести продукты, которые компания хочет продвигать. Обращаем внимание, что в отличие от человеческих отношений, где при нормальных обстоятельствах социальные эмоциональные механизмы, такие как эмпатия и вина, предотвратят эскалацию таких сценариев» [15].

В качестве примеров этических норм в рамках настоящего исследования был разработан кодекс этики разработчика и пользователя системы искусственного интеллекта, в общей части которого указаны следующие принципы.

1. Учёт и уважение основных конституционных прав человека и гражданина.

2. Улучшение качества жизни общества и индивидов как основная цель разработки и внедрения систем искусственного интеллекта.

3. Эффективность функционирования системы искусственного интеллекта по сравнению с показателями человека. Разработчик системы искусственного интеллекта должен быть готов предоставить доказательства этого качества.

4. Наделение пользователей интеллектуальных систем возможностью доступа к предоставленным данным, в том числе персональным данным и контроля над их использованием.

5. Возможность проверки эффективности действий и решений, осуществляемых и принимаемых при помощи системы искусственного интеллекта.

6. Прозрачность сбора базы данных, возможность ограниченного и полного доступа к ней, при необходимости и по специальному запросу – раскрытие разработчиком системы искусственного интеллекта программного кода этой системы полностью или частично.

7. Узкая специальная направленность каждой системы искусственного интеллекта при её внедрении в практическую деятельность.

8. Компетентность разработчика системы искусственного интеллекта, в том числе в областях, в которых планируется внедрение этой системы.

9. Учёт возможных рисков от внедрения системы искусственного интеллекта в практическую деятельность.

10. Установление презюмируемой ответственности за последствия ошибок, совершённых системой искусственного интеллекта[16].

Подводя итог, отметим, что ИИ является крайне мощной технологией, напрямую или опосредованно влияющей на большинство сфер человеческой жизни, поэтому крайне важным является разработка и изучение этических основ функционирования таких систем. Понимание возможных рисков позволит обеспечить готовность общества и государства к развитию и распространению технологии искусственного интеллекта. Однако правовому регулированию должна предшествовать серьёзная научная работа по изучению этических основ данной технологии, в том числе рисков, их последствий и возможных реакций общества. Для того, чтобы технологии искусственного интеллекта получили полное признание, необходимо соблюдения ряда условий, таких как прозрачность и объяснимость получения и использования больших данных, внедрение и применение соответствующего кодекса этики, ведение разъяснительной работы с обществом и т. д. Описанная в настоящей работе модель исследования может оказать помощь будущим исследователям и послужить целям общественного и научно-технического прогресса.

Библиография
1. Barrett J. L., C. Keil F. C. Conceptualizing a Nonnatural Entity: Anthropomorphism in God Concepts // Cognitive psychology. 1996. Vol. 31. Issue 3. P. 219-247. DOI: 31. 219-47. DOI: 10.1006/cogp.1996.0017.
2. Yudkowsky E. Artificial Intelligence as a Positive and Negative Factor in Global Risk // Global Catastrophic Risks / ed. N. Bostrom, M. M. Ćirković. 2008. P. 308-345.
3. Piatetsky G. Exclusive: Interview with Rich Sutton, the Father of Reinforcement Learning. URL: https://web.archive.org/web/20180111052706/https://www.kdnuggets.com/2017/12/interview-rich-sutton-reinforcement-learning.html (accessed: 16.06.2019).
4. Мещеряков В. А., Хорунжий С. Н. Влияние концепции «Больших данных» на криминалистическую теорию причинности // Причинность в криминалистике: сб. науч.-практ. статей / под общ. ред. проф. И. М. Комарова. М.: Юрлитинформ, 2018. С. 164–168.
5. Donoso M., Collins A., Koechlin E. Human cognition. Foundations of human reasoning in the prefrontal cortex // Science. 2014. Vol. 344. Issue 6191. P. 1481-1486. DOI: 344. 10.1126/science.1252254.
6. Vanderelst D., Winfield A. An architecture for ethical robots inspired by the simulation theory of cognition // Cognitive Systems Research. 2018. Vol. 48. P. 56-66. DOI: 10.1016/j.cogsys.2017.04.002.
7. Contissa G., Lagioia F., Sartor G. The Ethical Knob: ethically-customisable automated vehicles and the law // Artificial Intelligence Law. 2017. Vol. 25. Issue 3. P. 365-378. DOI: 10.1007/s10506-017-9211-z.
8. Lin P., Abney K., Bekey G. A. Robot Ethics: the Ethical and Social Implications of Robotics. Cambridge, Mass.: MIT Press, 2014. 400 pp.
9. GDPR Solution: AI Miner – AI-power your GDPR discovery and compliance/ URL: https://www.elinar.com/artificial-intelligence/gdpr-solution-ai/(accessed: 16.06.2019).
10. KYC Brain – Simple, Efficient, Secure Solution For KYC and Compliance. URL: https://kycbrain.com/#About (accessed: 16.06.2019).
11. MS-Celeb-1M: Challenge of Recognizing One Million Celebrities in the Real World. URL: https://www.microsoft.com/en-us/research/project/ms-celeb-1m-challenge-recognizing-one-million-celebrities-real-world/ (accessed: 16.06.2019).
12. Heater B. The lonely death of Jibo, the social robot. URL: https://techcrunch.com/2019/03/04/the-lonely-death-of-jibo-the-social-robot/ (accessed: 16.06.2019).
13. Gunkel, David J. Robot rights. Cambridge, MA: MIT Press, 2018. 256 pp.
14. Robertson J. Human rights vs. Robot rights: Forecasts from Japan // Critical Asian Studies. 2014. Vol. 46. Issue 4. P. 571-598. DOI: 10.1080/14672715.2014.960707.
15. Scheutz M. The Inherent Dangers of Unidirectional Emotional Bonds between Humans and Social Robots // Workshop on Roboethics at ICRA. 2009. URL: https://www.researchgate.net/publication/255701465_The_Inherent_Dangers_of_Unidirectional_Emotional_Bonds_between_Humans_and_Social_Robots (accessed: 16.06.2019).
16. С полным текстом текущей версии Кодекса этики разработчика и пользователя системы искусственного интеллекта можно ознакомиться по ссылке: https://crimlib.info/images/3/38/AI_Eth.pdf.
References
1. Barrett J. L., C. Keil F. C. Conceptualizing a Nonnatural Entity: Anthropomorphism in God Concepts // Cognitive psychology. 1996. Vol. 31. Issue 3. P. 219-247. DOI: 31. 219-47. DOI: 10.1006/cogp.1996.0017.
2. Yudkowsky E. Artificial Intelligence as a Positive and Negative Factor in Global Risk // Global Catastrophic Risks / ed. N. Bostrom, M. M. Ćirković. 2008. P. 308-345.
3. Piatetsky G. Exclusive: Interview with Rich Sutton, the Father of Reinforcement Learning. URL: https://web.archive.org/web/20180111052706/https://www.kdnuggets.com/2017/12/interview-rich-sutton-reinforcement-learning.html (accessed: 16.06.2019).
4. Meshcheryakov V. A., Khorunzhii S. N. Vliyanie kontseptsii «Bol'shikh dannykh» na kriminalisticheskuyu teoriyu prichinnosti // Prichinnost' v kriminalistike: sb. nauch.-prakt. statei / pod obshch. red. prof. I. M. Komarova. M.: Yurlitinform, 2018. S. 164–168.
5. Donoso M., Collins A., Koechlin E. Human cognition. Foundations of human reasoning in the prefrontal cortex // Science. 2014. Vol. 344. Issue 6191. P. 1481-1486. DOI: 344. 10.1126/science.1252254.
6. Vanderelst D., Winfield A. An architecture for ethical robots inspired by the simulation theory of cognition // Cognitive Systems Research. 2018. Vol. 48. P. 56-66. DOI: 10.1016/j.cogsys.2017.04.002.
7. Contissa G., Lagioia F., Sartor G. The Ethical Knob: ethically-customisable automated vehicles and the law // Artificial Intelligence Law. 2017. Vol. 25. Issue 3. P. 365-378. DOI: 10.1007/s10506-017-9211-z.
8. Lin P., Abney K., Bekey G. A. Robot Ethics: the Ethical and Social Implications of Robotics. Cambridge, Mass.: MIT Press, 2014. 400 pp.
9. GDPR Solution: AI Miner – AI-power your GDPR discovery and compliance/ URL: https://www.elinar.com/artificial-intelligence/gdpr-solution-ai/(accessed: 16.06.2019).
10. KYC Brain – Simple, Efficient, Secure Solution For KYC and Compliance. URL: https://kycbrain.com/#About (accessed: 16.06.2019).
11. MS-Celeb-1M: Challenge of Recognizing One Million Celebrities in the Real World. URL: https://www.microsoft.com/en-us/research/project/ms-celeb-1m-challenge-recognizing-one-million-celebrities-real-world/ (accessed: 16.06.2019).
12. Heater B. The lonely death of Jibo, the social robot. URL: https://techcrunch.com/2019/03/04/the-lonely-death-of-jibo-the-social-robot/ (accessed: 16.06.2019).
13. Gunkel, David J. Robot rights. Cambridge, MA: MIT Press, 2018. 256 pp.
14. Robertson J. Human rights vs. Robot rights: Forecasts from Japan // Critical Asian Studies. 2014. Vol. 46. Issue 4. P. 571-598. DOI: 10.1080/14672715.2014.960707.
15. Scheutz M. The Inherent Dangers of Unidirectional Emotional Bonds between Humans and Social Robots // Workshop on Roboethics at ICRA. 2009. URL: https://www.researchgate.net/publication/255701465_The_Inherent_Dangers_of_Unidirectional_Emotional_Bonds_between_Humans_and_Social_Robots (accessed: 16.06.2019).
16. S polnym tekstom tekushchei versii Kodeksa etiki razrabotchika i pol'zovatelya sistemy iskusstvennogo intellekta mozhno oznakomit'sya po ssylke: https://crimlib.info/images/3/38/AI_Eth.pdf.

Результаты процедуры рецензирования статьи

В связи с политикой двойного слепого рецензирования личность рецензента не раскрывается.
Со списком рецензентов издательства можно ознакомиться здесь.

РЕЦЕНЗИЯ на статью
Риски и этико-правовые модели использования систем искусственного интеллекта

Название в целом соответствует содержанию материалов статьи.
В названии статьи просматривается научная проблема, на решение которой направлено исследование автора.
Рецензируемая статья представляет относительный научный интерес. Автор не разъяснил выбор темы исследования и не обосновал её актуальность.
В статье не сформулирована цель исследования, не указаны объект и предмет исследования, методы, использованные автором. На взгляд рецензента, основные элементы «программы» исследования автором не вполне продуманы, что отразилось на его результатах.
Автор не представил результатов анализа историографии проблемы и не сформулировал новизну предпринятого исследования, что является существенным недостатком статьи.
При изложении материала автор избирательно продемонстрировал результаты анализа историографии проблемы в виде ссылок на актуальные труды по теме исследования.
Апелляция к оппонентам в статье отсутствует.
Автор не разъяснил выбор и не охарактеризовал круг источников, привлеченных им для раскрытия темы.
На взгляд рецензента, автор стремился выдержать научный стиль изложения, грамотно использовать методы научного познания, соблюсти принципы логичности, систематичности и последовательности изложения материала.
В качестве вступления автор указал на причину выбора темы исследования, обозначил её актуальность, заключив, что «одной из ключевых задач развития юриспруденции… является обеспечение готовности к восприятию и потенциальному регулированию… перспективных технологий» т.д.
В основной части статьи автор разъяснил мысли о том, что «человек может представлять разумность и интеллектуальность исключительно на примере самого себя» т.д., опираясь на исследования Баррета и Кейла (Barrett J. L., C. Keil F. C. Conceptualizing a Nonnatural Entity: Anthropomorphism in God Concepts // Cognitive psychology. 1996. Vol. 31. Issue 3. P. 219-247), и что «регулирование систем искусственного интеллекта может быть построено по аналогии не только с регулированием исключительно использования предметов и технологий, но и регулирование деятельности субъектов», сославшись на мнение Ричарда Саттона.
Далее автор изложил «алгоритм» исследования «этико-правовых аспектов использования… и регулирования искусственного интеллекта» и неожиданно сообщил о том, что «обучаемость» является «основным отличием систем ИИ на основе искусственных нейронных сетей от традиционных программных комплексов» т.д., затем, что «развитие рассматриваемой технологии было вызвано появившимися возможностями сбора больших данных», указал на содержание «основных форм» этих данных и внезапно заметил, что «с точки зрения правоохранительной деятельности, такая информация может быть использована в качестве оперативной и ориентирующей».
Далее автор сообщил, что «сбор структурированных данных… производится по определённым критериям» т.д. и вновь неожиданно заключил, что «сведения такого рода зачастую могут быть использованы в судебно-экспертной деятельности».
Далее автор сообщил, что искусственный интеллект «способен ошибаться» и выделил, не обосновав, только две «группы негативных ситуаций». Затем автор избирательно описал потенциальные этико-правовые проблемы, связанные с использованием «автономного транспортного средства» и «автономных боевых систем».
Далее автор разъяснил мысль о том, что «вред, равно как и положительное воздействие, может и не носить материальный характер» и сосредоточился на умозрительном описании «диаметрально противоположных вариантов отношения к использованию ИИ при обработке персональных данных, либо иных данных, свободное распространение которых исключается».
Далее автор разъяснил мысль о том, что «иная форма риска, возникающего при функционировании рассматриваемых объектов… состоит в отсутствии полной прозрачности в основах их деятельности» т.д., затем заявил о том, что «с усложнением систем искусственного интеллекта возрастает количество вопросов относительно их возможности воспринимать, чувствовать» и предложил «проанализировать возможные ситуации будущего и производные от них риски». Опираясь на работу Д. Гункеля, автор выделил 4 «исчерпывающие модели позиционирования роботов относительно возможности признания их личностей и наделения их правами», затем 4 «вероятные мировоззренческие и поведенческие модели… с учётом минимального или максимального воплощения указанных рисков»: «инструментальную», «толерантную», «ксенофобную» и «эмпатическую», описав их содержание.
В завершение основной части статьи автор сообщил принципы, изложенные им в другой работе – «кодексе этики разработчика и пользователя системы искусственного интеллекта».
Выводы автора носят обобщающий характер, сформулированы ясно.
Тем не менее, на взгляд рецензента, выводы не позволяют оценить научные достижения автора в рамках проведенного им исследования.
В заключительных абзацах статьи автор сообщил, что «ИИ является крайне мощной технологией, напрямую или опосредованно влияющей на большинство сфер человеческой жизни, поэтому крайне важным является разработка и изучение этических основ функционирования таких систем» и что «понимание возможных рисков позволит обеспечить готовность общества и государства к развитию и распространению технологии искусственного интеллекта» и т.д. затем, что «необходимо соблюдение ряда условий, таких как прозрачность и объяснимость получения и использования больших данных, внедрение и применение соответствующего кодекса этики» и т.д.
Автор резюмировал, что «описанная в настоящей работе модель исследования может оказать помощь будущим исследователям и послужить целям общественного и научно-технического прогресса».
Выводы, на взгляд рецензента, не проясняют цель данного исследования.
На взгляд рецензента, потенциальная цель исследования достигнута автором отчасти.
Публикация может вызвать интерес у аудитории журнала. Статья требует незначительной доработки, прежде всего, в части формулирования ключевых элементов программы исследования и соответствующих им выводов.