Робот должен сидеть в тюрьме?

Кирилл Черновол Кирилл Черновол Эксперт Центра Россия-ОЭСР опубликовано Цифровая экономика
Робот должен сидеть в тюрьме?

Может ли искусственный интеллект нести юридическую ответственность за правонарушения? Сама постановка такого вопроса не вполне корректна: не являясь субъектом права, ИИ даже при самостоятельном принятии решений без вмешательства человека может нести ответственность не более, чем оставленный на наклонной дороге автомобиль, не поставленный на ручной тормоз.

Впрочем, в юридической литературе встречаются позиции о возможности привлечения к ответственности за работу искусственного интеллекта. Помимо возможности привлечения к ответственности лица, программировавшего робота или использующего робота в качестве инструмента, исследователи не исключают возможности установления ответственности самого интеллектуального робота (робота, наделенного искусственным интеллектом).

Некоторые отмечают, что непредсказуемость будущего поведения AI-робота может быть заложена в цифровом алгоритме. По мнению исследователей, наделяя робота самоорганизацией при плохом дизайне искусственного интеллекта, нельзя исключать его нежелательное обучение (машинное обучение), в том числе вызванное взломом программы.

Однако для привлечения самого ИИ к ответственности пришлось бы признать правоспособность алгоритма как самостоятельного субъекта права, для чего в российском законодательстве в настоящее время не существует предпосылок. Кстати, не только в российском: например, в праве США термин "person" по умолчанию применяется к представителям вида homo sapiens, начиная с младенческого возраста, родившимся живыми.

Более вероятным является признание искусственного интеллекта источником повышенной опасности. Как отмечает Верховный Суд РФ, таким источником является любая деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека, а также деятельность по использованию, транспортировке, хранению предметов, веществ и других объектов производственного, хозяйственного или иного назначения, обладающих такими же свойствами.

Итак, искусственный интеллект как минимум может являться источником повышенной опасности. Как в таком случае регулировать ответственность за причинение алгоритмом ущерба? Рассмотрим этот вопрос на примере автономно управляемых транспортных средств в Европе. ЕС в случае причинения вреда в ходе функционирования новых цифровых технологий технологии применяет существующие («традиционные») законы о возмещении ущерба в контракте и о правонарушенях в каждом государстве-члене.

В большинстве юрисдикций ущерб, причиненный автотранспортными средствами, регулируется специальным режимом ответственности. Cуществует общеевропейская страховая схема в форме (пересмотренной) Директивы по автострахованию, но государства-члены самостоятельно регулируют ответственность за несчастные случаи с участием самих автомобилей. Ответственность обычно налагается на владельца транспортного средства и/или на водителя, хотя существуют системы, которые предъявляют прямые претензии к страховщику независимо от ответственности любого другого лица.

Пригодны ли существующие режимы ответственности за ДТП для ТС, управляемых ИИ - вопрос спорный, особенно в отношении систем, которые полагаются на основанную на ошибках ответственность в целом (например, на Мальте) или при ограниченных обстоятельствах, таких, как в случае столкновения (Польша, например), или для определенных видов ущерба (например, Испания), или которые обусловливают применение режима ответственности за нарушение правил дорожного движения при участии водителя (Италия).

Такие правила было бы трудно применять для аварий с участием AV. Учитывая сложный характер среды автономного вождения, исключение строгой ответственности в случае вмешательства третьей стороны также может быть проблематичным, особенно в контексте рисков кибербезопасности, таких, как взлом подключенного к глобальной сети ИИ или если авария была вызвана тем, что инфраструктура ИКТ послала неправильные сигналы. Если ущерб был причинен неисправным транспортным средством, может применяться ответственность за качество продукции или ответственность производителя в деликтном порядке, но обычно они становятся уместными только на стадии возмещения.

Итак, в вопросе того, кто несёт ответственность за правонарушения, совершённые ИИ, нет и не может быть однозначного ответа. Точнее, ответов несколько: пользователь, владелец устройства с ИИ, оператор алгоритма, создатель- данный перечень не является исчерпывающим. Ответ зависит от контекста правонарушения и того, кто или что заставило ИИ совершить деяния, результатом которых стало, например, причинение ущерба. Очевидно, что в странах необходима разработка правового регулирования в сфере установления и страхования ответственности ИИ как источника повышенной опасности.

Что говорит ОЭСР?

Любое правовое регулирование должно начинаться с правового принципа.

ОЭСР в 2019 году были разработаны Рекомендации по искусственному интеллекту. Данные Рекомендации представляют собой правовой инструмент, которым устанавливаются основные принципы ответственного управления системами искусственного интеллекта:

  • Инклюзивный рост, устойчивое развитие и благополучие. Заинтересованные лица должны проактивно участвовать в продвижении ответственного управления ИИ для блага людей, в частности, путём улучшения возможностей человека, повышения креативности, продвижения включения недостаточно представленных групп населения, снижения экономического, социального, гендерного и иного неравенства и охраны окружающей среды.
  • Справедливость и ценности, в центре которых находится человек. Данный принцип предполагает уважение верховенства права, прав человека и демократических ценностей, а также внедрение в системы ИИ механизмов и мер предосторожности.
  • Прозрачность и объяснимость. Данный принцип включает в себя принятие общих норм, определяющих понятие систем ИИ, доведение до заинтересованных лиц сведений об их взаимодействии с ИИ, сведений о последствиях (результатах) такого взаимодействия и создание возможности для лиц, на которых негативно повлияла работа ИИ, обжаловать результаты такой работы. Для этого необходимо обеспечить понятность факторов и логики, которыми руководствуется ИИ при принятии решений или формулировании рекомендаций.
  • Устойчивость и безопасность. Системы ИИ должны быть устойчивыми и безопасными на протяжении всего жизненного цикла для обеспечения их нормального функционирования как при нормальной эксплуатации, так и в случае неправильной эксплуатации. Необходима отслеживаемость систем ИИ, в том числе в отношении наборов данных, процессов и решений определённой системы. Также необходимо применение риск-подхода по управлению рисками на каждой стадии жизненного цикла ИИ в отношении обеспечения защиты персональных данных и цифровой безопасности.
  • Надежность. Каждое лицо, вовлеченное в создание и обеспечение функционирования систем ИИ, должно обеспечивать их должное функционирование в соответствии с перечисленными выше принципами.

В отношении национальных политик и международного сотрудничества по регулированию искусственного интеллекта ОЭСР рекомендует следующее:

  • Инвестирование в исследования и развитие ИИ. Правительствам рекомендуется рассмотреть возможность долгосрочного инвестирования и поощрения частных инвестиций для продвижения инноваций в сфере искусственного интеллекта, а также в сфере открытых наборов данных, обладающих свойствами репрезентативности и созданных с уважением к тайне частной жизни и защите данных. Такие наборы позволят создать среду для исследований и разработки качественных систем ИИ.
  • Развитие цифровой экосистемы ИИ. Такие экосистемы включают в себя цифровые технологии и инфраструктуру, а также механизмы обмена знаниями об ИИ.
  • Формирование политической среды для ИИ. Государствам рекомендуется создавать правовое регулирование, позволяющее быстро переходить от исследований и разработок к операционной эксплуатации систем ИИ. Также государствам рекомендуется регулярно пересматривать и корректировать политики и правовое регулирование применительно к системам ИИ с целью стимулирования инноваций и конкуренции в сфере ИИ.
  • Создание кадрового потенциала и подготовка к изменениям на рынке труда. Данный принцип предполагает сотрудничество с заинтересованными лицами для создания возможностей по эффективному использованию и взаимодействию с системами ИИ в целях адаптации работников к меняющимся условиям и требованиям рынка труда. Также правительствам следует принимать шаги, в том числе посредством социального диалога, для обеспечения справедливого перехода работников по мере внедрения систем ИИ, в тои числе посредством программ обучения и повышения квалификации работников.
  • Международное сотрудничество по вопросам регулирования ИИ. Государствам, в том числе развивающимся, а также заинтересованным лицам рекомендуется осуществлять активное сотрудничество для продвижения приведенных выше принципов и для развития ответственного регулирования систем ИИ. Государства должны работать вместе на площадке ОЭСР и других международных форумах для развития механизмов обмена знаниями об ИИ, а также продвигать развитие многосторонних, основанных на консенсусе, глобальных стандартов для создания интероперабельных и надежных систем ИИ. Кроме того, государствам рекомендуется поощрять развитие международных метрик для оценки исследований в сфере ИИ, развития и внедрения технологии ИИ, а также для сбора сведений, позволяющих оценить имплементацию данных принципов.