Международный вебинар "Новые приоритеты цифровизации в МММ: Metals, Mining, Minerals", 19 июня 2020, Zoom

19 июня 2020 г. эксперт Центра Россия-ОЭСР РАНХиГС Кирилл Черновол принял участие в интерактивном вебинаре «Новые приоритеты цифровизации в МММ: Metals, Mining, Minerals. Как вырваться вперед в кризис?», проводимом российско-британской компанией «Реденекс» при поддержке французской компании Schneider Electric. На круглом столе в рамках вебинара Кирилл поднял вопрос правовых рисков использования искусственного интеллекта в добывающей промышленности.

Промышленный ИИ в добывающей промышленности работает в рамках управления объектами повышенной опасности (транспорт и промышленное оборудование). Кроме того, ИИ может использоваться для автоматизации рутинных задач, инвестиционного планирования, ведения учета ресурсов, экономического прогнозирования, управления персоналом и т.д. Такое применение создает некоторые правовые риски для компаний, использующих системы ИИ:

1) Вопросы ответственности за ущерб, причиненный объектами под управлением ИИ. В отличие от обычных роботов, не управляемых ИИ, причиной нанесения вреда может быть не только ошибка программирования, при которой ответственность однозначно нёс бы разработчик, но и работа ИИ с некачественными данными, и неправильное обучение алгоритма. В таких ситуациях далеко не всегда очевидно, привела ли к причинению ущерба или убытков ошибка разработчика, интегратора, оператора или кого-то ещё?

2) Вопросы правомерности использования данных. Если ИИ работает с коммерческими и/или персональными данными, возникают такие правовые риски, как нарушение коммерческой тайны, права на неприкосновенность частной жизни, риски цифровой дискриминации, а также нарушения законодательства о конкуренции (например, если ИИ автоматически формирует коммерческие предложения для покупателей).

Следует понимать, что специальное законодательство в сфере ИИ сейчас только начинает формироваться. Поэтому специальных законодательных правил распределения ответственности за ущерб, например, между разработчиком и пользователем ИИ, сейчас нет. В случае возникновения спора, каждой стороне (разработчику, пользователю, иным вовлеченным лицам) придется доказать, что ею были обеспечены достаточные меры в предосторожности в отношении ИИ, чтобы не допустить причинения ущерба.

Как снизить риски ответственности за ущерб, причиненный ИИ, в том числе при использовании коммерческих или персональных данных?

Во-первых, принять политику использования ИИ и обращения с данными в соответствии с международными стандартами. Межгосударственный стандарт обращения с ИИ установлен Рекомендацией ОЭСР по искусственному интеллекту. Недавно также был разработан стандарт ISO/IEC TR 24028:2020 по обеспечению надежности искусственного интеллекта. В настоящее время Техническим комитетом ISO по искусственному интеллекту разрабатываются стандарты по функциональной безопасности систем ИИ, управлению рисками, машинному обучению и т.д.

Во-вторых, создавать внутренние механизмы контроля за ИИ. Такие механизмы должны включать в себя определение ответственных лиц за обучение и эксплуатацию ИИ на всех этапах жизненного цикла системы, процедуры мониторинга обучения ИИ и регулярных проверок качества используемых ИИ данных и драйверов принятия решений алгоритмом. Такие проверки должны фиксироваться, по их результатам работа алгоритма может корректироваться для того, чтобы не допустить причинения ущерба.

В-третьих, распределять ответственность в договорах с подрядчиками на разработку и обслуживание систем ИИ. Снижению рисков будет способствовать четкое разграничение момента, в который за действия ИИ начинает отвечать пользователь, для которого внешний подрядчик разработал системы.

Конечно, перечисленные пункты – далеко не исчерпывающие, решения по снижению правовых рисков зависят от конкретных ситуаций применения ИИ и от особенностей законодательства (которое пока находится в зачаточном состоянии!). Но некоторую подготовительную работу можно проводить уже сейчас, и это облегчит обеспечение комплаенса в будущем.