ИИ - это надежность

Кирилл Черновол Кирилл Черновол Эксперт Центра Россия-ОЭСР опубликовано Инновации
ИИ - это надежность

Международная повестка регулирования искусственного интеллекта переходит от обсуждений и общих принципов к внедрению более конкретных правил. ОЭСР отмечает, что сегодня существует множество инструментов и методов для облегчения реализации принципов, заложенных Рекомендацией ОЭСР по искусственному интеллекту. Они адресованы всем, кто играет активную роль в жизненном цикле системы ИИ, включая организации и отдельных лиц, которые разрабатывают или используют ИИ. Однако информация об этих инструментах обрывочна, ее трудно найти и зачастую она не связана с более широкими обсуждениями международной политики. Поэтому ОЭСР разработала руководство по инструментам и практикам обеспечения надежности систем искусственного интеллекта, с помощью которого страны, компании и эксперты могут проще и быстрее сориентироваться в существующих инструментах и практиках и формировать собственное регулирование, направленное на создание надежных систем ИИ.

Что такое "надежный ИИ"?

ОЭСР определяет, что системы искусственного интеллекта должны в своей работе быть ориентированы на интересы людей в целом (не отдельных лиц или групп в ущерб другим), защиту их прав и законных интересов. В работе ИИ не должны допускаться дискриминация, нарушения в сфере защиты персональных данных, конкуренции, прав потребителей, работа ИИ должна быть прозрачной и объяснимой, в том числе для простого пользователя, а ещё человек должен иметь возможность (когда это выполнимо) выбирать, будет ли он взаимодействовать с ИИ или нет.

Такие, казалось бы, банальные вещи, в современном мире зачастую не обеспечиваются. Например, взаимодействуя с голосовыми помощниками, большинство пользователей в мире даже не задумываются, записываются ли их голосовые команды, передаются ли куда-то, как помощник обрабатывает и хранит ли где-то голос пользователя, для каких целей эти и другие данные о человеке могут использоваться, можно ли отказаться от обработки данных алгоритмом и т.д. Использование искусственного интеллекта сегодня - это зачастую "черный ящик" для пользователя, невозможно понять извне, как работает программа, на каком основании принимает решения, что делает с данными. Это, с одной стороны, порождает недоверие к технологии со стороны пользователей, а с другой - дает простор для недобросовестного поведения компаний.

Что предлагают страны и ОЭСР?

ОЭСР делит существующие инструменты для формирования надежного ИИ на технические, процедурные и образовательные.

Технические инструменты для надежного ИИ нацелены на решение конкретных проблем, связанных с ИИ, с технической точки зрения, включая обнаружение предвзятости, прозрачность и объяснимость систем ИИ, производительность, надежность, безопасность и защищенность от атак (стандарты, сертификаты, инструменты разработки, поддержки и валидации продуктов). Значительная часть существующих технических инструментов разработана крупными частными компаниями, такими как IBM, Google и Microsoft. Многие из этих инструментов для разработки и использования надежного ИИ существуют в виде ресурсов с открытым исходным кодом, что облегчает их внедрение и делает возможным краудсорсинг решений для устранения ошибок программного обеспечения (благодаря открытому коду третьи лица могут, например, самостоятельно дорабатывать и совершенствовать ПО, а также выявлять и устранять ошибки).

Процедурные инструменты - это операционные или связанные с процессами рекомендации по внедрению (руководства, инструменты по управлению рисками, отраслевые кодексы поведения и др.). Процедурные инструменты для этичного внедрения систем ИИ разрабатываются более широким кругом заинтересованных сторон, включая правительства и профсоюзы. Например, такие инструменты разработаны Конфедерацией профсоюзов Германии, Управлением по делам бизнеса в Дании, Управлением Комиссара по информации в Великобритании. Некоторые процедурные инструменты для обеспечения прозрачности и объяснимости подчеркивают важность документирования разработки и развертывания систем ИИ и предлагают структуры управления для их реализации.

Образовательные инструменты включают в себя механизмы для повышения осведомленности, информирования, подготовки или повышения квалификации заинтересованных сторон, участвующих или затронутых внедрением системы ИИ (меры по повышению осведомленности о работе ИИ, руководства по дизайну, программы по обучению). В зависимости от контекста реализации образовательные инструменты предназначены для разных аудиторий. Они могут быть широко распространенными и открытыми для широкой публики или сосредоточены на конкретной группе, на которую влияет внедрение системы ИИ, например, на малых и средних предприятиях.

При помощи руководства ОЭСР можно анализировать и оценивать инструменты по обеспечению надежного ИИ, в том числе чтобы на их основе создавать собственные инструменты и политики. Оцениваются они по 6 критериям, внутри каждого есть ряд подкритериев: происхождение инструмента, категория (технический /процедурный /образовательный) и тип, масштаб применения, соответствие Принципам ИИ, потенциал для внедрения и стимулы к имплементации.

Чем это полезно?

Сегодня нет универсального способа проанализировать инструменты по этике ИИ, нет (по крайней мере, в публичном доступе) и структурированных исследований таких инструментов. Теперь, если регулятор или компания соберутся разработать собственные инструменты для обеспечения надежного ИИ, они смогут оценить, всё ли учтено с точки зрения международных стандартов, и сопоставить свои инструменты с уже существующими на основе критериев ОЭСР.