Весьма ответственный искусственный интеллект

Александра Коваль Александра Коваль Директор Клуба Россия-ОЭСР опубликовано в Цифровая экономика
Весьма ответственный искусственный интеллект

За последнее десятилетие быстрый прогресс в области искусственного интеллекта (ИИ) и машинного обучения открыл новые возможности для повышения производительности и экономического роста в различных секторах - от сельского хозяйства до здравоохранения.

ИИ может способствовать значительным улучшениям в области охраны труда и техники безопасности за счет автоматизации опасных задач. Использование ИИ в интеллектуальных сетях, умных городах и подключенных устройствах может помочь сократить выбросы парниковых газов и способствовать адаптации к изменению климата.

Но международное сообщество сегодня обсуждает не только возможности, которые ИИ открывает экономике и обществу, но и риски.

Центр ответственного ведения бизнеса ОЭСР сделал первый шаг на пути к изучению того, как искусственный интеллект (ИИ) может быть ответственным.

ОЭСР признает, что приложения ИИ могут способствовать развитию ответственного ведения бизнеса (ОВБ). Вместе с тем, использование технологии искусственного интеллекта компаниями может приводить к нефинансовым рискам, связанным с нарушением прав человека, прав потребителей, конкуренции и пр.

Перечень стандартов, направленных на минимизацию нефинансовых рисков, определен в Руководстве ОЭСР для МНК по ответственному ведению бизнеса (ОВБ).

Однако сегодня остается много вопросов, как обеспечить соблюдение стандартов ответственного поведения при использовании компаниями ИИ.

Эксперты Центра Россия-ОЭСР РАНХиГС в ходе работы на заседаниях Комитета ОЭСР по политике в области цифровой экономики отмечали необходимость учета стандартов ОВБ в ходе разработки Практического руководства.

О каких же рисках идет речь?

ОЭСР отмечает, что использование ИИ в сфере найма, правоприменения, кредитования и в других областях может привести к дискриминации из-за использования необоснованно необъективных данных или алгоритмов.

Опираясь на все больший объем персональных данных и собирая их, существует риск, что ИИ негативно скажется на конфиденциальности данных пользователей. Возникает большое количество вопросов в отношении определения оператора данных как лица, ответственного за соблюдение законодательства о защите персональных данных в случаях применения ИИ, подходов к определению персональных данных в условиях ИИ, когда алгоритмическая корреляция в ИИ ослабляет различие между персональными данными и данными, которые таковыми не являются.

А использование искусственного интеллекта в автономных системах вооружения может привести к нарушению прав человека на жизнь, личную безопасность и соблюдение процессуальных норм.

ОЭСР определяет систему искусственного интеллекта (ИИ) как машинную систему, которая может для некоторого набора целей, определенных человеком, делать прогнозы, рекомендации или решения, влияющие на реальную или виртуальную среду.

ОЭСР приводит примеры использования ИИ. Всего выделяется 7 различных вариантов использования ИИ, которые могут параллельно существовать в одной и той же системе ИИ.

1. Гиперсонализация использует ИИ для создания профиля человека, а затем для его изучения и адаптации для самых разных целей, включая отображение соответствующего контента в онлайн-поиске, предоставление персонализированных рекомендаций и др. Гиперсонализация часто используется в целевом маркетинге. ОЭСР приводит в пример платформу Netflix, которая предлагает фильмы на основе релевантного контента, который уже посмотрел пользователь. Другой пример гиперперсонализации - это финансы. Традиционные системы кредитного скоринга, которые основываются на баллах кредитоспособности, полученных клиентом в прошлом, заменяются гиперсонализированными системами, которые используют алгоритмы, которые позволяют изучать кредитные истории людей с похожими характеристиками, чтобы получить целевые оценки для отдельного пользователя.

2. Люди и машины взаимодействуют друг с другом посредством разговорного контента с использованием различных методов, включая голосовые, текстовые и графические формы. Например, такие приложения, как Wysa, Joyable и Talkspace, используют чат-ботов, чтобы предоставлять пользователям автоматизированную психиатрическую помощь, а также проводить анализ настроения и намерений. В качестве примеров использования ИИ в данном контексте необходимо назвать цифровых помощников, таких как Siri и Алиса.

3. Приложения, использующие закономерности (pattern) и обнаружение аномалий, выявляют закономерности в данных, чтобы посмотреть, соответствуют ли они существующей закономерности, или они являются аномалией. Например, этот тип ИИ используется правоохранительными органами для выявления финансового мошенничества или отмывания денег.

4. Распознавание использует машинное обучение для идентификации и определения объектов или элементов данных в изображении, видео, аудио, тексте или других преимущественно неструктурированных данных. Этот тип ИИ используется в распознавании лиц для проверки личности, например, при пограничном контроле для отслеживания передвижения людей или для разблокировки смартфона. Он также может быть использован в здравоохранении для анализа состояния кожи и выявления возможных диагнозов.

5. Системы, управляемые целями, используют машинное обучение, чтобы дать компьютерным системам возможность учиться методом проб и ошибок. Варианты использования данного типа ИИ включает в себя торги и аукционы в реальном времени. Этот тип ИИ также был протестирован в играх, например, когда компьютер Deep Blue от компании IBM одержал победу над чемпионом мира по шахматам Гари Каспаровым в 1997 г.

6. Предсказательная аналитика и поддержка принятия решений используются для понимания того, как условия или поведение в прошлом могут помочь предсказать результаты в будущем. Хороший пример – прогноз погоды. С помощью этих алгоритмов люди принимают окончательное решение о том, что делать с предсказаниями системы ИИ. Это называется расширенным интеллектом, которые в отличие от других форм ИИ полностью автономны.

7. Автономные системы - это физические и виртуальные программные и аппаратные системы, которые способны выполнять задачи, достигать цели, взаимодействовать с окружающей средой. Развитие автономных систем требует возможности машинного обучения, что позволяет без дальнейшего взаимодействия с человеком получать информацию о реальной или виртуальной среде, прогнозировать будущее поведение всех элементов в системе и планировать то, как справиться с этими изменениями. Наиболее очевидным примером автономных систем являются беспилотные автомобили.

Особенности системы ИИ, которые связаны с возможностью способствовать принятию решений человеком и автономно вносить изменения, которые влияют на то, как конечный пользователь взаимодействует с продуктом, требует новых подходов к надлежащей проверке прав человека в отношении технологий ИИ.

В отличие от стандартного физического продукта, отношения между производителями, поставщиками, продавцами и потребителями являются линейными. В случае с использованием ИИ - нет. Действительно, остается вопрос о распределении ответственности между различными участниками системы ИИ, которые либо разрабатывают и продают, либо внедряют разные технологии.

ОЭСР определяет участников ИИ как «тех, кто играет активную роль в жизненном цикле системы ИИ, включая компании и отдельных лиц, которые развертывают или эксплуатируют ИИ».

В то время как комплексные меры должной осмотрительности должны охватывать все этапы жизненного цикла продукта, компании получают наибольшее влияние при разработке продуктов с использованием технологий искусственного интеллекта.

ОЭСР полагает, что применение стратегии уважения прав человека позволит разработчикам снизить потенциальные риски применения технологии на каждом этапе.

Проведение процедур должной осмотрительности разработчиками должно предполагать ответы на следующие вопросы:

  • Кто будет использовать продукт и для каких целей?

  • Существует ли вероятность неправильного использования, плохого обращения или недостаточного соблюдения соответствующих правил и стандартов?

  • Есть ли вероятность того, что уязвимые группы будут особенно затронуты использованием технологии?

Проведение процедур должной осмотрительности поставщиками должно предполагать ответы на следующие вопросы:

  • Был ли продукт разработан и создан в соответствии со стандартами ответственного ведения бизнеса?

  • Продается ли продукт напрямую конечному пользователю или другому дистрибьютору?

  • Продается ли продукт на основании соглашения с конечным пользователем? Предполагает ли он обучение ограничениям, которые предусмотрены ИИ?

Конечным пользователем может быть любой субъект (правительство, бизнес, НКО, частные лица). Когда конечные пользователи являются правительственными учреждениями или государственными подрядчиками, особенно в сфере обеспечения национальной безопасности, они представляют более высокий риск использования технологии во вред и требуют более строгой проверки.

Выводы

ОВБ включает в себя все взаимосвязи между бизнесом и обществом, и права человека играют особенно важную роль в контексте ИИ. Использование ИИ может быть связано с различными нарушениями прав человека, включая следующие: право на жизнь, свободу и личную неприкосновенность, свободу ассоциаций и мирных собраний и др.

Вред для общества, связанный с использованием ИИ, может быть результатом деятельности бизнеса или правительства или может быть напрямую связан с его деятельностью. Снизить потенциальные риски на всех этапах развития ИИ может применение должной осмотрительности.

ОЭСР приводит ряд примеров возможного вреда.

Например, методика синтеза изображения (Deepfake video) может применяться для того, чтобы навредить репутации человека и его праву на неприкосновенность частной жизни. Минимизация таких рисков может быть достигнута за счет инвестиций в обнаружение применения технологии.

Существуют риски нарушения прав человека, связанные с использованием алгоритмов социальных сетей в связи с возможной пропагандой разжигания ненависти или распространением ложной информации. ОЭСР считает необходимым проведение обзора рисков при разработке продукта, а также обеспечение транспарентности для конечного пользователя.

Центр Россия-ОЭСР полагает, что для обеспечения соблюдения стандартов ответственного ведения бизнеса в случаях применения ИИ важна проверка не только в отношении соблюдения прав человека, но и в других сферах, которые составляют стандарты ОВБ. В первую очередь в отношении защиты прав потребителей, где существенны риски ценовой дискриминации за счет персонализации ценообразования, использования уязвимых мест потребителей, дискриминации отдельных социальных групп, конкуренции.