Милитари - хит сезона!

Кирилл Черновол Кирилл Черновол Эксперт Центра Россия-ОЭСР опубликовано Инновации · Научно-технологическая политика
Милитари - хит сезона!

24 февраля Минобороны США объявило о принятии принципов этичного использования искусственного интеллекта. Отмечается, что такие принципы будут строиться на существующей политике военной этики США. Поскольку нынешняя политика предполагает технологически нейтральный подход к этическому поведению, применение ИИ поднимает принципиально новые неоднозначные вопросы и риски в военной этике. Данные принципы призваны решить такие вопросы и обеспечить ответственное использование ИИ министерством.

Военное ведомство США подчёркивает, что принятые принципы будут применимы как к военным, так и к невоенным функциям вооруженных сил США. Принципы ИИ охватывают пять сфер:

  1. Ответственность. Служащие Минобороны будут проявлять должный уровень здравомыслия и добросовестности. Ответственность за разработку, запуск и использование возможностей ИИ.

  2. Справедливость. Минобороны будет принимать активные действия по минимизации ненамеренной предвзятости ИИ.

  3. Отслеживаемость. Функции ИИ Минобороны будут развиваться и запускаться только при наличии у соответствующего персонала необходимого понимания технологии, процессов развития и операционных методов, применимых к возможностям ИИ, включая прозрачные и проверяемые методологии, источники данных, процедуры и документацию по разработке.

  4. Надёжность. Функционал ИИ Минобороны будет иметь очевидные, определённые способы применения. Безопасность, надежность и эффективность функций ИИ будут проверяться с учетом определённых целей на протяжении всего жизненного цикла этих функций.

  5. Управляемость. Минобороны разрабатывает функции ИИ, сохраняя возможность обнаруживать и предотвращать нежелательные последствия от использования ИИ, а также возможность остановить или деактивировать запущенные системы, если те показывают нежелательное поведение.

В настоящее время очевидна тенденция к милитаризации ИИ. ОЭСР признаёт обширные возможности использования ИИ в целях обороны, хотя, конечно, не выражает поддержки такому использованию. Совет ЕС по международным отношениям отмечает, что исследования военного применения ИИ сосредоточены в США, Китае и (до определённой степени) в России. При этом принципиальная позиция стран Европы о недопустимости использования ИИ в военных целях и необходимость развития более технологии на благо общества и экономики, в прошлом считавшаяся едва ли не единственно правильной, сейчас называется недостатком политики ЕС, угрожающим его безопасности и цифровому суверенитету.

Такой своеобразный сдвиг "окна Овертона" в обсуждении применения ИИ свидетельствует о том, что в будущем его военное применение будет только расширяться. Такие попытки предпринимались ещё в 60-е годы XX века и привели к так называемой "зиме искусственного интеллекта" из-за недостаточной развитости как самой технологии, так и технических возможностей для её использования в то время.