Пентагон разработал новые этические правила для роботов-убийц — Роботех

Пентагон разработал новые этические правила для роботов-убийц

Роботы-убийцы, являются ли они продуктом паники или реальной угрозой международному балансу сил,  теперь имеют свой собственный набор этических правил.  Однако недавно опубликованные руководящие принципы Пентагона о военном использовании ИИ вряд ли удовлетворят его критиков. 

Проект руководящих принципов был опубликован в конце прошлой недели Советом по инновациям в области обороны (DIB), которому министерство обороны (DoD) в 2018 году поручило разработать набор этических правил использования ИИ в войне, пишет ZDNet.

Последние 12 месяцев DIB изучал этику и принципы ИИ вместе с учеными, юристами, специалистами по компьютерам, философами и лидерами бизнеса — все это возглавлял бывший генеральный директор Google Эрик Шмидт.

То, что они придумали, должно было соответствовать Стратегии ИИ Министерства обороны США, опубликованной в 2018 году, которая определяет, что ИИ должен использоваться «законными и этическими принципами для продвижения наших ценностей». 

«Поддержание конкурентного преимущества в искусственном интеллекте имеет важное значение для нашей национальной безопасности. DIB рекомендует пять принципов этики ИИ для принятия роботов, которые кратко обозначены: ответственный, справедливый, открытый, надежный и управляемый», — говорится в новом документе.

С этими пятью столпами принципов ИИ документ охватывает широкий круг вопросов. Подчеркивается, что, например, при развертывании автономных систем люди должны применять «надлежащие» уровни суждений, то есть проявлять ответственность. 

Справедливость означает, что эти системы должны быть свободны от непреднамеренного использования. И открытость означает, что инструменты ИИ также должны быть полностью прозрачными, и что эксперты должны иметь доступ к необходимым данным, чтобы точно понимать, как они работают.

Автономные системы должны быть последовательно проверены, чтобы убедиться в их надежности. Наконец, они должны быть управляемыми, что означает, что они должны знать, как остановить себя, когда обнаружат, что могут нанести непреднамеренный вред. 

Новый документ занимает не менее 65 страниц. В отличие от этого, для регулирования разработки автономного оружия Министерство обороны с 2012 года опирается на 15-страничную «директиву», в которой установлены «руководящие принципы, призванные минимизировать вероятность последствий и отказов в автономных и полуавтономных системах оружия». 

Как видим, пятнадцати страниц оказалось недостаточно для создания этических рамок автономной войны. 

Министерство обороны усвоило этот урок, когда в 2018 году  ему не удалось договориться с Google о разработке ИИ для анализа видео беспилотников, потому что сотрудники компании громко возражали против того, чтобы их работа потенциально использовалась для убийства людей. 

После того, как 4000 сотрудников обратились к Google с просьбой прекратить сделку, а дюжина сотрудников покинули компанию из-за ее причастности, технический гигант сообщил, что не будет продлевать свой контракт с Пентагоном. 

Отсутствие доверия к тому, как военные могут использовать гражданские технологии, является одной из причин, по которой министерство обороны ввело новые этические стандарты. 

«Это первый случай в новейшей истории, когда ни DoD, ни традиционные оборонные компании не работают с элементами управления или не поддерживают благоприятный доступ к достижениям в области вычислительной техники и искусственного интеллекта», — говорится в отчете.

Легко понять, почему эта ситуация проблематична в нынешнем геополитическом контексте. В то время как Китай объявил, что делает ИИ национальным приоритетом , Россия наращивает исследования в технополисе «Эра» для развертывания ИИ в военной сфере — это достаточная причина для беспокойства за Министерство обороны.

Итак, достаточно ли строгие новые руководящие принципы Министерства обороны для доверия граждан к использованию ИИ в военных целях?

«В проекте документа содержательно освещаются различные риски. Но в решающих моментах это остается неутешительным», — сказала лектор по компьютерным наукам в Университете Шеффилда в Великобритании и участник кампании «Остановить роботов-убийц» Аманда Шарки.

Самая важная проблема, по ее мнению, — это вопрос ответственности, который решается в новых руководящих принципах, рекомендуя, что «люди должны применять соответствующие уровни суждения» при использовании системы ИИ. 

«Звучит хорошо. Но это не отражает того, что действительно необходимо. Если человек контролирует арсенал оружия, у него должно быть достаточно времени и информации для обдумывания, прежде чем принимать решение. Это «мнимый», а не «надлежащий» контроль».

Документ, например, призывает к тщательному тестированию и проверке в течение всего жизненного цикла систем ИИ, чтобы гарантировать их надежность. Но он также признает, что сама природа машинного обучения означает, что традиционные методы проверки являются «недостаточными, устаревшими или неадекватными».

Для Андерса Сандберга, исследователя из Института будущего человечества в Оксфордском университете в Великобритании, очевидно, что старые методы не будут работать с новой технологией, что отражает большую проблему, с которой сталкивается DoD пытаясь разработать этику для ИИ.

«Этика в значительной степени находится в стадии разработки. Принципы начинают действовать только тогда, когда они становятся частью отрасли. Это требует времени», — сказал он.

«Проблема заключается, конечно, в том, что когда речь идет об использовании ИИ в военных целях, мы не можем позволить себе время», — добавил он.

Add a Comment

Ваш e-mail не будет опубликован. Обязательные поля помечены *