Искусственный интеллект в военных задачах

Война — это продолжение политики в случаях, когда других средств не остаётся, объяснил военный теоретик Карл Клаузевиц еще в 1812 году, акт военной силы, «чтобы заставить противника выполнить нашу волю», где политическая убедительность больше не работает.
Или, кратко и мрачно, с военным историком Мартином ван Кревельдом: «Война убивает».

Вот почему война была официально запрещена международным сообществом — и это было уже после 1928 года Пактом Бриана Келлогга. Это предусмотрительное решение, как мы знаем сегодня, не дало требуемого результата. Тем не менее, после Второй мировой войны Организация Объединенных Наций быстро начала новую жизнь. С тех пор действует запрет на насилие; в случае межгосударственных конфликтов только Совет Безопасности ООН обладает монополией на власть. Только защита от вооруженного нападения оправдывает применение военной силы. Войны и нападения никогда не допускаются. Вооруженная оборона допустима, если она соответствует требованиям международного права и осуществляется только с помощью необходимого оружия.

Однако те, кто оглядывается на последние несколько лет, сомневаются в возможности применения таких соглашений. Возможно ли в дальнейшем регулировать войны? Возникает также вопрос о том, не являются ли эти правила устаревшими: явно не охвачены военные действия против негосударственных субъектов, таких как террористы, а также войны под руководством государства, имеющие международное, трансграничное значение, такие как сирийская война. Как мировые сообщества могли остановить или сдержать военные конфликты? Где есть предел, который мы бы никогда не хотели пересекать?

Обсуждение этих вопросов носит не академический характер, а ведется интенсивно и под давлением горькой реальности: на форумах по разоружению, в группах ООН и в коалиционном соглашении федерального правительства, среди международных юристов, военных, исследователей в области безопасности — и таких технологов, как исследователи искусственного интеллекта.Ожидается, что последние также будут работать над новыми военными технологиями .

Таким образом, мутация войн вследствие технического прогресса, согласно «автономным системам оружия» (AWS), которые уже широко распространены в противовоздушной обороне, в настоящее время созревают «смертоносные автономные системы оружия» (LAWS). «Война убивает» — даже если это машина, которая решает, должен ли человек быть убитым. Для этого, а также в связи с проблемой глобальных угроз безопасности и государственной обязанности защищать демократию и права человека, исследователи ИИ требуют правил и стандартов.

Оружие с осуждением

Это развитие было непредсказуемым, потому что никогда не было новой технологии оружия, которая потребовала бы в чрезвычайной ситуации меньше солдат, чем войнах предыдущих поколений. В будущем, как полагает аналитический центр НАТО GLOBSEC, возможны «гипер-войны»: битвы, в которых искусственный интеллект является решающим для битвы; автоматические или автономные системы с возможностью владения восприятием, знаниями и самоорганизацией. В отличие от утопии «поля битвы без воина», человек в этом случае не будет полностью заменен машинами — он умрет от точного, эффективного и бесчувственного эффекта «когнитивных систем оружия».

«Ситуация в мире сегодня так же опасна, как и после распада Советского Союза»(Вольфганг Ишингер)

Некоторые страны уже имеют (частично) автономные системы когнитивного оружия. Россия заявляет о создании роботизированной армии и предполагает, что она будет действовать полностью автономно на поле боя рядом с солдатами. США работают над системами, предназначенными для повышения боеспособности человеческих солдат — летальности, как называют военные. Китай идет еще дальше и стремится к «исключительности» на поле боя, которая, как описывает военный аналитик и советник по вопросам безопасности Эльза Б. Кания, «оказывает превосходство на когнитивные машины, на принуждение людей».

Европа, по словам экс-министра иностранных дел Зигмара Габриэля «вегетарианцы среди плотоядных», вместо этого считает мир ценностью: в Европе исследования в области искусственного интеллекта нацелены исключительно на повышение конкурентоспособности в мировой торговле. Ведь тот, кто покупает, утверждает уже Иммануил Кант, не стреляет. Геостратегическая значимость новых технологий, особенно искусственного интеллекта, в большинстве случаев молчит, она не говорит публично. Германия, в частности, желает, чтобы искусственно используемая военная разведка могла быть сведена к побочному результату исследовательской деятельности науки и промышленности. Однако одни пожелания не помогут там, где отсутствуют глобальные правовые рамки.

Беспомощность закона

На самом деле сомнительно, является ли закон эффективным инструментом против идей военных держав. Это особенно верно в случае международного права, которое объявляет себя ответственным за системы когнитивного оружия, но также не имеет здесь никаких положений.

В конце концов, согласно действующему международному праву, государствам не разрешается создавать новые системы вооружения «просто так». Статья 36 Дополнительного протокола от 8 июня 1977 года к Женевским конвенциям о защите жертв международных вооруженных конфликтов от 12 августа 1949 года уже предусматривает появление новых систем вооружений, поскольку она предлагает государствам рассмотреть вопрос о том, не следует ли априори использовать новое оружие или метод. должно быть запрещено. Это предполагает, что государства уважают права человека.


«Быть ​​убитым машиной — величайшее человеческое унижение»(Роберт Х. Латифф)

Генерал-майор в отставке Роберт Х. Латифф — как американец, который всегда сталкивался с дилеммой глобального технологического лидерства, включая самые передовые системы вооружений и требование защищать права человека как основу управления США, — выразил это уважение к достоинству: «Быть ​​убитым машиной — это величайшее человеческое унижение» (быть убитым машиной — акт высшей недостойности — дословно). Окончательная ответственность за убийство всегда должна быть взята на себя человеком.

Но, по мнению некоторых международных юристов, в современном международном праве нет абсолютно ничего такого, как, например, председатель Программы безопасности и правосудия в «Женевском центре политики безопасности» Тобиас Вестнер, в ней даже нет духа идеи. Человек может убить другого человека. Пожалуй, даже сегодня люди после создания системы оружия, такой как ракеты или ядерные бомбы, часто не осознают всех последствий применения.

Неудачные переговоры по разоружению в Женеве

Правильным местом для переговоров по международно-правовому остракизму является международная Женева. В городе проводятся национальные организации, в том числе Постоянная конференция по разоружению. Здесь переговоры о ЗАКОНАХ, то есть о смертельных автономных системах оружия, велись до августа 2018 года, но вовсе не с успехом, на который надеялось гражданское общество, потому что было невозможно изгнать его. Причина: расщепление волос. Государства не могли договориться о различии между «автоматическим» и «автономным».

К обсуждению также относится отношение федерального правительства Германии: нельзя запрещать то, чего не существует. И ЗАКОНОВ не существует, не будет и не должно быть: в конце концов, их «цепочка убийств» человеческого контроля полностью лишена — все, от выбора цели, ее местоположения, идентификации, мониторинга и преследования до определения приоритетов целей и задач адаптация системы действий к «нейтрализации» целей и всех задач и действий, которые следует за такой операцией. В настоящее время переговоры по законам закончились без окончательного документа.

Отношение Германии также может исходить из политико-тактических соображений, но оно нереально. Кроме того: в связи с сужением пространства для дискуссий из-за того, что «ЗАКОНОВ не существует и никогда не будет существовать», граждане Германии лишаются права сопровождать разработку оружия демократическими дебатами и анализировать реалистичные сценарии угроз. Вы заставляете ее потерять дар речи, так сказать. Но на уровне безмолвия уже нельзя спорить. Лучше пойти вместе с Уинстоном Черчиллем: «Все, чему меня учили и что я принимал, как невозможное, произошло», и это тоже якобы обсуждая невозможное и находя способ с этим справиться.

Ответственность отдельного ученого

Там, где невозможно делегировать ответственность учреждениям и организациям, закону или политике, остается, как и всегда, ответственность: дело каждого человека, отдельного управляющего промышленностью, отдельного ученого, отдельного человека. Тогда возникает новый вопрос: как далеко может продвинуться этот человек, как далеко я могу уйти, если я создаю когнитивные машины — от машины с автоматическим управлением до независимого оружия?

На этот вопрос, как правило, трудно дать простой ответ. Для разработки систем когнитивного оружия возникают этические и правовые проблемы, которые могут одолеть ученых, которые исследуют новые технологии. В то время как они могут пытаться сформулировать возможные ответы на математическом языке описания и втиснуть как международное право, так и этические принципы в «этику по замыслу» в программный код, консультанты по этике и юристы должны сначала подготовить статью о правовых и национальных принципах. Соответственно, по крайней мере, минимальное требование должно заключаться в том, чтобы привлекать специалистов по этике и юристов с самого начала и в качестве постоянных компаньонов, где должны разрабатываться системы когнитивного оружия, и размещать их в рамках закона и социального духа .

Может быть обнадеживающим, что наша заинтересованность, кажется, приносит реальные плоды. Например, в Европе это можно увидеть в оборонных проектах, таких как Future Combat Air System (FCAS) — система воздушного боя будущего, для которой министерства обороны Германии и Франции заказали концептуальное исследование в Airbus Defense and Space и Dassault Aviation в начале 2019 года. В нем говорится: «Представители различных слоев общества [будут] сопровождать технологическое развитие FCAS с точки зрения этических и международных правовых аспектов».

И даже министерство обороны США услышало выстрел и открыто работает над этическими принципами защиты в цифровую эпоху. Не совсем бескорыстно: Министерство обороны знает, что это зависит от помощи частных технологических гигантов, особенно из Силиконовой долины. Никто не хочет быть там держателем защиты, и ученые открыто дистанцируются от использования интеллектуальных технологий в современных системах оружия . Если они четко устанавливают границы систем когнитивного оружия, министерства обороны считают, что одно или другое, возможно, захотят сотрудничать.

Срочная необходимость в переговорах по разоружению

Остается вопрос, являются ли эти подходы достаточными. Возможно, они помогут гарантировать, что искусственный интеллект, высокая степень автоматизации или автономность в системах когнитивного оружия используются только там, где они имеют смысл, уместны и юридически и этически оправданы. Как бороться на поле битвы в будущем, но, конечно, не может быть оставлено исключительно на ответственность, добрую волю или сердце программистов, исследователей и менеджеров.

В конце концов, другие страны, особенно те, для которых права человека не так важны, как права для демократически созданных государств, имеют меньше оговорок в отношении модернизации с помощью систем когнитивного оружия. Поэтому политики также должны сделать все возможное, чтобы связать границы систем когнитивного оружия в соответствии с международным правом. Этические комитеты не могут заменить демократические действия общества. Профессиональные политики не должны злоупотреблять ими, чтобы перенести необходимые демократические дебаты в заднюю комнату.

Политик получил от нас на выборах власть и мандат на формирование общества по суверенному закону. Самым сильным оружием демократии является законодательство. Поэтому гражданское общество не может не попросить правительства установить глобально обязательные стандарты для систем когнитивного оружия и заключить соответствующие международные соглашения. Переговоры по разоружению должны вестись более интенсивно, в течение более длительного периода времени и с большей доброжелательностью. Сегодня едва ли осталось время. Но никто из нас не хочет испытать, даже представить, как это могло бы быть, нам скоро пришлось бы делить землю с системами когнитивного оружия.

Leave a comment

Your email address will not be published. Required fields are marked *