Искусственный интеллект (ИИ ) продолжает развиваться как преобразующая сила во многих сферах жизни, уже начиная производить революцию в отраслях и меняя образ жизни и работы. Тема использования ИИ в войне потребует повышенного внимания со стороны правительств, политиков и международных организаций. Во многом это связано со значительными достижениями в разработке автономных систем вооружения (AWS), которые используют алгоритмы для работы независимо и без человеческого контроля на поле боя. В более широком смысле, искусственный интеллект во многих его формах потенциально может улучшить широкий спектр военной деятельности, от робототехники и вооружения до сбора разведывательной информации и принятия решений.
Такое разнообразие потенциальных применений порождает уникальный набор этических дилемм. Преимущества ИИ в войне — это повышенная точность, снижение человеческих жертв и даже сдерживание от вступления в вооруженный конфликт, в первую очередь сродни угрозе ядерной войны. Однако это означало бы предоставление машинам возможности принимать осознанные решения о жизни и смерти, размытие границ ответственности и, возможно, нарушение основополагающих принципов морали в войне.
Как отмечает Стокгольмский международный институт исследования проблем мира, ИИ стал важной частью военных стратегий и бюджетов, способствуя более широкой «гонке вооружений»[1]. Поэтому в сочетании с ядерными и атомными угрозами геополитика должна подвергнуть сомнению этику продолжающегося использования технологий в качестве оружия. Некоторые полагают, что эти достижения в конечном итоге приведут к тому, что в мировой политике будет доминировать мышление с нулевой суммой. Эта логика не нова; Альфред Нобель надеялся, что разрушительная сила динамита положит конец всем войнам[2].
ИИ уже начал внедряться в военные технологии, например, в рои дронов, управляемые ракеты и логистический анализ. Автономные системы уже давно стали частью оборонительного вооружения, например, противотранспортные и противопехотные мины. Будущие разработки будут продолжать стремиться к повышению уровня автономии. США тестируют ботов с искусственным интеллектом, которые могут самостоятельно управлять модифицированной версией истребителя F-16; Россия испытывает автономные танки; Китай также разрабатывает собственное оружие на основе искусственного интеллекта[3].
Цель состоит в том, чтобы защитить человеческую жизнь, продолжая механизировать и автоматизировать поля сражений. «Я легко могу представить себе будущее, в котором дроны значительно превзойдут количество людей в вооруженных силах[3]», — сказал Дуглас Шоу, старший советник Инициативы по борьбе с ядерной угрозой. Таким образом, вместо того, чтобы размещать солдат на земле, мы спасали жизни, помещая их в самолеты и вооружая ракетами. Теперь, благодаря ИИ, военные надеются спасти от его сил еще больше человеческих жизней.
Пока это звучит великолепно. Спасайте жизни, используя ИИ для управления дронами. Спасайте жизни, используя ИИ для запуска ракет. Разница между этим технологическим скачком в войне и прошлыми инновациями заключается в отсутствии человеческого участия в принятии решений. С помощью AWS и летальных автономных систем вооружения (LAWS) мы передаем возможность убить человека алгоритму, который не обладает интуитивной человечностью.
Здесь возникает ряд этических, моральных и юридических проблем.
Справедливо ли, что человеческая жизнь должна быть отнята на войне без другого человека на другой стороне этого действия? Имеет ли программист алгоритма в LAWS ту же ответственность за представление своей страны, что и летчик-истребитель, и/или такое же право внести свой вклад в убийство врага?
Как и в случае с этическими дилеммами, связанными с автономными транспортными средствами[4], является ли морально оправданным делегировать принятие решений о жизни и смерти алгоритмам на базе искусственного интеллекта? С технологической точки зрения это будет частично зависеть от прозрачности программирования AWS: обучения, используемых наборов данных, закодированных предпочтений и ошибок, таких как предвзятость, в этих моделях. Даже если мы достигнем адекватного уровня точности и прозрачности, следует ли считать AWS и LAWS моральными в войне?
Теория справедливой войны, приписываемая святому Августину и Фоме Аквинскому в 13 веке[5], оценивает мораль войны и этическое принятие решений в вооруженном конфликте. В руководящих принципах jus ad bellum (справедливость войны) и jus in bello (справедливость на войне) наиболее важными соображениями являются:
Можно утверждать, что использование оружия на основе искусственного интеллекта и ЗАКОН не гарантирует соблюдения этих конвенций.
Что касается пропорциональности, то оружие, поддерживаемое искусственным интеллектом, будет обладать способностью применять силу с большей скоростью, мощностью и точностью, чем когда-либо прежде. Будет ли этот уровень силы обязательно соответствовать создаваемой угрозе/военной цели, особенно если он будет использоваться против страны с менее технологичным вооружением? Аналогично, что, если LAWS получит ошибочную информацию или у него возникнут галлюцинации, и он сделает неточный прогноз? Это может привести к формированию и применению ненужной военной силы и непропорциональным действиям.
Что касается дискриминации, эти технологии не являются на 100% точными. Что произойдет, если технологии распознавания лиц[6] не смогут отличить мирных жителей от комбатантов при запуске ракеты по вражеским силам? Это подорвало бы моральное различие между законными военными целями и невинными свидетелями.
Группа экспертов ООН сообщила о возможном использовании ЗРК - STM Kargu-2 - в Ливии в 2020 году, развернутого турецкими военными против сил Хафтара (HAF)[7]. Описываемые как «запрограммированные на атаку целей без необходимости передачи данных между оператором и боеприпасом» [8], дроны в конечном итоге были нейтрализованы с помощью электронных помех. Однако использование этой дистанционной воздушной технологии изменило ход того, что ранее было «конфликтом низкой интенсивности и низким уровнем технологий, в котором предотвращение потерь и защита сил были приоритетом для обеих сторон» [7].
Несмотря на значительные жертвы, неясно, стали ли беспилотные ударные дроны причиной каких-либо жертв[8]. Тем не менее, в нем освещаются проблемы, связанные с нерегулируемым беспилотным использованием боевых летательных аппаратов и дронов.
Подразделения HAF не были обучены защищаться от этой формы нападения, не имели защиты от воздушных атак (которые происходили, несмотря на то, что дроны были отключены от сети), и даже при отступлении продолжали подвергаться преследованиям со стороны LAWS. Уже одно это начинает нарушать принцип соразмерности, а тем более, если учесть, что СТМ «Каргу-2» изменили динамику конфликта. Сообщения заходят настолько далеко, что предполагают, что «применение Турцией передовых военных технологий в конфликте стало решающим элементом в… неравномерной войне на истощение, которая привела к разгрому ВВС на западе Ливии в 2020 году»[7].
С 2018 года Генеральный секретарь ООН Антониу Гутерриш утверждает, что ЗАКОНЫ неприемлемы как с политической, так и с моральной точки зрения[9]. В своей «Новой повестке дня для мира на 2023 год» Гутерриш призвал к тому, чтобы это было официально оформлено и реализовано к 2026 году. все остальные AWS.
Этот тип международного сотрудничества и регулирования будет необходим, чтобы помочь преодолеть этические проблемы, которые мы обсуждали. На данный момент использование AWS без контроля со стороны человека вызовет самые неотложные проблемы. Отсутствие человека, принимающего решения, создает проблемы ответственности. Без цепочки командования, кто возьмет на себя ответственность за неисправность или общую ошибочность системы на базе ИИ?
Более того, это приведет к отсутствию ответственности. Особенно в традиционных войнах, где существуют определенные моральные принципы, такие как теория справедливой войны, здесь не будет виновных в действиях, предпринятых автономными системами.
Наконец, несмотря на то, что все более широкое применение ИИ в военных целях имеет преимущества, то, как эти технологии в конечном итоге будут использоваться, определит, станет ли это утопическим решением или распространением и без того политически дестабилизирующей гонки вооружений.
Таким образом, продолжающаяся дискуссия вокруг международных, юридически обязательных рамок обеспечения подотчетности в войнах с использованием ИИ, возможно, станет одной из наиболее важных областей регулирования ИИ в ближайшем будущем.