Искусственный интеллект в боевых роботах

Отдельные наработки из области ИИ давно применяются в «умном» вооружении, однако конечное решение об атаке выбранных целей до сих пор принимал офицер-оператор. Можем ли мы сделать следующий шаг, и научить роботов самостоятельно определять, кого им нужно обстрелять?

Впервые на международном уровне этот вопрос прозвучал в ходе заседания ООН в 2014 году. По терминологии российского МИДа таких боевых роботов называют САС (смертоносные автономные системы). В англоязычных документах они именуются LAWS (lethal autonomous weapons systems).

Искусственный интеллект в боевых роботахИзображение: Seeflection.com

Международный комитет Красного Креста (МККК) описывает САС как летальное оружие с автономным выбором и поражением целей.  Иными словами, это роботы, которые распознают противника и атакуют его по своему усмотрению. Такие уже начинают производить малыми сериями, а десятки новых моделей на стадии прототипов есть у США, Великобритании, Японии, Южной Кореи, Израиля, России, Китая, и бог знает у кого ещё.

МККК волнует соблюдение Женевской конвенции. Есть серьёзные опасения, что системы распознавания не смогут надёжно отличать солдат от мирных жителей, или спутают военный грузовик со школьным автобусом. Однако люди тоже ошибаются, и в отношении них гарантий ещё меньше. Они могут намеренно разбомбить военно-полевой госпиталь, а затем списать всё на случайность. Даже за последние годы десятки гражданских объектов были по ошибке уничтожены как склады с оружием, убежища террористов и прочие мнимые обители зла.

AI вместо ПДУ

В дискуссиях по САС речь идёт о роботах в широком смысле. Сейчас они представлены в основном стационарными автоматическими турелями и мобильными комплексами с пулемётным, либо пушечно-ракетным вооружением.

AI вместо ПДУИспытания сухопутной САС на базе морской пехоты «Кэмп-Пендлтон», Южная Калифорния. Фото: Jeff Gritchen/Associated Press

К примеру, с 2006 года компания Samsung разрабатывает, а с 2015 — выпускает автоматические пулемётные турели SGR-A1 (Security Guard Robot). Они оснащены камерами с эффективной дальностью обнаружения целей от 2 до 4 км в зависимости от размеров и условий освещённости. Несколько SGR-A1 установлены в демилитаризованной зоне на границе с Северной Кореей, глубина которой как раз составляет 4 км.

По сути это испытательный полигон с простыми условиями: каждая цель, похожая на человека, считается нарушителем границы. Расстояние до цели определяется лазерным дальномером. Если цель приблизится на предельно заданную дистанцию, прозвучит голосовое предупреждение. Если в ответ не назовут код отмены, сработает тревога и/или цель будет автоматически обстреляна.

Дистанция поражения и тип реагирования турели определяется оператором при настройке. Также он может вмешаться и перехватить управление в любой момент. Роботизированные пулемёты SGR-A1 выглядят устрашающе, но формально не являются летальным оружием, так как (пока?) заряжаются патронами с резиновыми пулями.

В Катаре и ОАЭ с 2010 года ограничено используется аналогичная система Super aEgis II, вот только это уже не резинострел. Помимо пулемёта калибра 12,7 мм на ней может быть установлен 40-мм автоматический гранатомет. Super aEgis II всегда озвучивает голосовое предупреждение и запрашивает подтверждение оператора прежде, чем открыть огонь. Сейчас эти настройки не могут быть изменены, что соответствует принципу AFS (Autonomous Firing with Safety).

Более грозная и, вдобавок, мобильная система — отечественный «Соратник» концерна «Калашников». На него можно установить крупнокалиберный пулемёт, автоматические гранатомёты или ПТУР. Технически он способен атаковать цели самостоятельно, однако его не планируется использовать в полностью автономном режиме.

Под определение LAWS/САС попадают и прочие системы вооружения, не нуждающиеся в постоянном управлении человеком. Просто добавьте пару крупнокалиберных стволов и пусковые установки на ACTUV, Echo Voyager, или XS-1, чтобы превратить их в полноценные LAWS.

От Tesla к T-800

Нейросети всё лучше справляются с распознаванием объектов и людей. Настолько хорошо, что им уже доверяют управление автомобилями. Параллельно их начинают использовать в системах наведения и целеуказания, но пока не разрешают самостоятельно открывать огонь.

Представители крупных военных компаний агитируют за отмену данного ограничения и лоббируют его через дипломатических представителей своих государств. Напротив, те страны, в которых технический уровень не позволяет выполнять соответствующие разработки, требуют подписать конвенцию о максимально жёстких ограничениях в применении LAWS.

В отчёте Human Rights Watch указывается, что применение САС нарушит положения Гаагской конвенции. Однако постоянные члены ООН, вложившие в передовые системы вооружения уйму средств, не собираются так просто терять инвестиции. Они находят контраргументы, показывающие, что машине можно решать, кому пришла пора умирать.

Профессор кафедры робототехники Технологического института Джорджии Рон Аркин выступает за скорейшее использование AI в LAWS.»Большинство людей не понимают, что эти системы смогут сами решать, когда им НЕ стрелять, даже когда от них этого прямо требует человек», — поясняет он.

Пожалуй, ни один вооружённый конфликт не обходился без «сопутствующего урона» и жертв среди мирного населения. Одних обстреливали случайно, других — преднамеренно. Озлобленные или напуганные солдаты стреляют во всё, что считают угрозой. Робот не ведает ни злости, ни страха. Он не испытывает чувства мести, а просто следует программе. Рон Аркин полагает, что LAWS должны оснащаться ограничителем, препятствующим ведению огня по гражданскому населению, госпиталями и прочим «неэтичным» целям.

Военный аналитик «Известий» Дмитрий Сафонов указывает на другую проблему. Он считает необходимость дистанционного управления основной проблемой всех роботизированных боевых систем. Сегодня ни один робот не может самостоятельно принимать решения на поле боя. Поэтому, если связь с ним нарушена, робот превращается в дорогую мишень и лёгкий трофей.

К тому же, удалённая связь с оператором создаёт задержки в принятии решений. Между обнаружением цели и её поражением проходит несколько секунд, за которые робот может быть уничтожен ответным огнём. Автономность повысит живучесть роботизированных боевых систем и эффективность их применения.

Кто в ответе?

Правозащитники часто вопрошают: «Имеет ли машина право убивать человека?». На мой взгляд, эта философская дискуссия вряд ли имеет практический смысл, поскольку машина всегда будет инструментом. Сложным, автономным, трудно предсказуемым из-за особенностей алгоритмов нейросетей, но всё же — рукотворным устройством, за которым стоят интересы конкретных людей. В конечном счёте, именно они и отвечают за те способы, которыми достигли своих целей — с помощью живых солдат, дрессированных собак или бездушных роботов.

Кто в ответе?изображение: dig.watch

С правовыми нормами при использовании действующих прототипов САС пока всё очевидно. Поставьте на колёсную или гусеничную платформу с компьютером что-нибудь стреляющее — это и будет простейший боевой робот, вроде UGV-RB от китайской компании Norinco. Им можно управлять дистанционно, чтобы самому не попасть под ответный огонь. При этом оператор видит, в кого он собирается стрелять, и несёт персональную ответственность за любые ошибки. Нет никакой разницы, держит ли он в руках автомат, или ПДУ.

Если заменить оператора на AI, то кто станет отвечать за действия робота? Командир подразделения, к которому приписан электронный мозг с пушкой? Его разработчики? Сторонняя фирма, написавшая кривую прошивку?

Дискуссии на эту тему ведутся в ООН с 2014 года. Боевые роботы обсуждаются в рамках КНО — Конвенции о запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие. Россия (как преемница СССР) ратифицировала её в 1983 году.

В декабре 2016 года при ООН была создана группа правительственных экспертов по вопросам регулирования САС. В обсуждении приняли участие представители более 70 стран. Два года дебатов завершились частичной победой сторонников «умных» систем вооружения. Их не запретят, а лишь будут контролировать в рамках КНО.

31 августа 2018 года были сформулированы основные принципы дальнейшей разработки и возможного применения САС в будущем.  Экспертная группа впервые сформулировала чёткое требование: «САС должны оставаться под контролем людей, поскольку ответственность за их применение не может быть возложена на сами машины». Дополнительный пункт четвёртого раздела (h) запрещает делать терминаторов и прочих человекоподобных роботов-убийц. Он гласит, что «смертоносные системы автономного оружия не должны быть антропоморфизированы».

Выводы

Обсуждение САС в ООН продолжится, но это уже не пустая болтовня. Сейчас противники «умных» систем вооружения оказались в меньшинстве и не смогли добиться запрета на их разработку. В России уже создаются мощные роботизированные боевые комплексы. Например, «АНТ-1000Р», «Нерехта», «Вихрь» и «Уран-9». Однако из доклада 3-го Центрального института Минобороны России косвенно следует, что до применения отечественных полностью автономных роботов в боевых условиях пройдёт как минимум десять лет.

Полный текст статьи читайте на Компьютерра