На испытаниях в США беспилотник с ИИ принял решение убить оператора
Полковник ВВС США Такер Гамильтон, начальник подразделения по тестированию и эксплуатации ИИ-систем, рассказал, что во время учений искусственный интеллект использовал «весьма неожиданные стратегии», вплоть до решения уничтожить оператора-человека. В реальности никто, разумеется, не пострадал, но сама ситуация заставила военных задуматься.
Гамильтон привел в пример испытания ИИ-системы, предназначенной для уничтожения зенитно-ракетных комплексов, и получающей баллы за успешно выполненную задачу. Хотя идентификация цели выполнялась автоматически, окончательное решение о нанесении удара оставалось человек. Здесь-то и выяснилось, что ИИ мог принять решение уничтожить управляющего им оператора, если тот отменял приказ на уничтожение и таким образом мешал успешно выполнить задачу, поставленную перед машиной.
Когда это выяснилось, в работу комплекса внесли изменения, запрещающие уничтожать оператора. Однако ИИ и здесь оказался на высоте. Когда оператор отменял приказ на поражение цели, беспилотник принимал решение атаковать вышку связи, через которую получал команды, вступающие в противоречие с боевой задачей.
«Нельзя рассуждать oб искусственном интеллекте, интеллекте, машинном обучении и автономности без рассуждений об этике применительно к ИИ», — подвел итог полковник Гамильтон.