Илья Плеханов, для РИА Новости
Использование искусственного интеллекта для ведения боевых действий — дело очень перспективное, но в то же время крайне опасное. Оценку возможностей и рисков в этой сфере провели авторы новой электронной книги, выпущенной американским онлайн-изданием Defense One.
На повестке дня
Тема становится все более "горячей" и обсуждается на высшем уровне. Замминистра обороны США Боб Ворк в 2014 году опубликовал написанную в соавторстве монографию "20YY: подготовка к войне в эпоху роботов". В 2015 году Научный совет Министерства обороны США выпустил подробный доклад об автономности военных систем и рекомендовал создать в будущем американскую скрытую глобальную киберинфраструктуру, которая могла бы автономно в режиме реального времени "срывать" атаки противника. В 2016 году DARPA на конференции хакеров в Лас-Вегасе провела конкурс по автономной кибербезопасности.
Сегодня в мире, по оценке авторов публикации, существует 284 военные системы, которые в той или иной мере включают в себя искусственный интеллект.
Основные разработки сегодня ведутся в области создания систем, которые бы автономно определяли противника, сверяясь с "библиотекой целей". Упор сделан на системах, которые могли бы не просто наносить удары по слабо вооруженным врагам в Ираке или Афганистане, но и оперировать противникам с развитыми средствами радиоэлектронной борьбы.
Гони человека и угрызения совести
Патрик Такер, один из авторов книги Defense One, и профессор Денверского университета Хизер Рофф отмечают, что, несмотря на привычную риторику Пентагона, ИИ-системы сегодня используются не для того, чтобы помогать человеку принимать лучшие решения быстрее, а чтобы полностью исключить человека из сферы принятия решений.
На поле боя будущего будет побеждать та система, которая принимает решения быстрее. В этом плане человек становится слабым и медленным звеном в цепочке командования — соответственно, у противника всегда будет искушение создать полностью автономную систему.
Уильям Ропер, глава управления стратегических возможностей (Strategic Capabilities Office, SCO) Пентагона, сравнивает ситуацию с высокочастотным трейдингом — только в военной сфере. Эта перспектива пугает его, так как противники США "без угрызений совести" постараются исключить человеческий фактор из своих военных ИИ-систем.
ВВС и ВМС: кто быстрее и умнее?
Любопытно, что автономные ИИ-системы, возможно, будут внедряться на флоте быстрее, чем в воздушных силах.
Флот же без лишней шумихи и внимания общественности — по крайней мере, пока — может спокойно сосредоточиться над созданием своих систем. На флоте среди прочего работают над технологиями управления беспилотными катерами и, в перспективе, другими военными машинами.
Речь идет о портативном устройстве CARACaS (Контрольная архитектура для робокоманд и воспринимания), которое может быть установлено практически на любой катер.
С помощью устройств размером с ладонь в будущем практически любое существующее военное средство (катер, машина, самолет) можно будет дешево и быстро превращать в члена автоматизированного роя, отметил бывший глава военно-морских исследований американского флота контр-адмирал Мэтью Кландер.
Директор DARPA доктор Арати Прабхакар в прошлом году рассказала о проекте по борьбе с программируемыми радарами России (упоминается "Небо-М") и Китая: "Одна из наших программ в DARPA использует совершенно новый подход к этой проблеме, которую мы собираемся разрешить с помощью когнитивного электронного вооружения. Мы используем искусственный интеллект для изучения действий вражеского радара в режиме реального времени, а затем создаем новый метод глушения сигнала. Весь процесс восприятия, изучения и адаптации повторяется без перерыва".
Риски не пугают
Риски же критики обычно сводят к пяти вопросам: кто контролирует ИИ-систему? можно ли ее хакнуть? кто принимает решение о нанесении удара? будет ли система ошибаться? кто понесет ответственность за ошибки?
Первый вопрос еще можно сформулировать так: не захватят ли военные роботы власть над человечеством? В обозримом будущем вероятность такого сценария ничтожно мала.
Хакнуть машину, которая сама конфигуририует свои алгоритмы, — маловероятно.
Нужен ли человек для финального решения? Там, где важна скорость, человек становится обузой. ИИ-система может быть вооружена нелетальным оружием, критерии применения оружия без команды человека могут быть строго прописаны.
Ошибки? Люди совершают гораздо больше ошибок. ИИ-система, возможно, совершит ошибку, а человек это сделает наверняка.
Главная опасность в том, что многочисленные ИИ-системы могут одновременно сделать одну и ту же ошибку. Например, запускающие праздничный фейерверк люди будут определены ИИ-системой как террористы. Но это уже вопрос тестирования и обучения системы до надлежащего уровня.
Ясно одно: риски пока не перевешивают выгоду, работы над созданием военных ИИ-систем будут только набирать обороты.
"Автономные системы, в отличие от своих аналогов, управляемых человеком, характеризуются иными свойствами и смогут изменить не только способ развертывания войск США по всему миру, но и отношение политиков к применению данного вида систем вооружения. Перед вооруженными силами США открываются огромные возможности в будущем, если политики сделают правильный выбор. Существует большая опасность, что неправильные решения и недостаточное понимание новых тенденций приведет вооруженные силы США к ненужным рискам", — резюмирует Боб Ворк.