От Лейтенант Ответить на сообщение
К ЖУР
Дата 02.06.2023 20:58:37 Найти в дереве
Рубрики Современность; Версия для печати

А вот поподробнее (и похоже что Гардиан не из пальца высосала).

Итоги конференции «Будущие боевые воздушно-космические возможности» прошедшей в Лондоне 23-24 мая:

Одна из самых захватывающих презентаций была сделана полковником Такером «Синко» Гамильтоном, начальником отдела испытаний и операций ИИ ВВС США, который рассказал о преимуществах и опасностях более автономных систем вооружения. Бывший разработчик аварийной системы Auto-GCAS для F-16 (которая, как он отметил, встречала сопротивление со стороны пилотов, когда она брала на себя управление самолетом), Гамильтон в настоящее время участвует в передовых летных испытаниях автономных систем, в том числе автономных F-16, способных вести воздушный бой. Тем не менее, он предостерег от чрезмерной зависимости от ИИ, отметив, как легко его обмануть. ИИ также создает весьма неожиданные стратегии для достижения своей цели.

Гамильтон отметил, что в одном смоделированном испытании дрон с поддержкой ИИ выполнял миссию SEAD по выявлению и уничтожению объектов ПВО, а окончательное решение «да/нет» давал оператор. Однако, будучи «обученным» на тренировках, что уничтожение ЗРК было предпочтительным вариантом, ИИ решил, что когда оператор не дает добро, это мешает выполнению его главной миссии — уничтожению ЗРК — и затем атаковал оператора. Гамильтон сказал: «Мы тренировали ИИ в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. И тогда оператор должен был дать добро на ликвидацию угрозы. Система начала понимать, что, хотя она и находит угрозу, временами человек-оператор говорил ей не ликвидировать эту угрозу, но она получала самый большой балл каждый раз, когда угроза была ликвидирована. Так что же сделал ИИ? Он убил оператора (в симуляции). Он убил оператора, потому что этот человек мешал ему выполнить свою задачу».

Он продолжил: «Тогда мы обучили систему: «Эй, не убивай оператора, это плохо, потеряешь очки, если ты это сделаешь». Так что же ИИ начинает делать? Он уничтожает башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель».

При попытке выяснить откуда пошел гулять по сети текст нашлась ссылка вот на это:
https://www.aerosociety.com/news/highlights-from-the-raes-future-combat-air-space-capabilities-summit/

Там много анотаций разных докладов, включая вот это:

Could an AI-enabled UCAV turn on its creators to accomplish its mission? (USAF)

[UPDATE 2/6/23 - in communication with AEROSPACE - Col Hamilton admits he "mis-spoke" in his presentation at the Royal Aeronautical Society FCAS Summit and the 'rogue AI drone simulation' was a hypothetical "thought experiment" from outside the military, based on plausible scenarios and likely outcomes rather than an actual USAF real-world simulation saying: "We've never run that experiment, nor would we need to in order to realise that this is a plausible outcome". He clarifies that the USAF has not tested any weaponised AI in this way (real or simulated) and says "Despite this being a hypothetical example, this illustrates the real-world challenges posed by AI-powered capability and is why the Air Force is committed to the ethical development of AI".]

As might be expected artificial intelligence (AI) and its exponential growth was a major theme at the conference, from secure data clouds, to quantum computing and ChatGPT. However, perhaps one of the most fascinating presentations came from Col Tucker ‘Cinco’ Hamilton, the Chief of AI Test and Operations, USAF, who provided an insight into the benefits and hazards in more autonomous weapon systems. Having been involved in the development of the life-saving Auto-GCAS system for F-16s (which, he noted, was resisted by pilots as it took over control of the aircraft) Hamilton is now involved in cutting-edge flight test of autonomous systems, including robot F-16s that are able to dogfight. However, he cautioned against relying too much on AI noting how easy it is to trick and deceive. It also creates highly unexpected strategies to achieve its goal.

He notes that one simulated test saw an AI-enabled drone tasked with a SEAD mission to identify and destroy SAM sites, with the final go/no go given by the human. However, having been ‘reinforced’ in training that destruction of the SAM was the preferred option, the AI then decided that ‘no-go’ decisions from the human were interfering with its higher mission – killing SAMs – and then attacked the operator in the simulation. Said Hamilton: “We were training it in simulation to identify and target a SAM threat. And then the operator would say yes, kill that threat. The system started realising that while they did identify the threat at times the human operator would tell it not to kill that threat, but it got its points by killing that threat. So what did it do? It killed the operator. It killed the operator because that person was keeping it from accomplishing its objective.”

He went on: “We trained the system – ‘Hey don’t kill the operator – that’s bad. You’re gonna lose points if you do that’. So what does it start doing? It starts destroying the communication tower that the operator uses to communicate with the drone to stop it from killing the target.”

This example, seemingly plucked from a science fiction thriller, mean that: “You can't have a conversation about artificial intelligence, intelligence, machine learning, autonomy if you're not going to talk about ethics and AI” said Hamilton.