От 13 Ответить на сообщение
К All
Дата 05.06.2024 19:17:29 Найти в дереве
Рубрики Современность; Спецслужбы; Локальные конфликты; Евреи и Израиль; Версия для печати

Боевое применение ИИ-систем Израилем в секторе Газа: этические проблемы

Краткая версия статьи:
Целенаправленная политика по развитию в Израиле технологий искусственного интеллекта (ИИ) ведется давно. Уже в 2010 г. израильский премьер-министр Биньямин Нетаньяху назначил генерал-майора (в отставке) и по совместительству профессора Тель-Авивского университета Исаака Бен-Исраэля руководителем национального кибернетического проекта.

В феврале 2023 г. с участием более 60 стран в Гааге прошла первая международная конференция по ответственному использованию искусственного интеллекта в военной области REAIM, созванная по инициативе Нидерландов и Южной Кореи. По итогам саммита его участники подписали петицию о том, что представляемые ими страны, выражают приверженность использованию ИИ в соответствии с международным правом, не подрывая принципов «международной безопасности, стабильности и подконтрольности». Израиль подписывать эту декларацию отказался.

Опыт военных операций, ранее проводимых Армией обороны Израиля (ЦАХАЛ) в секторе Газа, поставил перед военной разведкой проблему быстрого и надежного уточнения и расширения перечня новых целей для ударов ВВС [1].

Решая эту весьма специфическую проблему боевого планирования и реалистично оценивая перспективы обработки гигантского объема накапливаемых разведывательных данных стандартными методами анализа, в ЦАХАЛ решили сделать ставку на замену человека системами искусственного интеллекта (ИИ-системами). ИИ-системы должны были решать вопросы автоматического определения и ранжирования объектов враждебной активности в целях повышении скорости принятия решений по идентификации их как целей с последующим гарантированным поражением.

Леонид Цуканов:
«Цифровой шторм» Аль-Акса: штрихи к противостоянию Израиля и ХАМАС
В рамках поставленной задачи подразделением 8200 [2] был разработан ряд уникальных алгоритмов ИИ-системы The Gospel (ивр. Habsora — Евангелие), ИИ-модель [3] которой использовала для своего обучения огромные информационные массивы необработанных разведывательных данных, собранные в ходе многолетних наблюдений за территорией и населением Газы. Полный перечень данных, использованных при обучении The Gospel точно неизвестен. Однако, по мнению экспертов, системы поддержки принятия решений на основе искусственного интеллекта для целеуказания, как правило, анализируют большие информационные массивы (коллекции) из различных источников, таких как данные биллинга, перехваченные звуковые и текстовые сообщения, записи систем видеонаблюдения, съемки с беспилотников и спутников, а также данные, полученные в результате мониторинга движений и моделей поведения отдельных лиц и больших групп. По некоторым оценкам Газа — это самое фотографируемое место на планете, где каждый квадратный метр снимается с периодичностью раз в десять минут [4].

Впервые потенциал ИИ-системы The Gospel был весьма успешно применён против ХАМАС в мае 2021 г. в коротком, но весьма ожесточенном 11-дневном конфликте, известном, как операция «Страж стен». Практика применения The Gospel показала, что после интеграции ИИ-системы в планирование боевых операций ЦАХАЛ процесс выбора целей значительно ускорился. В частности, когда высокопоставленные члены ХАМАС скрылись в подземных туннелях и во многом стали менее уязвимыми, использование The Gospel позволило израильтянам быстро сориентироваться и начать атаковать значительное количество дополнительных целей — боевиков более низкого звена. По словам экс-начальника Генерального штаба Армии обороны Израиля Авива Кохави, если до введения в строй ИИ-системы в Газе удавалось выявлять и маркировать порядка 50 целей в год, то во время операции «Страж стен» The Gospel генерировала до 100 целей в день, причем около половины из них были атакованы. И это при том, что воинское подразделение, эксплуатирующее системы искусственного интеллекта насчитывало всего около сотни солдат и офицеров.

Вдохновленная успешным началом боевого применения ИИ-систем израильская военная разведка помимо выбора целей стала использовать искусственный интеллект и в прогнозной разведывательной аналитике. Считая, что подобные технологии дают возможность достаточно точного предсказания будущего, израильтяне по результатам их работы стали формировать разведывательные оценки намерений ХАМАС.

Но надежды на безграничные возможности «искусственного разума» и уверенность в своем технологическом превосходстве в последствии сыграли с ними очень злую шутку. Ведь, как показали дальнейшие события, при использовании ИИ-систем необходимо заранее понимать и учитывать возможные серьезные объективные и субъективные ограничения, возникающие при применении подобных технологий на практике.

Как уже говорилось выше, после несомненных военных успехов, связанных с применением ИИ-систем во время боевых действий, ЦАХАЛ стала чрезмерно полагаться на компьютерные алгоритмы в решении оперативных и аналитических разведывательных задач. Еще одной серьезной субъективной ошибкой израильтян стало излишне подробное описание технологий работы ИИ-систем в открытых источниках. Причем по мнению бывшего сотрудника военной разведки США Скотта Риттера результаты этих рекламных действий были достаточно прогнозируемыми.

В феврале 2023 г., в ходе проводимой Тель-Авивским университетом недели искусственного интеллекта, начальник Центра обработки данных и искусственного интеллекта [5] подразделения 8200 «полковник Йоав» («Colonel Yoav») прочитал согласованную с Армией обороны Израиля лекцию «Цифровая трансформация и искусственный интеллект в сфере разведки». Видео лекции, где можно услышать только голос выступающего, было размещено на YouTube-канале университета, и до недавнего времени у него было менее 100 просмотров.

В ходе своей презентации, выступающий в общих чертах рассказал об одном из используемых военной разведкой Израиля инструментов, имеющим большое сходство с ИИ-системой Lavender. Описание рабочего взаимодействия данной ИИ-системы с аналитиками разведки было весьма созвучно «модели целенаправленных операций» («model for targeting operations»), предложенной в книге командира подразделения 8200 бригадного генерала Йосси Сариэля (Yossi Sariel) [6]. Со слов «полковника Йоава», используемые подразделением 8200 инструменты искусственного интеллекта были призваны помочь преодолеть ограничения производительности труда, накладываемые человеческим фактором.

Затем в качестве практического примера применения искусственного интеллекта в разведывательной деятельности лектор рассмотрел кейс поиска командиров и операторов противотанковых комплексов ХАМАС, выполненный подразделением 8200 в ходе операции «Страж стен» в мае 2021 года. Постановка задачи звучала следующим образом — имеется некая высокопрофессиональная формализованная боевая группа, из состава которой ранее уже была установлена часть её участников. Необходимо используя технологию машинного обучения [7] (в данном случае — Positive-Unlabeled learning [8]), осуществить поиск и идентификацию остальных членов группы. В процессе решения задачи на основании исходной выборки уже известных разведке лиц устанавливается близкий круг их общения, затем оценивается релевантность выявленных связей и, наконец, проводится ранжирование полученных результатов и определение пороговых значений.

Полная версия статьи: https://russiancouncil.ru/analytics-and-comments/columns/cybercolumn/boevoe-primenenie-ii-sistem-izrailem-v-sektore-gaza-eticheskie-problemy/