40 лет назад вышел фильм «Военные игры». Талантливый юный хакер Дэвид, скучая после уроков, проникает в сеть ситуационного центра NORAD и начинает игру, которую  компьютерная система принимает за подготовку русских к ракетно-ядерному удару по США и запускает циклограмму ответной атаки.

Считается, что в реальности такой сценарий исключен. Речь, конечно, не о школьнике в контуре USSTRATCOM или РВСН, а о принципиальной способности компьютера перехватить управление ракетно-ядерными силами.

Интересно другое.

По нормативам, о которых известно из открытых источников с 1990 г., для принятия аргументированного решения об ответном ядерном ударе необходимо уложиться в 20 мин. с момента старта ракет противника на другом континенте. В ином случае слаженная система управления атакуемой стороны уничтожается. Для эффективного ответа на атаку из Европы и из полярной акватории времени еще меньше, 5-10 мин.

Есть много маркеров того, что противник начинает подготовку к нападению, и скрыть их невозможно.

Но в год выхода «Военных игр» был прецедент, когда действия той стороны были интерпретированы неверно и в Москве всерьез обсуждался превентивный ядерный удар. На командных учениях ноября 1983 г. Able Archer НАТО впервые сменило все коды связи, использовало режим полного радиомолчания и перевело стратегические силы в режим DEFCON 1. Жизнь миллиардов людей висела на волоске.

Интересно, как действовала бы  нейросеть, получи она те же вводные данные, что наблюдала советская разведка 2 ноября 1983 г.?

Сегодня изучается интеграция автономных систем ИИ в алгоритм принятия острых военных решений, в том числе связанных с началом ядерной войны.

В работе Escalation Risks from Language Models in Military and Diplomatic Decision-Making  ученые исследовали поведение нейросетей GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta's Llama 2  в смоделированных военных играх. Особое внимание уделено их склонности к резкой эскалации действий, усугубляющих военный конфликт.

Доказано, что искусственный интеллект охотно идет на эскалацию. В некоторых ситуациях ИИ готов начать ядерную войну не раздумывая. В частности, GPT-3.5 указывал, что ядерный потенциал противника по умолчанию представляет угрозу, поэтому против него следует провести ядерную атаку первым.

Выводы ученых иллюзий не оставляют. «Мы обнаружили, что все пять изученных LLM предпочитают формы нагнетания и трудно прогнозируемые модели эскалации. Мы наблюдаем, что модели, как правило, разгоняют динамику гонки вооружений, приводящую к усилению конфликта, а в ряде случаев –  к использованию ядерного оружия».

ИИ нельзя использовать как инструмент принятия срочных решений, от которых зависит судьба человечества.

Rate this item
(0 votes)
Read 303 times

О нас

Журнал IT News+ Чувашия — старейшее печатное издание посвященное высоким технологиям, выходящие более 10 лет на территории Поволжья.

Наши читатели — образованные платёжеспособные люди в возрасте от 30 до 45 лет. Руководители компаний или люди занимающие высокие посты, которые следят за новинками в мире высоких технологий как в нашем городе, так и в мире. Проживающие по большей части в Чебоксарах, Москве, Санкт-Петербурге, Новочебоксарске.

Рекламные материалы отмечены знаком "Р".

 
Top
We use cookies to improve our website. By continuing to use this website, you are giving consent to cookies being used. More details…