Считается, что в реальности такой сценарий исключен. Речь, конечно, не о школьнике в контуре USSTRATCOM или РВСН, а о принципиальной способности компьютера перехватить управление ракетно-ядерными силами.
Интересно другое.
По нормативам, о которых известно из открытых источников с 1990 г., для принятия аргументированного решения об ответном ядерном ударе необходимо уложиться в 20 мин. с момента старта ракет противника на другом континенте. В ином случае слаженная система управления атакуемой стороны уничтожается. Для эффективного ответа на атаку из Европы и из полярной акватории времени еще меньше, 5-10 мин.
Есть много маркеров того, что противник начинает подготовку к нападению, и скрыть их невозможно.
Но в год выхода «Военных игр» был прецедент, когда действия той стороны были интерпретированы неверно и в Москве всерьез обсуждался превентивный ядерный удар. На командных учениях ноября 1983 г. Able Archer НАТО впервые сменило все коды связи, использовало режим полного радиомолчания и перевело стратегические силы в режим DEFCON 1. Жизнь миллиардов людей висела на волоске.
Интересно, как действовала бы нейросеть, получи она те же вводные данные, что наблюдала советская разведка 2 ноября 1983 г.?
Сегодня изучается интеграция автономных систем ИИ в алгоритм принятия острых военных решений, в том числе связанных с началом ядерной войны.
В работе Escalation Risks from Language Models in Military and Diplomatic Decision-Making ученые исследовали поведение нейросетей GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta's Llama 2 в смоделированных военных играх. Особое внимание уделено их склонности к резкой эскалации действий, усугубляющих военный конфликт.
Доказано, что искусственный интеллект охотно идет на эскалацию. В некоторых ситуациях ИИ готов начать ядерную войну не раздумывая. В частности, GPT-3.5 указывал, что ядерный потенциал противника по умолчанию представляет угрозу, поэтому против него следует провести ядерную атаку первым.
Выводы ученых иллюзий не оставляют. «Мы обнаружили, что все пять изученных LLM предпочитают формы нагнетания и трудно прогнозируемые модели эскалации. Мы наблюдаем, что модели, как правило, разгоняют динамику гонки вооружений, приводящую к усилению конфликта, а в ряде случаев – к использованию ядерного оружия».
ИИ нельзя использовать как инструмент принятия срочных решений, от которых зависит судьба человечества.