Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на

Риск ядерной войны в эпоху искусственного интеллекта

Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Читать inosmi.ru в
Искусственный интеллект, которому со все большей «уверенностью» доверяют оборонные ведомства крупных держав, может дестабилизировать хрупкое равновесие ядерного сдерживания. Ложная информация в сочетании с кибератаками и процессом принятия решений, доверенным искусственному интеллекту, может привести к третьей мировой войне или попросту к концу существования человечества.

По данным аналитиков корпорации «Рэнд», искусственный интеллект, которому со все большей «уверенностью» доверяют оборонные ведомства крупных держав, может дестабилизировать хрупкое равновесие ядерного сдерживания, приблизив мир к «холокосту», которого все так боятся. Искусственный интеллект быстрее, производительнее и умнее, чем создавший и использующий его человек, при помощи сенсоров и миллионов данных в открытых источниках, которые он может получить в свое распоряжение за считанные миллисекунды, он способен убедить крупные державы, что их ядерный потенциал становится с каждым днем все уязвимее, подтолкнуть их к гонке вооружений, спровоцировавшей холодную войну, и при возникновении международных напряжений, выливающихся в военные действия, убедить правительства в грозящей опасности. Это может привести к сценарию, вызывающему наибольшее беспокойство: руководители главного штаба могут принимать окончательные решения, например, запускать традиционную атаку (прицельные бомбардировки и т.д.) или ядерную, опираясь исключительно на базу мнений, сгенерированных системами, полностью доверенными искусственному интеллекту и получившими или разработавшими, в сущности, ошибочную информацию.


Корпорация «Рэнд», обслуживающая американские ВВС с 1948 года, недавно собрала крупнейших экспертов по ядерной безопасности, искусственному интеллекту, правительству и промышленности, чтобы проанализировать эту отдаленную, но вызывающую большое беспокойство перспективу и составить доклад, в котором будет перечислен весь спектр рисков. В опубликованном на прошлой неделе докладе подчеркивается, что искусственный интеллект значительно увеличит дееспособность и потенциал теоретической страны А по нанесению ударов по ядерному вооружению теоретической стране Б. Это может подтолкнуть страну Б — предполагаемого возможного врага Соединенных Штатов или Атлантического альянса — радикально переосмыслить «риски и выгоду» от покупки ядерного оружия, запустить свою ядерную программу (как Северная Корея и Иран) или перейти в наступление в условиях международного кризиса. «Даже если искусственный интеллект ненамного улучшит свои способности интегрировать данные по расположению вражеских ракет, это может существенно ослабить государство, пошатнуть его безопасность и угрожать стабильности в условиях кризиса», — утверждается в докладе под редакцией экспертов по оценке международной ситуации.


Северная Корея, Китай и Россия имеют на такие случаи мобильные системы запуска, подземные базы и секретные территории для запуска ядерных ударов, осуществляемых при помощи носителей, вооруженных межконтинентальными баллистическими ракетами. В подобной ситуации — как опасались во время северокорейского кризиса — у Соединенных Штатов было бы «меньше 15 минут перед возможным запуском, произведенным Северной Кореей», как утверждал в январе генерал американских ВВС Пол Дж. Сельва (Paul J. Selva) (Заместитель председателя объединенного комитета начальников штабов, высшее звание в аппарате вооруженных сил США).


Эти 15 минут, которые будут даны перед атакой, должны использоваться аналитиками министерства обороны, чтобы избрать ответ на удар. Они должны будут в полной мере использовать данные, предоставленные искусственным интеллектом, который попытается получить всю возможную информацию, чтобы определить местоположение, с которого был осуществлен запуск — и другие вероятные точки запуска — и ответить на нападение, учитывая риск, что будет еще и второй, и третий запуск. Конец равновесию сдерживания и возможный ядерный холокост. После последних событий Северную Корею, объявившую об окончании любых ракетных испытаний и о совместном проекте денуклеаризации полуострова, можно будет перестать считать угрозой, но такая сверхдержава, как Россия, вечный враг США в гонке вооружений, может оценить ситуацию и решить, что ей требуется еще больше ядерного оружия, которое бы гарантировало при необходимости максимальную эффективность и которое было бы чрезвычайно трудно обнаружить, как, например, автономную торпеду «Статус-6».


«Государству требуется предпринять множество мер, чтобы развить потенциал для локализации и нанесения ударов по всем вражеским ядерным системам. Такой потенциал дает огромное стратегическое преимущество, — утверждается в докладе. — Система локализации и прицеливания должна (была бы) восприниматься исключительно как потенциал для дестабилизации. А значит, он может оказаться и гораздо более опасным», если его расценивать как риск утратить собственную способность сдерживания. Специалисты также проанализировали сценарий, в рамках которого командующие могли бы использовать искусственный интеллект, чтобы выработать мнение о ядерных атаках и в зависимости от него принять соответствующее решение. Подобное дополнительное средство, как следует из выводов, приведенных в докладе, могло бы помочь членам Объединенного комитета начальников штабов принимать действенные и взвешенные решения, однако — если они столкнутся с неверной информацией, или в системе возникнут сбои в результате кибератак, — эти решения могут быть катастрофическими. Если вооруженные силы лишатся средств проверки и выявления точности данных, предоставленных искусственным интеллектом, с которыми необходимо будет сверяться в столь деликатный момент, — это беспокойство выразило ЦРУ, желающее как можно скорее найти решение — а следовательно, и адекватного понимания намерений «врага», возможно, готового нанести удар при помощи ракет, находящихся на стадии предварительного разогрева, или же доводящего до кульминации демонстрацию силы, не имеющую никакого продолжения. Искусственный интеллект, таким образом, остается оружием, которым могут противники воспользоваться против страны А (США), из-за чего она совершит ошибку при нападении, запустит атаку первой или против ошибочно определенного противника. Учитывая эту страшную перспективу, ложная информация в сочетании с кибератаками и процессом принятия решений, доверенным искусственному интеллекту, управляющему данными о вооружении какой-либо невообразимой державы, может привести к третьей мировой войне или попросту к концу существования человечества.