Сила будущего – военный ИИ

Читать на сайте inosmi.ru
Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Авторы Foreign Affairs бьют тревогу – США начинают серьезно отставать от Китая и России в области военного искусственного интеллекта. Пентагон излишне почивает на лаврах, не понимая огромного значения ИИ. Целый ряд новых разработок США потерпели неудачу.
Инновации военного Искусственного Интеллекта (ИИ) – высокая выгода и низкие риски
Порох. Двигатель внутреннего сгорания. Самолет. Это лишь некоторые из технологий, навсегда изменивших облик войны. Сейчас мир переживает еще одну трансформацию, которая может дать новое содержание военной мощи: развитие искусственного интеллекта (ИИ).
Соединение ИИ с военными действиями может показаться научной фантастикой, но сегодня искусственный интеллект находится в центре почти всех достижений в области оборонных технологий. Он определяет то, как военные набирают и обучают солдат, как они развертывают вооруженные силы и как они воюют. Китай, Германия, Израиль и США используют искусственный интеллект для визуализации полей сражений в режиме реального времени. Россия задействует искусственный интеллект для создания обманных видеороликов и распространения дезинформации о своей спецоперации на Украине. По ходу российско-украинского конфликта обе стороны могут использовать алгоритмы ИИ для анализа больших массивов данных из открытых источников, поступающих из социальных сетей и с поля боя, что позволяет им лучше организовывать свои атаки.
Соединенные Штаты являются ведущим технологическим центром мира, и теоретически развитие ИИ открывает перед вооруженными силами США огромные возможности. Но на данный момент это создает и большие риски. Ведущие армии мира часто становятся слишком самоуверенными в своей способности побеждать в будущих войнах, и есть признаки того, что Министерство обороны США тоже может стать жертвой самоуспокоенности. Хотя высшее руководство оборонных ведомств США десятилетиями говорило о важности развития новых технологий, включая искусственный интеллект и автономные системы, реальные действия на местах оказываются болезненно замедленными. Например, начиная с 2003 года ВВС США и ВМС США объединили усилия для создания прототипов БПЛА X-45 и X-47A - полуавтономных малозаметных военных беспилотных аппаратов, способных вести разведку и наносить ракетные и бомбовые удары. Но многие военачальники рассматривали эту программу как угрозу программе истребителя F-35, и ВВС выбыли из этого проекта. Затем военно-морской флот профинансировал еще более впечатляющий прототип X-47B, способный летать так же точно, как пилотируемый человеком боевой истребитель. Но военно-морской флот тоже увидел в нем угрозу пилотируемым боевым самолетам и в конце концов отступил, вместо этого развивая программу создания невооруженного автономного самолета с гораздо более ограниченными возможностями.
Yahoo News Japan (Япония): Россия успешно разрабатывает военный ИИ с КитаемЯпонский военный эксперт пишет, что американцы все больше опасаются боевых военных платформ с применением технологий ИИ, которые Россия разрабатывает в сотрудничестве с Китаем. США прибегают к испытанному средству - сколачивают антироссийские группы, в том числе и в ООН. Но Россия ведет свою линию уверенно. И в ней есть логика.
Медленные действия Соединенных Штатов резко контрастируют с поведением Китая, самого могущественного геополитического соперника Вашингтона. За последние несколько лет Китай инвестировал в исследования и разработки в области ИИ примерно столько же, сколько Соединенные Штаты, но он гораздо более активно интегрирует эту технологию в свою военную стратегию, военное планирование и системы вооружений, что потенциально может привести к его победе над Соединенными Штатами в будущей войне. Китай разработал передовой полуавтономный боевой беспилотник, который хорошо интегрируется в его вооруженные силы. Это резко контрастирует с тем, что Вашингтон забросил программы X-45, X-47A и X-47B. Россия также разрабатывает военные технологии с искусственным интеллектом, которые могут угрожать вооруженным силам противника и критической инфраструктуре (пока что они не применялись в ее спецоперации на Украине). Если Вашингтон не сделает большего для того, чтобы активнее интегрировать ИИ в свои вооруженные силы, он может оказаться в числе отстающих.
Но хотя отставание в области искусственного интеллекта может поставить под угрозу могущество США, бездумное ускорение вперед тоже не лишено рисков. Есть аналитики и разработчики, которые опасаются, что активная разработка ИИ может привести к серьезным авариям, включая алгоритмические сбои, которые могут привести к жертвам среди гражданского населения во время войны. Есть эксперты, которые утверждают даже, что включение машинного интеллекта в управление и контроль за ядерными объектами может повысить вероятность ядерных аварий. Но это все же маловероятно — кажется, что большинство ядерных держав осознают опасность использования ИИ в системах запуска ракет.
И все же сейчас больше всего Вашингтон должен беспокоить тот факт то, что он движется с разработками военного ИИ слишком медленно. Вместе с тем, некоторые из ведущих мировых исследователей считают, что министерство обороны США игнорирует вопросы безопасности и надежности, связанные с ИИ, и Пентагон должен серьезно отнестись к их опасениям. Успешное использование искусственного интеллекта требует, чтобы военные США внедряли инновации в быстром темпе, но с соблюдением полной безопасности. А это задача, которую легче сформулировать, чем выполнить.
Администрация Байдена предпринимает активные шаги для достижения этой цели. Байден создал Национальную целевую группу по исследованиям в области искусственного интеллекта, которой поручено распространять доступ к исследовательским инструментам, могущим способствовать продвижению инноваций в области ИИ как для вооруженных сил, так и для гражданской экономики в целом. Администрация ввела также должность старшего ответственного лица по цифровому и искусственному интеллекту в Министерстве обороны. Этому высокопоставленному чиновнику будет поручено обеспечить, чтобы Пентагон расширил и ускорил свои усилия по развитию искусственного интеллекта.
Но если Белый дом хочет двигаться с необходимой скоростью, он должен принять дополнительные меры. Вашингтону нужно будет сосредоточиться на том, чтобы у исследователей был доступ к более качественным и полным данным Министерства обороны, которые будут способствовать созданию эффективных алгоритмов ИИ. Пентагон должен провести такую реорганизацию, которая позволила бы его агентствам легче сотрудничать и делиться своими выводами. Он также должен создавать стимулы для привлечения большего числа талантов в области точных наук и должен обеспечить такую атмосферу, в которой персонал будет уверен, что не будет наказан, если эксперименты потерпят неудачу. В то же время министерство обороны должно проводить успешные проекты через строгие испытания на безопасность, прежде чем внедрять их. Только таким образом Соединенные Штаты могут быстро разработать множество новых инструментов ИИ, не опасаясь того, что они создадут ненужные угрозы.

Преимущество первого хода

Технологические инновации уже давно имеют решающее значение для военных успехов Соединенных Штатов. Во время Гражданской войны в США президент США Авраам Линкольн использовал отличную систему телеграфа Севера для связи со своими генералами, координации стратегии и переброски войск, что в конечном счете помогло юнионистам победить конфедератов. В начале 1990-х Вашингтон применил новые высокоточные боеприпасы во время войны в Персидском заливе, чтобы вытеснить Ирак из Кувейта.
Но история показывает, что военные инновации — это не просто процесс создания и использования новых технологий. Наряду с этим он влечет за собой переработку того, как государства комплектуют войска, организуют свои вооруженные силы, планируют операции и разрабатывают стратегию. Например, в 1920-х и 1930-х годах Франция и Германия создали современные мощные танки, грузовики и авиацию. Во время Второй мировой войны Германия использовала объединенный потенциал этих инноваций (наряду с радио) для проведения своих печально известных ныне блицкригов - агрессивных наступательных ударов, которые быстро сокрушали ее врагов. Франция же вложила большую часть своих ресурсов в линию Мажино, серию мощных укреплений вдоль франко-германской границы. Французские лидеры считали, что они создали непроходимую границу, которая сдержит любую попытку немецкого вторжения. Вместо этого нацисты просто обошли эту линию, пройдя через Бельгию и Арденнский лес. Со своими лучшими подразделениями, сосредоточенными на других плацдармах, с плохой связью и устаревшим военным планированием, Франция быстро пала.
Не случайно Франция не рискнула задействовать свои новые военные системы. Она победила в Первой мировой войне, а ведущие военные державы часто отказываются от инноваций и сопротивляются кардинальным изменениям. В 1918 году британский флот изобрел первый авианосец, но доминирующая в то время морская держава Британия относилась к этим кораблям в основном как к корректировщикам для поддержки огня своих традиционных линкоров, а не как к мобильным базам для ведения наступательных операций. Япония, напротив, использовала свои авианосцы, чтобы доставлять штурмовики непосредственно в места сражений. В результате британский флот не справился с японцами в Тихом океане, и в конечном итоге Японии пришлось противопоставить другую восходящей морскую державу: Соединенные Штаты. До и во время Второй мировой войны ВМС США много экспериментировали с новыми технологиями, в том числе с авианосцами, что помогло им впоследствии стать решающей силой в Атлантике и Тихом океане.
Будущая война: гиперзвуковые ракеты, искусственный интеллект, война в космосе и биологическое оружие (Breitbart, США)Американский эксперт в Breitbart признает, что Россия и Китай обходят Запад по новейшим видам вооружений — сверхзвуку, военному ИИ и космическому оружию. Автор считает, что для США стал шоком запуск Китаем орбитального носителя сверхзвуковой ракеты. «Это еще Китай не взорвал над Америкой свою главную бомбу — госдолг США», — пишут читатели.
Но сегодня Соединенные Штаты рискуют больше походить на Соединенное Королевство или даже на Францию. Министерство обороны, похоже, отдает предпочтение проверенным временем возможностям, а не новым инструментам, а темпы внедрения им инноваций замедлились. Время, необходимое для поступления новой технологии из конструкторского бюро на поле боя, удлинилось примерно с пяти лет в начале 1960-х до десятилетия или даже более сегодня. Создается впечатление, что иногда Пентагон специально медлит с ИИ и автономными системами, потому что опасается, что внедрение этих технологий может потребовать кардинальных изменений, которые поставят под угрозу существующие и успешно действующие военные системы, как, например, это иллюстрирует история с X-45, X-47A и X-47B. Некоторые проекты не смогли даже сойти с чертежной доски. Многочисленные эксперименты показали, что Loyal Wingman, беспилотный самолет с искусственным интеллектом, может помочь группам самолетов лучше координировать свои атаки. Но американским военным еще предстоят серьезные усилия по внедрению этой технологии, хотя она существует уже много лет. Неудивительно, что в 2021 году Комиссия совета национальной безопасности по искусственному интеллекту в своем итоговом отчете пришла к неутешительному выводу о том, что Соединенные Штаты "не готовы защищаться или конкурировать в эпоху ИИ".
Если Соединенным Штатам не удастся достичь настоящего прогресса в разработке эффективного ИИ, они могут просто пасть на милость победителей – более продвинутых своих противников. Китай, например, уже использует ИИ для ведения военных игр в будущем конфликте из-за Тайваня. Пекин планирует использовать искусственный интеллект в сочетании с кибероружием, средствами радиоэлектронной борьбы и робототехникой, чтобы повысить вероятность успеха своего военно-морского десанта на Тайвань. Он вкладывает огромные средства в системы с военным ИИ для отслеживания подводных и надводных боевых кораблей ВМС США, а также в разработку возможности осуществления групповых атак с помощью недорогих самолетов крупносерийного производства. Если у Соединенных Штатов не будет передовых возможностей искусственного интеллекта, они неизбежно обнаружат, что движутся более медленными темпами и, следовательно, у них будет меньше возможностей помочь Тайваню отразить вторжение.

Рискованное дело

Учитывая существующие сейчас в военной сфере высокие ставки, американский оборонный истеблишмент справедливо беспокоится о том, что Вашингтон вяло продвигает оборонные инновации. Но за пределами правительства многие аналитики опасаются противоположного: если военные будут действовать слишком поспешно в разработке оружия с ИИ, мир может столкнуться со смертельными — и, возможно, даже катастрофическими — чрезвычайными происшествиями.
Не нужно быть экспертом, чтобы увидеть все риски ИИ: роботы-убийцы десятилетиями были основными героями поп-культуры. Но даже научная фантастика — не далеко лучший показатель реальных опасностей. Полностью автономные системы вооружения типа "Терминатор" потребуют высокоуровневого машинного интеллекта, который, даже по оптимистичным прогнозам, появится не ранее, чем через полвека. Одна группа аналитиков сняла фильм о "Робото-мясниках" — целых смертоносных роях автономных систем, способных убивать людей в массовом масштабе. Но любое правительство или негосударственный субъект, желающий нанести противнику такой ущерб, мог бы выполнить ту же задачу более надежно и дешево, используя традиционное оружие. Опасность же ИИ связана с развертыванием новых алгоритмов действий как на поле боя, так и за его пределами, что может привести к ЧП, авариям, сбоям или даже непреднамеренным нападениям. Алгоритмы ИИ разработаны так, чтобы обеспечивать быстрые и решительные действия машин, что может привести к ошибкам в ситуациях, требующих тщательного (хотя и быстрого) рассмотрения. Например, в 2003 году автоматизированная система зенитно-ракетного комплекса MIM-104 Patriot ошибочно идентифицировала свой самолет как вражеский, а люди-операторы не исправили эту ошибку, что привело к гибели от "дружественного огня" пилота американского F-18. Исследования показывают, что чем более требовательной к когнитивным способностям людей и более стрессовой будет ситуация, тем больше вероятность того, что люди будут полагаться на суждения ИИ. Это означает, что на поле боя, где многие военные системы автоматизированы, количество таких несчастных случаев может увеличиться.
Люди, конечно, тоже совершают фатальные ошибки, и их доверие к ИИ может совсем не быть чем-то неправильным. Но люди могут быть склонными к излишней уверенности в машинах. На самом деле, даже очень хорошие алгоритмы ИИ потенциально могут быть более подвержены несчастным случаям, чем люди. Люди способны учитывать нюансы и контекст при принятии решений, тогда как алгоритмы ИИ обучены выносить только совершенно определенные вердикты и работать только в определенных обстоятельствах. Если им будет поручено запустить ракеты или задействовать системы ПВО, в условиях, выходящих за рамки их нормальных рабочих параметров, системы ИИ могут выйти из строя и нанести непреднамеренные удары. Атакующей стране может быть трудно убедить противника в том, что удары были ошибкой. В зависимости от размера и масштаба ошибки конечным результатом может стать фатальное разгорание конфликта.
Это может иметь пугающие последствия. Даже самые надежные машины с искусственным интеллектом вряд ли когда-либо получат возможность осуществлять ядерные атаки, но они могут когда-то давать рекомендации политикам о том, применять ли оружие в ответ на сигналы от систем ПВО раннего предупреждения, или нет. И если ИИ даст зеленый свет, то солдаты, контролирующие эти машины, не всегда будут в состоянии должным образом изучить выдаваемые ими данные и перепроверить машины на наличие потенциальных ошибок во входных данных, особенно в стремительно развивающейся ситуации. И результат может быть обратным печально известному инциденту 1983 года, в котором лейтенант советских ВВС, возможно, спас мир, когда, правильно заподозрив ложную тревогу, решил отменить указание о ядерном пуске, выданное автоматизированной системой предупреждения. Эта система ошибочно приняла свет, отражающийся от облаков, за приближающуюся баллистическую ракету.

Не медленно, но и не слишком быстро

Таким образом, Соединенные Штаты сталкиваются с двойными рисками, связанными с искусственным интеллектом. Если Вашингтон будет двигаться слишком медленно, он может быть обойден его конкурентами, что поставит под угрозу национальную безопасность США. Но если он будет двигаться слишком быстро, то может поставить под угрозу безопасность и создать системы искусственного интеллекта, которые порождают смертельные аварии. Хотя первое представляет больший риск, чем второе, крайне важно, чтобы Соединенные Штаты максимально серьезно относились к проблемам безопасности. Чтобы быть эффективным, искусственный интеллект должен быть безопасным и надежным.
Так как же Вашингтону найти своего рода "зону обитаемости" (зона обитаемости - условная область в космосе, определённая из расчёта, что условия на поверхности находящихся в ней планет будут близки к условиям на Земле – Прим. ИноСМИ) для инноваций? Можно начать с размышления о технологическом развитии с точки зрения трех его фаз: изобретение, разработка и внедрение. Для каждого подходят разные скорости. Быстрое продвижение на первых двух этапах не принесет большого вреда, и вооруженные силы США должны быстро разрабатывать и экспериментировать с новыми технологиями и оперативными концепциями. Но при внедрении необходимо будет самым тщательным образом решать проблемы безопасности и надежности.
Чтобы достичь такого баланса, американской армии нужно обеспечить, чтобы ее личный состав максимально эффективно работал со всеми данными Министерства обороны. Это включает в себя открытый контент, доступный в Интернете, а также закрытый, как спутниковые снимки и разведывательные данные о противниках и их военном потенциале. Он также включает данные об эффективности, составе и возможностях собственных военных средств вооруженных сил США.
В Министерстве обороны есть уже много подразделений, которые собирают такие данные, но принадлежащая им информация разрознена и хранится по-разному. Чтобы более эффективно внедрить ИИ, Пентагону необходимо будет наращивать текущие усилия по созданию общей инфраструктуры данных. Министерство обороны уже сделало важный шаг, объединив обязанности по обработке данных относительно ИИ в руках старшего должностного лица по цифровым технологиям и искусственному интеллекту. Но эта реорганизация не увенчается успехом, если у нового высокого чиновника не будет полномочий для преодоления бюрократических барьеров на пути внедрения ИИ как в армии, так и в других подразделениях Пентагона.
Defense Express (Украина): Кремль в гонке вооружений с США окончательно сделал ставку на гиперзвук и искусственный интеллектДля армии РФ гиперзвуковое оружие должно стать главным средством неядерного сдерживания. Искусственный интеллект должен минимизировать время для принятия решений. По сравнению с США, РФ в этой области находится в состоянии «догоняющего», считает автор. Аналогичную систему автоматизированного управления войсками в американской армии начали разворачивать еще в 2012 году.
Предоставление исследователям более качественных данных также поможет обеспечить тщательное тестирование безопасности каждого нового решения. Тестирующие, например, могут преднамеренно вводить в систему искусственного интеллекта широкий спектр сложной или заведомо неверной информации, чтобы увидеть, выдает ли она ошибочное указание, например, приказ нанести удар по дружественному самолету. Это тестирование поможет создать базовое представление о том, насколько надежны и точны системы искусственного интеллекта, установив допустимую погрешность, о которой могут помнить будущие операторы. Это поможет людям понять, когда нужно сомневаться в том, что им говорят машины, даже в очень напряженных ситуациях.
Производство инновационного и безопасного ИИ также потребует более тесной связи между научно-исследовательскими и конструкторскими подразделениями Министерства обороны и остальной частью Пентагона. Теоретически именно Департамент НИОКР отвечает за технологические инновации Пентагона. Но, согласно докладу Мелиссы Флэгг и Джека Корригана из Центра безопасности и новых технологий, инновационные усилия Пентагона дезорганизованы и охватывают как минимум 28 организаций. Все эти усилия выиграют от большей координации, которую может обеспечить Департамент исследований и конструкторских разработок. Одна из причин для оптимизма заключается в том, что этот Департамент недавно создал внутри себя экспериментальное бюро скоростных разработок, которое позволит отделу быстрее создавать прототипы новых образцов и экспериментировать с новыми технологиями в наиболее востребованных областях, что должно улучшить координацию и скорость принятия изделий в войсках.
Но Пентагон не может стимулировать более эффективные инновации исключительно за счет структурных реформ. Для этого потребуются и соответствующие кадры. Соединенные Штаты могут гордиться своими хорошо обученными и образованными военными, но для того, чтобы побеждать в войнах будущего, им требуется больше талантов в новых областях науки и технологий. Это означает, что министерство обороны должно нанять больше сотрудников, занимающихся искусственным интеллектом. Это также означает, что Пентагон должен предлагать дополнительные курсы по написанию кодов и программированию для имеющегося персонала и предоставлять дополнительное денежное вознаграждение или больше свободного времени тем сотрудникам, которые записываются на такие курсы. Точно так же, как это делается, например, для сотрудников, изучающих иностранные языки.
В рамках капитальной реорганизации Министерству обороны также необходимо будет изменить свою культуру, чтобы она не была "излишне склонной к избежанию всяких рисков", как писала на страницах этого издания в прошлом году Мишель Флурнуа, бывший заместитель министра обороны по политическим вопросам. В настоящее время чиновники Пентагона зачастую медлят с принятием решений или избегают рискованных инициатив, чтобы исключить репутационные ущербы, которые сопровождают неудачу, хороня тем многообещающие проекты в зародыше. Это полностью противоречит духу инноваций, в которых неотъемлемой частью является метод проб и ошибок. Руководство Пентагона должно вознаграждать руководителей программ и исследователей за общее количество экспериментов и операционных концепций, которые они тестируют, а не за процент успешных результатов.
Даже неудачные инвестиции могут оказаться стратегически полезными. Китайские военные уделяют пристальное внимание военному потенциалу и планированию США, что позволяет Соединенным Штатам наносить вред собственному военному планированию Пекина, выборочно раскрывая в том числе и те свои разработки, которые по каким-то причинам не удались. Китай может реагировать, бросаясь в погоню за несовершенными американскими системами, и не зная, что именно Соединенные Штаты на самом деле будут развертывать или разрабатывать дальше. Если американские вооруженные силы хотят оставаться сильнейшими в мире, они должны продолжать заставлять своих противников следовать за ними во всем.
Соединенным Штатам также следует разработать способы эффективного использования любых технологий, которые они решат развернуть в американской армии. Военная мощь в конечном счете больше связана с людьми и организациями, чем с виджетами или неодушевленными сверхновыми инструментами. История показывает, что даже самые успешные вооруженные силы должны задействовать в своих планах все новые возможности, если они хотят победить на поле боя. В то время, когда сейчас в США происходит весьма прискорбное возвращение к уже привычным старым системам вооружений, нам необходимо в срочном порядке реструктуризировать и адаптировать нашу армию к потребностям будущего, а не почивать на лаврах.
Авторы: Майкл Хоровиц, Лорен Кан, Лаура Резник Самотин (Michael Horowitz, Lauren Kahn, Laura Resnik Samotin)
Майкл Хоровиц — профессор Пенсильванского университета, директор института политологии Perry World House и старший научный сотрудник по оборонным технологиям и инновациям в американском Совете по международным отношениям.
Лорен Кан — научный сотрудник американского Совета по международным отношениям, специализируется на оборонных инновациях и новых технологиях.
Лаура Резник Самотин — научный сотрудник в области национальной безопасности и разведки в Институте исследований войны и мира имени Арнольда А. Зальцмана Колумбийского университета и внештатный старший научный сотрудник Инициативы Атлантического совета по новой американской политике.
Обсудить
Рекомендуем