Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
iDnes (Чехия): когда в бой идут роботы

США разрабатывают беспилотные истребители и танки. И не они одни

© AP Photo / Matt YorkАмериканский беспилотник Predator B
Американский беспилотник Predator B - ИноСМИ, 1920, 11.03.2021
Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Читать inosmi.ru в
Американская армия хочет иметь автономные самолеты, танки и подводные лодки, управляемые компьютерами. Компьютерный алгоритм будет диктовать оружию, куда ехать, когда и во что стрелять. Но компьютеры — это умные глупцы, у которых нет здравого смысла, который заставит их нарушить приказ ради благого дела.

Совсем недавно первый раз в небо поднялся прежде невиданный истребитель. В нем отсутствует кабина. Но она не нужна, ведь у истребителя нет пилотов. Этот самолет, который пролетел над австралийской пустыней, называется Loyal Wingman (что-то вроде «Верного напарника»).

Совместный проект американского Боинга и австралийцев летал, как дрон, управляемый с земли человеком, но в следующий раз руководить им будет уже только компьютер. Его задача — сопровождать обыкновенный пилотируемый истребитель в бою и служить ему щитом. Когда появляется вражеский радар, он летит к нему и парализует его, чтобы тот не смог отправить ракету против истребителя. Но если ему это все-таки удастся, то в худшем случае «Верный напарник» встрянет между ракетой и истребителем и принесет себя в жертву. Все зависит от заданной программы. Кроме того, этот аппарат может летать самостоятельно, нести вооружения и наносить удары, как обычный истребитель.

Это революция в авиации и начало переворота в военном деле. По Америке и в других странах уже ездят полностью автономные автомобили, которыми управляет не шофер, а компьютер, и теперь американская армия хочет автономные самолеты, танки и огромные транспортные подводные лодки.

Конечно, моментально этого не добиться, но направление задано ясно: войны будут вести компьютерные алгоритмы.

Помимо «Верного напарника», действующего в связки с истребителем, пилотируемым человеком, американская авиация рассчитывает на беспилотные самолеты-заправщики. Морская пехота разрабатывает автономные вертолеты для снабжения отрезанных подразделений. Кроме того, наземные силы должны получить автономный бронетранспортер. ВМФ США готовится принять Orca — беспилотные подлодки, которые могут доставлять в море материалы и солдат, искать мины и нападать на вражеские корабли.

«Верный напарник» совершил первый полет как раз в момент, когда независимая комиссия светлых голов призвала американское правительство разработать оружие с искусственным интеллектом, поскольку это очередной виток вооружения, на котором США снова столкнутся с Россией и, главное, с Китаем.

В комиссию вошли не только генералы, но и такие фигуры, как глава «Гугл» Эрик Шмидт и его коллеги из технологических компаний, в том числе «Амазон», «Майкрософт» и «Оракл».

Авторы доклада (талмуда в 750 страниц) пришли к выводу, что переход к оружию с искусственным интеллектом неизбежен, поскольку Китай, которого США в прошлую пятницу назвали своим главным стратегическим соперником, примет такое оружие на вооружение. Также в докладе говорится, что искусственный интеллект снизит людские потери во время конфликтов. Просто на поле боя будет меньше солдат, а роботов запрограммируют так, чтобы они не убивали мирных жителей. Однако все это противоречит прежнему «компьютерному пацифизму». Некоторые эксперты призывают держать армии на максимальном расстоянии от искусственного интеллекта, поскольку он может выйти из-под контроля. В этой связи очень интересно, что в состав комиссии, по мнению которой США должны помешать запрету на этот вид оружия в мире, вошли менеджеры очень высокотехнологичных калифорнийских компаний.

Но факт в том, что прогресс не остановить. Китай, например, заявил, не видит проблемы в разработке оружия с искусственным интеллектом, но выступает против его применения в бою. В таком случае, по неумолимой военной логике, это оружие на всякий случай должны разрабатывать и американцы, русские или индийцы.

Речь идет не только о самолетах и кораблях. Русские испытали в Сирии танкетку «Уран 9», который функционирует без экипажа. Испытания прошли не слишком удачно, но причина была в тривиальных «детских болезнях», в частности в плохом шасси. Но танкетками дело не ограничивается: вместо пехоты в бою могут победить автоматические солдаты, небольшие движущиеся аппараты с огневыми системами и компьютером, запрограммированным под солдата пехоты, обученного на тренировочной площадке и стрельбище.

Против скорости и IQ компьютера нет шансов даже у образцового солдата. Однако преимуществ еще больше. Машина не устает, не испытывает голода или страха, не теряет мотивации и отличается высочайшим боевым духом. Машина может воевать неделями.

Кроме того, она дешева. Может показаться, что неэкономично производить для боя дорогие умные машины, тогда как человеческое «пушечное мясо», казалось бы, куда дешевле. Но на самом деле солдат и его обучение, а также обеспечение обходятся дороже, чем серийно производимые роботы. Пилот в истребителе, несомненно, стоит дороже, чем беспилотный истребитель. Кроме того, автономное оружие меньше, а значит, дешевле. Представьте себе танк без экипажа и брони. Собственно это одна пушка и компьютер на гусеничном ходу.

Проблема — умный глупец

Судя по всему, будущее — за компьютерными алгоритмами, которые будут диктовать оружию, куда ехать и когда и во что стрелять. По крайней мере на поле боя люди передадут управление военным аппаратам, чтобы убивать опосредованно. Но есть несколько загвоздок. Критики этого оружия утверждают, что если «убивать» будут только машины, то конфликты участятся, поскольку превратятся в своего рода спортивные соревнования. Масса солдат будет находиться далеко от поля боя, что резко снизит потери.

Уже сегодня операторы дронов, совершающих налеты в Афганистане, сидят на базе в 45 километрах от Лас-Вегаса, центра развлечений. Это называется пижонской войной…

Есть и еще одна проблема: компьютеры — умные глупцы. Критики говорят о том, что компьютер не отличит солдата от мирного жителя и не сможет оценить, представляют ли его действия оправданную угрозу для мирных жителей, а это важнейшее требование международного права.

У компьютеров нет здравого смысла, который заставит их нарушить приказ ради благого дела, то есть они не смогут повести себя плохо, чтобы сделать хорошо. Известный пример. Три года назад беспилотный автомобиль насмерть сбил в Аризоне женщину по имени Элейн Херцберг. Масштабное расследование установило только через два года, что причина была не в сбое. Просто автомобиль был запрограммирован так, чтобы безусловно останавливаться перед пешеходами на пешеходном переходе, даже если бы ради этого пришлось испортить тормоза и компьютер. Но Херцберг везла велосипед с сумками в неположенном месте, а в программе это не учитывалось.

Теперь автомобили, наверное, будут программировать с учетом пешеходов в любом месте. Однако может возникнуть другая ситуация, которую в компьютер заранее не ввели. Подобные случаи с беспилотными автомобилями служат аргументом против автономного оружия, но факт в том, что при всей своей глупости они все равно надежнее, чем автомобили под управлением человека.