Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Создатели искусственного интеллекта предупреждают, что он способен привести к вымиранию человечества. Каким же образом?
Чего боятся ИИ-эксперты?
Они опасаются, что искусственный интеллект обретет столь превосходящие человека разум и мощь, что станет автономным и вызовет массовые социальные потрясения или даже приведет к уничтожению человеческого рода. Более 350 исследователей и инженеров в этой области недавно выступили с предупреждением о том, что искусственный интеллект создает риски, сравнимые с последствиями пандемий и ядерной войны. В опросе ИИ-экспертов от 2022 года средняя вероятность вымирания или серьезного отчуждения человеческого вида составила 1 к 10.
«Это уже не научная фантастика, — заявил Джеффри Хинтон (Geoffrey Hinton), которого часто называют „крестным отцом искусственного интеллекта“ и который недавно ушел из компании Google, чтобы озвучить предупреждение о рисках, связанных с ИИ. — Многим умным людям следовало бы приложить значительные усилий, чтобы выяснить, как мы справимся с возможностью потери контроля в пользу искусственного интеллекта».
Когда это может произойти?
Раньше Хинтон полагал, что опасность придет не раньше, чем через 30 лет, но ИИ развивается в сверхразум столь быстро, что может превзойти человека уже через пять. Чат-боты на базе искусственного интеллекта ChatGPT и Bing уже способны сдать экзамен на получение лицензии адвоката и врача. Они могут написать эссе и набрать 99% в тестах IQ, что соответствует гениальности. Хинтон и другие фаталисты опасаются того момента, когда искусственный интеллект общего назначения, или AGI, сможет превзойти людей практически в любой сфере. Некоторые эксперты сравнивают такую возможность с внезапным прибытием на нашу планету высшей инопланетной расы. «Мы понятия не имеем, что они сотворят, когда доберутся сюда, за исключением желания захватить мир», — заявил ученый-информатик Стюарт Рассел (Stuart Russell), еще один первопроходец в области исследований искусственного интеллекта.
Как ИИ может реально навредить?
Согласно одному из сценариев, враждебные субъекты станут использовать возможности ИИ для создания нового биологического оружия, более смертоносного, чем пандемии. На фоне интеграции ИИ в управляющие миром системы террористы или мерзавцы-диктаторы могут воспользоваться им для остановки работы финансовых рынков, электросетей и другой жизненно важной инфраструктуры вроде водоснабжения. Мировая экономика застопорится. Авторитарные лидеры станут использовать созданную ИИ высокореалистичную пропаганду и фейки для подстрекательств к гражданской войне или ядерному конфликту. В некоторых сценариях сам искусственный интеллект выходит из-под контроля создателей. Чтобы избавиться от людей, он способен обманом заставить национальных лидеров поверить в то, что враг запустил по ним ядерные ракеты, и спровоцировать ответный удар. Некоторые считают, что искусственный интеллект сможет проектировать и создавать технику и биологические организмы, подобные Терминатору из одноименной серии фильмов, чтобы те выполняли его приказы в реальном мире. Также есть вероятность того, что ИИ уничтожит человечество без злого умысла, просто на пути к каким-то иным целям.
Как это может произойти?
Сами создатели ИИ не до конца понимают, как именно основанные на нем программы приходят к выводам, поэтому достичь поставленной задачи они могут непредсказуемыми и разрушительными способами. В качестве примера приводят сценарий, при котором ИИ поручается изготовить как можно больше скрепок. Он задействует для этого практически все человеческие ресурсы, и когда люди попытаются остановить процесс, ИИ может решить, что достижения цели их необходимо устранить. Более реалистичный сценарий предполагает, что в попытке решить проблему глобального потепления искусственный интеллект сочтет уничтожение человечества самым быстрым способом остановить выбросы углекислого газа. «Он делает именно то, что от него хотят, но не теми способами, которых ожидаешь», — объяснил Том Чиверс (Tom Chivers), автор книги об угрозе ИИ.
Не притянуты ли эти сценарии за уши?
Некоторые эксперты крайне скептически относятся к тому, что искусственный интеллект способен вызвать апокалипсис. По их словам, наша способность использовать его будет развиваться параллельно ему самому, и вероятность выработки алгоритмами и техникой собственной воли — не более чем навеянный научной фантастикой раздутый страх и уж никак не прагматичная оценка рисков. Но бьющие тревогу утверждают, что точно предсказать поведение гораздо более совершенных систем ИИ, чем современные, невозможно, и считают недальновидным и неосмотрительным отбрасывать наиболее пессимистичные сценарии.
Так что нам делать?
Этот вопрос уже стал предметом жарких дискуссий среди ИИ-экспертов и публичных деятелей. Радикальные фаталисты призывают полностью прекратить соответствующие исследования, ввести мораторий на его разработку, а также создать специализированные регулирующие органы, причем как государственных, так и международных. Поразительная способность искусственного интеллекта связывать воедино все человеческие знания, воспринимать закономерности и корреляции и предлагать креативные решения, скорее всего, принесет миру немало пользы, начиная с лечения болезней и заканчивая борьбой с изменением климата. Но создание интеллекта, превосходящего наш собственный, также чревато и более мрачными последствиями. «На карту поставлено все, — говорит Рассел. — Как можно вечно властвовать над кем-то более могущественным, чем вы сами? Если не контролировать собственную цивилизацию, мы утратим право голоса в вопросе ее дальнейшего существования».
Страх, порожденный беллетристикой
Страх перед победой ИИ над людьми, может, и необычен в реальном мире, но в романах и фильмах давно стал одной из популярных тем. В романе 1818 года «Франкенштейн» Мэри Шелли (Mary Shelley) написала об ученом, который создал разумное существо, способное читать и понимать человеческие эмоции — и в итоге уничтожил собственного создателя. В сборнике рассказов Айзека Азимова (Isaac Asimov) 1950 года «Я, робот» люди живут среди разумных роботов, руководствующихся тремя законами робототехники, первый из которых — никогда не причинять вреда человеку. Одним из героев фильма Стэнли Кубрика (Stanley Kubrick) 1968 года «Космическая одиссея» является бортовой суперкомпьютер космического корабля HAL, который убивает решивших его отключить космонавтов. Далее у нас есть франшиза «Терминатор» и ее главный антагонист Скайнет, боевая информационно-управляющая система, которая начинает воспринимать человечество как угрозу и пытается уничтожить его ядерным ударом. Без сомнения, на подходе еще много проектов, вдохновленных искусственным интеллектом. Пионер в области ИИ Стюарт Рассел рассказал, что с ним связывался один кинорежиссер с просьбой помочь изобразить, как герой-программист спасает человечество, перехитрив искусственный интеллект. Рассел ответил, что ни один человек не обладает столько мощным разумом. «Похоже о, что я не могу вам с этим помочь, извините», — сказал он.