Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Как не перегнуть палку в беспокойстве об искусственном интеллекте

The Economist: контроль над использованием ИИ необходим на государственном уровне

© Depositphotos.com / ryanking999Робот печатает на клавиатуре
Робот печатает на клавиатуре - ИноСМИ, 1920, 24.04.2023
Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Читать inosmi.ru в
Успехи в области искусственного интеллекта вызывают опасения, пишет The Economist. Это угроза не только для рынка труда, но и для самого существования человека, утверждают некоторые. Безусловно, регулирование этой сферы необходимо, но по другим причинам, считает издание.
Успехи в области искусственного интеллекта вызывают не только восторженную реакцию, но также опасения и страх. Но стоит ли нам бояться?
Читайте ИноСМИ в нашем канале в Telegram
"Должны ли мы автоматизировать буквально все подряд виды трудовой деятельности, включая и ту работу, которая приносит чувство удовлетворения? Нужно ли нам вести разработки в сфере искусственного интеллекта, который в конечном итоге может задавить нас, перехитрить и оттеснить с пьедестала? Должны ли мы пойти на риск, выронив бразды правления над человеческой цивилизацией?" Именно эти вопросы прозвучали в открытом письме, опубликованном в прошлом месяце НКО "Институтом будущего жизни" (Future of Life Institute). В письме содержится призыв – "приостановить" на шесть месяцев разработки по созданию самых передовых модификаций искусственного интеллекта (ИИ). Письмо подписали такие корифеи в области высоких технологий, как Илон Маск. Словом, упомянутое письмо – это самый яркий образчик того, что быстрый прогресс в области искусственного интеллекта способен вызвать обеспокоенность, обусловленную той потенциальной опасностью, которую несут с собой высокие технологии.
В частности, новейшие "большие языковые модели" (LLM) (на которых, например, основана работа ChatGPT – чат-бота, созданного стартапом OpenAI) удивили даже своих создателей, ведь у этих LLM по мере их дальнейшей эволюции обнаружились неожиданные таланты. Столь неожиданные, "эмерджентные" способности подразумевают все что угодно – здесь и решение логических головоломок, и написание компьютерных программ, и даже поиск фильмов по краткому описанию сюжета, изложенного с помощью смайликов и прочих эмодзи.
LLM призвана изменить отношение человека к компьютеру, к знаниям и даже к самому себе. Поборники ИИ утверждают, что искусственному интеллекту вполне могут оказаться по плечу серьезные задачи – ИИ способен разрабатывать новые лекарственные препараты, новые материалы для борьбы с изменением климата, а также решать технические задачи с целью укрощения термоядерной энергии. Однако оппоненты утверждают, что искусственный интеллект, благодаря своим способностям, уже обгоняет своего создателя-человека, а из-за этого возникает риск претворения в жизнь пугающего сценария из научно-фантастических романов – сценария о том, как компьютер сумел перехитрить своего творца, что зачастую приводило к фатальным последствиям.
И эта гремучая смесь из волнений и страхов мешает взвешенному анализу потенциальных плюсов и минусов искусственного интеллекта. Правда, мы можем извлечь уроки из ситуаций, которые возникали в других отраслях, а также во времена технологических сдвигов прошлого. И все-таки, в силу каких причин ИИ вдруг стал для нас более грозным орудием? Насколько оправданны наши страхи? Что должны делать правительства в этой связи?
В специальном разделе "Наука" мы исследуем поведение LLM, а также возможности его применения в будущем. Во время появления первой волны современных систем ИИ, нахлынувшей на нас лет 10 тому назад, разработчики искусственного интеллекта полагались на тщательно размеченные обучающие данные. В результате, опираясь на достаточное количество размеченных примеров, системы ИИ научились распознавать, скажем, изображения и речь. Однако появившиеся сейчас современные системы уже не нуждаются в предварительной разметке, в результате чего их можно обучать, используя гораздо большие наборы данных, взятых прямо из онлайн-источников. По сути, LLM можно обучать на множестве данных всего Интернета, что и объясняет все потенциальные возможности LLM, как хорошие, так и плохие.
Все эти возможности стали очевидны широкому кругу пользователей в тот момент, когда в ноябре прошлого года появился чат-бот ChatGPT. За неделю его услугами воспользовался миллион человек, а за два месяца – целых 100 миллионов. Вскоре его стали использовать для написания школьных сочинений и свадебных речей. Популярность ChatGPT и попытка Microsoft включить его в свою поисковую систему Bing побудили конкурентов также приступить к разработке своих собственных чат-ботов.
И некоторые из них вдруг стали демонстрировать довольно странные результаты. Так, например, чат-бот Bing предложил какому-то журналисту уйти от жены. А один профессор в области юриспруденции даже обвинил чат-бот ChatGPT в клевете. Заметим, что модели LLM предлагают ответы, имеющие лишь налет правды; зачастую в них содержатся фактические ошибки и даже откровенные выдумки. Тем не менее, Microsoft, Google и другие компании-разработчики начали-таки включать LLMв свои продукты, чтобы помочь пользователям создавать документы и выполнять всякие другие задачи.
Искусственный интеллект - ИноСМИ, 1920, 21.04.2023
Секретный список сайтов, благодаря которым ИИ типа ChatGPT производит "умное" впечатлениеТехнологические компании скрывают, чем именно они "кормят" ИИ, поэтому редакция WP решила проанализировать массив данных Google C4 с целью выяснить, какие сайты и ресурсы использовались для обучения нейросетей. Результаты заставят удивиться.
Однако в последнее время системы искусственного интеллекта стали более мощны и популярны. Вместе с тем растет и осознание их возможностей и недостатков – а всё это начинает вызывать опасения по поводу того, что ИИ-технология сейчас стала развиваться столь стремительно, что ее, как оказалось, нельзя беспрепятственно проконтролировать. Именно на этом фоне возник призыв к тому, чтобы сделать паузу, остановиться. Стало возникать растущее беспокойство по поводу того, что ИИ несет с собой угрозу не только рынку труда, достоверности фактов и репутации, но и самомý существованию человечества как таковому.

Вымирание? Восстание?

Опасения насчет того, что техника лишит нас рабочих мест, существовали на протяжении столетий. Но до сих пор мы убеждались в том, что с помощью новых технологий новые рабочие места как раз таки создавались взамен исчезнувших. Машины, как правило, способны выполнять какие-то специфические, вполне определенные задачи, а это увеличивает спрос на сотрудников, которые выполняют ту работу, которая машинам не под силу. А вдруг отныне всё будет по-другому? Мы не должны исключать внезапных потрясений на рынках труда, даже если пока они не видны. Технологии прошлого, как правило, были нацелены на выполнение задач, не требовавших высокой квалификации. Но вот появился LLM, способный выполнять уже некоторые из тех задач, которыми занимаются белые воротнички (например, обобщать документы и писать программы).
Степень глобальной угрозы, создаваемой искусственным интеллектом, является в настоящее время предметом горячих споров. Мнения экспертов разделились. Так, в 2022 году был проведен опрос специалистов в области исследований ИИ; по мнению 48% респондентов, вероятность того, что влияние искусственного интеллекта будет "в высшей степени отрицательным (например, приведет к вымиранию человечества)" составляет не менее 10%. В то же время, по мнению 25% респондентов, данный риск равен 0%; средний исследователь оценил этот риск в 5%. Весь ужас заключается в том, что продвинутый ИИ может нанести огромный ущерб, поскольку ему вполне по силам создавать всякие яды и вирусы, а также побуждать людей к совершению террористических актов. У искусственного интеллекта должен отсутствовать всякий злой умысел, но специалисты в области ИИ опасаются, что у будущих модификаций искусственного интеллекта вполне могут появиться цели, не совпадающие с целями их создателя – человека.
Подобные сценарии отбрасывать не следует. Однако все они базируются на огромном количестве допущений, приправленных фантастическими предположениями. Многим кажется, что более совершенные модификации искусственного интеллекта получат неограниченный доступ к источникам энергии, деньгам и вычислительным мощностям, которые в настоящее время ему не доступны. Однако в будущем искусственный интеллект, имеющий враждебные намерения, вряд ли получит доступ к этим ресурсам. Заметим, что эксперты, представляющие ту или иную конкретную сферу деятельности, склонны, в отличие от других аналитиков, завышать риски в данной сфере (и Маск, который запускает свой собственный стартап в области искусственного интеллекта, заинтересован в том, чтобы его конкуренты прекратили работы в этом направлении). На сегодняшний день введение жесткого регулирования или даже прекращение разработок – всё это представляется чрезмерной реакцией.
Регулирование сферы ИИ необходимо, но по более приземленным причинам, нежели спасение человечества. Нынешние системы искусственного интеллекта вызывают серьезные опасения, поскольку им может быть свойственна предвзятость, они могут нарушать конфиденциальность и права интеллектуальной собственности. По мере дальнейшего развития ИИ-технологий могут всплыть и другие проблемы. Решение заключается в том, чтобы сопоставить плюсы от использования ИИ с возможными рисками, и в том, чтобы уметь адаптироваться.
В настоящее время правительства используют три различных подхода. На одном конце спектра находится Великобритания, которая предложила "мягкий" подход: в этом случае новые регулирующие правила не устанавливаются, а регулирующие органы не учреждаются, при этом в отношении ИИ-систем применяются уже существующие правила. Цель данного подхода состоит в том, чтобы увеличить инвестиции и превратить Великобританию в "сверхдержаву искусственного интеллекта". Аналогичный подход применяется и в США; правда, администрация Байдена сейчас пытается выяснить, что думает американское общество по поводу предполагаемого свода правил.
Более жесткую позицию занимает ЕС. Предлагаемый Евросоюзом закон классифицирует различные виды использования ИИ по степени риска и требует установления более строгого контроля, а также раскрытия информации по мере возрастания угроз, возникающих, скажем, от музыкальных рекомендаций и беспилотных автомобилей. В некоторых случаях ИИ вообще запрещен (например, в скрытой рекламе и при использовании удаленной биометрической идентификации). Компании, нарушающие установленные правила, должны штрафоваться. Некоторые критики считают эти правила ЕС слишком жесткими.
Генеральный директор Google Сундар Пичаи  - ИноСМИ, 1920, 18.04.2023
Гендиректор Google "не вполне понимает", как работает новая программа ИИ Bard, которая без спросу выучила иностранный язык и цитировала выдуманные книги для решения экономической задачиГенеральный директор Google Сундар Пичаи признал, что "не вполне понимает" некоторые моменты в работе программы ИИ Bard. Она, например, изучила язык, на который не была запрограммирована. Пичаи признался, что обеспокоен происходящим, ведь Bard уже рассказал о планах захватить мир.
Однако существуют и другие мнения, согласно которым необходимо применить еще более строгий подход. Согласно этой точке зрения, правительства должны относиться к искусственному интеллекту так же, как и к лекарственным средствам – в этом случае необходим специальный регулирующий орган, строгое тестирование, а также получение предварительного одобрения перед официальным выпуском ИИ-продукта. Отчасти подобный порядок существует в Китае, где ИИ-продукты перед выпуском должны регистрироваться и проходить проверку на предмет их безопасности. Но в КНР вопрос о безопасности приобретает, скорее, идеологический подтекст, ведь ключевое требование у них состоит в том, чтобы ИИ-продукты воплощали в себе "основные ценности социализма".
Что же делать? "Мягкого" подхода вряд ли будет достаточно. Если искусственный интеллект является столь же важной технологией, как автомобили, самолеты и лекарства (а есть веские основания полагать, что именно так оно и есть), то по отношению к нему следует применять точно такие же правила регулирования, что и по отношению к вышеназванным изделиям. Таким образом, модель, используемая в Евросоюзе, наиболее оптимальна, хотя принятая в ЕС система классификации слишком увязает в деталях, а подход, основанный на принципах, следовало бы считать более гибким. Принудительное раскрытие информации о том, как именно ИИ-системы обучаются, функционируют и контролируются, добавим сюда также требование о проведении проверок – всё это было бы сопоставимо с теми порядками, которые существуют в других отраслях.
С течением времени регулирование ИИ-продуктов, в случае необходимости, можно было бы и усилить. В этом случае было бы целесообразно учредить специальный регулирующий орган. А если появятся достоверные доказательства возникновения глобального риска, то можно было бы заключить и межправительственные договоры, подобные тем, что регулируют вопросы ядерной безопасности. Для того, чтобы отслеживать эти угрозы, правительства могли бы учредить специальную организацию по образцу ЦЕРН (Европейская организация по ядерным исследованиям. — Прим. ИноСМИ), которая бы занималась вопросами безопасности и этики искусственного интеллекта (вкладываться в эти важные с точки зрения общественных потребностей сферы у коммерческим компаний нет никаких стимулов).
Мощные ИИ-технологии не только порождают новые риски, но также открывают перед нами большие возможности.А балансировать между рисками и возможностями – значит действовать с осмотрительностью. Взвешенный подход подразумевает создание фундамента, состоящего из базовых принципов, которые можно было бы в дальнейшем дополнять новыми нормами. Но именно сейчас самое время начать закладку этого фундамента.