Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Индустриализация интеллекта меняет правила игры

BNR: искусственный интеллект может коренным образом изменить геополитику

© Pixabay Gerd Altmann Искусственный интеллект
Искусственный интеллект - ИноСМИ, 1920, 03.05.2023
Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Читать inosmi.ru в
Снижение геополитических рисков, связанных с искусственным интеллектом, требует качественного надзора и открытого диалога о его преимуществах и сложностях, считает Иоланда Ленквист, эксперт по проблемам ИИ в The Future Society. В беседе с Радио Болгария она объяснила, что проблема не в технологии, а в том, какие задачи ставят ее создатели.
Силвия Петрова
Три года назад российский президент Владимир Путин сравнил искусственный интеллект с ядерным оружием: "Тот, кто будет обладать такими технологиями, получит преимущество, возможно, даже несравнимое с ядерным оружием". Недавно на вопрос, опасен ли искусственный интеллект, президент США Джо Байден ответил: "Может быть, это еще предстоит выяснить". А в 2019 году в письме, призывающем к "европейскому ренессансу", президент Франции Эммаюуэль Макрон, помимо указания на инвестиции в новые технологии как на способ взять под контроль будущее континента, спросил: "Кто может сказать, что суверенен перед лицом цифровых гигантов?" Теперь их действительно можно назвать геополитическими игроками за пределами национальных государств — порой крупнейшие технологические компании имеют большее влияние, чем многие страны.
Читайте ИноСМИ в нашем канале в Telegram
"Искусственный интеллект — это преобразующая технология, которая, по мнению многих экспертов, будет универсальной, как интернет или электричество. Крупнейшие компании технологического сектора используют искусственный интеллект. Страны, в которых они базируются — США, Китай и Великобритания, — будут лидировать в экономическом развитии военного потенциала и возможностей экономики в целом. Можно ожидать увеличения разрыва между лидерами ИИ и отстающими с точки зрения их политического влияния, экономического роста, развития и благосостояния. Но даже внутри этих стран, таких как США, будет существовать неравенство между теми, кто может инвестировать в эту технологию и получать от нее выгоду, и теми, кто не может. Однако важно иметь в виду контраргумент о том, что существует постоянная тенденция к „демократизации“ искусственного интеллекта с помощью новых инструментов с открытым исходным кодом и помощников по написанию кода, хотя инновационные компании, разрабатывающие языковые модели (например, ChatGPT) и искусственный интеллект общего назначения, базируются в США и в Китае. Все больше и больше людей, даже не имеющих базовых технических навыков и знаний в области программирования, могут разрабатывать и внедрять собственные системы искусственного интеллекта. Таким образом, можно ожидать, что много мелких игроков будут применять эту технологию, что будет способствовать их экономическому росту", — объяснила Иоланда Ленквист, директор отдела управления и политики ИИ в The Future Society.
Радио Болгария: Эксперты прогнозируют, что "производство" искусственного интеллекта, который будет работать на все более мощных компьютерах, станет одним из основных источников власти в будущем. С такой технологией можно будет парализовать противника, заблокировав экономику или оборонную и военную промышленность.
Иоланда Ленквист: Между Америкой и Китаем существует соперничество, а конкуренция в технологиях искусственного интеллекта усиливает напряженность и неопределенность. Однако следует отметить, что ученые этих стран часто сотрудничают как в университетах, так и в компаниях — важно, что такой неофициальный исследовательский канал существует. Соединенные Штаты и Европейский Союз также работают над стандартами совместимости и режимами регулирования.
ChatGPT на экране монитора - ИноСМИ, 1920, 01.05.2023
Люди используют искусственный интеллект для терапии, хотя ChatGPT был создан не для этого
— Может ли искусственный интеллект создать конфликт нового типа, особенно когда речь идет о кибербезопасности? Возможности влиять на общественное мнение с помощью манипулятивных постов в социальных сетях и воздействовать на критическую инфраструктуру, такую как электрические сети, транспорт и связь, кажутся безграничными...
— Языковые шаблоны позволяют все большему количеству людей, даже неспециалистам, разрабатывать код, который может быть вредоносным — внедрять вирусы или выявлять слабые места в программах. Таким образом, весьма вероятно, что все больше и больше организаций будут совершать кибератаки или целевые фишинговые атаки (направленные на кражу данных) в виде поддельных электронных писем, якобы отправленных вашим банком. Будет увеличиваться количество поддельного фото- и видеоконтента. Готовьтесь получить голосовые сообщения, звучащие как ваши дети, их учителя или как сотрудники банка, которые хотят, чтобы вы назвали пароль. Но это будет сгенерированный голос.
— Вопрос регулирования искусственного интеллекта окутан туманом — к нему хотят получить доступ все крупные игроки, чтобы закрепить за собой роль лидера. Надзор и регулирование этой технологии станет важной задачей для международного права и может даже коренным образом изменить дипломатию и геополитику. Следует и возможно ли устанавливать за искусственным интеллектом надзор, чтобы смягчить его негативные последствия?
— Конечно! Важно также регулировать развитие искусственного интеллекта — от поставщиков до рынков. В этом процессе существует множество рисков. Мы не можем полагаться на саморегулирование и самоуправление компаний. У многих крупных компаний в этой сфере свои внутренние этические принципы и меры безопасности. Но часто их обходят стороной, чтобы как можно быстрее вывести свою продукцию на рынок — не отставать от конкурентов и увеличивать свою долю рынка. В сфере искусственного интеллекта это называется "гонкой по нисходящей". И здесь внешний игрок в виде регулятора может поднять планку. Многие хотят этого — не получается полагаться друг на друга в саморегулировании, если нет каких-нибудь обязательств.
Робот печатает на клавиатуре - ИноСМИ, 1920, 24.04.2023
Как не перегнуть палку в беспокойстве об искусственном интеллектеУспехи в области искусственного интеллекта вызывают опасения, пишет The Economist. Это угроза не только для рынка труда, но и для самого существования человека, утверждают некоторые. Безусловно, регулирование этой сферы необходимо, но по другим причинам, считает издание.
— В Европе о технологических гигантах в основном говорят в контексте того, соблюдают ли они правила европейских институтов и, следовательно, были ли они оштрафованы и платят ли налоги. Но, похоже, не хватает ответа в виде реальных, ощутимых и значимых европейских цифровых гигантов. Одна из причин — самые талантливые программисты едут в США. Кто сейчас выигрывает гонку — США или Китай?
— Пока Соединенные Штаты опережают Китай в исследованиях, цитировании в научных статьях и презентациях на конференциях. Но Китай быстро догоняет их во всех этих категориях. Согласно отчету Stanford AI Index 2023, Америка лидирует как по языковым, так и по мультимодальным моделям — в прошлом году она охватила 54%. Но китайские компании приближаются к этому уровню.
— Искусственный интеллект — важная тема для будущего человечества. Интересно, что специалисты в этой области придерживаются полярных мнений. Илон Маск был одним из соучредителей OpenAI в 2015 году, но позже покинул совет директоров из-за недопонимания с руководством, в том числе в отношении к мерам безопасности. Он вновь работает над проектом развития искусственного интеллекта, хотя и проявляет скорее пессимизм и беспокойство по поводу этой технологии. Противоположного мнения придерживаются Марк Цукерберг и Тим Кук — их тон скорее успокаивает. Какие самые распространенные заблуждения об искусственном интеллекте Вы бы выделили?
— Важно помнить, что технологии будут развиваться быстро, поэтому риски — дезинформация, поддельный контент, предвзятость, дискриминация, кибератаки — будут только усиливаться. Будут и новые, непредсказуемые риски. В будущем у нас будут еще более мощные модели, и их внедрение в общество получает все более широкое распространение — как в государственном, так и в частном секторе. Так что мы ожидаем, что в будущем искусственный интеллект будет использоваться в цифровой инфраструктуре — в оцифровке государственной и частной системы. Но высок риск провала. Искусственный интеллект должен быть стабилен в новых ситуациях и в новых средах — безопасным и без пробелов; это касается в том числе предвзятости, этики и безопасности. Но это маловероятно, ведь исследования не рассматривали эти риски. Сегодня США инвестируют миллиарды долларов в еще более мощные системы искусственного интеллекта, эти деньги можно использовать для того, чтобы сделать существующие системы более безопасными, стабильными, защищенными и этичными. Если не ввести правила управления, я ожидаю все больше и больше сбоев и неудач.
Снижение геополитических рисков, связанных с искусственным интеллектом, требует качественного надзора и открытого диалога о его преимуществах, ограничениях и сложностях. С этой технологией связаны два представления: утопичное — "она позволит человечеству стряхнуть с себя мирские заботы и стать более продуктивным", и антиутопичное — "она будет пагубной для экономики". Однако вредно руководствоваться крайностями, рассуждая о чем бы то ни было — ведь искусственный интеллект создают люди. Проблема не в технологии, а в том, какие задачи перед ней ставят ее создатели.