https://inosmi.ru/20260116/intellekt-276635918.html
Эксперты бьют тревогу: ИИ вскоре даст хакерам очень серьезное преимущество
Эксперты бьют тревогу: ИИ вскоре даст хакерам очень серьезное преимущество
Эксперты бьют тревогу: ИИ вскоре даст хакерам очень серьезное преимущество
Искусственный интеллект научился находить уязвимости "нулевого дня" быстрее и эффективнее людей, пишет Wired. Это ставит под угрозу привычные методы... | 16.01.2026, ИноСМИ
2026-01-16T02:34
2026-01-16T02:34
2026-01-16T02:34
наука
wired magazine
wired
/html/head/meta[@name='og:title']/@content
/html/head/meta[@name='og:description']/@content
https://cdnn1.inosmi.ru/img/07e9/03/16/272300908_0:7:3375:1905_1920x0_80_0_0_98d9c4fd444a5b8d5b876126daf7f23e.jpg
Уилл Найт (Will Knight)Модели искусственного интеллекта настолько хорошо научились находить уязвимости, что по мнению некоторых экспертов, технологической отрасли придется переосмыслить методы разработки программного обеспечения.ИноСМИ теперь в MAX! Подписывайтесь на главное международное >>>Соучредители стартапа кибербезопасности RunSybil Влад Ионеску и Ариэль Герберт-Фосс на мгновение растерялись, когда разработанный ими инструмент искусственного интеллекта Sybil в ноябре прошлого года предупредил их об уязвимости в системах одного клиента."Реальный и грозный риск": атаки на российские суда могут привести к непоправимомуSybil использует сочетание различных моделей ИИ, а также несколько фирменных технических приемов при сканировании компьютерных систем в поисках проблем, которыми могут воспользоваться хакеры, типа неисправленного сервера или неправильно настроенной базы данных.В данном случае приложение Sybil отметило проблему в использовании клиентом объединенного языка запросов данных и манипулирования ими под названием GraphQL, который используется для уточнения того, как осуществляется доступ к данным в сети посредством интерфейсов прикладного программирования (API). Выявленная проблема указывала на то, что клиент непреднамеренно раскрывал конфиденциальную информацию.Ионеску и Герберта-Фосса озадачило то, что для выявления проблемы такого рода требуется глубочайшее знание нескольких разных систем, а также способов их взаимодействия. Компания RunSybil заявляет, что после этого обнаружила такую же проблему в других системах, где используется GraphQL. Пока кто-нибудь не заявил об этом публично, "мы обшарили интернет, но ее не существовало", говорит Герберт-Фосс. "Обнаружить ее было логичным шагом с точки зрения возможностей моделей — кардинальным изменением".Такая ситуация говорит о том, что риски усиливаются. Модели ИИ становятся все умнее, и у них появляются новые возможности по поиску уязвимостей нулевого дня, для которых еще не разработаны защитные механизмы, а также других слабых мест. Тот самый интеллект, который применяется для обнаружения уязвимостей, можно использовать и для их эксплуатации.Программист Дон Сонг из Калифорнийского университета в Беркли, специализирующаяся на ИИ и безопасности, рассказывает, что последние достижения в области искусственного интеллекта позволили создать модели, которые лучше находят изъяны. Смоделированное мышление, предполагающее разбивку проблем на составляющие, а также агентный ИИ, позволяющий вести поиск в сети или устанавливать и использовать программные средства, повышают кибернетические возможности моделей."Способности передовых моделей в сфере кибербезопасности за последние месяцы существенно улучшились, — говорит она. — Это переломный момент".В прошлом году Сонг в соавторстве создала программу оценки производительности CyberGym, чтобы определять, насколько хорошо большие языковые модели находят уязвимости в крупных проектах программного обеспечения с открытым исходным кодом. CyberGym включает 1 507 известных уязвимостей, найденных в 188 проектах.В июле 2025 года модель Claude Sonnet 4 компании Anthropic сумела найти около 20 процентов уязвимостей в этой программе оценки производительности. К октябрю 2025 года новая модель Claude Sonnet 4.5 смогла выявить 30 процентов. "Агенты ИИ могут находить уязвимости нулевого дня, причем с минимальными затратами", — говорит Сонг. По ее словам, данная тенденция указывает на необходимость искать новые контрмеры, включая помощь экспертам по кибербезопасности со стороны искусственного интеллекта. "Нам надо думать о том, как ИИ может реально помочь в обеспечении более надежной защиты, и как можно использовать различные подходы", — объясняет она.Одна из идей заключается в том, чтобы передовые компании ИИ показывали свои модели экспертам по безопасности до их запуска, чтобы те использовали их для поиска ошибок и защиты систем до их общего выпуска.Есть еще одна контрмера, говорит Сонг. Нужно вообще по-новому подойти к созданию программного обеспечения. Ее лаборатория показала, что при помощи ИИ можно создавать коды, которые будут более надежными и безопасными, чем большинство из тех, которыми сегодня пользуются программисты. "Мы думаем, что в долгосрочной перспективе такой изначально безопасный подход реально поможет разработчикам мер защиты", — утверждает Сонг.Команда RunSybil говорит, что навыки кодирования, которыми обладают модели ИИ, в ближайшем времени будут означать одно: хакеры одерживают верх. "ИИ может сгенерировать действия на компьютере и создать код, но хакеры тоже умеют это делать, — говорит Герберт-Фосс. — Если эти возможности будут расширяться, наступательные действия по обеспечению безопасности тоже будут ускоряться".
/20251213/neyroseti-276127543.html
ИноСМИ
info@inosmi.ru
+7 495 645 66 01
ФГУП МИА «Россия сегодня»
2026
ИноСМИ
info@inosmi.ru
+7 495 645 66 01
ФГУП МИА «Россия сегодня»
Новости
ru-RU
https://inosmi.ru/docs/about/copyright.html
https://xn--c1acbl2abdlkab1og.xn--p1ai/
ИноСМИ
info@inosmi.ru
+7 495 645 66 01
ФГУП МИА «Россия сегодня»
https://cdnn1.inosmi.ru/img/07e9/03/16/272300908_0:0:2731:2048_1920x0_80_0_0_5ab06da20e4548958c2dca6758a5f944.jpgИноСМИ
info@inosmi.ru
+7 495 645 66 01
ФГУП МИА «Россия сегодня»
ИноСМИ
info@inosmi.ru
+7 495 645 66 01
ФГУП МИА «Россия сегодня»
наука, wired magazine, wired