21 апреля Европейская комиссия представила свод правил, которые являются первым в мире проектом всеобъемлющего регулирования искусственного интеллекта. До сих пор отдельные нормы действовали только на национальном уровне (например, определение созданного компьютером произведения в законодательстве Соединенного Королевства или требование немецкого закона о том, что водитель должен присутствовать в автономном автомобиле). Страны Европейского Союза часто пользуются политическими документами вроде стратегий в области искусственного интеллекта (Франция, Эстония, Польша, Германия, в том числе). После Общего регламента защиты персональных данных (GDPR) у ЕС снова появилась возможность создать мировой нормативный стандарт. Цель нормативно-правового акта заключается в том, чтобы соблюсти этику, принципы безопасности, учесть ценности Европейского Союза и основные права при создании искусственного интеллекта. Формирование нормативной базы создаст безопасные условия и тем самым простимулирует инвестиции в развитие искусственного интеллекта в ЕС, а также повысит конкурентоспособность Евросоюза и защитит его цифровой суверенитет.
Предложение включает перечень правил в области развития, маркетинга и использования искусственного интеллекта в Европейском Союзе. В его основе лежит деление систем искусственного интеллекта на неприемлемые, с высоким, низким и минимальным риском. К первой категории относятся системы, которые используют подсознательные техники влияния на поведение людей во вред им или технологии социального рейтинга. Проект регулирует наиболее многочисленные системы искусственного интеллекта с высоким риском, которые имеют отношение, например, к транспорту, оценке кредитных заявок или решениям о предоставлении социальных пособий. Системы искусственного интеллекта должны соответствовать многочисленным требованиям, пройти проверку, в том числе, на соответствие стандартам Европейского Союза, а также регистрацию в базах данных Европейского Союза и гарантировать сохранность данных пользователей. Эти обязательства возлагаются как на производителей, так и на поставщиков систем искусственного интеллекта вне зависимости от того, где они базируются (в ЕС или вне его). Более того, те же требования предъявляются к пользователям подобных систем внутри Европейского Союза. Что касается других систем искусственного интеллекта, скажем чатботов, то в предложении прописано обязательство предварительно информировать пользователя о том, что он общается с искусственным интеллектом.
За несоблюдение предписаний предлагается еще более суровое наказание, чем в случае Общего регламента защиты персональных данных — штраф в размере до шести процентов мирового годового оборота компании. В государствах-членах ЕС ответственность за выполнение норм возьмут на себя национальные органы. На уровне Европейского Союза эти национальные органы сформируют Европейский совет по искусственному интеллекту (EAIB) и Европейский надзорный орган по защите данных (EDPS), которые будут работать под руководством Еврокомиссии. Проект поддерживает Европейский надзорный орган по защите данных, хотя и требует более строгого подхода. Несколько стран-членов, например Германия, выступают за широкие регулятивные меры, но многие опасаются ускорения технического развития. 14 стран Европейского Союза поддерживают идею ограничить регулирование в области искусственного интеллекта до необходимого минимума или ввести необязательные инструменты.
В предложении содержится много исключений и расплывчатых определений. Например, запрет на биометрическую идентификацию в реальном времени распространяется только на правоохранительные органы и общественные пространства. Значит, под него не подпадают частные пространства и другие общественные объекты и частные субъекты. Кроме того, запрет не будет действовать и тогда, когда подобные технологии будут применяться для борьбы с терроризмом и при угрозе жизни или безопасности людей, а это можно толковать как угодно.
Категоризацию рисков подготовила Европейская комиссия, однако ее критерии до конца не ясны. Например, метод оценки рисков включает оценку на основе применяемости, что не вполне понятно. Поскольку модели можно адаптировать к любому приложению, остается много серых зон для оправдания любого вывода. Все это может привести к созданию нестабильных условий для развития искусственного интеллекта, так как Европейская комиссия может в любой момент обновить категории риска, что будет влиять на применение той или иной технологии. Например, так называемые технологии черного ящика, которые функционируют без участия человека, квалифицируются как высоко рискованные. В «нормальных» моделях указан алгоритм, по которым модель должна учиться. Но в данном случае искусственный интеллект независимо определяет переменные и их значимость, в том числе данные, которые нужно пропустить (пока система принимает собственные решения, трудно, если вообще возможно, извне определить, какие переменные используются, как и почему). Такие системы чрезвычайно эффективны (применительно к цели), но не соответствуют требованиям к анализу рисков. Отнесение их к высоко рискованным приведет к значительному ограничению инноваций в ЕС. В предложении утверждается примат человека над технологией, но в нем не учитывается положение пользователя системы искусственного интеллекта. Так, не существует специальных средств правовой защиты, скажем, особого механизма для взыскания штрафа в случае несанкционированной или непредвиденной работы систем искусственного интеллекта.
Этот свод норм мог бы стать самым полным перечнем в области регулирования искусственного интеллекта в мире. Вместе с тем он вписывается в тенденции, которые заметны в других странах, особенно в том, что касается анализа рисков и угроз, связанных с искусственным интеллектом, и плана действий в случае нарушений. Технологии искусственного интеллекта необходимо независимо тестировать в режиме реального времени как во время работы, так и после нее из-за роста и изменений рисков с течением времени. Подобный подход аналогичен региональным предписаниям, в том числе действующим в штатах Вирджиния и Калифорния. Общие правила потенциально могут сформировать основу для переговоров на эту тему в трансатлантическом формате. Правда, маловероятно, чтобы Соединенные Штаты согласились с определением высокого риска, сформулированным Евросоюзом, или с общей системой надзора за технологиями. Плодотворным могло бы стать сотрудничество в уже развитых областях, таких как взаимное признание норм и допуск субъектов на оба рынка. О готовности к сотрудничеству свидетельствует то, насколько позитивно ЕС воспринял проекты, представленные советником по национальной безопасности Джейком Салливаном.
Американские технологические компании, включая «Гугл» и «Майкрософт», уже заявили, что оспорят в суде предложение Европейской комиссии. Их уже существующие системы искусственного интеллекта в основном обучены на данных граждан Европейского Союза. Многие из них также используются для предоставления услуг на рынке ЕС. Это означает, что данные нормы заставят эти компании применить описанные механизмы анализа рисков. Более того, невозможно будет обойти требования через специальные компании, работающие за пределами рынков Европейского Союза, поскольку нормы будут распространяться и на них.
В результате некоторые услуги, вероятно, не будут предлагаться в ЕС или для его рынков будут созданы отдельные системы искусственного интеллекта. Возникнут серьезные препятствия, но крупные компании с ними справятся. Дополнительные обязательства могут ограничить развитие и распространение искусственного интеллекта на внешних рынках, поскольку значительные ресурсы будут брошены на выполнение новых требований, как и в случае Общего регламента защиты персональных данных. Некоторые приложения для искусственного интеллекта, вроде тех, которые используют биометрию, будут полностью запрещены в ЕС, а в результате (если не появится таких же международных мер) на первый план вскоре выйдут американские и китайские компании.
Предписания Европейского Союза об искусственном интеллекте могут оказаться столь же успешными, как и Общий регламент защиты персональных данных, который стал первым всеобъемлющим сводом правил в мире, регулирующим развивающиеся технологии. Европейская комиссия обретает гибкость, так как планирует адаптироваться к потенциальному развитию искусственного интеллекта, не внося при этом постоянных изменений и поправок. Вместе с тем нормы могут ускорить темпы развития искусственного интеллекта и снизить конкурентоспособность компаний из Европейского Союза. Несмотря на помощь стран-членов ЕС малым и средним предприятиям, предусмотренную в предложении (например, приоритет при доступе к специальным тестовым средам, упрощенный доступ к информации об изменении норм и снижение затрат на оценку соответствия), нормы могут преградить компаниям доступ к общему рынку.
Предложенные нормы необходимы с точки зрения защиты прав человека, но нужно учитывать реальные возможности доступные при соблюдении этих прав. Чтобы достигнуть максимальной эффективности, не пожертвовав конкурентными преимуществами Европейского Союза, в ходе консультаций на уровне ЕС и Европейской комиссии следует поощрить иностранных партнеров, например США, чтобы они приняли аналогичные стандарты искусственного интеллекта, включая защиту прав человека, а также привлечь ВТО или ОЭСР. На уровне Европейского Союза дополнительная помощь, компаниям, зарегистрированным в ЕС, могла бы поступать из фондов Европейского Союза благодаря новым программам финансирования исследований в области искусственного интеллекта.