Боты против троллей: как искусственный интеллект может очистить социальные сети

Читать на сайте inosmi.ru
Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Кто же знал, что ситуация может стать настолько тяжелой? За последние две недели Фейсбук обнаружил новые фейковые страницы, которыми могут пользоваться агенты России. Президент США обвинил Твиттер в умышленном сокращении видимости консервативных политиков. А Эппл, Фейсбук, Ютуб и Пинтерест почти одновременно удалили учетные записи правого радикала Алекса Джонса и его медиа-империи Инфоворс.

Кто же знал, что ситуация может стать настолько тяжелой? За последние две недели Фейсбук обнаружил новые фейковые страницы, которыми могут пользоваться агенты России. Президент США обвинил Твиттер в умышленном сокращении видимости консервативных политиков. А Эппл, Фейсбук, Ютуб и Пинтерест почти одновременно удалили учетные записи правого радикала Алекса Джонса и его медиа-империи Инфоворс. Это вызвало дискуссии на тему, могут ли технологические гиганты устанавливать границы свободы слова.

Так или иначе, все эти события касаются решений, сделанных людьми, но выполненных алгоритмами. Сегодня существует много инструментов на основе искусственного интеллекта, с помощью которых можно выявить дезинформацию, ботов, фальшивые учетные записи, злокачественные кампании влияния, цель которых исказить то, что мы слышим и видим. Проблема лишь в том, что до сих пор нет консенсуса относительно того, как их использовать.

Технологические гиганты уже говорят о том, как некоторые из этих инструментов стоит применять. Фейсбук использует искусственный интеллект для выявления злокачественного контента: от языка ненависти до риторики, которая может свидетельствовать о риске совершения самоубийства.

Твиттер применяет эту технологию для выявления тех, кто склонен к домогательствам. А Ютуб с помощью искусственного интеллекта борется с распространением видео террористов на своей платформе. Несмотря на все эти усилия, исследователи и политики думают над тем, как повысить ответственность людей, которые руководят этими компаниями. В лучшем случае, технологические гиганты пойдут на сотрудничество в разработке прозрачных инструментов.

Проблемы распространения языка ненависти, призывов к насилию, государственной пропаганды и дезинформации на самом деле связаны между собой. Поэтому для их решения можно использовать одни и те же инструменты. Взять для примера связь между страницами террористов и кампаниями по распространению дезинформации. И одно, и другое можно выявить одними и теми же методами, уверяет эксперт Государственного университета Аризоны Хамирдреза Алвари.

Обычно попытки обнаружить страницы зловещих акторов в социальных сетях опираются на лексические фильтры. Но террористы и пропагандисты научились их обманывать. Алвари разработал алгоритм, который ищет определенные страницы, контент которых распространяется на платформе нетипично быстро. Поскольку это и является целью как пропагандистов, так и террористов, его метод может помочь очистить соцсети от контента и одних, и других. Но людям все равно нужно принимать окончательное решение, чтобы избежать ошибок.

 

Обсудить
Рекомендуем