Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Читать inosmi.ru в
Команда исследователей из Yahoo Labs опубликовала статью о самообучающейся машине, способной блокировать оскорбления в интернете. Система интерпретирует значения слов как векторы, и даже если какие-то конкретные слова не оскорбительны, векторное отображение их потока может вызвать тревожную реакцию. Социальным сетям и большим новостным сайтам такая система может понравиться.

«Человеку, которого можно вывести из себя записью в Twitter, нельзя доверять ядерное оружие», — сказала Хиллари Клинтон, выступая на Национальном съезде Демократической партии. Этот выпад хорошо восприняла настроенная против Трампа аудитория, но на самом деле любой, у кого есть микроблог в Twitter, знает, что и его можно вывести из себя таким образом. «Черт, тогда меня это тоже исключает», — написал в своем Twitter Марк Андриссен (Marc Andreessen), глава венчурного фонда, инвестировавший на ранних этапах в разнообразные технические компании, достигшие большого успеха, в ответ на выпад Клинтон. 

В интернете, в отделе комментариев на сайтах, в социальных сетях или по электронной почте, любой, кто высказывает даже не противоречивое мнение, вполне может подвергнуться оскорблениям. Я пишу статьи, так что мне это хорошо известно. На меня нападают, обвиняя в том, что я еврей, защищаю исламизацию, поддерживаю Путина и Польшу (украинские обвинения), поддерживаю Украину (российские и польские обвинения), что я либерал, коммунист, неоконсерватор и еще много всего. Мне писали злобные электронные письма любители Apple, Элона Маска и Дональда Трампа. Люди публиковали записи, предлагая мне убить себя. И мои дела еще не самые плохие. Недавно финская журналистка Джессика Аро (Jessikka Aro) подверглась настолько жестоким преследованиям со стороны российских троллей, что написала об этом книгу, а Джулия Иоффе (Julia Ioffe) стала мишенью антисемитских нападок, взяв интервью у Мелании Трамп.

Живой, теплокровный человек не в состоянии отмахиваться от подобных вещей. Иногда палец сам начинает искать кнопку запуска ядерных ракет, но находит исключительно кнопку блокировки особенно грубых троллей. Клинтон, обращения к которой скрупулезно вычищаются, вероятно, никогда не испытывала подобного искушения.

Существует потенциальное лекарство от этого, но, боюсь, оно окажется хуже болезни. Команда исследователей из Yahoo Labs опубликовала статью о самообучающейся машине, способной блокировать оскорбления в интернете. Система интерпретирует значения слов как векторы, и даже если какие-то конкретные слова не оскорбительны, векторное отображение их потока может вызвать тревожную реакцию.

Инженеры Yahoo проверили свою систему на комментариях к Yahoo News и Yahoo Finance и сравнили результаты с работой обученных оценщиков, нанятых Yahoo для регулирования комментариев. Программа оказалась точна на 90%.

Социальным сетям и большим новостным сайтам такая система может понравиться. Они могут сократить расходы, нанимая значительно меньше модераторов и «операторов пользователей», как их называют в Facebook. Им придется тратить меньше усилий на ответы на запросы властей по удалению записей с подстрекательством, по-разному определяемым законами разных государств. При этом система сможет удалять даже те оскорбительные комментарии, на которые никто не пожаловался. Владельцы и управляющие технологических компаний поспешат установить систему распознавания оскорблений, действующую с помощью искусственного интеллекта, несмотря на протесты в академических изданиях.

Главное возражение в случае распознавания оскорблений утверждает, что искусственный интеллект все еще очень плохо обрабатывает человеческую речь. В мае Google открыл исходный код программы, которую он назвал самым точным анализатором языка, то есть, программой, способной понимать слова так, как их понимают люди. Английская часть под названием Parsey McParser добивается 90% точности в некоторых тестах, если верить  Google. Но всякий, кто пользуется голосовыми помощниками или машинами-переводчиками, основанными на той же технологии, что и анализатор  Parsey McParser, знает, что указанный высокий процент грозит ввести в заблуждение, и нередко оставшиеся непонятыми 10% играют критическую роль в определении смысла слов.

Система Yahoo считает оскорбительным такие комментарии: «Геи в Индиане наделали в штаны, узнав об этом законе» и «Пожалуйста, остановите преступления черных против белых». Исследователи затем назвали исключение этих комментарии «фальшиво-положительным», но признали, что случай неоднозначный. Система также оказалась не в состоянии решить, как быть с таким комментарием: «Окунуть их одежду в бензин и поджечь». Необходимы дополнительные способности для анализа всего потока комментариев, чтобы понять смысл.

Я терпеть не могу комментарии, выдержанные в очевидно гомофобском или националистическом духе, но это обычная часть отзывов, которые получает автор, а также напоминает о том, что в мире много разнообразных элементов, и о том, что написанное можно прочесть по-разному. Вместе с тем, я подозреваю, что, когда будут включены средства автоматического распознавания оскорблений, менеджеры социальных сетей и сайтов не будут особенно переживать по поводу комментариев, исключенных «фальшиво-позитивным» образом. Они предпочтут ошибаться в безопасную сторону, так как такова природа бизнеса.

Даже подготовленные оценщики Yahoo добились уровня согласия 0,6 по поводу того, в какую категорию заносить оскорбительные комментарии — были ли они грубостью, ненавистью или унижением? Обычные люди, нанятые Amazon на платформе Mechanical Turk, показали уровень согласия 0,4, то есть, они были неспособны прийти к единому мнению в большинстве случаев. У людей разные «болевые пороги», когда речь идет об оскорблении. Один и тот же человек может совсем по-разному реагировать на разные виды оскорблений. Если обучить искусственный интеллект принимать решения на основе большой базы данных человеческих суждений, то он сможет выносить решения, схожие с решением большинства, но и это будет совсем неидеально. Фактически, в такой ситуации возможно умышленное искажение, как случилось с чат-роботом в Twitter, созданным «Майкрософт». Он начал с выражений любви и мира, но менее, чем через сутки, скатился в расизм, пообщавшись со злонамеренными пользователями. 

Проповедники технологий в ответ на это обычно утверждают, что человеческое суждение ничуть не лучше, а то и хуже. С этим не поспоришь. Тем не менее, когда действуют люди, возникают естественные ограничения. Невозможно или экономически невыгодно нанять людей в количестве, достаточном для вычищения всех возможных оскорбительных комментариев и заблокировать всех троллей, как Twitter заблокировал технологического редактора Breitbart  Майло Яннопулоса (Milo Yiannopoulos) за разжигание расистской оскорбительной кампании против актрисы.

Я не хочу, чтобы от оскорблений меня защищала машина. Может, мне не стоит доверять ядерную кнопку в присутствии тролля, но я не хочу, чтобы Facebook, Twitter или Bloomberg.com применили ядерное оружие против него и множество относительно безвредных комментариев, в которых я нуждаюсь для работы и для сохранения открытости мышления, даже если не согласен с ними. Я лучше подожду, пока не будет достигнута сингулярная точка, чем соглашусь, чтобы менеджеры социальных сетей возились с несовершенной технологией и тайно заново определяли понятие свободы слова, создавая «безопасные зоны», где сегодня проходят политически некорректные, энергичные дискуссии.