The Federalist (США): эксперт по искусственному интеллекту объясняет, как техгиганты манипулируют вашим сознанием

Читать на сайте inosmi.ru
Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Он — один из тех серых пиджаков, которые нажимают на кнопки в «Матрице», но при этом рад устроить нам, ее пленникам, экскурсию. Так автор охарактеризовал своего собеседника, эксперта по искусственному интеллекту, который рассказал, как технологические гиганты манипулируют нашим сознанием. Кстати, по его мнению, Китай ближе всех к «адской антиутопии».

Эксперт по искусственному интеллекту и выпускник Оксфордского университета объясняет, как технологические гиганты манипулируют сознанием, распознают речь и насаждают групповое мышление.

Выпускник Оксфордского университета Джастин Лейн (Justin Lane) — эксперт по искусственному интеллекту и предприниматель. Пустого сотрясания воздуха он не терпит. Он изучает познание — как человеческое, так и искусственный интеллект — а также религию и конфликты.

Его интересы привели к любопытным полевым исследованиям в Северной Ирландии, где он изучал соперничающих экстремистов из Ирландской республиканской армии и Ассоциации обороны Ольстера. В конечном итоге он применил свои гуманитарные выводы к программированию ИИ и многоагентному компьютерному моделированию.

Он умудрился поступить в бакалавриат в Балтиморе, штат Мэриленд, либералом из Партии зеленых, а вышел из английских башен слоновой кости горячим сторонником Второй поправки (которая гарантирует право граждан на хранение и ношение оружия — прим. перев.). Теперь он считает себя умеренным, но «с либертарианским душком».

Когда мы впервые встретились, Лейн работал в Центре разума и культуры в Бостоне. Крепко испорченный капитализмом многообещающий ученый стал соучредителем международной компании по анализу данных, которая работает с известными корпоративными и академическими клиентами. Он — один из тех серых пиджаков, которые нажимают на кнопки в «Матрице», но при этом рад устроить нам, ее пленникам, экскурсию.

Мне из-за моего ноутбука наш технократический колпак кажется гигантским черным облаком, откуда извергается ливень полуправды и ядовитых фактов. Глаза роботов вглядываются в темноту, наблюдая, как растворяются наши души.

Лейн же настроен более оптимистично. Он уверяет меня, что мир технологий — всего лишь набор сложных инструментов. Главное — уметь ими пользоваться. И вот мы с добрым доктором устроили виртуальную встречу за коньяком и кофе (он из Словакии, я — из Америки, и к тому же до полудня я не пью).

Джо Аллен: Что вы скажете как сетевой аналитик, как выглядят неумытые массы с точки зрения всевидящего Бога? Я просто параноик, или они действительно хотят нас прищучить?

Джастин Лейн: Компании вроде Google, Facebook или Twitter, или аналитические фирмы вроде моей собирают огромные объемы данных о пользователях. Это то, что сейчас называется «супермассивами» или «большими данными».

Большинство компаний изучают массовые данные и ищут закономерности. Как правило, конкретное содержание не интересует ни компанию, ни специалиста по обработке данных, ни их алгоритмы. Это просто инженерные системы, которые изучают закономерности, чтобы отслеживать и вовлекать отдельных пользователей.

Но должны быть и базы данных с индивидуальной степенью детализации. Может, у Твиттера, или в корпоративной базе данных, или где-нибудь в базе данных разведки. Эта личная информация может быть использована в гнусных целях. И это чревато очевидными этическими последствиями.

Вспомним, как работает слежка в Китае: ты сказал что-то плохое про режим, и твоя оценка в системе социального кредита упала. Не факт, что там вообще смотрят общую картину, тебе просто возьмут и скажут: «Нет, в такой-то день вы ругали правительство, и теперь билет на поезд вам не положен».

Я бы сказал, что Китай сегодня ближе всех к той адской антиутопии, которой мы все боимся. А большинство американских корпораций больше заинтересованы в том, чтобы получать деньги за каждый клик. Как по мне, разница принципиальная

— А разве нельзя воспользоваться этой обширной картой общественного мнения для манипуляций покруче сбора данных в штабе Барака Обамы или аферы Дональда Трампа с Cambridge Analytica?

— Возможностей для манипуляции общественным мнением — масса. Среднестатистическим пользователем манипулируют одновременно активно и пассивно.

Активно манипулируют всяким, кто хотя бы единожды включал телевизор или радио. Маркетинг вообще так работает: нам внушают, что когда нам что-нибудь понадобится, это должен быть конкретный бренд. В этом гений рекламы. Он просто масштабируется до уровня, который мы и представить себе не можем — благодаря данным в социальных сетях и количеству пользователей на каждой платформе.

Наряду с этим есть и пассивная манипуляция — что конкретно та или иная компания допускает у себя на сайте, как подают или алгоритмически меняют информацию, которую мы видим.

С психологической точки зрения мы знаем, что чем чаще повторять ту или иную информацию, тем скорее ее запомнишь. Это называется «обучением». Поэтому когда соцсети решают цензурировать ту или иную информацию, они затрудняют или перекрывают пользователям доступ к ней.

В каком-то смысле, я считаю, это этический императив: есть определенные обстоятельства — например, когда страдают дети или нападают на беспомощных, которые не могут ответить. Но «редактирование» мнений пользователей — это серая зона. Кого, спрашивается, вы защищаете, удаляя определенные политические мнения? Или скрытой блокировкой пользователей?

И в этом смысле нами открыто манипулируют. Хорошо это или плохо, во многом зависит от ваших взглядов и политической ориентации, потому что, похоже, что с консерваторами это случается чаще, чем с либералами. Эту разницу хорошо видно, когда одни говорят о «ненавистнических высказываниях», а другие спрашивают: «Ну и какие конкретно высказывания вы ненавидите?».

— То есть следить за нашей речью на этих платформах приставлен «полицейский» искусственный интеллект?

— Да, однозначно. «Фейсбук» сообщает, что свыше 90% оскорбительного контента выявляется алгоритмически благодаря системам искусственного интеллекта. И только позже эти метки проверяют живые люди. И так они по сути самообучают ИИ на основе помеченного контента.

Это всего лишь домысел, но если консерваторов цензурируют чаще, чем либералов, это может быть связано с тем, что людей определенных политических взглядов легче задеть. Тогда получается, что предвзятость цензуры, которую мы наблюдаем в социальных сетях, нельзя взять и списать на политические симпатии владельцев технологических компаний, их цензоров-рецензентов или специалистов по обработке данных, разрабатывающих алгоритмы.

Поскольку «Фейсбук» тренирует свои алгоритмы на десятках миллионов пользовательских жалоб на оскорбительный контент, отчасти предвзятость всей системы отражает то, что одни кричат громче других. Если консерваторы не начнут активно жаловаться на оскорбительный для них контент, то их мнения так и не попадают в базу данных и, как следствие, не отразятся в алгоритмах.

[Тут Лейн хитро улыбается].

Поэтому вот что могут сделать консерваторы — было бы очень интересно поглядеть, как это сработает на «Фейсбуке»: жаловаться всякий раз, когда видишь нечто, на что обязательно бы пожаловались в обратной ситуации. Не исключено, что алгоритмы соцсетей научатся тому, что левацкие взгляды тоже бывают оскорбительными, и будут иначе на них реагировать. В общем, это был бы любопытный социальный эксперимент.

— Вот вы выросли в консервативных кругах. Каково вам приходилось в университетской среде?

— После последнего курса я поехал в Европу — это было единственное место, где я мог изучать компьютерное моделирование человеческого поведения, как мне хотелось. Сначала я поехал в Белфаст, где человеческая природа и культурные убеждения давно и прискорбно переплелись с насилием.

Это Великобритания, владеть оружием там запрещено. Тем не менее за годы Смуты от огнестрельного оружия и бомб погибли тысячи людей. Это еще раз подтвердило мое убеждение, что человеческая природа превыше всякого общественного закона.

Затем я перебрался в Оксфорд, где, можно сказать, балансировал между двумя мирами. С одной стороны, я был активным членом Общества Хайека — там собирались либертарианцы и звали на свои мероприятия самых разных людей. Приглашенные лекторы критически высказались по вопросам экономики, свободы и нравственности.

С другой стороны, мой опыт в среде университетского городка показал, что участвовать в дебатах можно лишь в унисон с хором согласных.

И это большая проблема в университетах Лиги плюща. Университет Брауна следил, скольких консерваторов приглашают выступать в студенческих городках: оказалось, что свыше 90% гостей — либералы или левые. Такой же герметичный мирок сформировался даже в Оксфорде, хотя по-своему они намного лучше других. Бастионом свободы слова по-прежнему остается Чикагский университет.

Когда я закончил свое исследование в Оксфорде, я продолжил работу в Бостонском университете и был неприятно удивлен, как плохо стало в американской университетской среде. Можно сказать, это открыло мне глаза: там вообще не приветствуют критическое мышление, а поощряют лишь заученные до автоматизма ответы.

Если ваш вывод противоречит критическим теоретикам — которые в основной своей массе неомарксисты и последователи интерсекциональности — высказывать свое мнение вам попросту не дадут. А будете настаивать, вас быстренько «отменят» — объявят бойкот. Как по мне, это очень нездорóво и рождает деспотию и экстремизм.

Вот, например, профессор Бостонского университета Ибрам Кенди [Ibram Kendi, основатель нового Центра антирасистских исследований] отпускал расистские и трансфобские комментарии. Но университет за него горой. А вот за республиканцев, которые сомневаются в Кенди и на которых нападают левые студенческие организации, там заступаться не принято. Увы, похоже, что эта модель набирает обороты по всей Америке

Джо Аллен — такой же примат, который задается вопросом, зачем мы вообще слезли с деревьев. Много лет работал монтажником в концертных турах. В перерывах между концертами изучал религию и науку в Университете Теннесси и Бостонском университете.

Обсудить
Рекомендуем