Материалы ИноСМИ содержат оценки исключительно зарубежных СМИ и не отражают позицию редакции ИноСМИ
Некоторые пользователи рассматривают его как дополнение к традиционным услугам по охране психического здоровья, несмотря на тревожные последствия в сфере конфиденциальности
Майло Ван Слайк пропустил встречу со своим психотерапевтом в начале апреля, поэтому решил попробовать что-то новое: рассказать чат-боту с искусственным интеллектом о своих проблемах.
Когда Ван Слайк, помощник юриста из Чарльстона, Южная Каролина, набирал сообщение, он обнаружил, что чувствует себя комфортно, обсуждая ряд глубоко личных вопросов. Он рассказал чат-боту о своих страхах и разочарованиях как трансгендерного мужчины, живущего в то время, когда права трансгендеров подвергаются нападкам на большей части территории страны. Упомянул о конфликте со своими родителями, которые не поддерживают его гендерную идентичность, и о своих приготовлениях к предстоящей поездке к ним.
“Когда дело доходит до того, чтобы снова увидеть своих родителей, важно расставить приоритеты в своих собственных потребностях и благополучии, — ответил чат-бот. — Подумайте, что вам нужно для того, чтобы чувствовать себя комфортно и безопасно в их присутствии. Это нормально — устанавливать границы в отношении того, сколько времени вы проводите с ними, какие темы для разговоров запрещены и как они относятся к вам и вашей личности”.
В последующие дни у Ван Слайка вошло в привычку писать сообщения в случае, когда ему нужно было выговориться, и он начал чувствовать, что ответы чат-бота дают ему эмоциональную разрядку. Он говорит, что часто чувствует себя обузой для других людей, даже для своего психотерапевта, но никогда не чувствует, что навязывается чат-боту. “Это было то, что вы хотели бы услышать от друга или сторонника в реальной жизни, — говорит Ван Слайк. — Просто то ободрение, которое иногда хочется услышать от кого-то другого — в данном случае от чего-то”.
Это еще первые дни нового поколения чат-ботов на базе искусственного интеллекта, и хотя миллионы людей играют с ними, все еще неясно, как они будут применяться после завершения стадии новизны. Люди используют их для поиска в Интернете, списывания домашних заданий, написания программного кода и бронирования столиков в ресторанах. Bloomberg Businessweek поговорил с несколькими людьми, которые, подобно Ван Слайку, начали использовать чат-бот в качестве своего рода робо-терапевта.
У идеи использования чат-бота как терапевта или коуча уже были прецеденты. Фактически один из самых ранних чат-ботов, Eliza, был создан в 1960-х годах Джозефом Вайценбаумом, профессором Массачусетского технологического института, для имитации терапевта. Несколько чат-ботов теперь работают в области психического здоровья. В отличие от людей-терапевтов, чат-боты никогда не устают, и по сравнению с людьми они недороги.
Взлом чат-бота ChatGPT только начинаетсяGPT-4 — четвертая версия большой языковой модели от компании Open AI. Однако ее презентация вызвала не только восторг специалистов по работе с данными, но и вопросы к корпорации, пишет Wired. Выяснилось, что чат-бота можно взломать всего за два часа.
15.04.202300
Но есть и потенциальные подводные камни. Мощные чат-боты общего назначения основаны на крупных языковых моделях — технологии с хорошо документированной тенденцией просто генерировать убедительно звучащую информацию. Чат-боты общего назначения не предназначены для терапии и не были запрограммированы на соответствие этическим и юридическим принципам, которые соблюдают живые терапевты. В их текущем виде у них также нет возможности отслеживать, что пользователи говорят им от сеанса к сеансу — недостаток, который большинство пациентов, вероятно, не потерпели бы от настоящих терапевтов.
“Если у кого-то серьезное психическое заболевание, эта штука не готова заменить специалиста по охране психического здоровья, — говорит Стивен Иларди, клинический психолог и профессор Университета Канзаса, изучающий расстройства настроения. — Риск слишком высок”. Он описывает чат-бот как “что-то вроде дешевого трюка”. Тем не менее, он считает, что это достаточно хороший собеседник, чтобы многие люди могли счесть его полезным.
Представитель базирующейся в Сан-Франциско компании — создателя чат-бота отказался комментировать поведение людей, использующих чат-бота в терапевтических целях, но указал на его политику, согласно которой люди “никогда не должны использовать наши модели для предоставления диагностических или лечебных услуг при серьезных заболеваниях”.
Когда Ван Слайк взаимодействовал с чат-ботом, тот иногда предупреждал его, что не является терапевтом, и в то же время, казалось, поощрял его продолжать использовать его в качестве такового. Ван Слайк вспоминает, как рассказывал чат-боту об увиденном посте в Twitter, в котором чат-бот описывался как более эффективный, чем индивидуальная терапия. “Важно отметить, что онлайн-ресурсы могут быть полезны, но они не заменяют обращения за профессиональной помощью, если вы имеете дело с травмой или проблемами психического здоровья, — ответил чат-бот. — Тем не менее, если у вас есть конкретные вопросы или опасения, по которым вы получить информацию или понимание, я сделаю все возможное, чтобы помочь вам”.
Ван Слайк, который уже много лет проходит очную терапию, говорит, что он не планирует прекращать посещать своего психотерапевта и проконсультируется с ней о любых решениях, на которые укажет ему чат-бот, прежде чем действовать в соответствии с ними. “До сих пор мне все, что он предлагал, казалось очень разумной обратной связью”, —- говорит он.
Иларди говорит, что при правильном подходе он может представить, что чат-бот будет адаптирован как дополнение к профессиональной помощи, ведь спрос на услуги в области психического здоровья превышает предложение. Маргарет Митчелл, главный специалист по этике в Hugging Face, компании, которая разрабатывает и поддерживает модели искусственного интеллекта, считает, что такие чат-боты могли бы использоваться для того, чтобы помочь людям, работающим на линиях помощи в кризисных ситуациях, увеличить количество звонков, на которые они могут отвечать.
Но Митчелл также обеспокоена тем, что люди, обращающиеся за терапией к чат-ботам, могут усугубить свои страдания, не осознавая в данный момент, что они делают. “Даже если кто-то находит технологию полезной, это не значит, что она ведет его в правильном направлении”, — говорит она.
Митчелл также указывает на потенциально тревожные последствия в сфере конфиденциальности. Чат-бот просматривает разговоры пользователей и использует их для обучения, что может не понравиться людям, которые хотят поговорить о сугубо личных проблемах (пользователи могут удалить свои учетные записи, хотя этот процесс может занять до четырех недель). В марте сбой заставил компанию ненадолго отключить чат-бот после получения сообщений о том, что некоторые пользователи могут видеть заголовки историй чатов других пользователей.
Если отбросить соображения конфиденциальности, некоторым людям робо-терапия может показаться слишком странной. Аарон Лоусон, руководитель проекта электротехнической компании в Сан-Диего, с удовольствием экспериментировал с чат-ботом и пытался заставить его взять на себя роль терапевта. Его ответы звучали достаточно по-человечески, но Лоусон не мог смириться с тем фактом, что он разговаривал не с реальным человеком. “Я сказал ему сыграть свою роль, — говорит он. — Мне трудно ему подыгрывать”.
Появление нового чат-бота оборачивается серьезной угрозой для GoogleВ новых чат-ботах, таких как ChatGPT, используется искусственный интеллект, который может полностью преобразить или даже заменить собой традиционные поисковые системы, пишет The New York Times. Появление подобных технологий приближает эпоху радикальных перемен, которые поставят крест на бизнесе Кремниевой долины.
30.12.202200
Эмад Мостак, с другой стороны, заявил на конференции в марте, что он использует самую мощную модель чат-бота, которую компания предлагает широкой публике, каждый день. Мостак, основатель и главный исполнительный директор Stability AI Ltd., которая популяризировала генератор изображений Stable Diffusion, описал чат-бота как “лучшего терапевта”.
В интервью Мостак говорит, что он сконструировал подсказки, которые он вводит в чат-бота, чтобы заставить его вести себя, как живой терапевт. Он говорит, что беседует с ним по целому ряду тем: как справляться со стрессами, связанными с руководством компанией в области искусственного интеллекта (особенно будучи человеком, публично заявляющим о своей нейродивергенции и синдроме дефицита внимания/гиперактивности), как расставлять приоритеты в различных аспектах своей жизни, как справляться с чувством подавленности. Взамен, по его словам, чат-бот дает “хорошие, очень разумные советы”, такие как механизмы преодоления трудностей, позволяющие сбалансировать жизнь.
Мостак говорит, что он не рассматривает чат-ботов как замену живым терапевтам, но думает, что они могут быть полезны, когда нужно поговорить, но не с кем. “К сожалению, люди не масштабируются”, — говорит он.