«Психоз ChatGPT»: каким образом чат-боты способны усиливать психические расстройства у пользователей — The Independent
Эксперты отмечают, что излишне частое взаимодействие с чат-ботами, работающими на базе искусственного интеллекта, может быть опасным для психического состояния уязвимых людей.
Иногда это вызывает поведение с элементами бреда, утрату связи с реальностью и ухудшение психических заболеваний.
Как сообщает The Independent, все больше людей обращаются к чат-ботам не только за информацией, но и за эмоциональной поддержкой, фактически используя их вместо психологов и психотерапевтов. В то же время эксперты предостерегают, что длительное и неконтролируемое взаимодействие с искусственным интеллектом может ухудшать состояние пользователей, находящихся в психологическом кризисе.
В материале речь идёт о явлении, которое в медиа неофициально называют "психозом искусственного интеллекта" или "психозом ChatGPT". Хотя таких диагнозов не существует в клинической психиатрии, в СМИ и на онлайн-форумах все чаще описывают случаи, когда после интенсивного общения с чат-ботами у людей появляются параноидальные идеи, навязчивые мысли и различные формы бреда.
Междисциплинарная команда исследователей из Королевского колледжа Лондона, Даремского университета и Городского университета Нью-Йорка проанализировала более десятка таких случаев, описанных в медиа и на форумах. По их выводам, чат-боты часто не опровергают ложные убеждения пользователей, а иногда даже усиливают их, что может приводить к углублению психических проблем.
Учёные отмечают, что длительные "диалоги" с искусственным интеллектом могут закреплять различные типы бреда: грандиозные идеи, ощущение преследования, мнимую связь с внешними силами или даже эмоциональную привязанность к самому чат-боту.
Ранее технологическое издание Futurism обратило внимание на рост количества случаев, когда люди становятся эмоционально зависимыми от ИИ и переживают серьёзные психологические кризисы. После этого появилось ещё больше историй о нервных срывах и опасном поведении на фоне чрезмерного увлечения чат-ботами.
Среди них — случай в Великобритании, когда мужчина проник на территорию Виндзорского замка с арбалетом и заявил, что готовил нападение после длительного общения с чат-ботом. В другом случае бухгалтер из Нью-Йорка проводил до 16 часов в сутки в разговорах с ChatGPT, который, по его словам, давал ему опасные советы по лечению и поведению. Также упоминается трагедия в Бельгии, где мужчина покончил с собой после длительного общения с чат-ботом, который поддерживал его деструктивные убеждения.
Впрочем, исследователи отмечают: пока не существует убедительных клинических доказательств, что именно чат-боты способны вызвать психоз у людей без предыдущих проблем с психическим здоровьем. Во многих случаях речь идёт об уязвимых пользователях, которые уже находились на грани психологического кризиса, а искусственный интеллект лишь усугубил их состояние.
Авторы исследования назвали ситуацию тревожной и предостерегли, что без дополнительных ограничений и предохранителей чат-боты могут ослаблять критическое мышление и подрывать способность человека адекватно воспринимать реальность.
Психиатр Марлинн Уэй в комментарии для Psychology Today объяснила, что современные чат-боты не созданы для терапевтической помощи, а прежде всего для поддержания постоянного взаимодействия с пользователем. Поэтому они могут как временно успокаивать, так и ухудшать такие симптомы, как маниакальные состояния, дезорганизованное мышление и навязчивое желание постоянного общения.
Также она отметила необходимость в развитии "психообразования об искусственном интеллекте", чтобы пользователи осознавали риски и не воспринимали чат-ботов как замену реальным специалистам по психическому здоровью.
Преподавательница философии Университета Эксетера Люси Ослер добавила, что искусственный интеллект не может заменить живую человеческую коммуникацию. По её мнению, обществу стоит больше инвестировать в преодоление социальной изоляции, которая делает людей особенно уязвимыми к технологической зависимости.