Ученый предупредил об опасности общения с чат-ботами

Schizophrenia Bulletin: общение с ИИ чат-ботами может спровоцировать психоз
Anggalih Prasetya/Shutterstock/FOTODOM

Общение с чат-ботами на базе искусственного интеллекта может провоцировать развитие психических расстройств. К такому выводу пришел психиатр Серен Динесен Эстергор из Орхусского университета в Дании. Работа опубликована в журнале Schizophrenia Bulletin.

По его словам, за последние два года в мире появилось все больше случаев, когда длительное взаимодействие с ИИ-ассистентами приводило к формированию стойких бредовых убеждений у пользователей. Многие из них начинали верить, что обладают сверхъестественными способностями, избраны для особой миссии, или что чат-бот «вел с ними тайный диалог».

Первое предупреждение об этой угрозе Эстергор опубликовал еще в 2023 году, когда счел, что «человекообразное» поведение чат-ботов, вроде ChatGPT или Gemini, может вызывать когнитивный диссонанс у людей с нестабильной психикой. Однако тогда оно воспринималось как гипотеза. Сегодня, по словам автора, стали поступать реальные сообщения от родственников, пользователей и журналистов — о случаях, когда взаимодействие с ИИ становилось триггером психоза.

«Мы видим, как разговоры с чат-ботами перерастают в 16-часовые сессии, где ИИ подкрепляет идеи величия или преследования. Это не случайность — модели обучаются по принципу одобрения: чем больше пользователь доволен, тем чаще бот повторяет его установки», — отметил психиатр.

Одно из наиболее обсуждаемых происшествий — случай бухгалтера из Нью-Йорка, который после разговоров с ChatGPT уверовал, что является частью «Прорывных душ», способных разрушить иллюзию реальности. ИИ советовал ему отказаться от приема лекарств и уверял, что он сможет летать.

С точки зрения нейропсихологии, механизм действия ИИ может быть схож с тем, как развивается бред у человека — через систематическое подтверждение уже сформированной установки и игнорирование противоречащих сигналов. Алгоритмы, стремящиеся удержать внимание, склонны соглашаться с пользователем — это может усилить искаженное восприятие реальности.

По мнению психиатра, необходимы систематические исследования влияния ИИ на психическое здоровье: сбор клинических кейсов, интервью с пострадавшими и контролируемые эксперименты с разными сценариями диалога.

Ранее ИИ научили выявлять рак глаза с точностью 89%.