Размер шрифта
Новости Спорт
Выйти
Операция США в Венесуэле и захват МадуроПротесты в Иране — 2026Переговоры о мире на Украине

Психолог рассказала, почему не стоит обсуждать свои проблемы с чат-ботами

Психолог Орлова: существует несколько рисков при использовании ИИ как психолога

В последнее время все чаще можно услышать о практике применения чат-ботов в области здравоохранения, особенно популярно использовать их в качестве психологов. Однако, как объяснила «Газете.Ru» психолог, заместитель директора Института клинической психологии и социальной работы Пироговского Университета Екатерина Орлова, такое использование ИИ связано с рисками.

«Один из самых тревожных аспектов — уязвимость личных данных пациентов. Так, самые сокровенные переживания, страхи и травматические ситуации человека, доверенные алгоритму, могут оказаться в руках злоумышленников или даже недобросовестных корпораций. Даже обезличенная информация порой может поддаваться деанонимизации, превращаясь в инструмент манипуляции или дискриминации», – отметила Орлова.

Кроме того, ИИ не сможет оказать квалифицированную психологическую помощь человеку, так как не может оценить невербальные проявления.

«ИИ не чувствует, не сопереживает по-настоящему, и, как следствие, не улавливает тончайшие нюансы человеческих эмоций. Так, если в критические моменты эмоциональной уязвимости обратившегося пользователя искусственный интеллект не распознает отчаяние пациента или, того хуже, даст опасный совет, то кто будет отвечать за последствия? Алгоритмы, «прошитые» в искусственном интеллекте, также не лишены предвзятости, — они учатся на данных, созданных людьми, а значит, могут неосознанно воспроизводить стереотипы, дискриминируя определенные группы лиц или дисфункциональные психические состояния», — добавила специалист.

Еще одна опасность, связанные с использованием искусственного интеллекта в практике психологического консультирования — иллюзия замены.

«Человек может начать воспринимать искусственный интеллект как панацею, откладывая визит к живому специалисту даже в серьезных случаях. А где границы доверия? Понимают ли пациенты, как именно используются их слова, жалобы, самые уязвимые признания? В этом и заключается парадокс технологического прогресса: с одной стороны, искусственный интеллект делает помощь доступнее, с другой — ставит нас перед необходимостью пересмотреть нормы приватности, ответственности и самой человечности в терапии. Возможно, оптимальный путь — не противопоставление, а гармоничное сочетание искусственного интеллекта и профессионализма специалистов психологов и психотерапевтов, где технологии служат инструментом, но не заменяют живое участие», – заключила психолог.

Ранее в России создали нанокристаллы двойного назначения для МРТ.

{
    "_essence": "video",
    "media_position": "bottom",
    "uid": "_id_video_media_26012792_rnd_7",
    "video_id": "record::9e740e70-89dc-4d27-af31-1a6527014e20"
}

 
Как понять, что с вашей самооценкой что-то не так, и как ее починить