Размер шрифта
Новости Спорт
Выйти
Ограничения интернета в РоссииДень Победы — 2026Война США и Израиля против Ирана
Общество

Психолог предупредил об опасности использования ИИ для эмоциональной поддержки

Психолог Нестик: люди все чаще используют ИИ в качестве психолога

Сегодня люди начали часто искать эмоциональную поддержку не у родных и друзей, а у искусственного интеллекта (ИИ) и антидепрессантов. Такой подход может привести к негативным последствиям. Об этом kp.ru сообщил профессор РАН, доктор психологических наук, кандидат философских наук, заведующий лабораторией социальной и экономической психологии Института психологии РАН Тимофей Нестик.

«Мы компенсируем отсутствие эмоциональной поддержки от близких не только антидепрессантами, но и обращением за помощью (в том числе и психологической) к искусственному интеллекту. Сейчас это очень распространено, особенно среди молодежи. Здесь есть, конечно, свои риски», — объяснил специалист.

По словам эксперта, если человек начинает регулярно использовать нейросеть в качестве собеседника и замены психологу, со временем он может столкнуться с усугублением своих проблем. ИИ не способен дать живое тепло и оказать необходимую поддержку. Технологии только создают иллюзию такого общения.

Эксперт направления Т1 ИИ (ИТ-холдинга Т1) Татьяна Сеземина до этого рассказала «Газете.Ru», что в России все чаще начали использовать искусственный интеллект для первичного отбора кандидатов, а 14% работодателей даже проводят видеоинтервью с ИИ-ассистентами. По ее словам, теперь соискателю важно готовиться не только к разговору с рекрутером, но и к собеседованию, которое может анализировать алгоритм. Главное на таком интервью — говорить структурно, последовательно и без противоречий.

Ранее были названы последствия появления у россиян цифрового медицинского профиля.

 
Как заставить себя работать после праздников с меньшим стрессом. 6 советов
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!