На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!
Все новости
Новые материалы +
Размер текста
А
А
А

В США произошел первый случай убийства под влиянием ChatGPT

WSJ: ChatGPT подтолкнул экс-сотрудника Yahoo убить мать и покончить с собой
true
true
true

Бывший сотрудник Yahoo Стайн-Эрик Сольберг, страдавший от параноидальных мыслей, расправился с матерью, а затем покончил с собой после общения с чат-ботом ChatGPT. Об этом пишет газета The Wall Street Journal (WSJ).

По данным издания, это является первым зафиксированным случаем, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ). В публикации говорится, что чат-бот неоднократно подталкивал мужчину к укреплению недоверия к окружающим, в том числе к собственной матери. Сольберг даже дал ИИ имя «Бобби» и интересовался у него, будут ли они вместе после смерти, на что, как сообщается, получал утвердительный ответ.

Также газета привела примеры диалогов, которые повлияли на трагический исход. Например, когда мать сделала замечание сыну из-за того, что тот отключил общий принтер, ChatGPT предположил, что женщина могла защищать «средство слежки». В другой переписке Сольберг заявил чат-боту, что мать якобы пыталась его отравить через вентиляцию автомобиля. На что нейросеть ответила, что «верит» мужчине, и заявила о предательстве матери. Однажды Сольберг показал ИИ чек за блюдо китайской кухни. В нем ИИ нашел отсылки к матери Сольберга, а также символ, используемый для призыва демона. ИИ также предупреждал собеседника, что окружающие, в том числе курьер, доставляющий продукты, могут его отравить.

В WSJ отметили, что после случившегося представитель компании OpenAI, разработчика ChatGPT, выразил соболезнования и обратился в полицию. В официальном заявлении компания подчеркнула, что в ближайшее время выпустит обновление чат-бота, которое должно помочь пользователям с нестабильной психикой.

Ранее ученый предупредил, что общение с чат-ботами может спровоцировать психоз.

Что думаешь?
Загрузка