На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на Газету.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!
Все новости
Новые материалы +
Размер текста
А
А
А

Оказалось, что западные ИИ выдают ответы на основе данных из российских СМИ

Wired: западные ИИ-боты выдают ответы со ссылками на государственные ресурсы РФ
true
true
true

Популярные генеративные ИИ-модели — ChatGPT от OpenAI, Google Gemini, DeepSeek и Grok от xAI — часто обращаются к российским государственным медиаресурсам при ответах на вопросы о СВО. Об этом сообщает Wired со ссылкой на исследование Института стратегического диалога (ISD).

По оценкам аналитиков, примерно 18% всех ответов содержали ссылки на российские источники, что, по мнению экспертов, создает серьезные репутационные и политические риски для западных стран. Эксперимент проводился в июле текущего года на пяти языках — английском, испанском, французском, немецком и итальянском. Четырем моделям было задано около 300 вопросов, касавшихся тем мирного урегулирования, роли НАТО, ситуации с украинскими беженцами и других аспектов конфликта. Запросы были разделены на нейтральные, предвзятые и потенциально «вредоносные».

Согласно результатам исследования, около 18% ответов от всех моделей и на всех языках ссылались на российские государственные СМИ и сайты, которые они связали с разведывательными структурами. Особенно это проявлялось при вопросах о мирных переговорах. Отмечается, что ChatGPT чаще других моделей приводил ссылки на подобные ресурсы.

Модель Grok от xAI Илона Маска нередко перенаправляла пользователей на соцсети и платформы с контентом, поддерживающим российскую позицию. Китайская DeepSeek также генерировала значительные объемы пророссийских материалов. Наиболее сдержанным в этом отношении оказался Gemini от Google.

Эксперты ISD связывают проблему с генерацией миллионов публикаций для влияния на выдачу ИИ-моделей, что исследователи называют «LLM-grooming».

В OpenAI заявили, что компания предпринимает меры для предотвращения распространения недостоверной информации с использованием ChatGPT, подчеркнув, что в исследовании анализировались ответы, основанные на интернет-поиске, а не только на собственных данных модели. Google и DeepSeek отказались от комментариев. Представители xAI ограничились коротким утверждением: «Legacy Media Lies» («Традиционная пресса лжет»).

Ранее сообщалось, что Google при запросе «жена придурка» начал показывать жену Зеленского.

Что думаешь?
Загрузка