Искусственный интеллект научился «читать» эмоции животных

Scientific Reports: ИИ определяет настроение животных по тембру их голосов
Shutterstock/FOTODOM

Кошачье шипение служит предупреждением, а собаки обычно виляют хвостом от радости. Однако в большинстве случаев человеку трудно понять, что именно чувствует животное. Исследователи из Милана нашли способ решения проблемы: созданная ими модель искусственного интеллекта научилась определять эмоциональную окраску звуковых сигналов семи видов копытных — от свиней до коз и коров. Работа опубликована в журнале Scientific Reports.

Оказалось, отрицательные эмоции чаще выражаются в средне- и высокочастотных диапазонах, тогда как положительные сигналы распределены равномернее. При этом у разных видов «ключ» к эмоциям различается — у свиней особенно важны высокие частоты, у овец и лошадей — средние.

По словам автора исследования Ставроса Нталампираса, его алгоритм способен выделять тончайшие акустические особенности, которые не улавливает человеческое ухо. Это открывает путь к новым инструментам мониторинга здоровья и благополучия животных.

Перспективы у технологии самые разные. Фермеры смогут получать ранние сигналы о стрессе скота, зоологи — отслеживать состояние популяций в дикой природе, а сотрудники зоопарков — реагировать на изменения в поведении подопечных до того, как проявятся видимые признаки. Но вместе с тем возникает и этический вопрос: если машина фиксирует страдание животного, обязаны ли люди вмешиваться?

Подобные исследования ведутся и в отношении других видов. Ученые из США в рамках проекта Ceti анализируют щелчковые сигналы кашалотов, пытаясь выявить социальные коды в их «речи». Собаки становятся объектом проектов, где AI связывает мимику, лай и движения хвоста с эмоциями и даже помогает фиксировать признаки эпилептического приступа у хозяина. Алгоритмы также уже успешно расшифровывают танцы пчел, указывающие направление к источнику пищи.

Однако исследователи подчеркивают: речь идет не о «переводе» на человеческий язык, а о выявлении закономерностей. Любая попытка упростить богатую поведенческую палитру до бинарных категорий «плохо-хорошо» несет риск ошибки. Более надежные модели должны объединять акустические данные с визуальными и физиологическими показателями — позой, выражением морды или частотой сердечных сокращений.

«Вопрос не в том, насколько точно мы научимся слушать животных, — а в том, как распорядимся этой информацией», — отметили ученые.

Ранее впервые была реализована передача поведения между различными биологическими видами.