• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Исследователи НИУ ВШЭ и Сбера добавят эмоций искусственному интеллекту

Исследователи НИУ ВШЭ и Сбера добавят эмоций искусственному интеллекту

© iStock

Ученые Центра искусственного интеллекта НИУ ВШЭ и исследователи Лаборатории искусственного интеллекта Сбербанка разработали специальную систему, которая с помощью больших языковых моделей сделает искусственный интеллект (AI) более эмоциональным при общении с человеком. Синтезом AI-эмоций займутся набирающие популярность мультиагентные модели. Научная работа о проведенном исследовании опубликована в рамках Международной совместной конференции по искусственному интеллекту — IJCAI 2024.

В основу системы легли разработанные авторами эффективные AI-модели компьютерного зрения по распознаванию выражений лиц пользователей, которые можно запускать непосредственно на их устройствах. В ходе диалога с помощью этих моделей в режиме реального времени анализируются эмоции собеседника, в том числе на ответы AI, что может помочь в формировании специальных датасетов для обучения и совершенствования системы генерации эмоциональных ответов на запросы пользователей. 

Людмила Савченко

«В нашей системе распознанная эмоция используется для выбора более эмпатичного ответа AI, который генерируется одновременно несколькими языковыми моделями, настроенными на базовые эмоции: радость, печаль, страх или гнев. В результате получаемый ответ содержит более подробный анализ выданных AI рекомендаций, их достоинства и недостатки с точки зрения эмоциональной реакции на них пользователей», — комментирует один из авторов статьи, доцент НИУ ВШЭ в Нижнем Новгороде Людмила Савченко.  

Решение НИУ ВШЭ и Сбера можно применять там, где важно учитывать эмоциональное состояние пользователей: в чат-ботах компаний, службах поддержки, образовательных приложениях и других направлениях, где нужен контакт с клиентом. В результате предложения и рекомендации продуктов и услуг будут выглядеть более естественными и эмпатичными. Благодаря этому компании смогут лучше общаться с клиентами, ученые получат новый инструмент для исследования эмоций, а пользователи — более эффективное взаимодействие с AI. Сегодня AI-модели уже применяются в разработке GigaPevt — медицинского диагностического ассистента на базе большой языковой модели GigaChat — для анализа эмоционального состояния пользователя.