?
Об идеологических предвзятостях генеративного ИИ: Российско-украинский конфликт в репрезентации ChatGPT
Все большее количество ученых предупреждает об опасности воспроизведения генеративным ИИ социально-политических и идеологических предрассудков, впитанных моделями из текстов, на которых они обучались. Если, например, та или иная модель тренировалась на материалах западных СМИ, она может генерировать нарративы, воспроизводящие западноцентричный взгляд на мировые события. Это проявляется в репродукции определений глобальных проблем, нормализированных в западных гегемонистских дискурсах. С целью выявления, как именно воспроизводятся идеологические предубеждения ГИИ по отношению к России и как их можно обнаружить в сгенерированных текстах, в данной статье исследуется аналитическая записка, созданная ChatGPT – чат-ботом, разработанным американской компанией OpenAI. Заданной темой генерации был российско-украинский конфликт, начало которому положил (Евро)Майдан –протестное движение на Украине (2013 2014), приведшее к смене правительства. Для анализа сгенерированного текста использовались два аналитических метода, разработанных на основе дискурсивных теорий Эрнесто Лаклау и Шанталь Муфф, а также Нормана Фэркло. Результаты анализа показали, что ChatGPT, несмотря на обещание нейтральности, сгенерировал черно-белое повествование, упускающие все важные нюансы, которые могли бы помочь его пользователям разобраться в ситуации. Моделью был воссоздан негативный образ России, который был нормализирован в западном политическом дискурсе задолго до пришествия ГИИ в повседневную жизнь. Результаты исследования подтвердили опасения ученых о том, что тексты, генерируемые ИИ, могут демонстрировать идеологическую предвзятость и воспроизводить идеологию западноцентризма, делая это с претензией на авторитетность и нейтральность.