?
Application of Large Language Models to Solving Differential Equations: Constructing Baseline Models with LSTM and GRU
P. 239–252.
В книге
Vol. 2: Revised Selected Papers, Part II. , Springer, 2025.
Байша О. А., Трофимов В. В., Российская школа связей с общественностью 2026 № 40 С. 171–191
Все большее количество ученых предупреждает об опасности воспроизведения генеративным ИИ социально-политических и идеологических предрассудков, впитанных моделями из текстов, на которых они обучались. Если, например, та или иная модель тренировалась на материалах западных СМИ, она может генерировать нарративы, воспроизводящие западноцентричный взгляд на мировые события. Это проявляется в репродукции определений глобальных проблем, нормализированных в западных гегемонистских дискурсах. ...
Добавлено: 21 апреля 2026 г.
Джин С., Панфилов П. Б., Сулейкин А. С., Труды Института системного программирования РАН 2025 Т. 37 № 6 С. 163–176
В современном ресторанном бизнесе точное сопоставление номенклатуры продуктов между ресторанами и поставщиками является критически важной задачей. Эффективное управление запасами и оптимизация закупок напрямую влияют на прибыльность бизнеса. С ростом числа поставщиков и ассортимента продукции традиционные методы сопоставления становятся менее эффективными. В данном исследовании предлагается использовать большие языковые модели (LLM) для автоматизации и повышения точности сопоставления ...
Добавлено: 17 апреля 2026 г.
Бузаев Ф. А., Пугачёва Д. В., Sukharev I. и др., Transactions of the Association for Computational Linguistics 2026 P. 51–57
Добавлено: 7 апреля 2026 г.
Быстрое распространение больших языковых моделей (Large Language Models, LLM) в социально и политически чувствительных сферах ставит вопрос о природе и источниках политической предвзятости в системах искусственного интеллекта. В большинстве исследований предвзятость рассматривается преимущественно как технический дефект, подлежащий устранению. Здесь предлагается более широкая философская и культурная интерпретация феномена, согласно которой предвзятость LLM является результатом встроенных эпистемических ...
Добавлено: 1 апреля 2026 г.
СПб.: Санкт-Петербургский Федеральный исследовательский центр РАН, 2025.
Двадцать вторая Национальная конференция по искусственному интеллекту с международным участием КИИ-2025 продолжает традицию советских (российских) конференций, организуемых Российской ассоциацией искусственного интеллекта. В первом томе трудов публикуются пленарные доклады и доклады участников конференции, представленные на следующих секциях: Секция 1 «Инженерия знаний», Секция 2 «Интеллектуальный анализ данных», Секция 3 «Моделирование рассуждений», Секция 4 «Интеллектуальный анализ текстов, большие ...
Добавлено: 15 февраля 2026 г.
Klenitskiy A., Фаткулин А. А., Denisova D. и др., , in: RecSysChallenge '25: Proceedings of the Recommender Systems Challenge 2025.: Association for Computing Machinery (ACM), 2025. P. 26–30.
Добавлено: 26 января 2026 г.
Moses Oluoke Omopekunola, Elena Yu. Kardanova, Journal of Science Education and Technology 2026
Добавлено: 16 января 2026 г.
Андрющенко Г. Д., Годунова М. Э., Иванов В. В. и др., Доклады Российской академии наук. Математика, информатика, процессы управления (ранее - Доклады Академии Наук. Математика) 2025 Т. 527 С. 320–331
Большие языковые модели (Large language model, LLM), предобученные на корпусах, состоящих из большинства текстов на английском языке, показывают более низкое качество и работают неоптимально на других естественных языках. Адаптация словаря LLM обеспечивает ресурсоэффективный способ повышения качества предобученной модели. Ранее предложенные методы адаптации фокусировались на метриках качества (точности) и размера (фертильности), игнорируя другие аспекты, такие как ...
Добавлено: 15 января 2026 г.
Василевский В. И., Александров Д. В., Proceedings of the Institute for System Programming of the RAS 2025 Vol. 37 No. 5 P. 173–182
Автоматическая генерация кода большими языковыми моделями (LLM) достигла значительных успехов, однако все еще сталкивается с проблемами при работе со сложными и объемными кодовыми базами, особенно на таких языках, как Java. Ограничения контекстного окна LLM и сложность отладки сгенерированного кода являются ключевыми препятствиями. В данной статье представлен подход, направленный на улучшение генерации и отладки Java-кода. Мы ...
Добавлено: 26 декабря 2025 г.
Пикуль А. С., Безопасность информационных технологий 2024 Т. 31 № 4 С. 116–127
Исследуется возможность применения современных архитектур компьютерного зрения для задачи обнаружения дипфейков. Рассматриваются следующие архитектуры: EfficientNet, Vision Transformer (ViT), VisionLSTM (ViL), VisionKAN и Mamba Vision. Новизна подхода заключается в применении и сравнении работы данных архитектур, а также в их объединении в парные ансамбли для повышения точности детекции дипфейков. В работе проведен эксперимент, основанный на применении нескольких ...
Добавлено: 12 декабря 2025 г.
Малинов С. А., Галактика медиа: журнал медиа исследований 2025 Т. 7 № 4 С. 154–173
В последние годы искусственный интеллект (ИИ) активно внедряется в повседневную жизнь человека. Его популярность неуклонно растёт, а компании всё чаще используют ИИ для оптимизации и ускорения рабочих процессов. Повседневные пользователи применяют большие языковые модели (Large Language Models, LLM) и мультимодальные ИИ-системы для решения широкого круга задач: генерации текстов, изображений и видео, планирования дня, поиска информации ...
Добавлено: 7 декабря 2025 г.
Кольцова Е. Ю., Сурков А. Ю., Procedia Computer Science 2025 Vol. 258 P. 2382–2390
Добавлено: 28 ноября 2025 г.
Кольцов С. Н., Игнатенко В. В., Сурков А. Ю. и др., Доклады Российской академии наук. Математика, информатика, процессы управления (ранее - Доклады Академии Наук. Математика) 2025 Т. 527 С. 311–319
В данной работе рассматривается способность малых рассуждающих языковых моделей к построению аналитических решений дифференциальных уравнений. Компьютерные эксперименты проводятся на таких моделях, как DeepSeek-R1-Distill-Qwen-1.5B, Qwen2.5-1.5B и Open-Reasoner-Zero-1.5B. Для извлечения финального ответа из рассуждений моделей используется постобработка на основе двух языковых моделей – Qwen2.5.latest и llama3.2.latest. Затем извлеченные ответы сравниваются с эталонными решениями с помощью метрики BLEU. ...
Добавлено: 27 ноября 2025 г.
М.: ФГБУ «Российская академия наук», 2025.
СПЕЦИАЛЬНЫЙ ВЫПУСК: ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И МАШИННОГО ОБУЧЕНИЯ ...
Добавлено: 27 ноября 2025 г.
Комиссаренко А. А., Voloshina E., Чевелева А. Н. и др., Scientific data 2025 Vol. 12 No. 1 Article 1687
Добавлено: 18 ноября 2025 г.
Solovev G. V., Zhidkovskaya A. B., Orlova A. и др., , in: Findings of the Association for Computational Linguistics: EMNLP 2025.: Association for Computational Linguistics, 2025. Ch. 367 P. 6956–6998.
Добавлено: 16 ноября 2025 г.
Sviridov I., Miftakhova A., Tereshchenko A. и др., , in: Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing (EMNLP).: Association for Computational Linguistics, 2025. Ch. 1353 P. 26625–26665.
Добавлено: 16 ноября 2025 г.
Добавлено: 10 октября 2025 г.