• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • A
  • A
  • A
  • A
  • A
Обычная версия сайта
  • RU
  • EN
  • Национальный исследовательский университет «Высшая школа экономики»
  • Публикации ВШЭ
  • Глава
  • LLM-Microscope: Uncovering the Hidden Role of Punctuation in Context Memory of Transformers
  • RU
  • EN
Расширенный поиск
Высшая школа экономики
Национальный исследовательский университет
Приоритетные направления
  • бизнес-информатика
  • государственное и муниципальное управление
  • гуманитарные науки
  • инженерные науки
  • компьютерно-математическое
  • математика
  • менеджмент
  • право
  • социология
  • экономика
по году
  • 2027
  • 2026
  • 2025
  • 2024
  • 2023
  • 2022
  • 2021
  • 2020
  • 2019
  • 2018
  • 2017
  • 2016
  • 2015
  • 2014
  • 2013
  • 2012
  • 2011
  • 2010
  • 2009
  • 2008
  • 2007
  • 2006
  • 2005
  • 2004
  • 2003
  • 2002
  • 2001
  • 2000
  • 1999
  • 1998
  • 1997
  • 1996
  • 1995
  • 1994
  • 1993
  • 1992
  • 1991
  • 1990
  • 1989
  • 1988
  • 1987
  • 1986
  • 1985
  • 1984
  • 1983
  • 1982
  • 1981
  • 1980
  • 1979
  • 1978
  • 1977
  • 1976
  • 1975
  • 1974
  • 1973
  • 1972
  • 1971
  • 1970
  • 1969
  • 1968
  • 1967
  • 1966
  • 1965
  • 1964
  • 1963
  • 1958
  • еще
Тематика
Новости
14 мая 2026 г.
<a>Ученые ФКН ВШЭ представили работы в сфере ИИ и биоинформатики на ICLR 2026
Ученые Института искусственного интеллекта и цифровых наук факультета компьютерных наук ВШЭи студенты трека «ИИ360: Инженерия искусственного интеллекта» бакалаврской программы «Прикладная математика и информатика» приняли участие в международной конференции ICLR — одном из самых авторитетных мировых форумов в области машинного обучения и представления данных. В этом году конференция состоялась в Рио-де-Жанейро (Бразилия).
14 мая 2026 г.
«Физика - это то, на чем строится мир»
Стипендиат Фонда Владимира Потанина физик Нина Джанаева занимается исследованиями в области нанофотоники. В интервью проекту «Молодые ученые Вышки» она рассказала о наноколодцах, научной интуиции и пользе физики для приготовления слоек с кремом франжипан.
13 мая 2026 г.
Исследователи Вышки - о бездомности, психологии смысла, курении и правах пациентов
В конце апреля в культурном центре Community состоялся третий полуфинал девятого сезона «Научных боев». Четыре исследователя пробирались через импровизированные джунгли социальных проблем, медицинских прав и психологических лабиринтов. У каждого было 10 минут, никаких презентаций — только реквизит, харизма и истории, от которых захватывало дух.

 

Нашли опечатку?
Выделите её, нажмите Ctrl+Enter и отправьте нам уведомление. Спасибо за участие!

Публикации
  • Книги
  • Статьи
  • Главы в книгах
  • Препринты
  • Верификация публикаций
  • Расширенный поиск
  • Правила использования материалов
  • Наука в ВШЭ

?

LLM-Microscope: Uncovering the Hidden Role of Punctuation in Context Memory of Transformers

P. 7757–7764.
Anton R., Mikhalchuk M., Rahmatullaev T., Гончарова Е. Ф., Druzhinina P., Oseledets I., Kuznetsov A.

Мы предлагаем методы количественной оценки того, как большие языковые модели (LLM) кодируют и хранят контекстную информацию, и показываем, что токены, обычно считающиеся второстепенными (например, детерминативы и знаки препинания), на деле несут неожиданно высокий объём контекста. В частности, удаление таких токенов — особенно стоп-слов, артиклей и запятых — стабильно ухудшает качество на MMLU и BABILong-4k, даже когда удаляются лишь кажущиеся нерелевантными токены. Наш анализ также выявляет сильную связь между «контекстуализированностью» и линейностью, где линейность измеряет, насколько хорошо переход от представлений одного слоя к следующему можно аппроксимировать одной линейной отображающей матрицей. Эти результаты подчёркивают скрытую важность «заполняющих» токенов для поддержания контекста. Для дальнейшего исследования мы представляем LLM-Microscope — открытый инструментарий, который оценивает нелинейность на уровне токенов, измеряет контекстную память, визуализирует вклад промежуточных слоёв (с помощью адаптированного Logit Lens) и определяет внутреннюю размерность представлений. Этот набор инструментов демонстрирует, что на первый взгляд тривиальные токены могут быть критически важны для понимания дальнодействующих зависимостей.

Язык: английский
DOI
Текст на другом сайте
Ключевые слова: NLPинтерпретируемостьinterpretabilityLLMбольшие языковые моделиОбработка естественного языка (NLP)

В книге

Findings of the Association for Computational Linguistics: NAACL 2025
Association for Computational Linguistics, 2025.
Похожие публикации
От неизвестности к прозрачности: обзор технологий объяснимого ИИ (XAI)
Авдошин С. М., Песоцкая Е. Ю., Информационные технологии 2026 Т. 32 № 4 С. 185–194
С развитием ИИ, и в особенности глубокого обучения, появились модели, способные давать крайне точные прогнозы. Однако их внутренняя логика остается трудной для понимания — и это серьезная проблема, особенно в сферах, где от корректности алгоритма зависят критиче ски важные решения. Одним из перспективных путей ее решения считается направление Explainable Artificial Intelligence (XAI) — разработка подходов, позволяющих прояснять ...
Добавлено: 8 мая 2026 г.
Персонализированная обратная связь на основе искусственного интеллекта: модель для магистратуры гуманитарного профиля
Подболотова М. И., Адамский А. И., Колачев Н. И. и др., Высшее образование в России 2026 Т. 35 № 4 С. 21–35
Цель статьи – представить и обосновать педагогическую модель персонализированной обратной связи на основе больших языковых моделей (LLM) для образовательного процесса в магистратуре гуманитарного профиля. Актуальность исследования обусловлена задачами цифровой трансформации высшего образования в РФ, обозначенными в указе Президента № 474 от 21.07.2021 «О национальных целях развития до 2030 года», и необходимостью внедрения гибких, адаптивных образовательных ...
Добавлено: 4 мая 2026 г.
Об идеологических предвзятостях генеративного ИИ: Российско-украинский конфликт в репрезентации ChatGPT
Байша О. А., Трофимов В. В., Российская школа связей с общественностью 2026 № 40 С. 171–191
Все большее количество ученых предупреждает об опасности воспроизведения генеративным ИИ социально-политических и идеологических предрассудков, впитанных моделями из текстов, на которых они обучались. Если, например, та или иная модель тренировалась на материалах западных СМИ, она может генерировать нарративы, воспроизводящие западноцентричный взгляд на мировые события. Это проявляется в репродукции определений глобальных проблем, нормализированных в западных гегемонистских дискурсах. ...
Добавлено: 21 апреля 2026 г.
Large Language Models as Political Actors: Cultural Bias and Epistemic Power
Seredkina E., Seletkova G., Михайловский А. В., Technology and Language 2026 Vol. 7 No. 1 P. 63–79
Быстрое распространение больших языковых моделей (Large Language Models, LLM) в социально и политически чувствительных сферах ставит вопрос о природе и источниках политической предвзятости в системах искусственного интеллекта. В большинстве исследований предвзятость рассматривается преимущественно как технический дефект, подлежащий устранению. Здесь предлагается более широкая философская и культурная интерпретация феномена, согласно которой предвзятость LLM является результатом встроенных эпистемических ...
Добавлено: 1 апреля 2026 г.
Granular computing-based deep learning for text classification
Бехзадидуст Р., Mahan F., Izadkhah H., Information Sciences 2024 Vol. 652 Article 119746
Добавлено: 12 марта 2026 г.
Mechanistic Permutability: Match Features Across Layers
Balagansky N., Максимов Я. В., Gavrilov D., , in: Proceedings of the 13th International Conference on Learning Representations (ICLR 2025).: ICLR, 2025. P. 57940–57957.
Добавлено: 25 февраля 2026 г.
When Punctuation Matters: A Large-Scale Comparison of Prompt Robustness Methods for LLMs
Seleznyov M., Чайчук М. В., Ershov G. и др., , in: Findings of the Association for Computational Linguistics: EMNLP 2025.: Association for Computational Linguistics, 2025. P. 20370–20385.
Добавлено: 3 февраля 2026 г.
30th International Conference on Applications of Natural Language to Information Systems, NLDB 2025, Kanazawa, Japan, July 4–6, 2025, Proceedings, Part I. Natural Language Processing and Information Systems. (LNCS, volume 15836)
Springer, 2025.
Добавлено: 3 февраля 2026 г.
Measuring Chemical LLM robustness to molecular representations: a SMILES variation-based framework
Ganeeva V., Khrabrov K., Kadurin A. и др., Journal of Cheminformatics 2025 No. 17 Article 164
Добавлено: 3 февраля 2026 г.
Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2021)
INCOMA Ltd, 2021.
Добавлено: 28 января 2026 г.
Многоаспектная оценка методов адаптации токенизатора для больших языковых моделей на русском языке
Андрющенко Г. Д., Годунова М. Э., Иванов В. В. и др., Доклады Российской академии наук. Математика, информатика, процессы управления (ранее - Доклады Академии Наук. Математика) 2025 Т. 527 С. 320–331
Большие языковые модели (Large language model, LLM), предобученные на корпусах, состоящих из большинства текстов на английском языке, показывают более низкое качество и работают неоптимально на других естественных языках. Адаптация словаря LLM обеспечивает ресурсоэффективный способ повышения качества предобученной модели. Ранее предложенные методы адаптации фокусировались на метриках качества (точности) и размера (фертильности), игнорируя другие аспекты, такие как ...
Добавлено: 15 января 2026 г.
Aspect-Based Sentiment Analysis Using Large Language Models on Museum Visitor Reviews
Anastasia V. Kolmogorova, Elizaveta R. Kulikova, Vladislav V. Lobanov, Supercomputing Frontiers and Innovations 2025 Vol. 12 No. 3 P. 121–140
Добавлено: 30 ноября 2025 г.
Применение больших языковых моделей для анализа ценностно-патриотического дискурса русскоязычных пользователей
Балакина Ю. В., Григорьева М. В., Соколова Е. Н., Вестник Российского фонда фундаментальных исследований. Гуманитарные и общественные науки 2025 Т. 123 № 4 С. 56–69
Статья рассматривает возможности применения больших языковых моделей (LLM) для автоматизированного анализа ценностно-патриотического дискурса русскоязычных пользователей социальных медиа. На материале корпуса сообщений из VK, «Одноклассников» и Telegram (2023–2025 гг.) исследуется, насколько результаты автоматической кодировки совпадают с экспертной разметкой по специально разработанной категориальной схеме. Кодбук включает восемь измерений: базовые ценности по Ш. Шварцу, две оси Р. Инглхарта ...
Добавлено: 26 ноября 2025 г.
Empaths at SemEval-2025 Task 11: Retrieval-Augmented Approach to Perceived Emotions Prediction
Morozov L., Mogilevskii A., Ширнин А. А., , in: Proceedings of the 19th International Workshop on Semantic Evaluation (SemEval-2025).: Association for Computational Linguistics, 2025. P. 2000–2007.
Добавлено: 17 ноября 2025 г.
Proceedings of the 19th International Workshop on Semantic Evaluation (SemEval-2025)
Association for Computational Linguistics, 2025.
Добавлено: 17 ноября 2025 г.
AutoJudge: Judge Decoding Without Manual Annotation
Roman Garipov, Fedor Velikonivtsev, Ivan Ermakov и др., , in: 39th Conference on Neural Information Processing Systems (NeurIPS 2025).: NeurIPS, 2025. P. 94605–94642.
Добавлено: 6 ноября 2025 г.
Strategizing with AI: Insights from a Beauty Contest Experiment
Iuliia Alekseenko, Дагаев Д. А., Sofiia Paklina и др., Journal of Economic Behavior and Organization 2025 Vol. 240 Article 107330
Добавлено: 6 ноября 2025 г.
Findings of the Association for Computational Linguistics: NAACL 2025
Association for Computational Linguistics, 2025.
Добавлено: 6 ноября 2025 г.
  • О ВЫШКЕ
  • Цифры и факты
  • Руководство и структура
  • Устойчивое развитие в НИУ ВШЭ
  • Преподаватели и сотрудники
  • Корпуса и общежития
  • Закупки
  • Обращения граждан в НИУ ВШЭ
  • Фонд целевого капитала
  • Противодействие коррупции
  • Сведения о доходах, расходах, об имуществе и обязательствах имущественного характера
  • Сведения об образовательной организации
  • Людям с ограниченными возможностями здоровья
  • Единая платежная страница
  • Работа в Вышке
  • ОБРАЗОВАНИЕ
  • Лицей
  • Довузовская подготовка
  • Олимпиады
  • Прием в бакалавриат
  • Вышка+
  • Прием в магистратуру
  • Аспирантура
  • Дополнительное образование
  • Центр развития карьеры
  • Бизнес-инкубатор ВШЭ
  • Образовательные партнерства
  • Обратная связь и взаимодействие с получателями услуг
  • НАУКА
  • Научные подразделения
  • Исследовательские проекты
  • Мониторинги
  • Диссертационные советы
  • Защиты диссертаций
  • Академическое развитие
  • Конкурсы и гранты
  • Внешние научно-информационные ресурсы
  • РЕСУРСЫ
  • Библиотека
  • Издательский дом ВШЭ
  • Книжный магазин «БукВышка»
  • Типография
  • Медиацентр
  • Журналы ВШЭ
  • Публикации
  • http://www.minobrnauki.gov.ru/
    Министерство науки и высшего образования РФ
  • https://edu.gov.ru/
    Министерство просвещения РФ
  • http://www.edu.ru
    Федеральный портал «Российское образование»
  • https://elearning.hse.ru/mooc
    Массовые открытые онлайн-курсы
  • НИУ ВШЭ1993–2026
  • Адреса и контакты
  • Условия использования материалов
  • Политика конфиденциальности
  • Правила применения рекомендательных технологий в НИУ ВШЭ
  • Карта сайта
Редактору