Самсонов Сергей Владимирович
- Научный сотрудник:Факультет компьютерных наук / Институт искусственного интеллекта и цифровых наук / Международная лаборатория стохастических алгоритмов и анализа многомерных данных
- Старший преподаватель:Факультет компьютерных наук / Департамент больших данных и информационного поиска / Базовая кафедра Института проблем передачи информации им. А.А. Харкевича РАН
- Начал работать в НИУ ВШЭ в 2018 году.
- Научно-педагогический стаж: 6 лет.
Образование
Бакалавриат: Московский государственный университет им. М.В. Ломоносова, специальность «Прикладная математика и информатика», квалификация «Бакалавр»
Достижения и поощрения
- Благодарность первого проректора НИУ ВШЭ (март 2023)
- Благодарность факультета компьютерных наук НИУ ВШЭ (сентябрь 2021)
- Персональная надбавка ректора (2022-2023)
Надбавка за публикации, вносящие особый вклад в международную научную репутацию НИУ ВШЭ (2023-2026)
Надбавка за публикации, вносящие особый вклад в международную научную репутацию НИУ ВШЭ (2024-2027)
Надбавка за публикацию в международном рецензируемом научном издании (2021-2022)
Группа высокого профессионального потенциала (кадровый резерв НИУ ВШЭ)
Категория "Новые исследователи" (2020-2021)
Учебные курсы (2023/2024 уч. год)
- Additional Topics in Probability Theory (Маго-лего; 1 модуль)Анг
- Additional Topics in Probability Theory (Магистратура; где читается: Факультет компьютерных наук; 1-й курс, 1 модуль)Анг
- Markov Chains (Маго-лего; 2, 3 модуль)Анг
- Markov Chains (Магистратура; где читается: Факультет компьютерных наук; 1-й курс, 2, 3 модуль)Анг
- Математическая статистика (углубленный курс) (Бакалавриат; где читается: Факультет компьютерных наук; 2-й курс, 3, 4 модуль)Рус
- Основы матричных вычислений (Бакалавриат; где читается: Факультет компьютерных наук; 2-й курс, 3, 4 модуль)Рус
- Архив учебных курсов
Учебные курсы (2022/2023 уч. год)
- Additional Topics in Probability Theory (Магистратура; где читается: Факультет компьютерных наук; 1-й курс, 1 модуль)Анг
- Markov Chains (Магистратура; где читается: Факультет компьютерных наук; 1-й курс, 2, 3 модуль)Анг
- Mathematical Foundations of Reinforcement learning (Магистратура; где читается: Факультет компьютерных наук; 2-й курс, 2 модуль)Анг
- Математическая статистика (углубленный курс) (Бакалавриат; где читается: Факультет компьютерных наук; 2-й курс, 3, 4 модуль)Рус
- Основы матричных вычислений (Бакалавриат; где читается: Факультет компьютерных наук; 2-й курс, 3, 4 модуль)Рус
Учебные курсы (2021/2022 уч. год)
- Mathematical Foundations of Reinforcement learning (Магистратура; где читается: Факультет компьютерных наук; 2-й курс, 2 модуль)Анг
- Математический анализ 2 (углубленный курс) (Бакалавриат; где читается: Факультет компьютерных наук; 2-й курс, 1-4 модуль)Рус
- Modern Methods of Data Analysis: Stochastic Calculus (Магистратура; где читается: Факультет компьютерных наук; 1-й курс, 1, 2 модуль)Анг
Учебные курсы (2020/2021 уч. год)
- Математический анализ 2 (углубленный курс) (Бакалавриат; где читается: Факультет компьютерных наук; 2-й курс, 1-4 модуль)Рус
- Modern Methods of Data Analysis: Stochastic Calculus (Магистратура; где читается: Факультет компьютерных наук; 1-й курс, 1, 2 модуль)Анг
Публикации23
- Статья Brosse N., Durmus A., Meyn S., Moulines E., Samsonov S. Diffusion approximations and control variates for MCMC // Computational Mathematics and Mathematical Physics. 2024. Vol. 64. No. 4. P. 693-738. doi
- Статья Durmus A., Moulines E., Naumov A., Samsonov S. Finite-time High-probability Bounds for Polyak-Ruppert Averaged Iterates of Linear Stochastic Approximation // Mathematics of Operations Research. 2024. P. 1-30. doi
- Глава книги Samsonov S., Tiapkin D., Naumov A., Moulines E. Improved High-Probability Bounds for the Temporal Difference Learning Algorithm via Exponential Stability, in: Proceedings of Machine Learning Research. Volume 247: The Thirty Seventh Annual Conference on Learning Theory, 30-3 July 2023, Edmonton, Canada. PMLR, 2024. Ch. 247. P. 4511-4547.
- Препринт Sheshukova M., Belomestny D., Durmus A., Moulines E., Naumov A., Samsonov S. Nonasymptotic Analysis of Stochastic Gradient Descent with the Richardson-Romberg Extrapolation / Cornell University. Series arXiv "math". 2024. doi
- Статья Durmus A., Moulines E., Naumov A., Samsonov S. Probability and moment inequalities for additive functionals of geometrically ergodic Markov chains // Journal of Theoretical Probability. 2024. Vol. 37. P. 2184-2233. doi
- Глава книги Leconte L., Jonckheere M., Samsonov S., Moulines E. Queuing dynamics of asynchronous Federated Learning, in: Proceedings of The 27th International Conference on Artificial Intelligence and Statistics (AISTATS 2024), 2-4 May 2024, Palau de Congressos, Valencia, Spain. PMLR: Volume 238 Vol. 238. Valencia : PMLR, 2024. P. 1711-1719.
- Статья Puchkin N., Samsonov S., Belomestny D., Moulines E., Naumov A. Rates of convergence for density estimation with generative adversarial networks // Journal of Machine Learning Research. 2024. Vol. 25. No. 29. P. 1-47.
- Статья Belomestny D., Goldman A., Naumov A., Samsonov S. Theoretical guarantees for neural control variates in MCMC // Mathematics and Computers in Simulation. 2024. Vol. 220. P. 382-405. doi
- Глава книги Beznosikov A., Samsonov S., Sheshukova M., Gasnikov A., Naumov A., Moulines E. First Order Methods with Markovian Noise: from Acceleration to Variational Inequalities, in: Advances in Neural Information Processing Systems 36 (NeurIPS 2023). Curran Associates, Inc., 2023. P. 44820-44835.
- Препринт Durmus A., Moulines E., Naumov A., Samsonov S., Sheshukova M. Rosenthal-type inequalities for linear statistics of Markov chains / Cornell University. Series arXiv "math". 2023. doi
- Статья Belomestny D., Naumov A., Puchkin N., Samsonov S. Simultaneous approximation of a smooth function and its derivatives by deep neural networks with piecewise-polynomial activations // Neural Networks. 2023. Vol. 161. P. 242-253. doi
- Глава книги Cardoso G., Samsonov S., Thin A., Moulines E., Olsson J. BR-SNIS: Bias Reduced Self-Normalized Importance Sampling, in: Thirty-Sixth Conference on Neural Information Processing Systems : NeurIPS 2022. Curran Associates, Inc., 2022. P. 716-729.
- Глава книги Tiapkin D., Belomestny D., Moulines E., Naumov A., Samsonov S., Tang Y., Valko M., Menard P. From Dirichlet to Rubin: Optimistic Exploration in RL without Bonuses, in: Proceedings of the 39th International Conference on Machine Learning Vol. 162. PMLR, 2022. P. 21380-21431.
- Глава книги Samsonov S., Lagutin E., Gabrie M., Durmus A., Naumov A., Moulines E. Local-Global MCMC kernels: the best of both worlds, in: Thirty-Sixth Conference on Neural Information Processing Systems : NeurIPS 2022. Curran Associates, Inc., 2022. P. 5178-5193.
- Статья Belomestny D., Moulines E., Samsonov S. Variance reduction for additive functionals of Markov chains via martingale representations // Statistics and Computing. 2022. Vol. 32. No. 1. Article 16. doi
- Статья Масютин А. А., Савченко А. В., Наумов А. А., Самсонов С. В., Тяпкин Д. Н., Беломестный Д. В., Морозова Д. С., Бадьина Д. А. О разработке прикладных решений на основе искусственного интеллекта для обеспечения технологической безопасности // Доклады Российской академии наук. Математика, информатика, процессы управления (ранее - Доклады Академии Наук. Математика). 2022. Т. 508. С. 28-32. doi
- Глава книги Durmus A., Moulines E., Naumov A., Samsonov S., Wai H. On the Stability of Random Matrix Product with Markovian Noise: Application to Linear Stochastic Approximation and TD Learning, in: Proceedings of Machine Learning Research Vol. 134: Conference on Learning Theory. PMLR, 2021. P. 1711-1752.
- Глава книги Durmus A., Moulines E., Naumov A., Samsonov S., Scaman K., Wai H. Tight High Probability Bounds for Linear Stochastic Approximation with Fixed Stepsize, in: Advances in Neural Information Processing Systems 34 (NeurIPS 2021). Curran Associates, Inc., 2021. P. 30063-30074.
- Статья Belomestny D., Levin I., Moulines E., Naumov A., Samsonov S., Zorina V. UVIP: Model-Free Approach to Evaluate Reinforcement Learning Algorithms // Working papers by Cornell University. Series math "arxiv.org". 2021. Article 2105.02135.
- Статья Belomestny D., Iosipoi L., Moulines E., Naumov A., Samsonov S. Variance reduction for dependent sequences with applications to Stochastic Gradient MCMC // SIAM-ASA Journal on Uncertainty Quantification. 2021. Vol. 9. No. 2. P. 507-535. doi
- Статья Belomestny D., Moulines E., Iosipoi L., Naumov A., Samsonov S. Variance reduction for Markov chains with application to MCMC // Statistics and Computing. 2020. No. 30. P. 973-997. doi
- Статья Samsonov S., Ushakov N., Ushakov V. Estimation of the Second Moment Based on Rounded Data // Journal of Mathematical Sciences. 2019. Vol. 237. No. 6. P. 819-825. doi
- Глава книги Samsonov S., Ushakov N., Ushakov V. Consistent variance estimation based on rounded data, in: Book of abstracts of XXXIV International Seminar on Stability Problems for Stochastic Models. August 25–29, 2017. Debrecen, Hungary. , 2017. P. 121-121. (в печати)
Конференции
- 2020
Math of Machine Learning (HDI Lab Summer School) (Sochi). Доклад: Variance reduction for MCMC methods via martingale representations
- 2019
New frontiers in high-dimensional probability and statistics 2 (Москва). Доклад: Concentration Inequalities for Functionals of Markov Chains with Applications to Variance Reduction
Structural Inference in High-Dimensional Models 2 (Пушкин). Доклад: Variance Reduction for Dependent Sequences via Empirical Variance Minimisation
SDEs/SPDEs: Theory, Numerics and their interplay with Data Science (Ираклион). Доклад: Variance reduction for dependent sequences via empirical variance minimisation
Опыт работы
июнь-август 2018: стажировка в Samsung AI Center Moscow, руководитель - Виктор Лемпицкий.
Информация*
- Общий стаж: 6 лет
- Научно-педагогический стаж: 6 лет
Центр ИИ Вышки помогает стране и Сберу развивать AI-технологии
Сбер оценил экономический эффект от сотрудничества с исследовательскими центрами в сфере искусственного интеллекта в 1,1 млрд рублей. Одним из партнеров Сбера с 2021 года является Центр ИИ Высшей школы экономики. Всего в рамках этого партнерства успешно реализовано 19 проектов.
«Каждая статья на NeurIPS — значительный результат»
Сотрудники факультета компьютерных наук НИУ ВШЭ представят 12 своих работ на 37-й конференции NeurIPS. Conference and Workshop on Neural Information Processing Systems — одно из самых значительных событий в сфере искусственного интеллекта и машинного обучения. В этом году она пройдет с 10 по 16 декабря в Новом Орлеане (США).
Победители и призеры заключительного этапа ВсОШ по информатике и математике провели «Два дня на ФКН»
В прошлом году на факультете компьютерных наук появилась традиция приглашать победителей и призеров заключительного этапа всероссийской олимпиады школьников по информатике и математике в гости для знакомства с факультетом.
Научный сотрудник HDI Lab Сергей Самсонов: «Ни разу с тех пор, как я решил заниматься наукой, мне не было скучно»
Сергей Самсонов мог бы стать историком или работать в хедж-фонде, но посвятил себя математике. В интервью проекту «Молодые ученые Вышки» он рассказал, почему выбрал исследовательскую деятельность в области статистики и машинного обучения и как сгенерировать миллион изображений кошечек.
«Ни разу с тех пор, как я решил заниматься наукой, мне не было скучно»
Сергей Самсонов мог бы стать историком или работать в хедж-фонде, но посвятил себя математике. В интервью проекту «Молодые ученые Вышки» он рассказал, почему выбрал исследовательскую деятельность в области статистики и машинного обучения и как сгенерировать миллион изображений кошечек.
Прошла школа «Математика машинного обучения»
7-12 февраля в городе Приозерск прошла школа «Математика машинного обучения».
Научную премию имени Сегаловича получили трое ученых Вышки
По итогам ежегодной научной премии имени Ильи Сегаловича в 2022 году лауреатами стали ученые факультета компьютерных наук НИУ ВШЭ: профессор-исследователь Дмитрий Ветров, доцент Алексей Наумов и аспирант Сергей Самсонов. Премия, учрежденная компанией «Яндекс» в 2019 году, направлена на поддержку молодых исследователей и научного сообщества в области IT в России, Беларуси и Казахстане.
17 Articles by Researchers of HSE Faculty of Computer Science Accepted at NeurIPS
In 2022, 17 articles by the researchers of HSE Faculty of Computer Science were accepted at the NeurIPS (Conference and Workshop on Neural Information Processing Systems), one of the world’s most prestigious events in the field of machine learning and artificial intelligence. The 36th conference will be held in a hybrid format from November 28th to December 9th in New Orleans (USA).
17 статей ФКН НИУ ВШЭ принято на конференцию NeurIPS
В 2022 году от факультета компьютерных наук НИУ ВШЭ было принято 17 статей на NeurIPS (Conference and Workshop on Neural Information Processing Systems) — одно из самых престижных событий в сфере машинного обучения и искусственного интеллекта. 36-я конференция пройдет в гибридном формате с 28 ноября по 9 декабря в Новом Орлеане (США).
Прошла летняя школа «Обучение, понимание и оптимизация в моделях искусственного интеллекта»
20-26 июня в Кочубей-центре ВШЭ прошла летняя школа «Обучение, понимание и оптимизация в моделях искусственного интеллекта»
ФКН Вышки и Сколтех провели юбилейную совместную олимпиаду «Математика машинного обучения»
Факультет компьютерных наук Вышки и Сколковский институт науки и технологий в пятый раз организовали олимпиаду «Математика машинного обучения». Ее участники боролись за призовые места и право без экзаменов стать студентами сразу двух вузов, поступив на совместную магистерскую программу НИУ ВШЭ и Сколтеха «Математика машинного обучения».
Десять статей исследователей ФКН приняты на конференцию NeurIPS 2021
35-ая конференция NeurIPS 2021 (Conference on Neural Information Processing Systems) — одна из крупнейших в мире конференций по машинному обучению и нейронным сетям, которая проводится с 1989 года. В 2021 году конференция проходит онлайн 6-14 декабря.