?
Учебно-методические материалы мастер-класса «Состязательные атаки на нейронные сети распознавания изображений» для студентов и школьников
Проблема уязвимости нейронных сетей уже несколько лет является предметом научных исследований и экспериментов. Состязательные атаки — один из способов «обмануть» нейросеть, заставить ее принимать ошибочные классификационные решения. Сама возможность состязательной атаки кроется в особенностях машинного обучения нейросетей. В статье показано, как свойства нейронных сетей становятся источником проблем и ограничений в их использовании. Материалы соответствующих исследований автора легли в основу мастер-класса «Состязательные атаки на нейронные сети распознавания изображений». В статье представлены учебно-методические материалы мастер-класса: теоретические основы занятия, практические материалы (в частности, описана атака на один нейрон, рассмотрен метод быстрого знака градиента для атаки на нейронную сеть), примеры экспериментов и расчетов (автор использует сверточную сеть VGG, библиотеки Torch и CleverHans), а также набор типовых ошибок обучающихся и пояснения педагога, устраняющие эти ошибки. Кроме того, в статье приведен результат эксперимента, а по указанным ссылкам доступны его полный код и примеры апробации материалов мастер-класса. Мастер-класс предназначен как для студентов, так и для старших школьников, изучивших основы нейронных сетей и язык Python, а также может представлять практический интерес для учителей информатики, разработчиков курсов по машинному
обучению и искусственному интеллекту и преподавателей ВУЗов.