Красные линии: эксперты обсудили вопросы этики и права в сфере ИИ
Быстрое развитие технологий искусственного интеллекта требует опережающего этико-гуманитарного осмысления вероятных результатов прогресса и сбалансированных регуляторных мер, стимулирующих применение ИИ и ограждающих человека от возможного негативного влияния. Об этом эксперты говорили на Форуме этики в сфере искусственного интеллекта «Поколение GPT. Красные линИИ», который прошел в ТАСС. В его работе приняли участие представители Вышки.
Директор Национального центра развития искусственного интеллекта при Правительстве РФ (действует на базе ВШЭ) Сергей Наквасин, открывая форум, подчеркнул остроту этических вопросов развития и применения искусственного интеллекта и большое внимание общества к моральным проблемам ИИ. «Форум в этом году приобрел всероссийский масштаб: три дня накануне шел марафон в 12 регионах страны. Более тысячи человек приняли участие в открытой, честной, горячей, острой дискуссии. Мы накапливаем и обрабатываем результаты всех этих обсуждений», — сказал он.
По словам Татьяны Матвеевой, начальника Управления по развитию информационно-коммуникационных технологий и инфраструктуры связи Администрации Президента РФ, наша общая задача — обеспечение надежности, безопасности технологий ИИ и доверия к ним. «Все предложения, которые будут высказаны на форуме, помогут ответить нам на основные вопросы, на вызовы, которые стоят перед нами, и будут способствовать повышению доверия общества к технологиям искусственного интеллекта, формированию подлинного технологического суверенитета нашей страны», — подчеркнула она.
Заместитель министра экономического развития РФ Максим Колесников обратил внимание, что в мире нет единого понимания регулирования ИИ: в Европе приняты жесткие меры, а США и Китай придерживаются более мягких рамок. Россия выступает за гибридный подход, где отдельные элементы ИИ будут контролироваться законодательно, но в основном он будет регулироваться Кодексом этики в сфере ИИ и принципами, разработанными в диалоге с технологическим сообществом. «Более 270 компаний и органов государственной власти уже согласились соблюдать установленные кодексом принципы. Ожидаем, что сегодня к ним присоединится еще порядка 20 организаций», — заявил Максим Колесников.
В ходе круглого стола «Межкультурный взгляд на глобальные вызовы развития искусственного интеллекта» руководитель Международного научно-образовательного центра «Кафедра ЮНЕСКО по авторскому праву, смежным, культурным и информационным правам» НИУ ВШЭ профессор Михаил Федотов отметил, что российский Кодекс этики в сфере ИИ близок к рекомендациям, разработанным ЮНЕСКО. «Это хорошо, значит, позиции совпадают и мировой опыт перенимается Россией», — сказал он. По его мнению, кодекс следует дополнить комиссией по нейроправу, «потому что искусственный интеллект связан и с нашим естественным интеллектом». Эта комиссия займется ментальной и физической неприкосновенностью человека при вероятном вживлении имплантов в мозг и его защитой от возможной когнитивной цензуры. Необходима и комиссия, которая будет следить за исполнением требований Кодекса ИИ. В противном случае, считает Михаил Федотов, высок риск невыполнения его ключевых положений.
Он также предостерег от роботизации человека, вызванной алгоритмизацией производства и иных процессов. Возникает вероятность подмены лечения здравоохранением, творчества — имитацией, науки — наукометрией.
В треке, посвященном применению этических принципов в работе ученых и центров развития ИИ, руководитель проектов Центра экспертизы по реализации федерального проекта «Искусственный интеллект» Аналитического центра при Правительстве РФ Сергей Астахов отметил: чем масштабнее технология, тем острее встают этические вопросы ее применения. «Можем ли мы надеяться на развитие технологий в гармонии с этикой?» — поинтересовался он.
Руководитель Центра искусственного интеллекта НИУ ВШЭ Алексей Масютин подчеркнул: следует осмыслить этичность не самого искусственного интеллекта, а его применения. Например, его использование при генерации лекарств кратно сокращает время их разработки, что особенно важно при необходимости быстрого запуска их производства, однако аналогичные принципы можно применить и при разработке опасных материалов, в том числе химического оружия. Нейросети позволяют более качественно и быстро реставрировать, но с их помощью можно создавать и дипфейки, манипулирующие людьми.
Чтобы управлять этическими принципами использования ИИ, нужна работа ученых многих специальностей. В Центре искусственного интеллекта НИУ ВШЭ проект «Этическая экспертиза в сфере ИИ» возглавляет доцент Школы философии и культурологии университета Анастасия Углева.
Это, полагает эксперт НИУ ВШЭ, не снимает ответственности с разработчиков ИИ. В ходе подготовки программ следует тестировать их на возможность неэтичного применения, в том числе вероятной дискриминации отдельных групп людей. Ответственную задачу выполняют те, кто готовит данные для разработки, именно от качества их работы во многом зависит правильность алгоритмов работы искусственного интеллекта. Важно также совершенствовать инструменты детекции возможных недостатков программ, отметил Алексей Масютин.
Он также сообщил, что группа по этике Центра искусственного интеллекта регулярно оценивает качество баз и программ, в том числе и с индустриальными партнерами Вышки.
В рамках форума «Поколение GPT. Красные линИИ» были вручены награды за вклад в развитие этики в сфере искусственного интеллекта. За исследования по этической экспертизе в сфере ИИ и проведение регулярного научного семинара по гуманистическим и этическим аспектам развития цифровых технологий была отмечена доцент Школы философии и культурологии факультета гуманитарных наук НИУ ВШЭ Анастасия Углева.
Вам также может быть интересно:
«Можно что-то сделать? Или меня отчислят?»: ИИ-помощники в образовании
Искусственный интеллект может значительно облегчить жизнь студентов и преподавателей университетов. Например, он способен автоматизировать некоторые учебные процессы, а также составить прогноз возможностей трудоустройства выпускников.
В НИУ ВШЭ разработан инструмент для контроля ИИ-технологий в медицине
Группа исследователей из Центра искусственного интеллекта НИУ ВШЭ разработала индекс для определения уровня этичности систем искусственного интеллекта (ИИ) в медицине. Инструмент предназначен для минимизации потенциальных рисков, обеспечения безопасной разработки и внедрения ИИ-технологий в медицинскую практику.
Драйвер прогресса и статья доходов: роль университетов в трансфере технологий
В современном мире необходим эффективный трансфер социально-экономических и гуманитарных знаний в реальный сектор экономики и госуправление. Решающую роль в этом играют университеты. У них есть возможность объединять различные коллективы и в партнерстве с государством и бизнесом разрабатывать и совершенствовать передовые технологии.
ИНФОТЕХ-2024: «понять перспективы и ограничения использования ИИ в образовании»
В конце октября в рамках XVII Тюменского цифрового форума информационных технологий «ИНФОТЕХ-2024» прошел круглый стол «Эксперименты с ИИ в образовании». Эксперты Высшей школы экономики, Московского городского педагогического университета, Уральского федерального университета и Тюменского государственного университета обсудили практический опыт разработки и внедрения технологий ИИ в образовательный процесс, обозначили основные вызовы, связанные с быстрым развитием образовательных решений на базе ИИ.
Fall into ML 2024: взгляд в будущее машинного обучения
25–26 октября в Москве состоялась конференция Fall into ML, организованная Институтом искусственного интеллекта и цифровых наук ФКН НИУ ВШЭ совместно с Центром ИИ при поддержке титульного партнера — Сбера. На протяжении двух дней ведущие специалисты в области искусственного интеллекта обсуждали перспективы развития фундаментальных технологий ИИ.
ВШЭ и «Яндекс» представили доклад об интеграции искусственного интеллекта в высшее образование
Высшая школа экономики и «Яндекс Образование» подготовили совместный доклад «Искусственный интеллект в образовании». В нем проанализированы ведущие мировые практики, раскрывающие потенциал технологий искусственного интеллекта (ИИ) в образовательной сфере. Доклад представляет собой карту с кейсами университетов разных стран, уже сегодня применяющих ИИ. Цель проекта — помочь российским вузам внедрять ИИ, опираясь на опыт других университетов.
Практика лицензирования разработок НИУ ВШЭ отмечена премией в области корпоративных инноваций GIA
На церемонии вручения премии GIA совместный проект Центра искусственного интеллекта НИУ ВШЭ и АО «Новое сервисное бюро» получил награду в номинации «Трансфер технологий». Это стало плодом интенсивной работы университетского Центра трансфера технологий и научных сотрудников вместе с индустриальным партнером.
Онлайн-юрист, чат-ассистент и аватар профессора: как ученые Вышки применяют ИИ-технологии
Молодые ученые Вышки представили собственные проекты на Объединенном научном семинаре стратегического проекта «ИИ-технологии для человека» (реализуется в рамках программы «Приоритет-2030»). Решения, предложенные исследователями на базе ИИ-алгоритмов, будут полезны для развития гостиничного бизнеса, выявления манипуляций с эмпирическими данными в научных статьях, автоматизации создания юридических документов, а также во многих других сферах деятельности.
Эксперты НИУ ВШЭ исследовали, как ведется подготовка специалистов в области ИИ
Институт статистических исследований и экономики знаний НИУ ВШЭ представил доклад, подготовленный на основе результатов специализированного обследования образовательных организаций высшего образования. Целью впервые проведенной работы стало выявление масштабов и условий обучения технологиям искусственного интеллекта в рамках образовательных программ высшего образования и дополнительных профессиональных программ в вузовском секторе.
«Нам удалось провести настоящий хакатон, когда нет заранее понятного пайплайна, как получить решение»
С 13 по 20 октября в НИУ ВШЭ прошел хакатон “HSE AI Assistant Hack: Python”, организованный факультетом компьютерных наук и Центром искусственного интеллекта ВШЭ. За призовые места боролись 89 студенческих команд из ведущих вузов страны.