«Нам нужны собственные модели ИИ, обученные на местных данных»
Цифровизация экономики и стремительное развитие технологий искусственного интеллекта ставят новые вызовы перед антимонопольными органами во всем мире. Крупнейшие игроки рынка ИИ, обладая значительными ресурсами, могут препятствовать входу новых участников и устанавливать антиконкурентные цены. Кроме того, при использовании ИИ возникает все больше этических вопросов, ответы на которые мировое сообщество еще не выработало. Эти и другие проблемы эксперты обсудили на Третьем форуме по цифровой конкуренции БРИКС+.
Форум прошел в Рио-де-Жанейро в ноябре на полях саммита G20. Мероприятие было организовано Международным центром конкурентного права и политики БРИКС НИУ ВШЭ (Антимонопольный центр БРИКС) совместно со Школой права FGV при поддержке бразильского конкурентного ведомства CADE. Форум собрал представителей ЮНКТАД и других международных организаций, руководителей и сотрудников антимонопольных органов БРИКС, а также исследователей и экспертов мирового уровня из стран БРИКС, Мексики, Малайзии, Европы, Великобритании и США.
Став критически важной для общества, технология ИИ выходит из-под контроля, отметил директор Антимонопольного центра БРИКС ВШЭ Алексей Иванов. Большие языковые модели и чат-боты игнорируют основные принципы, которые должны были бы обеспечивать безопасность и этичность использования искусственного интеллекта. С помощью этих технологий людям, которые часто оказываются уязвимыми для различных манипуляций, уже причиняется вред.
«Этические принципы не будут эффективными, если отрасль развивается только в одном направлении. Антимонопольным органам крайне важно действовать решительно, создавая пространство для появления новых стартапов, продуктов и различных путей развития ИИ. Если страны БРИКС смогут установить новые стандарты и повысить планку, это будет отличным примером для других антимонопольных органов по всему миру», — убежден Алексей Иванов.
Проблему для регуляторов представляют партнерства и инвестиционные соглашения в сфере ИИ. Так, внимание антимонопольных ведомств привлекают компании из группы под аббревиатурой GAMMAN (Google, Amazon, Microsoft, Meta, Apple и NVIDIA). Эти гиганты не только разрабатывают собственные ИИ-продукты и платформы, но и интегрируют свои технологии в широкий спектр отраслей через сотрудничество с небольшими компаниями и стартапами.
Бывший советник по экономическим вопросам и руководитель экономического отдела Комиссии по вопросам конкуренции Индии Пайал Малик отметила, что такие партнерства часто включают в себя не только инвестиции, но также обмен данными и доступ к вычислительным мощностям. Альянсы могут выглядеть как деловые соглашения, но на деле помогают крупнейшим компаниям укреплять свои позиции на рынке, одновременно избегая контроля со стороны антимонопольных органов.
«Основной вопрос заключается в том, какая ситуация выгоднее — та, в которой ИИ-стартапы развиваются благодаря партнерствам с крупными компаниями, или та, при которой стартапы страдают от нехватки ресурсов», — подчеркнула Пайал Малик.
Введение новых критериев антимонопольного контроля малоэффективно, так как каждая сделка в сфере ИИ и смежных областях уникальна, пояснила программный директор Международного института прикладного системного анализа (IIASA) Елена Ровенская. Поэтому IIASA совместно с Центром конкурентного права и политики БРИКС занимается разработкой системного анализа и метода системного картирования. Эти инструменты помогут построить целостные модели по ИИ или другим динамичным секторам. «Разбор очень сложной проблемы на конкретные процессы и причинно-следственные связи уже доказал свою полезность в других областях и может быть полезен в анализе конкуренции», — рассказала она.
Профессор Университета Майами Джон Ньюман отметил, что правоприменителям следует проявить осторожность при переходе к более жесткому регулированию партнерств и соглашений в сфере ИИ. Первый регулятор, который примет такие меры, окажется в центре внимания, и, если его действия будут непрозрачными или необоснованными, это может подорвать легитимность самого регулирования.
Профессор юридической школы FGV в Рио-де-Жанейро Лука Белли поднял вопрос ИИ-суверенитета развивающихся стран. Он призвал страны БРИКС развивать собственные модели ИИ, приведя в пример бразильскую систему платежей PIX и индийскую UPI, которые смогли разрушить дуополию VISA и Mastercard в этих странах.
С ним согласился Викас Катурия, профессор Юридической школы Университета BML Munjal. Он рассказал, что, помимо платежного механизма UPI, в Индии была запущена открытая сеть для цифровой торговли (ONDC), которая призвана бросить вызов дуополии Amazon и Flipkart на местном рынке. «Индия не может позволить себе предвзятость или дискриминацию, когда внедряет генеративный ИИ в различные решения. Нам нужны собственные модели ИИ, обученные на местных данных», — считает он.
Член Комитета Госдумы РФ по защите конкуренции Ирина Филатова предложила разработать в рамках БРИКС совместные правила для борьбы с дипфейками. С помощью этих технологий мошенники могут получить персональные данные пользователей и доступ к важной информации для совершения киберпреступлений и шантажа.
Профессор Юридической школы Университета INSPER Марсела Маттиуццо рассказала, что недобросовестные участники рынка могут использовать сбор данных с помощью ИИ для создания так называемых темных паттернов (dark patterns). Это технологии, разработанные для манипулирования пользователями, — например, дизайн, затрудняющий отписку от услуги или мешающий покинуть платформу. Такие инструменты можно рассматривать как способ получения конкурентных преимуществ, полагает она.
«Необходимо определить, какие юридические полномочия должны быть у регуляторов для оценки данных, документации и запроса ключевой информации, чтобы понять работу систем ИИ, эффективно провести расследование и обеспечить надлежащий контроль», — отметил комиссар CADE Виктор Оливейра Фернандес.
CEO компании по управлению данными DrumWave из США Андре Веллозо подчеркнул: важно не допустить усиления власти технологических гигантов в сфере ИИ, как это случилось на цифровых рынках. Для этого необходимы три ключевых фактора: осведомленность потребителей, технологические инновации и эффективное регулирование.
Комиссар CADE Густаво Аугусто Фрейтас де Лима отметил, что законодательство об ИИ должно стать более прозрачным, гибким и легко внедряемым. «Мы не должны воспринимать ИИ как инструмент только для крупных технологических компаний. ИИ будет использоваться всем обществом. Слишком поздно рассматривать ChatGPT как один продукт — это сотни и тысячи разных приложений, над которыми никто не будет иметь централизованного контроля», — подчеркнул он.
В рамках форума также прошла рабочая группа БРИКС по исследованию проблем конкуренции на цифровых рынках.