?
Intellectus ex machina: видимость, потенциальная правосубъектность, ответственность за действия и решения искусственного интеллекта
Применение искусственного интеллекта (ИИ), как и любой новой технологии, влечет за собой возникновение целого ряда вызовов, включая угрозы кибербезопасности критически важных инфраструктурных объектов, проблемы трудоустройства, защиты персональных данных, распространения фейковой информации и дискриминации. В условиях стремительного развития технологий исключительно мягкого регулирования становится недостаточно. Автор уделяет внимание ряду аспектов, необходимых, на его взгляд, для построения эффективной модели правового регулирования в сфере ИИ. Прежде всего, требуется нормативное закрепление обязанности информировать пользователей о взаимодействии с системами ИИ, поскольку самостоятельно идентифицировать такие системы становится все сложнее. Основным инструментом для «подсвечивания» ИИ и создаваемого ИИ продукта видится маркировка. Такого подхода уже придерживается ряд стран. Кроме того, необходимо определиться с вопросом правосубъектности ИИ: по мере усложнения программных продуктов и увеличения влияния результатов их работы на права человека возрастает потребность в четком правовом определении их статуса. Наконец, правосубъектность тесно связана с вопросами юридической ответственности за действия и решения ИИ. С учетом рискового характера технологий ИИ, включая возможные ошибки, так называемые галлюцинации или непредсказуемые последствия их применения, важно четко определить, кто и за что будет нести ответственность в случае наступления неблагоприятных последствий. Научные дискуссии по вопросам правосубъектности и ответственности продолжаются, обсуждаются разные правовые конструкции. Однако пока речь идет о так называемом слабом ИИ, он будет оставаться объектом, а не субъектом правоотношений; ответственность за его действия в зависимости от обстоятельств может нести или разработчик, или владелец системы ИИ.