В быстро развивающемся технологическом контексте Европейский Союз делает исторический шаг: принятие революционного Закона об искусственном интеллекте (Я дам ссылку на текст). Эта новая нормативно-правовая база, голосование по которой, как ожидается, будет проведено в 2024 году, направлено на установление новых глобальных стандартов безопасности и прозрачности для разработчиков ИИ, включая OpenAI и других. С целью сбалансировать инновации и фундаментальные права, Закон об ИИ может стать важным поворотным моментом в регулировании ИИ во всем мире.
Что представляет собой Закон об искусственном интеллекте?
Как уже упоминалось, Закон об искусственном интеллекте является поворотным моментом в технологической политике ЕС, поскольку он вводит комплексную основу для безопасности и прозрачности искусственного интеллекта.
После более чем 36 часов (фактическое время) интенсивных обсуждений официальные лица ЕС завершили разработку набора руководящих принципов, которые на данный момент являются самыми строгими в мире. Этот закон ставит Европу в пример другим странам в области регулирования ИИ.
Каковы пункты нового Закона об искусственном интеллекте?
В основе Закона об искусственном интеллекте лежит классификация инструментов и приложений искусственного интеллекта. на три «категории риска». ИИ с самым высоким уровнем риска подвергаются тщательному контролю со стороны регулирующих органов. К ним относятся автономные транспортные средства, инструменты критической инфраструктуры, медицинские устройства и системы биометрической идентификации.
Эти системы «высокого риска» потребуют оценки воздействия на фундаментальные права, строгих требований прозрачности и должны быть зарегистрированы в общедоступной базе данных ЕС.
Запреты и санкции
Помимо определения категорий риска, Закон об искусственном интеллекте категорически запрещает определенные виды использования искусственного интеллекта. Среди них распознавание лиц в реальном времени (цель, преследуемая в течение некоторого времени), системы распознавания эмоций и «социального кредита» запрещены.
Крупнейшие технологические компании США (такие как OpenAI и Google), которые используют «системы искусственного интеллекта общего назначения», должны будут соответствовать новым стандартам, введенным ЕС. К ним относятся обновление властям ЕС их типовых методов обучения и разработка политики, обеспечивающей соблюдение законов ЕС об авторском праве.
Технологические компании, нарушающие эти правила, могут быть оштрафованы на значительные штрафы, размер которых варьируется. от 1,5% до 7% от их общего оборота. Много? Маленький? Достаточно, чтобы отговорить, или нет? Вопросы, которым суждено остаться пока без ответа.
И тут возникают сомнения
Несмотря на широкую поддержку, Закон об искусственном интеллекте вызвал обеспокоенность среди европейских экспертов по конфиденциальности. Некоторые считают, что в этой системе мало внимания уделяется фундаментальным правам человека, в отличие от предыдущих подходов, таких как GDPR. Опять же: существует обеспокоенность тем, что подход, основанный на оценке рисков, может не дать полного представления о будущем влиянии инструментов ИИ, казалось бы, с низким уровнем риска.
В ожидании окончательного голосования в 2024 году (и, возможно, некоторых изменений) влияние этого регулирования на сферу ИИ остается предметом спекуляций. Быстрая эволюция ИИ ставит серьезные проблемы с его применением и долгосрочной эффективностью.
Тем не менее Закон об искусственном интеллекте представляет собой амбициозную и похвальную попытку Европейского Союза найти сложный баланс между технологическими инновациями и защитой фундаментальных прав. Хотя путь все еще неизвестен, Закон об искусственном интеллекте может послужить моделью глобального регулирования искусственного интеллекта, существенно повлияв на будущее технологий и общества.