После демонстрации силы, продолжавшейся 36 часов, поздним вечером в пятницу, 8 декабря, Европейский Союз наконец достиг соглашения (хотя и временного) по закону об искусственном интеллекте, известному как Закон об искусственном интеллекте, эффективно утверждая новые правила в отношении ИИ.
Это постановление является первым законом в мире, целью которого является установление ограничений на разработку и использование искусственного интеллекта. Фактически, в примечании Европейской палаты говорится: «Этот Регламент направлен на то, чтобы гарантировать, что основные права, демократия, верховенство закона и экологическая устойчивость защищены искусственным интеллектом высокого риска, в то же время стимулируя инновации и делая Европу лидер отрасли»1.
Урсула фон дер Ляйен, президент Европейской комиссии, радуется: «Закон Европейского Союза об искусственном интеллекте — это первая в мире уникальная правовая база для развития искусственного интеллекта, которой мы можем доверять, а также для обеспечения безопасности и защиты основных прав людей и бизнеса».
Однако на этом процесс разработки пакета правил по ИИ не заканчивается, а должно пройти еще несколько недель, в течение которых будут окончательно согласованы детали, прежде чем он будет представлен на окончательное утверждение. В целом, первое в мире регулирование ИИ вступит в силу только примерно через два года.
Ждем новых правил по ИИ
Учитывая переходный период, необходимый для применения требований к системам искусственного интеллекта высокого риска, Европейская комиссия представила 16 ноября AI Pact. Эта инициатива направлена на то, чтобы побудить отрасль добровольно принять эти требования до истечения установленного законом срока, уделяя особое внимание генеративным системам искусственного интеллекта в рамках подготовки к европейским выборам, запланированным на июнь следующего года.
Компании, участвующие в Пакте, подпишут официальные обязательства, подкрепленные текущими или запланированными действиями. Эти усилия будут опубликованы Европейской комиссией для повышения наглядности и укрепления доверия к сектору. В настоящее время проводится прием заявок на выражение заинтересованности, и ожидается, что в первой половине 2024 года состоятся дискуссии по изучению предварительных идей и передовой практики. После официального принятия Закона об искусственном интеллекте ведущим организациям, участвующим в Договоре, будет предложено обнародовать свои первые обязательства.
Что предусматривает регламент?
Новые правила в отношении ИИ предусматривают категоризацию риска, создаваемого ИИ, на четыре уровня: низкий, ограниченный, высокий и неприемлемый. В зависимости от уровня риска на разные системы распространяются разные обязательства. В первом случае, например, ИИ, которые представляют низкий риск, не должны будут подчиняться каким-либо обязательствам, кроме как четко указать, что создаваемый контент исходит от ИИ.
Однако для ИИ с высоким риском влияние, которое он может оказать на фундаментальные права, будет оценено до его размещения на рынке. Наконец, публикация ИИ, которые, как считается, имеют неприемлемый уровень риска, будет заблокирована.
Но что подразумевается под неприемлемым риском? Примером может служить беспорядочная коллекция изображений лиц людей, взятых из Интернета, с камер наблюдения и т. д.
Исключение
Этот аспект обсуждений рисковал завести в тупик длительные переговоры, в которые были внесены многочисленные изменения по сравнению с первоначальным предложением Комиссии. Один из важнейших вопросов касается экстренной процедуры, которая позволит полиции использовать систему распознавания лиц высокого риска, которая не прошла необходимую оценку.
Это исключение, хотя и одобрено, для того, чтобы его можно было применять, должно соответствовать конкретным механизмам защиты основных прав. Что касается использования систем удаленной биометрической идентификации в режиме реального времени в общественных местах, исключения были введены «с одобрения суда и ограничены четко определенным перечнем преступлений».
Использование таких систем в «постдистанционном» режиме будет разрешено исключительно для целевого поиска лиц, осужденных или подозреваемых в совершении тяжких преступлений. Вместо этого использование в режиме реального времени будет ограничено «конкретным временем и местом» для целевого поиска жертв (например, в случаях похищения, торговли людьми или сексуальной эксплуатации), для предотвращения «конкретных и текущих» террористических угроз или для обнаружения или идентификации люди, подозреваемые в конкретных преступлениях, таких как терроризм, торговля людьми, сексуальная эксплуатация, убийство, похищение людей, изнасилование, вооруженное ограбление, участие в преступных организациях и экологические преступления.
Дополнительные положения
Затем в соглашении были введены новые правила ИИ для ситуаций, когда ИИ используется для множества различных целей и когда общая технология затем интегрируется в другие системы высокого риска. В рамках этой программы в рамках Европейской комиссии будет создано Управление искусственного интеллекта, которому будет поручено «мониторинг наиболее сложных моделей, поддержка разработки стандартов и методов тестирования, а также применение общих правил во всех государствах-членах».
Параллельно будет создан консультативный форум для заинтересованных сторон, таких как представители промышленности, малого и среднего бизнеса, стартапов, гражданского общества и научных кругов, для предоставления технической экспертизы Управлению искусственного интеллекта.
Чтобы справиться с широким спектром функции, которые могут выполнять системы искусственного интеллекта (таких как генерация видео, текстов, изображений, разговоров на естественном языке, вычислений или генерации компьютерного кода) и их быстрой эволюции, было установлено, что «высокоэффективные» генеративные модели ИИ (обученные на больших наборах обобщенных и немаркированных данных) перед выходом на рынок придется соблюдать строгие обязательства по обеспечению прозрачности.
Эти обязательства включают разработку технической документации, соблюдение закона ЕС об авторском праве и предоставление подробных сводок данных, используемых для обучения.
Поддержка и санкции
Что касается поддержки инноваций в сфере искусственного интеллекта, соглашение предусматривает создание «песочница" нормативно-правовые акты. Эти тестовые среды обеспечат контролируемое пространство для разработки, тестирования и проверки новых систем искусственного интеллекта, в том числе в реальных условиях. Целью является снижение административной нагрузки на малый бизнес, защита его от конкуренции со стороны крупных игроков рынка посредством мер поддержки и четко определенных льгот.
Наконец, очевидно, что существуют санкции для тех, кто нарушает новые правила в отношении ИИ. Частные лица и организации будут иметь возможность подавать жалобы в органы надзора за рынком в случае несоблюдения законодательства ЕС в области искусственного интеллекта. За нарушения регулирования компании будут подвергаться штрафам, размер которых зависит от процента их годового глобального оборота или фиксированной суммы, в зависимости от того, какая сумма больше.
Штрафы различаются в зависимости от серьезности нарушения: 35 миллионов евро или 7% оборота за нарушение запрещенных приложений, 15 миллионов евро или 3% за нарушение юридических обязательств и 7,5 миллиона евро или 1,5% за предоставление неверной информации. Для малого и среднего бизнеса и стартапов предусмотрены более пропорциональные санкции.