В Евросоюзе вступили в силу требования к прозрачности ИИ

За рубежом

В Европейском Союзе в субботу, 2 августа, вступили в силу новые требования к прозрачности искусственного интеллекта (ИИ) общего назначения. Имеются в виду такие чат-боты, как ChatGPT и Gemini, которые могут использоваться как для генерации текста или изображений, так и для программирования.

Согласно новым правилам, разработчики ИИ обязаны раскрывать принципы работы своих моделей и данные, использованные для их обучения. Самые продвинутые модели, считающиеся потенциальными источниками рисков для общественности, обязаны документировать принимаемые меры безопасности. Нововведения направлены в том числе на защиту интеллектуальной собственности и прав авторов и владельцев контента.

Физлица могут подавать в суд на ИИ за подобные нарушения уже со 2 августа. Новый европейский орган по надзору за искусственным интеллектом (European AI Office) начнет проверять новые модели с августа 2026 года, а модели, выпущенные до 2 августа 2025 года, — с августа 2027 года. Эксперты подсчитали, что сумма возможных наложенных штрафов может достигнуть 17,1 млн долларов США (около 14,75 млн евро), что составляет 3 процента годового объема рынка ИИ-услуг.

Европа регулирует искусственный интеллект

Первый в мире международный закон об ИИ был одобрен Европарламентом 13 марта, а профильными министрами государств-членов ЕС — 21 мая 2024 года. Отмечалось, что целью нового регламента является „защита фундаментальных прав, демократии, верховенства закона и экологической устойчивости от высокорискованного искусственного интеллекта“.

2 февраля, после переходного периода, первые правила использования ИИ в Евросоюзе вступили в силу. В частности, было запрещено использовать искусственный интеллект для создания социального рейтинга граждан стран ЕС (такая технология уже используется в Китае). Не допускается в ЕС также распознавание эмоций на рабочих местах или в образовательных учреждениях.

Кроме того в Евросоюзе запрещено манипулирование поведением людей с помощью ИИ и использование уязвимости отдельных граждан или социальных групп. Сюда относятся, например, „роботизированные звонки“, которые могут использоваться для мошенничества в отношении пожилых людей.

Распознавание искусственным интеллектом лиц людей в общественных местах с помощью камер видеонаблюдения в ЕС также в принципе запрещено, однако из этого правила сделано исключение для правоохранительных органов при расследовании преступлений, связанных с торговлей людьми и терроризмом.