13 березня депутати Європейського парламенту схвалили Закон про ШІ 523 голосами за та 46 проти. ЄС заявляє, що ці правила спрямовані на «захист фундаментальних прав, демократії, верховенства закону та екологічної стійкості від високоризикованого ШІ, одночасно стимулюючи інновації та роблячи Європу лідером у цій галузі». Закон визначає зобов'язання щодо додатків ШІ з урахуванням потенційних ризиків та наслідків.

Законодавство ще не стало законом. Але ймовірно набуде чинності напередодні наступних парламентських виборів на початку червня. До того ж більшість положень набудуть чинності лише через 2 роки після того, як Закон про ШІ стане законом, але заборони на певні додатки набудуть чинності через шість місяців. Зокрема, буде заборонено «Системи біометричної категоризації, що базуються на чутливих характеристиках», а також «нецільове вилучення» зображень осіб із записів камер відеоспостереження та інтернету для створення баз даних розпізнавання осіб». До речі, діяльність Clearview AI підпадає під цю категорію.

Інші програми, які будуть заборонені, включають соціальний скоринг; розпізнавання емоцій у школах та на робочих місцях; та «ШІ, який маніпулює поведінкою людей або використовує їх вразливість». Деякі аспекти профілактичної поліцейської діяльності будуть заборонені, наприклад, коли вона повністю заснована на оцінці чиїхось характеристик (наприклад, на висновку про їх сексуальну орієнтацію або політичні погляди) або їх профільуванні. Хоча Закон про штучний інтелект загалом забороняє правоохоронним органам використовувати системи біометричної ідентифікації, за певних обставин це буде дозволено за наявності попереднього дозволу, наприклад, для допомоги в пошуку зниклої людини або запобігання терористичній атаці.

Що стосується систем штучного інтелекту, які ЄС вважає малоризикованими, наприклад, спам-фільтри, розробникам все одно доведеться інформувати користувачів про те, що вони взаємодіють із контентом, створеним штучним інтелектом.

Дипфейки та будь-які інші зображення, відео та аудіо, створені штучним інтелектом, мають бути чітко позначені. Моделі ШІ також повинні дотримуватися законів про авторське право.

Згідно з правилами, найпотужніші універсальні та генеративні моделі ШІ (навчені з використанням загальної обчислювальної потужності понад 10^25 FLOP) несуть системні ризики. Поріг може бути скоригований з часом, але вважається, що GPT-4 від OpenAI та Gemini від DeepMind потрапляють до цієї категорії.

Постачальникам таких моделей доведеться оцінювати та знижувати ризики, повідомляти про серйозні інциденти, надавати детальну інформацію про енергоспоживання своїх систем, забезпечувати їхню відповідність стандартам кібербезпеки, а також проводити найсучасніші тести та оцінки моделей.

Як і у випадку з іншими правилами ЄС щодо технологій, штрафи за порушення положень Закону про штучний інтелект можуть бути дуже суворими. Компанії, що порушують правила, будуть піддані штрафу в розмірі до 35 мільйонів євро або до семи відсотків їх глобального річного прибутку, залежно від того, що більше.

Закон про штучний інтелект застосовний до будь-якої моделі, що діє в ЄС, тому американські постачальники штучного інтелекту повинні будуть його дотримуватися принаймні в Європі. Сем Альтман, генеральний директор творця OpenAI OpenAI, припустив у травні минулого року, що його компанія може піти з Європи, якщо Закон про штучний інтелект стане законом, але пізніше заявив, що компанія не має планів робити це.

Для забезпечення дотримання закону кожна країна-член створить власний орган з нагляду за штучним інтелектом, а Європейська комісія створить Управління з штучного інтелекту. Це дозволить розробити методи оцінки моделей та моніторингу ризиків у моделях загального призначення. Постачальникам моделей загального призначення, які, як вважається, мають системні ризики, буде запропоновано співпрацювати з офісом для розробки кодексів поведінки.