Actul european privind inteligența artificială (AI Act), care a intrat în vigoare la 1 august, este primul regulament cuprinzător din lume dedicat inteligenței artificiale. Acesta are ca scop principal asigurarea faptului că inteligența artificială dezvoltată și utilizată în Uniunea Europeană este fiabilă și respectă drepturile fundamentale ale persoanelor. De asemenea, regulamentul urmărește să creeze o piață internă armonizată pentru AI în UE, promovând adoptarea tehnologiei și facilitând un mediu propice inovării și investițiilor în acest domeniu.
Legea privind inteligența artificială introduce o definiție orientată spre viitorul AI, bazată pe conceptul de siguranță și risc al produselor, conform abordării UE.
În cadrul acestei legi, sistemele de AI cu risc minim, cum ar fi sistemele de recomandare și filtrele antispam, nu sunt supuse obligațiilor stricte ale legislației, deoarece prezintă un risc scăzut pentru drepturile și siguranța cetățenilor. Totuși, companiile pot alege să adopte voluntar coduri de conduită suplimentare pentru a-și îmbunătăți practicile.
Risc specific în materie de transparență: De exemplu, chatboții trebuie să informeze utilizatorii că interacționează cu o mașină. De asemenea, conținutul generat de AI, inclusiv deepfake-urile, trebuie să fie etichetate corespunzător. Utilizatorii trebuie să fie avertizați atunci când sunt folosite sisteme de categorizare biometrică sau recunoaștere a emoțiilor. În plus, furnizorii de AI sunt obligați să proiecteze sistemele astfel încât conținutul sintetic (audio, video, textual și grafic) să fie marcat într-un format automat lizibil și să poată fi detectat ca fiind artificial sau manipulat.
Sistemele de AI considerate a avea un risc ridicat trebuie să respecte cerințe stricte, cum ar fi implementarea de sisteme pentru reducerea riscurilor, utilizarea seturilor de date de înaltă calitate, înregistrarea activităților și furnizarea de documentație detaliată. De asemenea, aceste sisteme trebuie să asigure informații clare pentru utilizatori, supraveghere umană și un nivel ridicat de fiabilitate, acuratețe și securitate cibernetică. Exemple de astfel de sisteme includ cele utilizate în recrutare, evaluarea eligibilității pentru împrumuturi sau controlul roboților autonomi. Sandbox-urile de reglementare vor facilita inovarea responsabilă și dezvoltarea acestor sisteme AI conforme.
Sistemele de inteligență artificială considerate a avea un risc inacceptabil, adică cele care amenință grav drepturile fundamentale ale oamenilor, vor fi interzise. Acestea includ aplicații care manipulează comportamentul uman, precum jucăriile asistate vocal ce încurajează comportamente periculoase la minori, sistemele de „punctare socială” utilizate de guverne sau companii și anumite aplicații predictive de poliție. De asemenea, utilizarea unor sisteme biometrice, cum ar fi recunoașterea emoțiilor la locul de muncă sau identificarea biometrică în timp real în spații publice pentru aplicarea legii, va fi interzisă, cu mici excepții.
Legea privind AI introduce și norme specifice pentru modelele de inteligență artificială cu scop general, care sunt modele de înaltă performanță capabile să îndeplinească o varietate largă de sarcini, cum ar fi generarea de text asemănător celui uman. Aceste modele sunt tot mai des utilizate ca componente în diverse aplicații AI. Legea va asigura transparență pe întregul lanț valoric al acestor modele și va aborda posibilele riscuri sistemice asociate ale celor mai performante modele.
Punerea în aplicare și asigurarea respectării normelor privind AI
Statele membre au termen până la 2 august 2025 pentru a desemna autoritățile naționale competente, pentru a monitoriza și supraveghea punerea în aplicare a normelor privind sistemele AI. La nivelul UE, Oficiul pentru inteligență artificială al Comisiei Europene va fi principala autoritate responsabilă de aplicare a Legii privind inteligența artificială, inclusiv a normelor referitoare la modelele de inteligență artificială cu scop general.
Punerea în aplicare a normelor privind inteligența artificială va fi sprijinită de trei organisme consultative. Consiliul European pentru Inteligență Artificială va asigura aplicarea uniformă a legii în toate statele membre și va facilita cooperarea între Comisia Europeană și statele membre. Un grup științific de experți independenți vor oferi consultanță tehnică și va putea alerta Biroul pentru inteligență artificială cu privire la riscurile legate de modelele de inteligență artificială de uz general. De asemenea, Biroul poate primi îndrumări din partea unui forum consultativ format din diverse părți interesate.
Întreprinderile care nu respectă normele privind inteligența artificială vor fi sancționate cu amenzi severe. Acestea pot ajunge până la 7% din cifra de afaceri anuală globală pentru încălcarea interdicțiilor legate de aplicațiile AI, până la 3% pentru nerespectarea altor obligații, și până la 1,5% pentru furnizarea de informații false.
Etapele următoare
Majoritatea normelor din Legea privind AI vor începe să se aplice la 2 august 2026. Cu toate acestea, interdicțiile privind sistemele AI considerate a prezenta un risc inacceptabil se vor aplica după șase luni, iar normele privind așa-numitele modele AI cu scop general se vor aplica după 12 luni.
Pentru a gestiona perioada de tranziție înainte de aplicarea completă a Legii privind AI, Comisia Europeană a lansat un pact. Acesta invită dezvoltatorii să adopte voluntar obligațiile-cheie ale legii înainte de termenele legale. În paralel, Comisia elaborează orientări pentru implementarea legii și pentru a facilita utilizarea unor instrumente comune de reglementare, cum ar fi standardele și codurile de practică. De asemenea, Comisia a lansat o cerere de exprimare a interesului pentru participarea la elaborarea primului cod de practici pentru AI cu scop general și a inițiat o consultare multilaterală pentru a colecta opiniile părților interesate.