Noi reguli în UE privind riscurile generate de Inteligența Artificială: Vor fi interzise sistemele de evaluare a comportamentului social, cum sunt în China

2 săptămâni in urmă 11

Comisia Europeană vrea să interzică în UE folosirea sistemelor de Inteligență Artificială (IA) care permit guvernelor să efectueze o evaluare a comportamentului social („social scoring”), cum se întâmplă în China. Vor fi interzise sistemele de IA considerate o amenințare clară la adresa siguranței, a mijloacelor de subzistență și a drepturilor persoanelor, se arată în noile reguli propuse miercuri de Executivul european.

Cu risc ridicat sunt văzute și sistemele IT folosite de Poliție în asigurarea respectării legii, care ar putea afecta drepturile fundamentale ale cetățenilor, fiind propuse obligații clare înainte de a fi introduse în piață.

Comisia Europeană a propus miercuri, 21 aprilie, noi norme și măsuri menite să sprijine încrederea în Inteligenței Artificială (IA).

Noile norme vor fi aplicate direct în același mod în toate statele membre, pe baza unei definiții a IA adaptate exigențelor viitorului, și urmează o abordare bazată pe riscuri:

  • Risc inacceptabil: Vor fi interzise sistemele de IA considerate o amenințare clară la adresa siguranței, a mijloacelor de subzistență și a drepturilor persoanelor. Printre acestea se numără sistemele sau aplicațiile de IA care manipulează comportamentul uman pentru a împiedica utilizatorii să își exercite liberul arbitru (de exemplu, jucării care utilizează asistența vocală încurajând un comportament periculos din partea minorilor) și sistemele care permit guvernelor să efectueze o evaluare a comportamentului social („social scoring”).

Risc ridicat: Sunt considerate ca prezentând un grad ridicat de risc sistemele în care tehnologia IA este utilizată în:

  • infrastructurile critice (de exemplu, transporturile), care ar putea pune în pericol viața și sănătatea cetățenilor;
  • formarea educațională sau profesională, care poate determina accesul la educație și traiectoria profesională a unei persoane (de exemplu, sistemul de notare utilizat în cadrul examenelor);
  • componentele de siguranță ale produselor (de exemplu, o aplicație a IA utilizată în chirurgia robotică);
  • ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente (de exemplu, software de selecție a CV-urilor pentru procedurile de recrutare);
  • serviciile publice și private esențiale (de exemplu, evaluarea bonității care îi împiedică pe cetățeni să aibă posibilitatea de a obține un împrumut);
  • activitatea de asigurare a respectării legii care poate aduce atingere drepturilor fundamentale ale cetățenilor (de exemplu, evaluarea fiabilității probelor);
  • gestionarea migrației, a azilului și a controlului la frontiere (de exemplu, verificarea autenticității documentelor de călătorie);
  • administrarea justiției și procesele democratice (de exemplu, aplicarea legii în cazul unui set concret de date factuale).

Înainte de a putea fi introduse pe piață, sistemele de IA care prezintă un grad ridicat de risc vor face obiectul unor obligații stricte, astfel încât să se asigure următoarele:

  • sisteme adecvate de evaluare și reducere a riscurilor;
  • calitatea ridicată a seturilor de date care alimentează sistemul, pentru a se reduce la minimum riscurile și rezultatele discriminatorii;
  • înregistrarea activității pentru a asigura trasabilitatea rezultatelor;
  • documentația detaliată care să furnizeze toate informațiile necesare privind sistemul și scopul acestuia, pentru ca autoritățile să poată evalua conformitatea sistemului în cauză;
  • informații clare și adecvate pentru utilizatori;
  • măsuri care să garanteze o supraveghere umană corespunzătoare, în vederea reducerii la minimum a riscului;
  • un nivel ridicat de robustețe, securitate și precizie.

În special, se consideră că toate sistemele de identificare biometrică la distanță prezintă un grad ridicat de risc și fac obiectul unor cerințe stricte.

În principiu, este interzisă utilizarea lor în timp real în spații accesibile publicului în scopuri de asigurare a respectării legii. Sunt prevăzute câteva excepții limitate, strict definite și reglementate (cum ar fi utilizarea în cazurile în care este strict necesar pentru a căuta un copil dispărut, pentru a preveni o amenințare teroristă specifică și iminentă sau pentru a detecta, a localiza, a identifica sau a urmări în justiție persoane care au comis ori sunt suspectate că au comis infracțiuni grave).

O astfel de utilizare este condiționată de obținerea unei autorizații din partea unui organism judiciar sau a unui alt organism independent și de termene adecvate, de acoperirea geografică și de bazele de date în care se efectuează căutări.

  • Risc limitat, și anume sistemele de IA care fac obiectul unor obligații specifice în materie de transparență: Atunci când utilizează sisteme de IA, cum ar fi roboții de chat, utilizatorii ar trebui să fie conștienți de faptul că interacționează cu un aparat, astfel încât să aibă posibilitatea de a lua o decizie în cunoștință de cauză: fie să folosească în continuare respectivul sistem de IA, fie să renunțe la serviciile acestuia.
  • Risc minim: Propunerea legislativă permite utilizarea gratuită a unor aplicații cum ar fi jocurile video bazate pe IA sau filtrele antispam. Marea majoritate a sistemelor de IA se încadrează în această categorie. Proiectul de regulament nu intervine aici, întrucât aceste sisteme de IA prezintă doar un grad de risc minim sau nu prezintă niciun risc pentru drepturile sau siguranța cetățenilor.

În ceea ce privește guvernanța, Comisia propune ca autoritățile naționale competente de supraveghere a pieței să asigure respectarea noilor norme.

Instituirea Comitetului european pentru inteligența artificială va facilita punerea în aplicare a noilor norme și va stimula elaborarea de standarde în domeniul IA. În plus, se propun coduri de conduită voluntare pentru sistemele de IA care nu prezintă un grad ridicat de risc, precum și spații de testare în materie de reglementare pentru a facilita inovarea responsabilă.

Citeşte Articolul Întreg pe Sursă