Este de netăgăduit că inteligența artificială are multiple beneficii: pentru cetățeni și companii – servicii de asistență medicală mai bune, vehicule și sisteme de transport mai sigure și mai prietenoase cu mediul, produse și servicii adaptate, mai ieftine și mai durabile, acces la informații, educație și formare, siguranță la locul de muncă, dezvoltarea unei noi generații de produse și servicii în sectoare precum economia verde și circulară, echipamente, agricultură, asistență medicală, modă și turism, optimizarea vânzărilor, îmbunătățirea întreținerii echipamentelor, creșterea volumului și a calității producției, gestionarea energiei și a deșeurilor, durabilitatea produselor; pentru consolidarea democrației – monitorizare bazată pe date, prevenirea dezinformării și atacurilor cibernetice, accesul la informații de calitate, susținerea diversității, utilizarea datelor analitice; pentru securitate și siguranță – prevenirea criminalității, a infracțiunilor și atacurilor teroriste, prin prelucrarea mai rapidă a seturilor de date masive, evaluarea mai precisă a riscurilor de fugă ale deținuților; pentru domeniul militar – elaborarea strategiilor de apărare împotriva atacurilor de tip hacking și phishing, potențialul armelor autonome de a se implica într-un conflict armat cu un risc redus de vătămare fizică.
Dar la fel de adevărat este că inteligența artificială poate prezenta pericole și riscuri – fie prin utilizarea insuficientă fie prin utilizarea în exces a IA, prin faptul că este greu de identificat persoana responsabilă pentru eventualele daune cauzate de IA, prin distorsionarea intenționată sau nu a datelor personale, ceea ce reprezintă o amenințare la adresa drepturilor fundamentale și a democrației, prin vicierea procesului de angajare care poate conduce la decizii părtinitoare pe considerente precum etnia, sexul sau vârsta, prin faptul că poate facilita urmărirea online sau chiar crearea unor profiluri, materiale video, audio sau imagini false de tip deepfake, prin faptul că în anumite domenii personalul uman va fi înlocuit de inteligența artificială, prin denaturarea concurenței – sugerarea în mod repetitiv a anumitor produse în detrimentul altora, prin influențarea mesajului electoral pornind de la comportamentul online al unei persoane.
Este și motivul pentru care, la finele anului trecut, Parlamentul European a propus modificarea proiectului de regulament privind IA, oferind o definiție uniformă și neutră din punct de vedere tehnologic pentru IA – prin stabilirea categoriilor de riscuri pe care le presupune și stabilind reguli diferite, aplicabile furnizorilor și utilizatorilor, în funcție de aceste categorii diferite de riscuri:
- Risc inacceptabil – sisteme considerate o amenințare pentru oameni și care vor fi interzise (manipularea cognitiv-comportamentală a persoanelor sau a anumitor grupuri vulnerabile, clasificarea persoanelor în funcție de comportament, statut socio-economic sau caracteristici personale, identificarea și clasificarea biometrică a persoanelor fizice, sisteme de identificare biometrică în timp real și la distanță, cum ar fi recunoașterea facială, cu excepția cazului în care este vorba despre infracțiuni grave, și numai cu aprobarea instanței).
- Risc ridicat – sisteme care afectează negativ siguranța sau drepturile fundamentale: (a) sisteme IA utilizate în produsele care intră sub incidența legislației UE privind siguranța produselor (jucării, aviație, mașini, dispozitive medicale și ascensoare) și (b) sisteme IA din opt domenii specifice care vor trebui înregistrate într-o bază de date a UE (managementul și operarea infrastructurii critice, educație și formare profesională, ocuparea forței de muncă, managementul lucrătorilor și accesul la activități independente, accesul și folosirea unor servicii private esențiale, precum și a unor servicii și beneficii publice, aplicarea legii, gestionarea migrației, azilului și controlului la frontieră, asistență în interpretarea și aplicarea legii). În acest sens, IA generală și generativă va fi supusă unor reguli detaliate (indicarea clară că un conținut a fost generat de IA, proiectarea modelului pentru a preveni generarea de conținut ilegal, publicarea de rezumate ale datelor protejate prin drepturi de autor utilizate pentru instruire) și unei evaluări riguroase.
- Risc limitat – sistemele IA care prezintă risc limitat trebuie să respecte cerințe minime de transparență conform cărora utilizatorii pot decide, în cunoștință de cauză, dacă doresc să continue să folosească acele sisteme și care să asigure respectarea obligației de informare (utilizatorii trebuie să știe că interacționează cu IA).
Demersul Parlamentului European este justificat de necesitatea asigurării transparenței, trasabilității, nediscriminării și protejării mediului în tot ceea ce înseamnă IA. Este important de menționat că proiectul de regulament privind AI al Uniunii Europene este încă în faza de discuție și poate suferi modificări înainte de a fi adoptat. Totuși, este un semnal al eforturilor Uniunii Europene de a aborda aspectele legate de utilizarea responsabilă și etică a inteligenței artificiale în societate prin stabilirea unui cadru juridic uniform.