Regulamentul (UE) 2024/1689, recent publicat în Jurnalul Oficial al UE, face o clasificare a sistemelor de AI în funcție de riscul pe care îl prezintă, de la sisteme cu risc scăzut la sisteme cu risc ridicat. Un sistem de AI este considerat a avea risc ridicat dacă îndeplinește anumite criterii specifice legate de impactul său potențial asupra drepturilor fundamentale, sănătății, siguranței sau intereselor publice, iar introducerea sa pe piață și utilizarea sa trebuie să se facă doar dacă sistemul îndeplinește anumite cerințe stricte.
Notă: Calendarul măsurilor din regulament, aici.
Ocuparea forței de muncă e un domeniu specific marcat în regulament pentru sistemele AI cu risc ridicat - mai exact, sistemele de IA utilizate pentru recrutarea, evaluarea și gestionarea angajaților, care pot afecta drepturile la muncă și poate naște sau perpetua discriminări:
„Ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente:
(a) sisteme de AI destinate a fi utilizate pentru recrutarea sau selectarea persoanelor fizice, în special pentru a plasa anunțuri de angajare direcționate în mod specific, pentru a analiza și a filtra candidaturile pentru locuri de muncă și pentru a evalua candidații;
(b) sisteme de AI destinate a fi utilizate pentru a lua decizii care afectează termenii relațiilor legate de muncă, promovarea și încetarea relațiilor contractuale legate de muncă, pentru a aloca sarcini pe baza comportamentului individual sau a trăsăturilor ori caracteristicilor personale sau pentru a monitoriza și evalua performanța și comportamentul persoanelor aflate în astfel de relații”.
Regulamentul nu interzice cu totul folosirea sistemelor de AI în zona de recrutare și de evaluare ori gestionare a angajaților, dar prevede, pe de o parte, informarea prealabilă a angajaților:
„Înainte de a pune în funcțiune sau de a utiliza un sistem de AI cu grad ridicat de risc la locul de muncă, implementatorii care sunt angajatori informează reprezentanții lucrătorilor și lucrătorii afectați că vor fi implicați în utilizarea sistemului de AI cu grad ridicat de risc. Informațiile respective sunt furnizate, după caz, în conformitate cu normele și procedurile prevăzute în dreptul și practicile de la nivelul Uniunii și de la nivel național privind informarea lucrătorilor și a reprezentanților acestora”, prevede, mai exact, regulamentul. Informațiile trebuie să fie clare și accesibile, explicând modul în care sistemele de AI iau decizii și impactul acestora asupra persoanelor vizate.
Angajatorii vor fi, în cele mai multe situații, implementatori ai unor sisteme AI la locul de muncă, postură din care le revine o serie de responsabilități, printre care monitorizarea activității sistemului de AI și garantarea supravegherii umane. Angajatorii trebuie să efectueze evaluări de impact asupra drepturilor fundamentale înainte de implementarea sistemelor de AI, evaluări care trebuie să identifice riscurile potențiale și să stabilească măsuri pentru a le atenua.
Unul dintre cele mai mari riscuri îl reprezintă, de fapt, discriminarea pe care sistemele AI pot ajunge să o facă. Deși sistemele de AI nu trebuie să perpetueze sau să amplifice prejudecățile existente, auzim frecvent exemple despre cum se întâmplă sau se poate întâmpla asta. Angajatorii trebuie să se asigure că sistemele de AI sunt proiectate și implementate în mod nediscriminatoriu, respectând egalitatea de șanse și tratament.
Un sistem AI odată pus în funcțiune, nu ar trebui lăsat complet „de capul lui”: angajatorii trebuie să monitorizeze și să auditeze în mod regulat performanța acestuia și impactul sistemelui pentru a detecta și corecta eventualele erori sau abuzuri - asta ar presupune, totodată, verificarea acurateței și echilibrului sau echității deciziilor luate de sistemele de AI.
Sunt interzise însă, potrivit regulamentului, anumite practici, printre care și introducerea pe piață, punerea în funcțiune în acest scop specific sau utilizarea unor sisteme de AI pentru a deduce emoțiile unei persoane fizice în sfera locului de muncă, cu excepția cazurilor în care utilizarea sistemului de AI este destinată a fi instituită sau introdusă pe piață din motive medicale sau de siguranță; asta nu înseamnă că nu mai pot funcționa deloc sistemele de recunoaștere facială, de exemplu, ci că nu pot fi utilizate în acest scop specific - deducerea emoțiilor unei persoane.
De menționat că încălcarea obligațiilor privind sistemele de AI cu risc ridicat poate atrage amenzi de până la 15 milioane de euro sau pentru companii sau 3% din cifra de afaceri anuală brută.
Acest material face parte dintr-o serie dedicată Regulamentului (UE) 2024/1689 (EU AI Act), în care avocatnet.ro își propune tratarea diverselor implicații ale noii reglementări europene atât pentru companii, cât și pentru persoanele fizice. Toate materialele din serie se regăsesc aici. |