L-am întrebat tocmai pe deja cunoscutul ChatGPT care ar fi riscurile pe care angajatorii ar trebui să le ia în considerare atunci când angajații lor folosesc inteligența artificială la locul de muncă. Din răspunsul oferit, am extras următoarele chestiuni, restul fiind relevante mai degrabă din perspectiva interacțiunii angajaților între ei și temerilor legate de pierderea unor locuri de muncă.
I.A.-ul subliniază aceleași lucruri pe care le spun și diverși specialiști din sectorul IT de ceva vreme: atenție la confidențialitatea datelor, la erori, la asumarea responsabilității, la riscurile de discriminare și la lipsa de transparență.
-
„Confidențialitatea datelor: IA poate avea acces la date sensibile despre afacere și despre angajați. Riscul constă în posibilitatea ca aceste date să fie compromise sau să fie folosite în mod necorespunzător.
-
Discriminarea: Sistemele AI pot dezvolta bias-uri și pot perpetua discriminarea bazată pe gen, rasă sau alte caracteristici. Angajatorii trebuie să fie atenți la aceste aspecte și să asigure că IA este folosită în mod corect și etic.
-
Lipsa de transparență: Algoritmele AI pot fi extrem de complexe, ceea ce face dificilă înțelegerea modului în care iau decizii. Aceasta poate genera neliniște printre angajați și poate duce la lipsa de încredere în tehnologie.
-
Erori și responsabilitate: Sistemele AI nu sunt perfecte și pot face erori. În astfel de cazuri, poate apărea o problemă legată de responsabilitate și cine este de vină pentru eventualele consecințe negative.
-
Dezvoltarea și mentenanța: Tehnologia AI necesită dezvoltare continuă și mentenanță, ceea ce poate aduce riscuri legate de dependența de furnizorii de servicii sau de competența tehnică internă.
-
Rezistența angajaților: Unii angajați pot să fie reticenți sau să se opună folosirii IA, ceea ce poate afecta moralul și productivitatea.
Pentru a minimiza aceste riscuri, angajatorii ar trebui să ia în considerare următoarele măsuri:
- Asigurarea transparenței în utilizarea IA și explicarea modului în care sunt luate deciziile.
- Formarea angajaților pentru a lucra eficient cu IA și pentru a înțelege avantajele și limitările acesteia.
- Implementarea politicilor clare de securitate a datelor și protejarea confidențialității.
- Supravegherea atentă a implementării IA și a impactului acesteia asupra locurilor de muncă și a echității.
- Menținerea comunicării deschise cu angajații și luarea în considerare a feedback-ului lor”.
În luna august, deschideam timid discuția despre atenția pe care angajatorii ar trebui să înceapă să o acorde utilizării de către angajați a inteligenței artificiale generative în activitatea de zi cu zi (ChatGPT este un exemplu de inteligență artificială generativă).
„A.I.-ul din umbră”
Un termen a fost deja conturat în domeniu pentru utilizarea neautorizată și necontrolată a uneltelor de I.A. de către angajați în cadrul organizațiilor unde lucrează, fără ca managerii lor să știe de asta: se cheamă „shadow A.I.”, pe care am putea să-l traducem ca A.I.-ul din umbră.
Angajații pot utiliza I.A.-ul procesând informații sensibile sau vulnerabilizând datele companiei în timp ce tehnologia rulează în fundal, fără ca ei să-și dea seama de asta. De exemplu, subliniază cei de la Fast Company, atunci când un angajat utilizează un chatbot sau o altă unealtă de I.A. pentru a-și îmbunătăți productivitatea sau pentru a clarifica informații, aceștia pot introduce date sensibile sau confidențiale ale companiei în proces. Problema apare atunci când uneltele respective și politica lor de manipulare a datelor nu au fost evaluate și aprobate de organizație, ceea ce duce la incertitudine cu privire la unde pot ajunge aceste informații în urma utilizării unei unelte I.A. „nesigure”.
Problema devine ceva mai mare atunci când angajații lucrează de la distanță și de pe dispozitivele proprietate personală, însă și dacă ar utiliza dispozitive date de angajator și pe care au fost puse restricții la accesarea anumitor site-uri, de exemplu, ce-l împiedică pe angajat să folosească ChatGPT de pe alt dispozitiv și să folosească rezultatul în activitatea sa?
Deoarece managerii, de obicei, nu sunt conștienți de faptul că astfel de unelte sunt utilizate de angajații lor, subliniază Fast Company, ei nu pot evalua riscurile și nu pot lua măsuri pentru a le reduce. „Shadow A.I." se desfășoară în umbra organizației și este invizibilă liderilor de afaceri, ceea ce face dificilă monitorizarea și evaluarea riscurilor.
Prin urmare, nu doar utilizarea în sine a inteligenței artificiale ar trebui „normată” la nivel de companie, ci și ideea de utilizare din umbră.
Cu reguli, tot înainte!
Având în vedere specificul activităților care implică utilizarea tehnologiei informației și comunicațiilor, chiar dacă nu ne raportăm exclusiv la specificul activității de telemuncă, regulile sunt în mare măsură aceleași, iar instrumentele cu ajutorul cărora se pot stabili concret regulile rămân izvoarele interne specifice de dreptul muncii, regulamentul intern și contractul colectiv de muncă, cu concretizarea clauzelor în cadrul contractului individual.
Clauzele specifice sunt negociate și stabilite în cadrul contractelor individuale de muncă, însă acestea au la bază regulamentul intern și, după caz, contractul colectiv de muncă.
În același timp, dacă activitatea salariaților implică prelucrarea datelor cu caracter personal, atunci părțile vor avea în vedere și legislația specifică, fiind astfel asigurată o protecție eficientă.
Nu, nu avem norme juridice care să reglementeze utilizarea inteligenței artificiale în muncă, dar...
În lipsa unor reguli juridice clare în privința utilizării inteligenței artificiale în cadrul relațiilor de muncă, ținând cont atât de specificul activităților prestate de către fiecare salariat sau categorie de salariați, cât și de datele prelucrate și/sau utilizate, angajatorul este primul responsabil pentru asigurarea securității în acest sens.
Totodată, salariatul prestează o activitate în beneficiul și sub autoritatea angajatorului său, deci cadrul general privind organizarea și funcționarea unității este stabilit de angajator, cu respectarea dispozițiilor legale și a drepturilor lucrătorilor la negociere și/sau consultare.
Practic, pornind de la reglementarea juridică actuală și pe baza identificării riscurilor privind securitatea datelor/activității, angajatorul este cel care stabilește organizarea și funcționarea unității, dar și cel care pune la dispoziție resursele necesare pentru desfășurarea activității în condiții optime.
Ajungem astfel în zona în care asigurarea resurselor necesare pentru desfășurarea activității poate fi în sarcina lucrătorului, în condițiile Legii 81/2018, însă în cazul în care telesalariatul utilizează mijloacele proprii avem în vedere mai multe aspecte, în special atunci când discutăm despre restricții și/sau limitări.
Fiind o excepție de la regula generală potrivit căreia angajatorul este cel care asigură mijloacele necesare desfășurării activității, în cazul telemuncii, Legea 81/2018 le permite părților să stabilească, prin negociere, ca mijloacele necesare să fie cele ale telesalariatului, iar într-o astfel de situație avem în vedere utilizarea acestor dispozitive în afara programului de lucru.
Practic, dacă putem aprecia că angajatorul poate impune o serie de restricții privind utilizarea mijloacelor respective în timpul programului, în afara acestuia ele sunt proprietatea lucrătorului, deci orice interdicție ar interfera cu dreptul acestora de a dispune liber de bunurile personale.
Cu alte cuvinte, dacă nu pot fi identificate soluțiile care să asigure protecția datelor în afara programului de lucru și o astfel de protecție este esențială, singura variantă este cea în care mijloacele aferente tehnologiei informației și comunicațiilor și/sau echipamentele de lucru sunt puse la dispoziție de către angajator, caz în care pot exista și restricții privind utilizarea acestora.
Aplicațiile, fie că vorbim despre cele care sunt instalate pe stațiile de lucru utilizate de către lucrători, fie că ne raportăm la cele care pot fi utilizate accesând diferite pagini de web, intră tot în categoria celor pe care, la nivel intern, fiecare angajator le poate reglementa, luând în considerare aspectele prezentate anterior.
Prima și, probabil, cea mai importantă întrebare la care ambii participanți la raporturile de muncă trebuie să răspundă este dacă sunt pregătiți să utilizeze aceste instrumente, atât din punct de vedere al securității informațiilor, cât și în privința înțelegerii limitelor existente în acest moment.
Viitorul aparține tehnologiei în majoritatea domeniilor, însă aceste instrumente pot fi utilizate în măsura în care atât angajatorul, cât și lucrătorii dețin toate informațiile și tehnologia necesare desfășurării activității în condiții optime.
Stabilirea unor reguli clare și precise în privința utilizării inteligenței artificiale nu trebuie privită ca fiind o barieră sau o limitare, ci ca pe o etapă necesară pentru atingerea obiectivelor finale cu cât mai puține riscuri.
Pe măsură ce ambii dețin mijloacele și competențele necesare, regulile și restricțiile vor fi adaptate în mod corespunzător, însă ar fi aproape imposibil de atins obiectivul „nicio regulă” sau „utilizare fără restricții”.