Un exemplu notabil de IAG este arhitectura GPT (Generative Pre-trained Transformer) dezvoltată de OpenAI, la care și eu, ca asistent virtual, sunt bazat” e răspunul pe care mi-l oferă chiar ChatGPT la cerința de a explica pe scurt ce înseamnă IAG. E superflu deja să mai enumerăm ce poate să facă IAG pentru lucrători în diverse domenii de activitate - se vorbește suficient, de luni de zile, despre utilitatea sa, dar și despre limitările sale actuale. Generarea de coduri de software, redactarea diverselor documente, sintetizarea unor informații, generarea de conținut pentru clienți ș.a.m.d..
O recomandare aproape răspicată venită din partea specialiștilor în resurse umane, în ultimele luni, a fost: „învățați să lucrați cu IA sau veți deveni irelevanți”.
Potrivit unui studiu realizat recent de compania americană Gartner, Inc., disponibilitatea largă a IAG (ChatGPT sau Google Bard) a devenit o preocupare majoră pentru directorii responsabili de gestionarea riscurilor în întreprinderi, IAG fiind al doilea cel mai des menționat risc în sondajul realizat cu participarea a 249 de directori executivi. În ceea ce privește gestionarea riscurilor în întreprinderi, conform experților Gartner, trei aspecte principale trebuie neapărat abordate - proprietatea intelectuală, confidențialitatea datelor și securitatea cibernetică.
Ca orice „jucărie” care promite să ne facă viața mai ușoară, în cazul de față, munca de birou, e nevoie însă de a trasa niște limite ale jocului pentru a nu genera, dincolo de texte, imagini și alte tipuri de conținut, și niște riscuri serioase pentru companie.
Încurajează oamenii să folosească AI-ul, dar spune-le și care sunt limitele
Nu știm cât de repede va evolua legislația în România pentru a norma în vreun fel sau altul folosirea IAG la locul de muncă și, probabil, nici n-ar trebui să contăm pe asta. Dar, ca un reper interesant în discuție, putem să amintim că, în unele state de peste ocean, se legiferează deja folosirea IA în procesele de recrutare - cum anume? Pentru că s-a dovedit deja că instrumentele IA sunt capabile de discriminări grosolane, s-a impus recrutorilor ca, periodic, să realizeze operațiuni de audit din care să reiasă cam care este procentul de discriminare într-un sens sau altul al mecanismului de recrutare bazat pe inteligență artificială - și, în consecință, ajustarea sa.
Practic, fiecare companie în care se poate folosi IAG trebuie să facă o analiză a utilizării sale curente sau potențiale - ce poate să facă inteligența artificială pentru compania respectivă, în ce departamente și ce angajați ar putea-o folosi, fie și din propria lor inițiativă. De aici, analiza de risc.
Pe lângă aspectele menționate de experții Gartner, care ar putea fi cele mai severe riscuri implicate de folosirea necorespunzătoare a IAG la locul de muncă (proprietate intelectuală, confidențialitatea datelor și securitate cibernetică), ar mai fi însă și alte riscuri ce se pot materializa destul de ușor și frecvent.
De pildă, atrag atenția mai mulți avocați americani, riscul de a livra informații greșite, inexacte, incomplete sau părtinitoare. Dacă ne bazăm pe faptul că IAG deține adevărul absolut în ceea ce privește X sau Y subiect, că este o instanță imparțială ori că traduce impecabil dintr-o limbă în alta, adevărul e că se folosește de informațiile cu care este „hrănit”, iar șansele să greșească în a ne răspunde corect la o întrebare există și nu sunt neglijabile. De pildă, ChatGPT a tradus prost cuvântul „cybersecurity” într-un paragraf oferit pentru traducere și este incapabil să-mi ofere o informație la zi din Codul muncii, pentru că informațiile sale nu sunt actualizate până la 16 august 2023 (ci până în octombrie 2021, pe versiunea gratuită) - acest disclaimer e oferit oricum de ChatGPT.
E posibil, totodată, mai atrag atenția aceiași avocați, ca entitatea ce folosește conținutul generat de IAG să nu poată să revendice proprietatea intelectuală asupra acelui conținut dacă intervenția umană pe acesta nu este semnificativă. De exemplu, dacă scriu un articol pe care îl semnez cu numele meu, dar care a fost generat integral de ChatGPT, ideal este să folosesc acest disclaimer încă de la început - din contră, a pretinde că sunt autorul acestui material ar fi extrem de greșit.
Totodată, un risc de încălcare a drepturilor de proprietate intelectuală ale altcuiva este reprezentat și de folosirea conținutului generat în exact forma generată.
Riscul de a discrimina în rândul clienților, angajaților ori candidaților la posturile vacante este, de asemenea, unul ce poate apărea frecvent.
De cealaltă parte, avem riscurile din categoria grea: confidențialitatea datelor dintr-o companie - aici, arată specialiștii, putem vorbi de un risc major. În comenzile date IAG, angajații pot fi tentați să ofere informații pe care, în mod normal, nu le pot scoate din firmă în niciun mod, inclusiv date personale. Cu alte cuvinte, IAG ajunge să fie hrănit cu informații pe care n-ar trebui să le primească, inclusiv cu secrete comerciale care ajung, astfel, la dezvoltatorul IAG. Informațiile sensibile sau confidențiale ar putea ajunge, deci, în „rezultatele” furnizate de IAG pentru alți utilizatori.
Ca atare, odată identificate utilizările IAG în companie și eventualele riscuri pe care le prezintă, creionarea unei politici interne este următorul pas - astfel, angajații știu clar ce au și ce nu au voie să facă. De pildă, sugerează avocații, angajaților ar trebui să li se interzică folosirea conținutului generat fără revizuire anterioară publicării sau folosirii în orice alt mod, precum și folosirea în comenzile pentru IAG de date personale, confidențiale sau de secrete comerciale.
Asta înseamnă că fiecare angajator și fiecare șef de departament știe exact ce IAG este folosit de către fiecare angajat - o listă de aplicații permise și nepermise, mai exact, ar fi ideală.
Mai departe, transparența față de terți - de pildă, candidații din procesele de recrutare ar trebui să știe că aplicațiile lor sunt analizate exclusiv de o instanță de inteligență artificială, iar clienții ar trebui să știe că cutare sau cutare produs a fost creat folosind inteligența artificială.