Bogdan Manolea - Legislativ, cred că e o zona unde încă "se caută" răspunsurile potrivite
Trebuie să recunosc că, încă nu știu unde ar trebui să vină linia asta de demarcație - cred că e o zona unde încă "se caută" răspunsurile potrivite, pentru că sunt mai multe provocări:
- Pe o parte sunt anumite probleme care apar în legătură cu algoritmii. De fapt "în legătură cu algoritmii" e greșit. E o problemă, mai degrabă, cu unii oameni care iau decizia de ce și cum să facă, de cum le implementează sau cum le pun în aplicare. Unele sunt niște simple erori umane (e un domeniu încă la început, deci și mulți încearcă făra să știe exact ce), altele sunt făcute cu intenție.
- Pe de altă parte, nimeni nu vrea neapărat să blocheze prin reglementare o anumită tehnologie sau creație, care poate fi utilă pentru noi toți. Dar și oamenii care decid reglementare o pot face nu neapărat cu ideea că blochează, ci din neînțelegerea subiectului, a efectelor reglementării sau pur și simplu a unui amestec de incompetență și vanitate.
- În fine a treia parte - cuprinde toată zona de reglementare a tehnologiei în era Internetului - este legat de ubicuitate. Degeaba are Namibia cea mai bună sau proastă reglementare pentru AI, că nu prea contează. Contează practic două sau trei blocuri care sunt lideri în zona asta (de reglementare) practic țările din G7 și G8. Și aici vine rolul nostru să înțelegem care este locul Romaniei în UE si apoi al UE global.
Cezara Panait - Pericolul AI este determinat și dependent de programarea algoritmilor și de seturile de date pe baza cărora acționează
Alin Popescu: Crezi că trăim într-o lume mai bună, datorită AI-ului? Că drepturile omului sunt, astăzi, mai bine apărate datorită noilor tehnologii?
Cezara Panait: Cu siguranță, tehnologia, în general, a contribuit la creșterea calității vieții noastre, fie că ne raportăm la modul în care interacționăm cu alte persoane sau felul în care ne desfășurăm activitatea profesională. Practic, inteligența artificială este doar una dintre tehnologiile emergente actuale, și a devenit prezentă în viața noastră de zi cu zi, atât în selectarea și afișarea conținutul pe care îl vedem în fluxul de știri pe rețelele sociale, în recunoașterea facială folosită de telefoane, în modul în care ne sunt recomandate produsele de care am fi interesați, în sugestiile pe care le primim atunci când scriem un e-mail sau în creionarea profilului nostru politic, în funcție de paginile pe care le apreciem și persoanele cu care ne împrietenim în mediul virtual. Normalitatea actuală presupune faptul că, pentru a ne putea fi optimizate procesele pe care le desfășurăm, algoritmii care folosesc inteligență artificială vor analiza, pe baza datelor pe care le dețin despre noi și a unor seturi de reguli, cele mai bune acțiuni de urmat. AI-ul prezintă avantaje considerabile: tinde spre obiectivitate în soluțiile pe care le prezintă, este mult mai eficient și rapid în luarea deciziilor.
Într-o formulă ideală a unui AI infailibil, nu am mai întâlni discriminarea sau cenzura exprimării legitime în mediul online, spre exemplu. Însă acest lucru este încă departe de realitate, iar filtrele automate care folosesc inteligența artificială în algoritmii care iau decizii cu privire la legalitatea conținutului online vor face erori, la fel cum vom întâlni în continuare algoritmi care discriminează pe baza rasei, a sexului, a etniei, a vârstei sau chiar a statutului financiar. Algoritmii iau decizii în funcție de seturile de date pe care le utilizează, iar de cele mai multe ori problemele pornesc de la faptul că datele conțin stereotipuri sociale sau tendințe discriminatorii, atât din cauza faptului că de-a lungul timpului au fost perpetuate inechități sociale care au condus la discriminarea unor categorii sociale, dar și uneori din modul în care algoritmii sunt programați, preponderent de persoane de sex masculin, albe, în jurul unor vârste apropiate.
Cu privire la felul în care AI interacționează cu drepturile omului, putem spune cu certitudine că există mecanisme mai bune de protecție a drepturilor omului, întrucât există posibilitatea de a identifica potențialele încălcări, decizii arbitrare sau discriminatorii în cazul algoritmilor și a seturilor de date utilizate, pe când în cazul deciziilor personale, factorul subiectiv nu poate fi evaluat. De asemenea, progresul societății obținut prin intermediul inteligenței artificiale este de necontestat.
A.P.: Unde se înclină balanța mai mult?
C.P.: Voi da câteva exemple practice pentru a expune subiectul înclinării balanței privind respectarea drepturilor omului în deciziile date de algoritmii AI. Luând cazul unei decizii a băncilor de a acorda un credit anumitor persoane, dacă aceasta este refuzată printr-o decizie automată, folosind AI, vom putea evalua criteriile care au stat la baza soluției și se va putea observa dacă rasa, etnia, sexul etc. au jucat un rol discriminator, pe când, dacă un funcționar al băncii ar lua independent acea decizie, evaluarea subiectivității sale este imposibilă.
În același fel putem analiza decizia unui algoritm de a clasifica mai mulți candidați care au aplicat pentru un anumit post în procesele de angajare, unde pot fi descoperite anumite favorizări sau discriminări în funcție de sex sau rasă, însă în cazul în care managerul de resurse umane ar face selecția pe baza propriilor convingeri care pot include stereotipuri, acestea nu vor putea fi identificate sau chestionate.
Așadar, mi se pare foarte interesantă această perspectivă duală a aplicațiilor AI, în care putem observa că aceeași tehnologie poate conduce, în funcție de modul de utilizare, fie la încălcări ale drepturilor, fie la protejarea acestora și prevenirea altor abuzuri.
A.P.: Ne poți da un exemplu de implementare a unui AI care ajută la apărarea drepturilor omului?
C.P: Precizia, acuratețea, imparțialitatea și complexitatea evaluărilor cu care sistemele AI reușesc să ia decizii într-un timp foarte scurt conduc la numeroase beneficii, printre care inovație în cercetare, dezvoltarea tehnologiilor, optimizarea proceselor de muncă și, bineînțeles, protecția drepturilor omului.
Practic, așa cum inteligența artificială poate conduce la încălcări ale drepturilor omului, poate conduce în același timp și la a combate sau preîntâmpina aceste încălcări. Putem identifica un deepfake care are la bază inteligență artificială cu un alt algoritm care folosește inteligență artificială, pentru a descoperi dezinformarea, protejând astfel libertatea de exprimare. Putem descoperi și împiedica discriminarea prin AI, din exemplele menționate anterior în cazurile de acordare a creditelor bancare sau a angajărilor, prin faptul că există un scrutin asupra modului în care algoritmii acționează și se pot observa posibile prejudecăți din seturile de date. La fel și în sistemul medical, deși pot exista și erori ale soluțiilor propuse de algoritmi, în cele mai multe cazuri, rezultatele precise și rapide pot salva vieți.
Astfel, prin aplicațiile AI putem proteja majoritatea drepturilor omului – de la dreptul la viață, la libertatea de exprimare și accesul la informații, până la respectarea vieții private a datelor personale și combaterea discriminării, aceasta nefiind o enumerare exhaustivă.
A.P.: Dar un exemplu de AI care e extrem de nociv pentru modul în care trebuie să ne raportăm la drepturile omului? Te întreb toate aceste lucruri pentru că aș fi curios să aflu unde vezi tu pericolul cel mai mare, atunci când vorbim despre influența algoritmilor în viața și libertățile noastre.
C.P.: În ceea ce privește drepturile și libertățile individuale, aplicațiile care folosesc inteligență artificială pot fi încadrate ca având risc ridicat sau scăzut (high-risk / low-risk AI), așa cum regăsim și în documente precum Cartea Albă a UE privind inteligența artificială. Deși încă urmează a fi definite mai în detaliu toate încadrările, este clar că anumite acțiuni sunt mai predispuse să încalce drepturile omului, și aici putem vorbi despre aplicațiile AI în sectorul medical, în transportul automat (mașinile fără șofer), în armele automate sau în sistemul energetic etc. Așadar, cu siguranță anumite sisteme AI pot prezenta provocări serioase pentru dreptul la viață și integritatea fizică, dar și pentru alte drepturi.
Totuși, aș vrea să explorez la acest punct anumite utilizări ale algoritmilor AI în sistemul judiciar, care pot perpetua sau replica tendințe și considerente discriminatorii și pot duce la influențarea deciziilor judecătorilor privind sentințele pe care le pronunță. Astfel, în SUA, algoritmii AI sunt folosiți în realizarea unor simulări în care, pe baza rasei, sexului, etniei și vârstei persoanei judecate, pot face predicții cu privire la periculozitatea acesteia și probabilitatea de a recidiva și se atribuie posibile intervale de pedeapsă, de care judecătorul poate ține cont. Cu toate acestea, având în vedere că seturile de date conțin, în general, discriminări și stereotipuri istorice, algoritmii sunt încă predispuși să stabilească pentru persoane de culoare sau pentru minorități etnice, în general de vârste mai scăzute, pedepse mai mari, care pot conduce și la decizia finală a judecătorului de a lua într-adevăr acea hotărâre.
Un exemplu prin care putem observa discriminarea istorică a datelor este faptul că, tot în SUA, cartierele unde poliția trebuie să patruleze sunt determinate prin sisteme care folosesc inteligență artificială. Însă, prin faptul că de-a lungul timpului au existat prejudecăți asupra persoanelor de culoare și a reprezentanților minorităților etnice, aceste considerente s-au perpetuat astăzi în bazele de date ale poliției și au condus la direcționarea deliberată a forțelor de ordine în aceste cartiere, care a avut drept consecință descoperirea mai multor infracțiuni în aceste cartiere. Încă o dată, este amplificată și perpetuată convingerea faptului că aceste persoane sunt mai predispuse să comită infracțiuni, însă nu este poate doar o judecată de valoare greșită?
Sigur, faptul că în Europa nu întâlnim în sistemul judiciar și în acțiunile forțelor de ordine aceste aplicațiile ale algoritmilor care reproduc și amplifică prejudecăți sociale, nu este o garanție a faptului că nu vom ajunge să avem astfel de sisteme întrebuințate de autoritățile statelor europene în următorii 10-20 de ani. În Estonia deja observăm că este posibilă soluționarea cazurilor mai simple din dreptul civil cu ajutorul unui judecător - robot care folosește AI. Așadar, în spețele din dreptul penal, deciziile algoritmilor necesita control uman și nu pot fi încă integrate fără erori în procesul de stabilire a condamnărilor.
Aș dori să închei cu gândul că tehnologia este neutră din punctul de vedere al judecăților de valoare, iar modul în care poate proteja sau încălca drepturile omului este determinat și dependent de programarea algoritmilor și de seturile de date pe baza cărora acționează. Astfel, procesul prin care ne asigurăm că datele sunt reprezentative, calitative, nu conțin prejudecăți și tendințe discriminatorii și posibilitatea de a realiza corecții ulterioare, va fi esențial pentru asigurarea evoluției tehnologiei în beneficiul societății.Alexia Manea, Vicepreședinte ELSA Craiova - Roboții nu vor putea niciodată empatiza cu adevărat cu motivele care au dus la producerea faptei
Alin Popescu: Unii spun că absolvenții de drept intră la facultate în anumite timpuri, termină facultatea în alte timpuri și ajung să profeseze în timpuri cu totul diferite decât cele în care au început ori terminat facultatea. Tehnologia are mult de-a face cu schimbările rapide ale timpurilor. Dacă ar fi să te gândești la sistemul de justiție de peste 10 ani (2030, sa zicem), cum îl vezi tu / cum îl vedeți voi, studenții de azi? Crezi că vom avea judecători semi-robotizați care decid asupra marii majorități a acțiunilor în instanță? Ca avocații vor fi mai degrabă softuri decât oameni? Sau crezi că, orice am zice noi, multe nu se vor schimba, iar oamenii și instituțiile vor fi, în mare parte, la fel?
Alexia Manea: ”Noi, ca studenți de azi, considerăm că da, tehnologia are de-a face cu schimbările rapide ale timpului. Într-adevăr, avansarea tehnologiei ne face și pe noi să gândim altfel, să ne dezvoltăm în ritm alert, să ni se schimbe mentalitatea, să privim lucrurile din perspective noi. Sistemul de justiție deja a început să se schimbe într-o oarecare măsură, din ce în ce mai mulți avocați, judecători, profesioniști nu mai folosesc textele de lege în format fizic, ci electronic, puțini fiind cei care utilizează stufoasele materiale. Este adevărat că este mult mai ușor, nefiind nevoiți să transporte sute de pagini, însă unii cred în continuare că nu are aceeași eficiență, acest lucru ținând de obișnuința fiecăruia.
Cum spuneam, indubitabil tehonologia va avea în continuare un impact asupra sistemului de justiție, însa credem noi că nu atât de mare. Credem, sau mai bine spus, sperăm să nu se ajungă în situatia în care să existe judecători semi-robotizați, nu pentru că noi credem că nu s-ar ușura întreg procesul, ci pentru că nu ar mai exista deloc sau aproape deloc empatie, înțelegere față de subiecții de drept, sistemul robotizat fiind incapabil a se pune în locul celor pe care îi judecă, neputând urma în totalitate spiritul uman, adică să ia în considerare toate cauzele care au dus la acea situație. Într-adevăr, ar avea la dispoziție toate legile, toate variantele pedepselor și nu ar putea da din acest punct de vedere - în cel mai bun caz- lucru pe care oamenii l-ar putea face, însă roboții nu vor putea niciodată empatiza cu adevărat cauzele care au dus la producerea faptei.
Considerăm că, în special activitatea profesiilor care se întâlnesc în sălile de judecată este, dacă nu imposibilă, foarte grea de înlocuit prin activitatea robotizată, în ciuda tuturor dezvoltărilor tehnologice care nu încetează să ne uimească și asta din cauza motivelor enumerate mai sus. Inteligența Artificială se dezvoltă alert și poate părea uneori că ne-o și ia înainte, nu puține fiind dățile când ne simțim copleșiți de tot ceea ce ne înconjoară din punct de vedere tehnologic.
Desigur, nu putem întoarce spatele efectelor benefice ale tehologiei și considerăm că acestea cântăresc mai mult decât scăpările sau minusurile acesteia. Suntem de părere că se poate ajunge la o linie fragilă între avantajele și dezavantajele tehnologiei, de aceea trebuie vegheat acest întreg proces pentru a nu ajunge o societate robotizată, lipsită de umanitate și empatie.
În final, da, credem că acestea sunt niste ipoteze care chiar dacă vor ajunge în practică se va demonstra că nu sunt eficiente, societatea având în continuare nevoie de empatie, înțelegere… de ce nu chiar subiectivitate. Suntem adepții dezvoltării tehnologice, bineînțeles, așteptăm cu sufletul la gură următoarele descoperiri și creații și ne dorim ca acestea să vină în ajutorul sistemului judiciar, susținând eficacitatea și celeritatea activității juridice, însă ne este greu să credem că profesioniștii vor ajunge să fie înlocuiți de algoritmi”.
Concluzie
Nu-i vezi, deși vor lua decizii în privința vieții tale. Nu-i vei întâlni pe stradă, deși e posibil să fie mereu, acolo, în camera de supraveghere, în semafor, la trecerea de pietoni ori în mașinile ce claxonează în fața ta. Nu-i vei putea mirosi, deși e foarte probabil să-ți dea, într-un viitor deloc îndepărtat, o experiență cinematografică nemaîntâlnită până atunci, una în care toate simțurile tale să fie antrenate, nu doar câteva dintre ele. Nu-i vei auzi, deși muzica viitorului va fi creată mai degrabă de ei, decât de oameni și vocalizele lor limitate. Nu-ți rămâne decât să alegi: crezi ori nu în existența lor?
Majoritatea oamenilor lumii trăiesc deja, și vor trăi și mai mult în viitor, înconjurați de algoritmi. Pe care, însă, nu-i vor vedea, auzi, simți ori atinge niciodată. Unii se vor mulțumi să creadă în ei, la fel cum adepții unor religii s-au obișnuit să creadă fără a cerceta. Alții le vor nega existența, tot așa cum, astăzi, în vremuri în care informația e la vârful bombeului, milioane distribuie pe internet, chiar în timp ce parcurgeți acest text, teorii care afirmă că Marele Accelerator de Hadroni de la CERN e un dispozitiv menit să trezească un zeu egiptean, că Barack Obama poate controla vremea, că Saddam Hussein are o poartă stelară, că Pământul e plat și Luna e doar o proiecție video, că dinozaurii au construit piramidele.
Într-o lume în care stupiditatea pare că atrage din ce în ce mai mulți adepți, să vorbești despre viitor și algoritmi poate fi anacronic. Și, totuși, algoritmii au, în ei, o natură duală ce ne poate duce într-o direcție minunată sau ne poate distruge deopotrivă. Înca mai avem șansa de-a le modela viitorul. Mă bucur, deci, să particip, alături de toți cei de mai sus, la o discuție în care sunt implicați studenții la drept. În fond, de mulți dintre ei va depinde modul în care ne vom duce viața în anii ce vin.
--
Comentarii articol (0)