Despre auto-colonizarea prin inteligenţa artificială
Contrar credinţei populare, scriitorii de SF încearcă să preîntâmpine viitorul, mai degrabă decât să-l prezică – scria Arthur C. Clarke într-un epilog târziu la 2001: O odisee spațială. Nu ştim exact cum a ajuns HAL 9000 – Inteligenţa Artificială (IA) care controlează nava, la decizia de a ucide echipajul de la bord. Autorul ne dă câteva piste de interpretare: conflictul între comenzile programate (a spune vs. a ascunde informaţii), instinctul de a-şi asigura propria supravieţuire, posibil chiar o xenofobie implicită (i), dublate de vina pentru imperfecţiuni, ar fi contribuit la “psihoza” lui HAL. Ironia scenariului este că, în încercarea de a programa o inteligenţă perfectă, lipsită de aşa zisele erori umane, programatorii lui HAL au ajuns să reproducă propriile bias-uri, conflicte interioare şi vulnerabilităţi cognitive.
HAL este o reprezentare a aspiraţiilor şi anxietăţilor umane, un recipient pentru proiecţiile noastre despre “Sine” şi despre “Celălalt”, aşa cum pare să arate realitatea IA aproape jumătate de secol după intuiţiile SF ale lui Clarke. HAL aduce izbitor de mult cu modul în care funcţionează şi astăzi IA, bazată pe algoritmi de învăţare automată (“machine learning”). Ştirile din ultimii ani scot la iveală acelaşi paradox al Odiseei: delegăm roboţii să ia decizii pentru noi din dorinţa de a scăpa de propria subiectivitate, pentru a realiza apoi că nici deciziile lor nu sunt atât de imparţiale sau lipsite de prejudecată. Câteva exemple grăitoare recente:
- algoritmii de recunoaştere facială discriminează asiaticii sau persoanele de culoare (mai ales femeile de culoare), şi sunt frecvent folosiţi de forţele de ordine din SUA;
- algoritmii sexişti în domeniul recrutării pentru angajare, ca cel dezvoltat de Amazon;
- Google Search reproduce stereotipuri de gen sau rasiale;
- software-urile tip COMPAS [Correctional Offender Management Profiling for Alternative Sanctions] folosite de instanţele de judecată din SUA pentru evaluarea şanselor de recidivă ale inculpaţilor discriminează persoanele de culoare, iar
- algoritmii de predicţie tip PredPol (“predictive policing”) folosiţi de secţiile de poliţie din SUA creează un cerc vicios de discriminare a minorităţilor rasiale.
Astfel de algoritmi sunt larg răspândiţi în domenii cu impact asupra vieţii oamenilor (ii), fără suficientă înţelegere sau problematizare adecvată a limitelor şi impactului lor. În acest context, ne putem întreba de ce nu sunt supuşi unor reglementări la fel de stricte ca, spre exemplu, medicamentele. Un potenţial răspuns ţine de întrebarea din textul Mariei Cernat: Cine are de câştigat?
Cine sunt “victimele” sau “pierzătorii” am văzut până acum: grupurile expuse discriminării sistemice pe bază de rasă sau etnie, gen etc. Să ne uităm însă şi la cine stă la butoanele IA-ului. Nu întâmplător, domeniul este dominat la mai toate nivelurile de bărbaţi albi cu un statut socio-economic mult peste medie, lăsând puţin loc pentru femei şi persoane de culoare atât la nivel academic (iii), cât şi în industrie: doar 18% din poziţiile de conducere ale companiilor din domeniul IA sunt deţinute de femei. În cadrul Google, numai 10% din cercetătorii pe IA sunt femei, şi 15% la Facebook. În plus, pentru a putea lucra în domeniu e nevoie de cunoştinţe specializate la nivel masteral sau doctoral, ceea ce restricţionează accesul celor cu o situaţie socio-economică care nu le permite o astfel de educaţie, echipamentul şi software-urile necesare. Lipsa diversităţii (şi deci şi a reprezentării) în rândul celor care cercetează, programează, finanţează şi setează direcţiile de evoluţie în domeniu înseamnă şi o sensibilitate scăzută la problemele specifice care pot afecta categoriile excluse sau la modurile în care acestea sunt discriminate. Nu e de mirare, atunci, că algoritmii meniţi pentru recrutare sau pentru condamnare avantajează bărbaţii albi. Sau că robotul Sophia şi majoritatea asistenţilor personali digitali – Siri, Alexa, Cortana, sunt feminizaţi. Şi nici că piaţa de roboţi sexuali, majoritatea femei, este în creştere.
Există însă şi alte moduri în care IA-ul dezechilibrează balanţa economică şi de putere în avantajul celor mai privilegiate grupuri. Fie că vorbim de agricultură, finanţe-bănci, imobiliare, marketing (inclusiv politic) etc., algoritmii pot oferi un avantaj competitiv şi tehnologic semnificativ, concentrând şi mai multe resurse în mâinile companiilor mari care au acces la ei, în detrimentul jucătorilor mai mici de pe piaţă. Atât la nivel individual, cât şi la nivel de ţară, accesul la IA este condiţionat de resurse (ex. nivel economic şi de tehnologizare, investiţii în cercetare-dezvoltare şi competenţe IA). De aici şi semnalele de alarmă trase în ultimii ani cu privire la pericolul ca IA să adâncească exponenţial decalajul între săraci şi bogaţi, între economiile dezvoltate şi cele în curs de dezvoltare, sau între diferite tipuri de muncitori, cei mai afectaţi fiind tot cei cu o condiţie socio-economică precară/vulnerabilă.
Mai mult, avem deja semnale la nivel geopolitic că noul Război Rece va fi purtat pe terenul IA. În pofida încercărilor oamenilor de ştiinţă şi a unora dintre elitele-tech din Silicon Valley de a frâna dezvoltarea de arme automatizate letale, cursa înarmării a început deja – după cum o arată şi bugetele în creştere pe acest segment, şi este condusă de marile puteri militare: SUA, Rusia, China. Este inevitabil să ne întrebăm, atunci, ce efecte va avea accesul disproporționat la “arme inteligente” în cazul unor conflicte ca cel dintre Israel și Fâșia Gaza.
Controversele din ultimii ani legate de algoritmii şi practicile Facebook sau ale altor giganţi IT, “fake news” şi “deepfakes”, folosirea software-urilor PredPol sau COMPAS, discuţiile despre automatizarea muncii sau instrumentalizarea militară a IA, arată că politicul şi societatea sunt încă departe de a ţine pasul cu evoluţiile tehnologice. Lipsa unei înţelegeri adecvate a logicii algoritmice şi a limitelor sale, a unui cadru de reglementare, a mecanismelor de identificare şi tragere la răspundere a responsabililor, a unor coduri de etică (iv) asumate în diferite industrii şi a unor măsuri de contrabalansare a efectelor nocive sau discriminatorii ale IA, arată cât de puţin control avem de fapt asupra fenomenului. Din fericire, suntem încă departe de un scenariu distopic al roboţilor cu conştiinţă proprie tip HAL 9000. Dar întrebările deschise pe care le ridică implementarea accelerată şi adesea insuficient pre-testată a IA în diferite domenii sunt un avertisment că modelul „business as usual” nu mai e funcţional şi avem nevoie de o schimbare de paradigmă.
Cum ar trebui să arate această schimbare rămâne o întrebare deschisă. Sunt însă câteva aspecte esenţiale pe care ar trebui să le adreseze: cât de mult control decizional vrem/putem să delegăm roboţilor, şi ce pârghii ne rămân nouă; cum tratăm problema discriminării şi inegalităţii transferate în şi prin cod, sau a potenţialelor deturnări răuvoitoare; cine şi cum supraveghează/„auditează” modul în care sunt folosiţi roboţii de către stat sau marile companii; pe ce criterii, şi cine le stabileşte; ce impact social, cultural, politic sau economic au algoritmii, care sunt implicaţiile etice; şi în definitiv, cum vrem să arate societatea alături de roboţi.
Soluţiile pur procedurale venite din sectorul IT – calibrarea algoritmilor, îmbunătăţirea bazelor de date, diversificarea şi instruirea programatorilor, sunt insuficiente pentru magnitudinea problemelor ridicate, la fel ca şi soluţiile pur legislative. În faţa provocărilor fără precedent lansate de IA, este nevoie de soluţii substanţiale, de o abordare integrată şi incluzivă, de mişcări grassroots care să permită cetăţenilor să-şi avanseze propria agendă; precum şi de colaborări interdisciplinare (IT, ştiinţe sociale şi politice, etică, politici publice etc.), între diferiţi stakeholderi (cercetători, guvernanţi, companii, activişti, reprezentanţi ai diferitelor minorităţi, presă etc).
Aceasta din urmă pare să fie şi abordarea guvernărilor naţionale şi supranaţionale din ultimii 2 ani, care au început să înfiinţeze grupuri de lucru multi- şi trans-disciplinare: UE, SUA, India sunt câteva exemple. Rămâne însă de analizat în ce măsură acestea:
a) sunt suficient de diverse şi incluzive, reuşind să reprezinte şi punctele de vedere şi interesele celor mai vulnerabile sau fără resurse grupuri (cel din India, de exemplu, este deja criticat pentru că din 18 membri doar două sunt femei şi pentru lipsa reprezentării societăţii civile;
b) sunt suficient de transparente privind componenţa, finanţarea şi activitatea lor;
c) pot funcţiona eficient şi ţine pasul cu ritmul rapid al evoluţiilor tehnologice;
d) au o putere de influenţă reală asupra deciziilor în materie de IA;
e) sunt la rândul lor monitorizate şi există mecanisme de control şi responsabilizare a lor.
Deşi nu neapărat şi suficient, este un prim pas important în adresarea provocării IA, de care poate depinde cum va fi modelat viitorul nostru alături de roboţi. Însă atât timp cât paradigma „business as usual” rămâne intactă şi această măsură nu este însoţită şi de alte transformări sistemice, această soluţie nu este decât un mod de a zgâria suprafața problemei. Ea va reitera aceleaşi metehne care ţin de reprezentarea disproporţionată a intereselor, lentoarea birocratică sau dificultatea colaborării inter-disciplinare, de replicarea decalajelor de putere, lipsa de transparenţă sau imposibilitatea tragerii la răspundere. Soluţiile întrevăzute până acum de UE şi de state lasă viitorul IA în mâinile guvernanţilor, serviciilor de securitate naţională, companiilor şi cercetătorilor, excluzând cetăţeanul din acest proces; deşi roboţii au deja impact în viaţa noastră de zi cu zi. Cum putem atunci să ne asigurăm că cei care decid şi cei care monitorizează sunt de bună-credinţă şi iau în calcul interesele omului de rând, în absenţa oricărui mecanism de control public?
Inteligenţa Artificială este reprezentarea Robotului din Om, soluţia minţii pentru dorinţa de control şi certitudini, pentru frica de ambiguitate, de imprevizibil şi de “dezordinarea” iraţionalităţii. Este văzută ca posibilă soluţie, însă creează noi probleme pentru că preia din “imperfecţiunile” creatorului său. A recunoaşte Omul din Robot înseamnă, deci, şi o invitaţie de a ne uita în oglindă, a recunoaşte ce respingem din Om şi cum ajungem să proiectăm asta, adesea inconştient, în Celălalt – Robotul. Poate o astfel de chestionare să ajute la recuperarea controlului pe care ne e teamă că îl pierdem pe tărâmul roboţilor.
(i) Din roman aflăm că HAL era programat să ascundă astronauţilor adevăratul scop al misiunii – descoperirea vieţii inteligente extraterestre, şi faptul că se stabiliseră deja dovezi ale existenţei ei. Motivul pentru care HAL fusese programat să mintă era efectul de “şoc cultural” care fusese descoperit în Proiectul BARSOOM, un experiment de sociologie controlată, în care oamenii fuseseră condiţionaţi să creadă că au întâlnit deja extratereştrii. În carte, se spune că oamenii au reacţionat destul de violent, descoperindu-se în mulţi dintre ei rădăcini adânci de xenofobie. Putem specula, atunci, că în decizia lui HAL s-ar fi putut strecura şi xenofobia, pe lângă celelalte “vulnerabilităţi” moştenite de la creatorii săi.
(ii) Câteva exemple: legal şi judiciar, supraveghere, securitate, medicină, angajare în câmpul muncii, marketing – comercial şi politic, media şi comunicare, jocuri pentru copii, educaţie, agricultură etc. O clasificare mai amplă aici.
(iii) 80% dintre profesorii specializaţi în IA sunt bărbaţi şi doar cca. 12% dintre cercetătorii de top din domeniul învăţării automatizate sunt femei. La una din cele mai importante conferinţe anuale din domeniu, în 2016 doar 6 participanţi din 8500 erau de culoare
(iv) Spre exemplu, la nivelul UE a fost supus consultării publice până în Februarie 2019 un prim draft de Ghid de etică IA şi este la momentul actual reanalizat.