„Aceasta este America, ţara în care fiecare are dreptul la viaţă, la dragoste și la goana după faimă”, a spus memorabil Ryan Seacrest, în 2010, când era moderator la faimoasa emisiune American Idol.

Povestea lui Nasim Aghdam, o iraniancă de 39 de ani care trăia cu bunica ei în sudul Californiei, este un exemplu de goană după faimă cu final tragic. Aghdam scria pe Instagram despre sine că face o treabă foarte bună – „Nu m-am îndrăgostit niciodată și nu am fost căsătorită. Nu am nicio boală fizică sau psihologică. Dar trăiesc pe o planetă plină de boli și nedreptăţi.” Aghdam milita pentru veganism, drepturile animalelor și dădea sfaturi de fitness pe blogul și pe canalul ei de YouTube. Deși nu avea nici 200.000 de abonaţi la canalul de YouTube, se pare că în ţara natală era cunoscută drept „Nassim, cea verde”.

Lucrurile au luat o turnură neașteptată când YouTube a schimbat anumite reguli de monetizare a videoclipurilor, care a dus la o scădere semnificativă a veniturilor multor creatori de conţinut, printre care și ale ei. Aghfam a început să se plângă familiei că YouTube i-a distrus viaţa, și din ce a scris pe blog este evident că a interpretat schimbarea ca pe un gest de cenzură și trădare. În final, Agham a luat o armă și s-a dus la sediul YouTube unde a deschis focul rănind trei persoane, înainte de a se sinucide. Dintr-o femeie despre care familia susţine că nu omora nici furnici, Agham s-a alăturat celor 3,8% dintre „shooterii” americani care sunt femei.

Cazul bizar a încins spriritele, în contextul în care atât de mulţi creatori pe YouTube sunt deja frustraţi de schimbările de altgoritm ale companiei care le afectează veniturile. Pentru mulţi dintre ei, YouTube este ca un job cu normă întreagă sau cel puţin așa își doresc să fie. Tentaţia este deci de a ne concentra analiza în jurul unor anxietăţi prevalente deja în societate faţă de politicile obscure de funcţionare a marilor giganţi IT, YouTube, Facebook, Google. Însă de această dată este mai important să notăm că tragedia lui Aghfam subliniază un nou tip de anxietate, „în care algoritmi necunoscuţi majorităţii dintre noi înlocuiesc lumea familiară a instituţiilor fizice și a șefilor umani nu doar în ce privește cenzura, ci și în ceea ce privește oportunităţile noastre de creștere”, subiliniază Arun Sundararajan, profesor și autor al cărţii The Sharing Economy: The End of Employment and the Rise of Crowd-Based Capitalism.

Algoritmi care îţi schimbă salariul

Moartea tragică a iraniencei atrage atenţia asupra celor mai negre scenarii care se pot derula în cadrul unui nou tip de organizare a activităţii economice, în care o platformă digitală, care este „un hibrid între o corporaţie tradiţională și mâna invizibilă a pieţei libere”, adună clienţi la un loc și îi conectează la o masă de talente – artiști, antreprenori individuali sau mici afacerişti – gata să îi servească, în ceea ce profesorul Sundararajan numește „capitalism bazat pe mulţime”. Unii îi mai spun „economie de partajare”, „economia în comun”, „economie de la persoană la persoană”, „economie integrată”, „economie de platformă”. Comisia Europeană o numește „economie colaborativă”. Toate se referă la același sistem socioeconomic clădit pe conceptul folosirii în comun a resurselor fizice și umane, care cuprinde crearea, producerea, distribuţia, comerţul și consumul de bunuri și servicii de către persoane și organizaţii, în mod comun, prin intermediul unor mari platforme online.

Fără îndoială, multe dintre aceste platforme, spre exemplu YouTube, Uber, AirBnB, Amazon, Alibaba, Facebook și altele, au extins și au uniformizat fenomenal accesul la oportunităţi financiare. Ambiţiile multor creatori, producători, antreprenori nu mai sunt limitate decât de propria imaginaţie și iscusinţă, clienţii fiind doar la un click distanţă, iar metodele de monetizare multiple. Însă eliminarea agentului uman ca intermediar al acestei relaţii comerciale poate face ca acest vis să se transforme instantaneu într-un coșmar, atunci când lucrurile merg prost.

Problema lui Aghdam a fost că deși nu era angajata YouTube-ului, munca ei era pe YouTube. Iar remuneraţia i-a fost sistată printr-o simplă schimbare de algoritm. „Demonetizarea” sau „apocalipsa advertorială”, așa cum se face referire la acest episod, se întâmplă atunci când YouTube decide că un videoclip nu este „advertiser-friendly”, adică nu este ușor de monetizat, pentru că, din varii motive, ce pot ţine de limbajul sau grafica folosite, companiile nu vor să își asocieze imaginea cu respectivul creator prin reclamele care apar înaintea și în timpul derulării videoclipului. Un algoritm de filtrare a videoclipurilor din acest punct de vedere a funcţionat încă de când creatorii platformei au decis să își împartă veniturile din reclame cu creatorii de conţinut, adică de ani de zile. Diferenţa este că de anul trecut, când mass-media și marile companii cu bugete de advertoriale dedicate YouTube au început să exercite presiuni pentru ca platforma să elimine conţinutul extremist și dezinformările, videoclipurile au început să fie demonetizate pe bandă rulantă.

Algoritmii care fac asta sunt necunoscuţi creatorilor. Ei doar primesc o notificare care îi anunţă că au încălcat o anumită regulă din Ghidul Comunităţii, care stabilește grosso modo ce poate fi pus pe site și ce nu. Creatorii trebuie să conteste decizia pentru ca o persoană în carne și oase să evalueze cazul și să modifice decizia luată de algoritm, dacă este cazul. Deși au fost făcute mai multe update-uri, algortimul continuă să facă erori de judecată. Aghdam se plângea că un videoclip al său în care făcea abdomene a fost demonetizat pentru „conţinut sexual”, deși nu avea nicio conotaţie sexuală și nici nu era îmbrăcată inadecvat. În același timp, videclipuri în care apar femei topless, dar cenzurate grafic, au în continuare advertoriale pe ele. Și mai bizar este că algoritmul vizează orice tip de conţinut încărcat pe site, chiar și videoclipurile private. Până și live-urile programate pot fi demonetizate chiar înainte de a începe, doar pe baza pozei din thumbnail, a titlului și a cuvintelor-cheie. „Știm că sistemul nostru nu funcţionează bine întotdeauna, deci, dacă veţi vedea o iconiţă galbenă în managerul video și credeţi că algoritmul nostru a greșit, faceţi apel. Acesta ajunge la o persoană a cărei decizii ajută algoritmul nostru să înveţe în timp. Să ștergeţi videclipul și să îl repostaţi nu ajută cu nimic”, au declarat cei de la YouTube, delegându-le astfel sarcina îmbunătăţirii algoritmului creatorilor păgubiţi.

În lumea reală, fizică, nimeni nu ar accepta ca salariul să îi fie schimbat după socotelile unui algoritm, însă aceasta este realitatea pentru cei care au făcut din canalele de YouTube un job de normă întreagă. Cei care nu au reușit să își diversifice veniturile pe mai multe platforme gândesc tot conform unei relaţii tip angajator-anjagat, deși YouTube nu își angajează niciodată creatorii în sensul clasic al cuvântului. Prin urmare, unii analiști ţin să amintească de faptul că YouTube nu este o companie de management de talente, ci este o companie IT, care la un moment dat a hotărât să împartă câștigurile din advertoriale cu creatorii de pe platformă, așadar aceștia, care se pare că au uitat de vremurile în care lumea posta filmuleţe pe YouTube doar de amuzament, ar trebui să fie recunoscători și pentru puţinul pe care îl primesc. Alţii, în schimb, atrag atenţia că a fost decizia companiei să intre într-o relaţie în care nu mai poate câștiga fără creatori performanţi, însă nu le oferă la schimb niciun fel de garanţii. Dacă am compara site-ul cu un mall care închiriază spaţiu magazinelor, în lumea reală acele magazine sunt protejate printr-un contract, pe când youtuberii nu au niciun contract care să îi lege de platforma pe care activează. Singurul drept real pe care îl au creatorii este dreptul de autor, deși unii creatori se plâng că nici acesta nu este respectat ca la carte.

„Ne îndreptăm tot mai rapid spre un viitor digital incert, în care platformele și algortimii pe care se bizuie vor avea o importanţă tot mai semnificativă în lume, poate chiar devenind unele dintre cele mai puternice instituţii ale societăţii de mâine”, avertizează profesorul Sundararajan,

Algoritmi care te fac șomer

La prima impresie, am putea gândi că cei care vin cu astfel de avertizări sunt doar alarmiști situaţi în tabăra celor care se împotrivesc progreselor inteligenţei artificiale. Însă la fel de bine ar trebui să ne întrebăm dacă nu cumva suntem noi prea relaxaţi pentru că nu am fost încă expuși suficient acestor procese disructive în viaţa de zi cu zi. „Economia în comun ne afectează profund viaţa și este ceva ce se întâmplă independent de dorinţele sau de fricile noastre. O revoluţie de jos în sus, neconstrânsă de geografie și despre care unii consideră că este de neoprit, este doar în faza incipientă de creștere și deja schimbă forma pieţei muncii”, scrie într-un raport din iunie 2017 al Generali, o companie de asigurări ce activează pe patru continente. Iar specialiștii se așteaptă ca acest tip de economie, și platformele pe care se bazează, să crească exponenţial. Conform unei analize PricewaterhouseCoopers, până în 2025 este de așteptat ca sectoarele principale ale economiei în comun să ajungă la o valoare de 570 de miliarde de euro doar în Europa, o sumă de 20 de ori mai mare decât cea de 28 de miliarde înregistrată în 2016.

Pentru milioane de vânzători mici de pe Amazon, al căror reach a crescut dramatic datorită platformei, aceste vești nu pot fi decât bune, am crede. Însă și succesul lor depinde în mare măsură de un algoritm care clasifică ce rezultate le afișează clienţilor atunci când caută un produs pe site. Un alt exemplu, poate chiar mai relevant, este felul în care algoritmii de afișare a conţinutului din newsfeed-ul de pe Facebook pot afecta publicaţiile care nu își promovează conţinutul contra cost. Ultima dată când Facebook a testat un nou algoritm de afișare, care trebuia să mute conţinutul de știri din news feed într-o categorie aparte accesată printr-un buton special de „newsfeed” și să lase doar postările de la prieteni, publicaţiile din ţările unde s-a derulat testul au fost lovite sub centură. Reachul organic al paginilor unor publicaţii din Slovacia a înregistrat scăderi de 60%-80% într-o singură zi. Aplicat global, ar însemna un final catastrofic pentru publicaţiile mici care nu au bugete pentru publicitate și care se bizuie masiv pe Facebook pentru vizibilitate.

Însă social media și lumea online, în general, nu sunt singurele zone unde implementarea unor algoritmi poate produce efecte adverse. Cu toţii am văzut că atunci când sunăm un call center, de obicei discuţiile cu angajaţii firmei respective sunt înregistrate și ascultate de o echipă de oameni, în scopul îmbunătăţirii calităţii serviciului. Ei bine, cel puţin la unele companii americane echipa de oameni care stabilea și dacă unii angajaţi merită bonus salarial a fost înlocuită cu un algoritm care dă note angajaţilor după anumite criterii. În cel puţin un caz s-a observat că dă note proaste angajaţilor străini, pentru că aceștia vorbesc cu accent și software-ul nu înţelege foarte bine conversaţia.

În același timp, tot mai multe companii folosesc modele matematice și algoritmi chiar în procesul de angajare. În Statele Unite, aproximativ 72% dintre CV-uri nu trec niciodată prin mâini umane, ci prin programe pe calculator care le dau note și le potrivesc pe locuri de muncă deschise. Doar CV-urile candidaţilor finali ajung în mâinile persoanelor de la Resurse Umane. Consecinţele pot fi dezastruoase pentru cei care își caută un loc de muncă. Căutând oameni pentru centrele de call-center, Xerox, o companie care are 40.000 de angajaţi, a apelat la una dintre multele companii care dezvoltă modele matematice pentru a fi folosite în procesul de angajare. Modelul matematic lua în calcul diverși indici, inclusiv cei rezultaţi dintr-un test de personalitate aplicat astăzi în mai toate procesele de angajare în SUA, și nu numai. În urma procesului, managerii de la Xerox au descoperit câteva corelaţii pe care algoritmul le făcea și care rezultau practic în discriminarea unor aplicanţi. Programul le dădea note proaste candidaţilor care, conform unui test psihologic completat în procesul de angajare, aveau personalităţi „curioase”, pentru că probabilitatea ca aceste persoane să ia în calcul alte oportunităţi de dezvoltare și să plece din firmă era mai mare decât la alte tipuri de personalităţi. De asemenea, au fost defavorizaţi candidaţii care locuiau departe, în ideea că până la urmă vor părăsi firma, obosiţi de naveta zilnică pe care trebuie să o facă. Ceea ce, în final, are o logică, doar că ce au luat în calcul managerii Xerox, iar algortimul nu, este că tocmai cei veneau de departe aveau cea mai mare nevoie de un loc de muncă, fiindcă proveneau din cartiere sărace. Spre lauda lor, cei de la Xerox au ales să renunţe puţin la eficienţă în procesul de angajare, în favoarea echităţii.

Dar câţi alţi angajatori vor lua aceeași decizie? Și câţi sunt conștienţi măcar că modelele pe care le folosesc pot să ajungă la rezultate părtinitoare? Nu foarte mulţi, având în vedere că, de cele mai multe ori, după ce aceste modele sunt calibrate de experţi tehnicieni, ei nu mai primesc feedback, explică Cathy O’Neil, matematician și autoare a mai multe cărţi pe subiectul algortimilor AI. Ea face o comparaţie între cum sunt folosite datele și modelele matematice în recrutarea sportivilor profesioniști, și cum sunt folosite în recrutarea pe piaţa de muncă normală. În ambele cazuri, angajatorii se folosesc masiv de algoritmi pentru a lua deciziile de angajare. Diferenţa este că dacă în primul caz managerii unei echipe renunţă la un om care apoi devine o vedetă a sportului care ajunge să valoreze foarte mulţi bani, se vor întoarce la modelul matematic să vadă unde au greșit. Însă companiile care angajează zeci de oameni pe salariul minim nu vor face asta decât dacă se confruntă cu vreun fenomen care să le afecteze productivitatea, de exemplu, ca toţi angajaţii să fie cleptomani, ceea ce este foarte improbabil. „Este important să observăm că modele matematice apar mereu, iar pe măsură ce această lume a datelor personale continuă să crească, fiecare dintre noi contribuind la update-uri despre viaţa noastră, toate acestea vor ajuta posibilii angajatori să aibă o anume imagine despre noi. Se va testa acurateţea acestor imagini, sau doar vor fi folosite pentru a justifica un status-quo și a întări prejudecăţile existente?” se întreabă Cathy O’Neil,

Algoritmii viitorului

În general, cele mai multe dintre aplicaţiile care folosesc algoritmi sunt create cu bune intenţii și sunt menite să optimizeze procesele umane. Ele sunt unelte elegante și invizibile folosite pentru a rezolva probleme rapid, eficient, cu cele mai mici costuri financiare și de timp pentru oameni. În Resursele Umane ele au fost adoptate cu intenţia de a simplifica procesul de angajare și de a crea un mediu de muncă bazat pe meritocraţie, din care dispare factorul evaluator uman, care poate fi subiectiv în mod conștient, dar și inconștient.

Însă acești algoritmi sunt concepuţi tot după o minte umană marcată de neînţelegeri, prejudecăţi, erori de judecată și subiectivism, ceea ce poate duce la transcrierea lor în cod și apoi aplicarea lor în masă, cu pretenţia că sistemele automate sunt infailibile, iar rezultate lor nu pot fi disputate. Oameni în funcţii de putere ar putea folosi aceste unelte tocmai pentru a muta responsabilitatea unor decizii pe seama acestor calcule pe care majoritatea oamenilor nu le înţeleg. Acest scenariu este în mod particular îngrijorător din moment ce funcţionarea și calibrarea algoritmilor stă în mâna unui grup restrâns și superspecializat de matematicieni și IT-iști. Iar din cauză că acest proces este opac și obscur, atât eșecurile pe care le înregistrăm, dar și ce percepem ca oportunităţi devin, de fapt, mai puţin predictibile și mai greu de înţeles, ceea ce în final poate afecta progresul uman.

Problema și mai mare este că „deja am pus lumea în cârca algoritmilor și a programelor care învaţă singure. Dacă acum, cumva fiecare algoritm ar înceta subit să mai funcţioneze, ar fi sfârștitul lumii așa cum o cunoaștem. Singura întrebare care se mai pune este cum să înţelegem mai bine și să gestionăm ceea ce am făcut”, explică Barry Chudakov, expert în cercetări de marketing care folosesc algoritmi avansaţi de recunoaștere a emoţiilor. Părerile experţilor pe subiect sunt împărţite. Întrebaţi dacă ei cred că viitorul inteligenţei arficiale va aduce mai multe avantaje sau dezavantaje, 38% au spus că vor fi mai mult avantaje, 37% au spus că vor fi mai multe dezavantaje, iar 25% au spus că impactul va fi de 50%-50%, pozitiv-negativ, conform unei analize a Centrului de Cercetare Pew. Toţi sunt însă de acord că răspândirea algoritmilor și aplicarea lor în tot mai multe aspecte ale vieţii este inevitabilă.

Îngrijorările sunt multiple. Există deja voci care susţin că algoritmii reflectă preferinţele sau predispoziţiile programatorilor și bazelor de date pe care le-au folosit. Cum aceste baze de date nu sunt exhaustive, algoritmii lucrează cu date care sunt limitate, deficiente sau incorecte, ceea ce poate duce la o și mai profundă divizare a societăţii, creându-se în societate un efect similar „bulelor” de pe Facebook, modelate după colectorii de date, limitând și mai mult expunerea oamenilor la o diversitate de idei și informaţii veridice. Mai mult de 80 dintre cele mai mari 100 de companii de software vor avea tehnologii cognitive, mediate de algoritmi, integrate în produsele lor, prezic cei de la Deloitte Global. Ceea ce înseamnă că algoritmii vor deveni noii arbitri în procesul decizional uman în toate aspectele, de la ce filme am vrea să vedem la ce case ar trebui să cumpărăm, la mașini care se conduc singure, iar unii ne vor și înlocui la locul de muncă, arată analiza Pew. Există îngrijorări că algoritmii vor fi setaţi predominant pentru profit și eficienţă maximă, și că vor manipula oamenii în deciziile de zi cu zi. Toate astea ar duce la o societată bazată de o logică găunoasă dar inevitabilă. Când datele și modelele predictive vor căpăta o importanţă capitală, umanitatea și judecata umană s-ar putea pierde, se tem unii experţi.

Ce avem de făcut? „Totul începe cu alfabetizarea în algoritmi, care trece dincolo de instrucţia digitală de bază”, avertizează experţii. Dacă ne așteptăm să putem concura cu programe specializate și să putem să ne protejăm de ele trebuie să știm cu ce se mănâncă, să fim informaţi, educaţi și activi în această discuţie. Însă totodată înseamnă și că „algoritmii trebuie gândiţi să fie cât mai transparenţi, pentru ca utilizatorii să poată înţelege cum sunt impactaţi de folosirea lor, și să fie supuși unui proces continuu de evaluare în care un factor uman să poată analiza criticile și erorile semnalate de către o comunitate de utilizatori, care să își împărtășască liber experienţele”, crede Ben Shneiderman, profesor de IT la Universitatea din Maryland.

„Soluţia stă în design”, este de acord Judith Donath, de la Centrul Berkman pentru Internet și Societate din cadrul Universităţii Harvard. Algoritmii nu ar trebui să fie ca niște „cutii negre, în care bagi date și îţi dau un rezultat, ci un proces transparent care să poată să explice și cum a ajuns la rezultat”, printr-o grafică clară și interactivă prin care utilizatorii să poată examina cum schimbările anumitor date, corelări și reguli pot afecta rezultatul. „Algoritmii nu ar trebui să devină un nou tip de autoritate, ci ţinta lor ar trebui să fie aceea de a-i ajuta pe oameni să chestioneze autoritatea”, spune Donath. Însă, întâi de toate, trebuie ca managerii de companii să își asume atingerea acestei ţinte și nevoia transparenţei, a unor explicaţii simple, clare și logice, nu doar de frica legiuitorilor care ar trebui să impună reguli stricte de acces, prelucrare și control a datelor personale ale cetăţenilor, ci și pentru a asigura un nivel ridicat de acceptare în societate a acestor sisteme AI.

Nu în ultimul rând, este nevoie de o dezbatere educativă în spaţiul public cu privire la valoarea intrinsecă a omului. Atât cei care construiesc algoritmi, cât și cei care îi folosesc în diverse scopuri trebuie să aibă o înţelegere comună despre importanţa cedării omului a controlului asupra aplicaţiei și nu invers. Fără flexibilitatea subtillă și complexă a judecăţii umane, fără capacitatea de a tempera decizii extreme cu empatie și bun-simţ, fără posibilitatea de a rezolva o problemă prin dialog și înţelegere reciprocă, riscăm să trăim într-o lume a logicii absurde și a dialogului între surzi, în care bunul-simţ și toate atributele pe care omul trebuie să le practice pentru a trăi într-o societate tolerantă ar putea fi înlocuite de calcule matematice care ar putea hotărî în locul nostru ce înseamnă umanitatea.