Ediția tipărită | Afaceri
6 septembrie 2018 | MENLO PARK
ÎN FIECARE a doua zi de marți, la Facebook, și în fiecare vineri, la YouTube, directorii se adună ca să dezbată cele mai noi probleme legate de limbajul de ură, dezinformare sau alte tipuri de conținut deranjant pe platformele lor și decid ce trebuie scos sau lăsat acolo. La San Bruno, Susan Wojcicki, șefa YouTube, supraveghează personal acest demers. La Menlo Park, directori de nivel inferior conduc „Forumul de Standarde de Conținut” al Facebook.
Forumul a devenit o stație frecventă pe circuitul de publicitate al companiei pentru jurnaliști. Grupurile sale de lucru recomandă noi reguli despre ce e de făcut, de pildă, cu o fotografie care arată cum femei hinduse sunt bătute în Bangladesh, care ar putea incita la violență offline (trebuie scoasă), un video cu brutalitatea poliției când au loc ciocniri pe teme rasiale (se lasă) sau o poză care susține că Donald Trump ar fi purtat uniforma Ku Klux Klan în anii ’90 (se lasă, dar i se reduce distribuția și se informează utilizatorii că este falsă). Deciziile luate la aceste ședințe ajung în cele din urmă instrucțiuni pentru mii de analiști de conținut din întreaga lume.
E încurajator să vezi cum fiecare companie moderează conținutul. Cele două firme nu mai consideră luarea acestor decizii ca pe o activitate periferică, ci ca pe una centrală pentru operațiunile lor. Fiecare angajează directori care au grijă de sarcina de a face platformele lor mai puțin toxice, în același timp protejând libertatea de expresie. Dar faptul în sine că fac asta este și el un motiv de îngrijorare; ele sunt pe cale să devină niște „ministere ale adevărului” pentru un auditoriu global. Niciodată nu au putut un număr atât de mic de firme să controleze ceea ce pot să spună și să vadă miliarde de oameni.
Politicienii sunt din ce în ce mai atenți la conținutul acestor platforme și la politicile pe care le folosesc pentru a-l evalua. Pe 5 septembrie, Sheryl Sandberg, numărul doi la Facebook, și Jack Dorsey, șeful Twitter, au depus mărturie în fața unui Select Intelligence Committee din Senat, despre ceea ce ar putea fi cea mai notorie eroare a companiilor lor, permițând ca platformele să fie manipulate de agenți ruși pentru influențarea alegerilor prezidențiale din 2016. Ulterior, Dorsey a răspuns unor întrebări țintite din partea unui comitet din Camera Reprezentanților despre moderarea conținutului. (La prima serie de audieri, Alphabet, firma mamă a Google, care deține și YouTube, a fost reprezentată de un scaun gol, după ce a refuzat să îl pună la dispoziție pe Larry Page, cofondatorul său.)
Examinarea minuțioasă a Facebook, Twitter, YouTube et al s-a intensificat recent. Toate trei companiile au fost îndemnate să îl interzică pe Alex Jones de la Infowars, un adept al teoriei conspirației; Facebook și YouTube au făcut-o în cele din urmă. În același timp, platformele tehnologice au fost acuzate de tendințe anticonservatoare pentru că au suprimat anumite știri. Cel mai vocal critic este președintele Donald Trump, care a amenințat (pe Twitter) că le va reglementa. Imediat după audieri, Jeff Sessions, procurorul său general, a spus că va discuta cu procurorii generali ai statelor despre „îngrijorările crescânde” că platformele afectează concurența și sufocă liberul schimb de idei.
Specii protejate
Această întorsătură a situației semnalează apusul vechii protecții legale speciale pentru companii. Firmele de internet din America sunt apărate de responsabilitate juridică pentru conținutul postat prin serviciile lor. Secțiunea 230 din Legea Decenței Comunicațiilor din 1996 le tratează ca pe niște intermediari, nu ca pe editori – pentru a le proteja de probleme legale.
Atunci când industria online era limitată la start-upuri tinere ș vulnerabile, această abordare era rezonabilă. Acum un deceniu, moderarea conținutului era o muncă simplă. Doar 100 de milioane de oameni foloseau Facebook, iar standardele sale comunitare încăpeau pe două pagini. Azi însă, sunt 2,2 miliarde de utilizatori lunari ai Facebook și 1,9 miliarde de utilizatori înregistrați lunar pe YouTube. Platformele au devenit locuri centrale pentru interacțiune socială și pentru toate tipurile de expresie, de la dezbaterea lucidă și clipurile cu pisici la teoriile conspirației și limbajul urii.
La început, platformele de social media nu au reușit să se adapteze la magnitudinea și complexitatea problemelor pe care le creau creșterea și puterea lor. Spunând că nu vor să fie „arbitrii adevărului”. Totuși, în mod repetat, în ultimii ani, cele două companii, asemenea Twitter, au fost prinse pe picior greșit de știri privind abuzul și manipularea platformelor lor de către troli, grupuri care propagă ura, adepți ai teoriilor conspirației, răspândaci de dezinformări, chibiți ai alegerilor și propagandiști. Jurnaliștii și experții în drepturile omului din Myanmar au descoperit că dezinformarea pe Facebook incita la violență împotriva musulmanilor Rohyinga. În urma unui atac înarmat la o școală din Parkland, Florida, căutările pe YouTube despre masacru au adus la suprafață clipuri conspiraționiste, care susțineau că a fost un trucaj în care au fost folosiți actori pe post de victime.
Ca reacție, Facebook și YouTube au sporit drastic resursele, atât umane, cât și tehnologice, dedicate poliției platformelor lor. Până la finele acestui an, Facebook își va dubla numărul de angajați și contractori dedicați „siguranței și securității” site-ului, la 20.000, inclusiv 10.000 de analiști de conținut. La YouTube vor lucra 10.000 de oameni pentru moderarea conținutului într- o formă anume. Ei scot milioane de postări în fiecare lună de pe fiecare platformă, ghidându-se după manuale groase de instrucțiuni – ghidurile pentru evaluatorii „calității căutărilor” de la Google, de pildă, au 164 de pagini.
Grafic
Vezi mai puțin răul
Numărul de postări, clipuri, imagini sau comentarii scoase de pe Facebook sau la care s-au adoptat măsuri* pe Facebook, milioane
Trimestrul IV 2017 Trimestrul I 2018
Nuditate adultă și activitate sexuală Violență grafică
Limbaj al urii
Propagandă teroristă
*Excluzând spamul și conturile false
Sursa: raport al companiei
Deși majoritatea moderatorilor lucrează pentru terțe firme, creșterea numărului lor a avut deja un impact asupra finanțelor companiilor. Când Facebook a postat rezultate trimestriale dezamăgitoare în iulie, ceea ce a dus la scăderea cu peste 100 de miliarde de dolari a capitalizării sale de piață, costurile mai mari pentru moderare au fost implicate parțial. Mark Zuckerberg, președintele executiv al firmei, a spus că pe termen lung, problema moderării conținutului va trebui rezolvată cu inteligența artificială (AI). În primele trei luni ale 2018, Facebook a adoptat o serie de măsuri asupra a 7,8 milioane de materiale de conținut care includeau violență grafică, limbaj al urii sau propagandă teroristă, de două ori mai multe decât în cele trei luni anterioare (vezi graficul), majoritatea datorită îmbunătățirii detectării automate. Moderarea conținutului necesită însă înțelepciune, iar un algoritm nu este la fel de judicios ca principiile cu care este programat.
La sediul Facebook din Menlo Park, directorii se opun instinctiv adoptării de noi reguli restrictive pentru conținut, pe motiv de libertate a expresiei. Sunt permise multe tipuri de comentarii de ură, rasiste, pentru că sunt exprimate în așa fel încât să nu țintească în mod specific o rasă, religie sau alt grup protejat. Sau poate sunt glume.
Fake news (știrile false) pun probleme diferite. „Noi nu scoatem conținutul doar pentru că este fals”, spune Monika Bickert, șefa de politici ale produselor și contraterorism a firmei. Ceea ce poate să facă Facebook, în loc să scoată materialele, spune ea, este să „declasifice” știrile false, semnalizate ca atare de analiști externi, ceea ce înseamnă că vor fi văzute de mai puțini oameni, și să arate informațiile reale alături de ele. În puncte fierbinți, precum Myanmar și Sri Lanka, unde dezinformarea a inflamat violențele, postările pot fi scoase.
Sistemul de moderare al YouTube este similar cu cel al Facebook, cu reglementări publicate despre ce este acceptabil și instrucțiuni detaliate pentru analiștii umani. Monitorii umani decid repede ce să facă cu conținutul care a fost semnalizat și majoritatea acestor semnalizări se fac prin detecție automată. Twitter folosește și el AI pentru a detecta conturile false și anumite conținuturi nepotrivite, dar se sprijină mai mult pe rapoartele de la utilizatori privind hărțuirea și intimidarea.
Pe măsură ce platformele de social media își fac propria poliție, ele se vor schimba. Ele erau, și încă se văd, zvelte și eficiente, păstrând un minim de angajați. Dar Facebook, care are circa 25.000 de oameni pe statele sale de plată, va da probabil în curând mai mult de lucru moderatorilor decât inginerilor săi. Facebook și Google sunt suficient de bogate ca să absoarbă costurile suplimentare și să prospere totuși. Twitter, care este mai slab financiar, va suferi mai mult.
Sunt posibile și schimbări mai profunde. Dacă dezinformarea, limbajul urii și conținutul ofensator sunt atât de pătrunzătoare, spun criticii, este din cauza modelului de afaceri al firmelor: publicitatea. Pentru a vinde tot mai multe anunțuri, algoritmii Facebook au favorizat, de pildă, conținutul „angajant”, care poate fi adesea de soi rău. YouTube își ține utilizatorii pe site oferindu-le clipuri din ce în ce mai interesante, care pot fi de asemenea tot mai extreme. Cu alte cuvinte, pentru a rezolva cu adevărat sfidarea moderării conținutului, marile platforme de social media ar putea să fie nevoite să spună adio la modelul de afaceri care le-a făcut să aibă atâta succes.
Acest articol a apărut în secțiunea Afaceri a ediției tipărite a The Economist, sub titlul „The deciders”