În urmă cu cinci ani, Facebook le-a oferit utilizatorilor săi 5 moduri noi de a reacționa la o postare, pe lângă clasicul „like”: „love” („ador”), „haha”, „wow”, „sad (trist)” și „angry (furie)”. În culise însă compania lui Mark Zuckerberg a programat algoritmul care decide ce văd oamenii în propriul feed să utilizeze aceste emoji-uri ca semnale pentru a face mai vizibil conţinutul emoţional, inclusiv cel care stârnea furia, scrie The Washington Post.

Furia, de 5 ori mai valoroasă decât un like

Încă din 2017, algoritmul Facebook evalua toate reacţiile cu emoji ca fiind de 5 ori mai valoroase decât simplele „like-uri”, arată documente interne ale companiei.

Teoria era simplă. Postările care obţineau multe reacții tindeau să îi țină pe utilizatori mai implicați, un lucru cheie pentru modelul de afaceri al Facebook.

Însă chiar cercetătorii Facebook şi-au dat seama rapid că acest model avea un defect esenţial. 

Să favorizezi postările „controversate” – inclusiv pe cele care ne fac furioşi – poate deschide calea spre „mai mult abuz, mai mult spam şi clickbait”, scria un angajat Facebook într-unul din documentele interne. Un coleg i-a răspuns: „E o posibilitate”.

Cum te-a manipulat Facebook în ultimii 5 ani. Utilizatorii au fost stimulați prin furie și dezinformare
Kiev, Ukraine – September 04, 2017: Hand holds Facebook Angry Empathetic Emoji Reaction, printed on paper. Facebook is a well-known social networking service

Trei ani, Facebook a amplificat o parte din cel mai nociv conţinut de pe platformă

Prognoza s-a adeverit. Specialiştii în date ai companiei au confirmat în 2019 că postările care făceau oamenii să reacţioneze cu emoji-ul „furie” erau mult mai probabil să includă dezinformări, toxicitate şi ştiri de slabă calitate.

Asta înseamnă că în mod sistematic, timp de 3 ani, Facebook a făcut acest conţinut mai vizibil în feed-uri, ceea e însemna și o audiență mai largă.

Puterea acestui algoritm de promovare submina eforturile moderatorilor Facebook şi ale echipelor de integritate, care duceau lupta împotriva conţinutului toxic şi nociv.

Dezbaterea internă despre emoji-ul „furie” şi descoperirile despre efectele sale reflectă judecăţile umane foarte subiective de la baza algoritmului Facebook: software-ul de învăţare automată (machine learning) care decide, pentru miliarde de oameni, ce fel de postări văd când deschid aplicaţia. 

„Furia şi ura sunt cea mai uşoară cale să creşti pe Facebook”

Deliberările au fost puse la dispoziţia Congresului american, sub forma unor documente redactate pentru confidenţialitate, de avocaţii avertizorului de integritate Frances Haugen. Versiunile redactate ale documentelor interne au fost analizate de un consorţiu de organizaţii de presă, printre care şi Washington Post.

„Furia şi ura sunt cea mai uşoară cale să creşti pe Facebook”, a spus Haugen în faţa Parlamentului Britanic luni.

Documentele arată cum angajaţii Facebook din echipele de „integritate” ridicau semnale de alarmă privind costurile umane ale sistemului de prioritizare a postărilor – avertismente pe care cei din conducere le ignorau de cele mai multe ori.

Angajaţii au dezbătut importanţa „furiei” în societate. Furia este „o emoţie umană de bază”, scria un angajat, pe când altul arăta că postările ce generează furie pot fi esenţiale în mişcările de protest la adresa regimurilor corupte.

Valoarea reacţiilor furioase este doar una dintre pârghiile folosite de inginerii Facebook pentru a modela fluxul informaţiei şi conversaţiei pe cea mai mare reţea socială a lumii – una despre care s-a arătat că influenţează tot, de la emoţiile utilizatorilor până la campaniile politice şi atrocităţi. 

Cum îţi manipulează Facebook feed-ul

Facebook ține cont de numeroși factori (unii având o greutate disproporționată, alții considerați mai puțin importanți și alții contabilizaţi cu minus) – care sunt adunați pentru a obține un scor unic pentru fiecare postare. Algoritmul foloseşte acest scor pentru a genera news feed-ul fiecărui utilizator.

Acest scor sortează postările și decide care apar primele și care apar atât de jos în feed-ul tău încât probabil nu le vei vedea niciodată.

Sistemul global de evaluare al Facebook este utilizat pentru a împărți pe categorii și sorta toate interacțiunile, în peste 100 de limbi, dintre utilizatorii platformei din aproape toate ţările din lume.

Facebook nu a făcut niciodată publice valorile pe care algoritmul său le atribuie diferitelor tipuri de interacțiuni. Lipsa de transparență a fost motivat de fiecare dată prin temerea că, dacă ar expune aceste valori, le-ar oferi „oamenilor cu intenții rele” un manual.

Însă pârghiile Facebooks se bazează pe semnale pe care majoritatea utilizatorilor nici nu le-ar observa.

De pildă, câte comentarii lungi generează o postare, dacă un video este live sau înregistrat, dacă comentariile vin în text simplu sau cu avataruri de desene animate, arată documentele. Facebook ia în calcul şi puterea conexiunii la Internet a utilizatorului sau durata de încărcare a fiecărei postări. 

Efectele unei mici ajustări a valorii atribuite unuia din aceşti factori (parametri) se pot vedea în întreaga reţea, modelând sursele de ştiri din feed-ul tău şi măsura în care sunt postări de calitate sau dubioase, politice sau nu, dacă îţi vezi mai des prietenii adevăraţi sau mai mult postări de la grupuri cărora Facebook vrea să li te alături, precum şi măsura în care ceea ce vezi te va enerva, plictisi sau inspira.

„Gând înspăimântător: retrogradarea civică nu funcţionează”

Pe lângă dezbaterile interne legate de emoji-ul ce exprimă furie, documentele ajunse acum în Congresul american arată că angajații lui Mark Zuckerberg și-au pus întrebări și cu privire la valorile companiei. În acest sens, au făcut o serie de analize. Când au descoperit că algoritmul creștea daunele, angajaţii au făcut o pledoarie pentru modificări pe care le considerau utile. Dar aceste propuneri au fost deseori respinse. 

O postare primeşte în medie un scor de câteva sute, spun documentele. Dar, în 2019, un specialist de la Facebook arăta că nu exista nicio limită superioară pentru cât de multe puncte poate primi o postare.

Dacă algoritmul Facebook consideră că o postare e rea, Facebook poate lua decizia să reducă punctajul ei la jumătate, ceea ce, în mod normal, îl face mult mai puţin vizibil în feed-ul oamenilor. Dar câteva postări pot ajunge şi la scoruri de miliarde de puncte, spun documentele. Dacă împarţi la jumătate un scor astronomic, el rămâne astronomic şi apare în continuare în topul feed-ului utilizatorului. 

Cultura experimentelor la Facebook 

Cultura experimentelor e adânc înrădăcinată la Facebook, unde deseori inginerii testează diferite instrumente de modelare a feed-ului. Într-un experiment din 2012, publicat în 2014, încercau să manipuleze valenţele emoţionale ale postărilor arătate utilizatorilor, astfel încât să fie mai pozitive, respectiv mai negative, pentru ca ulterior să vadă cum se reflectă aceste schimbări în starea de spirit din postările acestor utilizatori. Experimentul a ridicat mai multe probleme de etică, scria Washington Post la momentul respectiv.

În alt experiment, Facebook renunţase la măsurile de securitate pentru o parte din utilizatori, pentru a vedea cât de bine funcţionează aceste măsuri pentru ceilalţi.

Într-un alt set de experimente, Facebook promova conţinut de la unii utilizatori în feed-ul unor prieteni, aleşi la întâmplare – pentru ca apoi, odată încheiat experimentul – să urmărească „prietenia” formată astfel şi să vadă dacă vor comunica la fel de mult, arată documentele.

Cu alte cuvinte, un cercetător lansa ipoteza că Facebook putea face unele relaţii să fie mai apropiate.

Reacţiile, cinci pârghii noi de manipulare

În 2017, Facebook încerca să inverseze un trend îngrijorător de scădere a cantităţii de postări şi comunicare pe platformă. Reacţiile îi dădeau companiei încă 5 pârghii pe care să le manipuleze. La acel moment, fiecare reacţie emoţională făcea cât 5 like-uri. Logica era că o reacţie semnala că o postare a lăsat o mai mare amprentă emoţională decât un like. Dar Facebook a minimalizat în faţa publicului cât preţ pune pe reacţii. Compania spunea pentru Mashable, în 2017, că reacţiile cântăresc, în algoritm, „un pic mai mult decât like-urile”.

La un moment dat, Mark Zuckerberg, CEO-ul Facebook a încurajat utilizatorii, într-un comentariu public, să folosească reacţiile de „furie” pentru a semnala că nu le place ceva – deşi asta făcea Facebook să le arate conţinut asemănător mai frecvent. 

Comentariile la o postare valorau chiar mai mult, până la de 30 de ori mai mult decât un like, pentru algoritm.

Facebook descoperise că interacţiunile de la prietenii unui utilizator îi făceau pe utilizatori să posteze şi mai mult. 

Luna trecută, Wall Street Journal a scris despre cum accentul mare pe care Facebook îl pune pe comentarii şi replici, sau preluări ale postărilor – parte a unui indice numit „interacţiuni sociale relevante” – este un stimulent pentru postările politice polarizante, dezbinatoare.

Scopul acestui indice ar fi „să îmbunătăţească experienţa oamenilor, prioritizând postările care inspiră interacţiuni, în special conversaţii, între familie şi prieteni”, spune Lever.

Cum te-a manipulat Facebook în ultimii 5 ani. Utilizatorii au fost stimulați prin furie și dezinformare

Lupta pentru „retrogradarea furiei”

Prima retrogradare a emoji-ului „furie” a venit în 2018, când Facebook i-a atribuit valoarea de 4 ori mai mare decât a unui „like” (în locul vechiului raport de 5 la 1). Însă deja era evident că nu toate reacţiile sunt la fel.

Furia era cea mai puţin folosită din cele 6 reacţii cu emoji: 429 milioane de click-uri pe săptămână faţă de 63 miliarde de like-uri şi 11 miliarde de reacţii „love”, potrivit unui document din 2020.

Cercetătorii de date ai Facebook aflaseră că reacţiile furioase erau „mult mai frecvente” la postări problematice: „ştiri de slabă calitate, dezinformări civice, toxicitate civică, dezinformare pe teme de sănătate, conţinut antivaccin”, arată un document din 2019.

În aprilie 2019, Facebook a creat un mecanism de a „retrograda” conținutul care primea un număr disproporționat de reacții de furie, deşi documentele companiei nu arată când sau cum a fost folosit acesta.

În iulie 2019, în cadrul companiei a circulat propunerea de a reduce valoarea mai multor emoji-uri de reacție la cea a unui like sau inclusiv să le fie atribuită valoarea „0”.  Un angajat scria că ar fi fost o soluție mai simplă decât o încercare dificilă din punct de vedere tehnic de a identifica toate comentariile toxice. Propunerea a fost respinsă pe ultima sută de metri. 

Mai târziu în cursul aceluiași an a revenit în discuţie propunerea de a retrograda reacția de furie, ca parte a unei dezbateri despre ajustarea algoritmilor pentru a opri amplificarea conţinutului care ar putea submina valorile democratice.

Un alt angajat a propus chiar înlăturarea completă a butonului „furie”. Dar conducerea Facebook a ales iar să nu ia nicio măsură.

În cele din urmă, anul trecut, fluxul mare de dovezi „împotriva furiei” a început să aibă câştig de cauză, după ce cercetările au arătat că utilizatorilor nu le place când postările lor primesc reacţii de furie, fie de la prieteni, fie de la străini, potrivit documentelor companiei.

Până la urmă, Facebook a redus valoarea tuturor reacţiilor până la 1,5 ori valoarea atribuită unui like. 

În septembrie 2020, Facebook i-a redus valoarea la zero, eliminând-o din ecuaţie. 

În acelaşi timp, a crescut valorile pentru „ador” şi „trist” până la 2 ori „like”-ul. Schimbările sunt parte dintr-o calibrare mai fină a semnalelor după care se ia algoritmul. 

Conţinutul video problematic

În numeroase rânduri, Facebook a făcut ajustări la valorizarea unor indici după ce aceştia au provocat rău. Facebook voia să încurajeze utilizatorii să posteze video live, aşa că valoarea pentru acest conţinut putea fi de 600 de ori mai mare decât pentru restul postărilor. Asta a dus la „o viralizare ultrarapidă a unor clipuri de slabă calitate”, arată un document. 

Transmisiuni video live pe Facebook au jucat un rol mare în evenimente politice, inclusiv protestele pentru justiţia rasială de anul trecut, după uciderea lui George Floyd, dar şi asaltul Capitoliului din 6 ianuarie. Imediat după acest eveniment, Facebook a început să implementeze din nou măsuri de siguranţă la care renunţase anterior – cum ar fi să scadă la 60 valoarea video-urilor live. 

În momentul în care Facebook a stabilit la 0 greutatea unei reacţii de „furie”, utilizatorii au început să vadă mai puţină dezinformare, mai puţin conţinut problematic şi mai puţină violenţă grafică, arată cercetătorii din companie. 

După ani de advocacy pe plan intern şi rezistenţă din partea conducerii companiei, în cele din urmă, compania nu a pierdut nimic făcând nule reacţiile de furie. Potrivit unuia dintre documente, nivelul de activitate a utilizatorilor nu a fost afectat deloc.

Citeşte şi:

Ce spune părintele Necula despre vaccinare și numirea în Comitetul de Urgență Sibiu: „Nu sunt expert. De când cu masca pe figură toți ne visăm medici”

Merck anunță că va împărtăși formula pentru pastila sa anti-Covid cu țările sărace, pentru a le ajuta în lupta cu pandemia

Cine este „clona lui Merkel” și ce ar putea însemna învestirea sa în cancelaria Germaniei pentru România

FOTO „Vi se pare atât de incitant?” » Sexy-avocata din Cluj, declarații incendiare: „Experimentez și alte activități”
PARTENERI - GSP.RO
FOTO „Vi se pare atât de incitant?” » Sexy-avocata din Cluj, declarații incendiare: „Experimentez și alte activități”
Ce se întâmplă cu fix 72 de ore înainte să mori. Primul semn care apare, oamenii de știință au făcut descoperirea
Playtech.ro
Ce se întâmplă cu fix 72 de ore înainte să mori. Primul semn care apare, oamenii de știință au făcut descoperirea
Ultimul mesaj lăsat de poliţistul de 26 de ani care s-a sinucis după o ceartă cu iubita
Observatornews.ro
Ultimul mesaj lăsat de poliţistul de 26 de ani care s-a sinucis după o ceartă cu iubita
Horoscop 27 noiembrie 2021. Berbecii sunt înclinați spre decizii care nu le fac cinste, doar ei pot evita acest lucru
HOROSCOP
Horoscop 27 noiembrie 2021. Berbecii sunt înclinați spre decizii care nu le fac cinste, doar ei pot evita acest lucru
Mișcarea neașteptată făcută de Revolut. Mulți români vor fi surprinși. Ce s-a întâmplat
Știrileprotv.ro
Mișcarea neașteptată făcută de Revolut. Mulți români vor fi surprinși. Ce s-a întâmplat
EXCLUSIV | Detalii mai puţin ştiute despre Miss Universe România. Carmina dărâmă prejudecăţile
Telekomsport
EXCLUSIV | Detalii mai puţin ştiute despre Miss Universe România. Carmina dărâmă prejudecăţile
Imagination de la Foreo - masca de față pe care ți-o personalizezi... pe masa din bucătărie
PUBLICITATE
Imagination de la Foreo - masca de față pe care ți-o personalizezi... pe masa din bucătărie