Ce este algospeak

Algospeak este un concept apărut destul de recent, care descrie un tip de limbaj adaptat în mod special pentru rețelele sociale și care a apărut ca reacție la modul în care funcționează algoritmii de moderare automată.

Mai exact, algospeak reprezintă tot felul de strategii prin care utilizatorii înlocuiesc cuvintele considerate ”sensibile” sau ”interzise” cu forme alternative, fie cuvinte deformate, fie metafore sau expresii codificate. Astfel, se evită sancțiunile impuse de platforme, precum ștergerea conținutului, limitarea vizibilității sau pierderea monetizării.

Fenomenul a apărut odată cu extinderea masivă a platformelor precum TikTok, YouTube, Instagram sau Facebook, care folosesc sisteme automate bazate pe inteligență artificială pentru a detecta și filtra conținutul considerat problematic.

Aceste sisteme analizează volume uriașe de text, audio și video și caută anumite cuvinte-cheie sau tipare asociate cu violența, sexualitatea, drogurile, discursul instigator la ură, sinuciderea sau alte teme considerate riscante.

Deși scopul declarat este protejarea utilizatorilor, aceste mecanisme sunt adesea rigide și nu pot interpreta nuanțele contextuale ale limbajului uman, ajungând să penalizeze inclusiv conținut informativ, educativ sau de sprijin.

În acest context, creatorii de conținut și utilizatorii obișnuiți au început să își adapteze limbajul. În loc să folosească termeni direcți, au inventat sau au adoptat variante ușor de recunoscut pentru alți oameni, dar mai greu de detectat de algoritmi.

Practic limbajul nu se adaptează ca până acum pentru a comunica mai bine oamenii între ei, ci pentru a ”păcăli” sau a ocoli mecanismele de control ale unor programe informatice.

Totuși, acest fenomen nu este lipsit de efecte negative. Pe de o parte, algospeak poate crea confuzie pentru persoanele mai puțin familiarizate cu mediul online, care nu mai înțeleg sensul real al unor expresii.

Pe de altă parte, folosirea unor termeni eufemistici poate duce la minimalizarea sau banalizarea unor subiecte extrem de grave, precum moartea, abuzul sau problemele de sănătate mintală.

Exemple de algospeak

Exemplele de algospeak sunt extrem de variate și se schimbă constant, dar există câteva categorii mari de expresii care au devenit destul de cunoscute în mediul online. Majoritatea termenilor de algospeak sunt în limba engleză. În română, algospeak-ul e mai puțin prezent, pentru că se bazează mai degrabă pe împrumuturi din engleză și pe prescurtări.

Termeni legați de moarte și violență. Aceasta este una dintre cele mai bogate zone de algospeak, pentru că algoritmii sunt foarte sensibili la aceste subiecte.

  • die / dead / death (moarte)-> unalive, passed, gone
  • kill / killed (ucis) -> deleted, took out
  • murder (crimă) -> unaliving someone
  • suicide (sinucidere) -> self-delete, unalive yourself, S word

Algopseak apare și în ceea ce privește sexualitatea. Platformele filtrează orice referire explicită la sex, chiar și în contexte educative.

  • sex -> seggs, spicy activity, doing the thing
  • pornografie -> corn, sau emoji porumb
  • orgasm -> finish, reach the end
  • penis / vagin -> private parts, down there, emoji cu vânătă sau piersică
  • abuz sexual – SA, mascara

Algoritmii penalizează de asemenea mențiunile directe ale drogurilor, inclusiv în scop informativ.

Exemple:

  • droguri -> bomboane, spicy candy, party favors
  • weed / marijuana -> lettuce, green, broccoli – verde/verdeață, salată, broccoli
  • cocaină -> snow, white stuff – făină, zăpadă
  • alcool, dependență de alcool, beție -> drinking problem, too much juice- a exagerat cu sucul

Descoperă și Limbajul TikTok: prescurtări și expresii populare pe TikTok și semnificația lor

Alte tipuri de algospeak

Un alt tip de algospeak este modelarea discursului public, astfel utilizatorii ajung să vorbească despre subiecte serioase într-un mod cifrat sau ambiguu, pentru a evita ceea ce cred că sunt restricții algoritmice.

Posibila cenzură indirectă a unor perspective este un subiect tot mai dezbătut. Îîntr-o lume în care rețelele sociale reprezintă sursa principală de informații pentru mulți oameni, faptul că anumite tipuri de conținut sunt promovate și altele nu poate duce la situații în care anumite idei, narațiuni sau proteste nu ajung la un public larg, chiar dacă oficial nu sunt interzise.

Festivalul care nu a existat

În august 2025, mii de utilizatori ai rețelelor sociale au intrat online pentru a posta despre un nou festival de muzică interesant din Los Angeles. Oamenii au vorbit cu entuziasm despre decorurile Sabrinei Carpenter și s-au delectat cu povești despre spectacolele de lumini. Dar nu a existat niciun festival. Carpenter nu cânta. Totul era o ”păcăleală” și trebuia să știi asta.

În acea lună, demonstrații de masă au izbucnit în SUA din cauza raidurilor efectuate de Serviciul de Imigrare și Control Vamal al SUA (ICE). Dar, online, mulți utilizatori au decis că firmele de tehnologie ascundeau postările despre asta. „Festivalul de muzică” era algospeak, un cuvânt de cod care a erupt spontan și s-a răspândit pe măsură ce oamenii încercau să comunice într-un limbaj voalat pentru a păcăli algoritmii.

În mod ironic, utilizarea termenului „festival de muzică” i-a determinat pe oameni să interacționeze cu aceste videoclipuri pentru că doreau să se simtă parte a grupului, ceea ce a făcut videoclipurile și mai virale. Și pentru că videoclipurile cu „festivalul de muzică” erau mai populare decât videoclipurile obișnuite despre protest, i-a convins pe oameni că cenzura era reală.

Cercetătorii numesc acest fenomen „imaginarul algoritmic”. Oamenii își schimbă comportamentul ca răspuns la convingerile despre modul în care funcționează algoritmii rețelelor sociale. Indiferent dacă aceste convingeri sunt corecte sau nu, acest comportament al utilizatorului ajunge să modeleze algoritmul însuși.

Julia Fox și ”mascara”

În urmă cu ceva timp, actrița Julia Fox a făcut o observație aparent lipsită de sensibilitate cu privire la o postare pe TikTok care menționa „mascara”.

Se pare că actrița nu știa că termenul era folosit ca înlocuitor pentru agresiune sexuală. Fox a fost criticată pentru remarca ei grosolană, iar reacțiile negative au obligat-o să își ceară scuze.

”O parte din problema cu cenzura de pe TikTok este că utilizatorii inventează atât de multe cuvinte codificate pentru a descrie subiecte serioase, încât nimeni nu știe vreodată despre ce naiba vorbește cineva, de fapt”.

Pe măsură ce această luptă lingvistică continuă, astfel de neînțelegeri par să devină mai frecvente. Și cel puțin unii termeni din limbajul algo vor pătrunde inevitabil în vocabularul folosit offline.

Ce spun reprezentanții platformelor de social media

Companiile de social media precum YouTube, Meta și TikTok resping ideea că ar avea o listă de cuvinte interzise. Mai mult, susțin că algoritmii care controlează feed-ul sunt sisteme complexe, interconectate, care utilizează miliarde de puncte de date pentru a oferi conținut relevant și satisfăcător.

Un purtător de cuvânt de la YouTube, citat de BBC, menționează că platforma nu are o listă de termeni restricționați și că politicile lor de moderare țin cont de context și de intenția cuvintelor, nu doar de prezența unui anumit termen.

Companiile spun că elimină postările, dar numai atunci când acel conținut încalcă regulile comunității clar stabilite, care sunt concepute pentru a echilibra siguranța cu libera exprimare. TikTok, Meta și YouTube spun că notifică întotdeauna utilizatorii despre aceste decizii și toate publică în mod regulat rapoarte de transparență cu detalii despre deciziile lor de moderare.

Ce arată cercetările

Totuși, realitatea este mai complexă. Algoritmii nu sunt complet transparenți, iar utilizatorii nu pot ști cu certitudine de ce unele postări sunt promovate și altele nu. Această opacitate a sistemelor duce la o autocenzură pe care utilizatorii o aplică conținutului pe care îl publică, pentru că oamenii încearcă să evite penalizările prin ajustarea limbajului.

În practică, totuși, platformele de socializare s-au amestecat în mod repetat în a stabili care voci sunt amplificate sau ”îngropate” de algoritmi, contrazicând retorica lor despre deschidere și fair-play, conform investigațiilor BBC, a grupurilor de advocacy, a cercetătorilor și a altor agenții de știri.

Investigații efectuate de BBC și Human Rights Watch au descoperit că Facebook și Instagram au restricționat sistematic utilizatorii palestinieni și conținutul care susține drepturile omului palestiniene în săptămânile care au urmat atacurilor Hamas din 7 octombrie din Israel. Un purtător de cuvânt al Meta a declarat pentru BBC că firma face ”greșeli”, dar orice sugestie că ar fi suprimat în mod deliberat anumite voci este „fără echivoc falsă”.

În 2019, documente ajunse în presă au arătat că TikTok i-a instruit pe moderatori să elimine sau să dezavantajeze conținutul utilizatorilor care erau ”urâți”, săraci, cu dizabilități sau LGBTQ+, deoarece acest material crea un mediu „mai puțin elegant și atrăgător”.

La acea vreme, TikTok a spus că practica era o măsură „directă” anti-bullying care nu mai era în vigoare. Aceleași documente au arătat că politicile TikTok interziceau transmisiunile live „controversate” atunci când utilizatorii criticau guvernele.

Pe termen lung, algospeak ridică întrebări serioase despre libertatea de exprimare, despre rolul inteligenței artificiale în spațiul public și despre modul în care limbajul uman se va adapta într-o lume în care nu mai vorbim doar unii cu alții, ci și sub privirea constantă a algoritmilor.

Sursă foto – Shuterstock.com

Abonați-vă la ȘTIRILE ZILEI pentru a fi la curent cu cele mai noi informații.
ABONEAZĂ-TE ȘTIRILE ZILEI
Comentează
Google News Urmărește-ne pe Google News Abonați-vă la canalul Libertatea de WhatsApp pentru a fi la curent cu ultimele informații
Comentează

Loghează-te în contul tău pentru a adăuga comentarii și a te alătura dialogului.