Jurnalista BBC povestește că și-a dat seama că e bisexuală în al doilea an de facultate, însă marile companii tech, precum Netflix sau Spotify, păreau să știe asta cu destule luni înaintea ei. 

În facultate avea o relație destul de lungă cu iubitul ei și pe atunci folosea regulat Netflix, primind din ce în ce mai multe recomandări de seriale cu povești despre lesbiene sau personaje bisexuale.

Seriale pe care prietenii ei – persoane cu vârste, vieți și istoric de căutări aproape similare – nu le primeau și de care nu auziseră.

Unul dintre serialele care au ieșit în evidență, povestește jurnalista, a fost You Me Her, despre un cuplu căsătorit dintr-o suburbie din SUA care invită o a treia persoană în relația lor. Cu multe referințe queer și personaje bisexuale, serialul a fost numit drept „prima comedie poliamoroasă de pe TV”.

Dincolo de Netflix, platforma de muzică Spotify i-a recomandat un playlist cu conotații bisexuale. După două luni pe aplicația TikTok, feedul a început să se împânzească de conținut de la creatori bisexuali. 

La câteva luni de la toate aceste semne, jurnalista a realizat că ea însăși e bisexuală, întrebându-se totuși care au fost semnele pe care ea le-a ignorat, dar platformele le-au citit corect.

Algoritmul, „cupidon digital”

Netflix are 222 de milioane de utilizatori globali și mii de filme și seriale dintr-o plajă interminabilă de genuri. Dar un utilizator individual trece în medie prin șase genuri pe lună.

Ca să poată arăta oamenilor conținutul pe care Netflix crede că vor să-l vadă, compania folosește un sistem de recomandare puternic. 

Rețeaua de algoritmi ajută la decizia de ce videouri, imagini și trailere ajung pe pagina de pornire a fiecărui utilizator. Spre exemplu, serialul You Me Her menționat mai devreme poartă codul 100010, ceea ce înseamnă că în aplicație îl găsești la categoria de povești LGBTQ+.

Rolul sistemului de recomandări e precum al unui „cupidon digital” care potrivește utilizatorii cu conținutul platformei. De la coloana sonoră și tematica filmelor, la actori, totul reprezintă o etichetă internă. Astfel, algoritmul poate prezice cine e mai înclinat să aleagă un anumit tip de conținut. 

Îți poți descărca istoricul de pe platformele de conținut

În baza legii privind datele private, utilizatorii au dreptul de a afla informațiile pe care organizațiile le rețin, iar multe platforme au creat un sistem automat prin care să le poți cere aceste date. 

Jurnalista a cerut și descărcat datele ei de la opt dintre cele mai mari platforme, dintre care:

  • Facebook a urmărit site-urile accesate alături de coordonatele adresei de acasă.
  • Instagram avea o listă de mai bine de 300 de teme despre care credea că ar fi interesată, pe care le folosea pentru reclame personalizate.
  • De la Netflix a primit un tabel detaliat cu fiecare trailer și program vizionat, când, pe ce dispozitiv și dacă le-a pornit automat sau au fost selectate manual. (Dacă ai abonament, și tu îți poți descărca istoricul.) 

Cu toate acestea, în datele furnizate de platforme nu existau dovezi privind etichete care să ofere informații cu privire la sexualitatea femeii. 

Într-o declarație pentru BBC, Spotify menționează că datele colectate de companie nu includ orientarea sexuală, iar algoritmii nu fac predicții cu privire la asta pe baza preferințelor consumatorilor. 

Cei de la Netflix au întărit, de asemenea, ideea, spunând că ce și cum aleg clienții să privească e un indicator mai bun al preferințelor lor decât datele demografice, precum vârsta sau genul. 

Contează cum consumăm conținutul și mai puțin ce alegem

Greg Serapio-Garcia, doctorand la Universitatea din Cambridge, specializat în psihologie socială computațională, explică faptul că noi nu furnizăm specific informații despre noi. „Nimeni nu le spune explicit celor de la Netflix că sunt gay.” Dar platforma poate vedea când utilizatorii apreciază conținutul queer, spre exemplu.

Potrivit studentului, chiar și consumul de conținut neexclusiv LGBTQ+ furnizează algoritmului informația că suntem înclinați la un astfel de gen. Alte detalii folositoare sistemului pot fi de asemenea procentul celor care urmăresc un program până la final sau nu ori dacă trec prin creditele filmului sau serialului. 

Recomandările țintite pot însemna și un pericol

Vorbind cu persoane din comunitatea queer din diferite colțuri ale lumii, jurnalista a primit mesaje mixte vizavi de acuratețea algoritmilor. În timp ce unii dintre ei consideră recomandările folositoare, chiar eliberatoare gândindu-se la viața pe care ar putea s-o trăiască dacă nu ar fi nevoiți să-și ascundă orientarea sexuală, alții s-au declarat îngrijorați; de la invadarea intimității, până la teama în sine că algoritmii ajung să culeagă atâtea date despre noi.

Abonați-vă la ȘTIRILE ZILEI pentru a fi la curent cu cele mai noi informații.
ABONEAZĂ-TE ȘTIRILE ZILEI
Google News Urmărește-ne pe Google News Abonați-vă la canalul Libertatea de WhatsApp pentru a fi la curent cu ultimele informații
Comentarii (12)
Avatar comentarii

Frumosul1 13.08.2023, 17:43

Tehnologia ne o ia înainte deja știe ce ne place

Avatar comentarii

Aura1 13.08.2023, 18:36

Asta e, trebuie să acceptăm că tehnologia ne studiază comportamentul.

Avatar comentarii

EmiM 13.08.2023, 19:46

Ciudat

Vezi toate comentariile (12)
Comentează

Loghează-te în contul tău pentru a adăuga comentarii și a te alătura dialogului.