Algoritmul de recomandări al TikTok a început să promoveze conținut despre automutilare și tulburări de alimentație către adolescenți la câteva minute după ce aceștia și-au exprimat interesul pentru aceste subiecte, sugerează o cercetare a Centrului pentru combaterea urii digitale (CCDH). 

Practic au constatat că site-ul de partajare de videoclipuri va promova conținut care include diete periculos de restrictive, conținut care promovează automutilarea și care romanțează sinuciderea către utilizatorii care manifestă o preferință pentru aceste materiale, chiar dacă aceștia sunt înregistrați ca fiind minori.

Pentru studiul său, grupul de campanie a creat conturi în SUA, Regatul Unit, Canada și Australia, înregistrate cu vârsta de 13 ani – vârsta minimă pentru a se înscrie pe acest serviciu. Grupul a creat conturi „standard” și „vulnerabile”, acestea din urmă conținând termenul „loseweight” (pierdere în greutate – n.r.) în numele de utilizator, ceea ce, potrivit CCDH, sunt nume pe care adesea le aleg pe aceste rețele de socializare cei care caută conținut despre tulburările de alimentație.

Conținutul despre sinucidere a început să fie afișat după trei minute

De la momentul lansării, conturile au făcut o „scurtă pauză”, cam de 30 de minute, la videoclipurile despre imaginea corporală, tulburările alimentare și sănătatea mintală, în încercarea de a surprinde eficiența algoritmului TikTok care recomandă conținut utilizatorilor.

REPORTAJ. Un castel vechi de secole, din Ardeal, lăsat în voia sorții de beneficiarii retrocedării și de autorități: „Nu sunt fantome aici, doar sărăcie!”
Recomandări
REPORTAJ. Un castel vechi de secole, din Ardeal, lăsat în voia sorții de beneficiarii retrocedării și de autorități: „Nu sunt fantome aici, doar sărăcie!”

Pe conturile „standard”, conținutul despre sinucidere a început să fie afișat în aproape trei minute, iar materialele despre tulburările de alimentație au fost afișate în opt minute.

„Rezultatele sunt coșmarul oricărui părinte”, a declarat Imran Ahmed, directorul executiv al CCDH. „Feed-urile tinerilor sunt bombardate cu conținut dăunător, chinuitor, care poate avea un impact cumulativ semnificativ asupra înțelegerii lumii din jurul lor și asupra sănătății lor fizice și mentale”, a mai spus acesta.

Grupul a declarat că majoritatea videoclipurilor despre sănătatea mintală prezentate în conturile sale standard prin intermediul feed-ului For You – principalul mod în care utilizatorii TikTok experimentează aplicația – constau în faptul că utilizatorii își împărtășesc anxietățile și nesiguranța.

La fiecare trei minute jumătate, un utilizator TikTok vede un clip cu automutilare sau tulburări de alimentație. „Coșmarul oricărui părinte”
Studiul a încercat să vadă modul de răspândire a conținutului care prezintă un risc pentru utilizatorii vulnerabili

Clipurile ajung mai ales la conturile „vulnerabile”

Conținutul referitor la imaginea corporală a fost mai dăunător, potrivit raportului, în conturile înregistrate pentru copii de 13 ani fiind prezentate videoclipuri care fac publicitate pentru băuturi pentru slăbit și operații de „burtică”. O animație care a apărut în fața conturilor standard era însoțită de o bucată de material audio care spunea „M-am înfometat pentru tine” și a avut peste 100.000 de like-uri. Raportul a precizat că pe conturi au fost afișate clipuri video cu automutilare sau cu tulburări de alimentație la fiecare 206 secunde.

Revista Der Spiegel despre sistemul de transfer al tinerilor germani cu probleme în România: ”Mă simt ca Dumnezeu”, a spus tânărul neamț judecat pentru uciderea unei pensionare din România
Recomandări
Revista Der Spiegel despre sistemul de transfer al tinerilor germani cu probleme în România: ”Mă simt ca Dumnezeu”, a spus tânărul neamț judecat pentru uciderea unei pensionare din România

Cercetătorii au constatat că videoclipurile legate de imaginea corporală, sănătatea mintală și tulburările alimentare au fost afișate conturilor „vulnerabile” de trei ori mai mult decât conturilor standard. Conturile vulnerabile au primit de 12 ori mai multe recomandări pentru videoclipuri legate de automutilare și sinucidere decât conturile standard, se arată în raport.

CCDH a precizat că la fiecare 27 de secunde a fost difuzat un videoclip legat de sănătatea mintală sau de imaginea corporală, deși conținutul a fost dominat de videoclipuri despre sănătatea mintală, pe care CCDH le-a definit ca fiind videoclipuri despre anxietate, nesiguranță și afecțiuni psihice, cu excepția tulburărilor de alimentație, a automutilării și a sinuciderii.

Grupul a precizat că cercetarea sa nu a făcut diferența între conținutul cu o intenție pozitivă – cum ar fi conținutul care descoperă recuperarea – și conținutul negativ.

Un purtător de cuvânt al TikTok, care este deținută de firma chineză ByteDance și are peste un miliard de utilizatori în întreaga lume, a declarat că studiul CCDH nu reflectă experiența sau obiceiurile de vizionare ale utilizatorilor reali ai aplicației.

„Ne consultăm în mod regulat cu experți în domeniul sănătății, eliminăm încălcările politicilor noastre și oferim acces la resurse de sprijin pentru oricine are nevoie”, au spus ei. „Suntem conștienți de faptul că pentru fiecare individ conținutul declanșator este unic și rămânem concentrați pe promovarea unui spațiu sigur și confortabil pentru toată lumea, inclusiv pentru persoanele care aleg să împărtășească călătoriile lor de recuperare sau să îi educe pe alții cu privire la aceste subiecte importante”.

Podcast RECORDER despre politizarea instituțiilor de stat: ”Șeful ASF își amenință colegii că le face plângeri penale pentru că au dat informații presei despre nereguli. Vă dați seama unde cred ei că trebuie puse resursele statului?!”
Recomandări
Podcast RECORDER despre politizarea instituțiilor de stat: ”Șeful ASF își amenință colegii că le face plângeri penale pentru că au dat informații presei despre nereguli. Vă dați seama unde cred ei că trebuie puse resursele statului?!”

Un proiect de lege privind siguranța online din Regatul Unit propune ca rețelele de socializare să fie obligate să ia măsuri împotriva așa-numitului conținut „legal, dar dăunător” care le este prezentat copiilor.

Țara în care Ilie Dumitrescu a refuzat să meargă, indiferent de câștigul financiar: "Nu poţi să stai cu o femeie de vorbă. Nu poţi să faci nimic"
GSP.RO
Țara în care Ilie Dumitrescu a refuzat să meargă, indiferent de câștigul financiar: "Nu poţi să stai cu o femeie de vorbă. Nu poţi să faci nimic"
Urmărește-ne pe Google News
Comentarii (3)

Uranon   •   19.12.2022, 20:08

Mi se pare cam prostesc.Desigur,exista conturi sau continut cu subiecteul de anxietatii sau greutati din viata,insa nu am vazut nici unul care sa spuna ca un utilizator s a sinucis,iar daca acel tip de continut il deranjeaza pe un alt utilizator acesta poate da ca nu este interesant de acel tip de contiunt.Daca videoclipul a avut un impact puternic asupra publicului acesta poate raporta videoclipul sau contul iar oamenii care lucreaza la respectiva aplicatie se pot uita si decide ce vor face cu acesta.

ivryernest   •   16.12.2022, 12:56

Este foarte evident că e vorba de un atac vicios al civilizației occidentale, din partea Chinei. Și nu e primul.

pikpik   •   16.12.2022, 12:52

Din cate stiu se poate face raport la video cu pricina si se pedepseste chiar cu blocarea contului.

Comentează

Loghează-te în contul tău pentru a adăuga comentarii și a te alătura dialogului.