Numai că filmulețul era total fals. În
filmuleț era un ziarist de la publicația MIT Technology Review, care folosea un
algoritm dezvoltat de către Hao Li, profesor asociat la Universitatea de Sud a
Californiei și fondator al unei companii numite Pinscreen.

Filmulețul este reprezentantiv pentru un nou
fenomen online: Deepfake.

Falsul pe care îl folosim

Acesta a luat de curând prin surprindere
internetul. În esență, Deepfake este o metodă prin care se generează conținut
digital fals, precum poze și filmulețe, dar cât mai aproape de realitate.

Deepfake ca termen este derivat din combinația termenilor „deep learning,” o caracteristică inteligenței artificiale, și
fake – adică fals. Temenul se refer la o tehnică de sintetizare a imaginilor și
sunetelor pentru a crea conținut.

Iar problema este că tot mai mulți oameni
încep să folosească astfel de aplicații bazate pe inteligența artificială și
algoritmi puternici. Doar că, pe lângă amuzamentul de moment, acestea vin și cu
o mulțime de probleme.

Ce spun experții

Cum vom mai putea face diferența între
realitate și fals? Cum ne putem proteja imaginea sau datele? Libertatea a
vorbit cu mai mulți experți din domeniul securității cibernetice pentru a afla
mai multe despre fenomenul Deepfake.

Dan Demeter, expert de securitate în echipa
globală de cercetare și analiză la Kaspersky, spune că în cazul pozelor este
mult mai ușor de generat conținutul ”fake” deoarece originalul este static.

În cazul video-urilor ”fake”, este însă
necesară o muncă mult mai complexă pentru a lasă impresia că acel clip este
autentic. Cele mai grele probleme sunt folosirea unei alte fețe decât cea reală
și modificarea timbrului vocal.

”Deepfake-urile sunt, de obicei, video-uri cu persoane reale care spun și fac lucruri pe care nu le-au făcut în realitate. Acest filmări încearcă să pară cât mai autentice posibil pentru a păcăli/a influența audiența în funcție de intențiile entității care a creat Deepfake-ul”

Dan Demeter, expert securitate

Deoarece este nevoie de o putere de procesare
foarte mare, foarte multe clipuri Deepfake sunt despre evenimente care s-au
întâmplat în trecut. Acestea sunt realizate cu algoritmi de inteligență
artificială și învățare automată.

”În momentul de față, este foarte greu că un Deepfake
să fie generat în timp real. În cazul în care este creat în real-time,
calitatea video-ului s-ar putea să fie mai slabă decât cel original”, spune
Demeter.

Efecte nefaste

De obicei video-urile Deepfake sunt folosite pentru a prezenta o variantă favorabilă a unor evenimente, cu scopul de a atinge anumite obiective. Cea mai mare problema cu filmările Deepfake este că pot incrimina o persoană, pot să schimbe opinia publică sau să influențeze chiar alegerile democratice.

Demeter aduce în discuție cazul ”pixelului
albastru” de la alegerile prezidențiale din 2009, când fostul președinte Traian
Băsescu părea că a lovit un copil.

Obama cel fals și filme porno cu celebrități

Filip Truță, analist de securitate informatică la Bitdefender, spune că fenomenul Deepfake a pornit în 2017 când un utilizator Reddit cu alias-ul „deepfakes” a început să distribuie clipuri pornografice unde fețele actorilor erau înlocuite cu celebrități precum Kim
Kardashian, Gal Gadot sau Scarlett Johansson.

Au urmat și clipuri cu conținut non-erotic. Unul din acestea îl prezenta pe actorul Nicholas Cage în diverse filme în care, de fapt, nu jucase.

Alt clip celebru folosea figura fostului
președinte american Barack Obama evocând un mesaj presărat cu profanitate, mai
arată analistul Bitdefender.

”Nu credeți tot ce apare”

Dan Demter are și câteva sfaturi pentru
români.

”Cel mai important aspect este să nu credem tot ce apare în spațiul «public», mai ales informațiile de pe site-urile «obscure» sau care de-abia au fost înființate. Cea mai populară platformă de propagare a informațiilor false este de departe Facebook, urmat de platforma Twitter”

De asemenea, este important să fim critici, să
încercăm să verificăm dacă știrea pe care o citim pare veridică sau nu. Să
verificăm din mai multe surse știrile primite în feed-ul de social media sau de
la prieteni, mai arată expertul Kaspersky.

Acesta avertizează că urmează alegerile
prezidențiale și cele parlamentare din 2020, astfel că fiecare ar trebui să fie
atent la ce informații sau știri se vehiculează pe internet sau în spațiul
fizic.

Filip Truță spune că un ochi antrenat poate depista „artefacte” vizuale care dau de gol un video de tip Deepfake, dar tehnologia din spatele său evoluează atât de rapid încât depistarea unui „fake” devine din ce în ce mai dificilă, chiar și pentru experți.

În final, tot inteligența artificială poate
găsi un astfel de ”deepfake”.

Deepfake audio cu pagubă de 243.000 de dolari

Primul caz de Deepfake audio a avut loc chiar săptămâna asta la o companie energetică din Marea Britanie.

Potrivit unui articol din Wall Street Journal,
infractorii cibernetici au reușit să imite vocea unui director de companie,
păcălind un alt șef din firmă să transfere fonduri către un cont controlat de
atacatori. Paguba: 243.000 de dolari.

Problema datelor private

Pe lângă știrile false, o altă problemă a
Deepfake-urilor o constituie colectarea de date personale.

Recent, o aplicație Deepfake din China a
început să provoace temeri de fraudă și securitate. Aceasta se numește Zao și
folosește inteligența artificială pentru a insera fețele utilizatorilor în
anumite scene de film.

Aplicația a apărut în
data de 29 august și a devenit virală. Atât de populară este încât există
temeri că ar putea fi folosită pentru plăți realizate cu ajutorul sistemelor de
recunoaștere facială. Companiile de plăți au fost forțate să nege această
posibilitate, în timp ce dezvoltatorul aplicației și-a cerut scuze utilizatorilor.
Aceștia au sesizat că termenii înțelegerilor stipulau că oamenii renunță la
drepturile asupra imaginilor lor și că le pot transfera oricând unor terți

Urmărește-ne pe Google News