Cu inteligenţa artificială, devine mai ieftin să faci deep fake. Oricine va spune, aparent, orice

DE Florin Budescu | Actualizat: 14.03.2023 - 12:13
Cu inteligenţa artificială, devine mai ieftin să faci deep fake. Oricine va spune, aparent, orice - Foto: captură video YouTube/Today

Traficanții de dezinformări adoptă cu rapiditate noile instrumente de inteligență artificială, pentru a crea videoclipuri false convingătoare, la preț redus. N-ar fi complet deplasat ca o persoană publică sau alta să fie făcută să spună ce nu a spus vreodată.

SHARE

De exemplu, Joe Rogan, un comediant devenit podcaster, să susțină o marcă de cafea... care stimulează libidoul bărbaților.

Cu IA, devine mai ieftin să faci deep fake

Când un videoclip, care a circulat recent pe TikTok, i-a arătat pe Rogan și pe oaspetele său, Andrew Huberman, vânzând realmente cafeaua, unii telespectatori atenţi au fost șocați, inclusiv dr. Adrew Huberman, un cercetător american în Neurologie.

„Da, este un fake”, a scris Huberman pe Twitter, după ce a văzut anunțul, care pare să laude potențialul de creștere a testosteronului, cu ajutorul cafelei, deși Rogan nu a făcut asta niciodată, conform The New York Times.

Fake-uri AI

O reclamă pe TikTok a combinat un videoclip real al lui Andrew Huberman, cu o versiune modificată a vocii lui Joe Rogan, despre care experții spun că a fost probabil generată cu inteligență artificială.

Anunțul a fost unul dintr-un număr tot mai mare de videoclipuri false de pe rețelele sociale, realizate cu tehnologie alimentată de inteligența artificială.

Experții au spus că vocea lui Rogan părea să fi fost sintetizată folosind IA - instrumente care imită vocile celebrităților. Comentariile lui Huberman au fost rupte din context. Ele proveneau dintr-un interviu care nu are legătură cu subiectul.

Citeşte şi: Ce nou deepfake cu Zelenski pregătește Rusia

Realizarea de videoclipuri false realiste, numite adesea deepfakes, avea nevoie de un software elaborat, pentru a pune fața unei persoane, peste cea a alteia.

Dar acum multe dintre instrumentele pentru a le crea sunt disponibile pentru consumatorii obișnuiți, chiar și în aplicațiile pentru smartphone, adesea pentru bani puțini sau deloc.

Citeşte şi: Fake news demontat cu filmări. Zeci de mii de vagoane cu bușteni nu ies, ci intră anual în România

Noile videoclipuri modificate - în cea mai mare parte, până acum, munca creatorilor de meme și a agenților de marketing - au devenit virale pe site-uri de socializare precum TikTok și Twitter.

Conținutul pe care îl produc, uneori categorisite de cercetători drept falsuri ieftine, funcționează prin clonarea vocilor celebrităților, modificând mișcările gurii, pentru a se potrivi audio, folosind dialoguri persuasive inexistente.

Moderare

Videoclipurile și tehnologia accesibilă din spatele lor au niște instrumente IA. Cercetătorii se îngrijorează de pericolul pe care le reprezintă și au exprimat noi îngrijorări, cu privire la faptul că social media nu este pregătită să modereze falsificarea digitală în creștere.

Cei ce monitorizează dezinformarile se pregătesc și ei înșiși pentru un val de falsuri digitale, care ar putea înșela spectatorii sau ar putea îngreuna să știi ce este adevărat sau ce este fake în online.

Toţi pot face asta

„Ceea ce este diferit este că toată lumea o poate face acum”, a spus Britt Paris, profesor asistent de Biblioteconomie și Ştiința Informației la Universitatea Rutgers, care a ajutat la inventarea termenului de „fake-uri ieftine”, spune:

„Nu sunt doar oameni cu tehnologie de calcul sofisticată și cunoștințe de calcul destul de sofisticate. În schimb, este o aplicație gratuită.”

Dezinformări negaţioniste

O mulțime de conținut manipulat a circulat pe TikTok și în alte părți, de ani de zile, utilizând de obicei mai multe trucuri casnice, cum ar fi editarea atentă sau schimbarea unui clip audio cu altul.

Într-un videoclip de pe TikTok, vicepreședintele Kamala Harris a părut să spună că toți cei spitalizați pentru Covid-19 au fost vaccinați. De fapt, ea a spus că pacienții nu erau vaccinați.

Graphika, o firmă de cercetare care studiază dezinformarea, a descoperit falsuri cu prezentarea de știri fictive, pe care conturile bot pro-China le-au distribuit la sfârșitul anului trecut, în primul exemplu cunoscut de utilizare a tehnologiei pentru campanii de influență aliniate la propaganda unui stat.

Deep fake cu Joe Biden

Mai multe instrumente noi oferă o tehnologie similară utilizatorilor de Internet obișnuiți, oferind comedianților și partizanilor șansa de a-și crea propriile parodii şi discursuri convingătoare.

Luna trecută, a circulat un videoclip fals, în care președintele Biden declara inaugurarea unui proiect național pentru războiul dintre Rusia și Ucraina.

Videoclipul a fost produs de echipa din spatele „Human Events Daily”, un podcast cu stream live condus de Jack Posobiec, un influencer de dreapta, cunoscut pentru răspândirea teoriilor conspirației.

Într-un segment care explică videoclipul, domnul Posobiec a spus că echipa sa l-a creat folosind tehnologia AI. Un tweet despre videoclipul de la The Patriot Oasis, un cont conservator, a folosit o etichetă de știri de ultimă oră, fără a indica faptul că videoclipul este fals. Tweet-ul a fost vizualizat de peste opt milioane de ori.

Urmărește-ne pe Google News

Comentarii 0

Trebuie să fii autentificat pentru a comenta!

Alege abonamentul care ți se potrivește

Print

  • Revista tipărită
  • Acces parțial online
  • Newsletter
  •  
Abonează-te

Digital + Print

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Newsletter
Abonează-te

Digital

  • Acces total online
  • Acces arhivă
  • Newsletter
  •  
Abonează-te
© 2024 NEWS INTERNATIONAL S.A.
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te