luni 24 noiembrie
EUR 5.0871 USD 4.4086
Abonează-te
Newsweek România

„Pe cât de FAKE, pe atât de prost realizat”. Poliția dezvăluie cum putem să ne protejăm de escrocherii

Data publicării: 24.11.2025 • 15:20 Data actualizării: 24.11.2025 • 16:31
Fake News - Foto: Freepik (rol ilustrativ)
Fake News - Foto: Freepik (rol ilustrativ)
Polițist Fake- Foto: Poliția Română
Polițist Fake- Foto: Poliția Română
Imagine fake - Foto: Poliția Română
Imagine fake - Foto: Poliția Română

Inteligența artificială a avansat în ultimii ani, permițând crearea de videoclipuri și imagini extrem de realiste. Poliția Română atrage atenția asupra conținutului făcut cu AI din mediul online și capcanele în care pot cădea oamenii.

În prezent, aceste tehnologii sunt folosite în principal pentru divertisment, însă un aspect negativ îl reprezintă faptul că acestea sunt utilizate ca un instrument de inducere în eroare a oamenilor, cu scopul de a obține câștiguri financiare nelegale. 

Deepfake-urile (videoclipuri false create cu AI) și imaginile generate artificial au devenit instrumentele preferate ale autorilor infracțiunilor din domeniul criminalității informatice, promovate masiv pe rețelele de socializare.

Cetățenii de bună-credință sunt induși în eroare de aceste „capcane” crezând că văd celebrități, experți financiari sau persoane aflate la nevoie, transmite Poliția Română.

„Pe cât de FAKE, pe atât de prost realizat”. Poliția atrage atenția asupra escrocheriilor făcute cu AI

Poliția explică cum putem face diferența dintre materiale reale și DEEPFAKE sau conținut generat integral cu AI:

1.⁠ ⁠Trebuie verificat clipitul ochilor → în multe deepfake-uri vechi, clipitul era anormal, însă, în anul 2025, acest aspect a fost îmbunătățit considerabil, dar încă apar inconsistențe;

2.⁠ ⁠Mișcările buzelor și sincronizarea cu sunetul → adesea nu sunt perfecte, mai ales în limbi non-engleză;

3.⁠ ⁠Iluminarea și umbrele → verifică dacă lumina de pe față se potrivește cu fundalul;

4.⁠ ⁠Reflexii în ochi și dinți → adesea lipsesc sau sunt nenaturale;

5.⁠ ⁠Mâini și degete → încă o slăbiciune majoră a multor modele A.I. – aspectul degetelor este anormal, ori sunt prea multe sau prea puține;

6.⁠ ⁠Caută artefacte → pete ciudate, blur în jurul feței, tranziții nenaturale;

7.⁠ ⁠Mâini și degete deformate (apar încă frecvent la deepfake-urile prezente în anul 2025);

8.⁠ ⁠Fundal inconsistent sau obiecte topite;

9.⁠ ⁠Ochi asimetrici sau pupile anormale;

10.⁠ ⁠Păr anormal sau îmbrăcăminte care nu are sens fizic;

11.⁠ ⁠Aspecte ale unor obiecte sau bunuri din videoclip sau imagine care par deformate;

12.⁠ ⁠Folosește reverse image search (Google Lens, TinEye) – dacă imaginea nu apare nicăieri altundeva înainte de data postării, e suspectă.

Citește și: Escrocherie fără limite. Hackerii au descoperit cum vă pot fura banii de la bancomat fără a folosi cardul

Polițist Fake- Foto: Poliția Română
Polițist Fake - Foto: Poliția Română

Cum operează escrocii care folosesc AI?

Cele mai frecvente moduri de operare întâlnite în anul 2025 sunt:

    Trading scam și investment fraud
Videoclipuri deepfake cu oameni de afaceri, de notorietate sau cu politicieni care „recomandă” platforme de investiții crypto, forex sau „inteligență artificială miraculoasă” care promit multiplicarea banilor peste noapte. Victimele sunt direcționate către site-uri false unde depun bani spre a fi investiți și care, în realitate, ajung la autori prin diferite scheme de transfer de monede (virtuale sau fiat).

    Scam-uri caritabile
Deepfake-uri cu copii bolnavi, victime ale dezastrelor sau celebrități care cer donații urgente. Oamenii donează, prin intermediul unor link-uri false, iar sumele de bani ajung direct la infractori.

    Romance scam îmbunătățit cu ajutorul AI
Utilizarea de către infractori a unor profiluri false cu poze și videoclipuri generate de AI cu persoane atractive din punct de vedere al aspectului și caracterului, prin intermediul cărora dezvoltă relații emoționale, apoi cer bani pentru „urgențe medicale” sau „bilete de avion”.

    CEO/CFO fraud (Business E-mail Compromise evoluat)
Utilizarea de către infractori de video-call-uri deepfake în care „șeful” cere transferuri urgente de bani. 

    Impersonare celebrități pentru produse false
Deepfake-uri cu diverse personalități care „oferă gratuit” produse. 

Potrivit statisticilor din anul 2025, tentativele de fraudă cu deepfake au crescut foarte mult pe fondul avansării tehnologiei bazate pe inteligență artificială, iar pierderile financiare globale se ridică la zeci de miliarde de dolari, anual.

Persoane „inventate” cu AI

Un alt fenomen întâlnit în practică este crearea de imagini cu persoane complet fictive, generate de tool-uri, imagini care sunt perfecte și descriu persoane frumoase, zâmbitoare, care par 100% reale, dar care nu există în realitate.

Aceste imagini sunt folosite masiv în moduri de operare precum:
    Romance scams și catfishing;  
    Profiluri false de influenceri care promovează produse sau diverse tipuri de înșelătorii sau investiții;
    Crearea de „martori” în povești false de investiții („Uite câți oameni s-au îmbogățit!”);
    Șantaj sau hărțuire (poze false cu persoane în situații compromițătoare).

Citește și: Încă o escrocherie pentru utilizatorii de Gmail. Escrocii sună și spun că sunt de la Google. Ce vor?

Utilizarea inteligenței artificiale în scopuri ilegale poate duce la diverse consecințe, atât din punct de vedere financiar, cât și din punct de vedere al manipulării, precum:
    Pierderi financiare directe;
    Traume emoționale (oameni care donează ultimii bani pentru „copii bolnavi” inexistenți sau se îndrăgostesc de persoane false);
    Erodarea încrederii în media și instituții: „Dacă nimic nu mai e real, atunci nimic nu mai contează”;
    Manipulare politică și electorală (deepfake-uri cu candidați care spun lucruri pe care nu le-au spus niciodată);
    Distrugerea reputației personale (revenge porn deepfake, folosit în special împotriva femeilor);
    Amenințări la securitatea națională (deepfake-uri cu lideri politici care declară război etc.).

Imagine fake - Foto: Poliția Română
Imagine realizată cu AI - Foto: Poliția Română

Cum să ne ferim de fake-urile care circulă în online?

Tot în acest sens, recomandăm mai multe măsuri de protecție și prevenire pentru cetățeni:

1. Regula care se aplică pentru toate măsurile de protecție împotriva oricărei tentative de înșelăciune: Dacă pare prea frumos ca să fie adevărat (îmbogățire rapidă, cadouri de la celebrități, iubire perfectă în două săptămâni etc.), ESTE FALS;

2. Nu da click pe link-uri din reclame sau mesaje nesolicitate;

3. Nu transfera bani niciodată cuiva pe care l-ai cunoscut doar online;

4. Verifică întotdeauna sursa oficială: Dacă un om de afaceri, o persoană de notorietate sau orice altă personalitate promovează ceva, caută pe contul acesteia oficial de pe rețelele de socializare verificat și vezi dacă a postat acolo;

5. Activați autentificarea în doi pași (2FA) în aplicațiile și conturile importante, folosind o aplicație de tip „Authenticator” (nu doar SMS);

Citește și: Ce poți să mai faci dacă deja ai căzut într-o escrocherie? Metode care te ajută să-ți salvezi banii

6. Este necesară raportarea conținutului suspect pe platformele pe care apare;

7. Se pot folosi extensii browser care detectează automat deepfake-urile;

8. În cazurile în care ați fost victima unei înșelăciuni în mediul online, sesizați cât mai rapid organele judiciare, întrucât o reacție promptă poate sprijini în mod semnificativ desfășurarea investigațiilor.

De la „îmbogățire rapidă” la negarea științei demonstrate

Pe lângă scam-urile financiare și caritabile deja cunoscute, infractorii și grupările de dezinformare folosesc videoclipuri A.I. hiper-realiste pentru a induce în eroare populația în privința adevărurilor științifice fundamentale:

    Videoclipuri în care „astronauți NASA” mărturisesc în lacrimi că „aselenizarea a fost filmată în studio” și că „Pământul este plat”
    „Oameni de știință renumiți” (de fapt deepfake-uri perfecte) care declară că „vaccinurile conțin cipuri 5G” sau că „încălzirea globală este o minciună”
    „Medici celebri” care recomandă tratamente minune împotriva cancerului cu bicarbonat și lămâie
    „Martori oculari” din Ucraina sau Orientul Mijlociu care povestesc atrocități inventate, cu fețe și voci perfect copiate.

Acestea nu mai sunt doar postări izolate pe grupuri conspirative. În anul 2025, astfel de clipuri ajung în trend pe rețelele de socializare, sunt distribuite de conturi cu sute de mii de followeri și sunt preluate chiar și de televiziuni locale care nu verifică sursele.

*

În ultima perioadă, au fost reclamate mai multe fapte realizate cu inteligența artificială, fiind create mai multe videoclipuri false cu un ofițer de poliție sau cu alte persoane care se recomandă a fi consultanți financiari, în vederea inducerii în eroare a victimelor de a realiza investiții fictive sau a obține date financiare pentru a putea efectua, ulterior, tranzacții neautorizate.    

În acest sens, pe lângă recomandările sus-menționate, facem precizarea că niciodată polițiștii nu vor apela cetățenii cu video, prin intermediul anumitor aplicații și cu atât mai mult nu vor face recomandări de investiții. 

Totodată, polițiștii colaborează doar instituțional cu unitățile bancare, în vederea recuperării prejudiciilor sau în cadrul activităților desfășurate și nu vor face recomandări sau îndrumări cetățenilor în niciun fel, de genul „urmează să fiți sunați de banca X sau de vreo altă instituție financiară”. 

Atașăm mai jos fotografii cu cele două persoane care se recomandă a fi din cadrul Poliției Române. După cum am menționat mai sus, se poate constata cu ușurință că hainele pe care le poartă prima persoană nu reprezintă o uniformă de poliție, gradele de pe umeri neexistând în cadrul Poliției Române, cele reale fiind reprezentate de stele.

Mai multe articole din secțiunea Actualitate
Comentarii 0
Trebuie să fii autentificat pentru a comenta!

Newsweek România Abonamente

Print

Print

  • Revista tipărită
  • Acces parțial online
  • Fără reclame
Abonează-te
Print + Digital

Print + Digital

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Fără reclame
Abonează-te
Digital

Digital

  • Acces total online
  • Acces arhivă
  • Fără reclame
Abonează-te
Newsweek România
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te
Newsweek România
Newsweek România Ultima oră
Newsweek România
Ultima oră