Inteligența artificială (AI) a avansat în ultimii ani, permițând crearea de videoclipuri și imagini extrem de realiste. Aceste tehnologii sunt folosite în principal pentru divertisment, însă un aspect negativ îl reprezintă faptul că acestea sunt utilizate ca un instrument de inducere în eroare a oamenilor, cu scopul de a obține câștiguri financiare nelegale.
Deepfake-urile (videoclipuri false create cu AI) și imaginile generate artificial au devenit instrumentele preferate ale autorilor infracțiunilor din domeniul criminalității informatice, promovate masiv pe rețelele de socializare.
Cetățenii de bună-credință sunt induși în eroare de aceste „capcane” crezând că văd celebrități, experți financiari sau persoane aflate la nevoie.
Poliția Română prezintă, într-un comunicat, principalele înșelătorii realizate cu ajutorul inteligenței artificiale, consecințele și riscurile acestora, dar și sfaturi pentru a deosebi un deepfake de realitate.
Cele mai frecvente moduri de operare în 2025 sunt:
- Trading scam și investment fraud: videoclipuri cu oameni de afaceri sau politicieni care recomandă platforme false de investiții; victimele pierd bani trimițându-i pe site-uri false.
- Scam-uri caritabile: deepfake-uri cu copii bolnavi sau victime ale dezastrelor, care solicită donații false.
- Romance scam: profile false generate cu AI pentru a dezvolta relații emoționale și a cere bani pentru „urgențe”.
- CEO/CFO fraud: video-call-uri deepfake cu „șefi” care cer transferuri urgente de bani.
- Impersonarea celebrităților: deepfake-uri cu personalități care „oferă gratuit” produse false.
Imagini AI cu persoane fictive
Crearea de imagini cu persoane complet fictive devine o tactică frecventă:
- Profile false pentru romance scams sau promovarea produselor frauduloase.
- „Martori” fictivi în povești de investiții false.
- Șantaj sau hărțuire online.
Consecințe și riscuri
- Pierderi financiare directe.
- Traume emoționale și manipulare afectivă.
- Erodarea încrederii în media și instituții.
- Manipulare politică și electorală.
- Distrugerea reputației personale și amenințări la securitatea națională.
Cum recunoaștem un videoclip sau o imagine deepfake
1. Trebuie verificat clipitul ochilor → în multe deepfake-uri vechi, clipitul era anormal, însă, în anul 2025, acest aspect a fost îmbunătățit considerabil, dar încă apar inconsistențe;
2. Mișcările buzelor și sincronizarea cu sunetul → adesea nu sunt perfecte, mai ales în limbi non-engleză;
3. Iluminarea și umbrele → verifică dacă lumina de pe față se potrivește cu fundalul;
4. Reflexii în ochi și dinți → adesea lipsesc sau sunt nenaturale;
5. Mâini și degete → încă o slăbiciune majoră a multor modele A.I. – aspectul degetelor este anormal, ori sunt prea multe sau prea puține;
6. Caută artefacte → pete ciudate, blur în jurul feței, tranziții nenaturale;
7. Mâini și degete deformate (apar încă frecvent la deepfake-urile prezente în anul 2025);
8. Fundal inconsistent sau obiecte topite;
9. Ochi asimetrici sau pupile anormale;
10. Păr anormal sau îmbrăcăminte care nu are sens fizic;
11. Aspecte ale unor obiecte sau bunuri din videoclip sau imagine care par deformate;
12. Folosește reverse image search (Google Lens, TinEye) – dacă imaginea nu apare nicăieri altundeva înainte de data postării, e suspectă.
Sfaturi de protecție pentru cetățeni
- Dacă pare prea frumos ca să fie adevărat, este fals.
- Nu da click pe link-uri suspecte.
- Nu trimite bani persoanelor cunoscute doar online.
- Verifică sursele oficiale înainte de a crede recomandările.
- Activează autentificarea în doi pași (2FA).
- Raportează conținutul suspect pe platforme.
- Folosește extensii de browser pentru detectarea deepfake-urilor.
-
În caz de înșelăciune online, sesizează rapid autoritățile.
Dezinformare și negarea științei
Clipurile AI hiper-realiste sunt folosite pentru a răspândi teorii conspiraționiste:
- „Astronauți” care susțin că aselenizarea a fost filmată în studio.
- „Oameni de știință” care neagă vaccinurile sau încălzirea globală.
- „Medici celebri” care recomandă tratamente false.
- Martori oculari inventați pentru a relata atrocități fictive.
Utilizarea inteligenței artificiale în scopuri ilegale poate duce la diverse consecințe, atât din punct de vedere financiar, cât și din punct de vedere al manipulării, precum:
- Pierderi financiare directe;
- Traume emoționale (oameni care donează ultimii bani pentru „copii bolnavi” inexistenți sau se îndrăgostesc de persoane false);
- Erodarea încrederii în media și instituții: „Dacă nimic nu mai e real, atunci nimic nu mai contează”;
- Manipulare politică și electorală (deepfake-uri cu candidați care spun lucruri pe care nu le-au spus niciodată);
- Distrugerea reputației personale (revenge porn deepfake, folosit în special împotriva femeilor);
- Amenințări la securitatea națională (deepfake-uri cu lideri politici care declară război etc.).
Acestea nu mai sunt doar postări izolate pe grupuri conspirative. În anul 2025, astfel de clipuri ajung în trend pe rețelele de socializare, sunt distribuite de conturi cu sute de mii de followeri și sunt preluate chiar și de televiziuni locale care nu verifică sursele.
