AGI - Mentre le città sono illuminate per le festività, una nuova forma di nebbia digitale sta avvolgendo i nostri schermi. In questo scorcio di fine 2025, il confine tra ciò che è reale e ciò che è generato dall'intelligenza artificiale non è mai stato così sottile. Tra gli auguri su WhatsApp e il feed infinito dei social, ci troviamo immersi nell'era della post-verità 2.0, dove un video non è più una prova e un'immagine può essere un miraggio algoritmico.
Dalle recenti elezioni internazionali, segnate da scandali mediatici sintetici, ai conflitti globali raccontati attraverso pixel manipolati, la verifica delle fonti è diventata la competenza civile più importante del nostro tempo. Ma come possiamo difenderci in questo mare di incertezza senza annegare nella disinformazione?
Il caso delle elezioni irlandesi
Per capire la portata del rischio, basta guardare a quanto accaduto durante le elezioni presidenziali in Irlanda lo scorso ottobre. Un video della candidata Catherine Connolly ha fatto il giro del web: con voce rotta dall'emozione, annunciava il ritiro per motivi personali. Era un falso perfetto. Il video è rimasto online per sei ore cruciali, totalizzando milioni di visualizzazioni prima che la smentita potesse circolare. Questo episodio ha dimostrato che il pericolo non è solo tecnologico, ma temporale. L'IA colpisce quando la nostra guardia è bassa, come durante un weekend o nei giorni di festa.
Come analizzare le immagini generate dall'IA
Quando si riceve una foto che sembra "troppo incredibile per essere vera", prima di condividere, bisognerebbe analizzare i dettagli con occhio critico. L'intelligenza artificiale, infatti, è un'ottima artista, ma una pessima fisica. Le ombre: spesso nei deepfake cadono in direzioni opposte o mancano del tutto sotto il mento. Le prospettive: in una foto reale, le linee parallele convergono verso un unico punto di fuga. L'IA spesso sbaglia queste proporzioni geometriche, creando sfondi leggermente distorti. Inoltre, nonostante i progressi di questo 2025, ci sono ancora piccoli "errori di sistema" che tradiscono la macchina.
Dettagli rivelatori nelle immagini
Mani e gioielli: l'IA fatica ancora con l'anatomia. Bisogna contare le dita e osservare gli orecchini: sono identici? Spesso l'algoritmo genera asimmetrie inspiegabili. Occhi e riflessi: in una foto vera, il riflesso della luce nelle pupille è identico in entrambi gli occhi. In un deepfake, i riflessi sono spesso asimmetrici o assenti, dando allo sguardo un aspetto "vitreo". Ingrandire i cartelli stradali o le etichette degli oggetti sullo sfondo. L'IA genera spesso un "falso testo" che a prima vista sembra leggibile, ma che a un'analisi attenta si rivela essere un insieme di scarabocchi senza senso.
Come riconoscere i deepfake nei video
Per i contenuti video, esistono segnali rapidi che si possono controllare direttamente dallo smartphone. L'innaturalezza dello sguardo: osservare se il soggetto sbatte le palpebre in modo regolare. Un battito assente o troppo meccanico è un segnale d'allarme. Il disallineamento labiale (Lip-sync): guardare se le labbra toccano perfettamente tra loro nelle consonanti come B, P o M. Spesso nei deepfake c'è un leggero ritardo o un effetto "eco" visivo. Glitch nei bordi: se il soggetto muove la testa velocemente, si potrebbero vedere dei pixel che "tremano" intorno al mento o ai capelli. La prova del profilo: se sospettiamo di una videochiamata (frequente nelle truffe del "falso nipote"), chiediamo alla persona di mettersi una mano davanti al viso o di girarsi di profilo. Questi movimenti spesso mandano in crash l'algoritmo di sovrapposizione in tempo reale.
Strumenti e spirito critico
Per smascherare i fake esistono anche strumenti come la ricerca inversa delle immagini di Google o portali di fact-checking come Facta.news che lavorano h24. In un mondo dove vedere non è più automaticamente credere, la nostra risorsa più preziosa rimane, dunque, lo spirito critico prima di cliccare su "condividi".