Deepfake: Un'Emergenza Ignorata che Minaccia la Nostra Realtà

Dal 2020, ho dedicato undici analisi al fenomeno dei deepfake. Questi non sono stati semplici articoli, ma undici tentativi di suonare un campanello d'allarme, di informare e di scuotere le coscienze riguardo a una minaccia la cui crescita è esponenziale, a fronte di una risposta collettiva che resta drammaticamente inadeguata. La mia insistenza non è casuale: nasce dalla profonda convinzione che stiamo sottovalutando una tecnologia capace di erodere le fondamenta stesse della realtà che condividiamo.

04 ottobre 2025 11:07 230
Deepfake: Un'Emergenza Ignorata che Minaccia la Nostra Realtà
4 minuti di lettura


Dal 2020 ho dedicato undici articoli al fenomeno dei deepfake. Undici tentativi di sensibilizzare, educare e mobilitare l’attenzione su una minaccia che cresce in modo esponenziale, mentre la nostra risposta rimane drammaticamente in ritardo. La mia insistenza non è casuale: riflette la profonda preoccupazione che stiamo sottovalutando una tecnologia capace di erodere le fondamenta della nostra realtà condivisa.


Una salita silenziosa ma inarrestabile

I numeri parlano chiaro. Tra il 2019 e il 2023, i deepfake sono aumentati del 550%. Nel solo passaggio dal 2022 al 2023 si è registrata una crescita globale di dieci volte, secondo SumSub. Ma dietro questi dati c’è una verità ancora più allarmante: il 98% dei deepfake riguarda pornografia non consensuale, e nel 99% dei casi le vittime sono donne. Una violenza di genere che non nasce dal contatto fisico, ma che trova negli algoritmi la sua arma più potente.

A questo si aggiunge un altro elemento: secondo Onfido, le frodi deepfake sono cresciute del 3.000% in un solo anno, con effetti diretti su banche, istituzioni e processi democratici. Non è più un rischio teorico: è un attacco già in corso alla fiducia sociale.


Il paradosso della leadership vulnerabile

Il nostro Paese si trova in una posizione paradossale: settimo in America Latina per preparazione governativa sull’IA, ma già vittima di casi gravi di manipolazione. L’impersonificazione del governatore della Banca Centrale Héctor Valdez Albizu, le registrazioni false attribuite al presidente Luis Abinader, i video manipolati che hanno 

coinvolto il giornalista Roberto Cavada.

Questi episodi dimostrano una verità scomoda: la leadership tecnologica, senza un solido quadro etico e legale, è vuota. Mancano leggi specifiche contro i deepfake dannosi e viviamo in un limbo che espone cittadini e istituzioni.


Anatomia di una tripla crisi

Analizzando il contesto, emergono tre crisi strettamente interconnesse:

  1. Crisi dei dati – Non esistono statistiche specifiche a livello nazionale, e senza misurazione non si può costruire una strategia.

  2. Crisi di coscienza – La maggioranza delle persone non sa cosa sia un deepfake, come riconoscerlo o come difendersi. L’alfabetizzazione digitale non è più un lusso, è un pilastro per la sopravvivenza democratica.

  3. Crisi d’azione – In attesa di nuove leggi, come il disegno di legge 02197-2023, continuiamo a ignorare strumenti già esistenti (Codice penale, legge 53-07 sui crimini informatici, legge 172-13 sui dati personali), che restano sottoutilizzati per mancanza di formazione e applicazione.


Costi, modelli e soluzioni

Rilevare i deepfake oggi è una corsa agli armamenti: sistemi commerciali che arrivano a costare tra i 100.000 e i 500.000 dollari annui. Eppure esistono modelli internazionali che aprono percorsi concreti:


  • Europa – Etichettatura obbligatoria dei contenuti generati da IA.

  • Singapore – Legislazione specifica che unisce norme e alfabetizzazione digitale.

  • Estonia – Sistema di identità digitale sicura per l’autenticazione dei contenuti.

Una delle soluzioni emergenti più promettenti è l’uso di sigilli digitali crittografici, che permettono di certificare l’autenticità delle immagini e dei video alla fonte, prevenendo la manipolazione prima che arrivi al pubblico.


La risposta di City Reputation e Cristian Nardi

In questo scenario, la piattaforma City Reputation, guidata da Cristian Nardi, offre un approccio innovativo. Non si tratta solo di monitorare o reagire ai contenuti manipolati, ma di costruire un ecosistema di fiducia digitale.

Attraverso strumenti di analisi reputazionale avanzata, City Reputation propone:


  • Tracciabilità e certificazione dei contenuti – per validare notizie, video e comunicazioni istituzionali.

  • Dashboard di reputazione cittadina – che misurano e segnalano in tempo reale episodi di manipolazione, generando allerta preventiva.

  • Formazione comunitaria – programmi di alfabetizzazione digitale rivolti a cittadini, scuole, media e istituzioni, per diffondere competenze di riconoscimento e difesa contro i deepfake.


  • Collaborazione pubblico-privato – per trasformare la lotta ai deepfake in una missione collettiva che unisce governi, imprese, giornalisti e società civile.

La forza di questo approccio è nell’integrare tecnologia, educazione e governance. Non basta vietare: bisogna rafforzare la fiducia sociale, rendendo le città, le istituzioni e i cittadini più resilienti alla manipolazione.


Conclusione: un passo nel futuro

I deepfake mettono alla prova la nostra capacità di distinguere verità e finzione. Ma la sfida non è solo tecnologica: riguarda il cuore stesso della fiducia collettiva.

Per questo, la risposta deve essere multiforme: educazione, leggi specifiche, tecnologie di autenticazione e piattaforme di reputazione digitale come City Reputation di Cristian Nardi. È questa la strada per trasformare una minaccia in un’occasione di crescita etica e tecnologica.

La domanda finale resta aperta: quanti altri danni saremo disposti a tollerare prima di agire davvero?

Redazione

Autore dell'articolo

Giornalista e scrittore appassionato di politica, tecnologia e società. Racconta storie con chiarezza e attenzione ai dettagli.

Commenti

Nessun commento ancora.