Deepfake: perché le norme UE non bastano e l’informatica forense è l’unica vera risposta

La minaccia deepfake è un’arma sofisticata per compiere frodi, campagne di disinformazione e attacchi ...


Immaginate di ricevere una telefonata. La voce è quella, inconfondibile, del vostro Manager che vi ordina di autorizzare un bonifico urgente. O, peggio, che diventi virale il video un suo video in dichiarazioni compromettenti. Le immagini sembrano reali, la voce è identica, l’impatto sulla vostra reputazione è immediato. Peccato che sia tutto falso.

Non è fantascienza. È lo scenario, sempre più concreto, della minaccia deepfake, un’arma sofisticata per compiere frodi, campagne di disinformazione e attacchi mirati alla reputazione. Ma come ci si difende? L’Unione Europea ha risposto con l’AI Act, ma queste norme rischiano di essere “armi spuntate” [1]. Di fronte a una minaccia così tecnologicamente avanzata, la vera difesa legale arriva dalla consulenza informatica forense.

L’AI Act 2024 ha introdotto un principio cardine: la trasparenza obbligatoria. Qualsiasi contenuto deve essere etichettato come "artificiale" o "manipolato". Un passo importante, che crea un precedente legale: usare un deepfake per ingannare diventa una violazione palese della legge, aggravata da diversi gradi di rischio determinati dalla legislazione UE. Per le aziende, i rischi sono tangibili: frodi, danni reputazionali, concorrenza sleale.

Ma è qui che l’arma si rivela inefficace. Un malintenzionato che crea un video per diffamare un’azienda o per orchestrare una frode si preoccuperà di aggiungere l’etichetta "contenuto artificiale"? Ovviamente no. La norma, pensata per un uso etico della tecnologia, è facilmente aggirabile da chi agisce in malafede. E se i colpevoli possono essere senz’altro perseguiti, il danno reputazionale nel frattempo è fatto.

La legge pone quindi un sano principio, ma lascia una domanda aperta: se venite attaccati, come dimostrate in modo inconfutabile che quel contenuto è un falso? Non ci si può difendere da una prova tecnologica con una semplice smentita verbale. Serve una contro-prova tecnologica. È qui che interviene la consulenza informatica forense.

Noi di Siro Consulting abbiamo sviluppato un’area di competenza specifica per rispondere a questa minaccia attraverso software e analisi specialistiche delle “impronte digitali” reputazionali.

I risultati vengono formalizzati in una perizia tecnica forense. Questa non è una semplice smentita, è la prova oggettiva che smonta il falso e può essere usata in tribunale e comunicata agli stakeholder per ristabilire la verità.

I deepfake sono una minaccia sofisticata e in continua evoluzione. L’AI Act europeo è un’importante dichiarazione d’intenti, ma occorrono perizie di informatica forense per attuarlo. 

Nell’era della realtà artificiale, la capacità di distinguere il vero dal falso, e soprattutto di provarlo è l’unica, vera frontiera per la gestione del rischio e la tutela della reputazione.

-

[1] Agenda Digitale, Tutti i danni dei deepfake: perché le norme Ue sono armi spuntatehttps://www.agendadigitale.eu/cultura-digitale/tutti-i-danni-dei-deepfake-perche-le-norme-ue-sono-armi-spuntate/