Studio Legale Improda

Deepfake: l’approccio preventivo dell’AI Act e uno sguardo oltreoceano

L'immagine raffigura un graffito con la scritta fake e uno smile

L’AI deepfake cresce rapidamente tra rischi e opportunità. L’UE e gli USA intervengono per bilanciare innovazione e tutela, con obblighi di trasparenza e limiti agli usi distorsivi.

Quando parliamo di deepfake non possono non venire alla mente l’immagine di Papa Francesco in piumino bianco oversize o la voce del Ministro della Difesa Guido Crosetto creata dall’AI a fini di estorsione o, solo un mese fa, i messaggi imitanti la voce e lo stile del nuovo Pontefice.

L’AI deepfake è duttile: il suo impiego spazia dalla produzione e diffusione di contenuti satirici ad opere di carattere artistico, da contenuti a scopo manipolatorio al compimento di cyberattacchi, produttivi di danno economico e reputazionale per le aziende.

Secondo un report di The Business Research Company, il valore di mercato dell’AI deepfake si attesta a $ 1,03 billions nel 2025 ed è stimato a $ 2,59 billions nel 2034, con un tasso di crescita pari al 25,9%.
Se, da una parte, si assiste a manifestazioni sempre più insidiose di manipolazione, dall’altra, l’industria del deepfake è un fenomeno imprenditoriale inarrestabile.

Il Legislatore europeo ha ben in mente questa dicotomia e ha operato un bilanciamento di interessi, stigmatizzando gli usi distorsivi potenzialmente dannosi – coerentemente ai principi antropocentrici fondanti l’AI Act – per i destinatari ponendo vincoli di natura preventiva e prevedendo altresì eccezioni per valorizzare l’uso lecito di strumenti che possono essere oggetto IP. 

Il Regolamento UE 2022/2065 ha imposto, per esempio, in osservanza all’obbligo di trasparenza gravante sui fornitori e deployers di sistemi di IA ad alto rischio, l’obbligo di rendere facilmente identificabile al pubblico il fatto che il contenuto generato dal sistema di IA sia fake. 

Ciò, però, non deve essere di ostacolo all’esposizione o al godimento di un’opera, quando essa sia “parte di un’analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi” (art. 50).

L’obbligo di identificazione non è di così facile attuazione, posto che, di fatto, non sempre è nota l’origine artificiale di determinati contenuti. Si pensi agli ISP, sui quali grava l’onere di “individuare e attenuare i rischi sistemici” ma la cui responsabilità è limitata ove non sia a conoscenza dell’illiceità dei contenuti caricati in piattaforma.

Negli USA, la District Court of Minnesota è stata chiamata nel 2025 a decidere su un caso di video fake fatti circolare da un candidato politico in periodo di elezioni, fattispecie penalmente rilevante secondo una legge del Minnesota, approvata nel 2023 e successivamente emendata il 1° luglio 2024.
Il fulcro della questione, sul quale i giudici dovranno esprimersi, starà nell’interpretazione e nell’estensione applicativa dell’eccezione dello “scopo satirico”.

La decisione sarà dunque un importante leading case americano. E l’Europa?

approfondimenti