🟨"Trump firma legge contro pornografia deepfake"

Giorno: 2025-05-20 | Ora: 08:55 Il presidente Trump ha firmato il TAKE IT DOWN Act, che criminalizza la pornografia deepfake senza consenso, richiedendo la rimozione dei contenuti illeciti entro 48 ore. La legge, sostenuta da Melania Trump, colpisce anche la pubblicazione di immagini intime non consensuali. Altri paesi, come il Regno Unito, hanno già leggi simili.
Il presidente degli Stati Uniti, Donald Trump, ha firmato una legge che criminalizza la pornografia deepfake generata da intelligenza artificiale senza consenso. Questa legge, conosciuta come TAKE IT DOWN Act, richiede anche ai siti web di rimuovere qualsiasi immagine illecita entro 48 ore dalla segnalazione.
Firmata il 19 maggio, la legge rende reato federale pubblicare o minacciare di pubblicare immagini intime non consensuali, comprese quelle deepfake, di adulti o minorenni con l'intento di danneggiare o molestare. Le pene vanno da multe a pene detentive.
I siti web, i servizi online o le app devono rimuovere i contenuti illegali entro 48 ore e stabilire un processo di rimozione. Durante un intervento nel Giardino delle Rose della Casa Bianca, Trump ha affermato che la legge si applica anche a "falsificazioni generate da intelligenza artificiale", comunemente note come deepfake.
Melania Trump ha sostenuto attivamente questa legge, definendola una "vittoria nazionale". Ha sottolineato come l'intelligenza artificiale e i social media rappresentino una "caramella digitale" per la nuova generazione, avvertendo però che queste tecnologie possono essere utilizzate in modo dannoso, influenzare le convinzioni e avere effetti emotivi negativi.
Il disegno di legge è stato introdotto dai senatori Ted Cruz e Amy Klobuchar nel giugno 2024 e ha ricevuto approvazione da entrambe le camere nel mese di aprile di quest'anno.
Negli ultimi anni, si è registrato un aumento dei casi in cui i deepfake sono stati utilizzati per scopi dannosi, tra cui la diffusione di immagini illecite della pop star Taylor Swift nel gennaio 2024. In risposta, X ha temporaneamente vietato le ricerche con il nome di Taylor Swift, mentre i legislatori hanno spinto per una normativa contro la produzione di tali immagini.
Altri paesi, come il Regno Unito, hanno già reso illegale la condivisione di pornografia deepfake, inclusa nella legge sulla sicurezza online del 2023. Un rapporto del 2023 ha rivelato che la maggior parte dei deepfake pubblicati online è di natura pornografica e il 99% delle persone colpite da tali contenuti sono donne.