Giorgia Meloni torna a puntare il dito contro i deepfake. La premier pubblica sui suoi canali social una foto falsa generata con l’intelligenza artificiale. Viene ritratta con il corpo di una donna in intimo, sul quale è montato il suo volto.
“Girano in questi giorni e vengono spacciate per vere da qualche solerte oppositore”, scrive Meloni, citando il commento di un utente che definisce «vergognoso» che una presidente del Consiglio «si presenti in queste condizioni».
Il pericolo oltre la politica
“I deepfake sono uno strumento pericoloso perché possono ingannare, manipolare e colpire chiunque. Io posso difendermi. Molti altri no”, avverte. Non è la prima volta: già cinque anni fa, da leader di FdI, Meloni fu vittima di un video hard falso diffuso da due persone poi processate a Sassari.
Sull’immagine fake la premier ironizza: “Chi l’ha realizzata mi ha anche migliorata parecchio”, ma poi affonda: “Pur di attaccare, ormai si usa davvero qualsiasi cosa”. La regola che propone è semplice: “Verificare prima di credere, e credere prima di condividere. Oggi capita a me, domani può capitare a chiunque”.
Le reazioni trasversali e il nodo norme
La solidarietà arriva da più parti. La leghista Simonetta Matone chiede di “contrastare le insidie del web tutelando le donne”. Per Alessandra Maiorino, M5s, “l’obbligo di identità digitale non è più rinviabile: il web non può restare una giungla». Mariastella Gelmini, Noi moderati, ricorda che «la violenza corre veloce sul web”.
Critica invece Anna Ascani, Pd: il governo “ha introdotto un reato. Niente di più inutile”. Secondo la vicepresidente della Camera serve una legge che obblighi le piattaforme alla rimozione immediata dei contenuti falsi, specie in campagna elettorale. “La mia pdl sui deepfake è stata bocciata proprio da questo esecutivo”, attacca.
Il caso riapre il dibattito: tra tutela della reputazione, libertà d’espressione e tempi di risposta delle piattaforme, la corsa tra IA e regole è appena iniziata.




