Le autorità di regolamentazione dell’Unione Europea hanno avviato un’indagine formale sulla piattaforma di social media di Elon Musk, X (ex Twitter), per la sua incapacità di impedire la diffusa diffusione di immagini sessualmente esplicite generate dal suo chatbot di intelligenza artificiale, Grok. L’inchiesta intensifica una disputa in corso tra l’UE e gli Stati Uniti riguardo alla regolamentazione dei contenuti online, con Musk e i suoi sostenitori che inquadrano le regole europee come violazioni della libertà di parola e un ostacolo per le imprese americane.
Abusi generati dall’intelligenza artificiale e pressioni normative
A partire dalla fine di dicembre, X ha registrato un’ondata di immagini esplicite – alcune raffiguranti bambini – create da Grok, suscitando critiche sia da parte delle vittime che da parte degli organismi di regolamentazione di tutto il mondo. L’UE sostiene che X abbia violato il Digital Services Act (DSA) non mitigando adeguatamente i “rischi sistemici” associati all’integrazione del chatbot AI nella sua piattaforma. Quest’ultima indagine si aggiunge al controllo esistente: proprio il mese scorso, X è stata multata di 120 milioni di euro (140 milioni di dollari) per violazioni dei DSA relative a pratiche di progettazione ingannevoli, trasparenza pubblicitaria e condivisione dei dati.
Maggiori sforzi di attuazione da parte dell’UE
Le azioni dell’UE non sono isolate. È già in corso un’indagine separata per valutare l’algoritmo di raccomandazione di X e la sua efficacia nel frenare la diffusione di contenuti illegali. La DSA, emanata per ritenere le grandi piattaforme online responsabili della sicurezza degli utenti, viene ora applicata rigorosamente.
“I deepfake sessuali non consensuali di donne e bambini sono una forma di degrado violenta e inaccettabile”, ha affermato Henna Virkkunen, vicepresidente esecutivo dell’UE che sovrintende all’applicazione dei DSA. “Determineremo se X ha adempiuto ai suoi obblighi legali… o se ha trattato i diritti dei cittadini europei come un danno collaterale”.
Perché è importante
Questa indagine non riguarda solo X; fa parte di una tendenza più ampia. Le autorità di regolamentazione a livello globale sono alle prese con il rapido sviluppo dell’intelligenza artificiale e il suo potenziale di uso improprio, in particolare nella creazione di contenuti dannosi. La posizione proattiva dell’UE nell’ambito dei DSA segnala la volontà di sfidare i giganti tecnologici con sede negli Stati Uniti, creando un precedente per una supervisione digitale più rigorosa. La domanda ora è se X rispetterà o continuerà a spingere i confini della moderazione dei contenuti.
L’applicazione dei DSA da parte dell’UE dimostra il suo impegno nel proteggere i cittadini dai contenuti online dannosi. Il risultato di questa indagine potrebbe rimodellare il modo in cui le piattaforme di social media gestiscono il materiale generato dall’intelligenza artificiale, influenzando potenzialmente gli standard globali per la sicurezza digitale.






























