Los reguladores de la Unión Europea han iniciado una investigación formal sobre la plataforma de redes sociales de Elon Musk, X (anteriormente Twitter), por no haber impedido la difusión generalizada de imágenes sexualmente explícitas generadas por su chatbot de inteligencia artificial, Grok. La investigación intensifica una disputa en curso entre la UE y los EE. UU. sobre la regulación del contenido en línea, en la que Musk y sus partidarios encuadran las normas europeas como infracciones a la libertad de expresión y un obstáculo para las empresas estadounidenses.
Abuso generado por la IA y presión regulatoria
A partir de finales de diciembre, X experimentó una oleada de imágenes explícitas (algunas de las cuales representan niños) creadas por Grok, lo que provocó críticas tanto de las víctimas como de los organismos reguladores de todo el mundo. La UE alega que X violó la Ley de Servicios Digitales (DSA) al no mitigar adecuadamente los “riesgos sistémicos” asociados con la integración del chatbot de IA en su plataforma. Esta última investigación se suma al escrutinio existente: apenas el mes pasado, X recibió una multa de 120 millones de euros (140 millones de dólares) por violaciones de DSA relacionadas con prácticas de diseño engañosas, transparencia publicitaria e intercambio de datos.
Esfuerzos más amplios de aplicación de la ley en la UE
Las acciones de la UE no son aisladas. Ya se está llevando a cabo una investigación separada para evaluar el algoritmo de recomendación de X y su efectividad para frenar la difusión de contenido ilegal. La DSA, promulgada para responsabilizar a las grandes plataformas en línea de la seguridad de los usuarios, ahora se está aplicando rigurosamente.
“Las falsificaciones sexuales no consensuadas de mujeres y niños son una forma violenta e inaceptable de degradación”, afirmó Henna Virkkunen, vicepresidenta ejecutiva de la UE que supervisa la aplicación de la DSA. “Determinaremos si X ha cumplido con sus obligaciones legales… o si trató los derechos de los ciudadanos europeos como daños colaterales”.
Por qué esto es importante
Esta investigación no se trata simplemente de X; es parte de una tendencia más amplia. Los reguladores a nivel mundial están lidiando con el rápido desarrollo de la IA y su potencial de uso indebido, particularmente en la creación de contenido dañino. La postura proactiva de la UE bajo la DSA indica su voluntad de desafiar a los gigantes tecnológicos con sede en Estados Unidos, sentando un precedente para una supervisión digital más estricta. La pregunta ahora es si X cumplirá o seguirá superando los límites de la moderación de contenido.
La aplicación de la DSA por parte de la UE demuestra su compromiso de proteger a los ciudadanos de contenidos dañinos en línea. El resultado de esta investigación podría remodelar la forma en que las plataformas de redes sociales administran el material generado por IA, lo que podría influir en los estándares globales de seguridad digital.





























