X, red social antiguamente conocida como Twitter, está sumergida en varias polémicas, como las imágenes sexualizadas generadas por Grok o las cuentas vinculadas a intentos de manipulación y ‘spam’. Y ahora acaba de recibir una advertencia de Australia.
eSafety, el regulador independiente para la seguridad en línea en Australia, ha advertido a X, propiedad de Elon Musk, que ha detectado material de abuso infantil “especialmente sistémico” en la plataforma.
Un contenido que, además, es más accesible que en “cualquier otro servicio generalista”, según revela correspondencia obtenida por Guardian Australia. eSafety también ha señalado que escribieron a X en enero tras conocer que su chatbot Grok fue usado para generar imágenes sexualizadas de mujeres y menores.
En la carta enviada recientemente a X, Heidi Snell, directora de eSafety, recordó a Elon Musk su promesa de “eliminar la explotación infantil” al adquirir la red social en 2022, aunque señaló “la disponibilidad de CSEM [material de explotación sexual infantil] sigue siendo especialmente sistémica en X“.
No solo eso, sino que “eSafety no ha detectado que el CSEM sea tan fácilmente accesible en ningún otro servicio generalista”.

Fotomontaje con una de las fotografías modificadas de Grok.
Omicrono | X
El organismo regulador reconoció que las acciones emprendidas por X en octubre de 2025 contra las cuentas automatizadas habían logrado reducir el empleo de ciertos hashtags y términos utilizados para difundir CSEM, pero advirtió de que este tipo de etiquetas continuaban siendo ampliamente utilizadas en la plataforma.
“Nos preocupa que ciertos hashtags aparentemente inocuos estén siendo apropiados para publicitar CSEM, especialmente cuando se usan de forma combinada”, señaló Snell.
“eSafety encontró CSEM entre otros contenidos mediante combinaciones de hashtags. El hecho de que algunos de estos términos tengan usos inocuos significa que los usuarios probablemente se ven expuestos a CSEM de forma involuntaria, pese a utilizar el servicio de X de manera legítima”, añadió la directiva.
Snell añadió que eSafety estudia la posibilidad de emitir órdenes de retirada a X por las imágenes de personas “desnudadas” generadas por Grok, pendiente de la respuesta de la compañía.

Montaje denunciado por @SamanthaTaghoy
Asimismo, el organismo alertó de que, según un análisis de AI Forensics, el chatbot también estaría produciendo contenido de carácter terrorista y difundiéndolo en la propia plataforma.
X, por su parte, defendió que aplica “tolerancia cero” frente a la explotación sexual infantil, incluido el contenido generado por IA, y aseguró que más del 99% de las cuentas relacionadas con CSEM se eliminan de forma proactiva.
