La investigación a X, Meta y TikTok por pornografía infantil con IA será una de las decisiones clave que adoptará este martes el Consejo de Ministros. El presidente del Gobierno, Pedro Sánchez, ha anunciado que el Ejecutivo solicitará formalmente a la Fiscalía que examine la posible responsabilidad de estas plataformas en la creación y difusión de imágenes sexualizadas de menores mediante herramientas de inteligencia artificial.
La investigación a X, Meta y TikTok por pornografía infantil con IA se enmarca en una ofensiva más amplia del Gobierno para reforzar la protección de la infancia en entornos digitales, tras detectarse usos indebidos de sistemas automatizados capaces de generar contenidos falsos con apariencia real.
“Estas plataformas están atentando contra la salud mental, la dignidad y los derechos de nuestros hijos e hijas. El Estado no lo puede permitir. La impunidad de los gigantes debe acabar”, escribió Sánchez en su perfil oficial en X.
El detonante: imágenes generadas con inteligencia artificial
El origen inmediato de la investigación a X, Meta y TikTok por pornografía infantil con IA se encuentra en la detección del uso indebido de Grok, el sistema de inteligencia artificial integrado en X, para generar imágenes sexualizadas de menores.
El Ministerio de Juventud e Infancia ya había solicitado hace un mes a la Fiscalía una investigación urgente tras descubrir estos hechos. Ahora, el Consejo de Ministros invocará el artículo 8 del Estatuto Orgánico del Ministerio Fiscal para reforzar la petición institucional.
La ministra de Juventud e Infancia, Sira Rego, respaldó públicamente la decisión, afirmando que se trata de “un paso más para garantizar los derechos de la infancia en redes sociales”.
Investigación a X, Meta y TikTok por pornografía infantil con IA: ¿qué se analiza?
La investigación a X, Meta y TikTok por pornografía infantil con IA no solo examinará casos concretos de generación de imágenes, sino también los mecanismos de control y prevención implementados por las plataformas.
En el caso de Meta, propietaria de redes como Facebook e Instagram, se evaluará si sus sistemas de IA pueden ser utilizados para crear o difundir contenido ilícito relacionado con menores. Lo mismo ocurrirá con TikTok, especialmente popular entre adolescentes.
La Fiscalía deberá determinar si existe responsabilidad penal directa o si se han incumplido obligaciones de vigilancia, retirada de contenidos o prevención de delitos.
Un contexto de creciente alarma social
La investigación a X, Meta y TikTok por pornografía infantil con IA se produce en un momento de creciente preocupación por el impacto de la inteligencia artificial en la difusión de contenidos ilegales. Expertos en ciberseguridad alertan de que las herramientas generativas permiten crear imágenes hiperrealistas sin necesidad de fotografías originales, lo que complica la persecución del delito.
El Gobierno ha vinculado esta decisión con su estrategia más amplia para regular el acceso de menores a las redes sociales. Hace apenas dos semanas, el Ejecutivo anunció su intención de prohibir el acceso a estas plataformas a menores de 16 años.
Sánchez llegó a afirmar entonces que “las redes sociales se han convertido en un Estado fallido, en el que se ignoran las leyes y se toleran los delitos”.
Protección de la salud mental y derechos digitales
Uno de los argumentos centrales de la investigación a X, Meta y TikTok por pornografía infantil con IA es la defensa de la salud mental y la dignidad de los menores. El Ejecutivo considera que la difusión de imágenes falsas de carácter sexual puede tener efectos devastadores en las víctimas, incluso cuando las imágenes no sean reales, sino generadas artificialmente.
Además, la expansión de la IA plantea desafíos jurídicos complejos: ¿quién es responsable cuando una imagen ha sido creada por un algoritmo? ¿La plataforma que ofrece la herramienta, el usuario que la emplea o ambos?
La Fiscalía deberá analizar estas cuestiones a la luz del Código Penal y de la normativa sobre protección de menores y delitos tecnológicos.
Posibles consecuencias legales y regulatorias
Si la investigación a X, Meta y TikTok por pornografía infantil con IA concluye que existen indicios de delito, podría abrirse la puerta a diligencias penales contra las compañías o contra responsables concretos.
Más allá del ámbito judicial, el movimiento del Gobierno anticipa un posible endurecimiento regulatorio sobre las herramientas de inteligencia artificial integradas en redes sociales.
La Unión Europea ya trabaja en marcos regulatorios sobre IA y servicios digitales, pero el Ejecutivo español parece dispuesto a impulsar medidas adicionales si considera que la protección de la infancia lo exige.
Un pulso con los gigantes tecnológicos
La investigación a X, Meta y TikTok por pornografía infantil con IA representa también un pulso político con los gigantes tecnológicos, a los que el Gobierno acusa de no asumir plenamente su responsabilidad social.
Mientras tanto, las plataformas defienden que cuentan con sistemas de moderación avanzados y políticas estrictas contra la explotación infantil. Sin embargo, la rapidez con la que evoluciona la inteligencia artificial plantea nuevos retos que podrían requerir ajustes normativos y tecnológicos.
El desenlace dependerá ahora de la actuación de la Fiscalía y de la eventual recopilación de pruebas. Lo que parece claro es que la investigación a X, Meta y TikTok por pornografía infantil con IA marca un nuevo capítulo en el debate sobre la regulación de las redes sociales y el equilibrio entre innovación tecnológica y protección de los derechos fundamentales.

