Deepfakes sexuales y control del cuerpo

(9 enero 2026) En los primeros días de 2026, la herramienta de inteligencia artificial Grok, integrada en la red social X, ha sido la protagonista de un escándalo global por permitir la creación masiva de deepfakes sexuales de mujeres y menores, imágenes hiperrealistas generadas sin consentimiento que reproducen un patrón ya conocido: la tecnología avanza más rápido que las protecciones y la violencia digital vuelve a señalar a las mujeres como objetivo prioritario.
Pero ¿de qué hablamos exactamente cuando nos referimos a las deepfakes sexuales? Son vídeos, imágenes o audios manipulados mediante inteligencia artificial para parecer reales, en los que se coloca el rostro o el cuerpo de una persona en un contexto sexual o sexualizado que nunca existió. No es ficción, ni broma, ni “cosas de internet”. Es una forma de violencia digital que vulnera la intimidad, la dignidad y la seguridad de quienes la sufren, mayoritariamente mujeres.
El miedo es real y está extendido. Ocho de cada diez adolescentes españolas temen que su imagen sea utilizada para crear contenido sexual falso con IA, según Plan Internacional. Y no, esta forma de violencia no es nueva.
Las protecciones, sin embargo, siguen llegando tarde. En España, los deepfakes sexuales son denunciables y pueden constituir un delito penal. Ante un caso así, es clave conservar pruebas, solicitar la retirada inmediata del contenido y denunciar ante la Policía o la Guardia Civil, incluso aunque no se conozca a la persona responsable.
En países como México y Estados Unidos hay leyes que sancionan la publicación de imágenes íntimas sin el consentimiento de una persona, incluyendo los «deepfakes» creados por la IA. Y otros están en camino de aprobar legislaciones o reformas que incluyan a esta nueva forma de violencia contra las mujeres.
Fuente: EFE (EFEMINISTA)
![]()
