NEWSAR
Multi-perspective news intelligence
SRCEl Pais
LANGES
LEANCenter-Left
WORDS937
ENT5
WED · 2026-03-18 · 18:00 GMTBRIEF NSR-2026-0318-27004
News/Imágenes sexualizadas con solo unos clics: una práctica impu…
NSR-2026-0318-27004News Report·ES·Technology

Imágenes sexualizadas con solo unos clics: una práctica impulsada por la IA que gana terreno entre los jóvenes en EE UU

Un estudio publicado en PLOS One revela que la creación y recepción de imágenes sexualizadas generadas por IA es común entre adolescentes en Estados Unidos. La investigación, basada en una encuesta anónima a jóvenes de 13 a 17 años, encontró que más de la mitad había usado herramientas de deepfake o recibido este tipo de imágenes.

Selva Vargas ReáteguiEl PaisFiled 2026-03-18 · 18:00 GMTLean · Center-LeftRead · 4 min
Imágenes sexualizadas con solo unos clics: una práctica impulsada por la IA que gana terreno entre los jóvenes en EE UU
El PaisFIG 01
Reading time
4min
Word count
937words
Sources cited
2cited
Entities identified
5entities
Quality score
100%
§ 01

Briefing Summary

AI-generated
NEWSAR · AI

Un estudio publicado en PLOS One revela que la creación y recepción de imágenes sexualizadas generadas por IA es común entre adolescentes en Estados Unidos. La investigación, basada en una encuesta anónima a jóvenes de 13 a 17 años, encontró que más de la mitad había usado herramientas de deepfake o recibido este tipo de imágenes. Un porcentaje significativo de participantes reportó que se habían generado imágenes suyas sin consentimiento, y que estas habían sido compartidas. El estudio, liderado por la Universidad George Mason, destaca que los hombres jóvenes participan más en la creación y distribución de este contenido. Expertos advierten que la IA reproduce sesgos de género existentes, representando a las mujeres de forma sexualizada.

Confidence 0.90Sources 2Claims 5Entities 5
§ 02

Article analysis

Model · rule-based
Framing
Technology
Human Interest
Tone
Mixed Tone
AI-assessed
CalmNeutralAlarmist
Factuality
0.70 / 1.00
Factual
LowHigh
Sources cited
2
Limited
FewMany
§ 03

Key claims

5 extracted
01

36.3% of participants said an image of them was generated without consent.

statisticPLOS One research
Confidence
1.00
02

55.3% of participants said they created sexualized images; 54.4% received at least one.

statisticPLOS One research
Confidence
1.00
03

More than half of young people (13-17) have used tools to retouch photos of real people.

statisticPLOS One research
Confidence
1.00
04

AI amplifies societal inequalities.

quoteLledó Museros, expert in gender bias in AI
Confidence
0.90
05

AI systems tend to represent women in a sexualized way.

quoteLledó Museros, expert in gender bias in AI
Confidence
0.90
§ 04

Full report

4 min read · 937 words
El uso de inteligencia artificial generativa para producir imágenes sexualizadas se ha convertido en una práctica habitual entre adolescentes en Estados Unidos. Así lo señala una investigación publicada este miércoles en la revista PLOS One. El estudio, basado en una encuesta nacional anónima a jóvenes de 13 a 17 años, indica que más de la mitad de los participantes había utilizado al menos una vez una herramienta o sitio web para retocar la foto de una persona real, un proceso llamado deepfake. Mientras, también uno de cada dos aseguró haber recibido alguna.Los resultados indican que el 55,3% de los participantes afirmó haber creado este contenido y otro 54,4% recibió al menos una en una muestra de 557 personas.La investigación, liderada por Chad Steel, experto en comportamiento digital de la Universidad George Mason (EE UU), ha puesto también el foco sobre las víctimas. Un 36,3% de los participantes afirmó que se había generado una imagen suya sin consentimiento. Y otro 33,2% indicó que al menos una de estas imágenes había sido compartida a otras personas. Aunque el fenómeno afecta a todos los grupos demográficos, los resultados muestran que los hombres jóvenes participan más activamente en la creación y distribución de este tipo de contenido que sus pares mujeres. El estudio advierte que estas cifras podrían ser solo una estimación mínima y que muchos adolescentes no son conscientes del alcance real de la difusión de esas imágenes. Para Steel, se trata de un fenómeno global y difícil de abordar. “Los adolescentes son más propensos a tener todo tipo de comportamientos problemáticos y, aunque existen indicios, no sabemos con seguridad cuántos pueden estar usándolas”, advierte. Una tecnología que aprende de una sociedad desigual Lledó Museros, experta en el estudio de sesgos de género en técnicas de IA, recuerda que ya existen evidencias de que estos sistemas tienden a representar más a las mujeres de forma sexualizada. “Se representa el cuerpo femenino como un objeto visual y se prioriza para la atracción masculina”, explica. Un fenómeno que responde a lo que se conoce como male gaze o mirada masculina. “La IA es mejor generando desnudos de cuerpos estereotipados, como mujeres blancas con buen cuerpo. Lo que hace es solo reproducir la lógica cultural dominante”, apunta. Los sistemas de inteligencia artificial necesitan enormes volúmenes de información para funcionar y la ingeniera sostiene que esta información masiva no es ajena a los sesgos que existen en nuestra sociedad. Y esa sociedad, advierte, “es sesgada por naturaleza”. “Si quieres una persona que sea un profesional de la ingeniería, probablemente te va a predecir que es un hombre”, explica Museros. “No es que la IA sea desigual o malvada, si no que amplifica nuestras desigualdades”, afirma. El impacto en las víctimas es profundoLa investigación sugiere que, al igual que ocurrió con el sexting en la década pasada, la creación y el intercambio de imágenes sexualizadas creadas con IA se están integrando en la exploración social y sexual adolescente. La psicóloga Natalia Bueso-Izquierdo apunta a factores culturales: las redes sociales ha dejado de ser solo son un canal de comunicación. “Es un espacio de identidad y validación”, afirma. Las consecuencias emocionales en las víctimas, apunta, son comparables a otras formas de violencia de género. “Aunque las imágenes sean falsas o manipuladas, el impacto en la víctima es real y profundo”, subraya. Según esta experta, ser víctima puede generar una reacción en cadena: evitar las redes sociales, producir aislamiento e incluso la retirada del contacto social. Además de problemas de ansiedad, estrés o sentimientos de vergüenza y de culpa. Todos derivados tanto del miedo a la difusión como del posible juicio social. En los últimos años han proliferado en internet los sitios y aplicaciones que permiten a las personas crear imágenes no consentidas y abusivas de mujeres y niñas, incluido material de abuso sexual infantil. Tres millones de imágenes de contenido sexual explícito fueron generados solo por Grok, la inteligencia artificial generativa propiedad de Elon Musk, entre el 29 de diciembre y el 8 de enero. La investigación del Centro para Contrarrestar el Odio Digital (CCCDH, por sus siglas en inglés) apunta que al menos 23.000 mostraban a menores.El uso se populariza, la violencia se normaliza y sus creadores generan ganancias millonarias. Un análisis de 85 sitios web de nudismo realizado por Indicator, una publicación que investiga el engaño digital, encontró que la mayoría de estas plataformas dependen de grandes emporios tecnológicos para permanecer en línea —como Google, Amazon y Cloudflare—. De acuerdo con los investigadores, estos sitios habrían generado colectivamente hasta 36 millones de dólares con 18,5 millones de visitantes en cada uno de los primeros seis meses del 2025.Los gobiernos de la Unión Europea acordaron la semana pasada solicitar la prohibición de los sistemas de inteligencia artificial capaces de producir pornografía. La iniciativa, impulsada por España, se integra en el proceso de revisión normativa que busca reforzar el marco regulatorio europeo. La aprobación dependerá ahora de la negociación con el Parlamento y se da en el marco de la reforma de la Ley de Inteligencia Artificial, cuyas conversaciones comenzarán a principios de abril.Para Lledó Museros, la respuesta también pasa por la educación. “Tiene que ser una asignatura”, advierte. Propone actuar en dos frentes. Por un lado, enseñar un uso ético de la tecnología. Y por otro, mayor educación sexual. “Los chavales a partir de los ocho o nueve años ya reciben mensajes sexualizados brutales”, advierte.Corregir el problema no es sencillo. Aun así, alerta de las consecuencias de no actuar: “Si no los corregimos, la IA no solo reflejará la violencia y desigualdad, sino que la hará más rápida, más fácil y más difícil de combatir”.
§ 05

Entities

5 identified
§ 06

Keywords & salience

8 terms
imágenes sexualizadas
1.00
inteligencia artificial generativa
0.90
deepfake
0.80
adolescentes
0.70
sesgos de género
0.60
ee uu
0.60
male gaze
0.50
comportamiento digital
0.40
§ 07

Topic connections

Interactive graph
Network visualization showing 51 related topics
View Full Graph
Person Organization Location Event|Click node to navigate|Edge numbers = shared articles