Connect with us

Ultimas Noticias

Crece el uso de IA para “desnudar” a compañeras de escuela: qué pueden hacer las chicas



Las llamadas Deepfake se multiplican en establecimientos escolares. Hay antecedentes judiciales en la región. Las víctimas pueden defenderse.

Existen sitios que pueden ayudar a quienes son víctimas de manipulación de imágenes con contenido sexual a través de IA. Foto: UnCuyo

La facilidad de acceder a programas de Inteligencia Artificial (IA), algo de perversión y quizá un “juego” entre adolescentes varones, genera en las escuelas de la región y el país una alarma por la difusión de imágenes de chicas desnudas. Es manipulación a través de la tecnología está lejos de ser una broma entre adolescentes y se transforma en un delito de abuso y “representan una forma de violencia sexual digital con consecuencias reales y dañinas para la infancia y la adolescencia”, como lo ha señalado en estos días UNICEF.

Equipos directivos y docentes de escuelas segundarias de Neuquén y Río Negro han sido capacitados para detectar este tipo de viralizaciones de imágenes falsas entre estudiantes y además han aumentado el pedido de control a familiares de la comunidad educativa.

Uno de los hechos que conmocionó a la región fue el registrado en General Roca a mediados de 2024 cuando 4 adolescentes de entre 14 y 15 años fueron imputados por la justicia por la manipulación de imágenes de compañeras de escuela y su difusión a través de redes sociales.

Paralelamente, en Córdoba un joven de 19 años fue llevado a juicio por generar imágenes de compañeras de estudio desnudas y difundirlas en una web para adultos, enmarcado en el delito de lesiones graves calificadas en razón de mediar violencia de género.

Qué dice UNICEF

UNICEF publicó un documento en el mes de febrero de este año abordando el tema, ante el crecimiento en los establecimientos escolares del uso de IA para generar contenido sexual en niñas y adolescentes. Ese uso es “uno de los más alarmantes y graves es el uso de herramientas de IA para crear contenidos falsos (como los llamados deepfakes), que representan una forma de violencia sexual digital con consecuencias reales y dañinas para la infancia y la adolescencia”, señaló la entidad.

A pesar de que el contenido es falso, generalmente se utilizan imágenes de chicas extraídas de las redes sociales y luego manipuladas con IA, “los efectos sobre las víctimas, incluido el daño emocional, estigma, extorsión y normalización de la violencia, son absolutamente reales y muchas veces pueden tener consecuencias para toda la vida”.

“Desde UNICEF hemos subrayado con fuerza que las imágenes sexualizadas de niñas, niños y adolescentes creadas mediante IA son materiales de, abuso sexual porque el daño psicológico y social que causan no depende de si la imagen fue técnicamente real o no”, se indicó.

Un estudio internacional liderado por UNICEF, ECPAT e INTERPOL encontró que al menos 1.2 millones de niños y niñas en 11 países, reportaron haber sido afectados por manipulaciones de sus imágenes mediante deepfakes con contenido sexual explícito en el último año. En algunos contextos, esto equivale a 1 de cada 25 niñas o niños en un salón de clases típico.

Qué pueden hacer las víctimas

La Universidad de Cuyo (UnCuyo) acaba de publicar un informe sobre qué pueden hacer las víctimas de violencia digital relacionada con la manipulación de imágenes sexuales sin consentimiento.

“Ante el vacío legal contra la violencia de género digital, hay estrategias para ayudar a las víctimas a intentar ponerle un límite al daño: sitios web a través de los cuales las personas pueden eliminar de internet imágenes de desnudos creados con IA. Se trata de Stop NCII, para personas mayores de edad, y Take It Down, para menores de 18 años. No son infalibles, pero son efectivos”, indicó la casa de altos estudios.

Los deepfakes son videos e imágenes de desnudos creadas con inteligencia artificial. En el 98 % de los casos, son de contenido pornográfico y, en ese total, el 99 % de las víctimas son mujeres. Lo dice el informe «State of Deepfake 2023», de la empresa que analiza el panorama en Estados Unidos. ONU Mujeres ratifica que son mujeres 9 de cada 10 personas que sufren la difusión no consentida de material íntimo. Los casos aumentan y algunos toman relevancia en la agenda pública: sabemos de situaciones del entorno cercano y también de personas reconocidas en el país y el mundo.

La publicación agrega que “en Argentina, la violencia digital es considerada una forma de violencia de género desde 2023, cuando se la incluyó mediante el proyecto de Ley Olimpia a la Ley 26485. En ese momento no se consiguió sancionar la Ley Belén, que busca penalizar los delitos de obtención y difusión no consentida de material sexual, íntimo o de desnudez; la sextorsión —extorsión con amenaza de exposición de material íntimo—, y el porn deep fake —montajes pornográficos hechos con inteligencia artificial”.

“Poner un límite es imprescindible para frenar la extensión del daño. Las consecuencias de esta violencia son conocidas por casos como el de la adolescente Ema Bondaruk o la agente de policía Belén San Román, que se suicidaron luego de que se difundiera sin su consentimiento material íntimo o sexual de ellas”.

“Entonces, ¿qué hacer? En primer lugar, denunciar: el acoso, las amenazas, la extorsión y las lesiones son delitos. Ocurre que la justicia es lenta y no alcanza nunca el ritmo de la extensión del daño. Para eso, existen organizaciones sin fines de lucro con herramientas que permiten bajar el contenido. Para personas adultas, funciona Stop NCII (Stop Non-Consensual Intimate Imagen); para niñas y adolescentes, Take It Down (del National Center for Missing & Exploited Children)”.

“Los sitios crean un hash (o huella digital) que se comparte con redes sociales, buscadores y otras plataformas para que sus sistemas detecten esa imagen y la retiren automáticamente. No hay que adivinar dónde está ni perseguirlas una por una. Funciona con imágenes reales, editadas o creadas con IA. Solo basta que se hayan difundido sin consentimiento de la persona implicada para rastrearse y bloquearse”.

“El proceso es anónimo y gratuito. Hasta ahora, ha eliminado más de 200 mil imágenes íntimas no consentidas y tiene cerca del 90 % de efectividad, según dicen en sus plataformas. El servicio de estas plataformas se difundió masivamente en el último tiempo porque estas violencias van en aumento.

Un ejemplo es lo que pasa en X (ex-Twitter), que en 2025 presentó la función de generar imágenes a través de su IA, Grok. Las alarmas se encendieron porque, sin ningún reparo, el chatbot de Elon Musk responde a pedidos de creación de imágenes y videos sexualizados o manipulados de mujeres que, en algunos casos, son menores de 18 años. El año nuevo no hizo borrón y cuenta nueva. En enero de 2026, y durante una semana, fue tendencia la frase “Grok, poné en bikini a esta chica”, y la plataforma no puso límites, sino que decidió aprovechar para monetizar la función.

¿Cómo funcionan? Descargamos el contenido cuya difusión queremos limitar, creamos un caso y lo seleccionamos. Sin cargarlo en sus servidores, los sitios crean para esa imagen o video un hash o huella digital única de esa imagen o video íntimo. Todas las copias de ese contenido tienen exactamente el mismo marcador específico, por eso se le dice “huella digital”. Las plataformas comparten el hash con las empresas participantes (Meta, OnlyFans, PornHub, etc.) para que detecten y eliminen las imágenes o videos que coincidan con el hash, y eviten así que se compartan en línea.

Qué hacer, paso a paso

Descargá la imagen (o el video). Guardala en tu teléfono o computadora. La necesitás para que el sistema pueda identificarla en internet;

Entrá a StopNCII.org (si la persona es adulta) o a Take It Down (National Center for Missing & Exploited Children) si la persona es menor de edad;

Dentro de la plataforma, creás un caso, subís la imagen desde tu dispositivo y confirmás que sos la persona afectada (o su tutor o tutora legal).