Los informes de imágenes de abuso sexual infantil creado utilizando herramientas de inteligencia artificial han aumentado un 400% en la primera mitad de 2025, según nuevos datos de la Fundación Internet Watch de Internet con sede en el Reino Unido.
La organización, que monitorea el material de abuso sexual infantil en línea, registró 210 páginas web que contienen material generado por IA en los primeros seis meses de 2025, en comparación con 42 en el mismo período del año anterior, según un informe publicado esta semana. En esas páginas había 1.286 videos, en comparación con solo dos en 2024. La mayoría de este contenido era tan realista que tenía que ser tratado bajo la ley del Reino Unido como si fuera un metraje real, dijo Internet Watch Foundation.
Aproximadamente el 78% de los videos, 1,006 en total) se clasificaron como "categoría A", el nivel más grave, que puede incluir representaciones de violación, tortura sexual y bestialidad, dijo la IWF. La mayoría de los videos involucraban a las niñas y, en algunos casos, usaban las semejanzas de niños reales.
La creciente prevalencia del material de abuso infantil generado por IA ha alarmado la aplicación de la ley en todo el mundo. A medida que las herramientas generativas de IA se vuelven más accesibles y sofisticadas, la calidad de las imágenes y los videos está mejorando, lo que dificulta la detección del uso de técnicas tradicionales. Aunque los primeros videos fueron cortos y fallidos, Internet Watch Foundation ahora ve producciones más largas y realistas con escenas complejas y configuraciones variadas.
Las autoridades dicen que el contenido a menudo se usa para el acoso y la extorsión.
"Tal como vimos con imágenes fijas, los videos de abuso sexual infantil ahora han llegado al punto de que pueden ser indistinguibles de las películas genuinas", dijo Derek Ray-Hill, director ejecutivo interino de la IWF. "Los niños representados a menudo son reales y reconocibles, el daño que hace este material es real y la amenaza que plantea amenaza con aumentar aún más".
Las agencias de aplicación de la ley están comenzando a tomar medidas. En una operación coordinada a principios de este año, Europol arrestó a 25 personas en relación con la distribución de dicho material. Bloomberg informó más de 250 sospechosos en 19 países. La Fundación de Watch de Internet solicitó al Reino Unido que desarrolle un marco regulatorio para garantizar que los modelos de IA tengan controles para bloquear la producción de este tipo de material.
En febrero, el Reino Unido se convirtió en el primer país en criminalizar la creación y distribución de herramientas de IA destinadas a generar contenido de abuso infantil. La ley prohíbe la posesión de modelos de IA optimizados para producir dicho material, así como manuales que instruyen a los delincuentes sobre cómo hacerlo.
En los EE. UU., El Centro Nacional para Niños Desaparecidos y Explotados, una contraparte de la Fundación de Vigilancia de Internet, dijo que recibió más de 7,000 informes relacionados con el contenido de abuso sexual infantil generado por IA en 2024.
Aunque la mayoría de las herramientas de IA comerciales incluyen salvaguardas contra la generación de contenido abusivo, algunos modelos de código abierto o personalizados carecen de estas protecciones, lo que las hace vulnerables al mal uso.
Urbano escribe para Bloomberg.
0 Comentarios