Fapmi-ECPAT España celebra la aprobación del anteproyecto de ley de gobernanza de la Inteligencia Artificial (IA) por el Consejo de Ministros y Ministras el pasado 11 de marzo. Esta legislación, que busca transponer el Reglamento europeo sobre IA, supone un avance importante en la regulación del uso de esta tecnología. Sin embargo, todavía se requieren medidas más contundentes que permitan hacer frente al creciente reto que supone el material de abuso y explotación sexual de la infancia y la adolescencia generado mediante IA (CSAM IAG, por sus siglas en inglés).

El material de explotación sexual infantil generado mediante IA es una realidad alarmante. En 2023, CyberTipline de NCMEC recibió aproximadamente 4700 denuncias relacionadas con este tipo de contenido, cifra que ascendió a 450 reportes mensuales en el primer trimestre de 2024. Informes de la Internet Watch Foundation también revelaron la existencia de más de 20 000 imágenes en la web profunda, de las cuales 3000 eran ilegales (según la legislación británica vigente). Esta tendencia sigue en ascenso, con la aparición de material aún más grave y la proliferación de videos de explotación sexual infantil generados por IA.

Este tipo de material plantea, por tanto, una serie de desafíos específicos en materia de persecución del delito. A diferencia del contenido ‘tradicional’, el CSAM IAG no siempre representa a víctimas identificables, lo que complica su persecución legal. Sin embargo, estas imágenes y videos tienen un impacto devastador: normalizan la explotación sexual de la infancia y la adolescencia, revictimizan a las personas menores de edad cuyas imágenes han podido ser manipuladas y dificultan el trabajo de las fuerzas y cuerpos de seguridad, que deben destinar recursos a diferenciar contenido real del generado artificialmente.

La rápida evolución de este tipo de tecnología ha superado con creces el marco legal existente. En muchas jurisdicciones, el CSAM IAG ya es ilegal, pero en otras aún no está regulado o su estatus es ambiguo. La falta de estándares internacionales dificulta la persecución de estos delitos y permite que los delincuentes operen con impunidad. Además, la ausencia de bases de datos y herramientas especializadas para identificar material generado mediante IA obstaculiza la detección y eliminación de este contenido en plataformas digitales.

Por ello, desde fapmi-ECPAT España se insta a los responsables en la toma de decisiones y a las empresas tecnológicas a tomar medidas inmediatas para combatir esta problemática. Al respecto, es fundamental definir legalmente el CSAM IAG y tipificar su producción, distribución y posesión como un delito. Asimismo, las plataformas digitales deben invertir en herramientas avanzadas para identificar y eliminar contenido de explotación sexual infantil generado mediante IA; también es urgente establecer canales de colaboración y cooperación eficaces entre gobiernos, fuerzas de seguridad y empresas tecnológicas para perseguir estos delitos de manera eficaz y, finalmente, es necesario aumentar los esfuerzos en abordar esta problemática y garantizar la protección integral de niños, niñas y adolescentes.

Y es que, sin una respuesta contundente y coordinada, es probable que el problema siga creciendo a medida que las herramientas de IA se vuelvan más accesibles y sofisticadas.

Más información:

fapmi-ECPAT España-ndp_12-3-25

La nueva ley de gobernanza de la IA: un paso clave pero insuficiente en la lucha contra la explotación sexual online de la infancia y la adolescencia