La inteligencia artificial, herramienta de innovación, se convirtió en un escalofriante pincel para el abuso infantil en Instagram. Una investigación del Centro Pulitzer expuso las alarmantes grietas en la moderación de Meta, permitiendo que imágenes generadas por IA, con contenido explícito y sexualizado de niños, niñas y adolescentes, proliferaran en la plataforma. Los investigadores identificaron 14 perfiles dedicados a esta macabra difusión, alcanzando cientos de miles de seguidores.
El horror se multiplicaba al descubrir que estas cuentas no solo albergaban las perturbadoras imágenes creadas con IA, sino que también funcionaban como puentes hacia otros espacios oscuros de la web. Plataformas como Patreon y Fanvue se convertían en el siguiente destino para quienes buscaban más contenido ilícito. Peor aún, dos de estas cuentas ofrecían acceso directo a grupos de WhatsApp y Telegram, verdaderos manuales del horror donde se compartían tutoriales para la creación de estas imágenes con IA, junto con estremecedor material real de abuso infantil.
Según el reportaje, esta pesadilla digital floreció gracias a las «lagunas técnicas» que aún ciegan los sistemas de Meta ante el contenido generado por inteligencia artificial. Los ciberdelincuentes encontraron en estas debilidades la llave maestra para evadir las políticas de moderación de la plataforma. La urgencia es innegable: las empresas tecnológicas se enfrentan a un desafío crítico en la protección de la infancia en línea, demandando sistemas de detección más sofisticados y contundentes para bloquear estas abominaciones nacidas del código.