IA genera informes falsos que saturan programas de recompensas por fallos
Los LLM crean vulnerabilidades inexistentes en informes técnicos. Expertos en ciberseguridad alertan del aumento de estos reportes basura, que consumen tiempo y recursos. Plataformas como HackerOne y Bugcrowd ya detectan un incremento de falsos positivos.
«Informes que parecen oro pero son basura»
Vlad Ionescu, de RunSybil, explica que los LLM «inventan» vulnerabilidades con detalles técnicos convincentes. «La gente recibe reportes razonables, pero al analizarlos, descubren que son alucinaciones del modelo», afirma. Proyectos como Curl y Open Collective ya han sufrido este problema, con «bandejas de entrada inundadas de basura generada por IA».
Impacto en las plataformas
HackerOne confirma un aumento de falsos positivos sin impacto real, mientras Bugcrowd registra 500 reportes semanales adicionales. Michiel Prins, de HackerOne, advierte que este ruido «reduce la eficiencia de los programas de seguridad». Mozilla, en cambio, mantiene una tasa estable de rechazo (menos del 10%).
La carrera entre dos inteligencias artificiales
Ante la avalancha de informes falsos, empresas como HackerOne lanzan sistemas como Hai Triage, que combina IA y revisión humana para filtrar amenazas reales. «Queda por ver qué IA prevalecerá: la que genera el problema o la que lo soluciona», señala Ionescu.
Un internet contaminado por la IA
El llamado «AI slop» (contenido generado por IA de baja calidad) lleva años expandiéndose en redes sociales, medios y ahora en ciberseguridad. Los LLM, diseñados para dar respuestas útiles, empeoran el problema al crear reportes profesionales pero ficticios.
Un desafío que no ha hecho más que empezar
La industria se prepara para una escalada de informes falsos mientras ajusta sus sistemas de filtrado. Aunque algunas empresas como Mozilla aún no notan el impacto, plataformas líderes ya combaten este fenómeno con herramientas híbridas (IA-humanos).