IA genera informes falsos en programas de recompensas por fallos

Los LLM crean vulnerabilidades inexistentes en informes técnicos, saturando programas de recompensas y consumiendo recursos valiosos en ciberseguridad.
TechCrunch

IA genera informes falsos que saturan programas de recompensas por fallos

Los LLM crean vulnerabilidades inexistentes en informes técnicos. Expertos en ciberseguridad alertan del aumento de estos reportes basura, que consumen tiempo y recursos. Plataformas como HackerOne y Bugcrowd ya detectan un incremento de falsos positivos.

«Informes que parecen oro pero son basura»

Vlad Ionescu, de RunSybil, explica que los LLM «inventan» vulnerabilidades con detalles técnicos convincentes. «La gente recibe reportes razonables, pero al analizarlos, descubren que son alucinaciones del modelo», afirma. Proyectos como Curl y Open Collective ya han sufrido este problema, con «bandejas de entrada inundadas de basura generada por IA».

Impacto en las plataformas

HackerOne confirma un aumento de falsos positivos sin impacto real, mientras Bugcrowd registra 500 reportes semanales adicionales. Michiel Prins, de HackerOne, advierte que este ruido «reduce la eficiencia de los programas de seguridad». Mozilla, en cambio, mantiene una tasa estable de rechazo (menos del 10%).

La carrera entre dos inteligencias artificiales

Ante la avalancha de informes falsos, empresas como HackerOne lanzan sistemas como Hai Triage, que combina IA y revisión humana para filtrar amenazas reales. «Queda por ver qué IA prevalecerá: la que genera el problema o la que lo soluciona», señala Ionescu.

Un internet contaminado por la IA

El llamado «AI slop» (contenido generado por IA de baja calidad) lleva años expandiéndose en redes sociales, medios y ahora en ciberseguridad. Los LLM, diseñados para dar respuestas útiles, empeoran el problema al crear reportes profesionales pero ficticios.

Un desafío que no ha hecho más que empezar

La industria se prepara para una escalada de informes falsos mientras ajusta sus sistemas de filtrado. Aunque algunas empresas como Mozilla aún no notan el impacto, plataformas líderes ya combaten este fenómeno con herramientas híbridas (IA-humanos).