Moderadores de Reddit luchan contra la mitad de contenido alterado por IA
Hasta la mitad del contenido publicado en Reddit podría estar creado o retocado por inteligencia artificial, según moderadores de la plataforma. Esta situación satura los foros más populares y erosiona la confianza entre los usuarios, considerando Reddit como uno de los últimos espacios humanos en internet.
La avalancha de ‘slop’ artificial
Los moderadores voluntarios de grandes subreddits como r/AmItheAsshole (AITA) afrontan una inundación de publicaciones generadas por IA desde el lanzamiento público de ChatGPT. Estas historias falsas, a menudo sobre conflictos interpersonales sensacionalistas, violan las normas explícitas de la comunidad. Una moderadora anónima con 18 años en la plataforma advierte: «Reddit mismo va a tener que hacer algo, o la serpiente se va a tragar su propia cola».
Estrategias de detección y un ciclo vicioso
Sin herramientas fiables al 100%, los usuarios dependen de la intuición. Identifican patrones como cuentas nuevas, repetición del título o gramática demasiado perfecta. Sin embargo, estos indicios no son concluyentes. Travis Lloyd, investigador de Cornell Tech, señala que la IA se entrena con contenido de Reddit y luego los usuarios imitan el estilo de la IA, creando un bucle de retroalimentación.
Repercusión: desinformación y desconfianza
La IA ha automatizado la desinformación, especialmente en foros de noticias y política. Un exmoderador de r/Ukraine describe la tarea como «un hombre parado en un campo contra un tsunami». Además, el señuelo de la ira se usa contra minorías, con oleadas de contenido anti-trans durante el Mes del Orgullo. La mera sospecha de que un contenido es artificial erosiona la confianza básica de la comunidad.
Motivación: la monetización del ‘karma’
El contenido generado por IA también se usa para acumular karma y monetizarlo. Los usuarios pueden beneficiarse del Programa de Contribuyentes de Reddit o vender cuentas con alto karma para acceder a subreddits NSFW o promover enlaces. «A veces es gamificación», explica Cassie, «están intentando usar el sistema tal como fue establecido».
La respuesta de la plataforma
Reddit afirma que prohíbe el contenido manipulado y el comportamiento inauténtico. Un portavoz destacó que hubo más de 40 millones de eliminaciones de contenido spam y manipulado en el primer semestre de 2025. La compañía permite contenido generado por IA claramente etiquetado, si cumple las normas de la comunidad y globales.
Una carga que se extiende más allá
La dificultad para verificar el contenido creado por IA supone una carga adicional para los moderadores voluntarios. Esta problemática refleja un desafío global: cuesta poco esfuerzo crear contenido verosímil con IA, pero mucho más evaluarlo. Como señala Lloyd, es una carga similar a la de profesores y otros profesionales en la era de la inteligencia artificial.