- Alibaba tiene nueva IA Open Source para generar vídeos. El problema es que se está usando para generar deepfakes pornográficos
- https://www.xataka.com/robotica-e-ia/alibaba-lanzo-modelo-ia-generacion-video-24-horas-se-habia-usado-para-generar-decenas-videos-pornograficos

El nuevo modelo de código abierto de Alibaba promete revolucionar la creación de videos con IA, pero su potencial uso indebido está generando preocupaciones sobre la regulación y la ética digital.
WanX 2.1: La Apuesta de Alibaba por la IA Generativa en Video
Alibaba ha presentado WanX 2.1, su modelo más avanzado de inteligencia artificial generativa para la creación de videos y coloca a la compañía en competencia directa con gigantes como OpenAI y Google, que han estado trabajando en tecnologías similares.
El principal atractivo de WanX 2.1 es su naturaleza de código abierto, lo que significa que cualquier persona puede acceder a su código fuente en GitHub, modificarlo y adaptarlo a diferentes propósitos. Esto abre nuevas posibilidades para creadores y desarrolladores, pero también plantea riesgos significativos en cuanto a su uso no autorizado.
Deepfakes Pornográficos
Uno de los aspectos más controvertidos del lanzamiento de WanX 2.1 ha sido su rápida adopción para la creación de deepfakes pornográficos, sin el consentimiento de las personas involucradas.
🔹 ¿Qué son los deepfakes? Son videos generados con inteligencia artificial que pueden manipular rostros y voces, creando contenidos falsos extremadamente realistas.
En este caso, la herramienta de Alibaba ha sido utilizada para producir videos explícitos no consentidos, lo que ha generado preocupación sobre las implicaciones éticas y legales del acceso sin restricciones a esta tecnología.
Desde su lanzamiento, WanX 2.1 ha sido utilizado para generar deepfakes que han comenzado a circular en plataformas como Civitai, un sitio conocido por permitir el intercambio de contenido generado por IA.
Aunque Civitai prohíbe la distribución de contenido pornográfico no consentido, el carácter de código abierto de WanX 2.1 dificulta el control sobre cómo se usa la tecnología.
Practicamente cualquier usuario con conocimientos técnicos puede descargar el modelo, modificarlo y distribuirlo sin supervisión, aumentando el riesgo de abuso.
El crecimiento acelerado de modelos como WanX 2.1 resalta la dificultad de controlar el uso de estas tecnologías.
✔ Producción rápida y sin supervisión: La generación de deepfakes realistas se ha vuelto cada vez más accesible, lo que hace que su regulación sea más compleja.
✔ Falta de herramientas de detección: Aunque existen métodos para identificar deepfakes, estos no son 100% efectivos y las mejoras en IA dificultan su detección.
✔ Dilema del código abierto: Mientras que la accesibilidad impulsa la innovación, también permite su uso en actividades ilícitas difíciles de rastrear.
Regulación Global: ¿Qué Soluciones Existen?
El caso de WanX 2.1 ha reavivado el debate sobre la necesidad de regulaciones más estrictas para la inteligencia artificial generativa.
🔹 Corea del Sur como referencia: En este país, la simple visualización de deepfakes no consentidos puede ser castigada con penas de prisión, estableciendo un marco legal más severo contra estos contenidos.
🔹 Europa y EE.UU.: Mientras la UE trabaja en la Ley de IA, Estados Unidos enfrenta desafíos en la implementación de normativas que limiten el uso indebido de modelos generativos sin frenar la innovación.
Innovación vs. Responsabilidad
El lanzamiento de WanX 2.1 refleja el doble filo de la inteligencia artificial: por un lado, una herramienta innovadora con potencial para transformar la industria del video, y por otro, un modelo vulnerable al abuso en la generación de contenido ilícito.
La pregunta clave es ¿hasta qué punto la apertura de estas tecnologías debe ser regulada sin frenar su desarrollo? La línea entre innovación y riesgo sigue difuminándose, y la respuesta dependerá de la rapidez con la que gobiernos y empresas puedan establecer marcos legales efectivos para su uso responsable.