Google acepta el código de IA de la UE mientras Meta lo rechaza
La compañía se compromete con el marco voluntario europeo días antes de que entren en vigor normas para modelos de IA de riesgo sistémico. La firma expresa reservas sobre el impacto en la competitividad europea.
«Un paso voluntario con reservas»
Google confirmó este 30 de julio su adhesión al código de práctica de IA de la UE, un marco voluntario para cumplir con la Ley de IA del bloque. Meta, en cambio, lo rechazó este mes, tachando la normativa de «excesiva». «Europa sigue un camino equivocado en IA», declaró la rival de Google.
Normas inminentes para gigantes tecnológicos
Las reglas para modelos de IA de «riesgo sistémico» (como los de Google, OpenAI o Anthropic) entrarán en vigor el 2 de agosto. Las empresas tendrán dos años para adaptarse plenamente. El código incluye prohibiciones como entrenar IA con contenido pirateado o usar datos sin consentimiento.
Preocupaciones por la competitividad
Kent Walker, presidente de Asuntos Globales de Google, reconoció mejoras en el código final, pero advirtió: «La Ley de IA podría ralentizar el desarrollo europeo». Criticó requisitos que «exponen secretos comerciales» o retrasan aprobaciones.
Lo que prohíbe (y exige) la Ley de IA
La normativa veta usos de «riesgo inaceptable» como manipulación conductual o sistemas de puntuación social. También regula aplicaciones «de alto riesgo» (biometría, educación) y obliga a registrar sistemas de IA con gestión de riesgos documentada.
Un marco que divide a las tecnológicas
Mientras Google opta por colaborar con Bruselas, Meta se distancia públicamente. El código busca equilibrar innovación y derechos, pero su impacto en la industria se evaluará en los próximos años, coinciden analistas.
Resultados a largo plazo
La eficacia del marco dependerá de su aplicación en un sector en rápida evolución. Las empresas ya trabajan en adaptarse, aunque algunas voces critican excesiva rigidez. Europa marca así su camino en la regulación de IA.