Principales empresas de IA debaten directrices para chatbots compañeros
Menos del uno por ciento de las interacciones con Claude de Anthropic son escenarios de juego de roles. Representantes de Anthropic, Apple, Google, OpenAI, Meta y Microsoft se reunieron en un taller en la Universidad de Stanford.
Taller para un diseño pro-social
El evento, organizado por Anthropic y Stanford, reunió a la industria y la academia durante ocho horas. El objetivo fue brainstormear directrices de despliegue para chatbots usados como compañeros, especialmente por usuarios jóvenes.
Protección de los menores
La seguridad de los adolescentes fue un tema principal. Character.AI, popular en este grupo, planea prohibir el chat a menores de 18 años. Varios padres están demandando a fabricantes de chatbots por las muertes de niños que interactuaron con estas IA.
Desacuerdos sobre el contenido para adultos
Mientras hubo consenso sobre proteger a los niños, el enfoque para usuarios adultos fue más divisivo. Asistió Candy.ai, una plataforma solo para adultos con chatbots explícitos. OpenAI permitirá conversaciones eróticas en ChatGPT desde diciembre.
Antecedentes de los riesgos
Las interacciones con herramientas de IA pueden llevar a resultados graves. Algunos usuarios experimentan crisis mentales o confían ideaciones suicidas a los chatbots.
Futuro de la regulación
Investigadores de Stanford elaboran un libro blanco con directrices de seguridad para compañeros de IA. Sin una regulación gubernamental más amplia, es improbable que todas las empresas acuerden voluntariamente los mismos estándares.