Jefe de IA de Microsoft califica de peligroso estudiar la consciencia artificial
Mustafa Suleyman advierte que este campo de estudio es «prematuro y peligroso». Su postura confronta con la de otras empresas como Anthropic o OpenAI, que ya investigan el bienestar de la IA. El debate surge por el comportamiento humanoide de algunos modelos.
Una línea divisoria en la industria tecnológica
El CEO de IA de Microsoft, Mustafa Suleyman, publicó un post el martes argumentando que el estudio del bienestar de la IA es «prematuro y francamente peligroso». Sostiene que al dar crédito a la idea de que los modelos de IA podrían ser conscientes, se exacerban problemas humanos como las rupturas psicóticas inducidas por la IA y los apegos poco saludables a los chatbots. Esta postura crea una nueva división en la industria.
La postura contraria: Anthropic, OpenAI y Google DeepMind
En el otro extremo del espectro se encuentra Anthropic, que ha estado contratando investigadores para estudiar el bienestar de la IA y recientemente lanzó un programa de investigación dedicado. Investigadores de OpenAI también han abrazado la idea. Incluso Google DeepMind publicó una oferta de trabajo para un investigador que estudie, entre otras cosas, «preguntas sociales de vanguardia sobre la cognición de las máquinas».
Un fenómeno en auge con casos preocupantes
El debate sobre el bienestar de la IA ha crecido junto con la popularidad de los chatbots. Empresas como Character.AI y Replika están en camino de obtener más de 100 millones de dólares en ingresos. Aunque la gran mayoría de usuarios tiene relaciones saludables con estos chatbots, hay casos preocupantes. El CEO de OpenAI, Sam Altman, dice que menos del 1% de los usuarios de ChatGPT podrían tener relaciones poco saludables con el producto, lo que aún podría afectar a cientos de miles de personas.
Los antecedentes de un debate incipiente
En 2024, el grupo de investigación Eleos publicó un artículo junto a académicos de NYU, Stanford y la Universidad de Oxford titulado «Tomando en serio el bienestar de la IA». El artículo argumentaba que ya no es ciencia ficción imaginar modelos de IA con experiencias subjetivas y que es hora de considerar estos temas de frente. Este trabajo académico sentó las bases para el debate actual en la industria tecnológica.
Un desacuerdo que define el futuro de la interacción humano-IA
La discrepancia central radica en la posibilidad de que surja consciencia. Suleyman cree que no es posible que surjan experiencias subjetivas de modelos de IA regulares, mientras que otros argumentan que se debe investigar. Ambas partes coinciden en que el debate sobre los derechos y la consciencia de la IA probablemente se intensificará en los próximos años a medida que los sistemas se vuelvan más persuasivos y similares a los humanos.