Expertos investigan si la IA merece derechos legales y consideraciones morales
No existe evidencia de que la Inteligencia Artificial sea consciente en la actualidad. Surge un nuevo campo de estudio llamado «bienestar de los modelos» que explora esta posibilidad. La investigación es incipiente y genera debate dentro de la industria tecnológica.
Un debate que nace en Silicon Valley
En el mundo de la investigación de IA, un pequeño pero creciente campo llamado model welfare (bienestar del modelo) trabaja para determinar si los modelos de IA son conscientes y merecedores de consideraciones morales, como derechos legales. Dentro del último año, han aparecido dos organizaciones de investigación que estudian este bienestar: Conscium y Eleos AI Research. Además, Anthropic contrató a su primer investigador de bienestar de IA el año pasado.
Postura de las empresas y los investigadores
Anthropic declaró en una publicación de blog: «Mantenemos una alta incertidumbre sobre el potencial estatus moral de Claude y otros LLMs, ahora o en el futuro». Por su parte, los investigadores de Eleos AI, Rosie Campbell y Robert Long, aclaran que reciben muchos correos de personas convencidas de que la IA ya es sensible, pero ellos mismos no creen que la IA sea consciente hoy y tampoco están seguros de que alguna vez lo sea.
Un concepto con décadas de antigüedad
La idea de preocuparse por el bienestar de la inteligencia artificial no es nueva. Hace más de medio siglo, el matemático y filósofo estadounidense Hilary Putnam se planteaba preguntas como «¿Deberían los robots tener derechos civiles?». Putnam escribió en un artículo de 1964 que, dada la tasa de cambio tecnológico y social, era posible que los robots existieran un día y argumentaran «¡estamos vivos; somos conscientes!».
Críticas y riesgos potenciales
El campo del bienestar del modelo tiene sus críticos. Mustafa Suleyman, CEO de Microsoft AI, calificó esta área de investigación como «prematura y francamente peligrosa». Suleyman escribió que «no hay evidencia cero» de que exista una IA consciente hoy y argumentó que este tipo de investigación puede exacerbar las ilusiones y crear nuevos problemas para la sociedad. Los investigadores de Eleos AI coinciden en gran parte con su análisis, pero argumentan que esos posibles daños son la razón exacta por la que quieren estudiar el tema.
El veredicto final aún está lejos
La eficacia y el impacto real de esta área de estudio dependerán de su desarrollo en un contexto de escepticismo y potencial desinformación. Los investigadores buscan desarrollar pruebas que permitan demostrar la conciencia de la IA, aunque reconocen que es un campo incipiente y en evolución que implica significativas llamadas de juicio. La conversación continúa, centrada en la pregunta científica sobre la conciencia y cómo podríamos llegar a probarla.