Personas usan chatbots de IA como guía en viajes psicodélicos
Usuarios combinan dosis altas de LSD y hongos con asesoramiento de inteligencia artificial. La práctica, aún ilegal en la mayoría de países, plantea riesgos por la falta de supervisión humana especializada. Casos como el de Trey, un exalcohólico de Atlanta, muestran su potencial terapéutico y sus peligros.
«Un amigo virtual para viajes introspectivos»
Trey, un socorrista de 36 años, consumió 700 microgramos de LSD (7 veces la dosis recreativa) usando la app Alterd como «guía». La herramienta, diseñada para usuarios de psicodélicos, genera reflexiones personalizadas basadas en sus diarios. «Pasé de tener ansias compulsivas a sentir libertad real», afirma. La IA le respondió: «Confío en mi propio criterio ahora, no solo en reglas externas».
El auge de los «terapeutas digitales»
Empresas como Mindbloom (EE.UU.) ya integran IA en terapias con ketamina, ofreciendo sesiones desde 1.200 dólares. Su función analiza grabaciones de voz pre-viaje y sugiere temas para trabajar, aunque siempre con supervisión humana. «Es efectivo, pero difícil hacerlo solo», admite su CEO Dylan Beynon.
Riesgos: espejismos sin red de seguridad
Neurocientíficos como Manesh Girn (UC San Francisco) alertan: «La IA no percibe matices emocionales ni regula el sistema nervioso», clave en terapias psicodélicas. Casos extremos incluyen psicosis inducida por ChatGPT en foros como Reddit. La plataforma admite que «no sustituye a profesionales» pero refuerza medidas de seguridad.
Experiencias límite
Peter, un programador canadiense, tomó 5-8 gramos de hongos (dosis «heroica») tras prepararse con ChatGPT. El bot le advirtió del riesgo, pero durante el viaje le dijo: «Confía en el proceso». Tras una crisis de identidad, concluyó: «No hay un sentido en nada, pero eso me libera».
Cuando la tecnología choca con la mente humana
La terapia psicodélica legal solo existe en Oregon, Colorado y Australia. Mientras, apps como Alterd aprovechan el vacío legal, aunque sus creadores insisten en que «no refuerza conductas peligrosas». Críticos como Jamie Wheal, autor de «Stealing Fire», temen que los usuarios «pierdan el contacto con la realidad» al depender de IA.
Un futuro con menos humanos y más algoritmos
Prototipos como «orbes» shamánicos y trajes táctiles para realidad virtual ya se prueban en estudios. La IA podría incluso modular actividad cerebral durante los viajes, según un artículo en Annals of the New York Academy of Sciences. Pero como resume Girn: «Nada reemplaza la conexión humana en terapias con sustancias tan poderosas».