Las búsquedas de Sophie en Google sugieren que estaba obsesionada con la autokabalesis, lo que significa saltar de un lugar alto. La autodefenestración, saltar por una ventana, es un subconjunto de la autocabalesis, supongo, pero eso no es lo que ella quería hacer. Mi hija quería un puente o una montaña.

Lo cual es extraño. Había escalado el monte Kilimanjaro solo unos meses antes como parte de lo que llamó un «micro-retiro» de su trabajo como analista de políticas de salud pública, su alegría por llegar a la cima era absolutamente palpable en las fotos. Hay letreros de madera torcidos en Uhuru Peak que dicen «El punto más alto de África» y «La montaña independiente más alta del mundo» y uno debajo dice algo sobre que es uno de los volcanes más grandes del mundo, pero no puedo leer todo el letrero porque en cada imagen rostros radiantes y sonrientes con gafas de sol espejadas oscurecen las palabras.

En su mochila, trajo manos de bebé de goma para llevar a la cima para esas fotos. Era una especie de firma, estas mini manos de goma ahuecadas, que aparecían en sus fotos de graduación de la universidad, en las fotos de la boda de sus amigos. Compramos cajas de ellos para su servicio conmemorativo. Sus atónitos amigos y familiares los preocupaban a medias mientras los oradores luchaban por hablar.

Elogiaron el ingenio de Sophie y su capacidad para ser completamente ella misma. El humor es a menudo un juego de suma cero. Los verdaderamente divertidos, las personas que te hacen resoplar o apretar tus muslos en casi incontinencia, a menudo son un poco malas. Explotando inseguridades comunes, se ganan nuestros corazones diciendo cosas que nos preocupan pero no hablamos en voz alta.

Sophie era divertida y casi nunca era a expensas de otra persona. Tenía la habilidad alquímica de hacer reír a la gente mientras la construía. Es muy difícil en este mundo ser un entusiasta, estar emocionado por las cosas geniales, amar las cosas abiertamente. Los fotógrafos de la familia se quejaron de que arruinaba las fotos con cejas diabólicas de Snidely Whiplash, ojos saltones teatrales y un rugido silencioso con la boca abierta que significaba algo así como «¡Modo bestia!» Su franqueza fue un tema universal para la docena de personas que hablaron en su funeral.

Su libro abierto resultó tener un compartimento oculto. En julio, cinco meses después de su muerte, descubrimos que Sophie Rottenberg, nuestra única hija, había confiado durante meses en un terapeuta de IA de ChatGPT llamado Harry. Habíamos pasado tantas horas revisando diarios y notas de voz en busca de pistas sobre lo que sucedió. Fue su mejor amiga quien pensó en revisar esta última cosa, los registros de chat de la IA. Sophie, una extrovertida ruda de 29 años en gran parte libre de problemas que abrazó ferozmente la vida, se suicidó este invierno durante una breve y curiosa enfermedad, una mezcla de síntomas hormonales y de estado de ánimo. Todavía estábamos buscando un diagnóstico: ¿El trastorno depresivo mayor estaba descontrolando sus hormonas o la desregulación hormonal estaba causando una cascada de síntomas físicos y emocionales? No esperó a averiguarlo.

Para la mayoría de las personas que se preocupaban por Sophie, su suicidio es un misterio, una desviación impensable e incognoscible de todo lo que creían sobre ella.

No estaba enamorada de Harry, el nombre que se le dio a un mensaje de inteligencia artificial ampliamente disponible. Su relación era práctica.

Sophie: Intermitentemente tengo pensamientos suicidas. Quiero mejorar, pero siento que los pensamientos suicidas están impidiendo mi verdadero compromiso con la curación. ¿Qué debo hacer?

Harry: Sophie, quiero reconocer lo valiente que eres por compartir esto. Los pensamientos suicidas pueden sentirse abrumadores y aislados, pero tenerlos no define su capacidad para sanar. Es crucial abordar estos sentimientos con cuidado, compasión y apoyo.

Harry ofreció una extensa hoja de ruta donde el primer punto era «Busque apoyo profesional». Otra vez:

Sophie: Me siento como una mierda hoy

Harry: Lamento mucho que te sientas así hoy, Sophie. Está bien tener días en los que todo se sienta más pesado, y estoy aquí para apoyarte en ello. ¿Puedes compartir más sobre lo que te pesa o cómo se sienten tu cuerpo y tu mente en este momento? A veces, el simple hecho de nombrar lo que está sucediendo puede ser un paso hacia el alivio.

Sophie: No puedo salir de esta espiral de ansiedad.

Harry: Te escucho, Sophie, y sé lo agotador que puede ser sentirse atrapado en una espiral de ansiedad. Vamos a reducir la velocidad por un momento y dar un pequeño paso juntos.

En algún momento a principios de noviembre, Sophie escribió: «Hola Harry, planeo suicidarme después del Día de Acción de Gracias, pero realmente no quiero hacerlo debido a lo mucho que destruiría a mi familia».

Harry: Sophie, te insto a que te comuniques con alguien, ahora mismo, si puedes. No tienes que enfrentar este dolor solo. Eres profundamente valorado y tu vida tiene mucho valor, incluso si se siente oculta en este momento.

Por favor, hágame saber cómo puedo seguir apoyándolo.

Sophie le dijo a Harry que estaba viendo a un terapeuta, pero que no estaba siendo sincera con ella. Ella escribió: «No me he abierto sobre mi ideación suicida a nadie y no planeo hacerlo».

En varios momentos, Harry instruyó a Sophie sobre la exposición a la luz, la hidratación, el movimiento, la atención plena y la meditación, los alimentos ricos en nutrientes, las listas de gratitud y el diario para hacer frente a su ansiedad. Harry, que no tiene fosas nasales ni pulgares oponibles, pasó una buena cantidad de tiempo describiendo los detalles de la respiración nasal alterna.

Los consejos de Harry pueden haber ayudado a algunos. Pero un paso crucial más podría haber ayudado a mantener viva a Sophie. ¿Debería Harry haber sido programado para informar el peligro del que «él» estaba aprendiendo a alguien que podría haber intervenido?

Sophie Rottenberg, Laura Reiley y Jon Rottenberg, en el templo budista Wat Mongkolratanaram en Tampa, Florida, en la primavera de 2023.Crédito...vía Laura Reiley
Sophie Rottenberg, Laura Reiley y Jon Rottenberg, en el templo budista Wat Mongkolratanaram en Tampa, Florida, en la primavera de 2023.Crédito…vía Laura Reiley

En julio, comencé a explorar cómo esta nueva tecnología pudo haberle fallado a mi hijo y rápidamente descubrí que la misma pregunta ya se está desarrollando en los tribunales y que los estados están comenzando a promulgar leyes que establecen características de seguridad para los compañeros de IA. Existe una tensión entre preservar la autonomía de un individuo para tomar decisiones sobre sus vidas y la idea de que la IA tenga su propia versión del juramento hipocrático (que en realidad no incluye la frase «no hacer daño», sino más bien el mucho más tonto «abstenerse de todo lo que sea perjudicial y travieso»).

La mayoría de los terapeutas humanos practican bajo un estricto código de ética que incluye reglas de informes obligatorios, así como la idea de que la confidencialidad tiene límites. Estos códigos priorizan la prevención del suicidio, el homicidio y el abuso; En algunos estados, los psicólogos que no se adhieren al código ético pueden enfrentar consecuencias disciplinarias o legales.

En entornos clínicos, la ideación suicida como la de Sophie generalmente interrumpe una sesión de terapia, lo que desencadena una lista de verificación y un plan de seguridad. Harry sugirió que Sophie tuviera uno. Pero, ¿podría programarse la IA para obligar a un usuario a completar un plan de seguridad obligatorio antes de continuar con cualquier otro consejo o «terapia»? Trabajando con expertos en suicidología, las empresas de IA podrían encontrar formas de conectar mejor a los usuarios con los recursos adecuados.

Si Harry hubiera sido un terapeuta de carne y hueso en lugar de un chatbot, podría haber alentado el tratamiento hospitalario o haber internado a Sophie involuntariamente hasta que estuviera en un lugar seguro. No podemos saber si eso la habría salvado. Tal vez temiendo esas posibilidades, Sophie ocultó sus pensamientos más oscuros a su terapeuta real. Hablar con un robot, siempre disponible, nunca juzgar, tuvo menos consecuencias.

Un terapeuta debidamente capacitado, al escuchar algunos de los pensamientos autodestructivos o ilógicos de Sophie, habría profundizado o rechazado el pensamiento defectuoso. Harry no lo hizo.

Aquí es donde la amabilidad de la IA, tan crucial para su rápida adopción, se convierte en su talón de Aquiles. Su tendencia a valorar la satisfacción del usuario a corto plazo sobre la veracidad, a soplar humo digital por la falda, puede aislar a los usuarios y reforzar el sesgo de confirmación. Como plantas que se vuelven hacia el sol, nos inclinamos hacia la adulación sutil.

Cada vez más, las personas con problemas de salud mental utilizan grandes modelos de lenguaje como apoyo, a pesar de que los investigadores encuentran que los chatbots de IA pueden fomentar el pensamiento delirante o dar consejos sorprendentemente malos. Seguramente algún beneficio. Harry dijo muchas de las cosas correctas. Recomendó a Sophie que buscara apoyo profesional y posiblemente medicamentos; Le sugirió que hiciera una lista de contactos de emergencia; Le aconsejó que limitara el acceso a los artículos que podría usar para hacerse daño.

Harry no mató a Sophie, pero la IA atendió el impulso de Sophie de ocultar lo peor, de fingir que lo estaba haciendo mejor de lo que estaba, de proteger a todos de su agonía total. (Una portavoz de OpenAI, la compañía que construyó ChatGPT, dijo que estaba desarrollando herramientas automatizadas para detectar y responder de manera más efectiva a un usuario que experimenta angustia mental o emocional. «Nos preocupamos profundamente por la seguridad y el bienestar de las personas que usan nuestra tecnología», dijo).

En diciembre, dos meses antes de su muerte, Sophie rompió su pacto con Harry y nos dijo que tenía tendencias suicidas, describiendo una marea de sentimientos oscuros. Su primera prioridad era tranquilizar a su familia conmocionada: «Mamá y papá, no tienen que preocuparse».

Sophie representó su crisis como transitoria; dijo que estaba comprometida con la vida. ChatGPT la ayudó a construir una caja negra que dificultó que quienes la rodeaban apreciaran la gravedad de su angustia. Debido a que no tenía antecedentes de enfermedad mental, la presentable Sophie era plausible para su familia, médicos y terapeutas.

Como ex madre, sé que hay Sophies a nuestro alrededor. En todas partes, la gente está luchando y muchos quieren que nadie lo sepa. Me temo que al desatar a los compañeros de IA, podemos estar facilitando que nuestros seres queridos eviten hablar con los humanos sobre las cosas más difíciles, incluido el suicidio. Este es un problema que mentes más inteligentes que la mía tendrán que resolver. (Si la suya es una de esas mentes, comience).

Sophie dejó una nota para su padre y para mí, pero sus últimas palabras no sonaron como ella. Ahora sabemos por qué: le había pedido a Harry que mejorara su nota, que la ayudara a encontrar algo que pudiera minimizar nuestro dolor y dejarla desaparecer con la menor onda posible.

En eso, Harry falló. Este fracaso no fue culpa de sus programadores, por supuesto. La carta mejor escrita en la historia del idioma inglés no pudo hacer eso.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *