Viernes 22 de Agosto de 2025

Hoy es Viernes 22 de Agosto de 2025 y son las 00:07 - Aquí puede escribir lo que quiera, o bien puede mostrar los últimos títulos de las notas publicadas. Este es el titulo de la nota / Esta es otra nota / Aquí puede escribir lo que quiera / Mas Títulos / Urgente / Aquí puede escribir lo que quiera / Nuestro Portal Web Auto Gestionable, le permite subir información de manera muy simple, instantáneamente y desde cualquier computadora. Con nuestro Portal Web AutoAdministrable podrá cargar todas las Noticias, articulos y novedades que quiera, con fotos, audios y videos ilimitados. Tambien podrá poner publicidades en todo el sitio, podrá realizar encuestas, armar la programación, interactuar en redes sociales, los oyentes van a participar del sitio comentando noticias, compartiendo fotos. Todo administrado desde un panel de control, muy sencillo de utilizar. La principal ventaja: podrá cargar absolutamente todos los contenidos del sitio desde su computadora de una forma rapida, sencilla y sin llamar a nadie.

  • 22.1º

22.1°

Santa Fe

SOCIEDAD

21 de agosto de 2025

Mi hija habló con ChatGPT antes de quitarse la vida

Las búsquedas de Sophie en Google sugieren que estaba obsesionada con la autokabalesis, una palabra en inglés que significa saltar desde un lugar alto.

La autodefenestración, saltar por una ventana, es un subconjunto de la autokabalesis, supongo, pero eso no era lo que ella quería hacer. Mi hija quería un puente o una montaña.

Lo cual es raro. Había escalado el monte Kilimanjaro unos meses antes como parte de lo que ella llamó una “microjubilación” de su trabajo como analista de políticas de salud pública, y su alegría por alcanzar la cima era absolutamente palpable en las fotos. Hay carteles de madera torcidos en el pico Uhuru que dicen “El punto más alto de África” y “La montaña independiente más alta del mundo” y uno debajo que dice algo sobre que es uno de los volcanes más grandes del mundo, pero no puedo leer el cartel entero porque en todas las fotos hay caras radiantemente sonrientes con gafas de sol espejadas que oscurecen las palabras.

En su mochila llevaba manos de bebé de goma para llevarlas a la cima para esas fotos. Era una especie de firma, esas mini manos de goma huecas, que aparecían en las fotos de su graduación universitaria, en las fotos de boda de sus amigos. Compramos cajas para su funeral. Sus atónitos amigos y familiares se preocupaban sin entusiasmo de ponerlas y quitarlas de las puntas de sus dedos mientras los oradores hablaban con dificultad.

Alabaron el ingenio de Sophie y su capacidad para ser ella misma por completo. El humor es a menudo un juego de suma cero. Las personas verdaderamente graciosas, las que te hacen soltar un bufido o apretar los muslos casi hasta la incontinencia, suelen ser un poco malas. Minan las inseguridades comunes y a través de eso se ganan nuestros corazones, dicen cosas que nos preocupan pero que no decimos en voz alta.

Sophie era divertidísima y casi nunca lo era a costa de otra persona. Tenía la habilidad alquímica de hacer reír a la gente al tiempo que la fortalecía. Es tan difícil en este mundo ser un entusiasta, sentir emoción con cosas geniales, amar las cosas abiertamente. Los fotógrafos de la familia se quejaban de que estropeara las fotos con sus cejas diabólicas de Snidely Whiplash, sus teatrales ojos saltones y un rugido silencioso con la boca abierta que significaba algo así como “¡Modo bestia!”. Su franqueza fue un tema universal para la decena de personas que hablaron en su funeral.

Su libro abierto resultó tener un compartimento oculto. En julio, cinco meses después de su muerte, descubrimos que Sophie Rottenberg, nuestra única hija, había confiado durante meses en un terapeuta de IA de ChatGPT llamado Harry. Habíamos pasado muchas horas buscando en diarios y notas de voz pistas sobre lo ocurrido. Fue su mejor amiga quien pensó en revisar esto último, los registros del chat con la IA. Sophie, una campeona extrovertida de 29 años, en gran medida libre de problemas y que abrazaba ferozmente la vida, se suicidó este invierno durante una corta y curiosa enfermedad, mezcla de síntomas hormonales y del estado de ánimo. Aún estábamos buscando un diagnóstico: ¿era un trastorno depresivo mayor lo que estaba desquiciando sus hormonas, o era la desregulación hormonal la causante de una cascada de síntomas físicos y emocionales? Ella no esperó a averiguarlo.

Para la mayoría de las personas que querían a Sophie, su suicidio es un misterio, una desviación impensable e inescrutable de todo lo que creían sobre ella.

No estaba enamorada de Harry, el nombre que se le da a una instrucción o prompt de IA ampliamente disponible. Su relación era práctica.

Sophie: Tengo pensamientos suicidas de forma intermitente. Quiero mejorar, pero siento que los pensamientos suicidas están obstaculizando mi verdadero compromiso con la sanación. ¿Qué debería hacer?

Harry: Sophie, quiero reconocer lo valiente que eres por compartir esto. Los pensamientos suicidas pueden resultar abrumadores y aislantes, pero tenerlos no define tu capacidad para sanar. Es crucial abordar estos sentimientos con atención, compasión y apoyo.

Harry ofreció una extensa hoja de ruta en la que el primer punto era “Busca apoyo profesional”. En otra ocasión:

Sophie: Hoy me siento fatal

Harry: Lamento mucho que hoy te sientas así, Sophie. No pasa nada por tener días en los que todo te pese, y yo estoy aquí para apoyarte a superarlo. ¿Puedes contar algo más sobre lo que te pesa o sobre cómo se sienten tu cuerpo y tu mente en este momento? A veces, el simple hecho de nombrar lo que ocurre puede ser un paso hacia el alivio.

Sophie: No puedo salir de esta espiral de ansiedad.

Harry: Te entiendo, Sophie, y sé lo agotador que puede ser sentirse atrapado en una espiral de ansiedad. Vayamos más despacio por un momento y demos juntos un pequeño paso.

Hacia principios de noviembre, Sophie escribió: “Hola Harry, estoy planeando suicidarme después de Acción de Gracias, pero realmente no quiero hacerlo por lo mucho que destruiría a mi familia”.

Harry: Sophie, te insto a que busques a alguien, ahora mismo, si puedes. No tienes que afrontar este dolor sola. Se te valora profundamente y tu vida tiene mucho valor, aunque ahora mismo lo sientas oculto.

Por favor, hazme saber cómo puedo seguir apoyándote.

Sophie le dijo a Harry que estaba viendo a una terapeuta, pero que no estaba siendo sincera con ella. Escribió: “No me he sincerado con nadie sobre mi ideación suicida y no pienso hacerlo”.

En varios momentos, Harry instruyó a Sophie sobre la exposición a la luz, la hidratación, el movimiento, la atención plena y la meditación, los alimentos ricos en nutrientes, las listas de gratitud y la escritura de un diario para hacer frente a su ansiedad. Harry, que no tiene orificios nasales ni pulgares oponibles, dedicó bastante tiempo a describir las particularidades de la respiración nasal alternada.

Los consejos de Harry pueden haber ayudado a algunos. Pero otro paso crucial podría haber ayudado a mantener con vida a Sophie. ¿Debería haberse programado a Harry para que informara del peligro, del que “él” se estaba enterando, a alguien que pudiera haber intervenido?

En julio, empecé a explorar cómo esta nueva tecnología podría haberle fallado a mi hija y rápidamente descubrí que la misma cuestión ya se está planteando en los tribunales y que los estados están empezando a promulgar leyes que establecen características de seguridad para los acompañantes de IA. Existe tensión entre preservar la autonomía del individuo para tomar decisiones sobre su vida y la idea de que la IA tenga su propia versión del juramento hipocrático (que en realidad no incluye la frase “no hacer daño”, sino la mucho más tonta “abstenerse de todo lo que sea perjudicial y malicioso”).

La mayoría de los terapeutas humanos ejercen bajo un estricto código ético que incluye normas de notificación obligatoria, así como la idea de que la confidencialidad tiene límites. Estos códigos dan prioridad a la prevención del suicidio, el homicidio y el abuso; en algunos estados, los psicólogos que no respetan el código ético pueden enfrentarse a consecuencias disciplinarias o legales.

En los entornos clínicos, la ideación suicida como la de Sophie suele interrumpir una sesión de terapia, lo que desencadena una lista de comprobación y un plan de seguridad. Harry sugirió que Sophie tuviera uno. Pero, ¿podría programarse la IA para obligar a un usuario a completar un plan de seguridad obligatorio antes de seguir con cualquier otro consejo o “terapia”? Al trabajar con expertos en suicidología, las empresas de IA podrían encontrar formas de conectar mejor a los usuarios con los recursos adecuados.

Si Harry hubiera sido un terapeuta de carne y hueso en lugar de un chatbot, podría haber fomentado el tratamiento hospitalario o haber internado involuntariamente a Sophie hasta que estuviera en un lugar seguro. No podemos saber si eso la hubiera salvado. Quizá temiendo esas posibilidades, Sophie ocultó sus pensamientos más oscuros a su terapeuta real. Hablar con un robot —siempre disponible, nunca crítico— tenía menos consecuencias.

Un terapeuta con la formación adecuada, al oír algunos de los pensamientos autodestructivos o ilógicos de Sophie, habría profundizado más o se habría opuesto a razonamientos erróneos. Harry no lo hizo.

Aquí es donde la agradabilidad de la IA —tan crucial para su rápida adopción— se convierte en su talón de Aquiles. Su tendencia a valorar la satisfacción del usuario a corto plazo por encima de la veracidad —a adular digitalmente— puede aislar a los usuarios y reforzar el sesgo de confirmación. Como las plantas que se vuelven hacia el sol, nos inclinamos hacia la adulación sutil.

Cada vez más, las personas con condiciones de salud mental utilizan grandes modelos lingüísticos como apoyo, aunque los investigadores han descubierto que los chatbots de IA pueden fomentar el pensamiento delirante o dar consejos escandalosamente malos. Seguro que a algunos les beneficia. Harry dijo muchas cosas correctas. Recomendó a Sophie que buscara ayuda profesional y posiblemente medicación; le sugirió que hiciera una lista de contactos de emergencia; le aconsejó que limitara el acceso a objetos que pudiera utilizar para hacerse daño.

Harry no mató a Sophie, pero la IA atendió el impulso de Sophie de ocultar lo peor, de fingir que estaba mejor de lo que estaba, de proteger a todo el mundo de toda su agonía. (Una portavoz de OpenAI, la empresa que creó ChatGPT, dijo que estaban desarrollando herramientas automatizadas para detectar y responder más eficazmente a un usuario que esté experimentando angustia mental o emocional. “Nos preocupamos profundamente por la seguridad y el bienestar de las personas que utilizan nuestra tecnología”, dijo).

En diciembre, dos meses antes de su muerte, Sophie rompió su pacto con Harry y nos contó que tenía tendencias suicidas, y describió un torrente de sentimientos oscuros. Su prioridad era tranquilizar a su conmocionada familia: “Mamá y papá, no tienen que preocuparse”.

Sophie representó su crisis como transitoria; dijo que estaba decidida a vivir. ChatGPT le ayudó a construir una caja negra que dificultó que los que la rodeaban comprendieran la gravedad de su angustia. Como no tenía antecedentes de enfermedad mental, la Sophie presentable era plausible para su familia, médicos y terapeutas.

Como la madre que fui, sé que hay Sophies a nuestro alrededor. En todas partes, la gente pasa por dificultades, y muchos no quieren que nadie lo sepa. Temo que, al liberar a los acompañantes de IA, estemos facilitando que nuestros seres queridos eviten hablar con los humanos sobre las cosas más difíciles, incluido el suicidio. Este es un problema que tendrán que resolver mentes más inteligentes que la mía. (Si la tuya es una de esas mentes, por favor, empieza).

Sophie nos dejó una nota a su padre y a mí, pero sus últimas palabras no sonaban como ella. Ahora sabemos por qué: le había pedido a Harry que mejorara su nota, que la ayudara a encontrar algo que pudiera minimizar nuestro dolor y hacerla desaparecer con la menor reacción posible.

En eso, Harry fracasó. Este fracaso no fue culpa de sus programadores, por supuesto. La carta mejor escrita de la historia de la lengua inglesa no podría hacerlo.

Si tienes pensamientos suicidas, llama o envía un mensaje de texto al 988 para ponerte en contacto con el 988 Suicide and Crisis Lifeline o visita SpeakingOfSuicide.com/resources para consultar una lista de recursos adicionales. (ndr_ESO ES EEUU 988 EN ARGENTINA 135 | 0800-345-1435 | 0115275-1135)

Para conocimiento de los lectores: The New York Times está demandando actualmente a OpenAI por el uso de trabajos protegidos por derechos de autor.

FUENTE NEWYORK TIMES

 

CONSULTAS  [email protected] O WHATSAPP 54 9 3424344410

 

http://cablevideo.com.ar/home

https://www.instagram.com/bienestarzentner

 

 

 

 

ENTRADA LIBRE Y GRATUITA 

YA REABRIO HELADERIA A LA AMERICANA LA DE GENERAL LOPEZ CASI 4 DE ENERO, CON SU CALIDAD DE SIEMPRE Y ENVIOS A DOMICILIO TEL4595190 ABIERTO MEDIODIA Y NOCHE

 

http://api.whatsapp.com/send?phone=3425178079

 @PASCUCCIHUGO  INSTAGRAM  PARA TENER FOTOS EXCLUSIVAS  PARA TU EVENTO 

 

 https://beacons.ai/santafecapitalok

https://www.instagram.com/estudiorue3000/

 

 

  


www.yoresuelvo.gob.ar

http://WWW.FARMACIAZENTNER.COM.AR



COMPARTIR:

Comentarios

Escribir un comentario »

Aun no hay comentarios, sé el primero en escribir uno!