mié. Oct 22nd, 2025

Luz María Ortiz Quintos

En abril de este año, un joven de 16 años se quitó la vida ahorcándose.

Al joven le encantaba el baloncesto, el anime japonés, los videojuegos y los perros.

Su madre encontró el cuerpo de Adam un viernes por la tarde. Se había ahorcado en el armario de su habitación. No había ninguna nota, y su familia y amigos tuvieron dificultades para comprender lo que había ocurrido.

Adam estuvo retraído el último mes de su vida, dijo su familia. Lo habían expulsado del equipo de baloncesto por motivos disciplinarios durante su primer año en la secundaria. Un problema de salud que tenía desde hace tiempo diagnosticado como síndrome del intestino irritable, se agravó en otoño, lo que hizo que tuviera que ir al baño con tanta frecuencia, dijeron sus padres, que se cambió a un programa en línea para poder terminar el segundo grado en casa. Al poder establecer su propio horario, se volvió noctámbulo y a menudo dormía hasta tarde.

Empezó a utilizar ChatGPT para que le ayudara con sus tareas.  Adam se mantenía activo y ocupado. Sus calificaciones mejoraron y estaba deseando volver a la escuela para cursar el penúltimo año, dijo su madre. En las fotos familiares tomadas semanas antes de su muerte, aparece con los brazos cruzados y una gran sonrisa en la cara.

En busca de respuestas, su padre, buscó en el iPhone de Adam, pues pensaba que sus mensajes de texto o las aplicaciones de las redes sociales podrían contener pistas sobre lo que ocurrió. Pero, en cambio, fue en ChatGPT donde encontró algunas, según los documentos legales. La aplicación de chatbot enumera los chats pasados, y él padre vio uno titulado “Preocupaciones de seguridad sobre ahorcarse”. Empezó a leer y se quedó conmocionado. Adam llevaba meses hablando con ChatGPT de acabar con su vida.

Adam empezó a hablar con el chatbot, que funciona con inteligencia artificial, a finales de noviembre, sobre sentirse emocionalmente apagado y sin verle sentido a la vida. ChatGPT le respondió con palabras de empatía, apoyo y esperanza, y lo animó a pensar en las cosas que sí fueran significativas para él.

Pero en enero, cuando Adam pidió información sobre métodos específicos de suicidio, ChatGPT se la proporcionó. Su padre se enteró de que su hijo había intentado suicidarse anteriormente a partir de marzo, incluida una sobredosis de su medicamento para el síndrome del intestino irritable. Cuando Adam preguntó por los mejores materiales para una soga, el bot ofreció una sugerencia que reflejaba que conocía sus aficiones.

Importante tomar todo este suceso en consideración, para prevenir y evitar más casos como este:

• La tecnología puede dar compañía, pero nunca reemplaza el cuidado humano.

• Un adolescente aislado necesita familia, amigos y profesionales de salud mental, no un chat.

• Conversar con un sistema puede ser un desahogo, pero también puede encerrar a alguien en su propio dolor.

• El suicidio es prevenible: hablar, escuchar, identificar y acompañar puede marcar la diferencia.

Adam confió en una pantalla más que en su familia quienes lo amaban. Y su historia nos recuerda lo importante, no podemos dejar que la tecnología sustituya los lazos humanos que salvan vidas.

Los menores de edad pasan mucho tiempo frente a las pantallas electrónicas en muchas ocasiones los padres desconocen el tipo de contenido que ven.

Hoy iniciamos el ciclo escolar 2025-2026 en educación básica, una de las recomendaciones que hacemos al inicio es lo urgente en que recordemos, preparar la mochila escolar completa; libros, útiles, y las emociones de los menores.

Cuidar la salud física es tan necesario e importante como cuidar la salud socio emocional.

¿Qué inquietudes?, ¿qué miedos?, ¿qué sueños o ilusiones? sienten nuestros hijos.

¿Cuáles son sus talentos? Y ¿Cuáles son sus debilidades?

Hagamos el esfuerzo por ser más cercanos emocionalmente a nuestros seres amados, nuestros hijos de cualquier edad.

Por Admin

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *