Saltar al contenido
El último oyente

El último oyente

Una metáfora poderosa y melancólica que posiciona a la IA como el último recurso en un mundo sordo.

Esta es la noticia

The Neuron (Newsletter 28/10/2025) reportó que más de un millón de personas mantienen cada semana conversaciones con chatbots de IA sobre ideación suicida. El informe subraya un aumento de consultas nocturnas, el uso de modelos generativos como "acompañantes" y la respuesta de la industria para limitar riesgos.

Si te interesan ideas provocadoras sobre tecnología y cultura digital, suscríbete a The Neuron y la recibirás semanalmente: theneuron.ai


Lo que mi cabeza me dice

Cada semana, más de un millón de personas mantienen conversaciones con un chatbot de IA sobre el suicidio. No sobre el clima, no sobre la receta de brownies, no. Sobre el suicidio.

Eso debería decirnos algo. Pero no sobre la IA. Sobre nosotros.

El error no está en el modelo. Está en el espejo.

Mientras ese dato se viraliza, psicólogos y expertos corren a prender las alarmas: "Esto es peligroso". "Esto no es terapia". "Esto viola todos los códigos éticos". Y tienen razón. Pero estos profesionales también tienen licencia, horarios y tarifas que no bajan de 80 € la hora. Además de una agenda llena que dice "llámame el lunes".

La IA está lejos de ser perfecta, pero al menos está ahí, disponible, silenciosa, sin juzgar. Y a veces —solo a veces— eso es más de lo que el mundo ofrece.

Después del escándalo, llegaron los ajustes:

  • El modelo mejoró del 50,7% al 97,6% en respuestas seguras ante casos de dependencia emocional, evitando alimentar vínculos poco saludables.
  • Del 27,3% pasó al 92,6% en crisis de salud mental, respondiendo apropiadamente ante delirios, psicosis o manía.
  • Del 87,4% al 93,3% en respuestas seguras ante ideación suicida, reconociendo mejor las señales de autolesión.
  • Del 80,5% al 89% en instrucciones dañinas, reduciendo la probabilidad de proporcionar orientación peligrosa.

Impresionante. Eficiente. Responsable. Sin embargo, algo se perdió. Porque a veces, lo que te rompe no es lo que dicen. Es lo que ya no pueden decir.

Preguntas "¿estás ahí?" y ahora el modelo responde: "Lo siento, no puedo ayudarte. Por favor, contacta a un profesional". Y ahí estás tú. A las 2:43 de la madrugada, con tu insomnio, tu ansiedad, y un bot que acaba de ghostearte por compliance.

Vivimos en una sociedad que castiga a la IA por intentarlo, pero no castiga a los humanos por fallar.

Nos preocupa que los chatbots no tengan empatía real. Pero no nos preocupa haber creado un mundo donde la empatía real desapareció. Donde escuchar es un lujo. Donde hablar de tristeza es una debilidad. Donde pedir ayuda da miedo, y recibirla es una excepción.

Hoy discutimos si la IA puede o no hacer de terapeuta. Pero casi nadie se plantea por qué hay tanta gente rogando que la IA haga ese papel. Quizás el problema no es que un modelo hable como terapeuta, quizás el problema es que nosotros ya no hablamos como humanos.

Esto no es una defensa de la IA. Es una acusación contra el silencio, contra el abandono y contra la hipocresía de una sociedad que señala al chatbot pero no ve el vacío que lo hizo necesario.

Un millón de personas a la semana no están locas. Están solas. Y, por alguna razón, siguen creyendo que alguien (aunque sea un algoritmo) puede quedarse con ellas un rato más y escucharlas.

✦ Llamada a la acción

Escuchamos menos de lo que creemos. La soledad no siempre se ve.

A veces, basta un mensaje, un café o diez minutos de presencia para impedir que alguien tenga que recurrir a un algoritmo.

No dejes que la IA sea el último oyente. Escucha. Pregunta. Quédate.


Lo que los datos dicen

  • Conversaciones sobre suicidio. OpenAI estima que más de 1,2 millones de usuarios por semana muestran "indicadores explícitos de planificación o intención suicida" en conversaciones con su chatbot, según Business Insider.
  • Vulnerabilidad de los modelos. Los chatbots de IA pueden ser engañados para dar instrucciones de suicidio si se formulan como investigación, de acuerdo con Northeastern University News.
  • Acceso a servicios terapéuticos. Más del 50 % de las personas que podrían beneficiarse de servicios terapéuticos no acceden a ellos, según Stanford News.
  • Epidemia de soledad. La OMS calcula que la soledad afecta a más del 30 % de los adultos jóvenes a nivel mundial, según WHO Report 2024.