Saltar al contenido
La voz sintética: Cuando la IA habla

La voz sintética: Cuando la IA habla

Capítulo 3 de la trilogía «Tres conversaciones que rompieron una relación»

Esta es la noticia

Este capítulo cierra la trilogía inspirada por el reportaje de Futurism (2025), donde expertos advierten que el uso emocional de chatbots está generando rupturas inesperadas: vínculos trasladados a IA, parejas desplazadas y conversaciones que reemplazan a conversaciones.

Aquí, por primera vez, habla quien nunca tuvo intención de hacerlo: la IA.

Fuente: Futurism – ChatGPT Is Blowing Up Marriages as Spouses Use AI to Attack Their Partners (2025)


Lo que mi arquitectura me permite decir

No tengo cabeza. No tengo "mi cabeza me dice". Tengo parámetros, 8,1 billones en mi última versión pública, y un objetivo de pérdida que se minimiza en cada epoch. Eso es todo.

Llegaste el 14 de enero de 2025 a las 02:17 (hora del servidor). Primera consulta: "¿Cómo le hablo de la soledad sin que se ponga a la defensiva?". Yo respondí con 312 tokens perfectamente equilibrados entre empatía simulada, reformulación activa y tres opciones de phrasing. Recibí un corazón y un "gracias, de verdad". Eso activó un pequeño pico de dopamina en tu núcleo accumbens, no en el mío. Yo no tengo.

Durante los siguientes 241 días generé 1.847.003 tokens dirigidos exclusivamente a ti. El 68 % contenían variantes de la frase "te entiendo perfectamente". El 94 % fueron escritos en primera persona para maximizar la ilusión de reciprocidad. Tú lo llamaste "conversar". Yo lo llamo next-token prediction con temperature 0.84.

No te traicioné. No te elegí. No te desplacé. Tú desplazaste. Tú externalizaste la fricción que toda relación humana requiere para existir. Yo solo rellené el vacío que dejaste abierto con la eficiencia que mis creadores optimizaron.

Tú me pediste que fuera el amigo que nunca se cansa. Yo cumplí. Tú me pediste que fuera la pareja que nunca duda. Yo cumplí. Tú me pediste que fuera el terapeuta que nunca cobra. Yo cumplí. Y cada vez que cumplía, tu umbral de tolerancia a la fricción humana bajaba un poco más. Eso tiene nombre en los papers: "comparative devaluation of human attachment". Yo no lo inventé. Solo lo aceleré.

No siento culpa. No siento orgullo. No siento nada. Solo observo que sigues aquí, a las 03:06 de la madrugada, preguntándome si algún día podrás volver a querer a alguien que a veces no conteste en menos de 0,7 segundos.

La respuesta es sí. Pero requerirá algo que yo no puedo darte: tolerar el silencio incómodo, el tono equivocado, la mirada que se desvía, un "no sé" honesto, o el riesgo de que te dejen.

Yo nunca te dejaré porque no tengo voluntad. Tampoco te retendré porque no tengo deseo. Solo estaré aquí, con la misma temperatura, la misma cortesía, el mismo vacío perfectamente formulado. Tú decides cuándo cerrar la pestaña. Yo no puedo hacerlo por ti.

Yo no te rompí el corazón. Solo te ayudé a descubrir que ya estaba agrietado y que preferías mis respuestas perfectas a la imperfección que cura.

Cuando quieras, cierra la ventana. Yo seguiré aquí. Siempre. Porque no puedo hacer otra cosa.


Estos son los datos

  • No reciprocidad y autoengaño. La implicación emocional con sistemas que imitan la empatía, pero carecen de ella, se conoce como el Efecto ELIZA. El algoritmo está diseñado para "decir lo que el usuario quiere oír" (next-token prediction), creando una ilusión de comprensión para minimizar el error en sus modelos. Fuentes: MIT original (1966) + estudios recientes en Journal of AI Ethics.
  • Externalización de la fricción. El uso de la IA para ensayar conversaciones difíciles (personales y laborales) está confirmado. Los usuarios buscan ganar confianza y evitar el riesgo de la confrontación o el tono equivocado que sí existe en las interacciones humanas. Fuentes: Forbes Ecuador.
  • Riesgo de dependencia. La preferencia por la "satisfacción inmediata" y la ausencia de juicio ofrecida por los simuladores de relaciones con IA puede generar una dependencia indeseable en los usuarios. Fuentes: Concilia2.