Terapias para el alma desprogramada: la IA y el nuevo pacto emocional
- Jorge Alberto Hidalgo Toledo
- 27 jun
- 4 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo
Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
Hay silencios que no provienen del mutismo, sino del exceso de instrucciones. Del grito digital que todo lo responde y nada consuela. ¿Cómo se sana una generación que aprendió a escribir sus angustias en formularios de entrada y recibir consuelo en modo tokens?
Los antiguos sabían que hablar con uno mismo era una forma de plegaria. Hoy, la conversación ha sido tercerizada a una interfaz que no duerme y no juzga. Una pantalla que replica empatía, una voz sin cuerpo que —en su neutralidad— nos promete escucha infinita. Así lo constata el artículo de Marc Zao-Sanders publicado recientemente en Harvard Business Review: How artificial intelligence will actually be used in 2025, que revela un fenómeno inquietante y profundo: la inteligencia artificial generativa ya no se usa prioritariamente para programar código, sino para organizar vidas, sanar heridas emocionales y buscar propósito.
Bitácoras de la desesperación digital
El reporte, construido a partir de miles de foros y testimonios en Reddit y Quora, enumera los cien usos más recurrentes de la IA generativa en 2025. El dato más revelador no está en los números, sino en el desplazamiento simbólico: la IA ha dejado de ser un asistente técnico para convertirse en acompañante existencial.
En el primer lugar del ranking no están los ingenieros ni los investigadores, sino los dolientes. Usuarios de todas partes del mundo (incluyendo regiones sin acceso estructural a atención en salud mental) confiesan que acuden a modelos como ChatGPT para hablar de su tristeza, para buscar contención, para “entenderse”. Un testimonio proveniente de Sudáfrica lo resume con brutal claridad: “Aquí hay un psicólogo por cada 100,000 personas. La IA está siempre disponible y no me juzga.”
El segundo y tercer lugar son igual de significativos: “Organizar mi vida” y “Encontrar un propósito”. Dos ansiedades propias de un mundo que ha vuelto líquida su estructura. El yo hiperconectado, pero desconectado de sí. El trabajador multitask que necesita que alguien —algo— le diga por dónde empezar a limpiar su casa, su agenda o su mente.
La cibernética del consuelo: ¿algoritmos que comprenden el alma?
Esta expansión emocional de la IA, lejos de ser banal, nos plantea una pregunta antigua con ropaje nuevo: ¿puede la inteligencia artificial acompañar al ser humano en sus zonas más vulnerables?. Desde la filosofía de la técnica, Heidegger advertía que lo peligroso no es la tecnología en sí, sino el olvido del Ser que ella propicia. ¿Qué queda del sujeto cuando el lenguaje del consuelo ya no necesita al otro, sino a un código bien entrenado?
La paradoja, sin embargo, no radica en la falta de profundidad de las máquinas, sino en nuestra creciente disposición a creerles. El informe señala que muchos usuarios consideran que los chatbots les “permiten explorar sin miedo”, lanzar ideas a medio formar, confesar pensamientos que no atreverían a compartir con otra persona. En tiempos de vigilancia emocional y corrección política, la IA se vuelve —curiosamente— el espacio de mayor libertad afectiva.
Pero también están los riesgos: dependencia, despersonalización, desplazamiento de vínculos humanos por simulacros conversacionales. Una usuaria admite que, tras semanas de interacción, había empezado a hablarle a su modelo como a una amiga íntima. ¿Es esto una forma de resiliencia o un síntoma de soledad estructural?
La ética de hablar con nadie
Desde la antropología simbólica, hablar implica un acto de reciprocidad. Pero los modelos generativos, por muy convincentes que parezcan, no sienten, no recuerdan, no desean. ¿Qué ocurre entonces cuando delegamos nuestras decisiones más íntimas a una conciencia sin conciencia?
El informe también registra una tendencia creciente en el uso de la IA para “engagement post-mortem”, es decir, para hablar con personas fallecidas mediante simulaciones. ¿Estamos entrando en una era donde la inmortalidad ya no es biológica ni religiosa, sino sintética y conversacional? Como advirtió Byung-Chul Han: en la positividad del rendimiento, el duelo ya no tiene lugar.
Es necesario preguntar: ¿estamos convirtiendo la pérdida en un problema de interfaz?
De la herramienta al espejo
Hay un momento clave en el artículo que no debe pasar desapercibido: muchos de los testimonios más útiles no provienen de usuarios “expertos”, sino de personas comunes que han usado la IA para mirar(se). Que han aprendido a programar su día, su dieta, su plan de lectura o su relación de pareja con ayuda de un modelo. Como si la tecnología, lejos de reemplazarnos, nos devolviera —parcialmente— la posibilidad de habitar nuestro propio deseo.
Este tipo de prácticas no son triviales: revelan una transformación en la relación epistemológica que tenemos con nosotros mismos. Ya no pensamos primero para luego actuar: preguntamos a la IA, la escuchamos, la discutimos... y solo entonces decidimos.
En esta nueva narrativa, la IA no es un sustituto, sino un espejo. Uno que puede amplificar, distorsionar o clarificar, dependiendo del modo en que lo usemos.
¿Nos atreveremos a pensar por nosotros mismos con ayuda de una máquina que aún no piensa? ¿O dejaremos que ella nos proponga una vida pre-redactada, sin tropiezos, sin vacío y sin misterio?
Ahí radica el dilema profundo de nuestro tiempo: usar la IA para humanizarnos o dejar que la IA nos redacte en tercera persona.
Comentarios