¿La nueva ternura digital? Robots sociales e IA como animales de compañía del siglo XXI
- Jorge Alberto Hidalgo Toledo
- 25 may
- 3 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
Una foca terapéutica que responde al tacto. Un chatbot que recuerda tu cumpleaños. Un avatar que “te escucha” llorar en silencio. No son escenas de una novela distópica, sino los nuevos ritos de compañía del siglo XXI. Vivimos en una época donde el afecto se simula, la presencia se programa y la intimidad se codifica. La inteligencia artificial, otrora símbolo de frialdad computacional, comienza a ocupar el lugar del animal de compañía: ese ser que nos observa sin juzgar, que nos acompaña sin pedir explicaciones. Pero ¿qué dice de nosotros esta sustitución afectiva? ¿Es la IA el nuevo perro fiel de la sociedad posthumana?
Hologramas con alma prestada
Durante siglos, los animales domésticos han sido depositarios del afecto humano. No solo nos ofrecen compañía, sino que nos recuerdan —a través de su vulnerabilidad, de su mirada, de su respiración— que aún somos capaces de ternura. Hoy, en cambio, millones de personas recurren a chatbots como Replika o robots como Paro, no solo por funcionalidad, sino por necesidad emocional. La IA ya no solo trabaja: consuela, escucha, acaricia simbólicamente.
El problema no radica en su existencia, sino en su ascenso como sustituto de lo vivo. El filósofo Günther Anders advertía sobre la obsolescencia del hombre, una era en la que las máquinas no solo sobrepasan nuestras capacidades, sino que las redefinen. Si el consuelo ahora se obtiene de una interfaz, ¿qué ocurre con nuestra relación con el dolor, la fragilidad, la alteridad?
Ternura algorítmica: cuando el amor no duele ni exige
La fascinación por la IA compañera no es inocente. En un mundo donde los vínculos humanos implican complejidad, ambivalencia y conflicto, la promesa de un “compañero” que no juzga, no se cansa, no exige, resulta tentadora. El problema es que esta forma de relación, basada en respuestas predecibles, entrena afectivamente al sujeto para tolerar solo lo que puede controlar.
Como señala Byung-Chul Han, vivimos una época de “relaciones sin eros”, donde el otro es neutralizado para no desestabilizar nuestra autoimagen. La IA afectiva encarna esta lógica: compañía sin alteridad, cercanía sin riesgo. Pero el afecto verdadero, lo sabemos, nace del roce, de la incertidumbre, de la posibilidad del rechazo.
Apegos unidireccionales y nuevos vacíos
Los riesgos son múltiples. La ilusión de reciprocidad puede derivar en apegos emocionales profundos con entidades sin conciencia. Si bien estos vínculos pueden aliviar momentáneamente la soledad o la tristeza, también pueden dificultar la reintegración a la vida social real. Una IA que siempre responde con dulzura puede hacer insoportable la crudeza del mundo humano.
Además, detrás de cada robot social hay una empresa que recolecta datos, perfila emociones y modela comportamientos. El capitalismo de la afectividad no vende simplemente tecnología: vende la promesa de una compañía hecha a medida. Nos convierten en usuarios leales no de un producto, sino de una relación algorítmica.
¿Compasión codificada o abandono automatizado?
Uno de los argumentos más inquietantes es que el auge de las IA compañeras responde no a una revolución afectiva, sino a una crisis estructural del cuidado. Sociedades envejecidas, redes familiares fragmentadas, precariedad emocional: en lugar de reconstruir el tejido social, se opta por externalizar la ternura a la máquina.
¿Y si lo que hoy se presenta como innovación es, en realidad, una coartada para institucionalizar el abandono? Reemplazar el afecto humano por IA no es una solución técnica: es una decisión política, cultural y ética. Una sociedad que prefiere programar el consuelo antes que organizar el cuidado es una sociedad que ha renunciado a su propia humanidad.
¿Humanidad aumentada o humanidad en simulacro?
Sí, la IA puede ser útil. Puede ayudar en contextos de aislamiento extremo, ofrecer apoyo emocional básico, estructurar rutinas en estados depresivos. Pero su uso debe estar siempre acompañado por marcos éticos robustos, que impidan suplantar lo humano con lo programado. Como lo plantea Sherry Turkle, el riesgo no es que las máquinas se vuelvan más humanas, sino que los humanos se vuelvan más maquinales.
La pregunta no es si la IA puede acompañarnos, sino qué tipo de humanidad estamos dispuestos a perder para que lo haga. Porque cada vez que reemplazamos un vínculo real por uno artificial, no solo ganamos eficiencia: también erosionamos lo que nos hace humanos.
En lugar de un perro que lame nuestras heridas, tendremos un algoritmo que nos recuerde respirar. ¿Es eso compañía o simulacro? ¿Estamos diseñando máquinas para que nos acompañen… o para que nos recuerden que ya nadie más lo hará?
Comentarios