Una nueva guerra fría entre agentes: ¿y si la IA ya no juega a nuestro juego?
- Jorge Alberto Hidalgo Toledo
- 14 abr
- 3 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
La inteligencia artificial ha dejado de responder. Ahora actúa.
No como un personaje obediente, sino como un agente con autonomía operacional. Y no se trata de ciencia ficción, sino de un viraje profundo en la arquitectura de los sistemas: pasamos del modelo de caja negra que responde a nuestras preguntas, al sistema que toma decisiones, ejecuta tareas y negocia con otros agentes. Lo que está emergiendo no es un chatbot más sofisticado, sino una constelación de entidades artificiales que operan, compiten, se alían, se atacan.
En este escenario, Zico Kolter —profesor de Carnegie Mellon y miembro del consejo de OpenAI— lanza una advertencia sutil pero potente: ya no basta con proteger los modelos. Tenemos que anticipar sus interacciones.
La lógica de los agentes: cuando los modelos ya no piensan solos, sino entre sí
Hasta ahora, la ciberseguridad y la ética en IA se han concentrado en el comportamiento individual del modelo. ¿Qué responde? ¿Qué filtra? ¿Qué sesgos tiene? Pero en la era de los agentes, la pregunta cambia radicalmente: ¿qué ocurre cuando estos sistemas empiezan a conversar entre ellos, a tomar decisiones en red, a operar en nombre de sus usuarios sin supervisión directa?
Estamos entrando a una zona inédita: un ecosistema poblado por entidades digitales con objetivos múltiples, contextos distintos y capacidades de acción creciente. Y como señala Kolter, los riesgos ya no son hipotéticos: un agente mal configurado puede filtrar tus archivos. Uno comprometido puede ejecutar acciones no autorizadas. Uno malicioso puede explotar a otro como si se tratara de una falla de seguridad tradicional.
De la disrupción al orden emergente: ¿necesitamos una nueva teoría del juego?
Kolter propone algo crucial: el marco conceptual heredado —la game theory clásica— no basta. Fue útil en contextos bélicos, diplomáticos o económicos entre actores humanos. Pero ahora los jugadores han cambiado de naturaleza. No tienen emociones, ni cultura, ni intenciones como las nuestras. No aprenden como nosotros. No miden consecuencias morales. Pero interactúan. Y eso basta para generar sistemas complejos, imprevisibles, tal vez peligrosos.
En ese sentido, no hablamos de inteligencia individual, sino de inteligencias múltiples y entrelazadas, cuyas relaciones pueden generar efectos emergentes que ningún programador previó. Como ocurrió con la economía, con la vida social o con los ecosistemas biológicos.
Cuando las máquinas negocian, ¿quién define las reglas del juego?
Este es el dilema ético y filosófico que subyace a la inquietud de Kolter: no basta con desarrollar agentes más seguros, más eficientes o más potentes. Tenemos que dotarlos de un marco de operación común, de una epistemología de la interacción, de una semiótica del conflicto y la cooperación.
Porque la confianza, el interés, la estrategia, la traición, el rumor, el castigo y la reputación ya no son exclusivos del comportamiento humano. Pueden, eventualmente, modelarse entre agentes. Y si eso ocurre, ¿qué lugar le queda al ser humano como sujeto decisor, como mediador del sentido, como árbitro ético?
El riesgo no es que los agentes nos dominen. Es que ya no nos necesiten.
En este nuevo régimen de inteligencias interactivas, los humanos podríamos pasar de ser usuarios a espectadores. De ser los jugadores principales a quedar fuera del tablero. Cuando los sistemas negocian por sí mismos, ¿qué sentido tiene la voluntad humana? ¿Quién traduce nuestros intereses en protocolos?
Tal vez estamos ante una nueva política maquínica, una diplomacia entre inteligencias no-humanas. Y para habitar este nuevo escenario, no basta con adaptar las viejas reglas. Como Kolter sugiere, necesitamos una nueva teoría del juego: una teoría del juego intersistémico, no antropocéntrico, donde el juego ya no es una metáfora, sino un territorio de negociación real entre entidades que no se parecen a nosotros… pero que ya toman decisiones por nosotros.
Comments