Del comando a la acción: qué supone el salto de asistentes a agentes de IA
Consultar a Siri sobre el tiempo, pedirle a Alexa que reproduzca música o preparar un plan de vacaciones con la ayuda de ChatGPT es ya parte de la rutina diaria para muchas personas. Sin embargo, los asistentes de IA están evolucionando hacia una nueva categoría: los agentes, que cuentan con capacidades que van más allá del procesamiento del lenguaje natural, como la toma de decisiones o la resolución de problemas sin intervención humana directa.

Los asistentes de IA se han convertido en una herramienta cotidiana para cualquier persona que tenga un 'smartphone' o un altavoz inteligente y quiera pedirle a Siri que ponga un temporizador mientras cocina, a Alexa que amenice con algo de música o a Gemini que aclare una duda en cuestión de segundos. Esta forma de interacción, basada en órdenes simples y respuestas inmediatas, está evolucionando hacia un modelo más sofisticado: el de los agentes de IA.
A diferencia de los asistentes, los agentes no solo ofrecen información o sugieren opciones: actúan por su cuenta para alcanzar un objetivo determinado. Planifican, toman decisiones y ejecutan tareas de forma autónoma. "Un asistente ayuda a una persona a tomar decisiones y responde con información, pero no actúa. En cambio, un agente automatiza un proceso, simple o complejo, toma decisiones y actúa para lograrlo. A grandes rasgos, se podría decir que los agentes son más proactivos y resolutivos que los asistentes", explica Elena Alfaro, responsable global de Adopción de IA de BBVA.
Esta diferencia supone un cambio profundo en el diseño, funcionamiento y propósito de los sistemas de IA. Mientras los asistentes están pensados para servir de interfaz entre el usuario y la información, los agentes están concebidos para resolver problemas sin intervención humana directa.
Según un artículo de IBM, esta capacidad permite que los agentes se empleen para resolver tareas complejas en distintos ámbitos empresariales, como la automatización de sistemas informáticos o la gestión en tiempo real de inventarios. Para lograrlo, utilizan técnicas avanzadas de procesamiento basadas en grandes modelos de lenguaje (LLM), que les permiten comprender y responder a las instrucciones de los usuarios paso a paso.
La tecnología detrás de los agentes
Este salto conceptual ha sido posible gracias a una serie de avances tecnológicos que han ampliado de forma notable las capacidades de la inteligencia artificial. Guillermo Vieira, responsable de Formación y Engagement en el equipo de Adopción Global de IA de BBVA, resume esta evolución en tres grandes pilares:
- Modelos de razonamiento más sofisticados. La nueva generación de modelos de lenguaje no se limita a generar texto o responder a preguntas. Son capaces de planificar secuencias de acciones, anticiparse a problemas y ajustar su comportamiento en función del contexto. Esto les permite actuar con una lógica más cercana a la toma de decisiones humana.
- Multimodalidad nativa. Los agentes no solo entienden texto. Pueden interpretar imágenes, sonidos, datos estructurados o incluso líneas de código, algo que les permite comprender el entorno e interactuar mejor con las órdenes que reciben.
- Interconexión estandarizada. Para realizar tareas complejas, los agentes de IA deben comunicarse con otros programas y servicios. Esto es posible gracias a protocolos estándar que permiten a la IA interactuar fácilmente, llamar a servicios externos y mantener información de forma continua. "El 'Model Context Protocol' (MCP) es una especie de lenguaje común que facilita el intercambio de información entre distintos sistemas de IA. Con estándares como este, los agentes pueden cooperar entre sí o con otras herramientas digitales de forma fluida", observa Vieira.

Gracias a los avances en estos tres pilares, Gartner pronostica que para 2028 el 33% de las aplicaciones empresariales incluirán agentes de IA, un salto notable teniendo en cuenta que en 2024 apenas alcanzaba el 1%. Según la consultora, esto hará posible que cerca del 15% de las decisiones diarias en el trabajo se tomen de forma autónoma.
De hecho, las principales compañías tecnológicas ya tienen sus propios agentes de inteligencia artificial. Es el caso de Microsoft Copilot, que permite integrar agentes (o crearlos a través de Copilot Studio) para a automatizar procesos empresariales; Operator, un agente creado por OpenAI que puede utilizar el navegador para realizar tareas en nombre del usuario, como comprar entradas o rellenar formularios; o Mariner, el proyecto de Google diseñado para navegadores que ayuda con acciones como hacer compras online o reservar billetes de avión.
Los desafíos de la autonomía
En un contexto donde la inteligencia artificial avanza rápidamente en el entorno empresarial y gana cada vez más autonomía, hay habilidades humanas que seguirán siendo insustituibles, como el pensamiento crítico o la capacidad de colaborar. Por eso, el verdadero reto no es la tecnología en sí, sino cómo se gestiona esa autonomía de forma responsable.
"La clave está en cómo delegamos", señala Vieira, y añade: "El ser humano debe definir con claridad qué tareas cede al sistema, en qué momento y en qué condiciones. La autonomía bien gestionada puede multiplicar la productividad, pero siempre debe haber una supervisión humana".
Para ello, es fundamental contar con mecanismos de control y responsabilidad. Algunos ejemplos son las auditorías de comportamiento, la validación manual en decisiones críticas o los interruptores de emergencia —conocidos como 'kill switches'—. "Un 'kill switch' es un mecanismo o regla de control para parar un proceso. Se activa cuando sucede algo imprevisto o un valor se sale de un cierto rango preestablecido. Así, un humano puede revisarlo antes de volver a lanzar el proceso o la tarea", detalla el experto en IA de BBVA.
Además, los propios desarrolladores son conscientes de que la responsabilidad en el uso de la inteligencia artificial es mayor cuando son agentes que deberían estar pensados para actuar de manera autónoma. "Debemos aspirar a tasas de error mucho más bajas. Y hay muchas más formas, más sutiles, en las que algo puede salir mal. Ese es el gran reto con los agentes", destaca Sarah Bird, directora de producto de IA responsable de Microsoft, en un artículo de la compañía.
La convivencia entre agentes, asistentes y humanos
Aunque los agentes de IA marcan una nueva etapa en la evolución de esta tecnología, eso no implica que los asistentes vayan a desaparecer. Ambos modelos seguirán conviviendo, cada uno con su función. "Los asistentes seguirán siendo una interfaz ágil y controlada para tareas concretas, mientras que los agentes se encargarán de procesos más largos, complejos o que requieren funcionamiento continuo, las 24 horas del día", afirma Guillermo Vieira.
Vieira señala que incluso veremos "capas multiagente y agentes inversos que supervisan a otros agentes". Son sistemas en los que varios agentes colaboran entre sí para resolver problemas complejos y se distribuyen las tareas como si fueran un equipo. A su vez, los llamados agentes inversos actúan como vigilantes que supervisan el comportamiento de otros y garantizan que sus acciones son adecuadas.
Este nuevo paradigma abre enormes oportunidades para sectores como la banca, la salud, la logística o la educación. Sin embargo, también plantea nuevos desafíos éticos y de gobernanza. Por eso, Vieira insiste en que debe mantenerse siempre el principio de 'human-in-the-loop' (HITL). Es decir, que el ser humano permanezca en el centro del proceso. "El agente no sustituye al humano, sino que lo amplifica. Es el humano quien define los límites, las reglas y los objetivos", concluye el especialista.