Estamos entrando en la tercera fase de la IA generativa: primero vinieron los chatbots, luego los asistentes. Ahora llegan los agentes: son sistemas que aspiran a una mayor autonomía y pueden trabajar en “equipos” o utilizar herramientas para realizar tareas complejas, siguiendo proyectos a largo plazo prácticamente sin supervisión humana directa e incorporando cualidades optimizadas como razonamiento y memoria.
La Inteligencia Artificial (IA) generativa sigue su vertiginoso crecimiento y nada parece detenerla: ahora alcanza una tercera fase que promete un nuevo cambio de paradigma. Si los chatbots estaban diseñados para conversaciones línea a línea, con respuestas preconfiguradas, y los asistentes digitales sumaron conexiones con herramientas externas, permitiendo cierto nivel de automatización, los agentes independientes son una nueva fase de desarrollo.
Estos agentes de IA funcionan con objetivos propios, planifican pasos secuenciales y usan herramientas o colaboran en “equipos” de agentes, para alcanzar metas complejas sin intervención constante. Según explica Daswin de Silva, Profesor de IA en la Universidad La Trobe, en Australia, en un artículo publicado en The Conversation, actualmente el producto «estrella» es el Agente ChatGPT de OpenAI.
Piensan y actúan
Este agente combina dos productos preexistentes (Operator y Deep Research) en un único sistema más potente que, según el desarrollador, “piensa y actúa”. Este tipo de nuevos sistemas representan un paso adelante con respecto a las herramientas de IA anteriores.
¿Cómo funcionan y qué pueden hacer? ¿Cuáles son sus inconvenientes y riesgos? En principio, hay que tener en cuenta que alcanzan una autonomía ampliada. Esto sugiere que pueden ejecutar acciones en nombre del usuario, como realizar compras en línea o gestionar inversiones.
Al mismo tiempo, desarrollan estrategias para cumplir metas divididas en hitos y revisan su progreso, aprovechando su mayor capacidad de razonamiento y memoria. En ese sentido, pueden guardar y aprovechar información de interacciones previas, aprendiendo lecciones para mejorar decisiones futuras.
El uso integrado de herramientas es otro aspecto clave de los agentes de IA: por ejemplo, emplean navegadores o módulos de análisis de datos según la tarea, desde diseñar un itinerario de viaje hasta generar informes financieros. Por si esto fuera poco, sin capaces de trabajar en equipo: diversos agentes especializados pueden coordinarse para proyectos de mayor envergadura, imitando flujos de trabajo humanos.
Aplicaciones y riesgos
Los desarrolladores explican que pueden planificar viajes puerta a puerta, incluyendo reserva de vuelos, hoteles y actividades, que son capaces de analizar riesgos financieros y modificar carteras de inversión en tiempo real o que pueden supervisar una cadena de suministro en industrias, detectando fallas y coordinando reemplazos o ajustes logísticos.
A pesar de todas estas ventajas, existen numerosos riesgos. Es que la IA, al mismo tiempo que evoluciona con rapidez, también incrementa sus posibilidades de cometer errores o de desviarse de los objetivos planteados. Un agente puede interpretar mal sus metas y adoptar tácticas que vayan en sentido contrario a los deseos del usuario.
Aunque integran memoria, estos sistemas siguen propensos a generar información incorrecta o «inventada» al enfrentarse a datos ambiguos. Las vulnerabilidades de seguridad son otro problema latente: pueden ser manipulados mediante ataques informáticos que cambien su comportamiento o les inyecten instrucciones maliciosas.
De esta manera, a medida que avanzamos hacia un entorno donde la IA actúa con creciente independencia, la responsabilidad humana se vuelve más crítica que nunca. Es crucial aprender a «domar» el potencial de estos agentes y mitigar sus riesgos, para poder aprovechar al máximo sus beneficios en el día a día.