En inteligencia artificial, 2025 marcó un cambio decisivo. Los sistemas que alguna vez estuvieron confinados a laboratorios de investigación y prototipos están comenzando a emerger como herramientas cotidianas. En el centro de esta transición ha estado el surgimiento de agentes de IA: sistemas de IA que pueden utilizar otras herramientas de software y actuar por sí solos.
Si bien los investigadores han estudiado la inteligencia artificial durante más de 60 años, y el término "agente" ha sido durante mucho tiempo parte del vocabulario del campo, 2025 fue el año en que el concepto se volvió concreto tanto para los desarrolladores como para los consumidores.
Los agentes de IA han pasado de la teoría a la infraestructura, remodelando la forma en que los humanos interactúan con grandes modelos de lenguaje, sistemas que impulsan los chatbots como ChatGPT.
En 2025, la definición de un agente de IA ha pasado del marco académico de sistemas que perciben, piensan y actúan a la descripción de modelos de lenguaje a gran escala por parte de Anthropic AI que son capaces de utilizar herramientas de software y tomar acciones autónomas. Si bien los grandes modelos de lenguaje se han destacado durante mucho tiempo en las respuestas basadas en texto, un cambio reciente es su capacidad ampliada para actuar, usar herramientas, llamar a API, coordinarse con otros sistemas y completar tareas por sí solos.
Este cambio no se produjo de la noche a la mañana. Un punto de inflexión clave se produjo a finales de 2024, cuando Anthropic lanzó el Protocolo de Contexto. El protocolo permitió a los desarrolladores conectar grandes modelos de lenguaje a herramientas externas de forma estandarizada, dando a los modelos la capacidad de operar más allá de la generación de texto. Esto prepara el escenario para que 2025 se convierta en el año de los agentes de inteligencia artificial.
Los agentes de IA son un juego completamente nuevo en comparación con la inteligencia artificial generativa. Hitos que definieron el 2025
El impulso cobró rápidamente. En enero, el lanzamiento del modelo DeepSeek-R1 de China como modelo abierto trastocó las suposiciones sobre quién podría construir modelos de alto rendimiento en lenguajes grandes, agitando brevemente los mercados e intensificando la competencia global. Un modelo de peso abierto es un modelo de IA cuyo entrenamiento, reflejado en valores llamados pesos, está disponible públicamente. Durante 2025, los principales laboratorios estadounidenses como OpenAI, Anthropic, Google y kAI lanzaron modelos más grandes y de alto rendimiento, mientras que las empresas tecnológicas chinas, incluidas Alibaba, Tencent y DeepSeek, ampliaron el ecosistema de modelos abiertos hasta el punto en que los modelos chinos se adoptaron más que los modelos estadounidenses.
Otro hito se produjo en abril, cuando Google presentó su protocolo Agent2Agent. Mientras que el modelo de protocolo de contexto de Anthropic se centraba en cómo los agentes utilizan las herramientas, Agent2Agent se preocupaba por cómo los agentes interactúan entre sí. Lo más importante es que los dos protocolos están diseñados para funcionar juntos. Más adelante en el año, tanto Anthropic como Google donaron sus protocolos a la Linux Open Source Foundation, una organización sin fines de lucro, consolidándolos como estándares abiertos en lugar de experimentos propietarios.
Este desarrollo rápidamente llegó a los productos de consumo. A mediados de 2025 comenzaron a aparecer los "motores de búsqueda de agentes". Herramientas como Comet de Perplexity, Dia de Browser Company, OpenAI GPT Atlas, Copilot en Edge de Microsoft, Fellow de ASI X Inc., Genspark de MainFunc.ai, Opera Neon y otras han remodelado el navegador como un participante activo en lugar de una interfaz pasiva. Por ejemplo, en lugar de ayudarle a buscar detalles de vacaciones, desempeña un papel en la reserva de vacaciones.
Al mismo tiempo, creadores de flujos de trabajo como n8n y Google Antigravity han reducido la barrera técnica para crear sistemas de agentes personalizados más allá de lo que ya sucedió con agentes de codificación como Cursor y GitHub Copilot.
Nuevo poder, nuevos riesgos
A medida que los agentes se volvieron más capaces, sus riesgos se volvieron más difíciles de ignorar. En noviembre, Anthropic reveló cómo se estaba utilizando indebidamente a su agente Claude Code para automatizar partes del ciberataque. El incidente ilustró una preocupación más amplia: al automatizar el trabajo técnico y repetitivo, los agentes de IA también pueden reducir la barrera a la actividad maliciosa.
Esta tensión ha definido gran parte del año 2025. Los agentes de IA han ampliado lo que los individuos y las organizaciones pueden hacer, pero también han amplificado las vulnerabilidades existentes. Los sistemas que alguna vez fueron generadores de texto aislados se han interconectado y los actores utilizan herramientas que operan con poca supervisión humana.
La comunidad empresarial se está preparando para sistemas multiagente. A qué prestar atención en 2026
De cara al futuro, es probable que varias preguntas abiertas den forma a la próxima fase de los agentes de IA.
Uno es un punto de referencia. Los puntos de referencia tradicionales, que son como un examen estructurado con una serie de preguntas y puntuación estandarizada, funcionan bien para modelos individuales, pero los agentes son sistemas compuestos de modelos, herramientas, memoria y lógica de decisión. Los investigadores quieren cada vez más evaluar no sólo los resultados, sino también los procesos. Esto sería como pedir a los estudiantes que muestren su trabajo, no sólo que den una respuesta.
Los avances aquí serán fundamentales para mejorar la confiabilidad y la confianza, así como para garantizar que el agente de IA haga el trabajo. Un método consiste en establecer definiciones claras sobre los agentes de IA y los flujos de trabajo de IA. Las organizaciones deberán planificar exactamente dónde se integrará o introducirá la IA en los flujos de trabajo.
Otro desarrollo a observar es la gobernanza. A finales de 2025, la Fundación Linux anunció la creación de la Fundación Agentic AI, lo que indica un esfuerzo por establecer estándares y mejores prácticas comunes. Si tiene éxito, podría desempeñar un papel similar al del Consorcio World Wide Web en la configuración de un ecosistema de agentes abierto e interoperable.
También existe un debate creciente sobre el tamaño del modelo. Si bien los grandes modelos de propósito general dominan los titulares, los modelos más pequeños y más especializados suelen ser más adecuados para tareas específicas. A medida que los agentes se convierten en herramientas empresariales y de consumo configurables, ya sea a través de navegadores o software de gestión de flujo de trabajo, el poder de elegir el modelo correcto pasa cada vez más a los usuarios y no a los laboratorios o las corporaciones.
Los desafíos por delante
A pesar del optimismo, persisten importantes desafíos sociotécnicos. La expansión de la infraestructura de los centros de datos está sobrecargando las redes de energía y afectando a las comunidades locales. En los lugares de trabajo, los agentes están expresando preocupación por la automatización, el desplazamiento laboral y la vigilancia.
Desde una perspectiva de seguridad, vincular modelos con herramientas y agentes de apilamiento multiplica los riesgos que ya no se abordan en grandes modelos de lenguaje independientes. En particular, a los profesionales de la IA les preocupan los peligros de las inyecciones rápidas indirectas, donde las consultas se ocultan en espacios web abiertos que son legibles por los agentes de la IA y dan como resultado acciones dañinas o no intencionadas.
La regulación es otra cuestión no resuelta. En comparación con Europa y China, Estados Unidos tiene una supervisión relativamente limitada de los sistemas algorítmicos. A medida que los agentes de IA se integran en la vida digital, las preguntas sobre el acceso, la responsabilidad y las limitaciones siguen en gran medida sin respuesta.
Abordar estos desafíos requiere más que avances técnicos. Requiere prácticas de ingeniería rigurosas, diseño cuidadoso y documentación clara de cómo funcionan y fallan los sistemas. Creo que sólo tratando a los agentes de IA como sistemas sociotécnicos, en lugar de meros componentes de software, podremos construir un ecosistema de IA que sea innovador y seguro.
0 Comentarios