LangChain define la arquitectura de arnés de agentes para el desarrollo de IA

Timothy Morano

11 de mar. de 2026 04:56

El nuevo marco de LangChain desglosa cómo los agentes aprovechan los modelos de IA en sistemas listos para producción mediante sistemas de archivos, entornos controlados y gestión de memoria.

LangChain ha publicado un análisis técnico completo de la arquitectura de los agentes, codificando la capa de infraestructura que transforma modelos de lenguaje en motores de trabajo autónomos. El marco, escrito por Vivek Trivedy el 11 de marzo de 2026, surge en un momento en que la ingeniería de harnesses se convierte en un diferenciador clave en el rendimiento de los agentes de IA.

La tesis principal es engañosamente simple: Agente = Modelo + Harness. Todo lo que no sea el propio modelo—prompts del sistema, ejecución de herramientas, lógica de orquestación, hooks de middleware—queda bajo la responsabilidad del harness. Los modelos en bruto no pueden mantener estado entre interacciones, ejecutar código ni acceder a conocimientos en tiempo real. El harness llena esas lagunas.

Por qué esto importa para los desarrolladores

Los datos de la tabla de clasificación de Terminal Bench 2.0 de LangChain revelan algo contraintuitivo. Opus 4.6 de Anthropic, ejecutándose en Claude Code, obtiene puntuaciones mucho más bajas que el mismo modelo en harnesses de terceros optimizados. La compañía afirma que mejoró su propio agente de codificación del Top 30 al Top 5 en la prueba solo cambiando el harness, no el modelo subyacente.

Eso es una señal significativa para los equipos que invierten mucho en selección de modelos pero descuidan la infraestructura.

La pila técnica

El marco identifica varias primitivas clave de harness:

Sistemas de archivos sirven como capa fundamental. Proporcionan almacenamiento duradero, permiten la persistencia del trabajo entre sesiones y crean superficies de colaboración natural para arquitecturas multi-agente. La integración con Git añade versionado, capacidades de reversión y ramificación de experimentos.

Sandboxes resuelven el problema de seguridad al ejecutar código generado por los agentes. En lugar de ejecutarse localmente, los harnesses se conectan a entornos aislados para la ejecución de código, instalación de dependencias y finalización de tareas. La aislamiento de red y la lista blanca de comandos añaden medidas de protección adicionales.

Memoria y búsqueda abordan las limitaciones de conocimiento. Estándares como AGENTS.md se inyectan en el contexto al inicio del agente, permitiendo una forma de aprendizaje continuo donde los agentes almacenan duraderamente conocimientos de una sesión y los acceden en futuras sesiones. La búsqueda web y herramientas como Context7 proporcionan acceso a información más allá de los cortes de entrenamiento.

Combatiendo la rotación de contexto

El marco aborda la rotación de contexto—la degradación en el razonamiento del modelo a medida que las ventanas de contexto se llenan—mediante varios mecanismos. La compactación resume y descarga inteligentemente contenido cuando las ventanas se acercan a su capacidad. La descarga de llamadas a herramientas reduce el ruido de salidas grandes manteniendo solo los tokens iniciales y finales, almacenando los resultados completos en el sistema de archivos. Las habilidades implementan una divulgación progresiva, cargando las descripciones de las herramientas solo cuando son necesarias, en lugar de saturar el contexto al inicio.

Ejecución a largo plazo

Para trabajos complejos y autónomos que abarcan múltiples ventanas de contexto, LangChain señala el patrón Ralph Loop. Este hook a nivel de harness intercepta los intentos de salida del modelo y reinyecta el prompt original en una ventana de contexto limpia, forzando la continuación hasta alcanzar los objetivos de finalización. Combinado con la persistencia del estado en el sistema de archivos, los agentes pueden mantener coherencia en tareas extendidas.

El ciclo de retroalimentación del entrenamiento

Productos como Claude Code y Codex ahora se entrenan posteriormente con harnesses en el ciclo, creando un acoplamiento estrecho entre las capacidades del modelo y el diseño del harness. Esto tiene efectos secundarios: la guía de prompts Codex-5.3 señala que cambiar la lógica de herramientas para editar archivos degrada el rendimiento, lo que sugiere un sobreajuste a configuraciones específicas de harness.

LangChain está aplicando esta investigación a su biblioteca deepagents, explorando la orquestación de cientos de agentes en paralelo en bases de código compartidas, análisis de trazas para detectar fallos a nivel de harness y ensamblaje dinámico de herramientas en tiempo real. A medida que los modelos mejoren en planificación y auto-verificación de forma nativa, algunas funciones del harness podrían integrarse en las capacidades básicas. Pero la compañía argumenta que una infraestructura bien diseñada seguirá siendo valiosa independientemente de la inteligencia del modelo subyacente.

Fuente de la imagen: Shutterstock

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Gate Fun en tendencia

    Ver más
  • Cap.M.:$2.42KHolders:1
    0.00%
  • Cap.M.:$0.1Holders:1
    0.00%
  • Cap.M.:$0.1Holders:0
    0.00%
  • Cap.M.:$0.1Holders:1
    0.00%
  • Cap.M.:$2.44KHolders:2
    0.00%
  • Anclado