Volver al blog
Tecnología12 min21 de febrero de 2026

Por Eduardo Cisternas

Caso de Estudio: Cómo orquestamos 7 agentes de IA con múltiples LLMs para investigaciones legalesCaso de Estudio: Orquestación Multi-LLM en Audty

Red neuronal e inteligencia artificial

**Cuando un solo modelo de IA se queda corto**

Al desarrollar el asistente de IA de Audty (Una plataforma de cumplimiento Legal), comenzamos como muchos: conectamos un único modelo de lenguaje a nuestra aplicación y le pedimos que respondiera a todo. Funcionaba… a medias. Las respuestas eran genéricas, tardaban demasiado y el costo era elevado.

Hoy, nuestra plataforma emplea una arquitectura de agentes especializados que trabajan en equipo, cada uno con el modelo y el nivel de información óptimos para su tarea. El resultado: respuestas más precisas, un 60 % más rápidas y un 45 % más económicas.

Este artículo explica cómo lo conseguimos, protegiendo los detalles técnicos clave pero compartiendo los principios que nos llevaron al éxito.

---

**El problema: un solo LLM no puede con todo**

Pensemos en lo que implica una investigación laboral:

Resumir un caso de 50 páginas.
Evaluar el riesgo legal según la normativa chilena.
Planificar una investigación con plazos legales.
Redactar informes oficiales.
Cruzar testimonios para valorar su credibilidad.
Detectar necesidades de apoyo psicológico.
Responder preguntas generales de derecho.

Si un solo modelo intenta abarcar todo, cada consulta arrastra un contexto enorme (leyes, políticas, evidencias), lo que provoca:

Desperdicio de tokens.
Respuestas difusas (el modelo no sabe qué priorizar).
Alta latencia (hasta 30 segundos).
Costo elevado.
Alucinaciones (inventar artículos legales).

---

**La solución: una arquitectura inspirada en equipos humanos**

En un estudio jurídico, no se pide al mismo abogado que haga todo: hay especialistas en resumir, en evaluar riesgos, en redactar informes… Aplicamos esa misma lógica a la IA.

**Arquitectura general**

El sistema se organiza en torno a un enrutador inteligente que analiza la intención del usuario y deriva la consulta al agente especialista más adecuado. Cada agente tiene acceso a un nivel de contexto distinto (básico, estándar o completo) y utiliza el modelo de IA que mejor equilibra velocidad, precisión y costo para su función.

**Agentes especializados**

Aunque la cantidad y el nombre exacto de los agentes son parte de nuestra propiedad intelectual, podemos describir sus roles genéricos:

Sintetizador: Resume los hechos y construye una cronología clara del caso.
Evaluador de riesgo: Analiza la gravedad de la situación y emite una valoración fundamentada.
Planificador de investigación: Diseña un plan de investigación conforme a los plazos legales.
Analista de credibilidad: Cruza testimonios y evidencias para ayudar a valorar la coherencia.
Asesor psicológico: Identifica la necesidad de apoyo temprano para las personas involucradas.
Jurista: Realiza un análisis jurídico riguroso, citando artículos específicos.
Redactor de informes: Genera borradores de documentos oficiales con la estructura requerida.

Cada agente recibe únicamente la información que necesita: los datos básicos del caso, o bien estos más legislación relevante, o todo el contexto disponible (incluyendo políticas internas y jurisprudencia). Así evitamos sobrecargar la consulta y reducimos costes.

**Por qué usamos más de un modelo de IA**

No existe un modelo perfecto para todo. Algunos son extremadamente rápidos y baratos; otros, más lentos pero con gran capacidad de razonamiento. Nuestra arquitectura combina lo mejor de varios proveedores líderes:

Un modelo ligero y ultrarrápido para el enrutamiento inicial.
Modelos de propósito general para tareas que requieren rapidez (resúmenes, charla general).
Modelos con capacidades avanzadas de razonamiento para análisis jurídico profundo y redacción de informes.

Esta combinación nos permite pagar solo por la potencia que realmente necesitamos en cada paso.

**Orquestación inteligente: el “director de orquesta”**

El núcleo del sistema es un gestor que decide en tiempo real qué modelo debe responder a cada agente, según la configuración elegida por la organización. Si un proveedor falla (por límites de uso o errores), el gestor cambia automáticamente a un modelo de respaldo sin que el usuario lo perciba. También almacena en caché las preferencias de cada cliente para ser más eficiente.

**Niveles de contexto a medida**

No todos los agentes necesitan acceder a la base de datos legal completa. Por eso creamos tres niveles de contexto:

Básico: Solo los datos del caso. Ideal para resúmenes y redacción.
Estándar: Añade plazos legales y una selección de artículos relacionados con la materia.
Completo: Incluye búsqueda en toda la base legal, políticas internas y jurisprudencia.

Este enfoque reduce drásticamente el costo y la latencia, porque cada consulta envía la cantidad justa de información.

**Búsqueda inteligente con respaldo**

Para que los agentes accedan a la normativa vigente, utilizamos un sistema de recuperación de información (RAG) que localiza los artículos más relevantes para cada consulta. Si el motor principal falla, un sistema secundario basado en métodos tradicionales toma el relevo, garantizando que nunca nos quedemos sin contexto legal.

**Seguridad jurídica ante todo**

Cada respuesta generada por nuestros agentes está sujeta a reglas inviolables (guardrails) que aseguran el debido proceso:

Se verifica siempre la competencia y jurisdicción.
Se emplea lenguaje condicional que preserva la presunción de inocencia.
Se analizan tanto los elementos inculpatorios como los exculpatorios.
Se clasifica el evento según la taxonomía legal chilena.

Estas reglas evitan que la IA afirme culpabilidades, ignore la perspectiva de la persona denunciada o utilice términos inapropiados como “víctima” o “agresor” de forma categórica.

---

**Resultados medibles**

La migración de un modelo único a una arquitectura multi-agente nos ha proporcionado:

Reducción de costes: Entre un 45 % y un 68 % menos por consulta.
Menor latencia: De 12 segundos de media a solo 3,5 segundos.
Precisión en el enrutamiento: El 94 % de las consultas llega al agente correcto.
Cobertura legal: El 100 % de las respuestas incluyen citas verificables.
Disponibilidad: 99,5 % gracias a los sistemas de respaldo automáticos.
Optimización de tokens: Un 87 % menos de contexto innecesario.

---

**Lecciones aprendidas**

1.No todo requiere el modelo más caro.
1.El contexto adecuado importa más que el modelo.
1.Los sistemas de respaldo son imprescindibles.
1.Las salvaguardas legales son infraestructura crítica.
1.La flexibilidad es clave.

---

**Conclusión**

Utilizar un único modelo de IA para todo es como pedirle a un abogado generalista que lleve un caso penal complejo: puede hacerlo, pero no será óptimo. La orquestación multi-agente con múltiples proveedores de IA permite:

Especialización: cada agente domina su área.
Eficiencia: solo se consume el contexto necesario.
Resiliencia: si un proveedor falla, otro toma el relevo.
Flexibilidad: cada cliente ajusta su combinación ideal.
Economía: se paga justo por lo que se usa.

En Audty, esta arquitectura nos permite ofrecer asistencia de IA de nivel profesional para investigaciones laborales en Chile, cumpliendo con el debido proceso y a un costo accesible para empresas de cualquier tamaño.

---

*¿Quiere ver esta arquitectura en acción? Solicite una demo en *[*audty.cl*](https://audty.cl/)* y descubra cómo la IA especializada puede transformar la gestión de sus investigaciones laborales.*

¿Necesitas ayuda con el cumplimiento?

Audty automatiza todo el proceso de cumplimiento legal para tu empresa.

Solicitar Demo Gratuita