Marco DPI-IA · Elemento 03

Public Agents

Interfaces habilitadas por IA que interactúan con ciudadanos y servidores públicos — invocando DPI Workflows, no actuando autónomamente. Restringidos, responsables y gobernados por diseño.

¿Qué es un Public Agent?

Extensiones responsables de la capacidad gubernamental

Un Public Agent es un asistente habilitado por IA — basado en software, asistido por IA por un humano o una combinación de ambos — que interactúa con ciudadanos o funcionarios dentro de límites definidos basados en derechos, y activa DPI Workflows para completar tareas.

⚠ Un Public Agent no es autónomo. No puede acceder a datos sin consentimiento, no puede modificar registros directamente y no puede eludir la supervisión humana. Es una interfaz restringida que activa flujos de trabajo gobernados — no un tomador de decisiones.

Lo que puede hacer un Public Agent

Interpretar la intención ciudadana

Usa LLM/SLM para entender lo que solicita un ciudadano, en cualquier idioma y a través de cualquier canal

Invocar DPI Workflows

Activa flujos de trabajo preaprobados para prestar servicios — verificación de identidad, elegibilidad, beneficios, registro

Llamar AI Blocks

Usa bloques fundamentales (traducción, OCR) y bloques sectoriales específicos (elegibilidad, detección de fraude)

Escalar a humanos

Deriva los casos de baja confianza, excepciones y quejas a un gestor de casos humano con un ID de caso

Notificar y dar seguimiento

Envía actualizaciones de estado por el canal preferido del ciudadano (SMS, WhatsApp, voz)

Lo que no puede hacer un Public Agent

Acceder a datos sin consentimiento

Cada extracción de datos requiere un token de consentimiento — verificado por el flujo de trabajo, no asumido

Modificar registros autoritativos directamente

Las actualizaciones de registros requieren un paso de gobernanza en el flujo de trabajo — el agente no puede escribir directamente en los registros

Operar fuera de workflows aprobados

Los agentes solo pueden activar flujos de trabajo que hayan sido preaprobados y auditados

Tomar decisiones finales de manera autónoma

Todas las decisiones que superen un umbral de confianza corresponden a las autoridades humanas

Diseño Multicanal

Diseñar primero para el canal de menor ancho de banda

Un Public Agent debe funcionar para todos los ciudadanos — incluyendo quienes tienen conectividad o alfabetización limitadas. El diseño de canales es un principio de gobernanza, no un detalle técnico secundario.

💬

WhatsApp / Chat

Canal principal para usuarios urbanos y semiurbanos. Admite texto, notas de voz y envío de documentos.

🎙️

Voz / IVR

Fundamental para usuarios con baja alfabetización. Los bloques speech_to_text() + translate() habilitan voz en dialectos locales.

📱

USSD

Alternativa para teléfonos básicos y zonas de baja conectividad. No requiere conexión de datos. Cola asíncrona.

💻

Web / App Móvil

Para usuarios con conectividad estable. Interfaz más rica, carga de documentos y seguimiento de casos.

📨

SMS

Notificaciones y confirmaciones. El mínimo común denominador para todos los usuarios móviles.

🏢

Quiosco Presencial

Modo asistido para ciudadanos sin dispositivos. El agente opera a través de un servidor público como intermediario.

Principio de idioma: Los AI Blocks en idioma local (traducción, transliteración, reconocimiento de voz en dialectos) no son características opcionales — son prerrequisitos para la inclusión. Un Public Agent que solo funciona en inglés o en francés es estructuralmente excluyente.
Especificación del Agente

Especificación genérica de Public Agent (YAML)

Una especificación legible por máquina para un Public Agent, que incluye su configuración de modelo, canales, vinculaciones de flujo de trabajo y restricciones de gobernanza.

public_agent: id: "social_benefit_agent_v1" description: "Guides citizens through social protection benefit applications" channels: ["whatsapp", "ussd", "voice", "web"] languages: ["sw", "en", "am", "om"] # Swahili, English, Amharic, Oromo ai_model: # Plug-and-play: swap the adapter to change providers adapter: "ollama" # openai | anthropic | google | ollama | vllm | bedrock | custom runtime: "sovereign_cloud" # sovereign_cloud | on_prem | external_api endpoint: "https://ai.gov.example/v1" model: "llama3-8b-instruct-sw" # SLM fine-tuned on Swahili civic content auth_ref: "vault://ai-gateway/token" timeout_ms: 30000 scope: allowed_workflows: ["benefit_disbursement_v1", "eligibility_check_v1"] allowed_ai_blocks: ["translate", "speech_to_text", "eligibility_verify_v1"] data_access: "consent_required" escalation_target: "caseworker_queue" constraints: can_modify_records: false can_initiate_payments: false # Only via workflow disburse step can_access_data_without_consent: false human_escalation: always_available session_timeout: "30m" governance: owner_agency: "Ministry of Social Welfare" legal_basis: "Social Protection Act § 8.1" audit_logging: true pii_handling: "tokenise_in_logs" human_recourse: enabled: true channel: "any" response_sla: "48h"
Selección del Modelo

LLMs vs SLMs: elegir el modelo correcto para el gobierno

Los Public Agents pueden ejecutarse sobre cualquier modelo de lenguaje — desde grandes APIs de frontera hasta modelos pequeños en el dispositivo. La elección no es solo técnica; tiene implicaciones directas para la soberanía, el costo, la latencia y la inclusión. Ningún tipo es universalmente mejor. Cada uno tiene su lugar.

LLM

Modelos de Lenguaje Grandes

GPT-5 / o3 / o4-mini · Claude Opus 4 / Sonnet 4 · Gemini 2.5 Pro / 3 Pro · Llama 4

Conocimiento amplio — gestiona consultas abiertas, razonamiento complejo y casos extremos con menos ajuste fino

Base multilingüe sólida — rendimiento razonable en muchos idiomas sin entrenamiento especializado

Prototipado más rápido — buen comportamiento predeterminado listo para usar en pilotos y demostraciones

⚠️

Riesgo de soberanía de datos — las APIs solo en la nube envían datos ciudadanos a servidores de terceros; requiere un manejo cuidadoso de la PII

⚠️

Costo elevado a escala — el precio por token se vuelve significativo en millones de interacciones ciudadanas

⚠️

Latencia y conectividad — depende de internet estable; no apto como modelo principal en contextos de baja conectividad

⚠️

Salidas impredecibles — los contextos más amplios y la generalidad aumentan el riesgo de respuestas fuera del alcance en flujos de trabajo restringidos

Ideal para: Pilotos exploratorios, tareas sin PII (traducción, resumen) y casos de uso donde la flexibilidad interpretativa importa más que la restricción estricta.
SLM — Recomendado

Modelos de Lenguaje Pequeños

Phi-4 Mini (3.8B) · Gemma 3 · Qwen2.5 / Qwen3 · Llama 3.2 3B · SmolLM3

Despliegue en infraestructura propia — opera completamente dentro de la infraestructura gubernamental; los datos ciudadanos nunca salen del país

Bajo costo a escala — costo fijo de infraestructura; sin facturación por token en millones de interacciones

Baja latencia — la inferencia local permite respuestas rápidas incluso en entornos de red restringidos

Ajuste fino orientado a tareas — los modelos pequeños especializados en una tarea específica (verificación de elegibilidad, extracción de documentos) superan a los grandes modelos generalistas en esa tarea

Comportamiento predecible — un alcance más estrecho genera menos respuestas fuera de tema o alucinaciones en los pasos gobernados del flujo de trabajo

Ajuste fino en idiomas locales — los SLM pueden afinarse con corpus en dialectos locales que los grandes proveedores no cubren

⚠️

Mayor inversión inicial — requiere infraestructura GPU, pipelines de ajuste fino y capacidad técnica para evaluar y mantener modelos

Ideal para: Despliegues en producción, flujos de trabajo con PII sensible, contextos de baja conectividad, soporte en idiomas locales y cualquier servicio que opere a escala nacional.

Por qué los SLM orientados a tareas son la mejor opción para el gobierno a escala

La IA gubernamental no necesita ser brillante — necesita ser confiable, acotada y gobernable. Un Public Agent que ejecuta un flujo de trabajo de elegibilidad para beneficios no necesita debatir filosofía ni escribir poesía. Necesita entender la solicitud del ciudadano, extraer campos estructurados, llamar al paso correcto del flujo de trabajo y escalar cuando haya incertidumbre. Un modelo de 3 a 8 mil millones de parámetros ajustado fino para esa tarea específica, corriendo en infraestructura soberana, es más adecuado que un LLM de frontera accedido vía API de terceros — y será más barato, más rápido y más controlable en los 10 millones de interacciones que realmente importan.

01

Soberanía por defecto

Los datos permanecen dentro de la infraestructura nacional. Sin dependencia de la disponibilidad de APIs extranjeras, cambios de precios o términos de servicio. El gobierno es dueño del modelo y de sus resultados.

02

Reemplazabilidad

Los modelos más pequeños son más fáciles de cambiar. La especificación del DPI Workflow declara el adaptador del modelo — cambiar de Llama a Mistral o a un modelo desarrollado localmente no requiere reconstruir el flujo de trabajo.

03

Inclusión en idiomas locales

Los SLM pueden ajustarse con corpus en dialectos de swahili, amhárico, bahasa o kinyarwanda que los grandes proveedores no priorizan. La inclusión es un imperativo de gobernanza, no una solicitud de funcionalidad.

04

Auditabilidad

Un modelo que controlas puede ser inspeccionado, reevaluado y sometido a pruebas adversariales por tu propio equipo. Los modelos de terceros de caja negra dificultan el cumplimiento de los requisitos de rendición de cuentas ante ciudadanos y legislaturas.

05

Costo a escala

Con 5 millones de interacciones ciudadanas al mes, los costos de API por token se convierten en líneas de presupuesto significativas. Los costos fijos de infraestructura para SLM on-prem son predecibles y disminuyen por interacción a medida que crece el uso.

06

Capacidad sin conexión y en el borde

Los SLM en el rango de 1 a 3 mil millones de parámetros pueden correr en hardware de consumo, habilitando servicios asistidos por IA en oficinas distritales sin internet estable — extendiendo el alcance de los Public Agents hasta el último kilómetro.

El principio de reemplazabilidad aplica también a los modelos. Cada especificación de Public Agent declara su adaptador de modelo (adapter: "ollama", "openai", "vllm"). Comienza con lo que puedas desplegar hoy — incluso un LLM en la nube para un piloto — y migra a un SLM soberano conforme crezca la capacidad. El flujo de trabajo no cambia. Solo cambia el adaptador.
Orquestación Multi-Agente

La progresión natural: agentes colaborando

A medida que las capacidades modulares maduran, existe una progresión natural hacia la orquestación multi-agente — múltiples agentes colaborando al compartir contexto, coordinar flujos de trabajo y descomponer dinámicamente tareas complejas que un solo agente no podría lograr por sí solo.

La DPI proporciona los rieles digitales compartidos para cumplir estos requisitos: protocolos comunes, registros y marcos de gobernanza que garantizan que los agentes y flujos de trabajo operen de manera segura y transparente. Así evoluciona el marco — de agentes de un solo flujo de trabajo a prestación coordinada de servicios multisectoriales — sin sacrificar la rendición de cuentas.

La confianza requiere transparencia. Generar confianza en los Public Agents requiere transparencia en sus acciones, mecanismos claros de consentimiento, adaptación cultural y lingüística a los contextos locales y — de manera crítica — la capacidad de cualquier ciudadano de escalar a un humano en cualquier momento, por cualquier razón.

→ Ver cómo construir un Public Agent con código o herramientas sin código

Elementos Relacionados

Los Public Agents son la capa orientada al ciudadano

Los Agentes invocan Workflows, que a su vez llaman Blocks. El marco es una pila: los Agentes en la cima, la infraestructura en la base.

← 01 AI Blocks ← 02 DPI Workflows 03 Public Agents Guía de Implementación → Probar el Sandbox →