Singapore MGF
Singapore Model Governance Framework for Agentic AI — Guia de Alineacion
Sección titulada «Singapore Model Governance Framework for Agentic AI — Guia de Alineacion»Companion del AI-First Engineering Framework v7.6.0
1. Que es el Singapore MGF for Agentic AI
Sección titulada «1. Que es el Singapore MGF for Agentic AI»El Model Governance Framework for Generative AI — Agentic AI Extension fue publicado por la Infocomm Media Development Authority (IMDA) de Singapur el 22 de enero de 2026. Es el primer framework de gobernanza gubernamental del mundo especificamente disenado para sistemas AI agenticos.
A diferencia de marcos regulatorios prescriptivos (como el EU AI Act), el MGF de Singapur adopta un enfoque basado en principios y dimensiones, reconociendo que los agentes AI:
- Toman acciones autonomas en el mundo real
- Operan en cadenas multi-agente donde la responsabilidad se diluye
- Interactuan con herramientas externas (APIs, bases de datos, sistemas)
- Pueden escalar comportamiento de formas no previstas
El framework se organiza en 4 dimensiones de gobernanza que cubren todo el ciclo de vida de un agente, desde pre-deployment hasta operacion continua.
Alcance
Sección titulada «Alcance»El MGF aplica a cualquier organizacion que desarrolle, despliegue u opere sistemas AI agenticos, incluyendo:
- Agentes autonomos (FABs, coding agents, research agents)
- Orquestaciones multi-agente (pipelines, swarms, hierarchical)
- Sistemas MCP (Model Context Protocol) con acceso a herramientas
- Workflows AI con toma de decisiones autonoma
2. Las 4 Dimensiones de Gobernanza
Sección titulada «2. Las 4 Dimensiones de Gobernanza»D1: Risk Bounding — Limitar Riesgos Antes de Deployment
Sección titulada «D1: Risk Bounding — Limitar Riesgos Antes de Deployment»Principio: Antes de desplegar un agente, la organizacion debe identificar, evaluar y acotar los riesgos potenciales.
Controles clave:
| Control | Descripcion | Objetivo |
|---|---|---|
| D1.1 | Risk assessment pre-deployment | Identificar riesgos antes de activar agente |
| D1.2 | Capability scoping | Limitar que puede hacer el agente |
| D1.3 | Environment constraints | Definir en que entornos opera |
| D1.4 | Escalation boundaries | Definir cuando escalar a humano |
| D1.5 | Testing & simulation | Validar comportamiento antes de produccion |
Preguntas guia:
- Que acciones puede realizar el agente? Cuales estan prohibidas?
- Que datos puede acceder? Con que clasificacion?
- Que sucede si el agente falla? Cual es el blast radius?
- Se ha probado en escenarios adversos (prompt injection, tool misuse)?
D2: Human Accountability — Cadena Clara de Responsabilidad
Sección titulada «D2: Human Accountability — Cadena Clara de Responsabilidad»Principio: Siempre debe existir un humano accountable por las acciones de un agente. La autonomia del agente no elimina la responsabilidad humana.
Controles clave:
| Control | Descripcion | Objetivo |
|---|---|---|
| D2.1 | Accountability assignment | Asignar humano responsable por agente |
| D2.2 | Decision authority matrix | Definir que decide el agente vs el humano |
| D2.3 | Override mechanisms | Capacidad de anular decisiones del agente |
| D2.4 | Audit trail | Registro completo de acciones y decisiones |
| D2.5 | Escalation protocols | Procedimientos claros de escalacion |
Preguntas guia:
- Quien es responsable si el agente causa dano?
- Existe un RACI claro para operaciones del agente?
- Se puede revertir cualquier accion del agente?
- Hay registro auditable de cada decision?
D3: Technical Controls — Controles Tecnicos Runtime
Sección titulada «D3: Technical Controls — Controles Tecnicos Runtime»Principio: Los controles tecnicos deben limitar, monitorear y detener el comportamiento del agente en tiempo real.
Controles clave:
| Control | Descripcion | Objetivo |
|---|---|---|
| D3.1 | Runtime monitoring | Monitoreo continuo de comportamiento |
| D3.2 | Kill switch | Parada de emergencia inmediata |
| D3.3 | Cost controls | Limites de gasto y circuit breakers |
| D3.4 | Tool access controls | Permisos granulares por herramienta |
| D3.5 | Inter-agent security | Zero trust entre agentes |
| D3.6 | Output validation | Validar acciones antes de ejecutar |
Preguntas guia:
- Se puede detener el agente inmediatamente si se comporta mal?
- Hay limites de costo que impidan gasto descontrolado?
- Los permisos de herramientas siguen principio de minimo privilegio?
- Se validan las acciones del agente antes de ejecutarlas?
D4: End-User Responsibility — Responsabilidad del Usuario Final
Sección titulada «D4: End-User Responsibility — Responsabilidad del Usuario Final»Principio: Los usuarios finales deben entender que interactuan con un agente AI, conocer sus limitaciones, y poder optar por interaccion humana.
Controles clave:
| Control | Descripcion | Objetivo |
|---|---|---|
| D4.1 | AI disclosure | Informar que el sistema es AI |
| D4.2 | Capability transparency | Comunicar que puede y no puede el agente |
| D4.3 | Limitation warnings | Advertir sobre limitaciones conocidas |
| D4.4 | Human fallback | Opcion de escalar a humano |
| D4.5 | Feedback mechanism | Canal para reportar problemas |
Preguntas guia:
- El usuario sabe que habla con un agente AI?
- Se comunican las limitaciones del agente?
- El usuario puede pedir hablar con un humano?
- Hay canal de feedback para reportar errores del agente?
3. Mapping Completo: Singapore MGF al Framework
Sección titulada «3. Mapping Completo: Singapore MGF al Framework»D1: Risk Bounding → Framework
Sección titulada «D1: Risk Bounding → Framework»| Control MGF | Artefacto/Script del Framework | Fase | Detalle |
|---|---|---|---|
| D1.1 Risk assessment | F01_strategy/problem_statement.yaml | F01 | Risk assessment como parte del problem statement |
| D1.1 Risk assessment | compliance-linter.py | F08 | Verificacion automatizada de compliance |
| D1.2 Capability scoping | .claude/settings.json permissions | F00 | Deny lists, allowed tools por skill |
| D1.2 Capability scoping | AGENTS.md Never list | F00 | Acciones prohibidas explicitamente |
| D1.3 Environment constraints | fab-workspace-setup.sh | F06 | Worktrees aislados por FAB |
| D1.4 Escalation boundaries | .fab-config.yaml escalation_policy | F06 | pause_and_notify / stop_immediately |
| D1.5 Testing & simulation | F07_tevv/ eval scorecards | F07 | Evaluacion pre-deployment |
| D1.5 Testing & simulation | owasp-asi-checker.py | F08 | Tests automaticos ASI01-ASI10 |
D2: Human Accountability → Framework
Sección titulada «D2: Human Accountability → Framework»| Control MGF | Artefacto/Script del Framework | Fase | Detalle |
|---|---|---|---|
| D2.1 Accountability assignment | CORE_F00_Roles_RACI_Gates.md | F00 | RACI matrix con responsabilidades |
| D2.1 Accountability assignment | human_agent_responsibility.yaml | F01 | Definicion explicita humano vs agente |
| D2.2 Decision authority | gate-check.sh / fab-gate-check.py | Todas | Gates requieren aprobacion humana |
| D2.2 Decision authority | AGENTS.md 7 Golden Principles | F00 | Principle 4: Humans approve, agents propose |
| D2.3 Override mechanisms | fab-kill-switch.sh | F09 | Emergency stop + graceful shutdown |
| D2.4 Audit trail | Git commit co-authorship | Todas | Trazabilidad AI en commits |
| D2.4 Audit trail | dora-metrics.py AI attribution | F09 | Metricas con atribucion AI |
| D2.5 Escalation protocols | .fab-config.yaml blocker rules | F06 | Reglas de escalacion por condicion |
D3: Technical Controls → Framework
Sección titulada «D3: Technical Controls → Framework»| Control MGF | Artefacto/Script del Framework | Fase | Detalle |
|---|---|---|---|
| D3.1 Runtime monitoring | fab-health-check.sh | F09 | Monitoreo de salud de FABs |
| D3.1 Runtime monitoring | fab-feedback-loop.py | F10 | Telemetria y analisis continuo |
| D3.2 Kill switch | fab-kill-switch.sh | F09 | Parada de emergencia con checkpoint |
| D3.3 Cost controls | fab-cost-guard.py | F09 | Circuit breakers green/yellow/red/critical |
| D3.3 Cost controls | .fab-config.yaml budget | F06 | Limites de costo por intent |
| D3.4 Tool access | settings.json permissions | F00 | Deny/allow por herramienta |
| D3.4 Tool access | mcp-security-audit.py | F08 | Auditoria de seguridad MCP |
| D3.5 Inter-agent security | Multi-Agent Orchestration Guide | F06 | Zero trust entre agentes |
| D3.6 Output validation | artifact-validator.py | F08 | Validacion contra schemas |
| D3.6 Output validation | Pre-commit hooks | F06 | Validacion antes de commit |
D4: End-User Responsibility → Framework
Sección titulada «D4: End-User Responsibility → Framework»| Control MGF | Artefacto/Script del Framework | Fase | Detalle |
|---|---|---|---|
| D4.1 AI disclosure | ai_transparency_disclosure.yaml | F08 | Template de divulgacion AI |
| D4.1 AI disclosure | aibom.yaml / aibom-generator.py | F08 | AI Bill of Materials |
| D4.2 Capability transparency | AGENTS.md role definitions | F00 | Definicion de capacidades por agente |
| D4.3 Limitation warnings | EU AI Act Art.50 disclosure | F08 | Marcado de contenido generado por AI |
| D4.4 Human fallback | Escalation protocols | F09 | Mecanismos de escalacion a humano |
| D4.5 Feedback mechanism | fab-feedback-loop.py | F10 | Ciclo de feedback y mejora |
4. Tabla de Cobertura por Control
Sección titulada «4. Tabla de Cobertura por Control»| Dimension | Control | Status Framework | Artefacto Principal |
|---|---|---|---|
| D1.1 | Risk assessment | Cubierto | problem_statement.yaml, compliance-linter |
| D1.2 | Capability scoping | Cubierto | settings.json, AGENTS.md Never list |
| D1.3 | Environment constraints | Cubierto | fab-workspace-setup.sh |
| D1.4 | Escalation boundaries | Cubierto | .fab-config.yaml |
| D1.5 | Testing & simulation | Cubierto | F07 evals, owasp-asi-checker |
| D2.1 | Accountability assignment | Cubierto | RACI, human_agent_responsibility |
| D2.2 | Decision authority | Cubierto | gate system, 7 Golden Principles |
| D2.3 | Override mechanisms | Cubierto | fab-kill-switch.sh |
| D2.4 | Audit trail | Cubierto | git co-authorship, DORA metrics |
| D2.5 | Escalation protocols | Cubierto | .fab-config.yaml blocker rules |
| D3.1 | Runtime monitoring | Cubierto | fab-health-check, fab-feedback-loop |
| D3.2 | Kill switch | Cubierto | fab-kill-switch.sh |
| D3.3 | Cost controls | Cubierto | fab-cost-guard.py, budget config |
| D3.4 | Tool access controls | Cubierto | settings.json, mcp-security-audit |
| D3.5 | Inter-agent security | Cubierto | Multi-Agent Orchestration Guide |
| D3.6 | Output validation | Cubierto | artifact-validator, pre-commit hooks |
| D4.1 | AI disclosure | Cubierto | ai_transparency_disclosure, AIBOM |
| D4.2 | Capability transparency | Cubierto | AGENTS.md |
| D4.3 | Limitation warnings | Cubierto | Art.50 disclosure template |
| D4.4 | Human fallback | Cubierto | Escalation protocols |
| D4.5 | Feedback mechanism | Cubierto | fab-feedback-loop.py |
Cobertura total: 21/21 controles (100%)
Nota: “Cubierto” significa que el framework provee artefactos y scripts para implementar el control. La implementacion efectiva depende de que el proyecto complete los templates.
5. Triangulacion: Singapore MGF + EU AI Act + ISO 42001
Sección titulada «5. Triangulacion: Singapore MGF + EU AI Act + ISO 42001»Los tres marcos regulatorios son complementarios, no redundantes:
| Aspecto | Singapore MGF | EU AI Act | ISO 42001 |
|---|---|---|---|
| Tipo | Framework de gobernanza | Regulacion legal | Estandar de gestion |
| Enfoque | Agentes AI especificamente | AI de proposito general | Sistema de gestion AI |
| Obligatoriedad | Voluntario (best practice) | Obligatorio (EU) | Certificable |
| Scope | Runtime + pre-deployment | Todo el ciclo de vida | Organizacional |
Como se complementan
Sección titulada «Como se complementan»Singapore MGF (Agentes) → Gobernanza especifica para agentes autonomos ↕ complementaEU AI Act (Legal) → Requisitos legales de transparencia y risk mgmt ↕ complementaISO 42001 (Gestion) → Sistema de gestion certificable para AIRecomendacion de implementacion:
- Usar ISO 42001 como base del sistema de gestion AI (clausulas 4-10)
- Complementar con EU AI Act para requisitos legales (Art.50 transparencia, Art.73 conformity)
- Especializar con Singapore MGF para controles especificos de agentes (D1-D4)
- Usar el framework como implementacion tecnica que satisface los tres
Mapping cruzado
Sección titulada «Mapping cruzado»| Singapore MGF | EU AI Act | ISO 42001 | Framework |
|---|---|---|---|
| D1 Risk Bounding | Art.9 Risk Management | 6.1 Risk Assessment | F01 + F08 |
| D2 Accountability | Art.16 Provider Obligations | 5.1 Leadership | RACI + Gates |
| D3 Technical Controls | Art.15 Accuracy/Robustness | 8.1 Operational Planning | F09 Scripts |
| D4 Transparency | Art.50 Transparency | A.6 AI Transparency | AIBOM + Disclosure |
Escenarios de uso combinado
Sección titulada «Escenarios de uso combinado»Escenario 1: Empresa en EU con operaciones en APAC
- ISO 42001 como base del AI management system (certificable)
- EU AI Act para cumplimiento legal obligatorio en mercados europeos
- Singapore MGF para controles especificos de agentes en operaciones APAC
- El framework genera evidencia reutilizable para los tres marcos
Escenario 2: Startup SaaS con agentes autonomos
- Singapore MGF como guia practica de gobernanza (enfoque agentico)
- ISO 42001 como roadmap hacia certificacion cuando escale
- EU AI Act si planea operar en EU (Art.50 disclosure temprano)
- El framework permite cumplir incrementalmente, fase por fase
Escenario 3: Enterprise regulada (finanzas, salud)
- Los tres marcos simultaneamente (regulacion exige maxima cobertura)
- Singapore MGF para controles runtime de agentes en produccion
- EU AI Act para conformity assessment (Art.73) si el sistema es high-risk
- ISO 42001 para certificacion y auditorias externas
Valor diferencial del Singapore MGF
Sección titulada «Valor diferencial del Singapore MGF»A diferencia de EU AI Act (legal, amplio) e ISO 42001 (gestion, generico), el MGF de Singapur:
- Es el unico que aborda especificamente agentes AI autonomos
- Define controles runtime (no solo pre-deployment)
- Incluye la dimension de responsabilidad del usuario final (D4)
- Es practico y orientado a implementacion (no solo principios)
6. Checklist de Implementacion
Sección titulada «6. Checklist de Implementacion»Fase 1: Pre-deployment (F01-F04)
Sección titulada «Fase 1: Pre-deployment (F01-F04)»- Completar risk assessment en
problem_statement.yamlincluyendo riesgos agenticos - Definir
human_agent_responsibility.yamlcon RACI claro - Configurar
AGENTS.mdcon Never list explicito - Documentar capability scoping en
settings.jsonpermissions - Clasificar datos en
data_classification.yaml
Fase 2: Build & Test (F05-F07)
Sección titulada «Fase 2: Build & Test (F05-F07)»- Implementar contratos con validacion de output
- Configurar
fab-workspace-setup.shpara aislamiento - Ejecutar eval scorecards pre-deployment (F07)
- Correr
owasp-asi-checker.pyy resolver hallazgos - Validar escalation protocols en
.fab-config.yaml
Fase 3: Security & Compliance (F08)
Sección titulada «Fase 3: Security & Compliance (F08)»- Completar
singapore_mgf_compliance.yaml(nuevo template) - Generar AIBOM con
aibom-generator.py - Completar
ai_transparency_disclosure.yaml - Ejecutar
mcp-security-audit.pypara tool access controls - Correr
compliance-linter.pypara validacion integral
Fase 4: Operations (F09-F10)
Sección titulada «Fase 4: Operations (F09-F10)»- Activar
fab-kill-switch.shcomo mecanismo de override - Configurar
fab-cost-guard.pycon limites de costo - Activar
fab-health-check.shpara monitoreo runtime - Configurar
fab-feedback-loop.pypara mejora continua - Establecer procedimiento de revision periodica de compliance
7. Referencias
Sección titulada «7. Referencias»- IMDA Singapore — Model Governance Framework for Generative AI: Agentic AI Extension (Enero 2026)
- EU AI Act — Regulation (EU) 2024/1689
- ISO/IEC 42001:2023 — AI Management System
- OWASP Top 10 for Agentic Applications (2026)
- Framework docs internos:
framework/guides/OWASP_Agentic_Security_Guide.mdframework/guides/Multi_Agent_Orchestration_Guide.mdframework/guides/Data_Governance_AI_Guide.mdframework/core/F00_Foundation/CORE_F00_Roles_RACI_Gates.md