Ir al contenido

Singapore MGF

Singapore Model Governance Framework for Agentic AI — Guia de Alineacion

Sección titulada «Singapore Model Governance Framework for Agentic AI — Guia de Alineacion»

Companion del AI-First Engineering Framework v7.6.0


El Model Governance Framework for Generative AI — Agentic AI Extension fue publicado por la Infocomm Media Development Authority (IMDA) de Singapur el 22 de enero de 2026. Es el primer framework de gobernanza gubernamental del mundo especificamente disenado para sistemas AI agenticos.

A diferencia de marcos regulatorios prescriptivos (como el EU AI Act), el MGF de Singapur adopta un enfoque basado en principios y dimensiones, reconociendo que los agentes AI:

  • Toman acciones autonomas en el mundo real
  • Operan en cadenas multi-agente donde la responsabilidad se diluye
  • Interactuan con herramientas externas (APIs, bases de datos, sistemas)
  • Pueden escalar comportamiento de formas no previstas

El framework se organiza en 4 dimensiones de gobernanza que cubren todo el ciclo de vida de un agente, desde pre-deployment hasta operacion continua.

El MGF aplica a cualquier organizacion que desarrolle, despliegue u opere sistemas AI agenticos, incluyendo:

  • Agentes autonomos (FABs, coding agents, research agents)
  • Orquestaciones multi-agente (pipelines, swarms, hierarchical)
  • Sistemas MCP (Model Context Protocol) con acceso a herramientas
  • Workflows AI con toma de decisiones autonoma

D1: Risk Bounding — Limitar Riesgos Antes de Deployment

Sección titulada «D1: Risk Bounding — Limitar Riesgos Antes de Deployment»

Principio: Antes de desplegar un agente, la organizacion debe identificar, evaluar y acotar los riesgos potenciales.

Controles clave:

ControlDescripcionObjetivo
D1.1Risk assessment pre-deploymentIdentificar riesgos antes de activar agente
D1.2Capability scopingLimitar que puede hacer el agente
D1.3Environment constraintsDefinir en que entornos opera
D1.4Escalation boundariesDefinir cuando escalar a humano
D1.5Testing & simulationValidar comportamiento antes de produccion

Preguntas guia:

  • Que acciones puede realizar el agente? Cuales estan prohibidas?
  • Que datos puede acceder? Con que clasificacion?
  • Que sucede si el agente falla? Cual es el blast radius?
  • Se ha probado en escenarios adversos (prompt injection, tool misuse)?

D2: Human Accountability — Cadena Clara de Responsabilidad

Sección titulada «D2: Human Accountability — Cadena Clara de Responsabilidad»

Principio: Siempre debe existir un humano accountable por las acciones de un agente. La autonomia del agente no elimina la responsabilidad humana.

Controles clave:

ControlDescripcionObjetivo
D2.1Accountability assignmentAsignar humano responsable por agente
D2.2Decision authority matrixDefinir que decide el agente vs el humano
D2.3Override mechanismsCapacidad de anular decisiones del agente
D2.4Audit trailRegistro completo de acciones y decisiones
D2.5Escalation protocolsProcedimientos claros de escalacion

Preguntas guia:

  • Quien es responsable si el agente causa dano?
  • Existe un RACI claro para operaciones del agente?
  • Se puede revertir cualquier accion del agente?
  • Hay registro auditable de cada decision?

D3: Technical Controls — Controles Tecnicos Runtime

Sección titulada «D3: Technical Controls — Controles Tecnicos Runtime»

Principio: Los controles tecnicos deben limitar, monitorear y detener el comportamiento del agente en tiempo real.

Controles clave:

ControlDescripcionObjetivo
D3.1Runtime monitoringMonitoreo continuo de comportamiento
D3.2Kill switchParada de emergencia inmediata
D3.3Cost controlsLimites de gasto y circuit breakers
D3.4Tool access controlsPermisos granulares por herramienta
D3.5Inter-agent securityZero trust entre agentes
D3.6Output validationValidar acciones antes de ejecutar

Preguntas guia:

  • Se puede detener el agente inmediatamente si se comporta mal?
  • Hay limites de costo que impidan gasto descontrolado?
  • Los permisos de herramientas siguen principio de minimo privilegio?
  • Se validan las acciones del agente antes de ejecutarlas?

D4: End-User Responsibility — Responsabilidad del Usuario Final

Sección titulada «D4: End-User Responsibility — Responsabilidad del Usuario Final»

Principio: Los usuarios finales deben entender que interactuan con un agente AI, conocer sus limitaciones, y poder optar por interaccion humana.

Controles clave:

ControlDescripcionObjetivo
D4.1AI disclosureInformar que el sistema es AI
D4.2Capability transparencyComunicar que puede y no puede el agente
D4.3Limitation warningsAdvertir sobre limitaciones conocidas
D4.4Human fallbackOpcion de escalar a humano
D4.5Feedback mechanismCanal para reportar problemas

Preguntas guia:

  • El usuario sabe que habla con un agente AI?
  • Se comunican las limitaciones del agente?
  • El usuario puede pedir hablar con un humano?
  • Hay canal de feedback para reportar errores del agente?

3. Mapping Completo: Singapore MGF al Framework

Sección titulada «3. Mapping Completo: Singapore MGF al Framework»
Control MGFArtefacto/Script del FrameworkFaseDetalle
D1.1 Risk assessmentF01_strategy/problem_statement.yamlF01Risk assessment como parte del problem statement
D1.1 Risk assessmentcompliance-linter.pyF08Verificacion automatizada de compliance
D1.2 Capability scoping.claude/settings.json permissionsF00Deny lists, allowed tools por skill
D1.2 Capability scopingAGENTS.md Never listF00Acciones prohibidas explicitamente
D1.3 Environment constraintsfab-workspace-setup.shF06Worktrees aislados por FAB
D1.4 Escalation boundaries.fab-config.yaml escalation_policyF06pause_and_notify / stop_immediately
D1.5 Testing & simulationF07_tevv/ eval scorecardsF07Evaluacion pre-deployment
D1.5 Testing & simulationowasp-asi-checker.pyF08Tests automaticos ASI01-ASI10
Control MGFArtefacto/Script del FrameworkFaseDetalle
D2.1 Accountability assignmentCORE_F00_Roles_RACI_Gates.mdF00RACI matrix con responsabilidades
D2.1 Accountability assignmenthuman_agent_responsibility.yamlF01Definicion explicita humano vs agente
D2.2 Decision authoritygate-check.sh / fab-gate-check.pyTodasGates requieren aprobacion humana
D2.2 Decision authorityAGENTS.md 7 Golden PrinciplesF00Principle 4: Humans approve, agents propose
D2.3 Override mechanismsfab-kill-switch.shF09Emergency stop + graceful shutdown
D2.4 Audit trailGit commit co-authorshipTodasTrazabilidad AI en commits
D2.4 Audit traildora-metrics.py AI attributionF09Metricas con atribucion AI
D2.5 Escalation protocols.fab-config.yaml blocker rulesF06Reglas de escalacion por condicion
Control MGFArtefacto/Script del FrameworkFaseDetalle
D3.1 Runtime monitoringfab-health-check.shF09Monitoreo de salud de FABs
D3.1 Runtime monitoringfab-feedback-loop.pyF10Telemetria y analisis continuo
D3.2 Kill switchfab-kill-switch.shF09Parada de emergencia con checkpoint
D3.3 Cost controlsfab-cost-guard.pyF09Circuit breakers green/yellow/red/critical
D3.3 Cost controls.fab-config.yaml budgetF06Limites de costo por intent
D3.4 Tool accesssettings.json permissionsF00Deny/allow por herramienta
D3.4 Tool accessmcp-security-audit.pyF08Auditoria de seguridad MCP
D3.5 Inter-agent securityMulti-Agent Orchestration GuideF06Zero trust entre agentes
D3.6 Output validationartifact-validator.pyF08Validacion contra schemas
D3.6 Output validationPre-commit hooksF06Validacion antes de commit
Control MGFArtefacto/Script del FrameworkFaseDetalle
D4.1 AI disclosureai_transparency_disclosure.yamlF08Template de divulgacion AI
D4.1 AI disclosureaibom.yaml / aibom-generator.pyF08AI Bill of Materials
D4.2 Capability transparencyAGENTS.md role definitionsF00Definicion de capacidades por agente
D4.3 Limitation warningsEU AI Act Art.50 disclosureF08Marcado de contenido generado por AI
D4.4 Human fallbackEscalation protocolsF09Mecanismos de escalacion a humano
D4.5 Feedback mechanismfab-feedback-loop.pyF10Ciclo de feedback y mejora

DimensionControlStatus FrameworkArtefacto Principal
D1.1Risk assessmentCubiertoproblem_statement.yaml, compliance-linter
D1.2Capability scopingCubiertosettings.json, AGENTS.md Never list
D1.3Environment constraintsCubiertofab-workspace-setup.sh
D1.4Escalation boundariesCubierto.fab-config.yaml
D1.5Testing & simulationCubiertoF07 evals, owasp-asi-checker
D2.1Accountability assignmentCubiertoRACI, human_agent_responsibility
D2.2Decision authorityCubiertogate system, 7 Golden Principles
D2.3Override mechanismsCubiertofab-kill-switch.sh
D2.4Audit trailCubiertogit co-authorship, DORA metrics
D2.5Escalation protocolsCubierto.fab-config.yaml blocker rules
D3.1Runtime monitoringCubiertofab-health-check, fab-feedback-loop
D3.2Kill switchCubiertofab-kill-switch.sh
D3.3Cost controlsCubiertofab-cost-guard.py, budget config
D3.4Tool access controlsCubiertosettings.json, mcp-security-audit
D3.5Inter-agent securityCubiertoMulti-Agent Orchestration Guide
D3.6Output validationCubiertoartifact-validator, pre-commit hooks
D4.1AI disclosureCubiertoai_transparency_disclosure, AIBOM
D4.2Capability transparencyCubiertoAGENTS.md
D4.3Limitation warningsCubiertoArt.50 disclosure template
D4.4Human fallbackCubiertoEscalation protocols
D4.5Feedback mechanismCubiertofab-feedback-loop.py

Cobertura total: 21/21 controles (100%)

Nota: “Cubierto” significa que el framework provee artefactos y scripts para implementar el control. La implementacion efectiva depende de que el proyecto complete los templates.


5. Triangulacion: Singapore MGF + EU AI Act + ISO 42001

Sección titulada «5. Triangulacion: Singapore MGF + EU AI Act + ISO 42001»

Los tres marcos regulatorios son complementarios, no redundantes:

AspectoSingapore MGFEU AI ActISO 42001
TipoFramework de gobernanzaRegulacion legalEstandar de gestion
EnfoqueAgentes AI especificamenteAI de proposito generalSistema de gestion AI
ObligatoriedadVoluntario (best practice)Obligatorio (EU)Certificable
ScopeRuntime + pre-deploymentTodo el ciclo de vidaOrganizacional
Singapore MGF (Agentes) → Gobernanza especifica para agentes autonomos
↕ complementa
EU AI Act (Legal) → Requisitos legales de transparencia y risk mgmt
↕ complementa
ISO 42001 (Gestion) → Sistema de gestion certificable para AI

Recomendacion de implementacion:

  1. Usar ISO 42001 como base del sistema de gestion AI (clausulas 4-10)
  2. Complementar con EU AI Act para requisitos legales (Art.50 transparencia, Art.73 conformity)
  3. Especializar con Singapore MGF para controles especificos de agentes (D1-D4)
  4. Usar el framework como implementacion tecnica que satisface los tres
Singapore MGFEU AI ActISO 42001Framework
D1 Risk BoundingArt.9 Risk Management6.1 Risk AssessmentF01 + F08
D2 AccountabilityArt.16 Provider Obligations5.1 LeadershipRACI + Gates
D3 Technical ControlsArt.15 Accuracy/Robustness8.1 Operational PlanningF09 Scripts
D4 TransparencyArt.50 TransparencyA.6 AI TransparencyAIBOM + Disclosure

Escenario 1: Empresa en EU con operaciones en APAC

  • ISO 42001 como base del AI management system (certificable)
  • EU AI Act para cumplimiento legal obligatorio en mercados europeos
  • Singapore MGF para controles especificos de agentes en operaciones APAC
  • El framework genera evidencia reutilizable para los tres marcos

Escenario 2: Startup SaaS con agentes autonomos

  • Singapore MGF como guia practica de gobernanza (enfoque agentico)
  • ISO 42001 como roadmap hacia certificacion cuando escale
  • EU AI Act si planea operar en EU (Art.50 disclosure temprano)
  • El framework permite cumplir incrementalmente, fase por fase

Escenario 3: Enterprise regulada (finanzas, salud)

  • Los tres marcos simultaneamente (regulacion exige maxima cobertura)
  • Singapore MGF para controles runtime de agentes en produccion
  • EU AI Act para conformity assessment (Art.73) si el sistema es high-risk
  • ISO 42001 para certificacion y auditorias externas

A diferencia de EU AI Act (legal, amplio) e ISO 42001 (gestion, generico), el MGF de Singapur:

  • Es el unico que aborda especificamente agentes AI autonomos
  • Define controles runtime (no solo pre-deployment)
  • Incluye la dimension de responsabilidad del usuario final (D4)
  • Es practico y orientado a implementacion (no solo principios)

  • Completar risk assessment en problem_statement.yaml incluyendo riesgos agenticos
  • Definir human_agent_responsibility.yaml con RACI claro
  • Configurar AGENTS.md con Never list explicito
  • Documentar capability scoping en settings.json permissions
  • Clasificar datos en data_classification.yaml
  • Implementar contratos con validacion de output
  • Configurar fab-workspace-setup.sh para aislamiento
  • Ejecutar eval scorecards pre-deployment (F07)
  • Correr owasp-asi-checker.py y resolver hallazgos
  • Validar escalation protocols en .fab-config.yaml
  • Completar singapore_mgf_compliance.yaml (nuevo template)
  • Generar AIBOM con aibom-generator.py
  • Completar ai_transparency_disclosure.yaml
  • Ejecutar mcp-security-audit.py para tool access controls
  • Correr compliance-linter.py para validacion integral
  • Activar fab-kill-switch.sh como mecanismo de override
  • Configurar fab-cost-guard.py con limites de costo
  • Activar fab-health-check.sh para monitoreo runtime
  • Configurar fab-feedback-loop.py para mejora continua
  • Establecer procedimiento de revision periodica de compliance

  1. IMDA Singapore — Model Governance Framework for Generative AI: Agentic AI Extension (Enero 2026)
  2. EU AI Act — Regulation (EU) 2024/1689
  3. ISO/IEC 42001:2023 — AI Management System
  4. OWASP Top 10 for Agentic Applications (2026)
  5. Framework docs internos:
    • framework/guides/OWASP_Agentic_Security_Guide.md
    • framework/guides/Multi_Agent_Orchestration_Guide.md
    • framework/guides/Data_Governance_AI_Guide.md
    • framework/core/F00_Foundation/CORE_F00_Roles_RACI_Gates.md