Ir al contenido

SOC 2 AI Controls

SOC 2 Type II con Controles AI — Guia Completa de Alineacion

Sección titulada «SOC 2 Type II con Controles AI — Guia Completa de Alineacion»

Guia del AI-First Engineering Framework v7.6.0

Version: 2.0.0 | Fecha: Marzo 2026 Estado: ACTIVO Fase: F08 Security — transversal a F07 (TEVV) y F09 (Operations) Referencia consolidada: framework/guides/Compliance_Regulatory_Alignment_Guide.md seccion 7


SOC 2 (Service Organization Control 2) es un marco de auditoria de la AICPA que evalua controles internos basandose en 5 Trust Services Criteria (TSC). Para sistemas AI agenticos, SOC 2 Type II verifica que los controles operan efectivamente durante un periodo (6-12 meses), cubriendo riesgos especificos de AI como alucinaciones, data leakage, prompt injection y agentes autonomos sin supervision.

  • Confianza del cliente: Demuestra que los agentes AI operan bajo controles auditados
  • Prerequisito B2B: SOC 2 es condicion frecuente en contratos enterprise
  • AI-specific risks: Modelos AI introducen riesgos que los controles tradicionales no cubren
  • Compliance cascade: SOC 2 + ISO 42001 cubren ~85% de los requisitos enterprise
AspectoType IType II
AlcanceDiseno de controles en un puntoEfectividad operativa en un periodo
DuracionSnapshot6-12 meses de observacion
Valor”Tenemos controles""Los controles funcionan”
Relevancia AIDiseno inicialOperacion continua de agentes

Esta guia cubre el mapping completo de los 5 TSC al framework Baseline, especificando para cada control:

  1. Que artefacto lo satisface
  2. Que script genera evidencia automatizada
  3. Que template completar en el proyecto
  4. Que gaps existen y como remediarlos

2. Mapping Completo: Trust Services Criteria al Framework

Sección titulada «2. Mapping Completo: Trust Services Criteria al Framework»

2.1 CC6: Security (Criterio Comun — Obligatorio)

Sección titulada «2.1 CC6: Security (Criterio Comun — Obligatorio)»

Principio: Proteger la informacion y los sistemas contra acceso no autorizado, destruccion o modificacion.

ControlDescripcionArtefacto FrameworkScript de EvidenciaTemplate ProyectoStatus
CC6.1Control de acceso logicosettings.json permissions, .claude/rules/ deny lists.claude/settings.jsonCompliant
CC6.1-AIControl de acceso a herramientas AI.fab-config.yaml tool restrictions, AGENTS.md Never listmcp-security-audit.pyF08_security/mcp_security_policy.yamlCompliant
CC6.2Gestion de credencialesPre-commit hook (secret scanning), .claudeignorePre-commit hook logs.claude/hooks/pre_commitCompliant
CC6.3Testing de seguridadsast-sca-scanner.py, owasp-asi-checker.pysast-sca-scanner.py -d project, owasp-asi-checker.py -d projectF08_security/sast_sca_config.yamlCompliant
CC6.4Amenazas externasmcp-security-audit.py (transport, auth, trust)mcp-security-audit.pyF08_security/mcp_security_policy.yamlCompliant
CC6.5Gestion de cambiosGate system (gate-check.sh), PR reviewsgate-check.sh <track> allproject-config.yaml (gates section)Compliant
CC6.6Gestion de vulnerabilidadessast-sca-scanner.py (SCA: npm/pip/go audit)sast-sca-scanner.py -d project --scaF08_security/sast_sca_config.yamlCompliant
CC6.7Respuesta a incidentes de seguridadfab-kill-switch.sh, incident_reporting_plan.yamlfab-kill-switch.sh --testF08_security/incident_reporting_plan.yamlCompliant
CC6.8Registro de eventos de seguridadGit log + script outputs (JSON)dora-metrics.py (AI attribution)Partial
Ventana de terminal
# CC6.3: Reporte SAST/SCA completo
python3 scripts/sast-sca-scanner.py -d project -o F08_security/sast_report.json
# CC6.3: Verificacion OWASP ASI
python3 scripts/owasp-asi-checker.py -d project
# CC6.4: Auditoria de seguridad MCP
python3 scripts/mcp-security-audit.py
# CC6.5: Verificacion de gates
bash scripts/gate-check.sh <track> all
# CC6.6: Solo SCA (dependencias)
python3 scripts/sast-sca-scanner.py -d project --sca-only
GapSeveridadRemediacionEsfuerzo
CC6.8: No hay formato estandarizado de audit logMediaCrear audit_log_config.yaml con formato (timestamp, actor, action, resource, outcome), retencion 12 meses1 sprint
CC6.1-AI: Revision periodica de permisos de agentesBajaEstablecer revision trimestral de settings.json y .fab-config.yamlProcedimiento

Principio: Los sistemas estan disponibles para operacion y uso segun lo comprometido.

ControlDescripcionArtefacto FrameworkScript de EvidenciaTemplate ProyectoStatus
CC7.1Monitoreo de disponibilidadfab-health-check.sh, fab-feedback-loop.pyfab-health-check.sh (cada 15 min)F09_operations/operating_baseline.yamlCompliant
CC7.2Respuesta a incidentesfab-kill-switch.sh (emergency stop + graceful shutdown)fab-kill-switch.sh --testF08_security/incident_reporting_plan.yamlCompliant
CC7.3RecuperacionCheckpoint protocol (HANDOFF.md cada 60 min), git worktreesGit log de checkpointsHANDOFF.mdCompliant
CC7.4Continuidad del negociofab-cost-guard.py circuit breakers (green/yellow/red/critical)fab-cost-guard.py --report.fab-config.yaml (budget section)Compliant
CC7.5Gestion de capacidad.fab-config.yaml budget limits, fab-cost-guard.pyfab-cost-guard.py --report.fab-config.yamlCompliant
Ventana de terminal
# CC7.1: Health check de FABs activos
bash scripts/fab-health-check.sh
# CC7.2: Test de kill switch (dry-run)
bash scripts/fab-kill-switch.sh --test
# CC7.4: Reporte de cost guard
python3 scripts/fab-cost-guard.py --report
# CC7.1 + CC7.5: Metricas operativas con AI attribution
python3 scripts/dora-metrics.py
GapSeveridadRemediacionEsfuerzo
Plan formal de continuidad para factoriesMediaDocumentar BCP para escenario de caida completa de factory (failover, recovery time)2 sprints
SLA de disponibilidad documentadoBajaCompletar F09_operations/slo_baseline.yaml con SLAs especificos de agentes AI1 sprint

Principio: El procesamiento de datos es completo, valido, exacto, oportuno y autorizado.

ControlDescripcionArtefacto FrameworkScript de EvidenciaTemplate ProyectoStatus
CC8.1Validacion de entradaartifact-validator.py (42 schemas), validate-intent.pyartifact-validator.py -d project, validate-intent.pySchemas en scripts/schemas/Compliant
CC8.2Controles de procesamientocompliance-linter.py (15 reglas), gate systemcompliance-linter.py -d project -t <track>F08_security/compliance_matrix.yamlCompliant
CC8.3Validacion de salidaEval framework (compare-evals.py), eval scorecardscompare-evals.pyF07_tevv/evaluation_scorecard.yamlCompliant
CC8.4Manejo de erroresGate system (A-F + DG), FAB blocker rulesgate-check.sh <track> all, fab-gate-check.pyproject-config.yaml (gates)Compliant
CC8.5Completitud del procesamientofab-gate-check.py confidence scoring, acceptance criteriafab-gate-check.pyprogress-tracker.mdCompliant
CC8.6Integridad de datos en transitoMCP transport security (HTTPS/stdio), tool annotationsmcp-security-audit.pyF08_security/mcp_security_policy.yamlCompliant
Ventana de terminal
# CC8.1: Validacion de artefactos contra schemas
python3 scripts/artifact-validator.py -d project
# CC8.2: Score de compliance
python3 scripts/compliance-linter.py -d project -t <track>
# CC8.3: Comparacion de evals
python3 scripts/compare-evals.py
# CC8.4 + CC8.5: Verificacion de gates con scoring de confianza
python3 scripts/fab-gate-check.py -d project
# CC8.6: Auditoria de transporte MCP
python3 scripts/mcp-security-audit.py
GapSeveridadRemediacionEsfuerzo
No hay reporte de reconciliacion de datos procesados vs esperadosBajaImplementar validation summary en fab-feedback-loop.py output1 sprint

Principio: La informacion designada como confidencial esta protegida segun lo comprometido.

ControlDescripcionArtefacto FrameworkScript de EvidenciaTemplate ProyectoStatus
CC9.1Clasificacion de datosdata_classification.yaml (4 niveles: public, internal, restricted, prohibited)compliance-linter.py (regla DG)data_classification.yamlCompliant
CC9.2Integridad de modelos AIaibom-generator.py + compare-evals.py + dora-metrics.pyVer seccion 3 (CC9.2 detallado)F08_security/aibom.yaml, F07_tevv/evaluation_scorecard.yamlCompliant
CC9.3Restriccion de acceso.claudeignore, settings.json permissions, boundary rules (AGENTS.md Never list)mcp-security-audit.py.claudeignore, AGENTS.mdCompliant
CC9.4Politicas de eliminacionData Governance Guide (retencion), data_classification.yaml retention fieldsdata_classification.yamlPartial
CC9.5Proteccion en comparticion.fab-coordination.yaml file-locking, zero trust inter-agentfab-coordinator.py.fab-coordination.yamlCompliant
Ventana de terminal
# CC9.1: Verificar clasificacion de datos
python3 scripts/compliance-linter.py -d project -t <track>
# CC9.2: Generar AIBOM
python3 scripts/aibom-generator.py -d project
# CC9.2: Metricas DORA con AI attribution
python3 scripts/dora-metrics.py
# CC9.2: Evaluar integridad de modelo via scorecards
python3 scripts/compare-evals.py
GapSeveridadRemediacionEsfuerzo
CC9.4: No hay procedimiento formal de data disposalMediaAgregar campos retention_period y disposal_method a data_classification.yaml, documentar procedimiento1 sprint

Principio: La informacion personal se recolecta, usa, retiene, divulga y destruye de acuerdo con los compromisos de la organizacion.

ControlDescripcionArtefacto FrameworkScript de EvidenciaTemplate ProyectoStatus
P1Notice (aviso)ai_transparency_disclosure.yamlcompliance-linter.py (regla transparency)F08_security/ai_transparency_disclosure.yamlCompliant
P2Consent (consentimiento)Data Governance Guide (consent tracking)data_classification.yaml (consent fields)Partial
P3Collection (recoleccion)data_provenance_registry.yaml (fuentes, metodo, proposito)compliance-linter.py (regla provenance)data_provenance_registry.yamlCompliant
P4Use, retention & disposaldata_classification.yaml (niveles + politicas)compliance-linter.pydata_classification.yamlPartial
P5Access (acceso del individuo)Non-compliant
P6Disclosure to third partiesdata_provenance_registry.yaml (third-party fields)data_provenance_registry.yamlPartial
P7Quality (calidad de datos)Eval scorecards, data validationartifact-validator.pyF07_tevv/evaluation_scorecard.yamlPartial
P8Monitoring & enforcementfab-feedback-loop.py, compliance-linter.pycompliance-linter.py, fab-feedback-loop.pyF09_operations/operating_baseline.yamlPartial
GapSeveridadRemediacionEsfuerzo
P2: No hay mecanismo formal de tracking de consentimientoMediaAgregar seccion consent_tracking a data_classification.yaml con fecha, metodo, scope1 sprint
P4: Politicas de retencion incompletasMediaCompletar retention_period y disposal_method por cada clase de datosProcedimiento
P5: No hay mecanismo de acceso/rectificacion del individuoAltaCrear template data_subject_access_request.yaml con procedimiento DSAR2 sprints
P6: Disclosure a terceros no sistematizadoMediaAgregar campo third_party_sharing a data_provenance_registry.yaml1 sprint
P7/P8: Monitoreo de calidad de datos parcialBajaExtender evals para incluir data quality checks1 sprint

3. CC9.2 AI Model Integrity — Detalle Especial

Sección titulada «3. CC9.2 AI Model Integrity — Detalle Especial»

La AICPA publico en 2026 guidance adicional para evaluar la integridad de modelos AI bajo CC9.2. El framework satisface los tres pilares de evidencia:

El AI Bill of Materials es la evidencia principal de inventario:

Ventana de terminal
# Generar AIBOM automaticamente desde artefactos del proyecto
python3 scripts/aibom-generator.py -d project

Template: project/F08_security/aibom.yaml Contenido: Modelos usados, versiones, provenance, licencias, risk level Frecuencia: Cada release o cambio de modelo

3.2 Pilar 2: Model Testing (Eval Scorecards)

Sección titulada «3.2 Pilar 2: Model Testing (Eval Scorecards)»

Los eval scorecards demuestran testing continuo de modelos:

Ventana de terminal
# Comparar resultados de evaluaciones (detecta regresiones)
python3 scripts/compare-evals.py

Template: project/F07_tevv/evaluation_scorecard.yaml Contenido: Metricas de quality, safety, cost, latency por modelo Frecuencia: Cada release, minimo trimestral

3.3 Pilar 3: Operational Monitoring (DORA + AI Attribution)

Sección titulada «3.3 Pilar 3: Operational Monitoring (DORA + AI Attribution)»

Las metricas DORA con atribucion AI evidencian monitoreo continuo:

Ventana de terminal
# Metricas DORA con porcentaje de trabajo AI
python3 scripts/dora-metrics.py

Template: project/F09_operations/dora_metrics_config.yaml Contenido: Deployment frequency, lead time, MTTR, change failure rate, AI attribution % Frecuencia: Continuo (CI/CD), reporte mensual

3.4 Relacion CC6.1 con .fab-coordination.yaml y settings.json

Sección titulada «3.4 Relacion CC6.1 con .fab-coordination.yaml y settings.json»

El control de acceso logico para agentes AI se implementa en dos niveles:

  1. settings.json permissions: Define que herramientas puede usar cada agente, que archivos puede modificar, y que operaciones requieren aprobacion humana.
  2. .fab-coordination.yaml: Define file-locking entre agentes, inbox routing, y task decomposition — asegurando que multiples agentes no corrompan datos simultaneamente.

Juntos, estos artefactos satisfacen CC6.1 para escenarios multi-agente donde el “usuario” es un agente autonomo.


4. Generacion Automatizada de Evidencia SOC 2

Sección titulada «4. Generacion Automatizada de Evidencia SOC 2»
TSCScriptComandoFrecuencia RecomendadaOutput
CC6sast-sca-scanner.pypython3 scripts/sast-sca-scanner.py -d projectCada PRJSON report
CC6owasp-asi-checker.pypython3 scripts/owasp-asi-checker.py -d projectCada releaseJSON checklist
CC6mcp-security-audit.pypython3 scripts/mcp-security-audit.pyMensualJSON audit
CC6Pre-commit hookAutomatico en cada commitCada commitLog
CC7fab-health-check.shbash scripts/fab-health-check.shCada 15 minLog
CC7fab-kill-switch.shbash scripts/fab-kill-switch.sh --testMensualLog
CC7fab-cost-guard.pypython3 scripts/fab-cost-guard.py --reportDiarioJSON report
CC8compliance-linter.pypython3 scripts/compliance-linter.py -d project -t <track>Cada PRScore report
CC8artifact-validator.pypython3 scripts/artifact-validator.py -d projectCada PRValidation report
CC8compare-evals.pypython3 scripts/compare-evals.pyCada releaseScorecard diff
CC8fab-gate-check.pypython3 scripts/fab-gate-check.py -d projectCada faseConfidence scores
CC9aibom-generator.pypython3 scripts/aibom-generator.py -d projectCada releaseAIBOM YAML
CC9dora-metrics.pypython3 scripts/dora-metrics.pyMensualMetrics report
Privacycompliance-linter.pyIncluido en run generalCada PRScore report

Para generar toda la evidencia SOC 2 de una vez:

#!/bin/bash
# soc2-evidence-run.sh — Genera toda la evidencia SOC 2 del proyecto
set -euo pipefail
PROJECT_DIR="${1:-.}"
TRACK="${2:-lean}"
OUTPUT_DIR="${PROJECT_DIR}/F08_security/soc2_evidence"
mkdir -p "$OUTPUT_DIR"
echo "=== CC6: Security ==="
python3 scripts/sast-sca-scanner.py -d "$PROJECT_DIR" -o "$OUTPUT_DIR/sast_sca_report.json"
python3 scripts/owasp-asi-checker.py -d "$PROJECT_DIR" > "$OUTPUT_DIR/owasp_asi_report.json"
python3 scripts/mcp-security-audit.py > "$OUTPUT_DIR/mcp_audit_report.json"
echo "=== CC7: Availability ==="
bash scripts/fab-health-check.sh > "$OUTPUT_DIR/health_check.log" 2>&1 || true
python3 scripts/fab-cost-guard.py --report > "$OUTPUT_DIR/cost_guard_report.json" 2>&1 || true
echo "=== CC8: Processing Integrity ==="
python3 scripts/compliance-linter.py -d "$PROJECT_DIR" -t "$TRACK" > "$OUTPUT_DIR/compliance_score.json"
python3 scripts/artifact-validator.py -d "$PROJECT_DIR" > "$OUTPUT_DIR/artifact_validation.json"
echo "=== CC9: Confidentiality ==="
python3 scripts/aibom-generator.py -d "$PROJECT_DIR" > "$OUTPUT_DIR/aibom_report.json" 2>&1 || true
python3 scripts/dora-metrics.py > "$OUTPUT_DIR/dora_metrics.json" 2>&1 || true
echo "=== Evidencia generada en: $OUTPUT_DIR ==="

Controles minimos viables para SOC 2 readiness:

  • data_classification.yaml completado (CC9.1)
  • Pre-commit hook instalado con secret scanning (CC6.2)
  • sast-sca-scanner.py ejecutado al menos 1 vez (CC6.3, CC6.6)
  • settings.json con permissions configurados (CC6.1)
  • .claudeignore configurado para excluir datos sensibles (CC9.3)
  • AIBOM generado con aibom-generator.py (CC9.2)
  • ai_transparency_disclosure.yaml completado (P1)
  • data_provenance_registry.yaml con al menos fuentes principales (P3)
  • soc2_ai_controls.yaml con status inicial documentado

Todo lo de Solo, mas:

  • compliance-linter.py score >= 60% (CC8.2)
  • owasp-asi-checker.py sin hallazgos critical/high (CC6.3)
  • fab-cost-guard.py configurado con budget limits (CC7.4, CC7.5)
  • Eval scorecard completado para al menos 1 modelo (CC9.2, CC8.3)
  • incident_reporting_plan.yaml completado (CC7.2)
  • gate-check.sh ejecutado para fases completadas (CC6.5, CC8.4)
  • mcp-security-audit.py ejecutado si usa MCP servers (CC6.4)
  • soc2_ai_controls.yaml actualizado con evidencia por control

Todo lo de Lean, mas:

  • compliance-linter.py score >= 80% (CC8.2)
  • dora-metrics.py ejecutado con AI attribution (CC9.2)
  • fab-health-check.sh activo en produccion (CC7.1)
  • fab-kill-switch.sh probado y documentado (CC7.2)
  • fab-gate-check.py con confidence scoring (CC8.5)
  • Plan de continuidad de negocio documentado (CC7.4)
  • Procedimiento de access review trimestral establecido (CC6.1)
  • Audit log con formato estandarizado (CC6.8)
  • Privacy: consentimiento tracking implementado (P2)
  • Privacy: procedimiento DSAR documentado (P5)
  • Evidencia de 6+ meses para Type II
  • Auditoria interna completada antes de auditoria externa
  • soc2_ai_controls.yaml con todos los controles evaluados y evidencia referenciada

6. Roadmap de Implementacion — 4 Trimestres

Sección titulada «6. Roadmap de Implementacion — 4 Trimestres»
SemanaAccionControlesResponsable
1-2Completar data_classification.yamlCC9.1Tech Lead
2-3Configurar pre-commit hooks (secret scanning)CC6.2DevOps
3-4Activar sast-sca-scanner.py en CICC6.3, CC6.6DevOps
4-5Generar primer AIBOMCC9.2 (Pilar 1)Tech Lead
5-6Documentar RACI para seguridad AICC6.1Manager
6-8Completar settings.json permissions por agenteCC6.1-AITech Lead
8-10Completar data_provenance_registry.yamlP3Data Engineer
10-12Completar ai_transparency_disclosure.yamlP1Product

Entregable Q1: soc2_ai_controls.yaml con status inicial, evidencia de CC6.1-CC6.6, CC9.1, CC9.2 (Pilar 1), P1, P3.

SemanaAccionControlesResponsable
13-14Activar fab-health-check.sh en produccionCC7.1DevOps
14-15Configurar fab-cost-guard.py con budget limitsCC7.4, CC7.5Tech Lead
15-17Ejecutar primer eval scorecard completoCC9.2 (Pilar 2), CC8.3QA
17-18Primer compliance-linter.py run completoCC8.2Tech Lead
18-19Configurar y probar fab-kill-switch.shCC7.2DevOps
19-20Completar incident_reporting_plan.yamlCC7.2Security
20-22Ejecutar dora-metrics.py con AI attributionCC9.2 (Pilar 3)DevOps
22-24Primera auditoria interna parcialTodosSecurity

Entregable Q2: Controles CC7 y CC8 operativos, evidencia de 3+ meses acumulandose.

SemanaAccionControlesResponsable
25-27Implementar formato estandarizado de audit logCC6.8DevOps
27-28Establecer procedimiento de access review trimestralCC6.1Security
28-30Crear procedimiento DSAR (Data Subject Access Request)P5Legal + Dev
30-32Documentar plan de continuidad para factoriesCC7.4DevOps
32-33Implementar consent trackingP2Product + Dev
33-34Documentar change management formalCC6.5Tech Lead
34-36Segunda auditoria interna (todos los controles)TodosSecurity

Entregable Q3: Todos los gaps cerrados, evidencia de 6+ meses acumulada, listo para auditoria externa.

SemanaAccionControlesResponsable
37-38Recopilar toda la evidencia (6+ meses)TodosSecurity
38-39Ejecutar suite completa de evidencia (soc2-evidence-run.sh)TodosDevOps
39-40Remediar hallazgos de auditoria internaVariablesTech Lead
40-41Seleccionar y contratar auditor SOC 2 (CPA con exp. AI)Manager
41-44Periodo de observacion auditor externoTodosTodos
44-46Responder a hallazgos del auditorVariablesTech Lead
46-48Recibir reporte SOC 2 Type IITodosManager

Entregable Q4: Reporte SOC 2 Type II emitido.


Los modelos AI cambian de comportamiento con actualizaciones del proveedor. Para SOC 2:

  • Mantener AIBOM actualizado con versiones exactas
  • Ejecutar evals periodicos (minimo trimestral) para detectar regresiones
  • Documentar cada cambio de modelo como change management (CC6.5)

Los ataques de inyeccion son el equivalente AI de SQL injection. Para SOC 2:

  • owasp-asi-checker.py verifica controles anti-injection (ASI01)
  • Boundary rules en AGENTS.md limitan superficie de ataque
  • Input validation en artifact-validator.py y validate-intent.py

La procedencia de datos de entrenamiento y RAG es critica:

  • data_provenance_registry.yaml es evidencia clave para CC9 y Privacy P3
  • Cada fuente de datos debe tener: origen, licencia, clasificacion, consentimiento

Un agente autonomo que toma decisiones incorrectas es un riesgo de processing integrity:

  • Gate checks (fab-gate-check.py) verifican calidad antes de avanzar
  • Eval scorecards miden precision de decisiones del agente
  • Kill switch permite parada de emergencia

Un agente sin limites de costo puede generar gastos descontrolados:

  • fab-cost-guard.py implementa circuit breakers (green/yellow/red/critical)
  • .fab-config.yaml define budget limits por intent
  • Evidencia directa de availability controls (CC7.4, CC7.5)

El template project/F08_security/soc2_ai_controls.yaml permite registrar el estado de cumplimiento de cada control SOC 2 en el proyecto. Incluye:

  • Cada TSC con sus controles mapeados a artefactos del framework
  • Status tracking por control (compliant/partial/non_compliant/not_applicable)
  • Referencias a evidencia generada
  • Fecha de ultima evaluacion y proxima revision

Para validar el template:

Ventana de terminal
python3 scripts/artifact-validator.py -f project/F08_security/soc2_ai_controls.yaml

  1. AICPA — SOC 2 Trust Services Criteria (2017, updated 2022)
  2. AICPA — SOC 2 AI-Specific Controls Guidance (2026)
  3. ISO/IEC 27001:2022 — Information Security Management System
  4. Framework docs internos:
    • framework/guides/Compliance_Regulatory_Alignment_Guide.md — Guia consolidada (seccion 7)
    • framework/guides/Data_Governance_AI_Guide.md — Gobernanza de datos AI
    • framework/guides/FinOps_Observability_Handbook.md — Observabilidad y FinOps
    • framework/guides/Framework_Enforcement_Guide.md — Enforcement del framework

Guia completa de alineacion SOC 2 Type II con controles AI del AI-First Engineering Framework v7.6.0. Cubre los 5 TSC, mapeo a artefactos, generacion automatizada de evidencia, gaps, checklist por track y roadmap de 4 trimestres.