Lo Que Vas a Construir
El AIRS MLOps Lab es un workshop práctico donde construyes, despliegas y aseguras un pipeline de ML real. Haces fine-tuning de un modelo de lenguaje open-source para convertirlo en un asesor de ciberseguridad, lo despliegas en Google Cloud, y después aseguras sistemáticamente el pipeline usando Palo Alto Networks AI Runtime Security (AIRS).
Esto no es un tutorial pasivo. Trabajas con Claude Code como tu compañero de desarrollo y mentor. Claude ha sido configurado específicamente para este lab — conoce el código, adapta el ritmo de sus explicaciones y usa preguntas socráticas para construir tu comprensión.
Prerrequisitos
Antes de iniciar el lab, asegúrate de tener:
- Proyecto GCP — con permisos de owner, APIs de Vertex AI y Cloud Run habilitadas
- Licencia de AIRS — acceso a un tenant de Prisma AIRS con credenciales de Strata Cloud Manager
- Claude Code — instalado y configurado
- Cuenta de GitHub — con
ghCLI autenticado - Python 3.12+ — con
uvpara manejo de dependencias - Cuenta de HuggingFace — para explorar modelos y datasets
Tu instructor proporcionará los detalles del proyecto GCP y las credenciales de AIRS durante la sesión de configuración.
El Pipeline
Vas a construir un pipeline de CI/CD de 3 gates que escanea modelos de ML en cada etapa:
Gate 1 escanea el modelo base antes del entrenamiento, le hace fine-tuning con LoRA en Vertex AI y crea un manifest de procedencia.
Gate 2 fusiona el adapter LoRA con el modelo base, escanea el artifact fusionado y lo publica en GCS.
Gate 3 verifica la cadena del manifest, realiza un escaneo final, despliega el modelo en un endpoint de Vertex AI con GPU usando vLLM y despliega la aplicación FastAPI en Cloud Run.
La Arquitectura
La aplicación desplegada usa una arquitectura desacoplada — el modelo corre en infraestructura con GPU, la aplicación corre en infraestructura ligera:
Sin model weights en el contenedor de Cloud Run. Sin GPU. Sin dependencias de ML en runtime. Cloud Run maneja la capa web; Vertex AI maneja la inferencia en hardware dedicado con GPU.
La Estructura de Tres Actos
El workshop está organizado en tres actos con una pausa de presentación entre los Actos 1 y 2.
Acto 1: Constrúyelo (Módulos 0-3)
Construye un pipeline de ML completo desde cero. Al final, tendrás un asesor de ciberseguridad en vivo — entrenado, fusionado, publicado y desplegado. Sin escaneos de seguridad todavía. Eso es intencional.
| Módulo | Enfoque | Tiempo |
|---|---|---|
| Módulo 0: Configuración | Entorno, GCP, GitHub, credenciales de AIRS | ~30 min |
| Módulo 1: Fundamentos de ML | HuggingFace, formatos, datasets, plataformas | ~45 min |
| Módulo 2: Entrena Tu Modelo | Gate 1, LoRA fine-tuning, Vertex AI | ~30 min + espera |
| Módulo 3: Despliega y Sirve | Gate 2+3, merge, publish, deploy, app en vivo | ~30 min + espera |
Pausa de Presentación
Sesión dirigida por el instructor: propuesta de valor de AIRS, ataques reales, escenarios con clientes.
Acto 2: Entiende la Seguridad (Módulo 4)
Inmersión profunda en AIRS Model Security. Configura el acceso, ejecuta escaneos, explora políticas.
| Módulo | Enfoque | Tiempo |
|---|---|---|
| Módulo 4: Inmersión en AIRS | SCM, SDK, escaneo, security groups, integración HF | ~1-1.5 hr |
Acto 3: Asegúralo (Módulos 5-7)
Asegura el pipeline que construiste. Explora lo que AIRS detecta y lo que no.
| Módulo | Enfoque | Tiempo |
|---|---|---|
| Módulo 5: Integración de AIRS | Escaneo en pipeline, verificación de manifest, etiquetado | ~1-1.5 hr |
| Módulo 6: El Zoológico de Amenazas | Pickle bombs, trampas Keras, riesgos de formato | ~1 hr |
| Módulo 7: Brechas y Envenenamiento | Envenenamiento de datos, backdoors comportamentales, defensa en profundidad | ~45 min-1 hr |
Estructura del Proyecto
prisma-airs-mlops-lab/
├── .github/
│ ├── workflows/ # Pipeline de CI/CD (3 gates + app deploy)
│ └── pipeline-config.yaml # Tu proyecto GCP y configuración de buckets
├── src/airs_mlops_lab/
│ └── serving/ # App FastAPI + cliente de inferencia Vertex AI
├── airs/
│ ├── scan_model.py # CLI de escaneo AIRS
│ └── poisoning_demo/ # Prueba de concepto de envenenamiento de datos
├── model-tuning/
│ ├── train_advisor.py # Script de fine-tuning con LoRA
│ └── merge_adapter.py # Merge de adapter para despliegue
├── scripts/
│ └── manifest.py # CLI de rastreo de procedencia del modelo
├── lab/
│ └── .progress.json # Tu progreso (rastreado automáticamente)
├── CLAUDE.md # Configuración del mentor Claude Code
└── Dockerfile # App de Cloud Run (cliente ligero, sin modelo)Siguiente Paso
¿Listo para configurar? Ve a la Guía de Configuración del Estudiante para crear tu repo y lanzar Claude Code.