Skip to content

O Que Você Vai Construir

O AIRS MLOps Lab é um workshop prático onde você constrói, implanta e protege um pipeline de ML real. Você faz fine-tuning de um modelo de linguagem open-source para transformá-lo em um consultor de cibersegurança, implanta no Google Cloud, e depois protege sistematicamente o pipeline usando Palo Alto Networks AI Runtime Security (AIRS).

Isso não é um tutorial passivo. Você trabalha com o Claude Code como seu parceiro de desenvolvimento e mentor. O Claude foi configurado especificamente para este lab — ele conhece o código, adapta o ritmo das suas explicações e usa perguntas socráticas para construir sua compreensão.

Pré-requisitos

Antes de iniciar o lab, garanta que você tem:

  • Projeto GCP — com permissões de owner, APIs de Vertex AI e Cloud Run habilitadas
  • Licença de AIRS — acesso a um tenant de Prisma AIRS com credenciais de Strata Cloud Manager
  • Claude Code — instalado e configurado
  • Conta no GitHub — com gh CLI autenticado
  • Python 3.12+ — com uv para gerenciamento de dependências
  • Conta no HuggingFace — para explorar modelos e datasets

Seu instrutor fornecerá os detalhes do projeto GCP e as credenciais do AIRS durante a sessão de configuração.

O Pipeline

Você vai construir um pipeline de CI/CD de 3 gates que escaneia modelos de ML em cada etapa:

Gate 1 escaneia o modelo base antes do treinamento, faz fine-tuning com LoRA no Vertex AI e cria um manifest de procedência.

Gate 2 funde o adapter LoRA com o modelo base, escaneia o artifact fundido e publica no GCS.

Gate 3 verifica a cadeia do manifest, realiza um escaneamento final, implanta o modelo em um endpoint de Vertex AI com GPU usando vLLM e implanta a aplicação FastAPI no Cloud Run.

A Arquitetura

A aplicação implantada usa uma arquitetura desacoplada — o modelo roda em infraestrutura com GPU, a aplicação roda em infraestrutura leve:

Sem model weights no container do Cloud Run. Sem GPU. Sem dependências de ML em runtime. O Cloud Run cuida da camada web; o Vertex AI cuida da inferência em hardware dedicado com GPU.

A Estrutura de Três Atos

O workshop está organizado em três atos com uma pausa de apresentação entre os Atos 1 e 2.

Ato 1: Construa (Módulos 0-3)

Construa um pipeline de ML completo do zero. No final, você terá um consultor de cibersegurança ao vivo — treinado, fundido, publicado e implantado. Sem escaneamentos de segurança ainda. Isso é intencional.

MóduloFocoTempo
Módulo 0: ConfiguraçãoAmbiente, GCP, GitHub, credenciais do AIRS~30 min
Módulo 1: Fundamentos de MLHuggingFace, formatos, datasets, plataformas~45 min
Módulo 2: Treine Seu ModeloGate 1, LoRA fine-tuning, Vertex AI~30 min + espera
Módulo 3: Implante e SirvaGate 2+3, merge, publish, deploy, app ao vivo~30 min + espera

Pausa de Apresentação

Sessão conduzida pelo instrutor: proposta de valor do AIRS, ataques reais, cenários com clientes.

Ato 2: Entenda a Segurança (Módulo 4)

Mergulho profundo no AIRS Model Security. Configure o acesso, execute escaneamentos, explore políticas.

MóduloFocoTempo
Módulo 4: Mergulho no AIRSSCM, SDK, escaneamento, security groups, integração HF~1-1.5 hr

Ato 3: Proteja (Módulos 5-7)

Proteja o pipeline que você construiu. Explore o que o AIRS detecta e o que não detecta.

MóduloFocoTempo
Módulo 5: Integração do AIRSEscaneamento no pipeline, verificação de manifest, rotulação~1-1.5 hr
Módulo 6: O Zoológico de AmeaçasPickle bombs, armadilhas Keras, riscos de formato~1 hr
Módulo 7: Lacunas e EnvenenamentoEnvenenamento de dados, backdoors comportamentais, defesa em profundidade~45 min-1 hr

Estrutura do Projeto

prisma-airs-mlops-lab/
├── .github/
│   ├── workflows/              # Pipeline de CI/CD (3 gates + app deploy)
│   └── pipeline-config.yaml    # Seu projeto GCP e configuração de buckets
├── src/airs_mlops_lab/
│   └── serving/                # App FastAPI + cliente de inferência Vertex AI
├── airs/
│   ├── scan_model.py           # CLI de escaneamento AIRS
│   └── poisoning_demo/         # Prova de conceito de envenenamento de dados
├── model-tuning/
│   ├── train_advisor.py        # Script de fine-tuning com LoRA
│   └── merge_adapter.py        # Merge de adapter para implantação
├── scripts/
│   └── manifest.py             # CLI de rastreamento de procedência do modelo
├── lab/
│   └── .progress.json          # Seu progresso (rastreado automaticamente)
├── CLAUDE.md                   # Configuração do mentor Claude Code
└── Dockerfile                  # App do Cloud Run (cliente leve, sem modelo)

Próximo Passo

Pronto para configurar? Vá para o Guia de Configuração do Estudante para criar seu repo e iniciar o Claude Code.

Construído com Claude Code