Voltar para Trilha 3
Modulo 3.2

Qualidade de software com IA no ciclo completo

Testes, code review, CI/CD self-correcting e mutation testing. IA na qualidade do inicio ao deploy.

1

🧪 Geracao e revisao de testes - Unitarios, integracao e contratos com IA

O que e:

Usar IA para gerar testes unitarios, de integracao e de contrato, e tambem para revisar testes existentes. A IA identifica edge cases que o dev nao pensou, gaps de cobertura e testes que nao testam nada util.

Por que aprender:

Testes sao a base de qualidade, mas escrever bons testes e tedioso e demorado. A IA acelera drasticamente a geracao e, mais importante, a revisao critica de testes existentes que podem estar dando falsa confianca.

Conceitos-chave:

Test generation prompts, edge case discovery, coverage gap analysis, contract testing, test review patterns, assertion quality.

2

🔍 AI Code Review em producao - CodeRabbit, PR-Agent, Snyk Code

O que e:

Ferramentas de code review automatizado com IA que operam em PRs reais. CodeRabbit (2M+ repos), PR-Agent, Anthropic Code Review e Snyk Code. Cada uma com abordagem diferente: semantica, seguranca, estilo.

Por que aprender:

Code review humano e gargalo em times de todos os tamanhos. AI code review nao substitui humanos mas filtra problemas obvios, libera reviewers para focar em logica e arquitetura. Times reportam 40-60% reducao em tempo de review.

Conceitos-chave:

Semantic review vs syntactic review, false positive rate, review fatigue, tool comparison, integration com GitHub/GitLab, customizacao de regras.

3

🛡️ Guardrails de qualidade - Detectar inconsistencias, gaps e riscos de regressao

O que e:

Usar IA para detectar inconsistencias no codigo, gaps de cobertura de testes e riscos de regressao antes que cheguem a producao. Guardrails automatizados que impedem mudancas frageis de serem mergeadas.

Por que aprender:

Times que shipam mais rapido com IA mas sem guardrails quebram mais. O custo oculto de velocidade sem qualidade e incidentes, hotfixes e divida tecnica acelerada. Guardrails sao o que permitem velocidade sustentavel.

Conceitos-chave:

Quality gates automatizados, regression risk scoring, coverage threshold enforcement, fragile change detection, merge policies com IA.

4

🔄 Rastreabilidade - Intencao, implementacao e evidencia de qualidade

O que e:

Manter rastreabilidade entre a intencao (requisito/spec), a implementacao (codigo) e a evidencia de qualidade (testes/review). Saber por que cada linha de codigo existe e como foi validada.

Por que aprender:

Quando um bug aparece em producao, voce precisa rastrear: qual era o requisito? O codigo implementa corretamente? Os testes cobrem o caso? Sem rastreabilidade, debug e arqueologia. Com ela, e navegacao.

Conceitos-chave:

Requirement traceability, spec-to-code linking, test coverage mapping, audit trail, change impact analysis, compliance evidence.

5

⚙️ CI/CD self-correcting - Pipelines que re-implementam em vez de so falhar

O que e:

Pipelines de CI/CD que, ao encontrar uma falha, usam IA para diagnosticar o problema e propor (ou aplicar) a correcao automaticamente. Em vez de apenas reportar "test failed", o pipeline tenta corrigir e re-executar.

Por que aprender:

80% das falhas de CI sao problemas simples: import faltando, tipo errado, assertion desatualizada. IA resolve esses em segundos. O dev so precisa intervir nos 20% que requerem julgamento humano. Isso reduz drasticamente o tempo de ciclo.

Conceitos-chave:

Self-healing pipelines, automated fix proposals, CI failure classification, auto-retry with correction, human escalation triggers, safety limits.

6

🧬 Mutation testing + AI - Medir robustez real dos testes

O que e:

Mutation testing injeta mudancas no codigo (mutantes) e verifica se os testes detectam. Se um mutante sobrevive, os testes tem um gap. Combinado com IA, voce nao so detecta gaps mas gera testes que matam os mutantes sobreviventes.

Por que aprender:

Code coverage mente. 100% coverage nao garante que os testes detectam bugs. Mutation testing mede a qualidade real dos testes. Com IA, o ciclo de melhorar testes baseado em mutantes sobreviventes e automatizado.

Conceitos-chave:

Mutation operators, mutant survival rate, mutation score, Stryker/Pitest, AI-generated tests para mutantes, coverage vs mutation score.

Exercicios

Lab

Test-Driven AI (60 min)

Workflow invertido: (1) spec da funcao em linguagem natural, (2) AI gera testes ANTES do codigo, (3) revisar testes (ponto critico!), (4) usar testes como spec para gerar implementacao, (5) iterar ate todos passarem. Licao: qualidade dos testes depende da qualidade da spec.

Exercicio

Security scan com IA (45 min)

Codigo com vulnerabilidades intencionais (SQL injection, credenciais hardcoded, XSS, auth quebrada). AI identifica e corrige. Depois rodar Semgrep/Bandit. Comparar: o que cada um pegou que o outro nao pegou? Licao: AI nao substitui ferramentas deterministicas de seguranca.

Lab

Pipeline de code review (90 min)

Configurar em cada PR: AI para revisao semantica (logica, architecture smells) + linters para revisao sintatica + report combinado. Em 5 PRs reais, documentar o que a IA encontrou que o linter nao encontraria e vice-versa.

Exercicio

Mutation testing (60 min)

Gerar suite de testes com AI, rodar mutation testing (Stryker/Pitest). Quantos mutantes sobrevivem? Iterar com AI para matar sobreviventes. Meta: mutation score > 80%.

Exercicio

Build-Measure-Compare: Testes (45 min)

Mesma funcao: escrever testes manualmente vs. gerar com AI. Comparar cobertura, edge cases capturados, tempo gasto. Tabela final mostrando onde cada abordagem ganha.