Metodologia Quick Wins DataSpoc - 102 - BUILDING & SUSTENTAÇÃO
🎯 PRINCÍPIOS DE EXECUÇÃO
PRINCÍPIO 1: Tempo Fixo, Escopo Variável
Shape Up (Basecamp):
Conceito central:
- Definimos APPETITE (apetite de tempo)
- Escopo se adapta ao tempo disponível
- Circuit breaker: prazo acabou = entregar o que tem
Aplicação DataSpoc:
APPETITE FIXO:
- 2 semanas (Premium): Score 85-100
- 4 semanas (Standard): Score 70-84
- 6 semanas (Extended): Score 50-69 após preparação
ESCOPO VARIÁVEL:
- Must-have: Core que SEMPRE entregamos
- Nice-to-have: Se der tempo
- V2: Próxima iteração (não agora)
Exemplo prático:
APPETITE: 2 semanas
MUST-HAVE (core):
✓ Forecast para top 10 produtos
✓ MAPE <15%
✓ CSV semanal por email
NICE-TO-HAVE (se der tempo):
~ Dashboard visual
~ Intervalo de confiança
~ Integração com ERP
V2 (próxima iteração):
✗ Top 50 produtos
✗ Forecast diário
✗ API real-time
No dia 14:
- Must-have pronto? → Entregar ✓
- Nice-to-have não deu tempo? → OK, é v2
- Não estender prazo “só mais uma semana”
PRINCÍPIO 2: NASA 70/20/10
Analogia do foguete:
Engenheiros NASA gastavam:
- 70% do tempo no combustível (qualidade, pureza)
- 20% do tempo no motor (otimização)
- 10% do tempo na carenagem (estética)
Tradução para IA:
COMBUSTÍVEL = DADOS (70%)
- Sem dados de qualidade, IA não funciona
- EDA profundo, limpeza, feature engineering
- Maior ROI de tempo aqui
MOTOR = MODELO (20%)
- Com dados excelentes, modelo médio funciona
- 2-3 algoritmos, tuning básico
- Não gastar 80% do tempo aqui
CARENAGEM = UI (10%)
- CSV funciona, dashboard bonito é opcional
- Primeiro funcionar, depois embelezar
Distribuição de tempo:
Ciclo 2 semanas (10 dias):
- 7 dias: Dados (EDA, limpeza, features, validação)
- 2 dias: Modelo (treino, tuning, validação)
- 1 dia: UI (CSV, dashboard básico, entrega)
Ciclo 4 semanas (20 dias):
- 14 dias: Dados
- 4 dias: Modelo
- 2 dias: UI
Ciclo 6 semanas (30 dias):
- 21 dias: Dados
- 6 dias: Modelo
- 3 dias: UI
Mantras:
- “Dados excelentes + modelo médio > Dados médios + modelo excelente”
- “Se modelo não funciona, primeiro suspeite dos dados”
- “CSV feio que funciona > Dashboard lindo que não funciona”
PRINCÍPIO 3: Press Release First
Working Backwards (Amazon):
Conceito:
- Antes de escrever 1 linha de código, escrever o Press Release
- Como se já tivesse lançado e sido sucesso
- Força clareza sobre valor, cliente, problema, solução
Aplicação DataSpoc:
ANTES de começar semana 1, escrever:
- Press Release (futuro, 90 dias após lançamento)
- FAQ (antecipa objeções)
- Pitch Técnico (conecta PR com implementação)
- Rabbit Holes (o que NÃO vamos fazer)
Por que funciona:
- Força clareza de valor ANTES de construir
- Evita “fazer IA por fazer”
- Alinha expectativas stakeholder
- Facilita decisão de escopo (must vs nice)
📅 JANELAS DE DESENVOLVIMENTO
2 SEMANAS (Premium) — Score 85-100
Para:
- Dados prontos (sample em 24h)
- Problema cristalino
- Processo completo (Predição→Ação)
- OKR crítico
- Sponsor forte
Estrutura:
- Semana 1 (Dia 1-7): 70% dados + checkpoint
- Semana 2 (Dia 8-14): 20% modelo + 10% UI + handoff
Taxa de sucesso: 90-95%
4 SEMANAS (Standard) — Score 70-84
Para:
- Dados existem mas precisam trabalho
- Problema claro mas amplo
- Processo parcial (precisa refinar)
- OKR importante (não crítico)
- Sponsor médio
Estrutura:
- Semana 1-2 (Dia 1-14): 70% dados + checkpoint dia 10
- Semana 3 (Dia 15-21): 20% modelo
- Semana 4 (Dia 22-28): 10% UI + handoff
Taxa de sucesso: 75-85%
6 SEMANAS (Extended) — Score 50-69 + Preparação
Para:
- Dados parciais (precisa consolidar)
- Problema vago (fez discovery antes)
- Processo incompleto (definir durante)
- Sem OKR formal (mas sponsor forte)
Estrutura:
- Semana 1-3 (Dia 1-21): 70% dados intensivos
- Semana 4 (Dia 22-28): 20% modelo
- Semana 5-6 (Dia 29-42): 10% UI + handoff + docs
Taxa de sucesso: 60-70%
📄 DOCUMENTOS OBRIGATÓRIOS (Pré-Building)
DOCUMENTO 1: PRESS RELEASE
Template obrigatório:
=== PRESS RELEASE INTERNO ===
[Data: 90 dias no futuro]
HEADLINE:
[Nome do Projeto] reduz [métrica ruim] em X% e gera R$ Y em [impacto]
SUBHEADLINE:
Time de [área] agora usa IA para [ação específica] com [resultado mensurável]
PROBLEMA:
Até [data início], [stakeholder] enfrentava [problema específico] que
custava [valor quantificado] por [período]. O processo manual de
[ação atual] levava [tempo] e tinha erro de [%].
SOLUÇÃO:
Hoje, lançamos [nome do projeto], um modelo de IA que [predição específica]
com [% de acurácia]. Quando o modelo prediz [evento], [pessoa] toma
[ação específica] em [tempo de resposta].
QUOTE DO STAKEHOLDER:
"[Nome] mudou completamente [processo]. Antes eu [dor antiga]. Agora eu
[benefício novo]. Em [período], conseguimos [resultado mensurável]."
COMO FUNCIONA (para o usuário):
1.[Stakeholder] recebe [output] toda [frequência] via [canal]
2.[Stakeholder] vê [predição] com [intervalo de confiança]
3.[Stakeholder] decide [ação] baseado em [critério]
4.Sistema [automação/manual] executa [ação]
RESULTADOS (primeiros 90 dias):
-Métrica 1: Melhorou de X para Y (+Z%)
-Métrica 2: Economizou R$ W
-Métrica 3: Reduziu tempo de [processo] em [%]
-Adoção: [%] dos [usuários] usando diariamente
PRÓXIMOS PASSOS:
Expandir para [escopo maior], adicionar [feature], integrar com [sistema]
Exemplo real:
=== PRESS RELEASE: FORECAST AI ===
01/04/2025
HEADLINE:
Forecast AI reduz ruptura de estoque em 35% e economiza R$ 2M no trimestre
SUBHEADLINE:
Time Comercial agora prevê demanda dos top 10 produtos com 88% de acurácia
PROBLEMA:
Até 01/01/2025, CFO enfrentava ruptura de R$ 6M/ano nos top 10 produtos.
Forecast manual (Excel) tinha erro de 35% e levava 3 dias/mês.
SOLUÇÃO:
Hoje, lançamos Forecast AI que prediz vendas mensais com 88% acurácia.
Comprador recebe alerta 7 dias antes e decide quanto comprar baseado em
forecast, margem e lead time.
QUOTE DO CFO:
"Forecast AI mudou nosso planejamento. Antes descobria ruptura quando cliente
reclamava. Agora sei 7 dias antes. Em 60 dias, ruptura caiu 35% e economizamos
R$ 700k."
COMO FUNCIONA:
1.Comprador recebe CSV toda segunda via email
2.Vê forecast de cada produto ± intervalo confiança
3.Decide quanto comprar (forecast + margem + lead time)
4.Coloca pedido no ERP (manual)
RESULTADOS (90 dias):
-Ruptura: 15% → 9.8% (-35%)
-Erro forecast: 35% → 12% MAPE
-Economia: R$ 2.1M em vendas não perdidas
-Adoção: 100% compradores usando semanalmente
PRÓXIMOS PASSOS:
Top 50 produtos, sazonalidade regional, integração compras automática
DOCUMENTO 2: FAQ
Perguntas obrigatórias:
=== FAQ - [NOME PROJETO] ===
P1: Por que não fazer manualmente?
R: [Limitação manual: tempo, erro, escala]
P2: E se o modelo errar?
R: [Humano sempre decide. Guardrails. Monitoring.]
P3: Quanto vai custar manter?
R: [Re-treino X horas. Infra R$ Y. Total < economia]
P4: Quanto tempo até ver resultado?
R: [PoC 2 sem, produção 4 sem, ROI 90 dias]
P5: E se dados mudarem?
R: [Monitoring drift. Alerta se accuracy cai. Re-treino.]
P6: Precisa de equipe dedicada?
R: [Não. Stakeholder usa. DataSpoc mantém. X h/mês]
P7: O que pode dar errado?
R: [Listar 3 riscos + mitigações]
P8: Como saber se está funcionando?
R: [Dashboard 3 métricas. Review mensal.]
P9: E se stakeholder não usar?
R: [Piloto 30 dias. Se não usar = cancelar. Sem lock-in]
P10: Qual critério de sucesso mínimo?
R: [Métrica X melhorar ≥Y% em 90 dias. Se não = revisar/cancelar]
Exemplo FAQ (Forecast):
P1: Por que não melhorar Excel?
R: Excel limitado: só linear, não captura sazonalidade, erro 35%.
IA testa múltiplos padrões, aprende, erro <15%.
P2: E se forecast errar?
R: Comprador SEMPRE decide. IA sugere "1000 ± 10%", comprador valida
com margem, lead time, promoções. Não é automático.
P3: Quanto custa manter?
R: Re-treino mensal 4h DataSpoc = R$ 2k. Infra R$ 500.
Total R$ 2.5k/mês vs economia R$ 700k/tri = ROI 93x.
[etc...]
DOCUMENTO 3: PITCH TÉCNICO
=== PITCH TÉCNICO: [NOME] ===
PRESS RELEASE (resumo 1 parágrafo):
[Copiar headline + problema + solução]
APPETITE:
☑ 2 semanas (dados prontos, problema claro)
☐ 4 semanas
☐ 6 semanas
SOLUÇÃO TÉCNICA:
INPUT:
-Dados: [Fonte, tabela, volume]
-Features: [Principais variáveis]
-Período: [Janela temporal]
PROCESSAMENTO:
-Algoritmo: [Prophet / XGBoost / etc]
-Abordagem: [Série temporal / Classificação / etc]
-Complexidade: [Simples / Média / Alta]
OUTPUT:
-Formato: [CSV / API / Dashboard]
-Frequência: [Diário / Semanal / Mensal]
-Consumidor: [Quem usa]
DEPLOY:
-Onde: [Cowpilot / GCP / Cliente]
-Como: [Batch / Real-time]
-Monitoring: [Métricas principais]
BASELINE:
-Método atual: [Excel / Manual / etc]
-Métrica: [MAPE / Accuracy / etc]
-Valor atual: [X%]
-Meta IA: [Y%]
-Melhoria mínima aceitável: [Z%]
RABBIT HOLES (O QUE NÃO VAMOS FAZER):
-❌ [Coisa que parece necessária mas NÃO é]
-❌ [Feature complexa que pode esperar v2]
-❌ [Integração que demora muito]
NO-GOS (LIMITES CLAROS):
-Top 10 produtos apenas (não todos)
-Forecast mensal (não diário/semanal)
-CSV simples (não dashboard web interativo)
RISCOS & MITIGAÇÕES:
1.Risco: [Descrição]
Prob: [Alta/Média/Baixa]
Impacto: [Alto/Médio/Baixo]
Mitigação: [O que fazer]
CRITÉRIO DE SUCESSO (90 dias):
-Métrica principal: [Nome] melhora ≥[X%]
-Adoção: ≥[Y%] dos usuários usando
-ROI: ≥R$ [Z] economizado
📅 CRONOGRAMA DETALHADO: 2 SEMANAS
PRÉ-BUILDING (1-2 dias ANTES da semana 1)
DIA -2 a -1: Press Release + FAQ + Pitch
Atividades:
- Escrever Press Release completo
- Responder 10 FAQs
- Montar Pitch Técnico
- Listar Rabbit Holes
- Validar com stakeholder
Output:
- 4 documentos completos
- Stakeholder aprovou direção
- Escopo claro (must / nice / v2)
Checkpoint:
- PR soa realista e desejável?
- FAQs respondem objeções reais?
- Rabbit holes bem definidos?
- Stakeholder validou?
SEMANA 1: DADOS (70%)
Seg-Ter (Dia 1-2): EDA com Cowpilot
DataSpoc Cowpilot acelera:
- EDA automático: 10 min (vs 1-2 dias manual)
- Relatório completo: Gerado automaticamente
- Problemas identificados: Outliers, missing, drift
Atividades:
- Upload dados para DataSpoc Cowpilot
- Rodar análise automática
- Revisar relatório gerado
- Validar problemas com stakeholder
- Aprovar plano de limpeza
Entregáveis:
- Relatório EDA completo
- Lista de problemas validada
- Plano de tratamento aprovado
Checkpoint:
- Dados são viáveis (<20% missing)?
- Problemas têm solução conhecida?
- Stakeholder confirmou outliers?
Qua-Qui (Dia 3-4): Limpeza + Feature Engineering
DataSpoc Cowpilot acelera:
- Limpeza automática: Executa plano aprovado
- Feature engineering: Gera features de domínio
- Qualidade: Testes automáticos
Atividades:
- DataSpoc Cowpilot executa limpeza
- Validar dataset limpo
- Feature engineering automático com o DataSpoc Cowpilot
- Revisar features geradas
- Adicionar features de negócio (stakeholder sugeriu)
Entregáveis:
- Dataset limpo
- Features criadas e documentadas
- Correlação features vs target
Sex (Dia 5): Baseline
Atividades:
- Treinar modelo baseline (média móvel, regressão linear)
- Medir performance baseline
- Documentar métricas
Entregáveis:
- Baseline model
- Métricas baseline (MAPE, Accuracy, etc)
- Benchmark para comparar IA
Checkpoint:
- Baseline > 50% accuracy (ou MAPE <40%)?
- Há margem para IA melhorar?
Sáb-Dom: (Opcional trabalho) ou Descanso
Seg (Dia 8): Validação de Qualidade
Atividades:
- Rodar checklist de qualidade completo
- Validar train/test split
- Verificar data leakage
- Aprovar dataset final
Checklist:
☐ Missing < 10%?
☐ Outliers tratados?
☐ Features fazem sentido negócio?
☐ Sem data leakage?
☐ Train/test temporal (não random)?
☐ Distribuições similares?
☐ Volume suficiente (5k+)?
☐ Stakeholder aprovou?
Entregáveis:
- Dataset FINAL production-ready
- Checklist preenchido e assinado
CHECKPOINT DIA 7 (Segunda-feira semana 2) 🚨
Reunião obrigatória 1h com stakeholder:
Avaliar 3 perguntas:
1. DADOS OK?
- Qualidade boa (<15% missing)?
- Features validadas?
- Dataset production-ready?
2. BASELINE RAZOÁVEL?
- Baseline > 60% accuracy (ou MAPE <30%)?
- Margem para IA melhorar?
3. STAKEHOLDER ENGAJADO?
- Participou de reuniões?
- Respondeu dúvidas?
- Aprova direção?
DECISÃO:
✅ 3 SIM → CONTINUAR semana 2
- Go para modelagem
- Timeline mantém
⚠️ 2 SIM → CONTINUAR COM ALERTA
- Monitorar risco identificado
- Plano B se necessário
❌ <2 SIM → PARAR
- Reunião post-mortem (1h)
- Decisão: Cancelar / Pivotar / Extender +2 semanas
- Se cancelar: Sem custo para cliente
- Documentar learnings
SEMANA 2: MODELO + UI (30%)
Ter-Qua (Dia 9-10): Modelagem com Cowpilot
DataSpoc Cowpilot acelera:
- Testa 5-10 algoritmos em paralelo
- Otimização automática hiperparâmetros
- Cross-validation automática
- Escolhe melhor modelo
Atividades:
- DataSpoc Cowpilot roda experimentação
- DS valida abordagens
- Escolhe modelo vencedor
- Validação em test set (UMA VEZ)
- Análise de erros
Entregáveis:
- Modelo final treinado
- Métricas performance (vs baseline)
- Feature importance
- Análise onde modelo erra
Checkpoint:
- Performance > baseline?
- Atinge meta (MAPE <15%)?
- Erros explicáveis?
Qui (Dia 11): Deploy
Atividades:
- Preparar script de deploy
- Deploy em produção (DataSpoc ou cliente)
- Testes end-to-end
- Monitoring básico (email alerts)
Entregáveis:
- Modelo em produção
- Script de deploy documentado
- Monitoring funcionando
Sex (Dia 12): Output + Validação
Atividades:
- Gerar predições para próximo período
- Criar output (CSV / integração)
- Validar com stakeholder (fazem sentido?)
- Ajustar se necessário
Entregáveis:
- Predições próximo mês
- CSV ou output definido
- Stakeholder validou
Seg-Ter (Dia 13-14): Handoff + Docs
3 documentos obrigatórios:
Doc 1: User Guide (para stakeholder) Doc 2: Run Book (para operação) Doc 3: Handoff Técnico (para DataSpoc futuro)
(Templates abaixo)
Atividades:
- Escrever 3 docs
- Training 2h stakeholder
- Gravar vídeo de uso
- Handoff final
Entregáveis:
- 3 documentos completos
- Vídeo gravado
- Stakeholder sabe usar
# RUN BOOK — [NOME PROJETO]
**Projeto:** [Nome]
**Dono:** [Nome Cliente] | [Email] | [Tel]
**DataSpoc:** [Nome DS] | [Email] | [Tel]
**Criado:** [DD/MM/AAAA] | **Atualizado:** [DD/MM/AAAA]
---
## 🎯 O QUE FAZ
[1 frase]
**Exemplo:** Prevê vendas mensais dos top 10 produtos com 88% acurácia para evitar ruptura de estoque.
---
## ⚙️ COMO RODAR
### Automático (normal):
Agenda: Toda segunda 6am Ferramenta: [Airflow/Cron/Cowpilot] Logs: [URL ou /path/logs] Email: Envia CSV automático para [email]
### Manual (se necessário):
```bash
ssh [user]@[server]
cd /path/to/project
python run_model.py
# Valida: python validate.py
# Envia: python send_email.py
📊 MÉTRICAS
| Métrica | Baseline | Meta | Atual | Alerta |
|---|---|---|---|---|
| MAPE | 25% | <15% | [X%] | Se >20% |
| Uso | Manual | Semanal | [X%] | Se <80% |
| Economia | R$ 0 | R$ 200k/tri | [R$ X] | - |
Dashboard: [URL]
🔴 QUANDO PEDIR AJUDA
ALERTA VERMELHO (ligar 24h):
- ❌ Modelo não rodou (sem output esperado)
- ❌ Accuracy caiu >5% (ex: 88% → 83%)
- ❌ Erro crítico (sistema quebrado)
ALERTA AMARELO (email 48h):
- ⚠️ Accuracy caiu 3-5% (ex: 88% → 85%)
- ⚠️ Dados faltando (missing >20%)
- ⚠️ Uso baixo (ninguém abrindo CSV)
Contato:
- Email: support@dataspoc.com
- Emergência: [Tel DataSpoc]
- SLA: [Básico 48h / Standard 24h / Premium 4h]
🔧 TROUBLESHOOTING
Problema 1: Modelo não rodou
Como sei: Sem email segunda de manhã
Causa comum: Dados não disponíveis ou sistema offline
O que fazer:
- Checar logs: [URL ou path]
- Se dados offline: Esperar voltar, rodar manual
- Se erro sistema: Ligar DataSpoc (vermelho)
Problema 2: Predições parecem erradas
Como sei: Números muito fora (ex: previu 10k, vendeu 100)
Causa comum: Dados novos diferentes ou evento especial
O que fazer:
- Validar dados: Teve promoção? Feriado? Black Friday?
- Se evento: Normal, modelo não sabia
- Se sem evento: Ligar DataSpoc (amarelo)
Problema 3: Não estou usando
Como sei: CSV acumula sem abrir
Causa comum: Difícil de entender ou não confio
O que fazer:
- Por que não uso? [Anotar razão]
- Falar com DataSpoc: Re-training ou ajustes
- Avaliar: Vale continuar?
🔄 RE-TREINO
Quando:
- ✅ Mensal: Primeiro dia útil (automático)
- ✅ On-demand: Se accuracy cai >5%
- ✅ Evento: Mudança grande (novo produto, promoção recorrente)
Como:
- DataSpoc coleta dados novos (último mês)
- Treina novo modelo
- Valida (novo melhor que atual?)
- Deploy (se sim) ou Investiga (se não)
Tempo: 2-4 horas
Você faz: Nada (DataSpoc cuida)
Custo: Incluso se plano Standard/Premium, R$ 5k avulso se Básico
🚨 ROLLBACK
Se novo modelo piorou:
- DataSpoc reverte para versão anterior (<30 min)
- Você recebe email: "Voltamos para versão estável"
- DataSpoc investiga problema
Você faz: Nada (automático)
📞 CONTATOS
| Quem | Nome | Telefone | Quando | |
|---|---|---|---|---|
| Dono (você) | [Nome] | [email] | [tel] | Decisões |
| DataSpoc DS | [Nome] | [email] | [tel] | Dúvidas técnicas |
| DataSpoc Support | Support | support@dataspoc.com | [tel] | Emergências |
📝 HISTÓRICO
| Data | O que mudou | Por quem |
|---|---|---|
| 01/01/25 | Criado v1.0 | [Nome] |
| [DD/MM] | [Mudança] | [Nome] |
💡 DICAS RÁPIDAS
✅ BOM:
- Olhar CSV toda semana (uso regular)
- Reportar se predições muito erradas
- Avisar se processo mudou (novo produto, promoção)
❌ EVITAR:
- Ignorar alertas vermelhos
- Mudar dados sem avisar DataSpoc
- Assumir que modelo sabe de eventos futuros
🎯 LEMBRE:
- Modelo prevê baseado no passado
- Eventos novos (Black Friday primeira vez) = modelo erra
- Normal: Accuracy varia ±3% mês a mês
- Anormal: Accuracy cai >5% = investigar
🔚 DESLIGAMENTO
Se precisar parar temporário:
- Avisar DataSpoc 48h antes
- DataSpoc pausa scheduler
- Re-ativar quando quiser
Se cancelar definitivo:
- Reunião final (post-mortem)
- DataSpoc arquiva tudo
- Sem custo adicional
---
## 📊 CHECKLIST FINAL DE ENTREGA
**Antes de considerar quick win completo:**
**TÉCNICO:**
- [ ] Modelo em produção (não notebook)
- [ ] Performance atinge meta
- [ ] Monitoring configurado
- [ ] Alertas funcionando
- [ ] Código versionado (Git)
**DOCUMENTAÇÃO:**
- [ ] Press Release escrito (pré-building)
- [ ] FAQ respondido (pré-building)
- [ ] Pitch Técnico (pré-building)
- [ ] Rabbit Holes documentados (pré-building)
- [ ] Run Book completo (pós-building)
- [ ] User Guide criado
- [ ] Handoff Técnico criado
**TRANSFERÊNCIA:**
- [ ] Training 2h realizado
- [ ] Vídeo gravado
- [ ] Stakeholder sabe usar
- [ ] Stakeholder testou e validou
**SUSTENTAÇÃO:**
- [ ] Plano de re-treino definido
- [ ] Dono de operação definido
- [ ] Contrato de sustentação assinado
- [ ] SLA acordado
---
## 💡 REGRAS DE OURO
1. **Press Release ANTES de código**
- Força clareza de valor
2. **70/20/10 é absoluto**
- Não pular para modelo sem dados bons
3. **Rabbit Holes são proibidos**
- Se não está no pitch = não fazer
4. **Checkpoint dia 7 é obrigatório**
- Não forçar continuação se dados ruins
5. **Run Book não é opcional**
- Sem Run Book = projeto não terminou
6. **Tempo fixo, escopo variável**
- Dia 14/28 = entregar o que tem
7. **Must-have > Nice-to-have > V2**
- Clareza de prioridades
---
## 📚 REFERÊNCIAS CONCEITUAIS
**1. Shape Up (Basecamp):**
- Tempo fixo, escopo variável
- Appetite, circuit breaker
- Usado em: Princípio 1, Janelas de desenvolvimento
**2. Prediction Machines (Agrawal, Gans, Goldfarb):**
- Análise → Ação → Julgamento
- Usado em: Playbook 1 Dimensão 3
**3. Working Backwards (Amazon):**
- Press Release First
- FAQ antecipa objeções
- Usado em: Documentos pré-building
---