Perguntas Frequentes
Tudo sobre o exame CCA-F, o Claude Arch e estratégias de estudo.
Sobre o Exame CCA-F
A Claude Certified Architect — Foundations (CCA-F) é a certificação de nível 301 da Anthropic para arquitetos de soluções que trabalham com Claude.
| Formato | 60 questões de múltipla escolha |
| Duração | 120 minutos |
| Score mínimo | 720 / 1000 (escala de 100–1000) |
| Custo | $99 USD |
| Tentativas | 1 tentativa por compra |
| Proctoring | Online, via ProctorFree |
Após aprovação, você recebe um badge digital para adicionar ao LinkedIn.
O exame é voltado para solution architects com pelo menos 6 meses de experiência prática com o ecossistema Claude, incluindo:
- Claude APIs (Messages API, tool use)
- Agent SDK e padrões de agentes
- Claude Code (CLI, configuração, workflows)
- Model Context Protocol (MCP)
Se você é desenvolvedor, CTO ou tech lead que usa Claude em produção, este é o exame certo.
| Domínio | Título | Peso |
|---|---|---|
| D1 | Agentic Architecture & Orchestration | 27% |
| D2 | Tool Design & MCP Integration | 18% |
| D3 | Claude Code Configuration & Workflows | 20% |
| D4 | Prompt Engineering & Structured Output | 20% |
| D5 | Context Management & Reliability | 15% |
D1 sozinho vale mais de um quarto do exame — é o domínio mais importante.
Existem 6 cenários no banco do exame. Em cada tentativa, 4 são sorteados:
- Customer Support Resolution Agent — loops agênticos, tool design, escalation
- Code Generation with Claude Code — CLAUDE.md, plan mode, slash commands
- Multi-Agent Research System — coordinator patterns, error propagation, context
- Developer Productivity with Claude — built-in tools, MCP integration
- Claude Code for CI/CD — non-interactive mode, structured output, batch
- Structured Data Extraction — JSON schemas, validation loops, human review
As questões são contextualizadas dentro desses cenários, exigindo julgamento arquitetural aplicado.
O registro é feito na Anthropic Academy (anthropic.skilljar.com). Lá você encontra os cursos preparatórios gratuitos e o link para comprar o voucher do exame ($99).
Sim. A Anthropic disponibiliza um practice exam com 60 questões no Skilljar, gratuito. Ele simula o formato real do exame.
Sim. Após aprovação, a Anthropic emite um badge digital que pode ser adicionado ao seu perfil do LinkedIn como credencial verificável.
Sobre o Projeto
Um ferramenta de estudos não-oficial com um simulado interativo para a certificação CCA-F. Criado por e para a comunidade de devs que estão se preparando para o exame.
As questões foram coletadas e deduplicadas de 6 fontes:
| Fonte | Qtd | Origem |
|---|---|---|
| official-exam-guide | 11 | Anthropic Exam Guide |
| community-generated | 45 | Baseadas nos task statements |
| sgridworks | 100 | SGridworks repo |
| sgridworks-fullexam | 49 | SGridworks full exam |
| olivier-alter | 74 | OlivierAlter repo |
| paullarionov | 58 | PaulLarionov repo |
Abra o simulado no navegador (funciona offline, zero dependências). Na tela inicial:
- Selecione domínios — escolha D1–D5 individualmente ou todos
- Modo de feedback —
Imediato(revela ao clicar) ouNo final(confirma antes) - Ordem —
EmbaralharouSequencial - Clique Iniciar
- Score escalado — 100 a 1000 (mesmo formato do exame real)
- Breakdown por domínio — veja onde está forte e onde precisa melhorar
- Refazer erradas — embaralha apenas as questões que você errou para drill down
- Funciona offline — HTML self-contained, sem server
- Explicações detalhadas — cada questão tem explicação da resposta correta e por que as alternativas estão erradas
Cada questão em all_questions.json segue este schema:
{
"id": "D1-001",
"source": "official-exam-guide",
"scenario": "Customer Support Resolution Agent",
"task_statement": "1.4",
"question": "Texto da pergunta...",
"options": { "A": "...", "B": "...", "C": "...", "D": "..." },
"correct": "A",
"explanation": "Explicação detalhada...",
"domain": "D1"
}
Estratégia de Estudo
Por peso no exame:
- D1 Agentic Architecture — 27% (maior peso, comece aqui)
- D3 Claude Code Config — 20%
- D4 Prompt Engineering — 20%
- D2 Tool Design & MCP — 18%
- D5 Context & Reliability — 15%
Alternativa — por familiaridade: se você já usa Claude Code no dia a dia, comece por D3 para consolidar o que já sabe, e depois ataque D1.
Faça o practice exam oficial no Skilljar. Se você tirar consistentemente 900+, provavelmente está pronto.
Julgamento arquitetural. O exame não testa se você decorou APIs — ele testa se você sabe escolher a abordagem certa para cada situação. Muitas questões apresentam opções que "parecem certas" mas são anti-patterns.
Foque em entender por que cada alternativa errada está errada, não apenas qual é a correta.
- Parsing natural language para loop termination — usar
stop_reasonem vez de tentar interpretar texto - Arbitrary iteration caps — limites fixos sem critério de convergência real
- Prompt-only enforcement para business rules — regras críticas precisam de enforcement programático, não apenas instruções no prompt
- Subagent context leakage — agentes filhos não devem vazar contexto entre si sem controle
- Ambiguous tool descriptions — descriptions são o mecanismo primário de seleção de tools pelo modelo
- Self-review no mesmo contexto — o modelo revisando seu próprio output no mesmo context window tende a confirmar erros
- Progressive summarization sem preservar dados críticos — sumarização que descarta informações essenciais
- Anthropic Academy — cursos oficiais gratuitos + practice exam
- SGridworks RPG — treinamento gamificado
- claudecertifications.com — 25 questões grátis + study guides
- CertSafari — 360 flashcards
Conceitos-Chave por Domínio
stop_reason— usetool_usevsend_turnpara controlar loops agênticos (nunca parse NL)- Hub-and-spoke — padrão de coordenação com agente central que delega para subagentes especializados
- Task tool — mecanismo para criar e gerenciar subagentes com contexto isolado
allowedTools— restringe quais tools cada agente/subagente pode usar- PostToolUse hooks — interceptam resultados de tools para validação, logging ou transformação
- Context isolation — subagentes devem operar com contexto separado para evitar leakage
- Tool descriptions — mecanismo primário de seleção; descriptions claras e específicas > nomes genéricos
isErrorflag — indica ao modelo que o resultado da tool é um erro (permite recovery inteligente)errorCategory— categorize erros:transient,validation,permission,business_logictool_choice— controla seleção:auto(modelo decide),any(deve usar alguma tool),forced(tool específica).mcp.jsonvs~/.claude.json— configuração de MCP servers por projeto vs global
- CLAUDE.md hierarchy — 3 níveis:
~/.claude/CLAUDE.md(user) →projeto/CLAUDE.md(project) →subdir/CLAUDE.md(directory) .claude/rules/— rules com glob patterns para aplicação condicional por tipo de arquivo.claude/commands/vs.claude/skills/— commands são slash commands customizados; skills têm SKILL.md com frontmatter- SKILL.md frontmatter —
context: fork,allowed-tools,argument-hintcontrolam execução -pflag — modo non-interactive para CI/CD (pipe prompt via stdin ou argumento)
- Explicit criteria > vague instructions — "avalie de 1–5 com estes critérios" > "dê feedback"
- Few-shot para format variation — exemplos concretos são mais eficazes que descrições de formato
tool_usegarante schema compliance mas NÃO semantic accuracy — o JSON vai ser válido, mas o conteúdo pode estar errado- Enum + "other" + detail field — padrão para categorização flexível sem perder dados inesperados
- Validation-retry loops — valide output programaticamente e peça correção se inválido
- Lost in the middle effect — informações no meio de contextos longos são mais facilmente ignoradas
- Progressive summarization risks — cada rodada de sumarização pode descartar dados que pareciam irrelevantes mas eram críticos
- Information provenance — rastreie a origem de cada dado para auditoria e debugging
- Confidence self-reporting — peça ao modelo para reportar seu nível de confiança junto com a resposta
- Graceful degradation com annotated gaps — quando informação falta, continue operando mas marque explicitamente o que está faltando