Perguntas Frequentes

Tudo sobre o exame CCA-F, o Claude Arch e estratégias de estudo.

Sobre o Exame CCA-F

A Claude Certified Architect — Foundations (CCA-F) é a certificação de nível 301 da Anthropic para arquitetos de soluções que trabalham com Claude.

Formato60 questões de múltipla escolha
Duração120 minutos
Score mínimo720 / 1000 (escala de 100–1000)
Custo$99 USD
Tentativas1 tentativa por compra
ProctoringOnline, via ProctorFree

Após aprovação, você recebe um badge digital para adicionar ao LinkedIn.

O exame é voltado para solution architects com pelo menos 6 meses de experiência prática com o ecossistema Claude, incluindo:

  • Claude APIs (Messages API, tool use)
  • Agent SDK e padrões de agentes
  • Claude Code (CLI, configuração, workflows)
  • Model Context Protocol (MCP)

Se você é desenvolvedor, CTO ou tech lead que usa Claude em produção, este é o exame certo.

DomínioTítuloPeso
D1Agentic Architecture & Orchestration27%
D2Tool Design & MCP Integration18%
D3Claude Code Configuration & Workflows20%
D4Prompt Engineering & Structured Output20%
D5Context Management & Reliability15%

D1 sozinho vale mais de um quarto do exame — é o domínio mais importante.

Existem 6 cenários no banco do exame. Em cada tentativa, 4 são sorteados:

  1. Customer Support Resolution Agent — loops agênticos, tool design, escalation
  2. Code Generation with Claude Code — CLAUDE.md, plan mode, slash commands
  3. Multi-Agent Research System — coordinator patterns, error propagation, context
  4. Developer Productivity with Claude — built-in tools, MCP integration
  5. Claude Code for CI/CD — non-interactive mode, structured output, batch
  6. Structured Data Extraction — JSON schemas, validation loops, human review

As questões são contextualizadas dentro desses cenários, exigindo julgamento arquitetural aplicado.

O registro é feito na Anthropic Academy (anthropic.skilljar.com). Lá você encontra os cursos preparatórios gratuitos e o link para comprar o voucher do exame ($99).

Sim. A Anthropic disponibiliza um practice exam com 60 questões no Skilljar, gratuito. Ele simula o formato real do exame.

Dica: Tente tirar 900+ no practice exam antes de agendar o exame real. Se você está consistentemente acima de 900, provavelmente está pronto.

Sim. Após aprovação, a Anthropic emite um badge digital que pode ser adicionado ao seu perfil do LinkedIn como credencial verificável.

Sobre o Projeto

Um ferramenta de estudos não-oficial com um simulado interativo para a certificação CCA-F. Criado por e para a comunidade de devs que estão se preparando para o exame.

Aviso: Este projeto não é afiliado nem endossado pela Anthropic.

As questões foram coletadas e deduplicadas de 6 fontes:

FonteQtdOrigem
official-exam-guide11Anthropic Exam Guide
community-generated45Baseadas nos task statements
sgridworks100SGridworks repo
sgridworks-fullexam49SGridworks full exam
olivier-alter74OlivierAlter repo
paullarionov58PaulLarionov repo

Abra o simulado no navegador (funciona offline, zero dependências). Na tela inicial:

  1. Selecione domínios — escolha D1–D5 individualmente ou todos
  2. Modo de feedbackImediato (revela ao clicar) ou No final (confirma antes)
  3. OrdemEmbaralhar ou Sequencial
  4. Clique Iniciar
  • Score escalado — 100 a 1000 (mesmo formato do exame real)
  • Breakdown por domínio — veja onde está forte e onde precisa melhorar
  • Refazer erradas — embaralha apenas as questões que você errou para drill down
  • Funciona offline — HTML self-contained, sem server
  • Explicações detalhadas — cada questão tem explicação da resposta correta e por que as alternativas estão erradas

Cada questão em all_questions.json segue este schema:

{
  "id": "D1-001",
  "source": "official-exam-guide",
  "scenario": "Customer Support Resolution Agent",
  "task_statement": "1.4",
  "question": "Texto da pergunta...",
  "options": { "A": "...", "B": "...", "C": "...", "D": "..." },
  "correct": "A",
  "explanation": "Explicação detalhada...",
  "domain": "D1"
}

Estratégia de Estudo

Por peso no exame:

  1. D1 Agentic Architecture — 27% (maior peso, comece aqui)
  2. D3 Claude Code Config — 20%
  3. D4 Prompt Engineering — 20%
  4. D2 Tool Design & MCP — 18%
  5. D5 Context & Reliability — 15%

Alternativa — por familiaridade: se você já usa Claude Code no dia a dia, comece por D3 para consolidar o que já sabe, e depois ataque D1.

Faça o practice exam oficial no Skilljar. Se você tirar consistentemente 900+, provavelmente está pronto.

O exame real tem 60 questões e exige 720 para aprovação. Uma margem de 180 pontos (900 vs 720) dá confiança suficiente para lidar com questões mais difíceis ou cenários desconhecidos.

Julgamento arquitetural. O exame não testa se você decorou APIs — ele testa se você sabe escolher a abordagem certa para cada situação. Muitas questões apresentam opções que "parecem certas" mas são anti-patterns.

Foque em entender por que cada alternativa errada está errada, não apenas qual é a correta.

  1. Parsing natural language para loop termination — usar stop_reason em vez de tentar interpretar texto
  2. Arbitrary iteration caps — limites fixos sem critério de convergência real
  3. Prompt-only enforcement para business rules — regras críticas precisam de enforcement programático, não apenas instruções no prompt
  4. Subagent context leakage — agentes filhos não devem vazar contexto entre si sem controle
  5. Ambiguous tool descriptions — descriptions são o mecanismo primário de seleção de tools pelo modelo
  6. Self-review no mesmo contexto — o modelo revisando seu próprio output no mesmo context window tende a confirmar erros
  7. Progressive summarization sem preservar dados críticos — sumarização que descarta informações essenciais

Conceitos-Chave por Domínio

  • stop_reason — use tool_use vs end_turn para controlar loops agênticos (nunca parse NL)
  • Hub-and-spoke — padrão de coordenação com agente central que delega para subagentes especializados
  • Task tool — mecanismo para criar e gerenciar subagentes com contexto isolado
  • allowedTools — restringe quais tools cada agente/subagente pode usar
  • PostToolUse hooks — interceptam resultados de tools para validação, logging ou transformação
  • Context isolation — subagentes devem operar com contexto separado para evitar leakage
  • Tool descriptions — mecanismo primário de seleção; descriptions claras e específicas > nomes genéricos
  • isError flag — indica ao modelo que o resultado da tool é um erro (permite recovery inteligente)
  • errorCategory — categorize erros: transient, validation, permission, business_logic
  • tool_choice — controla seleção: auto (modelo decide), any (deve usar alguma tool), forced (tool específica)
  • .mcp.json vs ~/.claude.json — configuração de MCP servers por projeto vs global
  • CLAUDE.md hierarchy — 3 níveis: ~/.claude/CLAUDE.md (user) → projeto/CLAUDE.md (project) → subdir/CLAUDE.md (directory)
  • .claude/rules/ — rules com glob patterns para aplicação condicional por tipo de arquivo
  • .claude/commands/ vs .claude/skills/ — commands são slash commands customizados; skills têm SKILL.md com frontmatter
  • SKILL.md frontmattercontext: fork, allowed-tools, argument-hint controlam execução
  • -p flag — modo non-interactive para CI/CD (pipe prompt via stdin ou argumento)
  • Explicit criteria > vague instructions — "avalie de 1–5 com estes critérios" > "dê feedback"
  • Few-shot para format variation — exemplos concretos são mais eficazes que descrições de formato
  • tool_use garante schema compliance mas NÃO semantic accuracy — o JSON vai ser válido, mas o conteúdo pode estar errado
  • Enum + "other" + detail field — padrão para categorização flexível sem perder dados inesperados
  • Validation-retry loops — valide output programaticamente e peça correção se inválido
  • Lost in the middle effect — informações no meio de contextos longos são mais facilmente ignoradas
  • Progressive summarization risks — cada rodada de sumarização pode descartar dados que pareciam irrelevantes mas eram críticos
  • Information provenance — rastreie a origem de cada dado para auditoria e debugging
  • Confidence self-reporting — peça ao modelo para reportar seu nível de confiança junto com a resposta
  • Graceful degradation com annotated gaps — quando informação falta, continue operando mas marque explicitamente o que está faltando