MÓDULO 3.6

⚖️ Comparativo de Frameworks

Tabela de decisão completa: 6 critérios objetivos, comparativo head-to-head e guia por cenário. Depois deste módulo você saberá exatamente qual framework usar em cada situação — sem dúvidas.

6
Tópicos
40
Minutos
Inter.
Nível
Decisão
Tipo
1

📐 Os 6 critérios que definem a escolha

Escolher framework por hype ou popularidade é um erro caro. Aqui estão os 6 critérios objetivos que determinam qual framework serve ao seu problema — independente de preferência pessoal ou tendência do momento.

🕹️

1. Controle de fluxo

Você precisa definir exatamente qual passo vem depois? Ou pode deixar emergir? LangGraph = máximo controle. AutoGen = fluxo emergente.

📈

2. Curva de aprendizado

Qual é o tempo da equipe para aprender? CrewAI = mais rápido. LangGraph = mais lento, mas mais poder no longo prazo.

🔁

3. Suporte a loops/ciclos

O sistema precisa de retry automático, reflexão iterativa ou espera por aprovação? LangGraph e AutoGen têm isso nativamente. CrewAI e SDK, menos.

🔍

4. Observabilidade

LangGraph integra com LangSmith nativo. SDK tem tracing próprio. CrewAI e AutoGen precisam de setup adicional. Em produção crítica, isso importa.

👥

5. Comunidade e maturidade

LangGraph e AutoGen têm as maiores comunidades. SDK da OpenAI tem suporte enterprise direto. CrewAI cresce rápido mas é mais novo.

🏢

6. Vendor lock-in

SDK da OpenAI = máximo lock-in. LangGraph = agnóstico de provider. CrewAI e AutoGen = suportam múltiplos LLMs. Compliance pode exigir multi-provider.

2

🕸️ LangGraph vs. CrewAI: grafo vs. equipe

O par mais comparado no ecossistema. A diferença fundamental: LangGraph é sobre fluxo (quando e como cada passo executa), CrewAI é sobre colaboração (quem faz o quê dentro de uma equipe).

🕸️ LangGraph

  • Controle total do fluxo via grafo explícito
  • Loops e ciclos nativos sem workarounds
  • Checkpoints robustos para produção
  • Human-in-the-loop com interrupt()
  • Streaming granular por nó
  • Curva de aprendizado mais íngreme
  • Mais verboso para casos simples

👥 CrewAI

  • Abstração de equipe natural e intuitiva
  • Prototipagem rápida em menos código
  • Personas ricas com role/goal/backstory
  • Output Pydantic nativo
  • Delegação automática entre agentes
  • Menos controle de fluxo preciso
  • Loops complexos são difíceis de implementar

💡 Regra prática: complexidade define a escolha

Se você pode desenhar o fluxo como um diagrama de estados com branches claros → LangGraph. Se você pensa em "quem faz o quê" e os steps são mais lineares → CrewAI. Dúvida? Comece com CrewAI e migre para LangGraph quando sentir a fricção.

3

👥 CrewAI vs. AutoGen: equipe vs. conversa

Ambos trabalham com múltiplos agentes, mas de formas radicalmente diferentes. CrewAI é estruturado (tasks definidas, output esperado claro), AutoGen é emergente (a conversa define o que acontece).

Quando CrewAI vence

  • Output final com formato conhecido (relatório, JSON)
  • Tasks independentes que podem ser paralelas
  • Processo previsível com etapas bem definidas
  • Equipe com especialistas claramente definidos
  • Delegação automática de sub-tarefas
  • MVP e prototipagem rápida

Quando AutoGen vence

  • Execução de código Python com feedback de erro
  • Debate e síntese de perspectivas múltiplas
  • Número de iterações desconhecido a priori
  • Pesquisa exploratória aberta
  • Reflexão e autocrítica iterativa
  • Análise de dados com código + interpretação
4

🤖 AutoGen vs. OpenAI SDK: conversa vs. handoffs

AutoGen usa conversação como mecanismo de controle — agentes se comunicam por mensagens e a coordenação emerge. OpenAI SDK usa handoffs explícitos — uma transferência intencional de controle de um agente para outro.

🔀 Diferença fundamental de coordenação

AutoGen: conversa define o fluxo
Agente A: "Pesquise sobre X"
Agente B: "Encontrei dados sobre X. Agente C, analise."
Agente C: "Análise completa: ..."
OpenAI SDK: handoff explícito
Triage: "Este é um problema técnico."
SDK: → Transfere para TechAgent com contexto
TechAgent: "Vou resolver este problema técnico..."

Use AutoGen para...

  • • Multi-provider (Claude + GPT + Gemini juntos)
  • • Code generation com execução iterativa
  • • Pesquisa onde o número de passos é desconhecido
  • • Reflexão e debate entre perspectivas

Use OpenAI SDK para...

  • • Customer service com especialistas claros
  • • Stack 100% OpenAI sem vendor concern
  • • Guardrails de segurança sem setup adicional
  • • Tempo para MVP mínimo
5

📊 Tabela de decisão completa

Referência definitiva: 8 critérios, 4 frameworks, pontuação objetiva. Use esta tabela como referência rápida quando precisar decidir.

📊 Comparativo completo (★★★ = melhor)

Critério 🕸️ LangGraph 👥 CrewAI 💬 AutoGen 🤖 OAI SDK
Controle de fluxo ★★★ ★★ ★★
Facilidade de início ★★★ ★★ ★★★
Loops e ciclos ★★★ ★★
Code execution ★★★
Observabilidade nativa ★★★ ★★★
Multi-provider LLM ★★★ ★★★ ★★★
Segurança (guardrails) ★★ ★★★
Suporte enterprise ★★★ ★★ ★★ ★★★

Guia rápido por cenário

Fluxo complexo com branches e loops → LangGraph
Time de agentes com papéis claros → CrewAI
Pesquisa exploratória e code generation iterativo → AutoGen
Projeto novo simples com stack OpenAI → OpenAI SDK
Sistema crítico em produção com auditoria → LangGraph + LangSmith
Customer service com especialistas por domínio → OpenAI SDK (Swarm)
6

🔄 Migração entre frameworks

É comum começar com CrewAI para prototipar e migrar para LangGraph quando o sistema cresce. A chave é isolamento das ferramentas via MCP — elas ficam iguais, só muda o orquestrador.

1

Isole ferramentas em servidores MCP

Antes de migrar, converta todas as tools em servidores MCP. Elas funcionarão com qualquer framework sem alteração.

2

Migre incrementalmente por módulo

Não reescreva tudo de uma vez. Migre um agente/nó por vez, mantendo o resto funcionando. Use feature flags para controlar qual versão está ativa.

3

Teste A/B entre versões

Compare métricas de qualidade, custo e latência entre a versão antiga e nova antes de migrar 100%. Observe pelo menos 2 semanas em produção.

💡 Exercício prático

Dado os seguintes 5 requisitos, qual framework você usaria?

  1. Sistema de análise de contratos jurídicos com loop de revisão
  2. Time de 4 agentes (extração, análise, verificação, relatório)
  3. Cada agente pode precisar executar código Python para cálculos
  4. Compliance exige auditoria completa de cada decisão
  5. Precisa suportar Claude (Anthropic) e GPT-4 (OpenAI)

Resposta: LangGraph (controle de fluxo + auditoria + multi-provider) com nós que usam AutoGen internamente para a etapa de code execution, e MCP servers para as ferramentas jurídicas.

🎯 Resumo do Módulo

6 critérios objetivos — controle de fluxo, curva de aprendizado, loops, observabilidade, comunidade, vendor lock-in
LangGraph = fluxo, CrewAI = equipe — diferença fundamental que guia a escolha
AutoGen = code gen, SDK = handoffs simples — cada um com seu caso de uso ideal
MCP isola ferramentas — permite migração entre frameworks sem reescrever tools
Migração incremental — módulo por módulo com feature flags e A/B testing

Próximo Módulo:

3.7 — 🔗 LangGraph + CrewAI juntos: o melhor dos dois mundos em um sistema integrado