📐 Os 6 critérios que definem a escolha
Escolher framework por hype ou popularidade é um erro caro. Aqui estão os 6 critérios objetivos que determinam qual framework serve ao seu problema — independente de preferência pessoal ou tendência do momento.
1. Controle de fluxo
Você precisa definir exatamente qual passo vem depois? Ou pode deixar emergir? LangGraph = máximo controle. AutoGen = fluxo emergente.
2. Curva de aprendizado
Qual é o tempo da equipe para aprender? CrewAI = mais rápido. LangGraph = mais lento, mas mais poder no longo prazo.
3. Suporte a loops/ciclos
O sistema precisa de retry automático, reflexão iterativa ou espera por aprovação? LangGraph e AutoGen têm isso nativamente. CrewAI e SDK, menos.
4. Observabilidade
LangGraph integra com LangSmith nativo. SDK tem tracing próprio. CrewAI e AutoGen precisam de setup adicional. Em produção crítica, isso importa.
5. Comunidade e maturidade
LangGraph e AutoGen têm as maiores comunidades. SDK da OpenAI tem suporte enterprise direto. CrewAI cresce rápido mas é mais novo.
6. Vendor lock-in
SDK da OpenAI = máximo lock-in. LangGraph = agnóstico de provider. CrewAI e AutoGen = suportam múltiplos LLMs. Compliance pode exigir multi-provider.
🕸️ LangGraph vs. CrewAI: grafo vs. equipe
O par mais comparado no ecossistema. A diferença fundamental: LangGraph é sobre fluxo (quando e como cada passo executa), CrewAI é sobre colaboração (quem faz o quê dentro de uma equipe).
🕸️ LangGraph
- ✓Controle total do fluxo via grafo explícito
- ✓Loops e ciclos nativos sem workarounds
- ✓Checkpoints robustos para produção
- ✓Human-in-the-loop com interrupt()
- ✓Streaming granular por nó
- ✗Curva de aprendizado mais íngreme
- ✗Mais verboso para casos simples
👥 CrewAI
- ✓Abstração de equipe natural e intuitiva
- ✓Prototipagem rápida em menos código
- ✓Personas ricas com role/goal/backstory
- ✓Output Pydantic nativo
- ✓Delegação automática entre agentes
- ✗Menos controle de fluxo preciso
- ✗Loops complexos são difíceis de implementar
💡 Regra prática: complexidade define a escolha
Se você pode desenhar o fluxo como um diagrama de estados com branches claros → LangGraph. Se você pensa em "quem faz o quê" e os steps são mais lineares → CrewAI. Dúvida? Comece com CrewAI e migre para LangGraph quando sentir a fricção.
👥 CrewAI vs. AutoGen: equipe vs. conversa
Ambos trabalham com múltiplos agentes, mas de formas radicalmente diferentes. CrewAI é estruturado (tasks definidas, output esperado claro), AutoGen é emergente (a conversa define o que acontece).
Quando CrewAI vence
- ✓Output final com formato conhecido (relatório, JSON)
- ✓Tasks independentes que podem ser paralelas
- ✓Processo previsível com etapas bem definidas
- ✓Equipe com especialistas claramente definidos
- ✓Delegação automática de sub-tarefas
- ✓MVP e prototipagem rápida
Quando AutoGen vence
- ✓Execução de código Python com feedback de erro
- ✓Debate e síntese de perspectivas múltiplas
- ✓Número de iterações desconhecido a priori
- ✓Pesquisa exploratória aberta
- ✓Reflexão e autocrítica iterativa
- ✓Análise de dados com código + interpretação
🤖 AutoGen vs. OpenAI SDK: conversa vs. handoffs
AutoGen usa conversação como mecanismo de controle — agentes se comunicam por mensagens e a coordenação emerge. OpenAI SDK usa handoffs explícitos — uma transferência intencional de controle de um agente para outro.
🔀 Diferença fundamental de coordenação
AutoGen: conversa define o fluxo
OpenAI SDK: handoff explícito
Use AutoGen para...
- • Multi-provider (Claude + GPT + Gemini juntos)
- • Code generation com execução iterativa
- • Pesquisa onde o número de passos é desconhecido
- • Reflexão e debate entre perspectivas
Use OpenAI SDK para...
- • Customer service com especialistas claros
- • Stack 100% OpenAI sem vendor concern
- • Guardrails de segurança sem setup adicional
- • Tempo para MVP mínimo
📊 Tabela de decisão completa
Referência definitiva: 8 critérios, 4 frameworks, pontuação objetiva. Use esta tabela como referência rápida quando precisar decidir.
📊 Comparativo completo (★★★ = melhor)
| Critério | 🕸️ LangGraph | 👥 CrewAI | 💬 AutoGen | 🤖 OAI SDK |
|---|---|---|---|---|
| Controle de fluxo | ★★★ | ★★ | ★ | ★★ |
| Facilidade de início | ★ | ★★★ | ★★ | ★★★ |
| Loops e ciclos | ★★★ | ★ | ★★ | ★ |
| Code execution | ★ | ★ | ★★★ | ★ |
| Observabilidade nativa | ★★★ | ★ | ★ | ★★★ |
| Multi-provider LLM | ★★★ | ★★★ | ★★★ | ★ |
| Segurança (guardrails) | ★★ | ★ | ★ | ★★★ |
| Suporte enterprise | ★★★ | ★★ | ★★ | ★★★ |
Guia rápido por cenário
🔄 Migração entre frameworks
É comum começar com CrewAI para prototipar e migrar para LangGraph quando o sistema cresce. A chave é isolamento das ferramentas via MCP — elas ficam iguais, só muda o orquestrador.
Isole ferramentas em servidores MCP
Antes de migrar, converta todas as tools em servidores MCP. Elas funcionarão com qualquer framework sem alteração.
Migre incrementalmente por módulo
Não reescreva tudo de uma vez. Migre um agente/nó por vez, mantendo o resto funcionando. Use feature flags para controlar qual versão está ativa.
Teste A/B entre versões
Compare métricas de qualidade, custo e latência entre a versão antiga e nova antes de migrar 100%. Observe pelo menos 2 semanas em produção.
💡 Exercício prático
Dado os seguintes 5 requisitos, qual framework você usaria?
- Sistema de análise de contratos jurídicos com loop de revisão
- Time de 4 agentes (extração, análise, verificação, relatório)
- Cada agente pode precisar executar código Python para cálculos
- Compliance exige auditoria completa de cada decisão
- Precisa suportar Claude (Anthropic) e GPT-4 (OpenAI)
Resposta: LangGraph (controle de fluxo + auditoria + multi-provider) com nós que usam AutoGen internamente para a etapa de code execution, e MCP servers para as ferramentas jurídicas.
🎯 Resumo do Módulo
Próximo Módulo:
3.7 — 🔗 LangGraph + CrewAI juntos: o melhor dos dois mundos em um sistema integrado