Conteúdo Detalhado
6 módulos · Clique para expandir tópicos🔄 O que mudou
Da IA que responde para a IA que executa missões. O salto qualitativo que define a era agentic.
A transição de IAs que respondem perguntas (ChatGPT modo básico) para IAs que recebem objetivos e os executam autonomamente em múltiplos passos.
Entender essa virada é o modelo mental que separa quem usa IA como ferramenta de quem a usa como sistema. Sem isso, você constrói automações frágeis.
Resposta pontual vs. execução de missão · Interação única vs. loop contínuo · Sem autonomia vs. autonomia controlada
Comparação direta entre o modelo de IA tradicional (pergunta-resposta) e o modelo agentic (objetivo-execução) em 5 dimensões: autonomia, memória, ferramentas, planejamento e ciclo.
Visualizar a diferença evita confusão. Muita gente chama de "agente" o que é simplesmente uma chamada de API com prompt elaborado.
Autonomia controlada · Memória persistente · Ferramentas externas · Planejamento em etapas · Loop de avaliação
O contexto de mercado: mercado crescendo de $7.8B para $52B até 2030, 94% de líderes de engenharia com gaps de skills, 40% das apps enterprise com agentes embutidos até fim de 2026.
A janela de oportunidade existe agora. Quem dominar agentic engineering nos próximos 12-18 meses terá vantagem duradoura no mercado.
MCP adotado pela OpenAI em 2025 · Padronização acelerada · 1.445% de aumento em consultas multi-agente · Engenheiro = orquestrador de agentes
Critérios claros para identificar um agente de verdade: tem loop de execução, usa ferramentas externas, avalia seus resultados e pode replanejar. Um chatbot com personalidade não é agente.
O mercado usa "agente" para vender qualquer coisa com IA. Você precisa do critério técnico para separar o real do marketing.
Loop obrigatório · Tool use real · Avaliação de output · Capacidade de replanejar · Diferença entre chatbot, automação e agente
A analogia que mais facilita o entendimento: um agente é como um funcionário competente que você contratou para uma missão — não um Google para tirar dúvidas. Você define o objetivo, ele planeja e executa.
Analogias são mais duráveis que definições técnicas. Quando você pensar "agente = funcionário de missão", vai saber naturalmente o que ele pode e não pode fazer.
Objetivo → Plano → Execução → Relatório · Autonomia dentro de limites · Escala para humano quando necessário · Governança como contrato de trabalho
Exemplos concretos de sistemas agentic em uso em 2026: Claude Code (agente desenvolvedor), Devin (software engineer autônomo), GitHub Copilot Workspace (agente de PR), agentes de SDR em vendas, agentes jurídicos de revisão de contratos.
Ver aplicações reais ancora o aprendizado. Você para de aprender um conceito abstrato e começa a ver oportunidades ao redor.
Agente desenvolvedor · Agente de vendas · Agente jurídico · Agente de RH · Automação de fluxo de trabalho · O custo de NÃO ter agentes
🔁 O Loop Agentic
Pensar → Agir → Observar → Avaliar → Ajustar. O ciclo que define qualquer agente de verdade. Você vai ver isso em tudo.
A etapa em que o LLM recebe o objetivo, analisa o contexto disponível (memória + estado atual) e decide qual ação executar a seguir. É o "passo de raciocínio" — chain-of-thought na prática.
Entender a fase de pensamento permite diagnosticar quando um agente toma a decisão errada — geralmente é aqui que o problema começa.
Chain-of-Thought · ReAct (Reason + Act) · Scratchpad de raciocínio · Contexto disponível · Decisão de próxima ação
A execução da ação escolhida — chamar uma API, executar código, buscar na web, escrever um arquivo, enviar uma mensagem. É aqui que o agente sai da "caixa" e interage com sistemas externos.
Ações têm consequências reais — deletar um arquivo, enviar um email, gastar tokens. Entender esta fase é entender o risco e a governança.
Tool call · Function calling · API externa · Consequências irreversíveis · Controle de permissão · Sandboxing
O retorno da ação — o output da API, o resultado do código, a resposta da busca — é injetado de volta no contexto do agente. Sem observação, não há loop.
Problemas de observação (resultado mal formatado, erro silencioso, timeout) são causas frequentes de agentes que "parecem" funcionar mas produzem lixo.
Tool output · Injeção de contexto · Erro de observação · Parsing de resultado · Tamanho do contexto após observação
Com base no que observou, o agente avalia se está progredindo em direção ao objetivo. Se sim, continua. Se não, ajusta o plano. Um script executa cegamente — o agente avalia e se corrige.
Esta é a capacidade que justifica o nome "agente". Sem avaliação, você tem um script glorificado, não um agente.
Critério de sucesso · Replanning · Detecção de erro · Limite de iterações · Condição de parada · Escalada para humano
Walkthrough completo de um agente de pesquisa: objetivo recebido → pesquisa → avaliação da qualidade → nova pesquisa → síntese → entrega. Vemos cada iteração do loop com o que o agente "pensa" em cada passo.
Ver o loop em ação é muito mais poderoso que ler a definição. Você internalizará o padrão e vai reconhecê-lo em qualquer framework.
Iteração 1, 2, 3 · Progresso incremental · Contagem de tokens por loop · Custo total de execução · Tempo total
Os 3 problemas clássicos do loop agentic: loop infinito (agente não encontra critério de parada), alucinação em cascata (erro no passo 2 contamina passo 3 e 4), e custo explosivo (100 iterações = 100x o custo esperado).
Todo sistema agentic em produção já teve ao menos um desses problemas. Conhecê-los antes de construir é o que separa o dev que previne do dev que apaga incêndio.
max_iterations · Timeout · Budget limit · Error propagation · Circuit breaker · Human escalation
🧩 Componentes do Agente
LLM, Memória, Ferramentas, Planejamento e Governança. As 5 peças que todo agente real precisa ter.
O modelo de linguagem é o centro de decisão do agente. Recebe o estado atual (objetivo + memória + resultado das ações), raciocina e decide o próximo passo.
A escolha do LLM (Claude, GPT-4, Gemini, modelos locais) afeta diretamente a qualidade do raciocínio, o custo por iteração e os limites de contexto disponíveis.
Context window · Temperatura · Function calling nativo · Custo por token · Raciocínio vs. execução · Modelo pequeno para ação, grande para planejar
Memória curto prazo = contexto da conversa atual (janela de tokens). Memória longo prazo = banco vetorial ou banco de dados que persiste entre sessões. Um agente sem memória longa reinicia do zero toda vez.
Sem memória persistente, agentes não podem aprender com execuções anteriores nem manter contexto entre sessões. É a diferença entre um assistente amnésico e um colaborador que conhece seu trabalho.
Contexto de conversa · RAG · Banco vetorial (FAISS, Chroma) · Episódico vs. semântico · Custo de recuperação · Relevância de memória
Tools são funções que o agente pode chamar: busca na web, execução de código Python, leitura de arquivos, consulta a banco de dados, envio de email. Cada tool é uma capacidade extra além do LLM puro.
Sem tools, o agente está preso no contexto de texto. Com tools, ele pode agir no mundo real. A qualidade e segurança das tools define o poder e o risco do agente.
Function schema · Input/output tipados · Tool safety · MCP (Model Context Protocol) · Tool chaining · Permissões por tool
Para objetivos complexos, o agente precisa decompor o problema em subtarefas, ordenar por dependência e executar sequencialmente ou em paralelo. É a diferença entre "faça um site" e plano de 7 etapas executável.
O planejamento é onde o agente mostra sua inteligência. Um bom plano resulta em execução eficiente. Um plano ruim leva a loops, erros em cascata e custo explosivo.
Task decomposition · Dependency graph · Parallel vs. sequential · BMad (Breakdown-Manage-Delegate) · Plan-and-Execute pattern
Governança é o sistema de regras que controla o agente: quais ações são permitidas, quais precisam de aprovação humana, quanto pode gastar, o que deve ser logado e como auditar o histórico.
Sem governança, um agente com acesso ao sistema pode deletar arquivos, gastar uma fortuna em tokens, vazar dados ou executar ações irreversíveis. Governança não é opcional em produção.
Permissões de tool · Budget cap · Audit log · Human-in-the-loop · Guardrails · Actions reversíveis vs. irreversíveis
Diagrama mostrando como LLM + Memória + Tools + Planejamento + Governança se conectam em uma arquitetura mínima funcional. Cada componente que falta torna o agente mais frágil.
Ter o mapa completo antes de começar a construir evita o erro mais comum: criar um agente brilhante em demos que falha em produção por falta de um componente essencial.
Arquitetura mínima viável · Trade-offs de simplicidade · O que adicionar primeiro · Diagrama LLM → Memória → Tools → Loop → Governança
⚡ Vibe Coding vs. Agentic Engineering
A evolução, não a substituição. Entenda onde o Vibe Coding termina e o Agentic Engineering começa — e por que você precisa dos dois.
Vibe Coding é o paradigma popularizado por Andrej Karpathy em 2025: você descreve o que quer em linguagem natural e a IA gera o código. Iteração rápida, foco em resultado, baixa fricção para não-programadores.
Vibe Coding foi o que abriu a porta para milhões de pessoas criarem software. Entendê-lo é entender o ponto de partida da jornada que leva ao Agentic Engineering.
Prompt → código gerado · Iteração por conversa · Claude/Cursor/Bolt/Lovable · Foco em velocidade · Sem loop automático
Vibe Coding falha quando o sistema precisa de múltiplas etapas automatizadas, manutenção de estado entre sessões, execução autônoma sem intervenção humana constante, ou quando o erro em uma etapa deve ser corrigido automaticamente sem voltar para o humano.
Reconhecer os limites do Vibe Coding é o que motiva a aprender Agentic Engineering. Não é abandono — é upgrade natural quando o projeto cresce.
Limite de contexto · Dependência de humano no loop · Sem persistência · Fragilidade em produção · "Funciona no meu computador"
Agentic Engineering entra quando você precisa que o sistema rode sozinho, execute múltiplos passos, avalie seus próprios resultados e se recupere de falhas — sem você na conversa o tempo todo.
Saber o momento certo de fazer o upgrade evita o erro oposto: usar Agentic Engineering para coisas que seriam resolvidas com um bom prompt.
Sinal 1: tarefa repetitiva com variações · Sinal 2: múltiplas etapas sequenciais · Sinal 3: você quer dormir e deixar rodar · Sinal 4: custo de erro alto
Comparação direta em 8 dimensões: autonomia, memória, loop, ferramentas, governança, custo, escalabilidade e complexidade. Cada dimensão com exemplo prático de quando uma abordagem supera a outra.
Ter a tabela na cabeça permite decidir rápido qual abordagem usar para cada problema — sem defender uma como "sempre melhor".
Geração de código vs. orquestração · Foco em rapidez vs. foco em sistema · Iteração manual vs. loop automatizado · Baixa governança vs. governança estruturada
Profissionais avançados usam Vibe Coding para prototipagem rápida e Agentic Engineering para produção. O fluxo: Vibe Coding para validar a ideia em horas → Agentic para escalar e automatizar.
Abandonar Vibe Coding ao aprender Agentic é um erro comum. Os dois coexistem no workflow de quem produz mais rápido.
Protótipo em Vibe Coding · Refatorar para Agentic · Claude Code como ponte · Quando reescrever vs. quando evoluir
10 cenários reais para classificar: Vibe Coding, Agentic Engineering, ou ambos? Ex: "criar um site de portfólio" vs. "processar 500 PDFs de contratos por dia" vs. "gerar relatório semanal de vendas".
A decisão de quando usar cada abordagem é uma habilidade prática. O exercício treina o julgamento antes de entrar na parte técnica.
Critério: frequência · Critério: autonomia necessária · Critério: tolerância a erro · Critério: custo de implementação vs. custo de operação
🌐 O Ecossistema em 2026
Claude Code, Cursor, Devin, n8n, CrewAI, LangGraph. O mapa completo de ferramentas e onde cada uma se encaixa na arquitetura agentic.
O ecossistema agentic se organiza em 4 camadas: Modelos (Claude, GPT-4, Gemini), Frameworks (LangGraph, CrewAI, AutoGen), IDEs Agentic (Claude Code, Cursor, Devin) e Plataformas de Automação (n8n, Make, Zapier AI).
Sem o mapa, você não sabe o que está comparando. Uma pessoa que diz "estou usando LangGraph" e outra que diz "estou usando Claude Code" podem estar construindo coisas completamente diferentes — ou complementares.
Camada de modelo · Camada de framework · Camada de IDE agentic · Camada de automação · Como as camadas se conectam
Ferramentas onde um agente opera dentro do ambiente de desenvolvimento: lê código, escreve, executa terminal, testa e corrige. Claude Code é agent-first no terminal. Cursor é agent-first no editor. Devin é o mais autônomo dos três.
São as ferramentas mais imediatas para um desenvolvedor. Você já pode usar hoje — e são o melhor ponto de entrada para sentir o que é trabalhar com um agente de verdade.
Claude Code (CLI, skills, MCP) · Cursor (Composer, agent mode) · Devin (tarefa completa autônoma) · GitHub Copilot Workspace · Quando usar cada um
Frameworks Python para construir agentes customizados. LangGraph: grafo de estados para controle preciso. CrewAI: times de agentes com papéis. AutoGen: conversação multi-agente. A Trilha 3 vai a fundo em todos — aqui é só o mapa.
Esses frameworks são a escolha quando você precisa de lógica customizada que os IDEs prontos não cobrem. São a camada de construção, não de uso.
LangGraph (grafo, estado, controle fino) · CrewAI (papéis, delegação) · AutoGen/AG2 (conversação, reflexão) · OpenAI Agents SDK · Quando construir vs. quando usar pronto
Plataformas visuais de workflow que adicionaram capacidades agentic. n8n é a mais poderosa e self-hostable. Make (ex-Integromat) e Zapier AI focam em integrações prontas. São o elo entre agentes e sistemas corporativos existentes.
Para automações de negócio que envolvem dezenas de sistemas (CRM, ERP, email, Slack), plataformas low-code são mais eficientes que frameworks Python customizados.
n8n (self-hosted, código + visual) · Make (visual, integrações ricas) · Zapier AI (mais simples, mais rápido) · Quando low-code supera código puro
Model Context Protocol (MCP) é o padrão aberto criado pela Anthropic e adotado pela OpenAI em março de 2025. Define como agentes descobrem e usam ferramentas de forma padronizada — banco de dados, APIs, arquivos, sistemas externos.
MCP virou o "HTTP dos agentes". Qualquer ferramenta que implemente MCP funciona com qualquer agente que o suporte. É o padrão de integração que você precisa entender agora.
Servidor MCP · Cliente MCP · Descoberta de ferramentas · Adoção pela OpenAI · Claude Code + MCP · Criando seu servidor MCP (Trilha 3)
Guia de decisão para qual ferramenta começar baseado no seu perfil: dev que quer aumentar produtividade (Claude Code), builder que quer criar produto (LangChain + LangGraph), automador de processos (n8n), executivo que quer ver em ação (Cursor).
Paralisia de escolha é o maior inimigo no início. Ter critérios claros para escolher a primeira ferramenta acelera o aprendizado prático.
Perfil dev · Perfil builder · Perfil automador · Primeira ferramenta vs. stack completa · "Use uma ferramenta até sentir dor, depois aprenda a próxima"
🤖 Primeiro Agente
Hands-on sem framework. Você vai construir um agente mínimo funcional em Python puro — e entender cada linha do que escreveu.
Um agente mínimo precisa de: 1 LLM, 1+ tools definidas como funções Python, 1 loop que continua até o objetivo ser atingido, e 1 mecanismo de observação do resultado das tools. Nada mais é obrigatório para começar.
Começar pelo mínimo é o que garante que você entende cada peça antes de adicionar complexidade. Agentes construídos sem entender o mínimo acumulam dívida técnica invisível.
LLM call · Tool definition · While loop · Tool execution · Result injection · Stop condition
Tools são funções Python com um schema JSON que descreve: nome, descrição, parâmetros e tipos. O LLM lê o schema e decide quando e como chamar cada tool. O schema é a "documentação" que o agente consulta.
Um schema mal escrito resulta em agente que não usa a tool corretamente, usa na hora errada, ou ignora por completo. A qualidade do schema é diretamente proporcional à qualidade do comportamento.
JSON schema · Descrição de tool · Parâmetros tipados · Docstring como instrução · Pydantic para validação · Boas práticas de nomenclatura
O loop principal do agente: (1) chamar LLM com estado atual, (2) verificar se pediu tool call, (3) executar a tool, (4) injetar resultado de volta, (5) repetir. Encerra quando o LLM não pede mais tools (objetivo atingido) ou quando atinge max_iterations.
Escrever o loop uma vez do zero é o exercício mais importante da Trilha 1. Depois de fazer isso, qualquer framework fará sentido — porque você vai reconhecer o mesmo padrão abstraído.
while not done · tool_calls check · dispatch_tool() · messages.append() · max_iterations · finish_reason
Construção passo a passo de um agente que: recebe um tema, decide buscar na web, lê os resultados, decide se precisa de mais informações, e entrega um resumo estruturado. ~50 linhas de Python sem nenhum framework.
Este é o projeto de portfolio do módulo. Um agente funcional em 50 linhas é o melhor cartão de visita técnico para quem está começando na área.
anthropic.Anthropic() · tools=[] · tool_use block · tool_result block · Custo total da execução · Tempo por iteração
4 experimentos de falha: (1) remover max_iterations e ver loop infinito, (2) dar schema errado de tool e ver comportamento, (3) fazer tool retornar erro e ver o que o agente faz, (4) dar objetivo ambíguo e ver como o agente interpreta.
Ver o agente falhar de forma controlada é o aprendizado mais valioso. Você vai encontrar todas essas falhas em produção — melhor encontrar agora, com experimento, do que no deploy.
Loop infinito na prática · Schema mal definido · Error handling de tool · Objetivo vago vs. objetivo preciso · Custo de uma execução com bug
Preview do que a Trilha 2 adiciona ao agente simples que você acabou de construir: memória longa com banco vetorial, RAG, tools com acesso a bancos de dados reais, padrões de raciocínio avançados (ReAct, Plan-and-Execute) e LangChain como abstração.
Ver para onde vai o caminho motiva a continuar. Você vai entrar na Trilha 2 sabendo exatamente o que vai aprender e por que cada componente importa.
Trilha 2 preview · Do agente simples ao assistente completo · Por que LangChain existe · Quando parar de reinventar a roda · Próximos passos concretos