Programar com IA além do "vibe coding"
Criador do Flask e outro dev compartilham aprendizados para lidar com IAs de forma produtiva. Mais: preços de 200+ LLMs, alternativa barata ao Heroku e 5 libs em alta para web scraping.
Dois desenvolvedores experientes compartilharam recentemente suas práticas para trabalhar com assistentes de IA em projetos reais. Suas abordagens revelam que o sucesso não depende apenas da ferramenta, mas de como você organiza seu código e fluxo de trabalho.
O primeiro passo é criar documentação específica para a IA. Diwank Singh, da Julep (infraestrutura serveless para orquestrar operações com LLMs), usa arquivos CLAUDE.md
que funcionam como uma constituição do projeto, ao usar Claude Code. Esses arquivos contêm decisões arquiteturais, padrões de código e, principalmente, o que a IA nunca deve tocar — testes, migrações de banco e código relacionado à segurança.
Armin Ronacher, criador do Flask, web framework Python popular, vai além e desabilita verificações de permissão com Claude --dangerously-skip-permissions
, compensando o risco movendo o ambiente de desenvolvimento para Docker.
A escolha da linguagem afeta diretamente os resultados. Ronacher descobriu que Go supera Python para novos projetos backend. A razão é prática: Go tem sintaxe simples, sistema de contexto explícito e cache de testes eficiente. Python confunde agentes com fixtures do pytest, loops de eventos complexos e demora para inicializar processos, tornando o ciclo de desenvolvimento mais lento.
Comentários especiais no código, chamados "anchor comments", guiam a IA sem poluir o código para humanos. Singh usa prefixos como AIDEV-NOTE
: para marcar trechos críticos de performance ou explicar decisões arquiteturais. Esses comentários evitam que a IA faça alterações prejudiciais em código sensível e servem como breadcrumbs que impedem o assistente de se perder em sistemas complexos.
A regra mais importante: humanos escrevem testes. Testes codificam intenções e casos extremos que apenas quem entende o negócio consegue prever. Singh é categórico: "Se uma ferramenta de IA toca um arquivo de teste, o pull request é rejeitado. Sem exceções." IA pode sugerir cenários de teste, mas a implementação deve ser sempre humana.
Ferramentas rápidas são essenciais para manter o fluxo produtivo. Ronacher coloca comandos críticos em Makefiles e protege contra execução dupla — se o servidor já está rodando, o comando retorna erro informativo em vez de travar. Logs devem ser informativos sem verbosidade excessiva. A IA precisa diagnosticar problemas rapidamente sem consumir tokens desnecessários.
A estratégia de commits também muda. Singh marca commits assistidos por IA com tags como [AI]
ou [AI-minor]
, criando transparência para revisores futuros. Sessões longas de IA devem ser evitadas para prevenir "poluição de contexto" — cada tarefa merece uma conversa limpa. Ronacher prefere código gerado a dependências externas, mantendo maior controle sobre o sistema.
O resultado é um fluxo onde a IA acelera implementação enquanto práticas sólidas garantem qualidade e manutenibilidade. Mais em "Field Notes From Shipping Real Code With Claude", de Diwank Singh, e em "Agentic Coding Recommendations", de Armin Ronacher.
Banco de dados reúne preços de mais de 200 modelos de IA
Models.dev oferece comparação detalhada de custos e capacidades de modelos como Claude 4, GPT-4o, Gemini 2.5 e DeepSeek. A plataforma open-source lista preços por milhão de tokens, limites de contexto e funcionalidades como anexos e raciocínio. Com opções que variam de $0,035 a $600 por milhão de tokens de saída, desenvolvedores podem escolher entre modelos econômicos como Nova Micro da Amazon ou avançados como o1-pro da OpenAI. Mais em models.dev.
Alternativa open source e mais barata ao Heroku
Canine surge como plataforma de deployment que combina facilidade do Heroku com preços de provedores mais baratos. O projeto destaca diferenças: rodar uma aplicação de 4GB custa US$ 250 no Heroku contra US$ 4 no Hetzner. A ferramenta permite usar mais de 200 provedores através de interface unificada, com integração GitHub, deployment com um clique e certificados SSL automáticos. Evita vendor lock-in e oferece versão gratuita para self-hosted. Mais aqui e aqui.
Cinco bibliotecas JavaScript para web scraping em 2025
A Apify listou as principais ferramentas JavaScript para coleta de dados web. Crawlee se destaca como framework completo que unifica automação de browser, rotação de proxy e gerenciamento de dados. Para requests HTTP stealth, Impit gera headers realistas automaticamente. Cheerio continua sendo a escolha para parsing rápido de HTML estático com sintaxe jQuery. Playwright domina sites dinâmicos com suporte a múltiplos browsers (tutorial), enquanto Puppeteer mantém foco no Chrome com integração ao DevTools. Mais aqui.
Regras para assistentes de IA ganham repositório colaborativo
O desenvolvedor Peter Steinberger criou um repositório no GitHub que reúne regras reutilizáveis para assistentes de IA como Claude Code e Cursor. O agent-rules oferece comandos prontos para fluxos de desenvolvimento, desde commits padronizados até análise de código e criação de documentação. A coleção usa formato .mdc que funciona tanto no Cursor quanto no Claude Code, permitindo que os mesmos arquivos sejam aplicados em ambas as ferramentas. O projeto aceita contribuições da comunidade e pode ser instalado globalmente ou por projeto específico. Mais no repo.
LLMs como espelhos: a nova métrica de habilidade para devs
Geoffrey Huntley propõe que LLMs funcionam como espelhos da competência do operador, não ferramentas mágicas que compensam falta de conhecimento. Para ele, um desenvolvedor experiente em 2024 pode não ser hábil em 2025 com IA presente. Huntley sugere que entrevistas técnicas avaliem como candidatos "dançam" com LLMs: se reciclam contexto, fazem perguntas inteligentes e entendem código gerado. A habilidade real está em saber conduzir a ferramenta, não apenas usá-la. Vale a leitura.
Obrigado por acompanhar a BeTalent Academy. Se gostou, compartilhe e deixe um comentário. Até a próxima semana, com mais uma edição!