Entrar no ciclo de entrega
Melhor encaixe quando o time precisa de um engenheiro sênior dentro da entrega real, ajudando a definir arquitetura, APIs, avaliação e operação em vez de produzir estratégia abstrata.
- Traduzir restrições institucionais em escopo técnico prático
- Atuar entre produto, dados, backend e release
- Manter a entrega conectada à adoção real e ao uso operacional
Desenhar sistemas de IA aplicada
Trabalho prático em retrieval, NLP, avaliação e fluxos com humano no circuito para sistemas que precisam funcionar além do demo.
- Definir fronteiras de sistema para fluxos com LLM e ML
- Transformar comportamento de modelo em APIs e ferramentas confiáveis
- Explicitar falhas, feedback loops e tradeoffs de rollout
Modernizar a operação de modelos
Trabalho de plataforma e MLOps para equipes que já possuem modelos em movimento e precisam torná-los mais seguros, mais rápidos de atualizar e mais fáceis de manter.
- Padronizar retreinamento, empacotamento e release
- Melhorar rastreabilidade com MLflow, DVC e orquestração
- Reduzir dependência de passos manuais e conhecimento tácito
Pipelines de inteligência documental
Implementação de pipelines de IA aplicada para transformar PDFs e documentos não estruturados em saídas estruturadas confiáveis para sistemas de produção.
- Desenhar fluxos de RAG e extração para casos documentais
- Converter metadados e texto de PDFs em registros estruturados com esquema
- Conectar pipelines de recuperação a bases vetoriais e APIs de produção
Avaliação de LLMs em produção
Estrutura de qualidade e prontidão de release para equipes que precisam de confiança mensurável antes de publicar mudanças de prompts, modelos ou fluxos.
- Construir pipelines de avaliação para monitorar alucinação e factualidade
- Comparar versões com avaliações por ground truth e LLM-as-a-judge
- Definir critérios práticos de qualidade para releases mais seguros
Orquestração e integração de agentes
Orquestração escalável para fluxos longos de IA, com workers em fila e fronteiras de serviço desenhadas para confiabilidade em produção.
- Implementar orquestração com workers (Kafka) e serviços de API
- Padronizar acesso a provedores de modelo com camadas LiteLLM
- Integrar fluxos de IA a ambientes existentes de microserviços