Workflows guiados por agente para acelerar a customização de modelos no Amazon SageMaker AI

O desafio real da customização de modelos de IA

Toda organização tem acesso aos mesmos modelos de fundação disponíveis no mercado. A vantagem competitiva de verdade vem de customizá-los com dados proprietários e expertise de domínio. O problema é que chegar lá é complexo — mesmo para equipes experientes.

Dominar técnicas como Ajuste Fino Supervisionado (SFT), Otimização Direta de Preferências (DPO) e Aprendizado por Reforço com Recompensas Verificáveis (RLVR) exige muito conhecimento especializado. Além disso, é preciso navegar por APIs fragmentadas, formatos de dados específicos por modelo, projetar avaliações rigorosas e gerenciar ciclos de experimentos que podem durar meses.

Para endereçar esse problema, o Amazon SageMaker AI passou a oferecer uma experiência agêntica que muda esse cenário. Os desenvolvedores descrevem seu caso de uso em linguagem natural e o agente de codificação por IA conduz todo o processo — desde a definição do caso de uso e preparação dos dados, passando pela seleção da técnica, avaliação e chegando ao deploy.

O que são as Agent Skills para customização de modelos

O elemento central dessa experiência são as Agent Skills para customização de modelos. Trata-se de conjuntos de instruções modulares e pré-construídos que codificam expertise profunda da AWS e de ciência de dados em todo o ciclo de customização.

Quando o desenvolvedor descreve seu caso de uso, o agente de IA ativa as Skills relevantes, que o orientam por etapas como preparação e validação de dados, seleção de técnica, configuração de hiperparâmetros, avaliação do modelo e implantação. As Skills fornecem conhecimento especializado sobre as APIs do SageMaker AI, fluxos de trabalho de Aprendizado de Máquina (ML), boas práticas e padrões comuns — gerando notebooks prontos para execução em cada etapa.

Um ponto importante: as Skills são totalmente customizáveis. Equipes podem modificá-las para refletir seus próprios fluxos de trabalho, padrões de governança e preferências de ferramentas, criando boas práticas organizacionais reproduzíveis — um desafio recorrente com assistentes de codificação de propósito geral.

Amazon Kiro no SageMaker AI Studio JupyterLab

O JupyterLab no SageMaker AI inclui suporte integrado a ambientes de desenvolvimento agêntico via Protocolo de Comunicação entre Agentes (ACP). Por padrão, o Kiro, agente de desenvolvimento de software da Amazon, vem pré-configurado no painel de chat, oferecendo completação de código com IA, assistência para debugging e suporte interativo de codificação diretamente no JupyterLab.

Quando o desenvolvedor utiliza agentes de codificação no JupyterLab do SageMaker AI, o espaço carrega automaticamente as Skills de customização de modelos relevantes no contexto do agente. Além disso, é possível configurar outros agentes compatíveis com o Protocolo de Comunicação entre Agentes (ACP), como o Claude Code, oferecendo flexibilidade para trabalhar com as ferramentas que melhor se encaixam no fluxo de trabalho de cada equipe. Também é possível usar acesso remoto ao próprio IDE fora do JupyterLab.

Pré-requisitos para começar

Antes de iniciar, a AWS lista os seguintes requisitos:

As nove Skills do ciclo de customização

As Agent Skills do SageMaker AI são construídas em conformidade com o formato aberto Agent Skills. Os workflows de customização guiados por agente são alimentados por nove Skills modulares que cobrem todo o ciclo de customização:

  • Especificação do Caso de Uso: descoberta estruturada para definir o problema de negócio, usuários e critérios de sucesso
  • Descoberta de Planejamento: gera um plano de customização dinâmico e com múltiplas etapas, adaptado ao caso de uso
  • Configuração de Fine-tuning: seleciona o modelo base no SageMaker AI Hub e recomenda a técnica (SFT, DPO ou RLVR)
  • Avaliação de Dataset: valida o formato e o esquema do dataset antes do treinamento
  • Transformação de Dataset: converte entre formatos de dados de ML (OpenAI chat, SageMaker AI, Hugging Face, Amazon Nova)
  • Fine-tuning: gera notebooks de treinamento para fine-tuning serverless no SageMaker AI
  • Avaliação de Modelo: configura avaliação com LLM-as-Judge, incluindo métricas integradas e customizadas
  • Deploy de Modelo: determina o caminho de implantação (endpoint SageMaker AI ou Bedrock) e gera o código correspondente

O agente de codificação — seja Kiro, Claude Code, Cursor ou outro — fornece a interface conversacional, enquanto as Skills do SageMaker AI orquestram o workflow. Ao interagir com o agente, ele ativa as Skills relevantes, permitindo chamar APIs do SageMaker AI, acessar fontes de dados no S3 e interagir com registros de modelos via servidores MCP fornecidos pela AWS. Notebooks Jupyter são gerados automaticamente para cada etapa do processo.

Técnicas de fine-tuning suportadas

As Skills de customização de modelos suportam atualmente três técnicas de fine-tuning, recomendando a mais adequada durante a fase de planejamento:

  • SFT (Ajuste Fino Supervisionado): treina com pares de entrada/saída — ideal para comportamento específico de tarefas como seguimento de instruções, conformidade de formato e respostas adaptadas ao domínio
  • DPO (Otimização Direta de Preferências): treina com saídas preferidas versus rejeitadas — melhor para alinhar tom, estilo e preferências subjetivas ao julgamento humano
  • RLVR (Aprendizado por Reforço com Recompensas Verificáveis): treina usando funções de recompensa baseadas em código — adequado para tarefas onde a correção pode ser verificada programaticamente

Solução de exemplo: modelo de raciocínio clínico

Para demonstrar o funcionamento, o artigo da AWS apresenta um caso de uso onde um Modelo de Linguagem Pequeno (SLM) é ajustado com o dataset FreedomIntelligence/medical-o1-reasoning-SFT para construir um modelo de raciocínio clínico capaz de percorrer casos médicos passo a passo antes de fornecer um diagnóstico. Isso demonstra como o fine-tuning pode especializar um modelo de propósito geral para tarefas de raciocínio específicas de domínio.

O SageMaker AI também disponibiliza uma biblioteca de datasets de exemplo para quem quiser experimentar outros casos de uso com SFT, DPO e RLVR como ponto de partida.

Configurando o Claude Code no JupyterLab

O SageMaker AI Studio suporta a adição de outros agentes de codificação usando o Protocolo de Controle de Agentes (ACP). Exemplos de agentes compatíveis incluem Claude (via claude-agent-acp), OpenCode (via CLI opencode >= 1.0.0), Gemini (via CLI gemini >= 0.34.0) e Codex (via codex-acp). Consulte o guia do usuário do JupyterLab para mais detalhes sobre os passos de instalação.

Para usar o Claude Code, o processo envolve instalar a ferramenta CLI no terminal do SageMaker AI Studio JupyterLab com o comando:

npm install -g @zed-industries/claude-agent-acp

Em seguida, reiniciar o espaço com o comando restart-jupyter-server ou via interface do Studio, autenticar-se com o agente e selecioná-lo no dropdown do painel de chat (@Claude).

O Claude Code pode ser usado com a maioria das assinaturas Anthropic, inclusive configurado para usar Claude via Amazon Bedrock. Para isso, basta seguir os pré-requisitos no guia do Claude Code, habilitar o acesso ao modelo no Bedrock e criar o seguinte arquivo de configuração:

~/.claude/settings.json:
{
  "env": {
    "CLAUDE_CODE_USE_BEDROCK": "1"
  }
}

Como funciona na prática: do planejamento ao deploy

Fase de planejamento

Ao receber o prompt do usuário, o agente não começa a executar tarefas imediatamente. Ele entra em uma fase de planejamento onde identifica e ativa as Skills necessárias para completar o trabalho, gerando um workflow que o usuário pode revisar e modificar. A partir do prompt inicial, o agente reconhece os domínios de Skills relevantes e faz perguntas direcionadas sobre a prontidão do dataset e detalhes do caso de uso antes de gerar qualquer código.

Fine-tuning no SageMaker AI

Com múltiplas famílias de modelos e técnicas disponíveis, o agente analisa a estrutura do dataset e os requisitos da tarefa para fornecer recomendações personalizadas de modelo e técnica. O SageMaker AI suporta customização serverless para as famílias Amazon Nova, GPT-OSS, Llama, Qwen e DeepSeek. No exemplo do artigo, o modelo Qwen3-0.6B foi escolhido por ser econômico para treinar e implantar, sendo suficiente para tarefas específicas de domínio como raciocínio médico.

O agente gera um notebook de treinamento que utiliza um job de treinamento serverless do SageMaker AI, com métricas de treinamento e validação rastreadas pelo SageMaker AI MLflow Apps integrado.

Avaliação

Após o treinamento, o agente recomenda uma abordagem de avaliação baseada no caso de uso — ou o usuário pode especificar as métricas desejadas, como acurácia em perguntas de raciocínio médico ou melhoria do score de recompensa em relação ao modelo base. O agente então gera um notebook que executa a avaliação e reporta os resultados. Os resultados de avaliação também são distribuídos para o MLflow para comparações antes de avançar para o deploy.

Deploy

Na etapa final, o agente orienta sobre as opções de implantação disponíveis no SageMaker AI e no Bedrock via Bedrock Custom Model Import, dependendo dos requisitos de latência, escalabilidade e integração. Em seguida, gera um notebook que provisiona o endpoint e executa uma requisição de inferência de exemplo para validar se o modelo está pronto para servir previsões.

Customizando as Skills

As Skills incluídas no SageMaker AI cobrem os workflows mais comuns de fine-tuning, mas também é possível customizar Skills existentes ou criar novas para atender aos padrões e ferramentas da organização. Por exemplo, é possível estender a Skill de avaliação de modelos para incluir métricas específicas do domínio ou adicionar uma nova Skill para um target de deploy customizado.

As Skills são definidas em arquivos markdown simples no diretório ~/.kiro/skills, tornando-as fáceis de criar, versionar e compartilhar entre equipes.

Conclusão

A experiência agêntica de customização de modelos no Amazon SageMaker AI está disponível hoje. A partir de um único prompt em linguagem natural, o agente planeja o workflow, configura e executa um job de fine-tuning, avalia os resultados com métricas adequadas ao caso de uso e realiza o deploy do modelo ajustado.

Para começar, basta lançar um espaço JupyterLab no SageMaker Studio com Kiro e Agent Skills pré-configurados — ou trazer as mesmas Skills para o IDE preferido a partir do repositório no GitHub. Consulte também a documentação oficial para entender como a customização serverless de modelos com Agent Skills pode acelerar o caminho da ideia até modelos em produção.

O que antes exigia meses de trabalho especializado em ML agora pode ser concluído em dias. A expertise está codificada, o workflow é guiado e o código gerado pertence integralmente ao desenvolvedor.

Fonte

Agent-guided workflows to accelerate model customization in Amazon SageMaker AI (https://aws.amazon.com/blogs/machine-learning/agent-guided-workflows-to-accelerate-model-customization-in-amazon-sagemaker-ai/)

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *