Por que customizar modelos de linguagem?
Modelos de linguagem grandes (LLMs) revolucionaram a forma como interagimos com inteligência artificial. Porém, a realidade empresarial mostra que uma abordagem genérica raramente atende completamente às necessidades específicas das organizações. Os LLMs tradicionais chegam ao mercado treinados com conhecimento amplo e generalista, otimizados para diversos casos de uso. Ainda assim, frequentemente ficam aquém quando enfrentam tarefas específicas de domínio, fluxos de trabalho proprietários ou requisitos únicos de negócio.
As empresas cada vez mais precisam de modelos especializados que entendam profundamente seus dados proprietários, processos empresariais e terminologia específica do seu segmento. Sem essa personalização, restam apenas duas opções desconfortáveis: aceitar respostas genéricas ou gastar recursos excessivos com engenharia de contexto para melhorar as saídas.
Opções de customização disponíveis na AWS
A AWS estruturou suas capacidades de customização em diferentes níveis. Através do Amazon Bedrock, oferece opções como Treinamento Fine-Tuning Supervisionado (SFT) e Treinamento Fine-Tuning Reforçado (RFT). Já o Amazon SageMaker AI adiciona capacidades ainda mais avançadas, incluindo SFT, Otimização de Preferência Direta (DPO), RFT e suporte tanto para adaptação de baixo rank (LoRA) quanto customização de rank completo.
Conforme modelos são ajustados em datasets especializados, emerge um desafio técnico conhecido: frequentemente perdem capacidades base como habilidade de seguir instruções, raciocínio lógico e conhecimento amplo. Esse fenômeno é denominado esquecimento catastrófico. A Amazon Nova Forge oferece uma solução inovadora, permitindo construir modelos personalizados usando a família Nova a partir de checkpoints iniciais de modelo, blendando dados proprietários com dados curados pela AWS e hospedando tudo de forma segura na plataforma.
O desafio da complexidade e a resposta do Nova Forge SDK
Embora as opções de customização sejam poderosas, os fluxos de trabalho envolvem complexidade significativa. Exigem expertise técnica em infraestrutura, configuração de receitas específicas, seleção adequada de imagens e gerenciamento minucioso de dependências. Essa complexidade representa uma barreira real para muitas equipes interessadas em customização.
Para remover esses obstáculos, a AWS lançou o Nova Forge SDK. Trata-se de um kit de desenvolvimento desenhado para tornar a customização de LLMs acessível e empoderador, permitindo que equipes aproveitem todo o potencial dos modelos de linguagem sem lidar com gerenciamento de dependências, seleção de imagens ou configuração de receitas. A ferramenta reduz significativamente as barreiras de entrada para customização profissional.
A AWS visualiza a customização como um continuum dentro da escada de escalabilidade. Nesse contexto, o Nova Forge SDK suporta todas as opções de customização disponíveis, desde o Amazon Bedrock até o Amazon SageMaker AI, utilizando as capacidades Amazon Nova Forge.
Arquitetura e componentes do Nova Forge SDK
O toolkit do Nova Forge SDK representa um esforço deliberado para remover o trabalho indiferenciado da customização de LLMs. Oferece workflows com padrões inteligentes e orientação, enquanto mantém acesso total aos SDKs subjacentes para casos de uso avançados. O resultado é uma ferramenta que equilibra simplicidade para tarefas comuns com flexibilidade completa para requisitos sofisticados.
O SDK organiza-se em três camadas conceituais, cada uma com responsabilidades distintas:
Camada de Entrada: Aqui você fornece os insumos necessários. Inclui o objeto RuntimeManager (que define hardware, plataforma e função IAM para permissões), método de treinamento, dados de treinamento, hiperparâmetros personalizados e o modelo escolhido para customização.
Camada Customizadora: Essa camada intermediária recebe os inputs e, nos bastidores, constrói as configurações de receita apropriadas e dispara o job com os valores recebidos.
Camada de Saída: Emite artefatos de saída incluindo logs do Amazon CloudWatch, métricas MLFlow, logs TensorBoard e o artefato final do modelo treinado. Esse modelo pode ser usado para refinamento iterativo adicional ou implantação no Amazon SageMaker AI ou Amazon Bedrock para inferência.

Operacionalmente, o usuário fornece um RuntimeManager configurado, um modelo para customizar e um método de treinamento para um dos métodos de API em um NovaModelCustomizer inicializado. Quando o Customizer é inicializado, especifica-se o local de onde recuperar dados de treinamento, tipicamente um bucket do Amazon S3. Baseado nessas configurações, o modelo Customizer cuida de configurar e iniciar um job do Amazon SageMaker AI para executar a tarefa especificada. Ao término, a tarefa gera artefatos de saída e (para a API “train”) um modelo treinado que você pode referenciar através do SDK ou diretamente via APIs do Amazon SageMaker.
Preparação e configuração inicial
Antes de iniciar o fluxo de customização, existem requisitos de infraestrutura e permissões que precisam estar no lugar.
Dependências fundamentais
O artigo utiliza Jobs de Treinamento do Amazon SageMaker (SMTJ) como plataforma de computação. Note que você não precisa de um cluster Amazon SageMaker HyperPod para acompanhar os fundamentos — se seu interesse está limitado a SMTJ, a configuração de HyperPod é totalmente opcional.
Conta AWS e interfaces de linha de comando
Você precisa de uma conta AWS. Se não possuir uma, siga as instruções de criação. Após isso, instale e configure a Interface de Linha de Comando da AWS (AWS CLI) com suas credenciais. A CLI é usada nas chamadas iniciais de setup, e o Nova Forge SDK compartilha a cadeia de credenciais da AWS CLI. Também é necessário configurar seu acesso à plataforma SageMaker AI, que o SDK usa para oferecer acesso aos modelos Amazon Nova e capacidades de customização.
Funções IAM
Você precisa criar duas funções IAM para trabalhar com o Nova Forge SDK: a função de Usuário e a função de Execução.
Função de Usuário: A função que você assume em sua máquina ao executar o SDK e a AWS CLI. Essa função precisa de permissões para Amazon SageMaker AI (CreateTrainingJob, DescribeTrainingJob), Amazon S3 (leitura/escrita no seu bucket de dados), Amazon CloudWatch Logs (leitura) e IAM (PassRole). Consulte a documentação do SDK para a política completa.
Função de Execução: A função que o Amazon SageMaker AI assume para executar jobs de treinamento em seu nome. Sua política de confiança deve permitir que sagemaker.amazonaws.com a assuma. Para o conjunto completo de permissões recomendadas, consulte a documentação da função de execução do SageMaker. Os pré-requisitos para executar jobs SMTJ incluem instruções detalhadas de setup.
Quotas de serviço
Este artigo utiliza instâncias ml.p5.48xlarge tanto para treinamento quanto avaliação. O Nova Lite 2.0 requer um mínimo de 4 instâncias para treinamento SFT; se executar jobs de treinamento e avaliação concorrentemente, talvez precise de pelo menos 5 instâncias. Solicite quotas suficientes para ml.p5.48xlarge através do console de Quotas de Serviço para Jobs de Treinamento do Amazon SageMaker.
Bucket S3
Crie um bucket do Amazon S3 na mesma região AWS que seus jobs de treinamento (neste artigo usamos us-east-1) e certifique-se que suas funções IAM de usuário e execução possuem acesso de leitura e escrita. Aqui você armazenará dados de treinamento e artefatos de saída.
Amazon SageMaker HyperPod (opcional)
Além dos Jobs de Treinamento do Amazon SageMaker, o Nova Forge SDK também suporta execução em Amazon SageMaker HyperPod. Este artigo não enfatiza customização em SMHP, mas se desejar treinar em HyperPod, deve configurar um cluster com Grupos de Instâncias Restritos (RIGs). Siga as instruções no workshop de setup HyperPod RIG para configurar um cluster adequado para customização Amazon Nova.
Instalação e configuração do ambiente
Após concluir os pré-requisitos, você está pronto para configurar seu ambiente.
Ambiente Python
O Nova Forge SDK requer Python 3.12 ou posterior. Recomenda-se criar um ambiente virtual para isolar dependências:
python3.12 -m venv nova-sdk-env
source nova-sdk-env/bin/activate
# No Windows: nova-sdk-env\Scripts\activate
Instalação do SDK
Instale o SDK com o seguinte comando pip:
pip install amzn-nova-forge
Verifique a instalação importando os módulos principais em um arquivo Python de teste:
from amzn_nova_forge import (
NovaModelCustomizer,
SMTJRuntimeManager,
TrainingMethod,
EvaluationTask,
CSVDatasetLoader,
Model,
)
Módulos principais do SDK
NovaModelCustomizer: A classe primária para interagir com o Nova Forge SDK, contendo métodos core da API e inicialização de configuração de treinamento.
SMTJRuntimeManager: Gerencia a infraestrutura AWS necessária para customização SMTJ, como tipo de instância selecionado e contagem para um job de customização.
TrainingMethod: Uma enumeração dos tipos de treinamento possíveis para configurar um NovaModelCustomizer.
EvaluationTask: Uma enumeração dos tipos de avaliação possíveis para configurar um NovaModelCustomizer.
CSVDatasetLoader: Usado para carregar dados de arquivos CSV para uso no Nova Forge SDK.
Model: Uma enumeração dos modelos Amazon Nova suportados pelo Nova Forge SDK.
Para informações adicionais sobre funcionalidades diferentes do SDK, consulte o documento de especificação. Se usar um agente LLM para trabalho em codificação, você pode ter o agente revisar o arquivo AGENTS.md no repositório para aprender sobre o SDK.
O significado dessa abordagem
A interface unificada do SDK abstrai a complexidade de formatação de dados e configurações específicas de plataforma, permitindo que desenvolvedores foquem no que realmente importa: seus dados, seu domínio e seus objetivos de negócio. Seja começando com fine-tuning em Jobs de Treinamento do Amazon SageMaker ou planejando customização com Amazon SageMaker HyperPod, o SDK oferece uma experiência consistente através de todo o continuum de customização.
Ao remover as barreiras tradicionais para customização de LLMs, requisitos de expertise técnica e investimento de tempo, o Nova Forge SDK capacita organizações a construir modelos que verdadeiramente entendem seu contexto único sem sacrificar as capacidades gerais que tornam modelos de base valiosos. O SDK cuida de configurar recursos de computação, orquestrar todo o pipeline de customização, monitorar jobs de treinamento e implantar endpoints. O resultado é IA empresarial que é tanto especializada quanto inteligente, expert em domínio e amplamente capaz.
Próximos passos
Pronto para customizar seus próprios modelos Nova? Comece com o Nova Forge SDK no GitHub e explore a documentação completa para começar a construir modelos adaptados às suas necessidades empresariais.
Fonte
Introducing Nova Forge SDK, a seamless way to customize Nova models for enterprise AI (https://aws.amazon.com/blogs/machine-learning/introducing-nova-forge-sdk-a-seamless-way-to-customize-nova-models-for-enterprise-ai/)
Leave a Reply