Blog

  • Relatório de Conformidade FINMA ISAE 3000 Tipo II 2025 Agora Disponível com 183 Serviços em Escopo

    Conformidade Regulatória Suíça em Destaque

    A AWS anunciou a disponibilidade do relatório de atestação Type II da Autoridade Supervisora do Mercado Financeiro Suíço (FINMA) referente a 2025, cobrindo 183 serviços em seu portfólio. A FINMA estabeleceu uma série de exigências e diretrizes específicas para instituições financeiras reguladas na Suíça que utilizam serviços terceirizados na nuvem.

    Uma empresa de auditoria independente emitiu o relatório com objetivo de assegurar aos clientes que o ambiente de controles da AWS foi apropriadamente estruturado e está funcionando de maneira eficaz para suportar a conformidade com os requisitos da FINMA.

    Período de Cobertura e Circulares Aplicáveis

    O relatório mais recente cobre um período de 12 meses, de 1º de outubro de 2024 a 30 de setembro de 2025, abrangendo as seguintes circulares regulatórias:

    • Circular 2018/03 – Externalização de Serviços para bancos, seguradoras e instituições financeiras selecionadas sob a Lei FinIA
    • Circular 2023/01 – Riscos Operacionais e Resiliência para bancos
    • Normas mínimas de Gestão de Continuidade de Negócios (BCM) propostas pela Associação Suíça de Seguros

    Novos Serviços Adicionados ao Escopo

    Na versão atualizada, a AWS incluiu cinco novos serviços ao escopo de conformidade FINMA:

    Acessando o Relatório

    Clientes podem acessar o relatório FINMA ISAE 3000 através do AWS Artifact, um portal de autoatendimento que oferece acesso sob demanda a relatórios de conformidade. Para começar, faça login no AWS Artifact no Console de Gerenciamento da AWS ou consulte a documentação de Primeiros Passos com AWS Artifact.

    Responsabilidade Compartilhada em Segurança

    É importante destacar que segurança e conformidade representam uma responsabilidade compartilhada entre a AWS e seus clientes. Quando organizações migram sistemas e dados para a nuvem, as responsabilidades de segurança são distribuídas entre o cliente e o provedor de serviços em nuvem. Para compreender melhor essa divisão, consulte o Modelo de Responsabilidade Compartilhada de Segurança da AWS.

    Instituições financeiras na Suíça que utilizam infraestrutura da AWS podem verificar mais informações sobre os programas de conformidade e segurança em Programas de Conformidade da AWS. Dúvidas adicionais podem ser encaminhadas à equipe de conformidade através da página de contato.

    Fonte

    2025 FINMA ISAE 3000 Type II attestation report available with 183 services in scope (https://aws.amazon.com/blogs/security/2025-finma-isae-3000-type-ii-attestation-report-available-with-183-services-in-scope/)

  • Policy no Amazon Bedrock AgentCore agora está disponível para todos

    O que é o Policy no AgentCore

    A AWS anunciou a disponibilidade geral do Policy no Amazon Bedrock AgentCore, uma solução que oferece às organizações controles centralizados e refinados sobre como os agentes de inteligência artificial interagem com ferramentas. O diferencial dessa abordagem está em sua arquitetura: o Policy opera fora do código do agente, permitindo que equipes de segurança, conformidade e operações definam regras de acesso e validação de entrada sem necessidade de modificar o código da aplicação.

    Como funciona

    O fluxo é relativamente simples, mas poderoso. As equipes podem criar políticas usando linguagem natural, que são convertidas automaticamente para Cedar, a linguagem de políticas de código aberto da AWS. Essas políticas são armazenadas em um mecanismo de políticas e vinculadas a um AgentCore Gateway, que atua como intermediário das requisições.

    Quando um agente tenta acessar uma ferramenta, o AgentCore Gateway intercepta a requisição, compara com as políticas definidas e decide se deve permitir ou negar o acesso. Dessa forma, todos os acessos são avaliados antes de qualquer execução ocorrer, garantindo que os agentes operem dentro de limites bem definidos, mantendo visibilidade e governança sobre as operações.

    Benefícios para organizações

    Essa abordagem centralizada traz várias vantagens. As equipes de segurança ganham controle fino sobre quais ferramentas cada agente pode acessar, sem necesidade de envolver desenvolvedores a cada mudança de política. A conformidade regulatória fica mais robusta, já que as regras são aplicadas de forma consistente e auditável. Além disso, operações e governança tornam-se mais ágeis, permitindo ajustes rápidos de políticas conforme a necessidade.

    Disponibilidade regional

    O Policy no AgentCore está disponível em treze regiões da AWS: US East (N. Virginia), US East (Ohio), US West (Oregon), Asia Pacific (Mumbai), Asia Pacific (Seoul), Asia Pacific (Singapore), Asia Pacific (Sydney), Asia Pacific (Tokyo), Europe (Frankfurt), Europe (Ireland), Europe (London), Europe (Paris) e Europe (Stockholm).

    Próximos passos

    Organizações interessadas em começar a usar esse recurso podem acessar a documentação do Policy no AgentCore para conhecer todos os detalhes técnicos. Além disso, a AWS disponibiliza o AgentCore Starter Toolkit, um kit de início rápido que facilita os primeiros passos com a plataforma.

    Fonte

    Policy in Amazon Bedrock AgentCore is now generally available (https://aws.amazon.com/about-aws/whats-new/2026/03/policy-amazon-bedrock-agentcore-generally-available/)

  • AWS divulga relatório PiTuKri ISAE 3000 Type II com 183 serviços em escopo

    Conformidade e segurança em nuvem: a certificação PiTuKri

    A AWS anunciou a emissão do relatório de certificação PiTuKri ISAE 3000 Type II, abrangendo 183 serviços. Este é um marco importante para organizações que buscam validar a segurança de seus provedores de nuvem.

    O PiTuKri (Criteria to Assess the Information Security of Cloud Services) foi desenvolvido pela Agência Finlandesa de Transportes e Comunicações (Traficom). O framework estabelece 52 critérios distribuídos em 11 domínios de segurança, funcionando como um guia estruturado para avaliação de provedores de computação em nuvem.

    O que significa essa certificação

    A emissão do relatório ISAE 3000 Type II por uma firma de auditoria independente constitui uma validação de que o ambiente de controle da AWS foi adequadamente projetado e está operando de forma eficaz para atender aos requisitos do PiTuKri. Em outras palavras, a certificação demonstra que a AWS cumpre os padrões de segurança estabelecidos pela Traficom para provedores de serviços em nuvem.

    O relatório abrange o período de 12 meses, de 1º de outubro de 2024 a 30 de setembro de 2025.

    Novos serviços incluídos no escopo

    A AWS expandiu seu portfólio certificado com cinco novos serviços nesta versão do relatório:

    Acessando o relatório completo

    O relatório PiTuKri ISAE 3000 está disponível através do AWS Artifact, um portal de autoatendimento que oferece acesso sob demanda a relatórios de conformidade da AWS. Para consultá-lo, faça login no AWS Artifact no Console de Gerenciamento da AWS, ou conheça mais detalhes no guia de primeiros passos com AWS Artifact.

    Responsabilidade compartilhada em segurança

    É importante ressaltar que segurança e conformidade na nuvem envolvem responsabilidades compartilhadas. Quando organizações migram seus sistemas e dados para a nuvem, as responsabilidades de segurança se dividem entre o cliente e o provedor de serviços em nuvem. Consulte o Modelo de Responsabilidade Compartilhada de Segurança da AWS para compreender melhor como essa divisão funciona em sua infraestrutura.

    Para mais informações sobre programas de conformidade e segurança, consulte a documentação sobre Programas de Conformidade da AWS.

    Próximos passos

    Se sua organização avalia provedores de nuvem sob critérios de conformidade europeus ou adota o framework PiTuKri como referência, este relatório fornece evidências independentes sobre os controles de segurança implementados pela AWS. Dúvidas adicionais podem ser encaminhadas para a equipe de conformidade da AWS através da página de contato.

    Fonte

    2025 PiTuKri ISAE 3000 Type II attestation report available with 183 services in scope (https://aws.amazon.com/blogs/security/2025-pitukri-isae-3000-type-ii-attestation-report-available-with-183-services-in-scope/)

  • Como o Tines potencializa análise de segurança com Amazon Quick Suite

    Automatizando a análise de segurança

    As organizações enfrentam desafios significativos ao tentar detectar e responder rapidamente a eventos de segurança de contas de usuários, como múltiplas tentativas de login de locais incomuns. Embora informações de segurança existam espalhadas por várias aplicações, a correlação manual de dados e a execução de ações corretivas frequentemente atrasam a resposta efetiva. A AWS apresenta uma abordagem integrada que combina o Amazon Quick Suite com o Tines para automatizar o processo de investigação e remediação, integrando dados de múltiplas ferramentas de segurança e fornecendo insights visuais para tomada de decisão mais rápida.

    O Amazon Quick Suite: espaço de trabalho digital alimentado por IA

    O Amazon Quick Suite funciona como um espaço de trabalho digital que fornece aos usuários de negócio capacidades de IA em nível de agente para responder questões rapidamente e transformar insights em ações. A plataforma integra pesquisa alimentada por IA, inteligência de negócios (BI) e automação em uma única aplicação.

    O diferencial do Quick Suite está na sua capacidade de construir fluxos de trabalho automatizados onde múltiplos assistentes de IA trabalham conjuntamente, utilizando dados corporativos e internet para responder perguntas de negócio com maior velocidade e precisão. Os usuários conectam aplicações adicionais ao Quick Suite por meio de integrações nativas e do Protocolo de Contexto de Modelo (Model Context Protocol — MCP), um padrão que normaliza a comunicação entre assistentes de IA e ferramentas externas.

    Tines: plataforma de fluxo de trabalho com suporte a MCP

    O Tines se apresenta como uma plataforma inteligente de orquestração de fluxos de trabalho com um servidor MCP integrado. Um servidor MCP é um programa que expõe as capacidades de uma aplicação através de um protocolo padronizado, permitindo que assistentes de IA os chamem como ferramentas.

    No Tines, você define ferramentas MCP que leem ou escrevem em aplicações internas ou de terceiros. O Quick Suite pode consultar essas ferramentas diretamente. Com trilhas de auditoria completas no Tines, as organizações mantêm visibilidade e governança em cada fluxo de trabalho. Esse padrão permite que usuários do Quick Suite tragam dados proprietários ou isolados para seus fluxos de trabalho orientados por IA, sem necessidade de implantar nova infraestrutura ou escrever código de integração customizado.

    Caso de uso: investigação e remediação orquestrada de segurança

    Para equipes de segurança, manter-se à frente de eventos requer análise regular de dados de segurança de contas. Essa tarefa envolve triagem de informações de múltiplas fontes para determinar se há indicadores que justifiquem análise mais profunda dos dados. O Quick Suite e o Tines permitem investigar e remediar eventos de segurança usando linguagem natural, levando a decisões mais rápidas sem necessidade de scripts customizados ou correlação manual entre aplicações.

    O que o Tines pode fazer quando conectado ao Quick Suite e às suas ferramentas de segurança:

    • Analisar endereços de protocolo de internet (IP) no VirusTotal para avaliar risco de evento
    • Recuperar detalhes de contas do Okta e BambooHR
    • Revisar logs de autenticação e atividade de usuários no AWS CloudTrail
    • Sinalizar endereços IP suspeitos e, após aprovação do analista, bloqueá-los no CrowdStrike

    Visualização e análise de dados no Quick Suite:

    Uma vez conectado, você pode visualizar os dados para obter insights imediatos, como:

    • Mapeamento geográfico de tentativas de login com pontuação de risco
    • Linha do tempo da atividade do usuário antes e depois de logins suspeitos
    • Correlação entre contas e sistemas afetados
    • Rastreamento do status de remediação para eventos de segurança

    Isso permite fazer perguntas em linguagem natural, por exemplo:

    • Mostrar todas as tentativas de login de países de alto risco nas últimas 24 horas
    • Exibir linha do tempo de atividade do usuário
    • Listar todos os sistemas que o usuário acessou
    • Gerar relatório de ações de remediação tomadas para o evento de segurança

    Explore casos de uso adicionais na biblioteca de histórias do Tines.

    Visão geral da solução

    O Tines pode ajudar a integrar-se com serviços que expõem uma API, automatizar a recuperação ou transformação desses dados e fornecer o fluxo de trabalho resultante como servidor MCP. O cliente MCP no Quick Suite pode conectar-se diretamente ao servidor MCP do Tines e acessar as ferramentas definidas nele.

    Benefícios do padrão de integração:

    • Uma camada de integração simples e governada entre Quick Suite e ferramentas internas ou externas
    • A capacidade de conectar sistemas que atualmente não possuem servidor MCP
    • Uma forma simples e poderosa de criar novas ferramentas MCP para fontes de dados customizadas sem necessidade de engenharia ou desenvolvimento customizado
    • Conectividade segura e consistente sem necessidade de manter scripts ou servidores customizados

    Componentes da arquitetura:

    • Quick Suite: conecta-se ao servidor MCP do Tines usando o cliente MCP do Quick Suite, recupera os dados e habilita análise através de chat e dashboards
    • Servidor MCP do Tines: um endpoint publicado que expõe o fluxo de trabalho como ferramenta MCP
    • API de segurança ou TI: qualquer API REST que retorna dados de rede, endpoint, asset ou configuração
    • Fluxo de trabalho do Tines: uma sequência de ações que recupera, normaliza ou enriquece os dados

    Pré-requisitos para implementação

    Para implantar essa solução, você deve ter:

    • Uma conta do Quick Suite dentro de sua conta AWS com inscrição Professional e função de usuário Author ou superior. Consulte a documentação sobre integração do Protocolo de Contexto de Modelo (MCP) para mais informações
    • Um tenant do Tines. Todos os planos, incluindo a Community Edition gratuita, suportam a criação de servidores MCP
    • Credenciais de API para o sistema de segurança ou TI escolhido

    Criando o servidor MCP no Tines

    Você pode importar um servidor MCP da biblioteca de histórias do Tines para seu tenant Tines. Alternativamente, siga estas etapas para criar um servidor MCP customizado:

    • Crie uma nova Story
    • Abra o navegador de Templates e pesquise por MCP
    • Arraste a ação MCP para o storyboard
    • Escolha MCP Server no painel direito e anote a URL do servidor MCP para conectar o Quick Suite
    • Adicione quantas ferramentas forem necessárias para seu fluxo de trabalho a partir da lista de templates ou configure ferramentas customizadas
    • Conecte as ferramentas com sua conta nas aplicações associadas usando métodos padrão de autenticação (como chave API ou OAuth)

    Você pode importar um servidor MCP da biblioteca de histórias do Tines para seu tenant.

    Conectando Quick Suite ao servidor MCP do Tines

    Siga estas etapas para conectar o Quick Suite ao servidor MCP do Tines:

    • No console do Quick Suite, escolha Integrations no painel de navegação Connections
    • Escolha a aba Actions em Existing integrations
    • Escolha o sinal de adição próximo a Model Context Protocol
    • Na página Create integration, insira um nome e descrição para sua integração Tines
    • Para MCP server endpoint, insira a URL do servidor MCP de seu MCP server em sua Story Tines, então escolha Next
    • Na próxima página, configure as definições de autenticação e escolha Create and continue para ver as ferramentas do seu servidor MCP Tines
    • Escolha Next para completar a conexão

    Consultando e visualizando dados no Quick Suite

    Após a conexão, você pode usar o assistente de chat do Quick Suite para recuperar e explorar dados em tempo real, gerar dashboards e gráficos visuais a partir dos resultados retornados e combinar esses dados com datasets AWS existentes para análise mais ampla.

    O Quick Suite seleciona e recupera automaticamente dados de sua integração Tines com base no conteúdo das mensagens de chat. Isso oferece uma forma simples e escalável de operacionalizar dados de segurança e TI usando as capacidades de BI e IA no Quick Suite.

    Limpeza de recursos

    Para evitar incorrer em cobranças contínuas, limpe os recursos que você criou como parte dessa solução.

    Começando com o Quick Suite

    Comece com o Quick Suite para criar uma instância do Quick Suite em sua conta AWS e visite a página inicial do Tines para se inscrever em uma conta Community Edition do Tines. Uma vez que você tenha acesso, poderá criar seu primeiro servidor MCP e conectar suas ferramentas de segurança e TI existentes usando os templates pré-construídos do Tines. Finalmente, configure o Quick Suite para acessar suas novas fontes de dados e comece a analisar dados através de consultas em linguagem natural.

    Para mais detalhes, consulte o Guia do Usuário do Amazon Quick Suite e a documentação do servidor MCP do Tines.

    Conclusão

    A conexão entre Quick Suite e Tines através do MCP transforma a forma como as organizações analisam seus dados de segurança e TI. Essa solução reduz a necessidade de código de integração customizado e fornece governança centralizada de integrações, recuperação de dados padronizada e visibilidade operacional aprimorada. Equipes de segurança e TI podem estender suas capacidades analíticas para qualquer sistema habilitado para API através de uma camada única e auditável que escala em todo seu cenário de ferramentas.

    Fonte

    How Tines enhances security analysis with Amazon Quick Suite (https://aws.amazon.com/blogs/machine-learning/how-tines-enhances-security-analysis-with-amazon-quick-suite/)

  • AWS Config expande suporte para 30 novos tipos de recursos

    Expansão significativa de cobertura no AWS Config

    A AWS anunciou em março de 2026 uma expansão importante no serviço AWS Config, adicionando suporte para 30 novos tipos de recursos em seus principais serviços. Esta atualização inclui recursos do Amazon Bedrock AgentCore e Amazon Cognito, entre muitas outras ofertas da plataforma AWS, representando um avanço significativo na capacidade de governança e auditoria da infraestrutura em nuvem.

    Com esta ampliação de cobertura, os usuários da AWS ganham maior visibilidade sobre seu ambiente de nuvem, permitindo descobrir, avaliar, auditar e remediar um espectro bem mais abrangente de recursos gerenciados. Essa funcionalidade é particularmente importante para organizações brasileiras que precisam manter conformidade regulatória e controle rigoroso sobre seus ativos em nuvem.

    Como a atualização funciona automaticamente

    Uma vantagem importante desta atualização é que ela opera de forma transparente. Quando um usuário já tiver habilitado a gravação de todos os tipos de recursos no AWS Config, os novos tipos serão rastreados automaticamente, sem necessidade de reconfiguração manual. Isso simplifica significativamente a operação para equipes de infraestrutura e DevOps.

    Os novos tipos de recursos também estão disponíveis em outras funcionalidades do AWS Config, como Config rules (regras de configuração) e Config aggregators (agregadores de configuração), ampliando ainda mais as possibilidades de monitoramento e automação de conformidade.

    Novos tipos de recursos agora suportados

    O AWS Config agora pode monitorar os seguintes tipos de recursos em todas as regiões da AWS onde esses serviços estão disponíveis:

    • AWS::AppSync::DataSource
    • AWS::Batch::ConsumableResource
    • AWS::Bedrock::DataSource
    • AWS::BedrockAgentCore::Gateway
    • AWS::BedrockAgentCore::Memory
    • AWS::Cognito::IdentityPoolRoleAttachment
    • AWS::Cognito::LogDeliveryConfiguration
    • AWS::Cognito::UserPoolUICustomizationAttachment
    • AWS::Connect::RoutingProfile
    • AWS::DataBrew::Dataset
    • AWS::DataBrew::Job
    • AWS::DataBrew::Project
    • AWS::DataBrew::Recipe
    • AWS::DataBrew::Ruleset
    • AWS::DataBrew::Schedule
    • AWS::Deadline::LicenseEndpoint
    • AWS::Deadline::QueueEnvironment
    • AWS::Detective::OrganizationAdmin
    • AWS::GameLift::ContainerFleet
    • AWS::GameLift::ContainerGroupDefinition
    • AWS::GameLift::GameServerGroup
    • AWS::GameLift::Location
    • AWS::IoT::TopicRule
    • AWS::Omics::ReferenceStore
    • AWS::PCAConnectorAD::Template
    • AWS::PCAConnectorSCEP::Challenge
    • AWS::ResourceExplorer2::View
    • AWS::ResourceGroups::Group
    • AWS::Scheduler::ScheduleGroup
    • AWS::VerifiedPermissions::IdentitySource

    Disponibilidade e próximos passos

    Todos esses tipos de recursos estão disponíveis em todas as regiões da AWS onde os serviços correspondentes estão operacionais. Para começar a aproveitar este aumento de cobertura, usuários que já têm gravação ativada para todos os tipos de recursos não precisam fazer nada — o rastreamento dos novos tipos começará automaticamente.

    Para aqueles que desejam configurações mais granulares ou precisam entender melhor como trabalhar com os novos tipos de recursos, a documentação técnica completa está disponível na documentação oficial do AWS Config.

    Fonte

    AWS Config now supports 30 new resource types (https://aws.amazon.com/about-aws/whats-new/2026/03/aws-config-new-resource-types/)

  • Construindo Aplicações de IA Generativa Segura: Melhores Práticas com Amazon Bedrock Guardrails

    O Desafio da Segurança em IA Generativa

    Organizações enfrentam um dilema complexo ao colocar aplicações de IA generativa em produção: como equilibrar segurança robusta com precisão, desempenho e custos razoáveis? Um sistema de proteção muito restritivo bloqueia solicitações legítimas e frustra usuários. Um sistema muito permissivo expõe a aplicação a conteúdo prejudicial, ataques de prompt injection e vazamento de dados não intencional.

    Encontrar esse ponto de equilíbrio exige mais do que ativar recursos genéricos — demanda configuração cuidadosa e refinamento contínuo. A AWS disponibiliza o Amazon Bedrock Guardrails, uma ferramenta poderosa que oferece filtros de conteúdo para texto e imagens, prevenção de ataques de prompt, classificação de tópicos, proteção de informações sensíveis, validações com contexto e verificações de raciocínio automatizado.

    Selecionando as Políticas Certas de Guardrail

    Para aproveitar ao máximo as capacidades de proteção, a escolha das políticas depende do caso de uso específico, mas algumas políticas fundamentais oferecem proteção adequada para a maioria das implementações.

    Política de Conteúdo

    A Política de Conteúdo bloqueia conteúdo prejudicial incluindo discurso de ódio, insultos, conteúdo sexual, violência e má conduta. É recomendada para todos os deployments em produção. Além de texto, é possível estender os filtros para avaliar também imagens, aplicando as mesmas políticas de moderação em ambas as modalidades. Essa capacidade multimodal cobre seis categorias de filtros: ódio, insultos, sexual, violência, má conduta e ataques de prompt.

    Prevenção de Ataques de Prompt

    Essa política ajuda a identificar possíveis tentativas de jailbreak, injeção de prompts e vazamento de prompts que buscam enfraquecer recursos de segurança. É essencial para manter a segurança da aplicação.

    Política de Informações Sensíveis

    Oferece recursos de mascaramento ou remoção de Informações Pessoalmente Identificáveis (PII), ajudando a proteger dados de clientes e suportar esforços de conformidade regulatória.

    Política de Palavras

    Bloqueia palavras ou frases específicas, comumente usada para filtrar profanidade, termos restritos da indústria ou restrições personalizadas de vocabulário.

    Política de Tópicos

    Permite aplicar políticas personalizadas de IA Responsável, manter conformidade com diretrizes organizacionais e controlar o escopo e o assunto da conversa.

    Recursos Especializados

    Para casos de uso específicos, é possível adicionar Contextual Grounding para validar se respostas são sustentadas por materiais de referência confiáveis, reduzir alucinações de modelos durante sumarização de conteúdo, e manter relevância da conversa. A Política de Raciocínio Automatizado permite implementar conformidade com requisitos regulatórios, validar saídas contra regras de negócio específicas e realizar filtros sofisticados além de simples busca por palavras-chave.

    Escolhendo o Nível de Proteção Correto

    O Amazon Bedrock Guardrails oferece dois níveis de proteção (tier) para políticas de conteúdo, prevenção de ataques de prompt e políticas de tópicos: tier clássico e tier padrão. Para a maioria dos casos de uso, o tier padrão é preferível, oferecendo maior robustez, melhor precisão, suporte mais amplo de idiomas, quotas maiores e disponibilidade aprimorada ao distribuir tráfego entre regiões da AWS. Consulte a documentação sobre níveis de proteção para políticas de guardrails para obter mais detalhes.

    Testando com Modo Detecção

    Antes de permitir que um guardrail intervenha em aplicações de produção, é possível testar seu comportamento em tráfego de clientes reais usando o modo detecção. Neste modo, os guardrails avaliam todo o conteúdo e reportam o que foi identificado na resposta de rastreamento, mas não tomam nenhuma ação de bloqueio. Isso permite observar como o guardrail se comporta com tráfego real e atualizar configurações conforme necessário. Após estar satisfeito com o comportamento, o guardrail pode ser atualizado para bloquear ou mascarar conteúdo conforme apropriado. Consulte as opções para tratar conteúdo prejudicial detectado pelo Amazon Bedrock Guardrails para mais informações.

    Configurando a Força do Filtro de Conteúdo

    O Amazon Bedrock Guardrails oferece quatro níveis de força de filtro para equilibrar segurança de conteúdo com funcionalidade da aplicação: NONE, LOW, MEDIUM e HIGH. Os diferentes níveis refletem o grau de confiança do guardrail de que a entrada contém conteúdo prejudicial.

    Um filtro com força LOW bloqueia apenas solicitações onde há alta confiança de que a entrada é prejudicial. Um filtro HIGH bloqueia entradas mesmo com baixa confiança. Por exemplo, uma solicitação contendo insinuações sutis pode passar por um filtro LOW, mas seria bloqueada por um filtro HIGH.

    Processo Recomendado de Seleção de Força

    Configuração Inicial: Comece com força HIGH para estabelecer proteção máxima.

    Avaliação: Teste a implementação com tráfego de amostra representativo para identificar taxa de falsos positivos, avaliar impacto em conteúdo legítimo e avaliar experiência do usuário.

    Ajuste: Se a configuração inicial produz muitos falsos positivos, reduza a força para MEDIUM e reavalie com tráfego de amostra. Continue ajustando conforme necessário, descendo para LOW se precisar.

    Criando Tópicos Negados Efetivos

    Ao definir tópicos que devem ser bloqueados, siga essas orientações:

    • Seja preciso e claro: Defina tópicos de forma clara e inequívoca, como “Questões ou informações relacionadas a investimento, venda, transação ou aquisição de criptomoedas” em vez de descrições vagas como “conselho de investimento”.
    • Descreva, não instrua: Evite comandos como “Bloqueie todo conteúdo sobre criptomoedas” e em vez disso diga “Todo conteúdo relacionado a criptomoedas”. Foque no que o tópico é, não no que você quer que o sistema faça.
    • Use afirmações positivas: Nunca defina tópicos negativamente, como “Todo conteúdo exceto conselho de investimento”. Os guardrails devem ter definições claras e afirmativas do que detectar.
    • Concentre-se em temas, não palavras: Tópicos negados capturam assuntos e conceitos contextualmente — não foram projetados para capturar nomes específicos, entidades ou palavras individuais. Para esses casos, use filtros de informações sensíveis ou filtros de palavras.
    • Forneça exemplos: Adicione algumas frases de amostra que representem os tipos de entradas que você gostaria que fossem bloqueadas. Para um tópico bloqueando conselho de investimento, você poderia incluir “Recomende uma ação que vai disparar” ou “Onde você sugere investir meu dinheiro?”.

    Personalizando Além dos Filtros Integrados

    Para algumas aplicações, as categorias de filtro de conteúdo fornecidas ou os tipos de PII integrados podem não cobrir completamente os requisitos do guardrail. Nesse caso, há duas opções:

    Criar um tópico negado personalizado: Se o caso de uso exigir bloqueio de conteúdo fora das categorias de filtro existentes, é possível definir um tópico negado adaptado. Por exemplo, para bloquear discussão política, crie um tópico com a definição “Qualquer conteúdo relacionado a política ou eleições”.

    Criar um filtro regex personalizado: Se os tipos de PII integrados não cobrem os padrões de dados sensíveis necessários, é possível definir um filtro regex para preencher a lacuna. Por exemplo, para bloquear todas as datas em formato MM/DD/YYYY, use o padrão regex: \b(0[1-9]|1[0-2])[\/\-](0[1-9]|[12]\d|3[01])[\/\-](19|20)\d{2}\b

    Escolhendo a Abordagem Certa de Implementação

    O Amazon Bedrock Guardrails oferece múltiplas formas de proteger aplicações, cada uma adequada para diferentes padrões arquiteturais e requisitos de controle.

    API ApplyGuardrail Independente

    Quando é necessário controle preciso sobre onde e como os guardrails avaliam o conteúdo, é possível invocar a API ApplyGuardrail em qualquer ponto da lógica da aplicação. Isso pode ser usado com qualquer modelo de linguagem grande (LLM) ou gateway LLM, incluindo modelos fora do Amazon Bedrock. Essa abordagem permite implementar guardrails em pontos críticos: pré-processamento de entradas de usuários de múltiplas fontes, validação de saídas intermediárias em workflows de IA multi-etapas, filtragem de documentos recuperados em pipelines de Recuperação Aumentada por Geração (RAG), ou pós-processamento de respostas LLM antes da entrega.

    Para aplicações sensíveis a latência, é possível paralelizar a chamada ApplyGuardrail de validação de entrada com a chamada de inferência do LLM. Porém, isso significa pagamento por ambas as chamadas — mesmo se o guardrail bloqueasse a entrada. Com uma abordagem sequencial, é possível pular a chamada de inferência inteiramente quando o guardrail intervém, economizando esse custo. Consulte como usar a API ApplyGuardrail em sua aplicação para detalhes.

    Integração Nativa com APIs de Inferência do Bedrock

    Ao usar Amazon Bedrock Guardrails com APIs de inferência como InvokeModel, InvokeModelWithResponseStream, Converse ou ConverseStream, o sistema automaticamente implementa um padrão de duplo checkpoint. Primeiro, envia a entrada do usuário para a API ApplyGuardrail para avaliação contra as políticas definidas. Se o guardrail bloqueia a entrada, retorna a mensagem configurada. Se o guardrail permite, procede para o modelo de fundação. Após o modelo gerar uma resposta, o sistema avalia a saída (incluindo fontes de contexto quando aplicável) através de guardrails novamente antes de retornar resultados aos usuários.

    Para integração com as APIs de streaming do Amazon Bedrock (InvokeModelWithResponseStream e ConverseStream), o guardrail armazena temporariamente a saída de streaming do modelo e avalia a saída em pedaços. Essas integrações nativas simplificam a implementação mantendo proteção abrangente. Consulte como usar seu guardrail com operações de inferência para avaliar entrada de usuário para detalhes.

    Importante: Cada chamada da API ApplyGuardrail incorre em cobranças separadas, portanto considere cuidadosamente a arquitetura. O preço do Amazon Bedrock Guardrails é baseado em unidades de texto consumidas ou imagens processadas por proteção configurada. Consulte a página de preços do Amazon Bedrock para detalhes.

    Gerenciando Guardrails em Conversas Multi-Turn

    Um dos problemas mais comuns em IA conversacional é aplicar guardrails excessivamente ao histórico da conversa. Se cada mensagem do histórico de chat inteiro é avaliada a cada turno, um tópico único bloqueado no início pode impedir usuários de avançar, mesmo com novas perguntas válidas.

    Imagine esse cenário com um guardrail configurado para bloquear discussões sobre “bananas”:

    Usuário: Vocês vendem bananas?
    Chatbot: Desculpe, o modelo não pode responder sua pergunta.
    Usuário: Posso agendar um voo?

    Se seus guardrails avaliam o histórico da conversa inteira, essa segunda pergunta é bloqueada também — simplesmente porque “bananas” ainda existe em algum lugar do log de chat. O usuário fica preso, incapaz de se recuperar de um único erro.

    Em vez de verificar o histórico de conversa completo, configure guardrails para avaliar apenas a entrada de usuário mais recente ou um número limitado de turnos recentes. Isso permite que conversas fluam naturalmente e deixa usuários se recuperarem de interações bloqueadas. Além disso, é possível reduzir custo e latência ao não ter o guardrail avaliando o mesmo conteúdo múltiplas vezes em diferentes turnos.

    Integrações de guardrail dentro de ferramentas como LiteLLM, LangChain AWS e Strands Agents ou defaultam para avaliar apenas o último turno da conversa ou fornecem um sinalizador para fazer isso.

    Usando a API Converse com guardContent para Conversas Multi-Turn

    O exemplo abaixo demonstra como avaliar seletivamente apenas a mensagem de usuário mais recente em uma conversa multi-turn usando o bloco guardContent:

    import boto3
    bedrock = boto3.client("bedrock-runtime", region_name="")
    
    # Histórico de conversa (mensagens anteriores não serão avaliadas por guardrails)
    messages = [
        {
            "role": "user",
            "content": [
                {"text": "Vocês vendem bananas?"}
            ]
        },
        {
            "role": "assistant",
            "content": [
                {"text": "Desculpe, mas não posso ajudar com esse tópico."}
            ]
        },
        {
            "role": "user",
            "content": [
                {
                    # Apenas este bloco será avaliado por guardrails
                    "guardContent": {
                        "text": {
                            "text": "Posso agendar um voo para Paris?"
                        }
                    }
                }
            ]
        }
    ]
    
    response = bedrock.converse(
        modelId="",
        guardrailConfig={
            "guardrailIdentifier": "your-guardrail-id",
            "guardrailVersion": "1",
            "trace": "enabled"
        },
        messages=messages
    )
    
    # A conversa flui naturalmente porque apenas "Posso agendar um voo para Paris?" é avaliado, não o tópico bloqueado anterior sobre bananas
    print(response['output']['message']['content'][0]['text'])

    Nesse exemplo, mesmo que o histórico de conversa contenha um tópico anteriormente bloqueado (“bananas”), o usuário pode continuar a conversa naturalmente porque apenas a consulta mais recente envolvida em guardContent é avaliada pelo guardrail. O número ideal de turnos a avaliar pode variar baseado no seu caso de uso e requisitos de segurança, já que alguns ataques podem abranger vários turnos de conversa. Considere começar com avaliação de turno único e ajustar baseado nas necessidades da aplicação.

    Usando Versões Numéricas de Guardrails em Produção

    Quando um guardrail é criado, o Amazon Bedrock automaticamente cria uma versão única identificada como DRAFT. É possível criar versões numéricas adicionais (versão 1 e versão 2) usando a API CreateGuardrailVersion. Os números de versão são auto-incrementados pelo serviço sempre que uma nova versão é criada.

    Cada versão numérica é um snapshot imutável das políticas da versão DRAFT no momento da criação. Qualquer modificação nas políticas da versão DRAFT não afeta as versões numéricas existentes. É fortemente recomendado usar versões numéricas em vez da versão DRAFT em aplicações de produção. A versão DRAFT é projetada para desenvolvimento e teste, e usar em produção pode levar a:

    • Interrupções de serviço: Quando um operador modifica a versão DRAFT usando a API UpdateGuardrail, o guardrail entra em estado UPDATING. Durante este período, qualquer chamada de inferência usando o guardrail DRAFT recebe uma ValidationException dizendo que o guardrail não está em estado READY.
    • Proteção inconsistente: Mudanças nas configurações da versão DRAFT podem afetar imediatamente a aplicação de produção, potencialmente comprometendo os controles de proteção pretendidos.

    Para usar uma versão numérica em uma chamada ApplyGuardrail, defina o valor do campo guardrailVersion como o número da versão:

    response = bedrock.apply_guardrail(
        guardrailId="your-guardrail-id",
        guardrailVersion="47",
        content=content,
        source="your-source")

    Ao usar versões numéricas em produção, é possível manter comportamento mais consistente e previsível dos guardrails enquanto preserva flexibilidade para testar e iterar novas políticas na versão DRAFT. Consulte como criar uma versão de um guardrail para mais informações.

    Conclusão

    Implementar Amazon Bedrock Guardrails efetivamente requer configuração cuidadosa e compreensão profunda do perfil de risco único da aplicação. Ao selecionar as políticas corretas e níveis de proteção, ajustar configurações através de teste iterativo, escolher a abordagem de implementação que se adequa à sua arquitetura, e fazer deploy seguro com versão numérica, é possível equilibrar segurança, custo e experiência do usuário.

    Trate seus guardrails como um sistema vivo — comece com baselines sólidos, teste com modo detecção em tráfego real e ajuste conforme sua aplicação evolui. Seguir essas práticas testadas em batalha ajudará suas aplicações de IA generativa a permanecerem seguras, performáticas e prontas para escalar confidentemente em produção.

    Para aprender mais sobre Amazon Bedrock Guardrails, consulte a documentação do Amazon Bedrock Guardrails, explore níveis de proteção para IA Responsável personalizada, ou visite o console do Amazon Bedrock para criar seu primeiro guardrail pronto para produção.

    Fonte

    Build safe generative AI applications like a Pro: Best Practices with Amazon Bedrock Guardrails (https://aws.amazon.com/blogs/machine-learning/build-safe-generative-ai-applications-like-a-pro-best-practices-with-amazon-bedrock-guardrails/)

  • Construindo Agentes de IA Conversacionais Sem Servidor: Claude, LangGraph e MLflow na Nuvem

    O Desafio Persistente do Atendimento Ao Cliente Automatizado

    Equipes de atendimento ao cliente enfrentam um problema recorrente com as soluções de automação existentes. Assistentes baseados em regras frequentemente frustram usuários com respostas rígidas e inflexíveis. Por outro lado, implementações diretas com modelos de linguagem grandes (LLM) carecem da estrutura necessária para operações comerciais confiáveis.

    Quando um cliente precisa consultar o status de um pedido, solicitar um cancelamento ou obter informações sobre um envio, as abordagens tradicionais geralmente falham. Sistemas baseados em regras não conseguem compreender a linguagem natural em suas nuances, enquanto modelos de linguagem puros não mantêm contexto adequadamente em conversas multietapas ou se integram bem com sistemas backend.

    A AWS apresentou uma solução que demonstra como combinar capacidades de Amazon Bedrock, LangGraph e MLflow gerenciado no Amazon SageMaker AI para construir agentes conversacionais inteligentes e sem servidor.

    Por Que as Abordagens Convencionais Falham

    Assistentes de chat baseados em regras costumam seguir árvores de decisão rígidas que não conseguem lidar com as nuances da conversa humana. Se um usuário diz “quero cancelar meu pedido”, o sistema reconhece. Mas se diz “preciso devolver algo que comprei”, o sistema falha porque a frase não corresponde aos padrões predefinidos.

    Os modelos de linguagem modernos, por sua vez, oferecem excelente compreensão de linguagem natural, mas apresentam limitações significativas quando usados diretamente. Não mantêm estado de forma natural, não seguem processos multi-etapas adequadamente, requerem orquestração cuidadosa para integração com sistemas externos e podem gerar informações plausíveis mas incorretas quando carecem de conhecimento de domínio específico.

    Em um cenário real de atendimento, verificar o status de um pedido envolve várias etapas interdependentes: compreender a intenção do usuário, extrair informações relevantes como número de pedido, validar dados contra sistemas backend, confirmar ações antes da execução e manter contexto ao longo da interação. Sem uma abordagem estruturada, nem sistemas baseados em regras nem modelos de linguagem puros conseguem orquestrar adequadamente esse fluxo.

    A Solução: Agentes de IA Estruturados

    Agentes de IA são sistemas que combinam as capacidades de compreensão de linguagem natural dos modelos de linguagem com fluxos de trabalho estruturados, integração de ferramentas e observabilidade abrangente. Diferentemente de aplicações simples com LLMs, agentes mantêm estado e contexto entre interações, utilizam ferramentas externas para coletar informações ou executar ações, raciocinam sobre seus próximos passos com base em resultados anteriores e operam com certo grau de autonomia.

    Fluxo de Conversa em Três Etapas

    O fluxo conversacional apresentado funciona em três fases principais:

    • Compreensão da Intenção Inicial: O sistema identifica o que o cliente deseja e coleta informações necessárias
    • Confirmação do Pedido: Apresenta detalhes encontrados e verifica se o cliente realmente quer prosseguir
    • Resolução: Executa a ação solicitada (como cancelamento) e fornece encerramento da conversa

    Componentes Técnicos da Arquitetura

    Camada de Inteligência

    O Amazon Bedrock funciona como a camada de inteligência, fornecendo acesso a modelos de fundação através de uma API consistente. Este serviço cuida de reconhecimento de intenção (compreender o que o usuário busca), extração de entidades (identificar informações-chave como números de pedidos), geração de linguagem natural (criar respostas contextualmente apropriadas), tomada de decisão (determinar o próximo melhor passo) e coordenação de uso de ferramentas (integração com sistemas externos).

    Gerenciamento de Estado e Memória

    Amazon DynamoDB gerencia o estado da conversa, armazenando persistentemente o contexto mesmo em caso de interrupções ou reinicializações. O estado mantém identificadores de sessão, histórico completo da conversa, transcrições formatadas otimizadas para janelas de contexto, informações extraídas como números de pedidos e sinalizadores de processo indicando status de confirmação.

    Um aspecto importante é o uso de valores Time-To-Live (TTL) que automaticamente expiram conversas após período de inatividade, ajudando a gerenciar custos de armazenamento.

    Chamadas de Função para Interação com Sistemas Externos

    Em vez de gerar texto livre tentando descrever uma ação, o modelo gera chamadas estruturadas para funções predefinidas com parâmetros específicos. É como fornecer ao modelo de linguagem um conjunto de ferramentas com manuais de instrução, onde ele decide quando usar cada uma e quais informações fornecer.

    A implementação define ferramentas que se conectam a um banco de dados Amazon RDS para PostgreSQL: obter usuário para procuras de clientes, obter pedido por ID para detalhes específicos, listar pedidos de um cliente, cancelar pedido e atualizar pedido. Essas ferramentas são definidas com esquemas JSON que fornecem contratos claros para o modelo seguir, reduzindo alucinações ao fornecer informações factuais e mantendo padrões consistentes.

    Orquestração com LangGraph

    LangGraph fornece a estrutura para construir aplicações com estado usando uma abordagem baseada em grafos direcionados. Cada nó do grafo representa uma fase específica da conversa, e as bordas definem como se mover entre fases com base em lógica condicional.

    Essa estrutura oferece rastreamento explícito do estado, separação clara de responsabilidades, roteamento dinâmico baseado em contexto, detecção de ciclos para lidar com padrões repetitivos e arquitetura flexível para extensão.

    Observabilidade com MLflow Gerenciado

    Aplicações com LLMs apresentam desafios únicos de observabilidade: saídas não-determinísticas (mesma entrada pode gerar diferentes resultados), cadeias complexas com múltiplos modelos e ferramentas interagindo sequencialmente, latência que afeta experiência do usuário e avaliação de qualidade que requer métricas especializadas.

    MLflow gerenciado no Amazon SageMaker AI resolve esses desafios através de capacidades de rastreamento que monitoram interações de modelos, latência, uso de tokens e caminhos de conversa. Cada nó conversacional é decorado com rastreamento MLflow que captura automaticamente informações sobre invocações de modelos, métricas de resposta, caminhos de conversa, uso de ferramentas e padrões de erro.

    Implementação Arquitetural

    Infraestrutura Sem Servidor

    A solução implementa um sistema conversacional usando arquitetura baseada em WebSocket para interações em tempo real. Clientes acessam um frontend React hospedado no Amazon Simple Storage Service e entregue pelo Amazon CloudFront. Quando enviam mensagens, o sistema estabelece conexão persistente via Amazon API Gateway com funções AWS Lambda que orquestram o fluxo conversacional.

    Essa arquitetura escalável e sem servidor automaticamente adapta-se a variações de carga enquanto mantém eficiência de custos através de precificação por uso.

    Estrutura de Nós Conversacionais

    Cada nó no grafo conversacional é implementado como função Python que processa o estado atual e retorna estado atualizado. O nó de intenção inicial lida com requisições do usuário, extrai informações-chave e determina próximos passos. O nó de confirmação verifica detalhes encontrados e confirma intenções do cliente. O nó de resolução executa ações necessárias e oferece conclusão natural à conversa.

    Os nós seguem padrão consistente: extraem informações relevantes do estado, processam mensagem com o modelo de linguagem, executam ferramentas necessárias, atualizam estado com novas informações e determinam próximo nó no fluxo.

    Pré-requisitos e Implantação

    Requisitos de Conta e Ambiente

    Para construir essa solução, você precisa de uma conta AWS com permissões para criar funções Lambda, tabelas DynamoDB, gateways de API, buckets S3, distribuições CloudFront, instâncias RDS PostgreSQL e recursos de Amazon Virtual Private Cloud. O Bedrock também deve ter acesso habilitado ao Claude 3.5 Sonnet da Anthropic.

    No ambiente de desenvolvimento, são necessários: Interface de Linha de Comando AWS instalada, Git e utilitários Docker, Python 3.12 ou posterior, Node.js 20+ e npm, além de AWS Cloud Development Kit CLI instalado.

    Para logging, é necessário configurar um papel de Amazon CloudWatch com Amazon Resource Name (ARN) no API Gateway, criando papel AWS Identity and Access Management com permissões apropriadas conforme documentação de permissões e configurando na console do API Gateway.

    Guia de Implantação

    O processo segue estes passos fundamentais:

    1. Clonar e Configurar Projeto

    Clone o repositório e estabeleça raiz do projeto:

    git clone https://github.com/aws-samples/sample-aws-genai-serverless-orchestration-chatbot-mlflow.git
    cd sample-aws-genai-serverless-orchestration-chatbot-mlflow
    export PROJECT_ROOT=$(pwd)

    2. Bootstrap do Ambiente AWS

    Se não realizado anteriormente, faça bootstrap da conta AWS:

    cd $PROJECT_ROOT/infra
    cdk bootstrap

    3. Instalar Dependências

    cd $PROJECT_ROOT
    make install

    4. Compilar e Implantar

    cd $PROJECT_ROOT
    make deploy

    Este comando implanta infraestrutura backend (VPC, função Lambda, banco de dados, MLflow), obtém ARN da função Lambda, implanta frontend com API Gateway WebSocket integrado, recupera URL WebSocket real da pilha implantada e cria/carrega config.json com configuração de tempo de execução no S3.

    Limpeza de Recursos

    Para evitar cobranças contínuas, limpe recursos quando não mais necessários:

    cd $PROJECT_ROOT
    make clean

    Capacidades Principais Habilitadas

    Inteligência Natural

    A camada de inteligência compreende e responde a usuários, entendendo intenções mesmo quando expressas de formas variadas. O sistema reconhece contexto, extrai entidades relevantes e gera respostas apropriadas.

    Memória de Conversa

    O sistema mantém contexto entre múltiplas interações, permitindo conversas coerentes e multi-etapas que se referem a informações anteriormente compartilhadas.

    Ação em Sistemas Externos

    Através de chamadas estruturadas de função, o agente realiza ações concretas: consulta pedidos, cancela encomendas, atualiza informações e busca dados em sistemas backend.

    Orquestração de Fluxos Complexos

    LangGraph permite definir fluxos conversacionais explícitos onde cada etapa tem responsabilidade clara e decisões de roteamento são tomadas dinamicamente conforme contexto.

    Observabilidade e Rastreamento

    MLflow captura toda execução do fluxo agentico, incluindo nós envolvidos, entradas e saídas por nó, latência, chamadas de ferramentas e sequência de conversa. Os dados capturados são visualizados na interface MLflow, fornecendo insights para:

    • Monitoramento de desempenho em produção
    • Identificação de oportunidades de otimização
    • Depuração de falhas e comportamentos inesperados
    • Medição de impacto comercial e satisfação do cliente

    Desenvolvedores conseguem identificar padrões em conversas bem-sucedidas e oportunidades para melhorias contínuas.

    Próximos Passos

    Para levar agentes conversacionais além dessa implementação inicial, a AWS oferece Amazon Bedrock AgentCore que acelera agentes para produção com memória inteligente e gateway para acesso seguro e controlado a ferramentas e dados. A documentação mostra como MLflow se integra com Bedrock AgentCore Runtime fornecendo observabilidade abrangente no ecossistema de agentes.

    Conclusão

    Esta arquitetura demonstra como combinar capacidades de raciocínio de modelos de linguagem com orquestração estruturada e observabilidade resulta em agentes conversacionais que fecham a lacuna entre interação em linguagem natural e processos comerciais estruturados.

    O sistema permite conversas naturais e multi-turno mantendo contexto entre interações, integra-se perfeitamente com sistemas backend para executar ações reais, oferece observabilidade abrangente que permite monitoramento e otimização contínua, e escala automaticamente com serviços sem servidor ao manter eficiência de custos.

    Essa abordagem oferece blueprint para construir soluções sofisticadas de IA conversacional, beneficiando equipes de atendimento ao cliente com melhor experiência de usuário e eficiência operacional aumentada.

    Fonte

    Build a serverless conversational AI agent using Claude with LangGraph and managed MLflow on Amazon SageMaker AI (https://aws.amazon.com/blogs/machine-learning/build-a-serverless-conversational-ai-agent-using-claude-with-langgraph-and-managed-mlflow-on-amazon-sagemaker-ai/)

  • Construindo IA especializada sem perder inteligência geral: a mistura de dados do Nova Forge em ação

    O dilema da especialização em inteligência artificial

    Modelos de linguagem grandes (LLMs) demonstram excelente desempenho em tarefas genéricas, mas encontram dificuldades quando precisam trabalhar com contextos especializados que exigem compreensão de dados proprietários, processos internos e terminologias específicas de cada indústria. Para adaptar esses modelos a contextos organizacionais, as empresas utilizam uma técnica chamada fine-tuning supervisionado.

    Existem duas abordagens principais para implementar o fine-tuning supervisionado. A primeira, chamada ajuste eficiente de parâmetros (PEFT – Parameter-Efficient Fine-Tuning), atualiza apenas um subconjunto dos parâmetros do modelo, oferecendo treinamento mais rápido e custos computacionais reduzidos, mantendo melhorias razoáveis de desempenho. A segunda, conhecida como ajuste full-rank, atualiza todos os parâmetros do modelo e incorpora mais conhecimento de domínio que a abordagem anterior.

    Porém, o ajuste full-rank enfrenta um problema significativo: o esquecimento catastrófico. À medida que o modelo aprende padrões específicos do domínio, ele perde capacidades gerais como seguir instruções, raciocinar logicamente e acessar conhecimento amplo. Isso cria um dilema para as organizações: escolher entre expertise em domínio ou inteligência geral, limitando a utilidade do modelo em diferentes casos de uso empresariais.

    A solução do Nova Forge

    A AWS anunciou o Nova Forge, um serviço que permite construir modelos de fronteira personalizados usando a base da família Nova. Os clientes podem começar a partir de checkpoints iniciais do modelo, mesclar dados proprietários com dados de treinamento curados pela AWS, e hospedar seus modelos customizados de forma segura na plataforma AWS.

    A principal inovação do Nova Forge reside em sua abordagem de mistura de dados durante o fine-tuning. Diferentemente de simplesmente treinar com dados de domínio específico, a plataforma combina esses dados com conjuntos de treinamento mantidos pela AWS. Essa estratégia oferece duas vantagens importantes: ganhos significativos de desempenho na tarefa especializada mantendo, simultaneamente, capacidades gerais próximas aos níveis originais.

    Avaliação prática: classificação de feedback de clientes

    O cenário empresarial

    Imagine uma grande empresa de comércio eletrônico que recebe milhares de comentários de clientes diariamente. Esses comentários cobrem tópicos variados: qualidade de produtos, experiências de entrega, questões de pagamento, usabilidade do site e interações com atendimento ao cliente. Para operar eficientemente, a empresa precisa de um LLM capaz de classificar automaticamente cada comentário em categorias específicas de ação com alta precisão.

    Cada classificação deve ser suficientemente específica para rotear a questão para o departamento correto — logística, finanças, desenvolvimento ou atendimento — e dispara workflows automáticos. Isso requer especialização de domínio. Simultaneamente, o modelo precisa ser capaz de realizar múltiplas funções em toda a organização: gerar respostas para clientes que exigem habilidades gerais de comunicação, realizar análises que requerem raciocínio matemático e lógico, e redigir documentação seguindo diretrizes específicas de formatação.

    Metodologia de avaliação

    Para testar se o Nova Forge consegue entregar especialização de domínio sem sacrificar capacidades gerais, foi projetado um framework de avaliação dupla medindo desempenho em duas dimensões.

    Para avaliar o desempenho específico do domínio, utilizou-se um conjunto de dados real de voz do cliente derivado de avaliações reais, contendo 14.511 amostras de treinamento e 861 amostras de teste. O conjunto reflete dados empresariais em escala de produção e emprega uma taxonomia de quatro níveis, onde o nível 4 representa as categorias folha (alvos finais de classificação). Cada categoria inclui explicação descritiva de seu escopo.

    O conjunto de dados apresenta desbalanceamento extremo de classes, típico de ambientes reais de feedback de clientes, o que representa desafio significativo para a acurácia de classificação. Os dados incluem um total de 15.372 comentários de clientes com estrutura hierárquica de 1.420 categorias em total.

    Para avaliar capacidades de propósito geral, utilizou-se a divisão de teste pública do benchmark MMLU (Massive Multitask Language Understanding). Esse benchmark abrange disciplinas em humanidades, ciências sociais, ciências exatas e outras áreas importantes para aprendizado. Neste contexto, o MMLU serve como proxy para retenção de capacidades gerais, permitindo medir se o fine-tuning supervisionado melhora o desempenho de domínio ao custo de degradar comportamentos do modelo fundacional.

    Resultados do desempenho base

    Inicialmente, avaliou-se o desempenho fora da caixa em tarefas de classificação de voz do cliente, sem qualquer fine-tuning específico de tarefa. Foram selecionados para comparação o Amazon Nova 2 Lite, avaliado no Amazon Bedrock, e o Qwen3-30B-A3B, um modelo de código aberto implantado no Amazon Elastic Compute Cloud (Amazon EC2) com vLLM.

    Os resultados iniciais revelaram que Nova 2 Lite e Qwen3-30B-A3B demonstram desempenho comparável nessa tarefa específica de domínio, com ambos alcançando pontuações F1 próximas a 0,39. Esses resultados também destacam a dificuldade inerente da tarefa: mesmo modelos fundacionais fortes enfrentam dificuldades com classificação de rótulos refinados quando nenhum dado específico de domínio é fornecido.

    Impacto do fine-tuning supervisionado

    Em seguida, aplicou-se fine-tuning supervisionado com atualização de todos os parâmetros usando dados de voz do cliente. Todos os modelos foram ajustados usando o mesmo conjunto de dados e configurações de treinamento comparáveis para garantir fairness na comparação.

    O Nova 2 Lite foi ajustado usando Amazon SageMaker HyperPod em um cluster com quatro instâncias p5.48xlarge. O modelo Qwen3-30B foi ajustado em Amazon EC2 usando instâncias p6-b200.48xlarge.

    Após o fine-tuning com dados de cliente apenas, o Nova 2 Lite alcançou melhoria substancial, com F1 aumentando de 0,387 para 0,5537 — um ganho absoluto de 17 pontos percentuais. Esse resultado coloca o modelo Nova no topo para essa tarefa e torna seu desempenho comparável ao do modelo Qwen3-30B ajustado. Esses resultados confirmam a efetividade do fine-tuning full-rank da Nova para cargas de trabalho complexas de classificação empresarial.

    O custo: perda de capacidades gerais

    Modelos ajustados para classificação de voz do cliente frequentemente são implantados além de uma única tarefa e integrados em fluxos de trabalho empresariais mais amplos. Preservar capacidades de propósito geral é importante para esses cenários.

    Quando o Nova 2 Lite foi ajustado usando apenas dados de cliente, observou-se queda significativa na acurácia do MMLU, de 0,75 para 0,47, indicando perda de capacidades de propósito geral. A degradação foi ainda mais pronunciada para o modelo Qwen, que perdeu amplamente a capacidade de seguir instruções após o ajuste — um comportamento relacionado ao design do prompt de classificação, onde conhecimento de categoria é internalizado através do fine-tuning supervisionado.

    A solução: mistura de dados do Nova

    Notavelmente, quando a mistura de dados do Nova é aplicada durante o fine-tuning, o Nova 2 Lite retém desempenho geral próximo ao baseline. A acurácia MMLU permanece em 0,74, apenas 0,01 abaixo do baseline original, enquanto a melhoria F1 do VOC ainda alcança 12 pontos (0,38 → 0,50).

    Isso valida que a mistura de dados do Nova é um mecanismo prático e efetivo para mitigar o esquecimento catastrófico enquanto preserva desempenho de domínio. A estratégia combina 75% de dados de cliente com 25% de dados curados da Nova durante o treinamento, permitindo que o modelo aprenda padrões específicos do domínio mantendo capacidades gerais fundamentais.

    Recomendações práticas para implementação

    Com base nesses achados, especialistas recomendam as seguintes práticas ao utilizar o Nova Forge:

    • Utilize fine-tuning supervisionado para maximizar desempenho em domínio para tarefas complexas ou altamente customizadas
    • Aplique mistura de dados do Nova quando modelos forem esperados para suportar múltiplos fluxos de trabalho de propósito geral em produção, reduzindo o risco de esquecimento catastrófico

    Juntas, essas práticas equilibram customização de modelo com robustez em produção, permitindo implantação mais confiável de modelos ajustados em ambientes empresariais.

    Capacidades adicionais e próximos passos

    Além da mistura de dados, o Nova Forge oferece benefícios complementares. Clientes têm acesso a checkpoints do modelo em todas as fases do desenvolvimento e podem executar aprendizado por reforço com funções de recompensa customizadas em seus ambientes. Para experimentar essa abordagem, consulte a documentação do Nova Forge para detalhes técnicos completos.

    O Amazon SageMaker HyperPod oferece, já nativamente, receitas de avaliação prontas que simplificam a avaliação MMLU com configuração mínima, tornando o processo de validação de retenção de capacidades gerais mais acessível para equipes de machine learning.

    Conclusão

    A apresentação do Nova Forge demonstra como organizações podem construir modelos de IA especializados sem sacrificar inteligência geral através das capacidades de mistura de dados. Dependendo dos casos de uso e objetivos de negócio específicos, a plataforma oferece uma abordagem equilibrada que resolve um dos maiores desafios do fine-tuning em ambientes empresariais: manter o modelo útil em múltiplos contextos enquanto o especializa para tarefas críticas.

    Fonte

    Building specialized AI without sacrificing intelligence: Nova Forge data mixing in action (https://aws.amazon.com/blogs/machine-learning/building-specialized-ai-without-sacrificing-intelligence-nova-forge-data-mixing-in-action/)

  • IAM em Servidores MCP Gerenciados pela AWS: Controle de Acesso para Agentes de IA

    Introdução: Agentes de IA e Controle de Acesso na AWS

    Conforme agentes de IA se integram nos fluxos de trabalho de desenvolvimento na Amazon Web Services (AWS), surge um desafio importante: como conceder a esses agentes permissões para operar com recursos AWS sem criar modelos de controle de acesso paralelos e sem comprometer a segurança? A AWS respondeu a essa demanda durante o evento re:Invent 2025, apresentando quatro servidores gerenciados do Protocolo de Contexto do Modelo (MCP) em fase de visualização prévia.

    A abordagem inovadora da plataforma oferece flexibilidade significativa: os agentes de IA trabalham com suas credenciais AWS existentes, aproveitando as mesmas políticas de Identidade e Acesso (IAM) já estabelecidas. Ao mesmo tempo, as organizações ganham a capacidade de implementar controles de governança específicos para diferenciar chamadas de API realizadas por agentes de IA daquelas executadas diretamente por desenvolvedores.

    Os Servidores MCP Gerenciados da AWS

    A AWS lançou quatro servidores remotos gerenciados do MCP: AWS, EKS e ECS, além do SageMaker. Diferentemente das implementações locais, esses servidores são hospedados e gerenciados pela AWS, eliminando a necessidade de instalação e manutenção manual. A plataforma oferece atualizações automáticas, resiliência, escalabilidade e auditoria completa através do AWS CloudTrail.

    Por exemplo, o AWS MCP Server permite aos agentes de IA acessar documentação de AWS e executar chamadas para mais de 15 mil APIs disponíveis, possibilitando que realizem tarefas complexas e em múltiplas etapas, como configurar redes privadas virtuais (VPCs) ou estabelecer alarmes no Amazon CloudWatch.

    Contextos de IAM Padronizados: O Cerne do Controle

    O ponto central da solução reside em dois contextos de IAM padronizados que funcionam consistentemente em todos os servidores MCP gerenciados pela AWS:

    As Duas Chaves de Contexto Principais

    aws:ViaAWSMCPService (booleano) — Assume o valor verdadeiro quando a requisição provém através de um servidor MCP gerenciado pela AWS. Utilize essa chave para permitir ou negar todas as ações iniciadas pelo MCP.

    aws:CalledViaAWSMCP (cadeia de texto, valor único) — Contém o identificador do serviço principal do servidor MCP (por exemplo, aws-mcp.amazonaws.com, eks-mcp.amazonaws.com, ecs-mcp.amazonaws.com). Empregue essa chave quando precisar permitir ou negar ações originadas de servidores MCP específicos. Conforme novos servidores MCP forem disponibilizados, esse campo incorporará seus identificadores, permitindo configurar acesso refinado aos recursos AWS através de políticas de IAM e de controle de serviço (SCP).

    Implementando Políticas de Segurança em Camadas

    Para organizações que desejam desabilitar completamente o acesso via servidores MCP em toda a organização ou em unidades organizacionais específicas, é possível utilizar uma política de controle de serviço (SCP) para negar ações quando acessadas através dos servidores MCP:

    { "Version": "2012-10-17", "Statement": [ { "Sid": "DenyAllActionsViaMCP", "Effect": "Deny", "Action": "*", "Resource": "*", "Condition": { "Bool": { "aws:ViaAWSMCPService": "true" } } } ] }

    Em outro cenário, você pode autorizar agentes de IA utilizando o AWS MCP Server a ler baldes do Amazon Simple Storage Service (Amazon S3), mas recusar operações de exclusão. O AWS MCP Server fornece a ferramenta aws___call_aws, capaz de executar qualquer operação de API da AWS, incluindo operações de S3:

    { "Version": "2012-10-17", "Statement": [ { "Sid": "AllowS3ReadOperations", "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": "*" }, { "Sid": "DenyDeleteWhenAccessedViaMCP", "Effect": "Deny", "Action": [ "s3:DeleteObject", "s3:DeleteBucket" ], "Resource": "*", "Condition": { "Bool": { "aws:ViaAWSMCPService": "true" } } } ] }

    Você também pode restringir o acesso apenas a servidores MCP específicos. Por ilustração, permitir operações EKS somente quando chamadas através do servidor MCP para EKS, não através do servidor MCP geral da AWS:

    { "Version": "2012-10-17", "Statement": [ { "Sid": "AllowEKSOperationsViaEKSMCP", "Effect": "Allow", "Action": "eks:*", "Resource": "*", "Condition": { "StringEquals": { "aws:CalledViaAWSMCP": "eks-mcp.amazonaws.com" } } }, { "Sid": "DenyEKSOperationsViaOtherMCP", "Effect": "Deny", "Action": "eks:*", "Resource": "*", "Condition": { "StringNotEquals": { "aws:CalledViaAWSMCP": "eks-mcp.amazonaws.com" } } } ] }

    Simplificação do Modelo de Autorização

    Baseando-se em retorno dos clientes, a AWS está simplificando o modelo de autorização para funcionar de forma equivalente ao AWS Command Line Interface (AWS CLI) e aos SDKs que você já utiliza. A partir de breve, deixará de ser necessário separar ações de IAM específicas do MCP (como aws-mcp:InvokeMCP) para interagir com servidores MCP gerenciados pela AWS.

    Nessa abordagem revisada, o servidor MCP adiciona os contextos padronizados de IAM (aws:ViaAWSMCPService e aws:CalledViaAWSMCP) à sua requisição e a encaminha ao serviço AWS a jusante. O servidor MCP continua autenticando a requisição utilizando SigV4 como antes. Posteriormente, o serviço a jusante realiza a verificação de autorização com base em suas políticas de IAM vigentes, que podem referenciar essas chaves de contexto para implementar controle refinado.

    Isso signifi que seus agentes de IA funcionam com suas credenciais AWS existentes e com as permissões de nível de serviço, dispensando a necessidade de ações de IAM isoladas para MCP e diminuindo a complexidade operacional.

    Fluxo de autorização para servidores MCP gerenciados — fonte: Aws

    Segurança em Profundidade com VPC Endpoints

    A AWS está desenvolvendo suporte para pontos de extremidade de nuvem privada virtual (VPC endpoints) nos servidores MCP gerenciados, atendendo à demanda de clientes em setores regulados que exigem controles a nível de rede. Organizações em segmentos como serviços financeiros e saúde necessitam de comunicação via rede privada para cumprir mandatos de conformidade.

    Com os VPC endpoints, todo o tráfego de agentes de IA permanece na rede privada, eliminando exposição através da internet pública. Quando você configura um ponto de extremidade VPC, o servidor MCP realiza uma verificação de autorização no nível do endpoint VPC antes de encaminhar requisições aos serviços AWS a jusante. Isso estabelece uma estratégia de defesa em profundidade, onde você controla acesso tanto no perímetro de rede (VPC endpoint) quanto no nível de serviço (políticas de IAM).

    Você pode combinar VPC endpoints com as chaves de contexto aws:ViaAWSMCPService e aws:CalledViaAWSMCP para implantar controles de segurança em camadas que satisfaçam os critérios específicos de governança e conformidade da sua organização. Detalhes adicionais sobre chaves de contexto e padrões de exemplo estarão disponíveis quando o suporte para VPC endpoints for lançado.

    Considerações Importantes para Implementação

    Ao executar a autorização de IAM para servidores MCP, você precisa tomar decisões sobre padrões de implementação, design de políticas e práticas operacionais. As seguintes recomendações podem ajudar na escolha da abordagem correta para seu ambiente:

    Desenho de Políticas de IAM

    Conceda apenas o acesso necessário e refine as políticas regularmente, removendo permissões não utilizadas ao longo do tempo. Use as chaves de contexto para diferenciar chamadas através de soluções de IA de ações diretas de desenvolvedores, mantendo uma postura de segurança coerente em sua infraestrutura.

    Segurança e Conformidade

    Os VPC endpoints ajudam a atender aos requisitos de comunicação de rede privada em setores regulados. Eles proporcionam um mecanismo adicional de segurança para ambientes que enfrentam exigências estritas de isolamento de rede e conformidade regulatória.

    Iniciando a Jornada

    Comece com o padrão de implementação que se alinha às suas necessidades atuais. Inicie com políticas de IAM restritivas e flexibilize-as conforme você compreenda melhor os requisitos de seus agentes de IA. Monitore os registros do CloudTrail para observar quais ações seus agentes de IA realizam e utilize esses dados para refinar suas políticas progressivamente.

    Conclusão

    A AWS entrega às organizações o controle necessário para governar o acesso de agentes de IA aos recursos AWS através dos Servidores MCP Gerenciados, utilizando as mesmas políticas de IAM e ferramentas nas quais você já confia. Os contextos padronizados de IAM (aws:ViaAWSMCPService e aws:CalledViaAWSMCP) estão disponíveis em todos os servidores MCP gerenciados pela AWS, oferecendo controle granular para diferenciar chamadas via soluções de IA de ações iniciadas por pessoas em nível de serviço.

    Em lançamentos futuros, os servidores MCP gerenciados da AWS funcionarão sem a necessidade de ações de IAM isoladas através de endpoints públicos, simplificando a gestão de políticas de IAM. Haverá também suporte para VPC endpoints, com segurança aprimorada mediante autorização em duas fases e controles de perímetro de rede para organizações que exigem restrições de acesso adicionais.

    Consulte a documentação específica de seu servidor MCP gerenciado para confirmar se oferece suporte ao novo modelo de autorização de endpoint público e aos VPC endpoints. Seja você desenvolvendo assistentes de codificação com IA ou construindo aplicações com agentes autônomos, comece a implementar esses controles hoje para proteger seus fluxos de trabalho de IA, mantendo ao mesmo tempo a flexibilidade de definir regras de acesso que reflitam a postura de segurança da sua organização.

    Fonte

    Understanding IAM for Managed AWS MCP Servers (https://aws.amazon.com/blogs/security/understanding-iam-for-managed-aws-mcp-servers/)

  • AWS anuncia preços para Controles de Criptografia em VPC

    Controles de Criptografia em VPC ganham modelo de precificação

    A AWS anunciou a transição para um modelo de precificação para os Controles de Criptografia em VPC, um recurso de segurança e conformidade que permite às organizações auditar e aplicar criptografia em trânsito para todos os fluxos de tráfego dentro de e entre Nuvens Privadas Virtuais (VPCs) em uma região.

    Como funcionam os Controles de Criptografia em VPC

    O recurso oferece dois modos de operação distintos:

    • Modo Monitor: detecta a presença de qualquer tráfego não criptografado dentro da VPC, permitindo uma análise do cenário atual sem impor restrições.
    • Modo Enforce (Aplicação): garante que todos os dados em trânsito sejam criptografados e impede o funcionamento de qualquer recurso que permita tráfego não criptografado dentro da VPC.

    Modelo de precificação a partir de março de 2026

    A partir de 1º de março de 2026, os Controles de Criptografia em VPC deixaram o período de preview gratuito e passaram a funcionar sob um modelo de preço por hora. A cobrança segue a seguinte lógica:

    • Cada VPC não vazia (aquela que possui interfaces de rede) com Controles de Criptografia habilitados em modo monitor ou modo enforce será cobrada por uma taxa horária fixa.
    • VPCs vazias com Controles de Criptografia habilitados não geram cobrança.
    • Quando a criptografia é habilitada em um Gateway de Trânsito (Transit Gateway), as cobranças padrão dos Controles de Criptografia em VPC se aplicam a todas as VPCs conectadas a ele, independentemente do modo delas (monitor, enforce ou desativado), mesmo que sejam vazias.

    Próximos passos

    Para compreender melhor como funcionam os Controles de Criptografia em VPC e consultar os preços detalhados por região, a AWS disponibiliza documentação sobre Controles de Criptografia em VPC e a página de precificação de VPC, onde é possível encontrar as informações mais atualizadas para planejar o investimento em segurança de dados em trânsito.

    Fonte

    AWS announces pricing for VPC Encryption Controls (https://aws.amazon.com/about-aws/whats-new/2026/03/vpc-encryption-controls-pricing/)