Blog

  • Melhoria de postura de segurança na era da IA

    O contexto: IA acelerou o jogo, mas os fundamentos continuam sendo a base

    Há poucas semanas, a Anthropic anunciou o modelo Claude Mythos Preview e lançou o Project Glasswing em parceria com a AWS e outras organizações de referência no setor. O movimento gerou bastante debate sobre o futuro da cibersegurança e o que o avanço contínuo dos modelos de fundação significa para as empresas na prática.

    Nesse contexto, a AWS publicou um artigo destacando um ponto central: independentemente de onde a IA vai chegar, as organizações que não tiverem os fundamentos de segurança bem estabelecidos simplesmente não conseguirão reagir com agilidade às mudanças. E velocidade de resposta, na segurança, é tudo.

    Para quem quiser se aprofundar na visão da AWS sobre como construir defesas de IA em escala, vale conferir o post Construindo defesas de IA em escala: antes das ameaças emergirem.

    O problema real: a lacuna de higiene de segurança

    É tentador achar que os elementos básicos de segurança já estão cobertos. Mas, na prática, casos de uso fundamentais — como gestão de identidade, detecção de ameaças, gestão de vulnerabilidades, proteção de dados e segurança de rede — costumam ser implementados de forma inconsistente em ambientes de nuvem.

    A AWS reforça que, enquanto a IA redesenha o cenário de segurança, os fundamentos continuam sendo essenciais para qualquer organização, independentemente do tamanho ou setor. São eles:

    • Aplicar patches de forma consistente
    • Enforçar acesso com privilégio mínimo
    • Habilitar logging e monitoramento
    • Criptografar dados em repouso e em trânsito
    • Revisar configurações de segurança regularmente

    Com esses fundamentos estabelecidos, a organização fica muito melhor posicionada para aproveitar ferramentas orientadas por IA e responder rapidamente a vulnerabilidades recém-descobertas.

    Para ajudar nessa jornada, a AWS disponibiliza gratuitamente materiais como o AWS Well-Architected Framework, que orienta as perguntas certas e ajuda a implementar melhorias no ambiente. Além disso, existe um programa específico para isso: o SHIP.

    O que é o SHIP?

    O Programa de Melhoria de Saúde em Segurança (SHIP) é um programa gratuito disponível para todos os clientes AWS, independentemente do nível de suporte contratado. Ele oferece uma metodologia comprovada e orientada por dados para:

    • Avaliar a postura de segurança atual usando dados do próprio ambiente AWS do cliente
    • Identificar oportunidades específicas de melhoria em 10 casos de uso principais de segurança
    • Construir um plano de ação priorizado e adequado ao contexto da organização
    • Estabelecer um mecanismo de melhoria contínua de segurança

    O programa é conduzido por Arquitetos de Soluções e Gerentes Técnicos de Conta da AWS, que guiam o cliente por um relatório personalizado, contextualizam as descobertas para o ambiente específico e ajudam a montar um plano de ação com prioridades claras.

    Por que o SHIP importa na era da IA?

    O Project Glasswing evidencia uma mudança importante: ferramentas com IA estão acelerando o ritmo de descoberta de vulnerabilidades. Isso significa que as organizações precisam estar preparadas para avaliar e responder a novas descobertas muito mais rápido do que antes.

    Além dos fatores externos, à medida que as empresas adotam IA — seja implantando modelos de fundação, construindo fluxos de trabalho agênticos ou usando serviços com IA embutida — a forma como implementam seus controles de segurança também precisa evoluir. Uma base sólida de segurança é o que torna a adoção confiante de IA possível.

    Corrigir lacunas de segurança de forma proativa

    O SHIP utiliza metodologia orientada por dados para identificar oportunidades de melhoria em 10 casos de uso principais de segurança: detecção de ameaças, gestão de postura de segurança em nuvem, testes de segurança de aplicações, gestão de configuração, governança de acesso, gestão de vulnerabilidades, proteção de aplicações, segurança de rede, criptografia e gestão de segredos.

    O programa inclui uma avaliação SHIP para identificar descobertas críticas relacionadas à postura de segurança atual, permitindo que a equipe construa um roteiro de melhoria priorizado e adequado ao ambiente.

    Estabelecer a linha de base de segurança que workloads de IA exigem

    Antes de implantar o primeiro modelo no Amazon Bedrock ou construir fluxos de trabalho agênticos com o Amazon Bedrock AgentCore, é necessário ter confiança de que a infraestrutura subjacente segue as boas práticas de segurança. O SHIP usa dados reais do ambiente do cliente para fornecer orientações prescritivas e específicas, em vez de recomendações genéricas.

    Isso é especialmente relevante à medida que ferramentas de descoberta de vulnerabilidades baseadas em IA se tornam mais amplamente disponíveis: organizações com bases sólidas conseguirão agir sobre novas descobertas de forma rápida e eficaz.

    Construir um mecanismo de melhoria contínua de segurança

    À medida que as capacidades de IA evoluem, as organizações se beneficiam de ter um processo repetível para avaliar e fortalecer sua postura de segurança ao longo do tempo. O SHIP estabelece a metodologia e os mecanismos para que a equipe avalie, priorize e melhore continuamente. Ao construir essa capacidade operacional, a organização fortalece sua habilidade de se adaptar e contribui para a resiliência mais ampla do setor.

    Como começar com o SHIP

    O programa está disponível hoje, sem custo, para todos os clientes AWS. Há três caminhos para dar o primeiro passo:

    • Fale com o time de conta AWS. Solicite o agendamento de um engajamento SHIP diretamente ou acesse a página do SHIP para fazer a solicitação.
    • Participe de um SHIP Activation Day. A AWS realiza regularmente workshops práticos onde é possível executar a avaliação SHIP com Arquitetos de Soluções e começar a construir o plano de melhoria.
    • Explore a documentação prescritiva. Consulte o AWS Well-Architected Framework – Security Lens para documentação, arquiteturas de referência e guias de implementação disponíveis para uso imediato.

    Conclusão

    O recado da AWS é claro: a IA está acelerando tanto as capacidades de ataque quanto as de defesa, e as organizações que já tiverem seus fundamentos de segurança bem estabelecidos sairão na frente. O SHIP é uma oportunidade concreta — e gratuita — de fazer essa avaliação com apoio especializado, construir um plano priorizado e criar um ciclo de melhoria contínua.

    Para quem está pensando em adotar workloads de IA na AWS, esse é um passo que vale ser dado antes, não depois. Acesse a página de recursos do SHIP para saber mais.

    Fonte

    Security posture improvement in the AI era (https://aws.amazon.com/blogs/security/security-posture-improvement-in-the-ai-era/)

  • Novo Guia de Conformidade: Gestão de Riscos ISO 31000:2018 na AWS

    O que foi anunciado

    O AWS Security Assurance Services acaba de publicar um novo guia de conformidade: o ISO 31000:2018 Risk Management on AWS Compliance Guide. O material foi desenvolvido para ajudar organizações que desejam estruturar ou aprimorar seus programas de gestão de riscos em ambientes AWS, seguindo os princípios da norma ISO 31000:2018.

    Trata-se de um recurso prático — não apenas teórico — que mostra como integrar os serviços AWS aos processos de gestão de riscos já existentes nas empresas.

    O que o guia cobre

    O documento está estruturado em torno dos componentes centrais da ISO 31000:2018 e explica como os recursos da AWS podem dar suporte a cada um deles:

    • Estabelecimento de contexto e critérios: como definir o escopo e os parâmetros do programa de riscos dentro do ambiente AWS.
    • Avaliação de riscos: como usar os serviços da AWS para identificar, analisar e priorizar riscos.
    • Tratamento de riscos: estratégias práticas de mitigação, transferência, aceitação e eliminação de riscos, com apoio das ferramentas disponíveis na plataforma.
    • Monitoramento e revisão contínuos: como as capacidades de automação e monitoramento da AWS ajudam a manter a visibilidade operacional e a prontidão para conformidade ao longo do tempo.

    Governança e o Modelo de Responsabilidade Compartilhada

    Um ponto de destaque do guia é a conexão com o Modelo de Responsabilidade Compartilhada da AWS. O documento apresenta considerações de governança e tratamento de riscos alinhadas a esse modelo, deixando claro o que é responsabilidade da AWS e o que cabe ao cliente gerenciar — algo fundamental para qualquer programa de conformidade bem estruturado.

    Por que isso importa para equipes brasileiras

    A ISO 31000 é uma norma internacional amplamente adotada por organizações que precisam demonstrar maturidade em gestão de riscos — seja para auditorias internas, exigências regulatórias ou certificações. Ter um guia específico para ambientes AWS simplifica bastante o trabalho de times de segurança, compliance e arquitetura que precisam mapear como os controles da nuvem se encaixam no framework de riscos da empresa.

    Ao combinar os princípios da ISO 31000 com os serviços de segurança da AWS, as organizações conseguem construir ambientes escaláveis e automatizados que suportam a identificação contínua de riscos, o tratamento proativo de ameaças e a visibilidade operacional necessária para manter a conformidade.

    Como acessar

    O guia está disponível gratuitamente para download. Acesse o ISO 31000:2018 Risk Management on AWS Compliance Guide diretamente pelo site da AWS. Para suporte adicional ou dúvidas sobre implementação, o AWS Security Assurance Services pode ser acionado diretamente.

    Fonte

    Announcing the ISO 31000:2018 Risk Management on AWS Compliance Guide (https://aws.amazon.com/blogs/security/announcing-the-iso-310002018-risk-management-on-aws-compliance-guide/)

  • AWS Transform agora automatiza migração de BI para o Amazon QuickSight em dias

    Migrar dashboards de BI sem perder o que foi construído ao longo dos anos

    Quem trabalha com ferramentas de Inteligência de Negócios (BI) legadas sabe o valor que está embutido em cada dashboard: campos calculados refinados pelos analistas, layouts que os executivos consultam toda semana, regras de segurança ajustadas à estrutura organizacional. Migrar tudo isso parece assustador — e, até pouco tempo atrás, era mesmo: estimativas de meses de trabalho, risco de perda de lógica analítica e alto custo de engenharia.

    A AWS anunciou que o AWS Transform agora automatiza a migração de ferramentas de BI legadas para o Amazon QuickSight, com potencial de reduzir esse processo de meses para dias. A novidade expande o escopo do AWS Transform, que já era usado para modernizar aplicações mainframe, ambientes VMware, cargas de trabalho Windows e SQL Server.

    Por que sair das ferramentas de BI legadas?

    Além das licenças, manter uma plataforma de BI tradicional gera custos operacionais que consomem tempo e energia da equipe de dados. A AWS aponta três pressões principais que as organizações enfrentam ao persistir em soluções legadas:

    • Infraestrutura que desvia o foco: atividades como patching, escalonamento e monitoramento de servidores tomam tempo que poderia ser dedicado à geração de insights. O Amazon QuickSight é serverless e totalmente gerenciado, eliminando o planejamento de capacidade e as janelas de manutenção.
    • Ausência de IA nativa: ferramentas tradicionais de BI exigem engenharia customizada para suportar respostas baseadas em Inteligência Artificial (IA). O QuickSight inclui capacidades nativas de IA que permitem às equipes fazer perguntas em linguagem natural e automatizar fluxos de trabalho diretamente dos dashboards.
    • Lentidão nas respostas: provisionamento de capacidade, gerenciamento de extrações e troubleshooting de performance criam gargalos. O mecanismo de memória em memória SPICE do QuickSight entrega performance de consultas em frações de segundo, e dashboards podem ser publicados diretamente em aplicações próprias por meio das APIs de análise embarcada.

    Para quem quiser explorar o que o Amazon QuickSight oferece antes de iniciar uma migração, a AWS disponibiliza um guia de introdução ao Amazon QuickSight.

    Como o AWS Transform viabiliza a migração de BI

    O AWS Transform é descrito pela AWS como uma bancada colaborativa de transformação de TI empresarial, impulsionada por agentes especializados, sistemas de IA agêntica e aprendizado contínuo. Para a migração de BI, a AWS firmou parceria com a Wavicle Data Solutions, parceira avançada de consultoria AWS, que integrou seus agentes EZConvertBI diretamente na plataforma.

    A Wavicle disponibiliza quatro agentes especializados para compra no AWS Marketplace: um agente Analisador e um agente Conversor para cada ferramenta de origem — Power BI e Tableau. Juntos, esses agentes entregam uma experiência de migração guiada, baseada em chat, inteiramente dentro do ambiente AWS do cliente.

    Um ponto importante: nenhum dado sai do ambiente do cliente. Não há ferramentas externas para contratar nem transferências de dados para aprovar com equipes de segurança ou procurement. Isso remove boa parte da fricção que costuma atrasar projetos de migração.

    O processo em dois passos: Analisar e Converter

    Independentemente da ferramenta de origem — Power BI ou Tableau —, o processo de migração segue a mesma lógica em duas etapas:

    Passo 1: Análise (Analyze)

    O agente Analisador se conecta ao ambiente de BI existente e extrai apenas metadados — sem tocar nos dados em si. Ele cataloga dashboards, conjuntos de dados, cálculos e dependências entre workspaces, e gera um relatório de prontidão para migração. Esse relatório inclui um mapa de compatibilidade que mostra o que será convertido de forma limpa e o que pode exigir atenção manual. Isso permite que os gestores do projeto de migração definam um plano de execução baseado em prioridade e utilidade dos dashboards, antes mesmo de comprometer recursos adicionais.

    Passo 2: Conversão (Convert)

    Com o escopo definido, o agente Conversor reconstrói os ativos selecionados diretamente no Amazon QuickSight. Isso inclui:

    • Conjuntos de dados com fontes de dados e tipos mapeados
    • Campos calculados, tanto no nível do conjunto de dados quanto no nível da análise
    • Visualizações e gráficos com tipos e formatação preservados
    • Filtros e controles de parâmetros

    O objetivo é preservar a lógica analítica que as equipes levaram anos desenvolvendo na ferramenta de origem. O progresso pode ser acompanhado diretamente na interface de chat do AWS Transform, e ao final da conversão os ativos já estão disponíveis no QuickSight para validação e entrada em produção.

    Arquitetura: os serviços AWS envolvidos

    A solução é construída sobre serviços nativos da AWS:

    • AWS Transform: fornece a camada de orquestração com interface conversacional, permitindo criar e gerenciar jobs de migração por chat, acompanhar progresso entre workspaces e coordenar equipes. Como o AWS Transform executa tarefas em paralelo, é possível converter centenas de dashboards simultaneamente sem abrir mão de qualidade ou controle.
    • Amazon Bedrock AgentCore: atua como ambiente de execução seguro para os agentes, gerenciando credenciais por meio de identidades de carga de trabalho e controle de acesso baseado em Gerenciamento de Identidade e Acesso (IAM — Identity and Access Management).
    • Amazon QuickSight: é o serviço de BI de destino, com escalabilidade serverless, performance do mecanismo SPICE e integração nativa com os serviços de dados da AWS.
    • Amazon Simple Storage Service (Amazon S3): armazena relatórios de validação e artefatos de migração para fins de auditoria e revisão.

    Passo a passo completo da jornada de migração

    Pré-requisitos na ferramenta de origem

    Antes de executar a primeira migração, é necessário preparar a ferramenta de BI de origem para que o agente consiga ler os metadados dos dashboards:

    • Power BI: configure o acesso ao workspace e a autenticação via service principal para que o agente possa ler os metadados do tenant do Power BI. As instruções estão nos pré-requisitos para Power BI.
    • Tableau: habilite a Metadata API no Tableau Server e gere um Token de Acesso Pessoal (PAT — Personal Access Token) para acesso autenticado à API. As instruções estão nos pré-requisitos para Tableau.

    Configuração do AWS Transform e assinatura no AWS Marketplace

    O AWS Transform fornece a camada de orquestração para toda a migração. Ele implanta os agentes de IA especializados que automatizam avaliações, mapeamento de dependências e planejamento da transformação. Toda a equipe trabalha no mesmo workspace compartilhado, colaborando em tempo real e gerenciando a migração do início ao fim. É possível acompanhar um demo interativo do processo de configuração.

    Análise dos dashboards de BI

    O relatório de análise captura a complexidade dos dashboards em várias dimensões: número de fontes de dados, cálculos analíticos, nuances de consumo como regras condicionais e dependências entre dashboards. Demos interativos estão disponíveis tanto para o agente Analisador de Power BI quanto para o agente Analisador de Tableau.

    Conversão dos dashboards de BI

    O agente Conversor reconstrói os dashboards selecionados no Amazon QuickSight, preservando conjuntos de dados, campos calculados, visualizações, filtros e parâmetros. Demos interativos estão disponíveis para o agente Conversor de Power BI e para o agente Conversor de Tableau.

    Após a migração: de convertido a pronto para produção

    O agente de migração entrega os ativos convertidos — datasets e análises do QuickSight com campos calculados, visuais, controles e parâmetros. O que vem depois — governança, validação e publicação — fica sob responsabilidade da equipe do cliente. Essa divisão deliberada de responsabilidades garante qualidade e clareza de accountability.

    Vale destacar que o relatório de avaliação sinaliza componentes que podem precisar de refinamento manual após a migração, como parâmetros, SQL customizado, cálculos específicos da ferramenta de origem e visuais de terceiros. Não há surpresas nessa etapa.

    Para administradores do QuickSight

    O administrador do QuickSight precisa atribuir a propriedade de cada dashboard migrado aos autores de BI adequados. Um ponto de atenção importante: as estruturas de autenticação e diretórios da ferramenta de origem raramente mapeiam diretamente para o Amazon QuickSight. Por exemplo, ambientes Tableau frequentemente dependem de grupos do Active Directory, enquanto o Power BI usa service principals no nível do workspace. O agente de migração transfere os ativos analíticos, mas não os controles de acesso. Permissões de usuário, segurança em nível de linha (RLS — Row-Level Security) e configurações de compartilhamento precisam ser configuradas manualmente no QuickSight para atender aos requisitos da organização. Para empresas com hierarquias de diretório complexas, esse passo deve ser tratado como uma frente de trabalho separada.

    Para autores de BI

    Os autores de BI recebem os dashboards atribuídos e são responsáveis pelo Teste de Aceitação do Usuário (UAT — User Acceptance Testing). Isso inclui verificar visualizações, campos calculados, filtros e interatividade em comparação com a fonte original, testar drill-downs e ações dos dashboards, e confirmar a consistência do layout. Como o agente de migração não transfere permissões nem segurança em nível de linha, também é recomendável verificar se os usuários certos têm acesso aos dados certos no QuickSight.

    Publicação e entrada em produção

    Após a validação, os autores de BI publicam seus dashboards, configurando permissões de compartilhamento, assinaturas de e-mail e embedding quando necessário. Para migrações de grande escala, as APIs de implantação de ativos do Amazon QuickSight permitem automatizar a atribuição de permissões e a distribuição de dashboards. A partir desse ponto, os dashboards originais na ferramenta legada podem ser arquivados.

    Com os dashboards ativos no Amazon QuickSight, as equipes passam a ter acesso a capacidades que não eram possíveis na ferramenta legada: consultas em linguagem natural, análise automatizada sobre fontes de dados corporativos e ações orientadas a dados diretamente dos dashboards.

    Como começar

    Para explorar a solução, a AWS recomenda os seguintes passos:

    Seja para migrar 10 ou 10.000 dashboards, o AWS Transform oferece um caminho governado e repetível para o Amazon QuickSight — combinando as capacidades de IA do Amazon Bedrock com a expertise de migração de BI da Wavicle.

    Fonte

    AWS Transform now automates BI migration to Amazon Quick in days (https://aws.amazon.com/blogs/machine-learning/aws-transform-now-automates-bi-migration-to-amazon-quick-in-days/)

  • Amazon Bedrock AgentCore já está disponível na Região South America (São Paulo)

    AgentCore chega à região de São Paulo

    A AWS anunciou a disponibilidade do Amazon Bedrock AgentCore na região South America (São Paulo). Trata-se de uma plataforma voltada para construir, conectar e otimizar agentes de inteligência artificial, e sua chegada ao Brasil representa um passo importante para equipes de engenharia que desenvolvem soluções baseadas em agentes na América do Sul.

    O que é o Amazon Bedrock AgentCore?

    O AgentCore é a plataforma da AWS para quem quer colocar agentes de IA em produção com agilidade. Ele foi projetado para que engenheiros consigam:

    • Desenvolver e entregar agentes rapidamente, com suporte a qualquer framework e qualquer modelo;
    • Conectar esses agentes a sistemas e ferramentas corporativas;
    • Otimizá-los de forma contínua ao longo do tempo.

    Um ponto de destaque é a abordagem de segurança da plataforma: as políticas de segurança são aplicadas na camada de infraestrutura, o que significa que os próprios agentes não conseguem contorná-las. Isso reduz riscos operacionais e facilita a governança em ambientes empresariais.

    O que está disponível na região de São Paulo

    Desde o lançamento na região, todas as principais capacidades do AgentCore já estão acessíveis. São elas:

    • Agent Runtime — ambiente de execução dos agentes;
    • Identity — gerenciamento de identidade para agentes;
    • Gateway — integração com sistemas externos;
    • Policy — aplicação de políticas de acesso e comportamento;
    • Observability — monitoramento e rastreabilidade das execuções;
    • Code Interpreter — interpretação e execução de código pelos agentes;
    • Browser Tools — ferramentas de navegação web para os agentes.

    Por que isso importa para o mercado brasileiro?

    Com a chegada do AgentCore à região de São Paulo, clientes na América do Sul passam a poder implantar e operar agentes mais próximos dos seus usuários finais. Os benefícios diretos são a redução de latência nas interações e a capacidade de atender requisitos de residência de dados — um ponto cada vez mais relevante para empresas sujeitas a regulações como a LGPD.

    Saiba mais

    Para quem quer se aprofundar no AgentCore, a AWS disponibiliza recursos completos de documentação e referência:

    Fonte

    Amazon Bedrock AgentCore is now available in the South America (São Paulo) Region (https://aws.amazon.com/about-aws/whats-new/2026/05/agentcore-sao-paulo-region/)

  • Amazon CloudFront Adiciona Suporte a WebSocket para Origens em Nuvem Privada (VPC)

    O que mudou

    A AWS anunciou que o Amazon CloudFront agora suporta tráfego WebSocket através de origens em Nuvem Privada Virtual (VPC — Virtual Private Cloud). Isso significa que aplicações em tempo real hospedadas inteiramente em sub-redes privadas podem usar o CloudFront como único ponto de entrada, sem precisar expor nada à internet diretamente.

    Por que isso importa

    Antes dessa mudança, quem precisava usar WebSockets tinha um problema claro: as origens precisavam estar em sub-redes públicas. Para proteger esses servidores, as equipes precisavam configurar e manter Listas de Controle de Acesso (ACLs — Access Control Lists) e outros mecanismos de restrição — o que gerava esforço contínuo e complexidade operacional.

    Agora, a AWS permite que os clientes coloquem seus recursos — como Balanceadores de Carga de Aplicação (ALB — Application Load Balancer), Balanceadores de Carga de Rede (NLB — Network Load Balancer) e instâncias EC2 — em sub-redes totalmente privadas, acessíveis apenas através das distribuições do CloudFront.

    Casos de uso beneficiados

    A extensão do suporte a WebSockets para origens VPC é especialmente relevante para aplicações que dependem de conexões persistentes e bidirecionais entre clientes e servidores. Alguns exemplos práticos mencionados pela AWS:

    • Plataformas de chat
    • Ferramentas de edição colaborativa
    • Dashboards ao vivo
    • Sistemas de gerenciamento de dispositivos de IoT (Internet das Coisas)

    Benefícios de segurança

    Com essa novidade, o CloudFront passa a funcionar como a porta de entrada única tanto para tráfego HTTP tradicional quanto para conexões WebSocket em tempo real. Segundo a AWS, isso traz benefícios concretos:

    • Redução da superfície de ataque, já que os servidores de origem ficam em sub-redes privadas
    • Simplificação do gerenciamento de segurança, centralizando o controle de acesso no CloudFront
    • Proteção integrada contra DDoS (Negação de Serviço Distribuída — Distributed Denial of Service), nativa do CloudFront

    Disponibilidade e custo

    O suporte a WebSockets para origens VPC já está disponível em todas as Regiões Comerciais da AWS onde o recurso de origens VPC é suportado. A AWS informa que não há custo adicional para o tráfego WebSocket através de origens VPC.

    Para saber mais sobre como configurar esse recurso, a documentação oficial está disponível em Origens VPC no CloudFront.

    Fonte

    Amazon CloudFront Announces WebSocket Support for VPC Origins (https://aws.amazon.com/about-aws/whats-new/2026/05/amazon-cloudfront-websockets-vpc-origins/)

  • IAM Roles Anywhere passa a aplicar políticas de endpoint VPC para a API CreateSession

    O que mudou no IAM Roles Anywhere

    A AWS anunciou uma atualização importante no Gerenciamento de Identidade e Acesso (IAM) Roles Anywhere: a partir de agora, as políticas de endpoint de Nuvem Privada Virtual (VPC) passam a ser aplicadas também à API CreateSession. Antes dessa mudança, essa operação específica ficava de fora do escopo das políticas de endpoint — uma lacuna que a AWS agora fecha.

    Entendendo o contexto: o que é o IAM Roles Anywhere e a API CreateSession

    O IAM Roles Anywhere foi criado para resolver um desafio comum em ambientes híbridos: como conceder credenciais temporárias da AWS para cargas de trabalho que rodam fora da nuvem AWS. O mecanismo funciona com certificados X.509 — a carga de trabalho externa apresenta um certificado válido e, em troca, recebe credenciais temporárias para acessar recursos AWS.

    A API CreateSession é exatamente o ponto de entrada desse fluxo: é ela que processa o certificado e devolve as credenciais temporárias. Por ser tão central no processo, controlar quem pode chamá-la via endpoint privado de VPC é uma necessidade crítica de segurança.

    Como funcionam as políticas de endpoint VPC agora

    Com a atualização, as regras de permissão e negação definidas nas políticas de endpoint de VPC passam a valer para o CreateSession da mesma forma que já valiam para as demais operações do IAM Roles Anywhere. Na prática, isso significa:

    • Se a política de endpoint VPC não incluir explicitamente o CreateSession no bloco Allow, a operação será bloqueada.
    • Da mesma forma, se a política não permitir todas as operações — por exemplo, usando rolesanywhere:* como ação — o IAM Roles Anywhere não retornará credenciais temporárias para requisições feitas por aquele endpoint.
    • Para manter o comportamento atual sem interrupções, basta garantir que a política de endpoint permita explicitamente o CreateSession ou use o curinga rolesanywhere:*.

    Por que essa atualização importa para a segurança

    Antes dessa mudança, havia uma inconsistência: as políticas de endpoint VPC controlavam todas as operações do IAM Roles Anywhere — exceto justamente a CreateSession, que é a mais sensível delas, pois é quem emite as credenciais temporárias. Isso criava um ponto cego no controle de acesso.

    Agora, com a aplicação uniforme das políticas, as equipes de segurança conseguem definir controles granulares e consistentes em todas as operações do IAM Roles Anywhere realizadas via endpoint privado. É o tipo de ajuste que parece pequeno, mas que faz diferença real na postura de segurança de ambientes híbridos.

    Disponibilidade

    A funcionalidade já está disponível em todas as regiões AWS onde o IAM Roles Anywhere opera, incluindo as regiões AWS GovCloud (EUA), AWS European Sovereign Cloud (Alemanha) e as regiões da China.

    Para entender como configurar as políticas de endpoint de VPC para o IAM Roles Anywhere, a AWS disponibiliza o Guia do Usuário do IAM Roles Anywhere com orientações detalhadas.

    Fonte

    IAM Roles Anywhere now enforces VPC endpoint policies for the CreateSession API (https://aws.amazon.com/about-aws/whats-new/2026/05/iam-roles-anywhere-vpc/)

  • IA Agêntica para Analytics com Amazon SageMaker, Athena e Amazon Quick

    O problema que essa arquitetura resolve

    Grandes empresas acumulam petabytes de dados em data lakes e lakehouses, mas transformar esse volume em decisões rápidas ainda é um gargalo. O motivo é simples: acessar esses dados exige especialistas em SQL, modelagem de dados e ferramentas de Business Intelligence (BI). Quem está no negócio — analistas, gestores, times de operação — fica dependente da fila técnica para obter respostas.

    A AWS publicou uma arquitetura de referência que endereça exatamente esse problema. A proposta combina Amazon SageMaker, Amazon Athena e Amazon Quick para criar um assistente de IA agêntica capaz de responder perguntas sobre dados complexos usando linguagem natural — sem que o usuário precise escrever uma linha de SQL.

    Visão geral da arquitetura

    A solução foi construída usando o dataset de benchmark TPC-H como base de dados. A escolha é estratégica: o TPC-H representa um modelo de negócio realista com pedidos, clientes e itens de linha, tornando os exemplos reproduzíveis e significativos.

    Os principais componentes da arquitetura são:

    O fluxo funciona da seguinte forma: os dados TPC-H são ingeridos e armazenados no S3 em três formatos distintos. O Athena executa consultas sobre esses dados usando o catálogo do AWS Glue como camada de metadados unificada. O Amazon Quick se conecta ao Athena para carregar os dados no SPICE (Motor de Cálculo Super-rápido, Paralelo e em Memória), onde alimenta dashboards interativos e agentes de chat com IA. Em paralelo, um Web Crawler indexa documentação não estruturada do TPC-H em uma Knowledge Base (Base de Conhecimento), que também é disponibilizada ao agente conversacional.

    Três formatos de armazenamento no mesmo lakehouse

    Um dos pontos mais instrutivos da arquitetura é a demonstração de três abordagens diferentes de armazenamento, todas consultáveis pelo mesmo Athena:

    Tabela externa CSV

    Utiliza o dataset de clientes do TPC-H diretamente de um bucket público do S3. Com tabelas externas, o Athena consulta os dados no local original sem movê-los — uma abordagem rápida e econômica para explorar dados brutos. O comando de criação no editor de queries do Athena é:

    CREATE EXTERNAL TABLE IF NOT EXISTS blog_qs_athena_tpc_h_db_sql.customer_csv (
      C_CUSTKEY INT,
      C_NAME STRING,
      C_ADDRESS STRING,
      C_NATIONKEY INT,
      C_PHONE STRING,
      C_ACCTBAL DOUBLE,
      C_MKTSEGMENT STRING,
      C_COMMENT STRING
    )
    ROW FORMAT DELIMITED
    FIELDS TERMINATED BY '|'
    STORED AS TEXTFILE
    LOCATION 's3://redshift-downloads/TPC-H/2.18/100GB/customer/'
    TBLPROPERTIES ('classification' = 'csv');

    Tabela Apache Iceberg (Parquet)

    O Apache Iceberg é um formato de tabela aberto que traz transações ACID, time travel e evolução de partições para o data lake — ideal para cargas de trabalho em produção. A arquitetura cria uma tabela Iceberg a partir dos dados de pedidos usando o comando CREATE TABLE AS SELECT (CTAS), particionada por data de pedido:

    CREATE TABLE blog_qs_athena_tpc_h_db_sql.orders_iceberg
    WITH (
      table_type = 'ICEBERG',
      format = 'PARQUET',
      is_external = false,
      partitioning = ARRAY['o_orderdate'],
      location = 's3://amzn-s3-demo-bucket/tpch_iceberg/orders/')
    AS SELECT *
    FROM blog_qs_athena_tpc_h_db_sql.orders_csv
    WHERE O_ORDERDATE BETWEEN '1998-06-01' AND '1998-12-31';

    Amazon S3 Tables

    As Amazon S3 Tables são tabelas totalmente gerenciadas com suporte nativo ao Apache Iceberg. Elas eliminam a necessidade de gerenciar operações de manutenção como compactação e remoção de arquivos não referenciados. A criação também usa CTAS, desta vez apontando para o catálogo s3tablescatalog:

    CREATE TABLE lineitem_csv_s3_table
    WITH (
      format = 'PARQUET')
    AS SELECT *
    FROM AwsDataCatalog.blog_qs_athena_tpc_h_db_sql.lineitem_csv
    WHERE CAST(L_SHIPDATE AS DATE) BETWEEN DATE('1998-06-01') AND DATE('1998-12-31');

    Preparação dos dados no Amazon Quick

    Com as três tabelas registradas e consultáveis no Athena, o próximo passo é conectá-las ao Amazon Quick. A conexão é feita por meio de uma única fonte de dados Athena — as três tabelas ficam acessíveis porque todas estão catalogadas no AWS Glue Data Catalog e acessíveis pelo mesmo workgroup do Athena.

    Cada tabela vira um dataset separado no Quick, importado para o SPICE para garantir performance sub-segundo em dashboards e fluxos agênticos. Um ponto de atenção importante: as S3 Tables ficam em um catálogo AWS Glue não padrão (s3tablescatalog), o que significa que elas não aparecem no navegador visual de tabelas do Quick. Para criar o dataset dessa tabela, é necessário usar SQL customizado:

    SELECT * FROM "s3tablescatalog/blog-qs-athena-tpc-h-db-sql-s3-table-mar-3"."blog_qs_athena_tpc_h_namespace"."lineitem_csv_s3_table"

    Join entre os três datasets

    O esquema TPC-H é um esquema estrela por design. Para unir as três tabelas, a abordagem recomendada é fazer o join diretamente no Athena via SQL customizado e ingerir o resultado unificado no SPICE como um único dataset desnormalizado. Isso delega o processamento ao Athena e elimina restrições de tamanho de tabelas secundárias no Quick:

    SELECT
      c.c_custkey, c.c_name, c.c_mktsegment, c.c_nationkey,
      o.o_orderkey, o.o_orderdate, o.o_orderstatus, o.o_totalprice, o.o_orderpriority,
      l.l_linenumber, l.l_partkey, l.l_suppkey, l.l_quantity,
      l.l_extendedprice, l.l_discount, l.l_shipmode, l.l_returnflag
    FROM "s3tablescatalog/blog-qs-athena-tpc-h-db-sql-s3-table-mar-3"."blog_qs_athena_tpc_h_namespace"."lineitem_csv_s3_table" l
    INNER JOIN "blog_qs_athena_tpc_h_db_sql"."orders_iceberg" o
      ON l.l_orderkey = o.o_orderkey
    INNER JOIN "blog_qs_athena_tpc_h_db_sql"."customer_csv" c
      ON o.o_custkey = c.c_custkey;

    Camada de BI e IA conversacional

    Topic e Dashboard com Amazon Q

    Com o dataset unificado no SPICE, a arquitetura configura um Topic no Amazon Quick — a camada semântica que traduz nomes de colunas em conceitos de negócio. Quando um usuário pergunta “Qual foi a receita total no último trimestre por segmento de cliente?”, o Topic mapeia “receita” para l_extendedprice, “último trimestre” para um filtro em o_orderdate e “segmento de cliente” para c_mktsegment. Sem esse mapeamento, as consultas em linguagem natural retornam resultados genéricos ou incorretos.

    O dashboard é construído usando o Amazon Q dentro do Quick, que permite criar visualizações a partir de prompts em linguagem natural como “Mostre um KPI de receita total” ou “Crie um gráfico de barras de receita por status de pedido”. Após a publicação, o dashboard embute uma barra de perguntas em linguagem natural para que os usuários façam perguntas adicionais sem sair da tela.

    Knowledge Base e agente de chat

    Em paralelo ao fluxo estruturado, a arquitetura configura uma Knowledge Base alimentada pela especificação oficial do TPC-H (documento PDF público). Um Web Crawler indexa esse conteúdo não estruturado, tornando-o pesquisável pelo agente de chat.

    O agente é configurado dentro de um Space (Espaço) do Amazon Quick — a camada organizacional que agrupa Topic, Knowledge Base e Dashboard em um único contexto governado. A instrução de persona do agente define claramente seu escopo: responder perguntas sobre receita de pedidos, performance de fornecedores, precificação de itens e disponibilidade de inventário, sempre fundamentando as respostas nos dados do lakehouse TPC-H.

    Na prática, quando um analista de negócio pergunta “Qual segmento de clientes gerou mais receita no mês passado, e o que significa ‘segmento de mercado’ no esquema TPC-H?”, o agente:

    • Consulta o Topic TPC-H Analytics para obter a receita por c_mktsegment filtrada ao último mês
    • Simultaneamente recupera a definição de c_mktsegment da Knowledge Base
    • Retorna uma resposta unificada: o ranking de receita com citação ao dataset SPICE, seguido da definição do campo com citação ao documento de especificação

    Sem SQL. Sem navegação em dashboards. Sem ticket para o time de dados.

    Permissões e governança

    A arquitetura mantém governança corporativa em toda a cadeia. Se o AWS Lake Formation estiver habilitado, ele atua como a camada central de autorização, sobrescrevendo as permissões IAM padrão do S3. Nesse caso, as permissões precisam ser concedidas diretamente ao autor do Amazon Quick ou à role IAM no console do Lake Formation. Se o Lake Formation não estiver habilitado, as permissões são gerenciadas no nível da service role do Quick via controle de acesso IAM padrão.

    Para S3 Tables especificamente, a service role do Quick requer uma política inline adicional glue:GetCatalog para acessar o catálogo não padrão s3tablescatalog. A referência completa está disponível na documentação Visualizando dados de S3 Tables com Amazon Quick.

    Limpeza dos recursos

    Após os testes, a AWS recomenda remover todos os artefatos criados para evitar custos desnecessários. O processo de limpeza envolve, na ordem:

    • Dropar tabelas e banco de dados via console do Athena
    • Remover o S3 Table bucket, namespace e tabela via AWS CLI, SDKs ou API REST do S3
    • Excluir o bucket S3 via console
    • No Amazon Quick: excluir o Chat Agent, o Space, o Dashboard, o Topic, a Knowledge Base, os Datasets e a fonte de dados, nessa ordem

    Conclusão

    A arquitetura demonstrada pela AWS mostra como é possível transformar um lakehouse complexo — com dados em múltiplos formatos e fontes — em uma interface conversacional acessível para usuários de negócio. A combinação de Amazon Athena para consulta serverless, AWS Glue para catálogo unificado, SPICE para performance em memória e os agentes de IA do Amazon Quick cria uma camada de self-service que mantém governança e escalabilidade corporativa.

    Para equipes que buscam democratizar o acesso a dados sem abrir mão de segurança e controle, essa arquitetura de referência oferece um caminho concreto e reproduzível. A documentação de referência inclui tutoriais adicionais para casos de uso em B2B, receita, vendas, marketing e RH, além de guias aprofundados sobre permissões com Lake Formation.

    Links úteis para aprofundamento:

    Fonte

    Unleashing Agentic AI Analytics on Amazon SageMaker with Amazon Athena and Amazon Quick (https://aws.amazon.com/blogs/machine-learning/unleashing-agentic-ai-analytics-on-amazon-sagemaker-with-amazon-athena-and-amazon-quick/)

  • Configurando o Amazon Bedrock AgentCore Gateway para acesso seguro a recursos privados

    O desafio: agentes de IA que precisam de recursos privados

    Agentes de IA em ambientes de produção frequentemente precisam acessar APIs internas, bancos de dados e outros serviços que ficam dentro dos limites de uma Nuvem Privada Virtual da Amazon (Amazon VPC). Gerenciar a conectividade privada para cada par agente-ferramenta gera sobrecarga operacional e atrasa implantações.

    Para resolver isso, a AWS disponibilizou a conectividade VPC do Amazon Bedrock AgentCore, projetada para implantar agentes de IA e servidores do Protocolo de Contexto de Modelo (MCP) sem que o tráfego precise ser exposto à internet pública. Essa capacidade inclui o egresso gerenciado de VPC para o Amazon Bedrock AgentCore Gateway, permitindo conexões a endpoints dentro de redes privadas em todo o ambiente AWS.

    Neste guia, a AWS explica como configurar o AgentCore Gateway para acessar endpoints privados usando o Resource Gateway — um construto gerenciado que provisiona Interfaces de Rede Elásticas (ENIs) diretamente dentro da sua Amazon VPC, uma por sub-rede. São abordados dois modos de implementação (gerenciado e autogerenciado) e três cenários práticos: conexão a um Amazon API Gateway privado, integração com um servidor MCP no Amazon Elastic Kubernetes Service (Amazon EKS) e acesso a uma API REST privada.

    Conceitos fundamentais da arquitetura

    Antes de entrar nos modos de implementação, vale entender os termos centrais da arquitetura de egresso VPC do AgentCore Gateway:

    • VPC de Recurso: a Amazon VPC onde o seu recurso privado reside — por exemplo, a VPC que hospeda seu servidor MCP ou endpoint de API. Pode estar na mesma conta AWS do AgentCore Gateway ou em uma conta diferente.
    • Conta do AgentCore Gateway: a conta AWS onde você cria e gerencia os recursos do AgentCore Gateway.
    • Resource Gateway: atua como ponto de entrada privado na VPC de Recurso. Ao ser criado, provisiona uma ENI por sub-rede especificada, cada uma dentro da sua VPC. O tráfego do AgentCore Gateway chega ao seu recurso privado por meio dessas ENIs.
    • Resource Configuration: define o recurso específico que o AgentCore Gateway tem permissão de acessar através do Resource Gateway, identificado por nome de domínio ou endereço IP. Em vez de liberar acesso a toda a VPC, a Resource Configuration delimita a conectividade a um único endpoint.
    • Service Network Resource Association: conecta uma Resource Configuration à rede de serviço do AgentCore, permitindo que o serviço AgentCore Gateway invoque o endpoint privado. O AgentCore cria e gerencia essa associação automaticamente, independentemente do modo escolhido.

    Dois modos de implementação

    O egresso VPC do AgentCore Gateway suporta dois modos, dependendo do nível de controle desejado sobre a infraestrutura de rede subjacente.

    Modo gerenciado (Managed VPC Resource)

    Neste modo, o AgentCore Gateway cuida de tudo automaticamente. Basta fornecer o ID da VPC, os IDs das sub-redes e os grupos de segurança como parte da configuração do target — o AgentCore cria e gerencia o VPC Resource Gateway na sua conta. Esse modo se integra com arquiteturas de rede existentes, seja com VPC peering para conectividade na mesma região ou entre regiões, seja com um modelo hub-and-spoke usando o AWS Transit Gateway para ambientes multi-VPC e híbridos.

    O diagrama abaixo ilustra como o AgentCore Gateway se conecta a um Amazon API Gateway privado usando o modo gerenciado:

    Imagem original — fonte: Aws

    Nesse fluxo, o AgentCore Gateway inicia a requisição e a roteia para o Resource Gateway provisionado dentro da VPC de Recurso. O tráfego passa pela ENI na sub-rede privada, governado pelos grupos de segurança configurados, e então chega ao endpoint de VPC execute-api, que fornece conectividade privada ao endpoint interno do Amazon API Gateway. No modo gerenciado, você tem apenas visibilidade de leitura sobre o Resource Gateway criado pelo AgentCore.

    Modo autogerenciado (Self-Managed Lattice Resource)

    Neste modo, você mesmo cria e gerencia o VPC Lattice Resource Gateway e a Resource Configuration antes de referenciá-los na criação do target no AgentCore Gateway. Isso oferece visibilidade e controle completos sobre a Resource Configuration — incluindo o número de endereços IPv4 por ENI, posicionamento de sub-redes e regras de grupos de segurança. Mais importante, permite compartilhar a configuração usando o AWS Resource Access Manager (AWS RAM) (necessário para conectividade entre contas), visualizar associações e revogar acessos quando necessário.

    O diagrama a seguir mostra como o AgentCore Gateway se conecta a endpoints de API REST privados usando o modo autogerenciado:

    Imagem original — fonte: Aws

    Nesse fluxo, você pré-cria o Resource Gateway e a Resource Configuration antes de configurar o AgentCore Gateway Target. Ao chamar CreateGatewayTarget, você passa o ID da Resource Configuration para associar o target do AgentCore Gateway ao seu endpoint privado. Diferente do modo gerenciado, você é o responsável pelo ciclo de vida completo do Resource Gateway e da Resource Configuration.

    Comparativo entre os modos

    A tabela a seguir resume as principais diferenças para ajudar a escolher o modo mais adequado para cada arquitetura:

    • Complexidade de configuração: o modo gerenciado é mais simples — basta fornecer VPC ID, sub-redes e security groups. O autogerenciado exige criação prévia do Resource Gateway e das Resource Configurations.
    • Conectividade entre contas: o modo gerenciado não suporta nativamente — use VPC peering ou AWS Transit Gateway. O autogerenciado suporta com AWS RAM, sem necessidade de peering ou Transit Gateway.
    • Visibilidade e governança: no modo gerenciado, as Resource Configurations ficam na conta de serviço do AgentCore e não aparecem no console da VPC. No autogerenciado, há visibilidade total no console do Amazon VPC Lattice, com capacidade de auditar e revogar acessos de forma granular.
    • Precificação: o modo gerenciado cobra apenas pelo processamento de dados (por GB). O autogerenciado adiciona uma cobrança por hora pela associação à rede de serviço, mais o processamento de dados.

    Pré-requisitos

    O tutorial foca no modo gerenciado. Para explorar o modo autogerenciado, a AWS disponibiliza exemplos de código no GitHub. Antes de começar, é necessário ter:

    O grupo de segurança do Resource Gateway controla o tráfego de saída que as ENIs podem enviar aos recursos dentro da Amazon VPC. Se nenhum grupo de segurança for fornecido ao chamar a API CreateGatewayTarget, o grupo de segurança padrão é utilizado.

    Caso ainda não tenha um AgentCore Gateway criado, execute:

    aws bedrock-agentcore create-gateway \
      --name my-gateway \
      --role-arn arn:aws:iam::<account-id>:role/AgentCoreGatewayRole

    Guarde o gatewayId retornado na resposta — ele será necessário nas etapas seguintes. Para exemplos mais detalhados, consulte o repositório no GitHub.

    Cenário 1: Amazon API Gateway privado

    Para criar um AgentCore Gateway target que roteia para um Amazon API Gateway privado, chame a API CreateGatewayTarget com os seguintes parâmetros. No campo openApiSchema, forneça a URL do endpoint privado do Amazon API Gateway (https://{api-id}-{vpce-id}.execute-api.{region}.amazonaws.com/{stage}). No bloco managedVpcResource, forneça o ID da VPC, os IDs das sub-redes e o ID do grupo de segurança:

    aws bedrock-agentcore-control create-gateway-target \
      --region us-west-2 \
      --cli-input-json '{
        "gatewayIdentifier": "<GATEWAY_ID>",
        "name": "private-apigw",
        "description": "Private API Gateway",
        "targetConfiguration": {
          "mcp": {
            "openApiSchema": {
              "inlinePayload": "..."
            }
          }
        },
        "credentialProviderConfigurations": [...],
        "privateEndpoint": {
          "managedVpcResource": {
            "vpcIdentifier": "<VPC_ID>",
            "subnetIds": ["<SUBNET_ID_1>", "<SUBNET_ID_2>"],
            "endpointIpAddressType": "IPV4",
            "securityGroupIds": ["<VPCE_SG_ID>"]
          }
        }
      }'

    Após executar o comando, o AgentCore Gateway usa sua role vinculada ao serviço para provisionar um Resource Gateway na VPC, criando uma ENI por sub-rede especificada. O diagrama abaixo mostra o fluxo de rede resultante:

    Imagem original — fonte: Aws

    O AgentCore Gateway inicia a requisição e a roteia para o Resource Gateway provisionado dentro da VPC de Recurso. O tráfego passa pela ENI na sub-rede privada, onde as regras do grupo de segurança governam o próximo salto. A partir daí, a requisição alcança o endpoint de VPC execute-api, que fornece conectividade privada ao endpoint interno do Amazon API Gateway.

    Cenário 2: Servidor MCP privado no Amazon EKS

    Para rotear para um servidor MCP privado rodando no Amazon EKS, chame a API CreateGatewayTarget com os seguintes parâmetros. No bloco mcpServer, forneça a URL interna do servidor MCP. No bloco managedVpcResource, forneça o ID da VPC, os IDs das sub-redes e o ID do grupo de segurança:

    aws bedrock-agentcore-control create-gateway-target \
      --region us-west-2 \
      --cli-input-json '{
        "gatewayIdentifier": "<GATEWAY_ID>",
        "name": "private-apigw",
        "description": "Private API Gateway",
        "targetConfiguration": {
          "mcp": {
            "mcpServer": {
              "endpoint": "https://internal.example.com/csm/mcp"
            }
          }
        },
        "credentialProviderConfigurations": [...],
        "privateEndpoint": {
          "managedVpcResource": {
            "vpcIdentifier": "<VPC_ID>",
            "subnetIds": ["<SUBNET_ID_1>", "<SUBNET_ID_2>"],
            "endpointIpAddressType": "IPV4",
            "securityGroupIds": ["<VPCE_SG_ID>"]
          }
        }
      }'

    O diagrama a seguir mostra o caminho completo do tráfego nesse cenário:

    Imagem original — fonte: Aws

    O AgentCore Gateway envia uma requisição HTTPS ao endpoint interno. A zona hospedada privada do Amazon Route 53 resolve o domínio para o Balanceador de Carga de Rede (NLB) interno. A requisição entra na VPC de Recurso pelo Resource Gateway, passa pela ENI governada pelos grupos de segurança e chega ao NLB. O NLB encerra o TLS na porta 443 usando um certificado público do AWS Certificate Manager (ACM) e encaminha a requisição via HTTP na porta 80 para o NGINX Ingress Controller rodando no Amazon EKS, que a roteia para o pod apropriado.

    Cenário 3: API REST privada

    Para rotear para qualquer API REST rodando dentro da Amazon VPC — como um microsserviço em contêiner — a chamada à API CreateGatewayTarget segue o mesmo padrão dos cenários anteriores. No campo openApiSchema, forneça o schema OpenAPI descrevendo a API REST. No bloco managedVpcResource, forneça o ID da VPC, os IDs das sub-redes e o ID do grupo de segurança.

    Após o AgentCore Gateway provisionar o Resource Gateway na VPC, o fluxo de tráfego é o seguinte:

    Imagem original — fonte: Aws

    O AgentCore Gateway envia uma requisição HTTPS ao endpoint interno. A zona hospedada privada do Amazon Route 53 resolve o domínio para o Balanceador de Carga de Aplicação (ALB) interno. A requisição entra na VPC de Recurso pelo Resource Gateway, passa pela ENI governada pelos grupos de segurança e chega ao ALB interno. O ALB encerra o TLS na porta 443 usando um certificado público do ACM e encaminha a requisição via HTTP na porta 8000 para o grupo de destino contendo os servidores de backend.

    Limpeza de recursos

    Para evitar cobranças contínuas, exclua todos os recursos criados durante o processo. Consulte a página de preços do egresso VPC do AgentCore Gateway para referência. Clusters do Amazon EKS, load balancers e endpoints do API Gateway geram cobranças enquanto estão ativos.

    Se você seguiu o exemplo no GitHub, execute a seção de limpeza ao final de cada Jupyter Notebook. Se usou o modo gerenciado, excluir o Gateway Target remove automaticamente o Amazon VPC Resource Gateway associado:

    aws bedrock-agentcore delete-gateway-target \
      --gateway-identifier <gateway-id> \
      --target-id <target-id>

    Conclusão e próximos passos

    À medida que os agentes de IA assumem tarefas mais complexas, eles precisam de acesso seguro às ferramentas e serviços que sustentam o negócio — muitos dos quais vivem dentro de redes privadas. O egresso VPC do AgentCore Gateway permite que os agentes alcancem servidores MCP privados, APIs internas, bancos de dados e sistemas on-premises sem expô-los à internet pública.

    O modo gerenciado se integra diretamente à VPC existente com configuração mínima. O modo autogerenciado oferece controle granular, mas exige configuração adicional. Ambos roteiam o tráfego por um Resource Gateway que nunca sai da rede AWS.

    Como próximos passos, a AWS sugere:

    Fonte

    Configuring Amazon Bedrock AgentCore Gateway for secure access to private resources (https://aws.amazon.com/blogs/machine-learning/configuring-amazon-bedrock-agentcore-gateway-for-secure-access-to-private-resources/)

  • Amazon Bedrock AgentCore Identity passa a suportar troca de token On-Behalf-Of (OBO)

    O que mudou no Bedrock AgentCore Identity

    A AWS anunciou uma atualização relevante para quem desenvolve agentes de inteligência artificial com o Amazon Bedrock AgentCore Identity: o serviço agora suporta a troca de token On-Behalf-Of (OBO), um mecanismo que permite a agentes acessarem recursos protegidos em nome de usuários autenticados — tudo isso sem exigir que o usuário passe por múltiplos fluxos de consentimento.

    Qual era o problema anterior

    Antes dessa atualização, desenvolvedores que precisavam construir agentes capazes de agir em nome de um usuário enfrentavam uma dificuldade prática: era necessário gerenciar fluxos de consentimento separados para cada recurso protegido que o agente precisasse acessar. Isso gerava atrito desnecessário para o usuário final e aumentava a complexidade do lado do desenvolvedor.

    Como funciona a troca de token OBO

    Com a troca de token OBO, o desenvolvedor pode trocar um token de acesso existente por um novo token com escopo reduzido. Esse novo token carrega tanto a identidade do usuário original quanto a identidade do agente, e é direcionado especificamente ao recurso protegido de destino.

    O resultado prático é um acesso just-in-time e com menor privilégio possível — sem solicitar consentimento adicional ao usuário. Ou seja: o agente faz o que precisa fazer, com as permissões certas, sem incomodar o usuário com novas telas de autorização.

    Disponibilidade por região

    O recurso de troca de token OBO do Amazon Bedrock AgentCore Identity já está em disponibilidade geral (GA) em 14 regiões da AWS:

    • US East (Norte da Virgínia)
    • US East (Ohio)
    • US West (Oregon)
    • Canada (Central)
    • Asia Pacific (Mumbai)
    • Asia Pacific (Seul)
    • Asia Pacific (Singapura)
    • Asia Pacific (Sydney)
    • Asia Pacific (Tóquio)
    • Europe (Frankfurt)
    • Europe (Irlanda)
    • Europe (Londres)
    • Europe (Paris)
    • Europe (Estocolmo)

    Saiba mais

    Para explorar os detalhes técnicos e começar a implementar o recurso, a AWS disponibilizou a documentação oficial do Amazon Bedrock AgentCore Identity.

    Fonte

    Amazon Bedrock AgentCore Identity now supports On-Behalf-Of (OBO) token exchange (https://aws.amazon.com/about-aws/whats-new/2026/04/amazon-bedrock-agentcore/)

  • Ajuste Fino por Reforço com LLM-as-a-Judge nos modelos Amazon Nova

    O problema de alinhamento dos modelos de linguagem

    Grandes Modelos de Linguagem (LLMs) já estão no centro de agentes conversacionais, ferramentas criativas e sistemas de apoio a decisões. Mas o output bruto desses modelos frequentemente carrega imprecisões, desalinhamentos de política ou respostas pouco úteis — problemas que comprometem a confiança e limitam o uso real em produção.

    Para resolver isso, o Ajuste Fino por Reforço (RFT) se consolidou como o método preferido de alinhamento eficiente. Em vez de depender de rotulagem manual cara e demorada, o RFT usa sinais de recompensa automatizados para guiar o comportamento do modelo.

    No centro do RFT moderno estão as funções de recompensa, construídas de duas formas principais:

    • Aprendizado por Reforço com Recompensas Verificáveis (RLVR): usa código para avaliar as respostas geradas pelo modelo com critérios verificáveis.
    • Aprendizado por Reforço com Feedback de IA (RLAIF): usa um segundo modelo de linguagem como “juiz” para avaliar as respostas candidatas — a técnica conhecida como LLM-as-a-judge.

    A AWS publicou um post técnico detalhando como o RLAIF funciona na prática com os modelos Amazon Nova, incluindo um caso de uso real no setor jurídico.

    Por que usar LLM-as-a-judge em vez de recompensas genéricas?

    Recompensas genéricas baseadas em regras simples — como correspondência de substrings — funcionam para casos bem definidos, mas falham quando os critérios de qualidade são subjetivos ou multidimensionais.

    Um juiz baseado em LLM raciocina sobre múltiplas dimensões ao mesmo tempo: correção, tom, segurança, relevância. Ele captura nuances e especificidades de domínio sem precisar de retreinamento específico por tarefa. Além disso, oferece explicabilidade embutida por meio de justificativas — algo que funções de recompensa estáticas simplesmente não conseguem fornecer.

    Seis passos para implementar o LLM-as-a-judge

    1. Escolha a arquitetura do juiz

    Existem dois modos principais de avaliação:

    • Julgamento baseado em rubrica (pontuação absoluta): atribui uma nota numérica a uma única resposta com base em critérios predefinidos. Recomendado quando não há dados de preferência disponíveis e o RLVR não é adequado. Funciona melhor para dados fora da distribuição e evita viés de dados.
    • Julgamento baseado em preferência (comparação relativa): compara duas respostas candidatas lado a lado e seleciona a superior. Recomendado quando há dados comparativos disponíveis e o modelo deve explorar livremente sem restrições de dados de referência.

    2. Defina os critérios de avaliação

    Critérios claros são a base de um treinamento RLAIF eficaz. Para juízes baseados em rubrica, a AWS recomenda usar pontuação booleana (aprovado/reprovado) em vez de escalas de 1 a 10 — isso reduz a variabilidade do juiz e torna a avaliação mais confiável.

    3. Selecione e configure o modelo juiz

    A escolha do modelo depende da complexidade do domínio e do equilíbrio entre custo e confiabilidade:

    • Modelos grandes/pesados (Amazon Nova Pro, Claude Opus, Claude Sonnet): indicados para raciocínio complexo, avaliação com nuances e pontuação multidimensional. Alto custo, altíssima confiabilidade.
    • Modelos médios/leves (Amazon Nova 2 Lite, Claude Haiku): adequados para domínios gerais como matemática ou programação. Custo baixo a médio, confiabilidade moderada a alta.

    O juiz é configurado via Amazon Bedrock e chamado por uma função AWS Lambda de recompensa.

    4. Refine o prompt do modelo juiz

    O prompt do juiz é o alicerce da qualidade do alinhamento. Ele deve produzir saídas estruturadas e facilmente parseáveis, com regras de pontuação claras, tratamento de casos extremos e comportamentos desejados explicitamente definidos.

    5. Alinhe os critérios do juiz com as métricas de produção

    A função de recompensa deve espelhar as métricas que serão usadas para avaliar o modelo final em produção. O fluxo recomendado é: definir critérios de sucesso em produção, mapear cada critério para dimensões de pontuação do juiz, validar a correlação entre as notas do juiz e as métricas de avaliação, e testar em amostras representativas e casos extremos.

    6. Construa uma função Lambda de recompensa robusta

    Sistemas RFT em produção processam milhares de avaliações de recompensa por etapa de treinamento. A AWS recomenda combinar o juiz LLM com componentes de recompensa determinísticos rápidos para capturar falhas óbvias antes de acionar avaliações mais custosas:

    • Validação de formato: verifica estrutura JSON, campos obrigatórios e conformidade com o schema — sempre, pois é barato e instantâneo.
    • Penalidades de tamanho: desencoraja respostas excessivamente longas ou curtas, quando o comprimento importa.
    • Consistência de idioma: verifica se as respostas correspondem ao idioma de entrada — crítico para aplicações multilíngues.
    • Filtros de segurança: verificações baseadas em regras para conteúdo proibido — sempre, para evitar que conteúdo inseguro chegue à produção.

    Do ponto de vista de infraestrutura, a AWS recomenda: implementar backoff exponencial para lidar com limites de taxa da API do Amazon Bedrock, usar ThreadPoolExecutor ou padrões assíncronos para paralelizar chamadas ao juiz, configurar o timeout da Lambda para 15 minutos e usar concorrência provisionada de aproximadamente 100 para configurações típicas. Erros devem retornar recompensas neutras (0.5) em vez de interromper toda a etapa de treinamento.

    Fluxo de treinamento RFT com LLM-as-a-judge

    O processo completo de ponta a ponta passa por três fases principais: configuração e validação, treinamento e implantação. O diagrama abaixo ilustra esse fluxo, mostrando como cada etapa se apoia na anterior para criar um pipeline resiliente que equilibra qualidade de alinhamento com eficiência computacional.

    Imagem original — fonte: Aws
    • Fase 1 — Configuração e Validação: avaliação do modelo juiz, avaliação de baseline e design do dataset e das funções de recompensa.
    • Fase 2 — Treinamento: treinamento iterativo com monitoramento contínuo de distribuições de recompensa, scores de vantagem, taxa de concordância do juiz e detecção de reward hacking.
    • Fase 3 — Implantação: verificação de diversidade de rollouts, calibração do juiz, alinhamento recompensa-avaliação e ausência de reward hacking antes do deploy.

    Caso de uso real: revisão automatizada de contratos jurídicos

    O post da AWS descreve uma aplicação prática com um parceiro do setor jurídico. O desafio era automatizar a revisão, avaliação e identificação de riscos em documentos de contratos, comparando-os com diretrizes internas, regulamentações, contratos anteriores e legislação aplicável.

    O problema foi formulado da seguinte forma: dado um documento-alvo (o contrato a ser avaliado) e um documento de referência (as diretrizes e contexto), o LLM deve gerar um JSON com comentários, tipos de comentário e ações recomendadas baseadas na avaliação.

    O dataset original era relativamente pequeno, contendo contratos completos com anotações e comentários de especialistas jurídicos. Foi utilizado um modelo GPT OSS 120b como juiz, com um system prompt personalizado durante o RFT.

    Estrutura do prompt do juiz para revisão de contratos

    O prompt do juiz foi construído em camadas bem definidas:

    a) Objetivo de alto nível:

    # Contract Review Evaluation - Unweighted Scoring
    You are an expert contract reviewer evaluating AI-generated comments. Your PRIMARY objective is to assess how well each predicted comment identifies issues in the TargetDocument contract clauses and whether those issues are justified by the Reference guidelines.

    b) Abordagem de avaliação: define o que o modelo recebe (TargetDocument, Reference, Prediction) e instrui o juiz a avaliar cada comentário de forma independente, verificando se o campo text_excerpt cita texto do contrato-alvo — não das diretrizes de referência.

    c) Dimensões de pontuação: três dimensões avaliadas em sequência obrigatória — TargetDocument_Grounding, Reference_Consistency e Actionability — cada uma com escala de 1 a 5 e critérios explícitos para cada nota.

    d) Formato de saída: JSON estruturado com pontuação por comentário, justificativas e score agregado.

    e) Handler Lambda com multithreading:

    def lambda_handler(event, context):
        scores: List[RewardOutput] = []
        samples = event
        max_workers = len(samples)
        print(f"Evaluating {len(samples)} items with {max_workers} threads...")
        with ThreadPoolExecutor(max_workers=max_workers) as executor:
            futures = [executor.submit(judge_answer, sample) for sample in samples]
            scores = [future.result() for future in futures]
        print(f"Completed {len(scores)} evaluations")
        return [asdict(score) for score in scores]

    Configuração de permissões e IAM

    A função de execução do Amazon SageMaker AI precisa de permissão para invocar a Lambda de recompensa:

    {
      "Version": "2012-10-17",
      "Statement": [
        {
          "Effect": "Allow",
          "Action": [
            "lambda:InvokeFunction"
          ],
          "Resource": "arn:aws:lambda:region:account-id:function:function-name"
        }
      ]
    }

    A AWS reforça que o nome da função Lambda deve conter “SageMaker” (por exemplo, arn:aws:lambda:us-east-1:123456789012:function:MyRewardFunctionSageMaker) e que o treinamento RFT pode falhar se as permissões estiverem ausentes. O princípio do menor privilégio deve ser aplicado, limitando as permissões a ARNs de recursos específicos. Para mais detalhes, consulte a documentação de Segurança no AWS Lambda e a Segurança no Amazon SageMaker AI.

    Personalização do treinamento com o Nova Forge SDK

    A AWS disponibilizou o Nova Forge SDK para gerenciar todo o ciclo de personalização de modelos — da preparação dos dados ao deploy e monitoramento. O SDK elimina a necessidade de buscar receitas ou URIs de container para técnicas específicas. No caso de uso jurídico, os parâmetros de treinamento foram ajustados via overrides:

    # Launch training with recipe overrides
    result = customizer.train(
        job_name="my-rft-run",
        rft_lambda_arn="",
        overrides={
            # Training config
            "max_length": 64000,
            "global_batch_size": 64,
            "reasoning_effort": None,
            # Data
            "shuffle": False,
            # Rollout
            "type": "off_policy_async",
            "age_tolerance": 2,
            "proc_num": 6,
            "number_generation": 8,
            "max_new_tokens": 16000,
            "set_random_seed": True,
            "temperature": 1,
            "top_k": 0,
            "lambda_concurrency_limit": 100,
            # Trainer
            "max_steps": 516,
            "save_steps": 32,
            "save_top_k": 17,
            "refit_freq": 4,
            "clip_ratio_high": 0.28,
            "ent_coeff": 0.0,
            "loss_scale": 1,
        },
    )

    Resultados: RFT supera modelos maiores

    Os resultados foram avaliados em um cenário “best of k” com comentário único, onde cada modelo gerou múltiplos comentários por amostra e o de maior qualidade foi pontuado. Essa abordagem estabelece um limite superior de desempenho e permite comparação justa entre modelos.

    Figura 1 — Pontuações de Validação de Schema JSON (escala 0–1, quanto maior melhor) — fonte: Aws
    Figura 2 — Pontuações agregadas do juiz LLM (escala 1–5, quanto maior melhor) — fonte: Aws

    O Amazon Nova 2 Lite com RFT alcançou score agregado de 4.33 — o maior entre todos os modelos avaliados — além de validação perfeita do schema JSON. Isso representa uma melhoria significativa sobre o Nova 2 Lite base (3.05), o Nova 2 Lite com Ajuste Fino Supervisionado — SFT (3.16), o Claude Haiku 4.5 (3.54) e o Claude Sonnet 4.5 (3.89).

    Outros destaques dos resultados:

    • Eliminação de artefatos indesejados: durante iterações de SFT, foram observados comportamentos problemáticos como geração repetitiva de comentários e predições anômalas de caracteres Unicode. Esses problemas não apareceram nos checkpoints de RFT, pois o mecanismo de recompensa desencoraja naturalmente tais artefatos.
    • Boa generalização para novos critérios de avaliação: quando os modelos RFT foram avaliados com um prompt de juiz modificado (alinhado, mas não idêntico ao usado no treinamento), o desempenho se manteve forte — evidência de que o RFT aprende padrões de qualidade generalizáveis, não apenas decora critérios específicos.
    • Custo computacional maior: o RFT exigiu de 4 a 8 rollouts por amostra de treinamento, aumentando os custos em relação ao SFT. Para aplicações de missão crítica — como revisão jurídica, conformidade financeira ou documentação de saúde — os ganhos de desempenho justificam esse custo adicional.

    Conclusão

    O RFT com LLM-as-a-judge representa uma abordagem poderosa para alinhar LLMs a aplicações específicas de domínio. Como demonstrado no caso de revisão de contratos jurídicos, a metodologia entrega melhorias significativas sobre modelos base e sobre o ajuste fino supervisionado tradicional.

    Para equipes que constroem sistemas de IA de missão crítica, a recomendação da AWS é começar pequeno: validar o design do juiz em benchmarks curados, verificar a resiliência da infraestrutura e escalar gradualmente monitorando sinais de reward hacking.

    Para aprofundamento, a AWS disponibiliza o Guia do Desenvolvedor Amazon Nova 2, o Nova Forge SDK no GitHub e a documentação de Ajuste Fino por Reforço (RFT) com modelos Amazon Nova.

    Fonte

    Reinforcement fine-tuning with LLM-as-a-judge (https://aws.amazon.com/blogs/machine-learning/reinforcement-fine-tuning-with-llm-as-a-judge/)