Category: Uncategorized

  • AWS conquista certificações SNI 27017, SNI 27018 e SNI 9001 na Região Ásia-Pacífico (Jacarta)

    AWS avança em conformidade na Indonésia com três novas certificações nacionais

    A Amazon Web Services (AWS) acaba de conquistar três certificações do Padrão Nacional Indonésio — o Standar Nasional Indonesia (SNI) — para a sua Região Ásia-Pacífico (Jacarta). As certificações obtidas são: SNI ISO/IEC 27017:2015, SNI ISO/IEC 27018:2019 e SNI ISO 9001:2015.

    O SNI é o framework de padrões nacionais da Indonésia, com aplicação ampla em diferentes setores da economia do país. Conquistar essas certificações significa que os serviços da AWS atendem a requisitos formalmente reconhecidos pelo governo indonésio.

    Como as certificações foram obtidas

    A avaliação foi conduzida por um auditor terceiro independente, credenciado pelo Komite Akreditasi Nasional (KAN) — o Comitê Nacional de Acreditação da Indonésia. O processo seguiu os requisitos regulatórios locais aplicáveis, o que oferece aos clientes uma validação confiável e reconhecida regionalmente para suas necessidades de conformidade.

    O que cada certificação significa na prática

    • SNI 27017: baseada na norma internacional ISO/IEC 27017, adiciona controles de segurança específicos para ambientes de nuvem, complementando a ISO/IEC 27001. Ajuda organizações a executar cargas de trabalho com mais segurança e reduz o esforço em avaliações de segurança.
    • SNI 27018: focada na proteção de Informações de Identificação Pessoal (PII) em nuvens públicas. Confirma que a AWS trata os dados dos clientes em conformidade com padrões internacionais de privacidade.
    • SNI 9001: estabelece sistemas de gestão da qualidade que garantem entrega consistente de serviços e melhoria contínua nas operações da AWS.

    AWS se torna a primeira provedora com as quatro certificações SNI

    Somadas à certificação SNI 27001, conquistada em 2023, a AWS se torna agora a primeira provedora de serviços de nuvem (CSP) a deter as quatro certificações SNI — SNI 27001, SNI 27017, SNI 27018 e SNI 9001. Esse conjunto demonstra alinhamento abrangente com os padrões nacionais da Indonésia em segurança da informação, segurança em nuvem, privacidade e gestão da qualidade, ajudando clientes a atender a uma ampla gama de exigências regulatórias e de gestão de riscos.

    Como acessar os certificados e verificar os serviços cobertos

    Os certificados correspondentes estão disponíveis pelo AWS Artifact, o portal de autoatendimento da AWS para acesso sob demanda à documentação de conformidade. Para consultar a lista completa de serviços cobertos pelas certificações SNI, acesse a página de serviços em escopo da AWS.

    A AWS segue expandindo o escopo de seus programas de conformidade para ajudar clientes a atenderem seus requisitos arquiteturais, de negócios e regulatórios. Para mais informações sobre essas certificações, o recomendado é entrar em contato com o time de contas AWS.

    Fonte

    AWS achieves SNI 27017, SNI 27018, and SNI 9001 certifications for the AWS Asia Pacific (Jakarta) Region (https://aws.amazon.com/blogs/security/aws-achieves-sni-27017-sni-27018-and-sni-9001-certifications-for-the-aws-asia-pacific-jakarta-region/)

  • Resumo de Segurança AWS: Tudo que Aconteceu em Abril de 2026

    Visão Geral do Mês

    Todo mês, o blog de segurança da AWS consolida os principais lançamentos, posts técnicos, amostras de código e boletins de vulnerabilidades em um único digest. Abril de 2026 foi especialmente movimentado: o tema central foi a segurança de sistemas de IA agêntica, mas o mês também trouxe avanços importantes em proteção de dados, resposta a incidentes e conformidade em escala organizacional. Veja abaixo o que foi publicado e o que merece atenção imediata no seu ambiente.

    Posts do Blog de Segurança AWS

    Os artigos de abril cobriram cinco grandes áreas: identidade e controle de acesso, segurança de IA, governança e conformidade, detecção e resposta a incidentes, e proteção de dados.

    Identidade e Controle de Acesso

    Dois posts exploraram o tema de políticas e controle de acesso com profundidade prática. O primeiro, Controle de acesso com session tags do IAM Identity Center, ensina a combinar permission sets do AWS IAM Identity Center com session tags provenientes do Microsoft Entra ID para implementar Controle de Acesso Baseado em Atributos (ABAC) de forma granular em múltiplas contas AWS.

    O segundo, Dá para fazer isso com uma policy? Entendendo a Referência de Autorização de Serviços da AWS, orienta como usar a AWS Service Authorization Reference para descobrir o que é possível alcançar com políticas IAM, identificar cenários que exigem abordagens alternativas e construir controles de segurança mais eficazes.

    Segurança de IA

    Este foi o bloco mais denso do mês, com cinco publicações dedicadas ao tema.

    O post Padrões de acesso seguro para agentes de IA em recursos AWS usando o Model Context Protocol apresenta três princípios fundamentais: privilégio mínimo, governança de papéis organizacionais e diferenciação entre ações iniciadas por IA e por humanos — tudo no contexto do protocolo MCP.

    Quatro princípios de segurança para sistemas de IA agêntica sistematiza as recomendações da AWS em resposta ao NIST: ciclo de vida de desenvolvimento seguro, controles tradicionais adaptados, aplicação determinística de regras externas e autonomia conquistada por meio de avaliação contínua.

    O artigo Projetando confiança e segurança em aplicações com Amazon Bedrock trata da integração de conceitos de IA responsável em aplicações baseadas no Amazon Bedrock, cobrindo detecção de abuso, monitoramento com Amazon CloudWatch, configuração do Bedrock Guardrails e o processo de resposta a abusos.

    O post de maior repercussão do mês foi Construindo defesas de IA em escala: antes das ameaças surgirem. Nele, o CISO da AWS anuncia o Project Glasswing em parceria com a Anthropic, apresentando o Claude Mythos Preview para pesquisa de vulnerabilidades, além da disponibilidade geral do AWS Security Agent para testes de penetração autônomos.

    Governança e Conformidade

    O post Conformidade de tags com Shift-Left usando AWS Organizations e Terraform mostra como validar conformidade de tags ainda durante o desenvolvimento, combinando políticas de tags do AWS Organizations, um módulo Terraform reutilizável e uma abordagem orientada a testes que valida dinamicamente contra políticas organizacionais ativas.

    Detecção e Resposta a Incidentes

    Três publicações cobriram esse domínio. O artigo O que a atualização do Catálogo de Técnicas de Ameaças de março de 2026 significa para seu ambiente AWS, produzido pela equipe CIRT da AWS, detalha três novas técnicas: abuso de refresh token do Amazon Cognito, exclusão de imagens AMI para comprometer a recuperação e modificações em trust policies para persistência e escalada de privilégios.

    Em Um framework para coletar artefatos forenses com segurança em buckets S3, a AWS descreve como realizar coleta forense segura no Amazon S3 usando credenciais temporárias com privilégio mínimo via AWS STS session policies e fluxos automatizados com AWS Step Functions.

    O terceiro post, Transformando logs de segurança para o formato OCSF com uma solução ETL orientada a configuração, apresenta uma solução do AWS ProServe que converte logs personalizados para o formato Open Cybersecurity Schema Framework (OCSF) usando AWS Step Functions, AWS Glue ou Amazon EMR Serverless, com integração ao Amazon Security Lake.

    Vale mencionar ainda o artigo Um guia técnico de segurança multicloud full-stack com AWS Security Hub Extended, que explica como essa extensão simplifica a aquisição e operação de segurança em ambientes multicloud por meio de soluções de parceiros curadas, faturamento unificado e consolidação de findings baseada em OCSF.

    Proteção de Dados

    Três posts abordaram proteção de dados com foco em criptografia avançada.

    O artigo Protegendo seus segredos dos riscos quânticos do futuro orienta como atualizar clientes do AWS Secrets Manager para usar TLS pós-quântico híbrido com ML-KEM, protegendo segredos contra ataques do tipo “harvest-now-decrypt-later” (capturar agora, descriptografar depois), com verificação de conexões via AWS CloudTrail.

    Em Como o AWS KMS e o AWS Encryption SDK superam os limites da criptografia simétrica, a AWS explica como o AWS Key Management Service e o SDK de criptografia usam métodos de chave derivada para gerenciar automaticamente os limites do AES-GCM, eliminando a necessidade de rotação manual de chaves.

    Por fim, Como clonar um cluster AWS CloudHSM entre regiões detalha o uso do comando CopyBackupToRegion para replicar clusters do AWS CloudHSM para outra região e sincronizar chaves — inclusive chaves não exportáveis — para fins de recuperação de desastres.

    Boletins de Segurança de Abril

    A AWS divulgou investigações de vulnerabilidades em vários produtos e serviços ao longo do mês. Abaixo estão os boletins publicados — verifique se algum deles afeta componentes do seu ambiente e aplique os patches recomendados:

    Amostras de Código AWS (AWS Samples)

    Abril trouxe 16 novos repositórios prontos para uso, cobrindo identidade, governança, conformidade, detecção e resposta, segurança de IA, proteção de dados e infraestrutura. Veja os destaques por categoria:

    Identidade

    Governança

    Conformidade

    • Compliance Lens — Solução serverless que analisa snapshots do AWS Config em toda uma organização AWS, compara com conjuntos de regras de conformidade e visualiza o posicionamento de conformidade via Amazon QuickSight.
    • Configuração Terraform para o AWS Security Agent — Provisionamento de recursos do AWS Security Agent usando o provider Terraform AWSCC, automatizando criação de espaço de agente, roles IAM, registro de domínio alvo e configuração de testes de penetração.

    Detecção e Resposta a Incidentes

    Proteção de Dados

    Infraestrutura e Segurança de IA

    O que Fica de Lição do Mês

    Abril de 2026 deixa claro que proteger cargas de trabalho de IA exige o mesmo rigor aplicado à infraestrutura tradicional — e, em alguns aspectos, ainda mais atenção. Os posts e amostras deste mês oferecem padrões concretos para aplicar privilégio mínimo em sistemas agênticos, automatizar governança em escala organizacional e preparar implementações criptográficas para os requisitos pós-quânticos que se aproximam.

    Os boletins de segurança cobrem vulnerabilidades em camadas de computação, rede e ferramentas de desenvolvimento — reforçando a necessidade de aplicar patches de forma consistente e sem atraso. Cada recurso listado aqui inclui etapas de implantação ou código executável para que você possa validar a abordagem no seu próprio ambiente antes de adotá-la em produção.

    Fonte

    ICYMI: April 2026 @AWS Security (https://aws.amazon.com/blogs/security/icymi-april-2026-aws-security/)

  • Amazon SageMaker Unified Studio ganha recursos de gerenciamento de identidade e usuários

    Mais controle para administradores no SageMaker Unified Studio

    A AWS anunciou novos recursos de administração no Amazon SageMaker Unified Studio que ampliam o controle sobre configuração de identidade e gerenciamento de usuários. As novidades atendem tanto domínios do tipo IAM quanto domínios do tipo Identity Center, tornando a gestão de times mais flexível e centralizada.

    O que muda nos domínios IAM do SageMaker

    Para quem utiliza domínios IAM no SageMaker Unified Studio, agora é possível integrar o AWS IAM Identity Center para permitir que usuários acessem a plataforma via single sign-on (autenticação única). Com essa configuração, os administradores podem adicionar como membros de projetos:

    • Funções IAM (IAM roles)
    • Usuários IAM (IAM users)
    • Usuários do IAM Identity Center
    • Grupos do IAM Identity Center

    Isso significa que equipes conseguem colaborar nos dados e recursos de um projeto mesmo que cada membro se autentique de uma forma diferente. A configuração da integração com o IAM Identity Center é feita diretamente pelo portal de administração do SageMaker Unified Studio.

    Outro recurso relevante para domínios IAM é a nova página de gerenciamento de usuários do domínio, que oferece uma visão consolidada de todos os usuários ativos. A partir dessa tela única, os administradores conseguem gerenciar acessos e atualizar permissões sem precisar navegar por múltiplas interfaces.

    O que muda nos domínios Identity Center do SageMaker

    Nos domínios Identity Center, a novidade é a possibilidade de usuários acessarem o portal do SageMaker Unified Studio por meio de federação via função IAM. A plataforma passa a criar uma sessão de usuário única para cada pessoa que acessa de forma federada — o que resolve um problema prático importante: quando múltiplos usuários compartilham a mesma função IAM, eles não sobrescrevem mais o trabalho uns dos outros.

    Além disso, os administradores agora conseguem auditar ações individuais mesmo em cenários onde vários usuários compartilham uma única função IAM, o que melhora significativamente a rastreabilidade e a governança.

    Flexibilidade para equipes com diferentes métodos de autenticação

    Com essas atualizações, as equipes podem utilizar tanto identidade IAM quanto identidade corporativa via IAM Identity Center nos dois tipos de domínio do SageMaker Unified Studio. O resultado prático é maior flexibilidade para colaboração, independentemente de como cada membro do time realiza sua autenticação.

    Disponibilidade regional

    Os novos recursos já estão disponíveis nas seguintes regiões AWS: Ásia-Pacífico (Mumbai, Seul, Singapura, Sydney e Tóquio), Canadá (Central), Europa (Frankfurt, Irlanda, Londres, Paris e Estocolmo), América do Sul (São Paulo), Leste dos EUA (Virgínia do Norte e Ohio) e Oeste dos EUA (Oregon).

    Para aprofundar o entendimento sobre as configurações disponíveis, a AWS disponibiliza a documentação oficial do SageMaker Unified Studio.

    Fonte

    Amazon SageMaker Unified Studio adds identity and user management features (https://aws.amazon.com/about-aws/whats-new/2026/05/smus-identity-user-management/)

  • Novo guia de conformidade disponível: ISO/IEC 42001:2023 na AWS

    A AWS disponibiliza guia prático para conformidade com a ISO/IEC 42001:2023

    A AWS acaba de lançar um novo guia de conformidade dedicado à norma ISO/IEC 42001:2023 — um padrão internacional que define requisitos para a criação e operação de um Sistema de Gestão de Inteligência Artificial, conhecido pela sigla em inglês AIMS (Artificial Intelligence Management System). O material foi desenvolvido para ajudar organizações que utilizam a nuvem AWS a estruturar sua governança de IA de forma alinhada a um dos frameworks mais reconhecidos globalmente nessa área.

    Com o crescimento acelerado do uso de cargas de trabalho de IA e IA generativa na nuvem, adotar padrões como a ISO/IEC 42001:2023 tornou-se um passo relevante para fortalecer a governança, o gerenciamento de riscos e as práticas de IA responsável dentro das organizações. O novo guia da AWS chega justamente para preencher essa lacuna prática: traduzir os requisitos da norma em ações concretas dentro do ambiente AWS.

    Para quem é este guia?

    O documento foi pensado para um público técnico e estratégico ao mesmo tempo. Entre os perfis contemplados estão:

    • Arquitetos de nuvem
    • Engenheiros de IA/ML (Machine Learning)
    • Equipes de segurança
    • Líderes de conformidade
    • Profissionais de DevOps

    Em outras palavras, qualquer pessoa envolvida na implementação, operação ou auditoria de sistemas de IA na AWS pode se beneficiar do conteúdo.

    O que o guia cobre?

    O material da AWS oferece uma visão abrangente de como integrar os serviços da plataforma a um AIMS em conformidade com a ISO 42001:2023. A seguir, os principais blocos de conteúdo presentes no guia:

    Visão geral da norma ISO/IEC 42001:2023

    O guia explica o que é a ISO/IEC 42001:2023, como ela se relaciona com a família mais ampla de padrões ISO voltados para IA, e o que são seus Anexos. Essa introdução é especialmente útil para equipes que ainda estão se familiarizando com o framework.

    Integração com a arquitetura de segurança da AWS e o Modelo de Responsabilidade Compartilhada

    Um ponto central do guia é a aplicação do Modelo de Responsabilidade Compartilhada da AWS no contexto de cargas de trabalho de IA. Embora a AWS forneça uma infraestrutura de nuvem segura e em conformidade, com capacidades nativas de IA responsável, as organizações continuam responsáveis por definir o escopo do seu AIMS, implementar os controles necessários e demonstrar conformidade durante as auditorias de certificação.

    Contexto e escopo para estabelecer um AIMS na AWS

    O guia orienta sobre como definir os limites dos sistemas de IA dentro do ambiente AWS — uma etapa fundamental para qualquer organização que queira estabelecer formalmente seu AIMS.

    Mapeamento das cláusulas 4 a 10 da ISO 42001:2023 para serviços AWS

    Esta é uma das partes mais práticas do documento. O guia mapeia cada cláusula da norma — que abrange contexto organizacional, liderança, planejamento, suporte, operação, avaliação de desempenho e melhoria — para serviços e capacidades arquiteturais específicos da AWS. Isso facilita muito a vida de quem precisa implementar os controles no dia a dia.

    Orientações para os controles do Anexo A (A.2 a A.10)

    O guia também detalha como implementar os controles específicos do Anexo A da norma, que incluem temas como:

    • Políticas de IA
    • Organização interna
    • Recursos para sistemas de IA
    • Avaliações de impacto
    • Gestão do ciclo de vida de sistemas de IA
    • Governança de dados
    • Transparência para partes interessadas
    • Uso de sistemas de IA
    • Relacionamento com terceiros e clientes

    Coleta de evidências e preparação para auditorias

    O material traz recomendações práticas para coleta de evidências, documentação e preparação para auditorias de certificação utilizando ferramentas nativas da AWS. O objetivo é ajudar as equipes a manterem visibilidade sobre seus sistemas de IA, melhorarem a consistência operacional e chegarem prontas para uma auditoria.

    Automação e infraestrutura como código para conformidade com IA

    Por fim, o guia apresenta boas práticas para operacionalizar as atividades de conformidade de IA por meio de automação e infraestrutura como código (IaC — Infrastructure as Code), reduzindo o esforço manual e aumentando a rastreabilidade.

    Como usar o guia na prática

    A AWS recomenda que as organizações utilizem o guia para mapear as cláusulas da ISO 42001 e os controles do Anexo A para o seu ambiente AWS, automatizar a coleta de evidências e reduzir o esforço envolvido na preparação para uma auditoria de certificação.

    O Guia de Conformidade ISO/IEC 42001:2023 na AWS está disponível para download gratuitamente. Para organizações que precisam de suporte adicional, a AWS também disponibiliza o AWS Security Assurance Services como canal de contato para assistência especializada.

    Por que isso importa para o mercado brasileiro?

    Para as equipes brasileiras que trabalham com IA na nuvem, este guia representa um recurso valioso — especialmente em um momento em que a governança de IA começa a ganhar atenção regulatória e estratégica também no Brasil. Ter um material estruturado que conecta um padrão internacional reconhecido como a ISO/IEC 42001:2023 aos serviços concretos da AWS facilita enormemente a jornada de conformidade, seja para obter uma certificação formal ou simplesmente para amadurecer as práticas internas de IA responsável.

    Fonte

    New compliance guide available: ISO/IEC 42001:2023 on AWS (https://aws.amazon.com/blogs/security/new-compliance-guide-available-iso-iec-420012023-on-aws/)

  • Dashboards de Análise de Tráfego de IA para o AWS WAF: o que você precisa saber

    O crescimento do tráfego de IA e o desafio de entendê-lo

    Se você opera aplicações web na AWS, já deve ter percebido que o tráfego que chega aos seus endpoints não é mais majoritariamente humano. Agentes de IA, crawlers de pesquisa, bots de coleta de dados para treinamento de modelos — tudo isso passou a representar, segundo a própria AWS, entre 30% e 60% do tráfego total de muitas organizações. E esse número só tende a crescer.

    O problema é que as ferramentas tradicionais de gerenciamento de bots não foram projetadas para lidar com as nuances do tráfego gerado por IA. Saber que “existe tráfego automatizado” não é suficiente. As equipes precisam responder perguntas muito mais específicas: quais organizações de IA estão acessando meu conteúdo? Com qual intenção? Quais endpoints são os mais visados? O padrão mudou nas últimas semanas? E, principalmente: como transformar essa visibilidade em decisões de negócio concretas?

    Foi para endereçar exatamente esse gap que a AWS anunciou os dashboards de Análise de Tráfego de IA para o AWS WAF.

    O que são os dashboards de Análise de Tráfego de IA

    O novo recurso está disponível diretamente no console do AWS WAF, dentro dos pacotes de proteção — também conhecidos como Listas de Controle de Acesso Web (web ACLs). Ele oferece visibilidade especializada sobre a atividade de bots e agentes de IA que interagem com suas aplicações.

    Com esse lançamento, o AWS WAF Bot Control expande sua cobertura de detecção para rastrear mais de 650 bots e agentes únicos, tornando-se um dos catálogos de detecção de bots de IA mais abrangentes disponíveis no mercado — e com previsão de crescimento contínuo para acompanhar o ritmo das mudanças do setor.

    Os dashboards vão além das métricas tradicionais de segurança. O foco aqui é entregar insights específicos para tráfego de IA, ajudando equipes a entender e gerenciar esse segmento crítico de forma estratégica.

    Principais capacidades do dashboard

    Identificação e verificação de bots

    O dashboard exibe quais bots de IA estão acessando suas aplicações, incluindo o nome do bot, a organização responsável e o status de verificação. Isso permite distinguir rapidamente entre agentes legítimos de organizações conhecidas e atividades potencialmente suspeitas.

    Classificação por intenção

    Além de identificar o bot, o recurso categoriza o padrão de comportamento por intenção — se o agente está realizando crawling para indexação em mecanismos de busca, conduzindo pesquisas, coletando dados para treinamento de modelos ou executando outras atividades. Essa classificação é fundamental para alinhar as políticas de acesso com os objetivos de negócio.

    Análise de padrões de acesso

    É possível identificar quais URLs e endpoints são mais frequentemente acessados por agentes de IA. Essa visibilidade ajuda a entender quais conteúdos têm mais valor para as organizações de IA e a otimizar a infraestrutura de acordo com essa demanda.

    Tendências temporais e análise histórica

    O dashboard permite acompanhar padrões de atividade de bots por hora do dia e analisar tendências históricas dos últimos 14 dias. Com isso, é possível detectar anomalias, entender os períodos de pico e identificar padrões emergentes no tráfego de IA.

    Detalhamento por organização

    O volume de tráfego é segmentado por organização proprietária do bot, oferecendo visibilidade clara sobre quais empresas de IA estão acessando seu conteúdo e em qual escala.

    Como funciona na prática

    Os dashboards de Análise de Tráfego de IA se integram ao AWS WAF Bot Control para bots comuns, utilizando o mesmo mecanismo de avaliação de tráfego já existente. As visualizações são baseadas em resumos em tempo quase real, gerados a partir de métricas do Amazon CloudWatch coletadas enquanto o AWS WAF avalia o tráfego web.

    Para acessar o dashboard, o caminho é simples:

    • Acesse seu pacote de proteção (web ACL) no Console de Gerenciamento da AWS, na seção do AWS WAF.
    • Selecione a aba AI Traffic Analysis.
    • Aplique filtros por organização de bot, tipo de intenção ou status de verificação, conforme necessário.
    • Analise as visualizações completas sobre identidade dos bots, classificação de intenção, padrões de acesso e tendências temporais.

    O dashboard é populado automaticamente assim que o pacote de proteção começa a receber tráfego de bots de IA — sem necessidade de configuração adicional.

    Da visibilidade à ação

    Ter os dados é apenas o primeiro passo. O que torna esse recurso relevante é a capacidade de transformar a visibilidade em decisões concretas. Com os insights do dashboard, as equipes conseguem:

    • Tomar decisões de acesso embasadas: entender a intenção do bot antes de implementar regras de permissão ou bloqueio.
    • Otimizar investimento em infraestrutura: identificar endpoints de alto tráfego e planejar capacidade de forma mais eficiente — avaliando se os custos de infraestrutura estão gerando valor de negócio ou sendo consumidos sem contrapartida.
    • Implementar estratégias de acesso em camadas: servir conteúdo ou precificação diferenciados com base na verificação e intenção do agente de IA.
    • Detectar anomalias e padrões emergentes: identificar comportamentos incomuns que possam indicar ameaças ou oportunidades.
    • Apoiar estratégia entre times: fornecer dados concretos para equipes de segurança, produto e negócios tomarem decisões sobre políticas de acesso e monetização de tráfego de IA.
    • Personalizar observabilidade: as métricas de análise de tráfego de IA são emitidas como métricas do CloudWatch, permitindo que as organizações construam alertas proativos ou ações de negócio como ajustes de rate limit.

    Monetização de tráfego de IA na borda

    Para quem quer ir além da visibilidade e explorar modelos de monetização, a AWS disponibilizou uma arquitetura de referência que combina o Bot Control do WAF com controle de tráfego e monetização de conteúdo usando o protocolo de pagamento x402. O projeto sample-x402-content-monetization-with-cloudfront-and-waf no GitHub demonstra como classificar tráfego de bots de IA, aplicar políticas de precificação por caminho e processar pagamentos na borda usando o Amazon CloudFront e o Lambda@Edge — sem alterações nas origens existentes.

    Vale ressaltar que esse projeto do AWS Samples é um exemplo educativo, não um produto com suporte oficial. Qualquer aplicação que o utilize deve ser devidamente testada, protegida e otimizada conforme os padrões de segurança da organização antes de ir para produção. Além disso, o deploy provisiona recursos que geram cobranças adicionais na AWS.

    Acesso programático via API

    Além do dashboard no console, a AWS disponibilizou acesso programático aos dados de tráfego de bots de IA por meio da ação GetTopPathStatisticsByTraffic, disponível na API do AWS WAF, nos SDKs da AWS e na Interface de Linha de Comando (CLI) da AWS.

    Essa ação retorna os principais caminhos de URI por volume de tráfego de bots para uma web ACL e janela de tempo específicas. Cada caminho na resposta inclui contagens de requisições, percentuais de tráfego e os principais bots que o acessaram. É possível filtrar por categoria de bot (por exemplo, ai), organização ou nome específico do bot, além de usar um prefixo de caminho URI para detalhar áreas específicas da aplicação.

    O exemplo abaixo, usando a CLI da AWS, mostra como consultar os principais caminhos acessados por bots de IA para uma web ACL específica:

    aws wafv2 get-top-path-statistics-by-traffic \
      --web-acl-arn "arn:aws:wafv2:us-east-1:123456789012:global/webacl/ExampleWebACL/a1b2c3d4-5678-90ab-cdef-EXAMPLE11111" \
      --scope "CLOUDFRONT" \
      --time-window StartTime=2026-02-25T00:00:00Z,EndTime=2026-02-26T00:00:00Z \
      --bot-category "ai" \
      --uri-path-prefix "/api/" \
      --limit 5 \
      --number-of-top-traffic-bots-per-path 3

    Um exemplo de resposta:

    {
      "TopPathStatistics": [
        {
          "Path": "/api/v1/products",
          "RequestCount": 145320,
          "TrafficPercentage": 32.4,
          "TopBots": [
            {
              "BotName": "ExampleBotA",
              "Organization": "ExampleOrgA",
              "RequestCount": 98210
            },
            {
              "BotName": "ExampleBotB",
              "Organization": "ExampleOrgB",
              "RequestCount": 47110
            },
            {
              "BotName": "ExampleBotC",
              "Organization": "ExampleOrgC",
              "RequestCount": 0
            }
          ]
        },
        {
          "Path": "/api/v2/search",
          "RequestCount": 87650,
          "TrafficPercentage": 19.5,
          "TopBots": [
            {
              "BotName": "ExampleBotA",
              "Organization": "ExampleOrgA",
              "RequestCount": 52300
            },
            {
              "BotName": "ExampleBotC",
              "Organization": "ExampleOrgC",
              "RequestCount": 35350
            },
            {
              "BotName": "ExampleBotB",
              "Organization": "ExampleOrgB",
              "RequestCount": 0
            }
          ]
        }
      ],
      "TimeWindow": {
        "StartTime": "2026-02-25T00:00:00Z",
        "EndTime": "2026-02-26T00:00:00Z"
      }
    }

    O acesso programático abre uma série de possibilidades:

    • Construir dashboards personalizados ou integrar os dados de tráfego de IA a plataformas de observabilidade existentes.
    • Automatizar alertas quando caminhos específicos apresentarem picos incomuns de tráfego de bots.
    • Alimentar pipelines de inteligência de negócios para decisões de monetização de conteúdo.
    • Investigar e depurar atividade de bots de IA em janelas de tempo específicas para identificar a causa raiz de anomalias ou incidentes.

    Para informações detalhadas de uso, consulte a referência da API GetTopPathStatisticsByTraffic e a referência do comando AWS CLI. Essa API complementa naturalmente a abordagem via métricas do CloudWatch, oferecendo tanto fluxos de métricas em tempo real quanto análises de caminhos sob demanda para um gerenciamento completo do tráfego de IA.

    Disponibilidade e preços

    Para clientes nos planos de preço fixo do CloudFront, o dashboard de Análise de Tráfego de IA está incluído em todos os planos pagos. Saiba mais sobre essa modalidade no post de lançamento do blog.

    Para clientes do AWS WAF que não estão inscritos nos planos de preço fixo, o dashboard de análise de tráfego de IA está disponível sem custo adicional. Consulte a página de preços do AWS WAF para mais detalhes.

    Como começar

    Para equipes que já utilizam o AWS WAF, o ponto de partida é simples: acesse o console do AWS WAF, navegue até sua web ACL e procure a aba de Análise de Tráfego de IA. O dashboard começa a exibir dados automaticamente assim que tráfego de bots de IA é detectado.

    Para aprofundar o conhecimento sobre o AWS WAF Bot Control e os dashboards de Análise de Tráfego de IA, a AWS disponibiliza o Guia do Desenvolvedor do AWS WAF como referência completa.

    À medida que os agentes de IA continuam crescendo como parcela do tráfego web total, ter as ferramentas certas de visibilidade deixa de ser um diferencial e passa a ser um requisito — tanto para a segurança quanto para o sucesso do negócio.

    Fonte

    Introducing AI traffic analysis dashboards for AWS WAF (https://aws.amazon.com/blogs/security/introducing-ai-traffic-analysis-dashboards-for-aws-waf/)

  • 5 formas de usar o Kiro e o Amazon Q para fortalecer sua segurança na AWS

    Segurança com IA: o que a AWS propõe com Kiro e Amazon Q Developer

    Imagine uma segunda-feira com alertas de acesso não autorizado, grupos de segurança mal configurados e violações de políticas de Gerenciamento de Identidade e Acesso (IAM) esperando resposta. A equipe precisa agir rápido — e é exatamente nesse cenário que a AWS posiciona o Kiro e o Amazon Q Developer como aliados práticos.

    A proposta publicada no blog de segurança da AWS descreve cinco técnicas para usar essas ferramentas de IA no reforço da postura de segurança, todas alinhadas ao Pilar de Segurança do AWS Well-Architected Framework. A ideia central: deixar que a IA cuide das tarefas repetitivas — varredura de recursos, rascunho de políticas, pesquisa de vulnerabilidades — enquanto os engenheiros focam nas decisões de risco que exigem julgamento humano.

    Entendendo as ferramentas

    Antes de entrar nas técnicas, vale entender o que cada ferramenta faz:

    • Kiro: um Ambiente de Desenvolvimento Integrado (IDE) agnóstico com capacidades de agente de IA, projetado pela AWS para desenvolvimento guiado por especificações. Combina prompts em linguagem natural com codificação estruturada para gerar, testar e implantar aplicações.
    • Amazon Q Developer: o assistente de IA generativa integrado ao ecossistema AWS, capaz de responder perguntas, gerar código, diagnosticar problemas e automatizar tarefas operacionais em serviços da AWS.

    As duas ferramentas são complementares. A escolha depende do fluxo de trabalho da equipe — e em muitos casos faz sentido usar ambas.

    Técnica 1: Contexto persistente de segurança

    Essa é a base de tudo. Sem contexto, o assistente de IA produz resultados genéricos. Com ele, cada interação já parte dos padrões de segurança da sua organização — sem precisar repetir os requisitos a cada prompt.

    O Amazon Q Developer usa arquivos de regras (rules) armazenados em .amazonq/rules/ no diretório do projeto. O Kiro usa steering files (arquivos de direcionamento), que ficam na raiz do projeto e fornecem ao agente consciência contínua da arquitetura e dos padrões de segurança em todas as sessões.

    Um exemplo de arquivo de padrões de segurança cobre áreas como:

    • IAM: princípio de menor privilégio, MFA obrigatório, rotação de chaves a cada 90 dias
    • Proteção de dados: criptografia em repouso e em trânsito, uso de chaves gerenciadas pelo cliente no AWS KMS (Serviço de Gerenciamento de Chaves)
    • Proteção de infraestrutura: grupos de segurança com menor privilégio, VPC Flow Logs, uso de AWS WAF para aplicações públicas
    • Controles detectivos: AWS CloudTrail em todas as regiões, Amazon GuardDuty ativo, AWS Config com regras de conformidade
    • Resposta a incidentes: tópicos Amazon SNS para alertas, runbooks documentados, automação com AWS Lambda

    O impacto é direto: sem esse contexto, um prompt como “Crie uma função Lambda para processar dados de clientes” pode gerar código sem criptografia, sem logs e sem configuração de IAM. Com o arquivo de padrões ativo, o mesmo prompt produz automaticamente variáveis de ambiente criptografadas com KMS, grupo de logs no CloudWatch com retenção de 90 dias, IAM com menor privilégio, posicionamento em sub-redes privadas e rastreamento com AWS X-Ray.

    Técnica 2: Triagem acelerada de alertas de segurança

    O AWS Security Hub consolida alertas do GuardDuty, Config, Amazon Inspector e ferramentas de terceiros em um único painel. O Kiro pode complementar esse fluxo usando Protocolos de Contexto de Modelo (MCPs) — uma forma padronizada de conectar assistentes de IA a ferramentas externas e APIs em tempo real.

    Com os servidores MCP configurados, o Kiro consegue:

    • Consultar alertas do Security Hub em linguagem natural, em múltiplas contas e regiões
    • Pesquisar o contexto de Vulnerabilidades e Exposições Comuns (CVEs) e seu impacto na infraestrutura
    • Gerar consultas de investigação para CloudTrail e VPC Flow Logs
    • Correlacionar eventos de segurança entre diferentes períodos e serviços

    Para habilitar isso, é preciso configurar servidores MCP de segurança no Kiro. Os servidores MCP de código aberto para AWS disponíveis incluem o AWS API MCP Server (para interagir com Security Hub, GuardDuty e IAM Access Analyzer), o CloudTrail MCP Server e o AWS IAM MCP Server. A lista completa está no repositório awslabs/mcp no GitHub. Para instruções detalhadas de configuração, a documentação de MCP do Kiro tem o passo a passo.

    O resultado prático: triagens que antes exigiam navegar por vários consoles e correlacionar logs manualmente podem ser feitas em minutos, reduzindo o tempo médio de triagem de horas para minutos.

    Técnica 3: Remediação de problemas em infraestrutura como código

    O Kiro e o Amazon Q Developer conseguem varrer arquivos de infraestrutura — escritos em AWS CloudFormation, Terraform ou AWS CDK (Kit de Desenvolvimento em Nuvem) — e identificar lacunas de segurança com recomendações específicas de correção.

    O fluxo recomendado é:

    • Solicitar ao assistente que escaneie os arquivos e identifique os problemas
    • Revisar as sugestões com a equipe de segurança
    • Testar as mudanças em ambientes não produtivos
    • Validar com serviços como IAM Access Analyzer, AWS Config e Security Hub
    • Implantar em produção com monitoramento e procedimentos de rollback

    Atenção importante: sugestões geradas por IA devem ser revisadas por um engenheiro de segurança qualificado antes de qualquer implementação. A IA é um ponto de partida, não um produto final.

    Com o contexto persistente ativo, os controles aplicados automaticamente incluem criptografia em repouso e em trânsito, políticas de IAM com menor privilégio, otimização de grupos de segurança, configurações de VPC e habilitação de logs.

    Técnica 4: Revisões de segurança aprofundadas

    Tanto o Amazon Q Developer quanto o Kiro conseguem analisar código de infraestrutura e identificar problemas de segurança em múltiplas categorias alinhadas ao Pilar de Segurança do Well-Architected Framework.

    No Amazon Q Developer, o fluxo é direto: selecione o código no IDE, acesse o menu de contexto, escolha Send to Amazon QOptimizeFocus on security best practices.

    No Kiro, basta um prompt em linguagem natural como “Realize uma revisão completa de segurança neste template CloudFormation e identifique todos os desvios dos nossos padrões”. O Kiro aplica automaticamente os steering files como contexto adicional.

    As categorias avaliadas incluem políticas de IAM excessivamente permissivas, configuração de logs no CloudTrail, status do GuardDuty, grupos de segurança mal configurados, status de criptografia de armazenamento, configuração de alertas com Amazon SNS e políticas de retenção de logs, entre outras. Para a lista completa e atualizada, a documentação do Pilar de Segurança do Well-Architected Framework é a referência.

    Equipes que integram essa revisão como etapa pré-commit relatam identificar uma parcela significativa dos problemas de segurança antes que o código chegue ao pipeline de Integração e Entrega Contínuas (CI/CD) — onde são mais rápidos e baratos de corrigir.

    Técnica 5: Desenvolvimento de Políticas de Controle de Serviço (SCPs)

    As Políticas de Controle de Serviço do AWS Organizations (SCPs) aplicam controles preventivos em todas as contas de uma organização. O Kiro pode gerar rascunhos iniciais de SCPs a partir de requisitos descritos em linguagem natural — acelerando bastante o processo de criação e iteração.

    O fluxo recomendado tem cinco etapas:

    1. Gerar o rascunho: descreva os requisitos em linguagem natural (ex: negar criação de buckets S3 sem criptografia, exigir MFA para acesso de usuários IAM, impedir snapshots RDS públicos) e o Kiro gera o JSON completo da política.
    2. Validar e fazer lint: use o Kiro ou Amazon Q Developer para revisar erros de sintaxe, declarações de negação excessivamente amplas e condition keys ausentes. O IAM Policy Autopilot, disponível como Kiro Power, complementa esse processo analisando o uso da aplicação e gerando as permissões necessárias. O IAM Policy Simulator adiciona outra camada de validação, permitindo testar o comportamento das políticas.
    3. Testar em sandbox: criar uma Unidade Organizacional (OU) de teste com contas não produtivas e aplicar a SCP. Usar o Kiro para pré-validar a infraestrutura existente contra a SCP proposta antes dos testes.
    4. Revisão por arquiteto de segurança: verificar conflitos com SCPs existentes, usar o IAM Policy Simulator para testar interações entre políticas e confirmar que os procedimentos de acesso de emergência (SEC03-BP03 e SEC10-BP05) continuam funcionando.
    5. Implantação gradual: começar pelas contas de desenvolvimento, monitorar violações e expandir progressivamente, mantendo procedimentos de rollback documentados.

    Atenção crítica: uma SCP mal configurada pode causar interrupções em toda a organização. Nunca implante SCPs geradas por IA diretamente em produção sem revisão especializada e testes em etapas.

    Framework de implementação responsável

    A AWS recomenda uma abordagem em duas fases para adotar esses fluxos de trabalho com segurança:

    • Fase 1 — Desenvolvimento e testes (semanas 1 a 4): testar controles gerados por IA em contas de desenvolvimento isoladas, validar com IAM Access Analyzer, AWS Config e Security Hub, e construir expertise interna nas equipes.
    • Fase 2 — Staging e produção (semana 5 em diante): aplicar os controles validados em ambiente de staging, realizar testes de penetração quando aplicável, e expandir gradualmente para produção com monitoramento contínuo e procedimentos de rollback.

    Além das cinco técnicas: outros recursos complementares

    O post original da AWS também menciona recursos adicionais que complementam as cinco técnicas:

    • Amazon Inspector: serviço de gerenciamento de vulnerabilidades que escaneia continuamente workloads AWS, com integração nativa a pipelines CI/CD e ao Security Hub.
    • Amazon Q Developer security scanning: detecção de problemas de segurança em tempo real no IDE, incluindo Análise Estática de Segurança de Aplicações (SAST), detecção de segredos e análise de infraestrutura como código.
    • AWS Security Agent: agente de IA de fronteira que valida automaticamente requisitos de segurança organizacionais durante o desenvolvimento, analisa pull requests e executa testes de penetração sob demanda.
    • AWS Security Hub automated response and remediation: playbooks pré-construídos para alertas comuns usando AWS Systems Manager Automation.

    Conclusão

    A abordagem apresentada pela AWS com o Kiro e o Amazon Q Developer não é sobre substituir os controles de segurança existentes — é sobre tornar a segurança uma parte natural do fluxo de desenvolvimento, acessível a toda a equipe, não apenas aos especialistas em segurança.

    As cinco técnicas — contexto persistente, triagem de alertas, remediação de infraestrutura como código, revisões de segurança e desenvolvimento de SCPs — formam uma base prática para escalar a expertise de segurança para as equipes de desenvolvimento, reduzir o tempo entre a introdução de vulnerabilidades e sua detecção, e liberar os engenheiros de segurança para as decisões complexas que realmente exigem julgamento humano.

    Para quem quer começar: as semanas 1 e 2 devem ser dedicadas à configuração dos arquivos de contexto persistente com os 10 principais padrões de segurança e à configuração dos servidores MCP no Kiro. Recursos adicionais estão disponíveis no AWS Security Blog, nas melhores práticas do AWS Security Hub e nas documentações do Kiro e do Amazon Q Developer.

    Fonte

    Five ways to use Kiro and Amazon Q to strengthen your security posture (https://aws.amazon.com/blogs/security/five-ways-to-use-kiro-and-amazon-q-to-strengthen-your-security-posture/)

  • Como proteger agentes de IA com Amazon Bedrock AgentCore Identity no Amazon ECS

    Agentes de IA em produção precisam de identidade segura

    Colocar agentes de IA em produção vai muito além de fazer o modelo responder corretamente. Um dos desafios mais críticos é garantir que o agente acesse serviços externos de forma segura e com o escopo certo. A AWS endereça exatamente esse problema com o Amazon Bedrock AgentCore Identity, um serviço disponível de forma independente que gerencia como agentes de IA acessam recursos externos — seja rodando no Amazon ECS, no Amazon EKS, no AWS Lambda ou até em ambientes on-premises.

    Um post anterior cobriu o gerenciamento de credenciais com o AgentCore Identity. Agora, a AWS foi além e publicou uma implementação completa de como usar o serviço em ambientes como o ECS, respondendo duas perguntas práticas: como construir um endpoint de Session Binding gerenciado pela própria aplicação, e como controlar o ciclo de vida dos tokens de acesso do workload.

    OAuth 2.0 e OIDC: a base da solução

    A solução utiliza dois protocolos complementares: OAuth 2.0 (RFC 6749) e Protocolo de Conexão OpenID (OIDC). O OIDC cuida da autenticação — ou seja, confirma quem é o usuário. O OAuth 2.0 cuida da autorização — ou seja, o que esse usuário pode fazer. O foco aqui é no fluxo Authorization Code Grant, indicado para workloads que precisam agir em nome de usuários reais.

    Nesse fluxo, o usuário se autentica com um provedor de identidade e concede permissão para o agente acessar recursos específicos em seu nome. A aplicação troca o código de autorização resultante por um token de acesso com escopo definido, que o AgentCore Identity armazena no seu cofre de tokens. Como cada token está vinculado a uma identidade de usuário específica com consentimento explícito, a solução mantém uma cadeia auditável desde a autenticação até a ação do agente.

    O Authorization Code Grant é especialmente adequado para workloads agênticos porque oferece três garantias importantes:

    • Consentimento do usuário antes que o agente possa agir
    • Session binding que verifica se o usuário que iniciou a requisição é o mesmo que concedeu o consentimento
    • Delegação com escopo que limita o agente apenas às permissões aprovadas pelo usuário

    Callback URL vs. Session Binding URL

    Um ponto que costuma gerar confusão são as duas URLs envolvidas no fluxo:

    • Callback URL: gerada automaticamente ao criar um cliente OAuth no AgentCore Identity. Aponta para o próprio AgentCore Identity e precisa ser registrada no servidor de autorização como destino do redirecionamento após a autenticação do usuário.
    • Session Binding URL: aponta para um serviço gerenciado pelo cliente que completa o session binding entre o usuário autenticado e o fluxo OAuth. Esse endpoint é implementado e hospedado pelo próprio cliente.

    Arquitetura da solução no Amazon ECS

    A solução implanta dois serviços no Amazon ECS atrás de um Application Load Balancer (ALB). O primeiro é o Agentic Workload, que executa o agente de IA e processa as requisições dos usuários. O segundo é o Session Binding Service, responsável por processar os callbacks OAuth e vincular as sessões de usuário aos tokens de acesso de terceiros. O código-fonte completo e os pré-requisitos estão disponíveis no repositório GitHub que acompanha o post.

    O walkthrough usa o Microsoft Entra ID como provedor de identidade, mas qualquer provedor compatível com OIDC funciona. A arquitetura inclui os seguintes componentes de suporte:

    • Tráfego criptografado com HTTPS via AWS Certificate Manager
    • Roteamento DNS com Amazon Route 53
    • Logs capturados pelo Amazon CloudWatch e armazenados em bucket S3
    • Imagens de container no Amazon ECR
    • Regras básicas do AWS WAF no load balancer para proteção contra exploits comuns
    • Chave gerenciada pelo cliente no AWS KMS para criptografia de dados

    O fluxo completo do Authorization Code Grant

    O diagrama de sequência da solução mostra como a identidade de workload do AgentCore Identity, os tokens de acesso de workload e o provedor de credenciais OAuth 2.0 trabalham juntos para entregar tokens OAuth ao agente em nome do usuário. O fluxo parte do pressuposto de que o usuário ainda não autorizou o agente, ou seja, não há token válido no Token Vault do AgentCore Identity.

    O fluxo funciona assim:

    • O usuário autenticado envia uma requisição ao workload agêntico.
    • O workload extrai o ID do usuário do campo sub no JWT assinado pelo ALB (header x-amzn-oidc-data).
    • O workload chama a API GetWorkloadAccessTokenForUserId, passando o userId e o workloadName, para obter um token de acesso de workload com escopo para aquele usuário.
    • Em seguida, chama a API GetResourceOauth2Token, passando o token de workload, o nome do provedor OAuth 2.0, a Session Binding URL (parâmetro callbackUrl) e os escopos necessários.
    • Como não há token válido, o AgentCore Identity cria um sessionURI que rastreia o estado do fluxo de autorização e retorna uma URL de autorização para o workload.
    • O workload apresenta essa URL ao usuário, que clica e concede permissão na tela de consentimento do provedor.
    • O servidor de autorização envia o código de autorização ao AgentCore Identity, que redireciona o usuário para o Session Binding Service via Session Binding URL com o sessionURI anexado.
    • O Session Binding Service chama a API CompleteResourceTokenAuth com o sessionURI e o ID do usuário extraído do JWT, vinculando a autorização à sessão correta.
    • O AgentCore Identity troca o código de autorização com o servidor de autorização, recebe o token OAuth2, armazena no Token Vault e retorna sucesso ao Session Binding Service.

    Em requisições subsequentes, o comportamento depende das credenciais emitidas pelo servidor de autorização. Quando há um refresh token disponível — como no GitHub com expiração de token habilitada — o AgentCore Identity o usa automaticamente para renovar o access token sem precisar envolver o usuário novamente. Se não houver refresh token e o access token expirar, o usuário será solicitado a autorizar novamente. Tokens revogados pelo provedor podem ser tratados com o parâmetro forceAuthentication: true, que força um novo fluxo de autenticação.

    Por que o session binding é crítico para segurança

    O session binding protege contra dois tipos de ataque:

    • Falsificação de Requisição entre Sites (CSRF): um atacante tenta vincular seu próprio token OAuth à identidade da vítima, fazendo o agente da vítima acessar recursos do atacante sem que ela perceba — o que possibilita exfiltração de dados e injeção de conteúdo.
    • Browser Swapping Attack (ataque de troca de navegador): um atacante engana a vítima para que ela dê consentimento em nome do atacante, vinculando o token OAuth da vítima à identidade do atacante e concedendo acesso direto aos recursos da vítima.

    O session binding previne ambos ao garantir que o ID do usuário no workload agêntico seja o mesmo no Session Binding Service, com ambas as identidades verificadas criptograficamente pela cadeia de autenticação. O AgentCore Identity também suporta o parâmetro opcional customState na API GetResourceOauth2Token para passar um nonce aleatório criptograficamente seguro, protegendo o endpoint de callback contra ataques CSRF conforme recomendado pela especificação OAuth 2.0.

    Por que usar GetWorkloadAccessTokenForUserId com ALB e Microsoft Entra ID

    A API recomendada para obter um token de acesso de workload é a GetWorkloadAccessTokenForJWT, mas essa solução usa a GetWorkloadAccessTokenForUserId. O motivo é uma incompatibilidade técnica entre o fluxo OIDC do ALB e o Microsoft Entra ID.

    A GetWorkloadAccessTokenForJWT exige um JWT dinamicamente validável, com assinatura verificável em runtime e claim aud correspondente à aplicação. Para obter esse token do Entra ID, é necessário incluir o Application ID no escopo da requisição OIDC — veja a documentação do AgentCore para Microsoft Inbound. O problema é que isso é incompatível com o fluxo OIDC do ALB.

    Como parte do handshake OIDC (descrito na documentação de OIDC do ALB), o ALB envia o access token para o endpoint UserInfo do Entra para recuperar os claims do usuário autenticado. Esse endpoint UserInfo fica no Microsoft Graph (https://graph.microsoft.com/oidc/userinfo) e só aceita tokens com escopo para o Microsoft Graph. Quando o Application ID é incluído no escopo, o access token resultante tem a aplicação como audiência — o endpoint UserInfo rejeita com 401 e o ALB retorna 561. Se o Application ID for removido do escopo, o Entra define a audiência do access token como Microsoft Graph, o handshake do ALB funciona, mas o JWT resultante não pode ser validado dinamicamente pelo AgentCore e é inutilizável com a GetWorkloadAccessTokenForJWT.

    A solução adotada: o ALB completa o handshake usando o token com escopo para o Graph e injeta um JWT assinado pelo próprio ALB no header x-amzn-oidc-data com os claims do usuário, incluindo o sub. Esse JWT é validado usando as chaves de assinatura publicadas pela AWS, o sub é extraído e passado para a GetWorkloadAccessTokenForUserId.

    Implementação: os principais trechos de código

    O código completo está disponível no repositório GitHub. Abaixo estão os trechos mais relevantes.

    Obtendo o token de acesso de workload

    O servidor extrai o ID do usuário do claim sub do JWT e solicita um token de acesso de workload ao AgentCore Identity. Em seguida, usa esse token, o ID da sessão e a mensagem para invocar o agente em nome do usuário:

    @router.post("/invocations")
    async def invoke_agent(
        request: InvocationRequest,
        user_id: str = Depends(get_current_user),
        settings: Settings = Depends(get_settings),
        agent_service: AgentService = Depends(get_agent_service),
    ) -> StreamingResponse:
        """Invoke agent with streaming response."""
        try:
            agentcore = boto3.client("bedrock-agentcore", region_name=settings.identity_aws_region)
            response = agentcore.get_workload_access_token_for_user_id(
                workloadName=settings.workload_identity_name,
                userId=user_id
            )
            workload_access_token = response["workloadAccessToken"]
            return StreamingResponse(
                content=agent_service.stream_response(
                    user_message=request.user_message,
                    session_id=request.session_id,
                    user_id=user_id,
                    workload_access_token=workload_access_token,
                ),
                media_type="text/event-stream",
            )

    Solicitando o token de acesso OAuth

    O servidor usa o decorator require_access_token do AgentCore SDK para recuperar o token OAuth 2.0 (veja como obter um token de acesso OAuth 2.0). A implementação modifica o decorator para aceitar o token de workload como parâmetro explícito, dando controle direto sobre o ciclo de vida do token enquanto preserva a lógica de recuperação e tratamento de erros do SDK:

    def requires_access_token(
        *,
        provider_name: str,
        scopes: list[str],
        auth_flow: Literal["M2M", "USER_FEDERATION"],
        workload_access_token: str | None = None,
        session_binding_url: str | None = None,
        on_auth_url: Callable[[str], Any] | None = None,
        force_authentication: bool = False,
        token_poller: TokenPoller | None = None,
        custom_state: str | None = None,
        custom_parameters: dict[str, str] | None = None,
        into: str = "access_token",
        region: str | None = None,
    ) -> Callable[[Callable[..., Any]], Callable[..., Any]]:
        def decorator(func: Callable[..., Any]) -> Callable[..., Any]:
            client = IdentityClient(region)
            @wraps(func)
            async def wrapper(*args: Any, **kwargs: Any) -> Any:
                try:
                    if not workload_access_token:
                        raise ValueError("workload_access_token is required")
                    token = await client.get_token(
                        provider_name=provider_name,
                        agent_identity_token=workload_access_token,
                        scopes=scopes,
                        auth_flow=auth_flow,
                        callback_url=session_binding_url,
                        on_auth_url=on_auth_url,
                        force_authentication=force_authentication,
                        token_poller=token_poller,
                        custom_state=custom_state,
                        custom_parameters=custom_parameters,
                    )
                    kwargs[into] = token
                    return await func(*args, **kwargs)
                except Exception:
                    logger.exception("Error in requires_access_token decorator")
                    raise
            return wrapper
        return decorator

    Três decisões de design importantes

    A implementação das ferramentas do agente destaca três escolhas de design relevantes:

    • Pydantic BaseModel como tipos de retorno: as classes GitHubUser e GitHubProject são subclasses de BaseModel. O Strands deriva automaticamente descrições de ferramentas a partir do schema e das docstrings, dando ao modelo de linguagem contexto estruturado sobre cada ferramenta.
    • Tratamento de erros consistente com o tipo: quando não há token e o AgentCore Identity retorna uma URL de autorização, o callback on_auth_url lança um AuthorizationRequiredError em vez de retornar uma string — uma ferramenta que declara GitHubUser como tipo de retorno não pode retornar uma URL. A camada de streaming do agente captura a exceção e apresenta a URL ao usuário.
    • Escopos por ferramenta: cada ferramenta declara apenas os escopos OAuth que precisa, mantendo o consentimento alinhado ao princípio do menor privilégio.

    Completando o session binding

    No Session Binding Service, quando o usuário autoriza o acesso no GitHub, o GitHub redireciona para {session_binding_url}?session_id={session_id}, onde session_id corresponde ao sessionURI que o AgentCore Identity incluiu na URL de autorização original:

    @router.get("/session-binding", response_class=HTMLResponse)
    async def oauth_session_binding(
        session_id: str = Query(..., description="Session URI from AgentCore Identity"),
        user_id: str = Depends(get_current_user),
        settings: Settings = Depends(get_settings),
    ) -> HTMLResponse:
        """Handle OAuth2 session binding from external providers."""
        client = boto3.client("bedrock-agentcore", region_name=settings.identity_region)
        try:
            client.complete_resource_token_auth(
                sessionUri=session_id,
                userIdentifier={"userId": user_id},
            )

    O serviço extrai o ID do usuário do claim sub no header x-amzn-oidc-data, garantindo identidade consistente ao longo de todo o fluxo. Em seguida, chama complete_resource_token_auth com o sessionURI e o ID do usuário, vinculando o token de acesso resultante à sessão correta.

    Limpeza dos recursos

    Para evitar cobranças desnecessárias, é recomendável excluir os recursos criados pela solução quando não forem mais necessários. As instruções estão disponíveis no guia de limpeza dos recursos.

    Próximos passos

    O padrão apresentado funciona em diferentes plataformas de computação — ECS, EKS, Lambda ou fora da AWS — e se estende além do GitHub para outros serviços compatíveis com OAuth 2.0, como Jira, Salesforce ou Google Calendar. Para aprofundar:

    Fonte

    Secure AI agents with Amazon Bedrock AgentCore Identity on Amazon ECS (https://aws.amazon.com/blogs/machine-learning/secure-ai-agents-with-amazon-bedrock-agentcore-identity-on-amazon-ecs/)

  • Como proteger proxies abertos no seu ambiente AWS

    O que é um proxy aberto e por que isso importa na AWS

    Um proxy aberto é um servidor que encaminha tráfego de internet em nome de usuários sem exigir nenhum tipo de autenticação. Em teoria, proxies têm usos legítimos — balanceamento de carga, cache de conteúdo, filtragem de tráfego. O problema começa quando esses serviços ficam expostos sem controles de acesso: qualquer pessoa na internet pode utilizá-los, inclusive agentes mal-intencionados que querem esconder sua identidade ou origem.

    No contexto da Amazon Web Services (AWS), proxies abertos surgem com frequência a partir de configurações incorretas em instâncias do Amazon Elastic Compute Cloud (Amazon EC2), containers ou recursos de computação como funções do AWS Lambda. Esses recursos acabam expondo funcionalidades de proxy sem os devidos controles — muitas vezes sem que o time de infraestrutura perceba.

    Tipos comuns de proxy aberto

    Entender as variações de proxy ajuda a identificar onde a exposição pode ocorrer. Os tipos mais comuns são:

    • Proxies HTTP: encaminham requisições HTTP para servidores web. São úteis para gerenciamento de tráfego web, mas se ficarem desprotegidos, tornam-se uma porta de entrada fácil.
    • Proxies SOCKS: suportam uma gama mais ampla de tipos de tráfego, o que também amplia o potencial de uso indevido.
    • Proxies transparentes: interceptam tráfego sem que o cliente saiba, geralmente usados para filtragem de conteúdo. Quando mal configurados, viram um passivo de segurança.
    • Proxies reversos: auxiliam no roteamento interno. Se expostos indevidamente, podem ser explorados por usuários não autorizados.

    Riscos concretos para o seu ambiente AWS

    Quando a infraestrutura AWS hospeda um proxy aberto, as consequências vão além de um simples problema técnico. A AWS aponta os principais riscos:

    • Reputação do IP comprometida: agentes maliciosos podem usar seus recursos para atividades como envio de spam, tentativas de intrusão e ataques de negação de serviço (DoS — Denial of Service). Isso pode resultar na inclusão do seu endereço IP em listas de bloqueio de serviços de segurança e sistemas de reputação, afetando diretamente suas operações legítimas.
    • Custos inesperados: quando terceiros utilizam sua largura de banda e capacidade computacional sem autorização, a conta no final do mês pode surpreender negativamente.
    • Alertas e sobrecarga operacional: os padrões de tráfego gerados pelo abuso de proxies podem acionar os sistemas de monitoramento de segurança da AWS, criando trabalho extra para investigar e responder a esses alertas.
    • Instabilidade nos workloads legítimos: o tráfego não autorizado compete por recursos com suas aplicações críticas, podendo degradar a performance ou causar problemas de disponibilidade para seus clientes.

    Como implementar controles de segurança

    A AWS apresenta uma abordagem abrangente para proteger a infraestrutura de proxy. As recomendações estão organizadas em cinco frentes principais.

    Controle de acesso

    O primeiro passo é restringir quem pode se conectar ao proxy. Isso significa configurar os serviços para aceitar conexões apenas de faixas de endereços IP conhecidos e confiáveis.

    • Para o Elastic Load Balancing (ELB), limite o acesso por IP de origem e adicione autenticação aos proxies posicionados atrás dos balanceadores.
    • No Amazon Elastic Kubernetes Service (Amazon EKS), ao criar novas instâncias, restrinja o acesso ao balanceador em cada instância. Se as instâncias não tiverem IPs públicos, basta limitar o acesso ao balanceador. Se tiverem IPs públicos, é preciso restringir o acesso a esses endereços diretamente.
    • Sempre que possível, use os endpoints de Nuvem Privada Virtual (VPC — Virtual Private Cloud) do AWS PrivateLink para fornecer conectividade privada aos serviços AWS sem expô-los à internet.
    • Implante os serviços de proxy em sub-redes privadas com acesso de saída controlado via gateways NAT ou outros canais gerenciados.
    • Para recursos do Amazon EC2 e do Amazon Lightsail, atualize o grupo de segurança associado para bloquear o acesso público à internet. A proteção do proxy exige que você limite o acesso a IPs específicos ou implemente autenticação no endpoint.

    Autenticação e autorização

    Ative a autenticação no software de proxy e use credenciais fortes, certificados ou integração com o AWS Identity and Access Management (IAM) e o AWS Directory Service. Aplique políticas de IAM com o princípio do menor privilégio, garantindo que cada usuário tenha acesso apenas ao que precisa para realizar suas tarefas. Essa abordagem reduz o impacto potencial de um comprometimento de credenciais e mantém a rastreabilidade dos acessos.

    Monitoramento e detecção

    Para detectar atividades suspeitas, a AWS recomenda configurar os Logs de Fluxo do Amazon Virtual Private Cloud (Amazon VPC), o AWS CloudTrail e o Amazon GuardDuty. Além disso, configure alarmes no Amazon CloudWatch para ser notificado sobre padrões de tráfego anormais que possam indicar uso não autorizado dos seus serviços de proxy. Essas ferramentas juntas oferecem visibilidade sobre o tráfego de rede e ajudam a distinguir uso legítimo de atividade suspeita.

    Boas práticas de implantação

    Algumas práticas complementam os controles anteriores e reduzem ainda mais a superfície de ataque:

    • Use HTTPS para o tráfego do ELB, protegendo os dados em trânsito.
    • Restrinja os grupos de segurança às portas estritamente necessárias.
    • Integre o AWS WAF aos balanceadores para filtrar tráfego web com base em regras definidas por você.
    • Utilize o AWS Network Firewall para capacidades avançadas de filtragem de tráfego.
    • Para APIs, implante o Amazon API Gateway com controles de autenticação e autorização para gerenciar o acesso aos serviços de backend. Essa abordagem em camadas protege a infraestrutura em múltiplos pontos do fluxo de tráfego.

    Avaliações regulares de segurança

    Segurança não é uma configuração única — é um processo contínuo. A AWS recomenda executar o Amazon Inspector para identificar configurações incorretas na infraestrutura e usar o AWS Security Hub para centralizar os achados de segurança de todo o ambiente AWS. Testes de penetração realizados conforme a política da AWS também são indicados para descobrir vulnerabilidades antes que possam ser exploradas.

    Planejamento de resposta a incidentes

    Automatize a remediação com regras do AWS Config e com o recurso de Automação do AWS Systems Manager para responder rapidamente a eventos de segurança. Mantenha runbooks de resposta a incidentes com passos claros para lidar com situações relacionadas a proxies, e descomissione recursos inativos que possam se tornar passivos de segurança. Procedimentos documentados e respostas automatizadas reduzem o tempo entre detecção e remediação, minimizando o impacto de incidentes nas operações.

    O que você ganha ao proteger seus proxies corretamente

    Implementar essas medidas traz benefícios diretos e tangíveis para o ambiente AWS:

    • Proteção da reputação do IP: mantém a confiança dos clientes e evita que serviços de segurança bloqueiem seu tráfego legítimo. Com uma reputação positiva, suas comunicações chegam aos destinatários sem interferência.
    • Controle de custos: impede que usuários não autorizados consumam seus recursos AWS e gerem cobranças inesperadas. Restringindo o acesso a usuários e casos de uso legítimos, os custos se tornam previsíveis e alinhados às necessidades do negócio.
    • Estabilidade operacional: reduz o risco de interrupções causadas pelo abuso da infraestrutura de proxy. Quando os recursos são dedicados a servir clientes legítimos, é possível entregar performance e disponibilidade consistentes.
    • Visibilidade aprimorada: o monitoramento adequado dos padrões de tráfego ajuda a identificar tanto o uso legítimo quanto possíveis ameaças, permitindo decisões mais informadas sobre planejamento de capacidade, melhorias de segurança e otimizações operacionais.

    Responsabilidade compartilhada entra em cena

    Vale lembrar que, sob o modelo de responsabilidade compartilhada da AWS, a configuração e manutenção desses controles de segurança são responsabilidade do cliente. A AWS fornece a infraestrutura segura subjacente — mas a proteção dos serviços que rodam sobre ela depende de quem os opera. Proxies abertos são, em grande parte, um problema de configuração, e portanto estão no lado do cliente nessa equação.

    Seguir as orientações descritas neste guia permite construir uma postura de segurança robusta que protege a infraestrutura de proxy sem comprometer as necessidades legítimas do negócio.

    Fonte

    Securing open proxies in your AWS environment (https://aws.amazon.com/blogs/security/securing-open-proxies-in-your-aws-environment/)

  • FreeRTOS 202604 LTS disponível com segurança aprimorada e suporte a MQTT v5.0

    Nova versão LTS do FreeRTOS chega com foco em segurança e protocolos modernos

    A AWS anunciou a disponibilidade do FreeRTOS 202604 LTS, nova versão de Suporte de Longo Prazo (LTS) do sistema operacional de tempo real open-source voltado para dispositivos embarcados. A versão garante estabilidade de funcionalidades, atualizações de segurança e correções de bugs críticos por dois anos, sendo uma referência importante para desenvolvedores de sistemas embarcados e fabricantes de dispositivos de Internet das Coisas (IoT).

    A release endereça desafios centrais do ecossistema embarcado: segurança de memória, qualidade de código e suporte a protocolos modernos. A seguir, os principais destaques desta versão.

    Kernel FreeRTOS v11.3.0: novos ports e proteção de memória mais flexível

    O kernel FreeRTOS na versão v11.3.0 traz novos ports de hardware, hardening de segurança e suporte expandido à Unidade de Proteção de Memória (MPU). Uma mudança relevante é a redução do número de regiões MPU ocupadas pelo próprio FreeRTOS, liberando mais regiões de hardware para que os desenvolvedores possam implementar proteções de memória específicas para suas aplicações. Isso dá mais controle e flexibilidade para quem trabalha com ambientes com recursos limitados.

    coreMQTT v5.0.2: suporte ao protocolo MQTT v5.0

    O coreMQTT v5.0.2 passa a suportar o protocolo MQTT v5.0, trazendo recursos como topic aliases (aliases de tópico) — úteis para dispositivos com largura de banda restrita — e padrões de requisição/resposta para aplicações IoT interativas. Essa atualização abre caminho para arquiteturas de comunicação mais eficientes e expressivas em projetos embarcados conectados.

    coreSNTP v2.0.0: preparado para o ano 2038

    O coreSNTP v2.0.0 chega com uma atualização estratégica: preparação para o problema do ano 2038. Dispositivos implantados hoje poderão validar certificados TLS e registrar timestamps de forma correta ao longo de toda a sua vida útil operacional, sem risco de falhas relacionadas ao estouro do contador de tempo Unix de 32 bits.

    Bibliotecas verificadas: segurança de memória e conformidade MISRA-C

    Esta versão LTS inclui bibliotecas verificadas quanto à segurança de memória e conformidade com o padrão MISRA-C, um conjunto de diretrizes amplamente adotado em sistemas críticos e embarcados. O resultado é maior robustez, portabilidade e confiabilidade nas aplicações desenvolvidas com o FreeRTOS.

    Migração e suporte estendido

    Para quem precisa atualizar projetos existentes, guias de migração detalhados estão disponíveis para o coreMQTT e o coreSNTP, facilitando a transição para o FreeRTOS 202604 LTS.

    Projetos que ainda dependem da versão LTS anterior e precisam de correções críticas após o fim do suporte podem contar com o Plano de Manutenção Estendida do FreeRTOS.

    Para saber mais, acesse a página oficial do FreeRTOS LTS ou explore o repositório GitHub do FreeRTOS LTS.

    Fonte

    FreeRTOS 202604 LTS now available with enhanced security and MQTT v5.0 (https://aws.amazon.com/about-aws/whats-new/2026/04/freertos-lts/)

  • OpenSearch UI agora suporta acesso a dados entre regiões AWS

    O que foi anunciado

    A AWS anunciou que o OpenSearch UI agora oferece suporte a acesso de dados entre regiões (cross-region), permitindo que usuários acessem domínios OpenSearch hospedados em diferentes Regiões AWS diretamente de uma única aplicação OpenSearch UI. Combinado com o acesso entre contas (cross-account) lançado anteriormente neste ano, agora é possível consultar dados ou construir dashboards em domínios OpenSearch em combinações flexíveis de contas e Regiões — sem precisar trocar de endpoint ou replicar dados.

    Configurações suportadas

    O acesso cross-region está disponível para domínios OpenSearch hospedados tanto em configurações públicas quanto em configurações de Nuvem Privada Virtual (VPC). Isso garante que equipes com diferentes arquiteturas de rede possam aproveitar o recurso sem restrições de topologia.

    Benefícios práticos para equipes distribuídas

    Com o acesso cross-region, equipes conseguem construir fluxos de trabalho centralizados de análise, busca e observabilidade em implantações distribuídas globalmente — mantendo os dados no lugar de origem. Isso traz vantagens concretas:

    • Atendimento a requisitos de residência de dados (data residency), pois os dados não precisam sair de suas Regiões originais;
    • Redução de custos com tráfego de saída entre Regiões (inter-region egress);
    • Preservação das características de latência e disponibilidade de cada Região.

    Integração com replicação entre clusters

    Para quem já utiliza replicação entre clusters (cross-cluster replication), o novo recurso traz uma vantagem adicional: agora é possível consultar tanto o domínio primário quanto o domínio réplica diretamente de uma única aplicação OpenSearch UI, sem precisar alternar entre interfaces.

    Combinação com acesso entre contas

    O acesso cross-region pode ser combinado com o acesso cross-account, o que significa que uma única aplicação OpenSearch UI consegue se conectar a domínios em contas diferentes, em Regiões diferentes, ou nas duas situações ao mesmo tempo — oferecendo máxima flexibilidade para arquiteturas complexas e ambientes multi-conta.

    Autenticação suportada

    O recurso é compatível com dois mecanismos de autenticação de usuários finais: IAM (Gerenciamento de Identidade e Acesso — Identity and Access Management) e IAM Identity Center, garantindo integração com os fluxos de controle de acesso já existentes nas organizações.

    Disponibilidade

    O acesso cross-region a domínios OpenSearch já está disponível em todas as Regiões AWS onde o OpenSearch UI está presente. Para aprofundar o entendimento técnico, a AWS disponibiliza a documentação completa no Guia do Desenvolvedor do Amazon OpenSearch Service: Acesso cross-region a domínios OpenSearch.

    Fonte

    OpenSearch UI supports cross-region data access to OpenSearch domains (https://aws.amazon.com/about-aws/whats-new/2026/05/opensearch-ui-cross-region-data-access-domains/)