Blog

  • Integrando Ferramentas Externas ao Amazon Quick Agents com Model Context Protocol (MCP)

    Entendendo a Integração via Model Context Protocol

    O Amazon Quick suporta integrações pelo Model Context Protocol (MCP), um padrão que permite a execução de ações, acesso a dados e integração de agentes de IA. A proposta é simples, mas poderosa: você expõe as capacidades da sua aplicação como ferramentas MCP hospedando um servidor MCP próprio e configurando a integração no Amazon Quick.

    Quando o Amazon Quick atua como cliente MCP e se conecta ao seu servidor, ele passa a ter acesso às ferramentas que você expõe. Seus agentes de IA e automações podem, então, invocar essas ferramentas para recuperar dados e executar ações no seu produto, sempre respeitando a autenticação, autorização e controles de governança do cliente.

    O benefício dessa abordagem é criar um contrato de integração repetível: você define as ferramentas uma única vez, publica um endpoint estável e mantém o mesmo modelo funcional para todos os seus clientes. Isso elimina a necessidade de construir conectores customizados para cada caso de uso específico.

    Visão Geral da Solução

    O Amazon Quick inclui um cliente MCP que você configura por meio de uma integração. Essa integração se conecta a um servidor MCP remoto, descobre as ferramentas e fontes de dados que o servidor expõe e as torna disponíveis para agentes e automações de IA. As integrações MCP no Amazon Quick suportam tanto a execução de ações quanto o acesso a dados, incluindo a criação de bases de conhecimento.

    O fluxo funciona assim: clientes do Amazon Quick invocam capacidades de aplicações expostas como ferramentas MCP por fornecedores independentes de software (ISVs), sistemas corporativos ou soluções customizadas através da integração MCP.

    Requisitos Iniciais

    Antes de começar, certifique-se de que você possui:

    • Uma assinatura Amazon Quick Professional
    • Um usuário Amazon Quick com permissões de Autor ou superiores para criar conectores de ação
    • Um endpoint de servidor MCP remoto acessível a partir do Amazon Quick
    • Uma abordagem de autenticação que o seu servidor MCP suporte, seja autenticação de usuário, autenticação entre serviços ou ausência de autenticação
    • Um conjunto inicial pequeno de capacidades do seu produto como APIs a serem expostas como ferramentas MCP (comece pelas operações que seus clientes mais utilizam)

    Checklist de Seis Etapas para Integração com Amazon Quick

    Etapa 1: Escolha o Modelo de Implantação do Servidor MCP

    Decida como você vai hospedar seu endpoint MCP e isolar inquilinos (tenants). Dois padrões funcionam bem:

    • Endpoint multi-inquilino compartilhado: Um único endpoint MCP atende múltiplos clientes. Sua camada de autenticação e autorização mapeia cada requisição para um inquilino e usuário, e implementa isolamento de inquilino em cada chamada de ferramenta.
    • Endpoint dedicado por inquilino: Cada cliente recebe um endpoint MCP único ou instância de servidor dedicada. Você provisiona e opera uma URL estável e credenciais para cada inquilino.

    Escolha o modelo que melhor se alinhe com sua arquitetura SaaS e modelo de suporte. Se você já executa uma camada de API multi-inquilino com autorização ciente de inquilino, um endpoint MCP compartilhado é adequado. Se você necessita de fronteiras de isolamento mais fortes ou controles de conformidade separados, endpoints dedicados reduzem o impacto de incidentes.

    Etapa 2: Implemente um Servidor MCP Remoto Compatível com Amazon Quick

    Seu servidor MCP deve estar em conformidade com a especificação MCP e se alinhar com as restrições do cliente Amazon Quick. Foque em transporte, definições de ferramentas e limites operacionais.

    Requisitos de Transporte e Conectividade:

    • Exponha seu servidor MCP através de um endpoint público acessível do Amazon Quick
    • Use HTTPS em produção
    • Suporte um transporte remoto — o Amazon Quick oferece suporte a Server-Sent Events (SSE) e HTTP com streaming, sendo HTTP com streaming a opção preferida

    Requisitos de Ferramenta e Recursos:

    • Defina ferramentas MCP usando JSON schema para que o cliente MCP do Amazon Quick possa descobri-las e invocá-las através de listTools e callTool
    • Mantenha nomes de ferramentas consistentes e versione o comportamento das ferramentas intencionalmente
    • O Amazon Quick trata a lista de ferramentas como estática após o registro; administradores precisam restabelecer a conexão para que mudanças no lado do servidor se reflitam
    • Se sua integração incluir acesso a dados, exponha fontes de dados e recursos para que o Amazon Quick possa utilizá-los na criação de bases de conhecimento

    Limitações do Cliente MCP do Amazon Quick:

    • Cada operação MCP possui um timeout fixo de 300 segundos; operações que excedem esse limite falham com HTTP 424
    • A criação de conectores pode falhar se a URI de callback do Amazon Quick não estiver na lista de permissão do seu provedor de identidade ou servidor de autorização

    Etapa 3: Implemente Autenticação e Autorização

    As integrações MCP do Amazon Quick suportam múltiplos padrões de autenticação. Escolha o padrão que corresponda a como seus clientes desejam que o Amazon Quick acesse seu produto e implemente autorização em cada invocação de ferramenta.

    Autenticação de Usuário:

    Use OAuth 2.0 com fluxo de código de autorização quando o Amazon Quick precisar agir em nome de usuários individuais. Suporte OAuth Dynamic Client Registration (DCR) se desejar que o Amazon Quick registre o cliente automaticamente. Caso contrário, documente o ID do cliente, segredo do cliente, URL de token, URL de autorização e URL de redirecionamento que seus clientes devem informar durante a configuração da integração. Emita tokens de acesso com escopo de inquilino e usuário, e implemente controle de acesso baseado em papéis (RBAC) de nível de usuário para cada chamada de ferramenta.

    Autenticação entre Serviços:

    Use autenticação entre serviços quando o Amazon Quick precisar chamar seu servidor MCP como um cliente de máquina (por exemplo, contas de serviço compartilhadas ou automação de backend). Valide tokens de credenciais de cliente em cada requisição e implemente acesso com escopo de inquilino.

    Sem Autenticação:

    Use sem autenticação apenas para servidores MCP públicos ou de demonstração. Por exemplo, o AWS Knowledge MCP Server não requer autenticação, mas está sujeito a limites de taxa.

    Se você usar a Amazon Bedrock AgentCore Gateway, ela valida requisições de entrada usando autorização baseada em OAuth alinhada com a especificação de autorização MCP. A Gateway funciona como um servidor de recursos OAuth e pode trabalhar com provedores de identidade como Amazon Cognito, Okta ou Auth0. Ela também suporta autenticação de saída para APIs downstream e armazenamento seguro de credenciais. Nesse padrão, o Amazon Quick autentica na Gateway usando o método que você configurar, e a Gateway autentica nas suas APIs downstream.

    Requisitos de Lista de Permissão para Redirects OAuth:

    Alguns provedores de identidade bloqueiam redirects OAuth a menos que a URI de redirecionamento esteja explicitamente na lista de permissão da configuração do cliente OAuth. Se sua configuração OAuth falhar durante a criação da integração, confirme que seu aplicativo cliente OAuth adiciona à lista de permissão a URI de redirect do Amazon Quick para cada região AWS onde seus clientes usam o Amazon Quick:

    • https://us-east-1.quicksight.aws.amazon.com/sn/oauthcallback
    • https://us-west-2.quicksight.aws.amazon.com/sn/oauthcallback
    • https://ap-southeast-2.quicksight.aws.amazon.com/sn/oauthcallback
    • https://eu-west-1.quicksight.aws.amazon.com/sn/oauthcallback
    • https://us-east-1-onebox.quicksight.aws.amazon.com/sn/oauthcallback
    • https://us-west-2-onebox.quicksight.aws.amazon.com/sn/oauthcallback
    • https://ap-southeast-2-onebox.quicksight.aws.amazon.com/sn/oauthcallback
    • https://eu-west-1-onebox.quicksight.aws.amazon.com/sn/oauthcallback

    Etapa 4: Documente a Configuração para Clientes do Amazon Quick

    Antes de conectar ao Amazon Quick, verifique a compatibilidade básica do seu servidor usando o MCP Inspector. Essa ferramenta de desenvolvedor padrão atua como um cliente MCP genérico, permitindo testar conectividade, navegar pelo catálogo de ferramentas e simular execução de ferramentas em um sandbox controlado. Se seu servidor funcionar com o Inspector, é compatível com o protocolo e pronto para integração com Amazon Quick.

    Sua integração será bem-sucedida quando você conseguir autenticar em seu Servidor MCP, testar suas ações usando a seção de Teste de APIs e invocar essas ferramentas através de Agentes de Chat e automações. Adicione uma seção de integração Amazon Quick à documentação do seu produto que cubra:

    • Endpoint do servidor MCP: a URL exata que clientes informarão no campo de endpoint do servidor MCP do Amazon Quick
    • Método de autenticação: qual opção do Amazon Quick escolher (autenticação de usuário ou autenticação entre serviços ou sem autenticação), mais os campos e valores necessários
    • Detalhes OAuth (se utilizados): escopos necessários, papéis e pré-requisitos como adicionar à lista de permissão a URI de callback do Amazon Quick
    • Notas de rede e segurança: quaisquer requisitos de lista de permissão, restrições de residência de dados ou implicações de conformidade
    • Catálogo de ferramentas: as ferramentas que você expõe, o que cada uma faz, permissões necessárias e comportamento em caso de erro

    Etapa 5: Registre a Integração MCP no Amazon Quick

    Depois que seu servidor estiver pronto, seu cliente pode criar uma integração MCP no console do Amazon Quick. Faça login no console do Amazon Quick com um usuário que tenha permissões de Autor ou superiores. Escolha Integrações, depois Adicionar (+), e então escolha Model Context Protocol (MCP).

    Na página Criar Integração, informe um Nome, uma Descrição opcional e a URL do seu endpoint do servidor MCP. Clique em Próximo. Selecione o método de autenticação que seu servidor suporta (autenticação de usuário ou autenticação entre serviços) e informe os valores de configuração necessários. Se seu Servidor MCP suportar DCR, essa etapa de autenticação será pulada e a troca de credenciais do cliente ocorre durante a etapa de login.

    Clique em Criar e Continuar. Revise as ferramentas e capacidades de dados descobertas do seu servidor MCP, depois clique em Próximo. Se desejar que outros usuários usem a integração, compartilhe-a. Quando terminar, clique em Concluído.

    Note que o Amazon Quick não faz polling para mudanças de schema. Se você modificar assinaturas de ferramentas ou adicionar novas capacidades, deve orientar seus clientes a se autenticarem novamente ou atualizarem suas configurações de integração para que essas mudanças entrem em vigor.

    Etapa 6: Operate, Monitore e Meça seu Servidor MCP

    Trate seu servidor MCP como uma superfície de API em produção. Adicione os controles operacionais que você já usa para suas APIs SaaS, tornando-os cientes de inquilino.

    Logging e Observabilidade:

    Registre cada invocação de ferramenta com identificador de inquilino, identificador de usuário (quando disponível), nome da ferramenta, latência, status e detalhes de erro.

    Throttling e Quotas:

    Implemente limites de taxa por inquilino para proteger sistemas downstream e retorne erros claros de throttling.

    Versionamento:

    Coordene mudanças de ferramentas com sua documentação e fluxo de atualização dos clientes. Trate nomes de ferramentas e schemas como um contrato.

    Operações de Segurança:

    Suporte rotação de credenciais, revogação de token e trilhas de auditoria para ações administrativas.

    Metering (Opcional):

    Registre uso por inquilino (por exemplo, chamadas de ferramenta ou volume de dados) para alinhar com seu modelo de preços SaaS ou metering do AWS Marketplace.

    Opções para Construir e Hospedar Servidores MCP

    Se suas aplicações e provedores de serviços não possuem um servidor MCP, você tem várias opções:

    Para exemplos end-to-end, você pode consultar um exemplo de conectar Amazon Quick a aplicações corporativas e agentes com MCP que usa AgentCore Gateway como endpoint do servidor MCP. De forma similar, você pode revisar um exemplo de construir um Servidor MCP Customizado no Agentcore Runtime com código de amostra.

    Limpeza

    Se você criou uma integração MCP do Amazon Quick para testes, delete-a quando não precisar mais dela. Para deletar uma integração, no console do Amazon Quick, escolha Integrações. Na tabela de integrações, selecione a integração que deseja remover. No menu Ações (menu com três pontos), escolha Deletar Integração. Na caixa de diálogo de confirmação, revise os detalhes da integração e qualquer recurso dependente que será afetado. Clique em Deletar para confirmar a remoção.

    Se você usou OAuth para a integração, também revogue o cliente do Amazon Quick em seu servidor de autorização e delete qualquer credencial de teste que criou.

    Conclusão

    As integrações MCP do Amazon Quick oferecem a seus clientes uma forma padronizada de conectar agentes e automações de IA ao seu produto. Quando você expõe suas capacidades como ferramentas MCP em um servidor MCP remoto, os clientes podem configurar a conexão no console do Amazon Quick e usar suas ferramentas em múltiplos fluxos de trabalho.

    Comece com um pequeno conjunto de ferramentas de alto valor, projete cada chamada de ferramenta para completar dentro do limite de 300 segundos, e documente o endpoint exato e configurações de autenticação que os clientes precisam usar. Após validar o fluxo de integração no Amazon Quick, expanda seu catálogo de ferramentas e adicione os controles operacionais que você usa para qualquer API em produção.

    Para os próximos passos, revise a documentação de integração MCP do Amazon Quick e depois use o checklist deste artigo para validar seu servidor. Se desejar opções da AWS para construir e hospedar servidores MCP, consulte a documentação do AgentCore e Implantando servidores de model context protocol na AWS.

    Fonte

    Integrate external tools with Amazon Quick Agents using Model Context Protocol (MCP) (https://aws.amazon.com/blogs/machine-learning/integrate-external-tools-with-amazon-quick-agents-using-model-context-protocol-mcp/)

  • SageMaker AI em 2025: Planos Flexíveis de Treinamento e Melhorias de Custo-Benefício para Inferência

    Transformações no SageMaker AI durante 2025

    O Amazon SageMaker AI experimentou aprimoramentos substanciais em sua infraestrutura fundamental durante 2025, abrangendo quatro pilares estratégicos: capacidade computacional, custo-benefício, observabilidade e usabilidade. Esta série de análises explora em detalhes como essas evoluções beneficiam os times de dados e ciência da computação que trabalham com modelos generativos em escala produtiva.

    Fonte

    Amazon SageMaker AI in 2025, a year in review part 1: Flexible Training Plans and improvements to price performance for inference workloads (https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-ai-in-2025-a-year-in-review-part-1-flexible-training-plans-and-improvements-to-price-performance-for-inference-workloads/)

  • Atores de Ameaça Potencializados por IA Acessam Dispositivos FortiGate em Larga Escala

    Inteligência de Ameaças: Um Novo Panorama de Ciberataques Amplificados por IA

    Os serviços comerciais de inteligência artificial estão transformando o cenário de ciberataques. A Amazon Threat Intelligence vem rastreando de perto uma tendência preocupante: atores de ameaça menos sofisticados agora conseguem executar operações em escala massiva com ajuda de ferramentas de IA generativa. Uma investigação recente ilustra essa mudança de forma alarmante.

    Entre janeiro e fevereiro de 2026, a Amazon Threat Intelligence detectou um ator de ameaça falante de russo, financeiramente motivado, que utilizou múltiplos serviços comerciais de IA generativa para comprometer mais de 600 dispositivos FortiGate distribuídos em mais de 55 países. O aspecto crítico: nenhuma vulnerabilidade zero-day ou exploração avançada foi necessária. Em vez disso, o ataque explorou lacunas de segurança fundamental — portas de gerenciamento expostas à internet e credenciais fracas com autenticação de fator único — que a IA ajudou a explorar em escala industrial.

    Este padrão de operação é notável porque revela algo importante: a IA funcionou como multiplicador de força, permitindo que um ator com capacidades técnicas limitadas alcançasse escala operacional que normalmente exigiria equipes maiores e mais especializadas. Vale ressaltar que a infraestrutura da AWS não foi envolvida nesta campanha.

    A Democratização do Ataque Cibernético

    Um Ator Financeiramente Motivado, Não uma Nação-Estado

    A análise da Amazon Threat Intelligence aponta para um ator financeiramente motivado — provavelmente um indivíduo ou pequeno grupo — sem conexão conhecida com grupos de ameaça persistente avançada (Ameaças Persistentes Avançadas – APAs) com recursos patrocinados por estados. Apesar dessa limitação técnica baseline, o ator comprometeu múltiplos ambientes Active Directory, extraiu bases de dados completas de credenciais e direcionou infraestrutura de backup — tudo isso consistente com preparação para implantação de ransomware.

    O padrão operacional revelou algo significativo: quando o ator enfrentava ambientes endurecidos ou defesas sofisticadas, simplesmente migrava para alvos mais fáceis, em vez de persistir. Isso demonstra que a vantagem reside na eficiência amplificada por IA e escala operacional, não em habilidade técnica profunda.

    Qual Era a Metodologia?

    A investigação ganhou visibilidade extraordinária porque o ator teve falhas graves de segurança operacional. A infraestrutura maliciosa deixou expostos planos de ataque gerados por IA, configurações de vítimas e código-fonte de ferramentas personalizadas — basicamente um arquivo de operações completo. Isso permitiu à Amazon Threat Intelligence documentar precisamente como o ator utilizava IA em cada fase.

    Como o Ataque Começou: Acesso Inicial por Abuso de Credenciais

    Varredura Sistemática e Credenciais Comuns

    O vetor inicial de acesso foi baseado em credenciais — acesso direto às interfaces de gerenciamento de FortiGate expostas à internet. A análise das ferramentas do ator revelou varredura sistemática em portas 443, 8443, 10443 e 4443, seguida por tentativas de autenticação usando credenciais frequentemente reutilizadas.

    Arquivos de configuração do FortiGate são alvos de alto valor porque contêm informações críticas: credenciais de usuário SSL-VPN com senhas recuperáveis, credenciais administrativas, topologia completa de rede e informações de roteamento, políticas de firewall que revelam arquitetura interna, e configurações de pares IPsec VPN.

    Ferramentas Assistidas por IA para Extração de Dados

    O ator desenvolveu scripts Python assistidos por IA para fazer parsing, descriptografar e organizar as configurações roubadas. A escala de distribuição foi oportunista em vez de setorial — consistente com varredura automatizada massiva. Porém, certos padrões sugerem comprometimento no nível organizacional, onde múltiplos dispositivos FortiGate pertencentes à mesma entidade foram acessados. Concentrações de dispositivos comprometidos foram observadas na Ásia do Sul, América Latina, Caribe, África Ocidental, Europa do Norte e Sudeste Asiático, entre outras regiões.

    Ferramentas Personalizadas: Um Framework de Reconhecimento Gerado por IA

    Sinais de Desenvolvimento Assistido por IA

    Após acessar redes de vítimas via VPN, o ator implanta uma ferramenta de reconhecimento personalizada, com versões escritas tanto em Go quanto em Python. A análise do código-fonte revela indicadores claros de desenvolvimento assistido por IA: comentários redundantes que apenas reafirmam nomes de funções, arquitetura simplista com investimento desproporcional em formatação sobre funcionalidade, parsing JSON ingênuo via correspondência de string em vez de desserialização apropriada, e shims de compatibilidade para built-ins de linguagem com stubs vazios de documentação.

    Embora funcional para o caso de uso específico do ator, as ferramentas carecem de robustez e falham em casos extremos — características típicas de código gerado por IA sem refinamento significativo.

    Fluxo de Trabalho Automatizado do Ator

    A ferramenta automatiza o fluxo de reconhecimento pós-VPN: ingere redes-alvo a partir de tabelas de roteamento VPN, classifica redes por tamanho, executa descoberta de serviço usando gogo (scanner de porta de código aberto), identifica automaticamente hosts SMB e controladores de domínio, e integra varredura de vulnerabilidades usando Nuclei (scanner de vulnerabilidades de código aberto) contra serviços HTTP descobertos para produzir listas de alvos priorizadas.

    Pós-Exploração: Técnicas Bem Conhecidas com Escala Amplificada

    Comprometimento de Domínio

    Dentro das redes de vítimas, o ator segue uma abordagem padrão usando ferramentas ofensivas de código aberto conhecidas. A documentação operacional detalha o uso pretendido de Meterpreter (kit de pós-exploração de código aberto) com o módulo mimikatz para executar ataques DCSync contra controladores de domínio, permitindo extrair hashes de senha NTLM do Active Directory. Em comprometimentos confirmados, o ator obteve bases de dados de credenciais de domínio completas. Em pelo menos um caso, a conta de Administrador de Domínio usava uma senha em texto simples, extraída da configuração FortiGate por reutilização de credenciais ou era independentemente fraca.

    Movimento Lateral e Backup Targeting

    Após comprometimento de domínio, o ator tenta expandir acesso através de ataques pass-the-hash/pass-the-ticket contra infraestrutura adicional, ataques NTLM relay usando ferramentas padrão de envenenamento, e execução remota de comando em hosts Windows. Especificamente, o ator direcionou servidores Veeam Backup & Replication, implantando múltiplas ferramentas para extração de credenciais, incluindo scripts PowerShell, ferramentas compiladas de descriptografia e tentativas de exploração alavancando vulnerabilidades conhecidas de Veeam. Servidores de backup são alvos de alto valor porque tipicamente armazenam credenciais elevadas para operações de backup, e comprometer infraestrutura de backup posiciona um atacante para destruir capacidades de recuperação antes de implantar ransomware.

    Falhas de Exploração: O Limite da Dependência de IA

    As notas operacionais do ator referenciam múltiplas Vulnerabilidades e Exposições Comuns (CVEs) em vários alvos (CVE-2019-7192, CVE-2023-27532, CVE-2024-40711, entre outros). Um achado crítico é que o ator largamente falhou ao tentar explorar qualquer coisa além dos caminhos de ataque mais diretos e automatizados. Sua própria documentação registra falhas repetidas: serviços direcionados estavam corrigidos, portas necessárias estavam fechadas, vulnerabilidades não se aplicavam às versões do sistema operacional alvo. A avaliação operacional final para uma vítima confirmada reconheceu que infraestrutura-chave estava “bem protegida” com “nenhum vetor de exploração vulnerável”.

    A IA Como Multiplicador de Força Operacional

    Múltiplos Provedores de Modelos Usados Simultaneamente

    A análise revelou que o ator utiliza pelo menos dois provedores de Modelo de Linguagem (Modelo de Linguagem – ML) comerciais distintos em todas as operações. A IA foi usada para gerar metodologias de ataque abrangentes com instruções de exploração passo a passo, taxas de sucesso esperadas, estimativas de tempo e árvores de tarefas priorizadas. Esses planos referenciam pesquisa acadêmica sobre agentes de IA ofensiva, sugerindo que o ator acompanha literatura emergente sobre testes de penetração assistidos por IA.

    A IA produz sequências de comando tecnicamente precisas, mas o ator tem dificuldade em se adaptar quando as condições diferem do plano. Não consegue compilar exploits customizados, depurar tentativas de exploração falhadas ou fazer pivôs criativos quando abordagens padrão falham.

    Fluxo de Trabalho Multi-Modelo

    Um modelo serve como desenvolvedor de ferramentas primário, planejador de ataque e assistente operacional. Um segundo é usado como planejador de ataque suplementar quando o ator precisa ajuda fazendo pivô dentro de uma rede comprometida específica. Em uma instância observada, o ator submeteu a topologia interna completa de uma vítima ativa — endereços IP, nomes de host, credenciais confirmadas e serviços identificados — e solicitou um plano passo a passo para comprometer sistemas adicionais que não conseguiam acessar com ferramentas existentes.

    Ferramentas Geradas por IA em Escala

    Além do framework de reconhecimento, a infraestrutura do ator contém inúmeros scripts em múltiplas linguagens de programação com características de geração por IA, incluindo parsers de configuração, ferramentas de extração de credenciais, automação de conexão VPN, orquestração de varredura massiva e dashboards de agregação de resultados. O volume e variedade de ferramentas personalizadas normalmente indicariam uma equipe de desenvolvimento bem-recursos. Em vez disso, um ator único ou pequeno grupo gerou todo esse toolkit através de desenvolvimento assistido por IA.

    Avaliação do Ator de Ameaça

    Com base em análise abrangente, a Amazon Threat Intelligence avalia este ator de ameaça como: Motivação financeira presumida, baseada em direcionamento generalizado e indiscriminado com sofisticação baixa; Falante de russo, baseado em documentação operacional extensa em russo; Capacidade técnica baseline baixa a média, significativamente amplificada por IA — o ator pode executar ferramentas ofensivas padrão e automatizar tarefas rotineiras mas tem dificuldade com compilação de exploits, desenvolvimento customizado e resolução criativa de problemas durante operações ao vivo; Dependência extensiva de IA em todas as fases operacionais, incluindo desenvolvimento de ferramentas, planejamento de ataque, geração de comando e relatório operacional; Escala operacional ampla com dispositivos comprometidos em dezenas de países e evidência de operações sustentadas por período estendido; Profundidade de pós-exploração rasa com falhas repetidas contra alvos endurecidos ou não-padronizados e padrão de migração para alvos mais suaves quando abordagens automatizadas falham; Segurança operacional inadequada com planos operacionais detalhados, credenciais e dados de vítimas armazenados sem criptografia junto com ferramentas.

    Resposta e Defesa Organizacional

    Ações da Amazon Threat Intelligence

    Ao descobrir esta campanha, a Amazon Threat Intelligence tomou ações específicas: compartilhou inteligência acionável, incluindo indicadores de comprometimento, com parceiros relevantes; colaborou com parceiros da indústria para ampliar visibilidade da campanha e apoiar esforços de defesa coordenada. Através desses esforços, a Amazon ajudou a reduzir a efetividade operacional do ator de ameaça e permitiu que organizações em múltiplos países tomassem passos para interromper a eficácia da campanha.

    Auditoria de Dispositivos FortiGate

    Organizações executando dispositivos FortiGate devem tomar ação imediata: garantir que interfaces de gerenciamento não sejam expostas à internet; se administração remota for necessária, restringir acesso a faixas de IP conhecidas e usar um host bastião ou rede de gerenciamento fora de banda; mudar todas as credenciais padrão e comuns em dispositivos FortiGate, incluindo contas administrativas e de usuário VPN; girar todas as credenciais de usuário SSL-VPN, particularmente para qualquer dispositivo cuja interface de gerenciamento foi ou pode ter sido acessível pela internet; implementar autenticação multifator para todos os acessos administrativos e VPN; revisar configurações de FortiGate para contas administrativas não autorizadas ou mudanças de política; auditar logs de conexão VPN para conexões de localizações geográficas inesperadas.

    Higiene de Credenciais

    Dada a extração de credenciais de configurações FortiGate: auditar reutilização de senha entre credenciais FortiGate VPN e contas de domínio Active Directory; implementar autenticação multifator para todos os acessos VPN; impor senhas únicas e complexas para todas as contas, particularmente contas de Administrador de Domínio; revisar e girar credenciais de conta de serviço, especialmente aquelas usadas em infraestrutura de backup.

    Detecção de Pós-Exploração

    Organizações que podem ter sido afetadas devem monitorar: operações DCSync inesperadas (ID de Evento 4662 com GUIDs relacionadas a replicação); novas tarefas agendadas nomeadas para imitar serviços Windows legítimos; conexões de gerenciamento remoto incomuns de pools de endereço VPN; artefatos de envenenamento LLMNR/NBT-NS no tráfego de rede; acesso não autorizado a armazenamentos de credencial de backup; novas contas com nomes projetados para se mesclar com contas de serviço legítimas.

    Endurecimento de Infraestrutura de Backup

    O foco do ator em infraestrutura de backup destaca a importância de: isolar servidores de backup do acesso de rede geral; fazer patch de software de backup contra vulnerabilidades conhecidas de extração de credenciais; monitorar carregamento não autorizado de módulo PowerShell em servidores de backup; implementar cópias de backup imutáveis que não possam ser modificadas mesmo com acesso administrativo.

    Recomendações Específicas para AWS

    Para organizações usando AWS: ativar Amazon GuardDuty para detecção de ameaça, incluindo monitoramento de chamadas API incomuns e padrões de uso de credenciais; usar Amazon Inspector para verificar automaticamente por vulnerabilidades de software e exposição de rede não intencional; usar AWS Security Hub para manter visibilidade contínua na postura de segurança; usar AWS Systems Manager Patch Manager para manter conformidade de patch em instâncias EC2 executando dispositivos de rede; revisar padrões de acesso IAM (Identity and Access Management – Gerenciamento de Identidade e Acesso) para sinais de replay de credenciais seguindo qualquer comprometimento suspeito de dispositivo de rede.

    Indicadores de Comprometimento e Detecção

    A dependência desta campanha em ferramentas ofensivas de código aberto legítimas — incluindo Impacket, gogo, Nuclei e outras — significa que detecção tradicional baseada em indicador tem efetividade limitada. Essas ferramentas são amplamente usadas por testadores de penetração e profissionais de segurança, e sua presença sozinha não é indicativa de comprometimento. Organizações devem investigar contexto ao redor de correspondências, priorizando detecção comportamental (padrões anormais de autenticação VPN, replicação Active Directory inesperada, movimento lateral de pools de endereço VPN) sobre abordagens baseadas em assinatura.

    Conclusão: Fundamentos de Segurança Continuam Sendo a Defesa Mais Efetiva

    Esta campanha obteve sucesso através de uma combinação de interfaces de gerenciamento expostas, credenciais fracas e autenticação de fator único — todas lacunas de segurança fundamentais que IA ajudou um ator sofisticado explorar em escala. Isso sublinha que fundamentos de segurança forte são defesas poderosas contra ameaças potencializadas por IA. À medida que esperamos que essa tendência continue em 2026, organizações devem antecipar que atividade de ameaça potencializada por IA continuará crescendo em volume tanto de adversários hábeis quanto não-hábeis. Gestão de patch para dispositivos perimetral, higiene de credenciais, segmentação de rede e detecção robusta para indicadores de pós-exploração permanecem as contramedidas mais efetivas.

    Fonte

    AI-augmented threat actor accesses FortiGate devices at scale (https://aws.amazon.com/blogs/security/ai-augmented-threat-actor-accesses-fortigate-devices-at-scale/)

  • AWS IAM Identity Center agora disponível na região Ásia-Pacífico (Nova Zelândia)

    Expansão do IAM Identity Center para Ásia-Pacífico

    A AWS anunciou a disponibilidade do AWS IAM Identity Center na região Ásia-Pacífico (Nova Zelândia), ampliando sua cobertura global para 38 regiões AWS. Essa expansão oferece às organizações operando na região uma solução nativa para gerenciar o acesso de seus usuários aos aplicativos e serviços hospedados na nuvem.

    O que é o IAM Identity Center

    O IAM Identity Center (Centro de Identidade do AWS Identity and Access Management) é o serviço recomendado pela AWS para gerenciar o acesso da força de trabalho aos aplicativos AWS. Seu principal diferencial é a capacidade de conectar uma única vez a fonte de identidades corporativas já existente na organização com a plataforma AWS, eliminando a necessidade de manter múltiplos sistemas de autenticação.

    Uma vez integrado, o serviço oferece aos usuários uma experiência de single sign-on unificada em todos os aplicativos AWS, reduzindo fricção e aumentando a produtividade. Os profissionais de TI, por sua vez, ganham um ponto centralizado para administração de identidades, simplificando operações em ambientes complexos.

    Capacidades principais

    Experiências personalizadas com Amazon Q

    O IAM Identity Center alimenta experiências personalizadas oferecidas por aplicativos AWS como o Amazon Q. Graças à integração, o serviço compreende quem é cada usuário e pode adaptar o comportamento de aplicações de acordo com seu perfil e permissões.

    Auditoria e controle de acesso consciente do usuário

    O serviço permite definir e auditar o acesso de usuários específicos a dados em serviços como o Amazon Redshift. Essa granularidade é essencial para organizações que precisam manter conformidade com regulamentações e políticas internas rigorosas.

    Gerenciamento centralizado de múltiplas contas AWS

    Para empresas que operam com várias contas AWS, o IAM Identity Center oferece administração centralizada de acesso, evitando a necessidade de configurar identidades repetidamente em cada conta.

    Disponibilidade e custos

    O IAM Identity Center está disponível na nova região sem custos adicionais, mantendo o modelo de precificação compatível com demais regiões onde o serviço opera. Essa inclusão na região Ásia-Pacífico (Nova Zelândia) reforça o compromisso da AWS de oferecer cobertura global para seus serviços principais de segurança e identidade.

    Próximos passos

    Organizações interessadas em explorar o IAM Identity Center podem consultar a página de detalhes do produto para compreender melhor as capacidades e arquitetura recomendada. Para começar a usar o serviço de imediato, a documentação do IAM Identity Center oferece guias práticos de implementação e configuração.

    Fonte

    AWS IAM Identity Center is now available in the Asia Pacific (New Zealand) AWS Region (https://aws.amazon.com/about-aws/whats-new/2026/02/aws-iam-identity-center-asia-pacific-new-zealand-region/)

  • Instâncias EC2 G7e agora disponíveis na região Ásia Pacífico (Tóquio)

    Novas instâncias EC2 G7e chegam ao Tóquio

    A AWS anunciou a disponibilidade das instâncias EC2 G7e aceleradas por GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition na região Ásia Pacífico (Tóquio). Esta é uma expansão importante para quem trabalha com inteligência artificial e processamento de alto desempenho na região asiática.

    Desempenho e especificações técnicas

    As instâncias G7e oferecem um avanço significativo em performance: até 2,3x mais velocidade em inferência em comparação com a geração anterior (G6e). Essa melhoria torna a plataforma mais atrativa para workloads que exigem processamento intensivo.

    Cada instância G7e é equipada com até 8 GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, cada uma com 96 GB de memória dedicada. O servidor também conta com processadores Intel Xeon de 5ª geração, suportando até 192 vCPUs (núcleos virtuais) e até 1600 Gbps de largura de banda de rede.

    Aplicações práticas

    As instâncias G7e são indicadas para diversos cenários de uso. Empresas podem usar a plataforma para implementar modelos de linguagem de grande escala (LLMs), modelos de IA agentivos, modelos generativos multimodais e até modelos de IA física. Além disso, o serviço oferece o desempenho mais alto do mercado para workloads de computação espacial, bem como para aqueles que combinam processamento gráfico com capacidades de inteligência artificial.

    Recursos avançados de conectividade

    As instâncias G7e suportam recursos sofisticados para otimizar o trabalho em multi-GPU. O suporte a NVIDIA GPUDirect Peer to Peer (P2P) melhora significativamente a performance para workloads que utilizam múltiplas GPUs simultaneamente. Além disso, as instâncias multi-GPU também suportam NVIDIA GPUDirect Remote Direct Memory Access (RDMA) com EFA em EC2 UltraClusters, reduzindo a latência em workloads de múltiplos nós em pequena escala.

    Disponibilidade e como começar

    Atualmente, as instâncias G7e estão disponíveis nas seguintes regiões AWS: US West (Oregon), US East (N. Virginia, Ohio) e Ásia Pacífico (Tóquio). Clientes podem adquirir as instâncias de três formas: como instâncias sob demanda, através de Spot Instances, ou como parte de um Savings Plan.

    Para começar, é possível acessar o Console de Gerenciamento AWS, a Interface de Linha de Comando da AWS (CLI) ou os SDKs da AWS. Para aprofundar os conhecimentos sobre as instâncias G7e, a documentação oficial oferece detalhes técnicos completos sobre configuração e otimização.

    Fonte

    Amazon EC2 G7e instances now available in Asia Pacific (Tokyo) region (https://aws.amazon.com/about-aws/whats-new/2026/02/amazon-ec2-g7e-instances-tokyo-region/)

  • Aurora DSQL lança conectores em Go, Python e Node.js com autenticação IAM simplificada

    Autenticação Simplificada para Aurora DSQL

    A AWS expandiu o conjunto de ferramentas disponível para desenvolvedores que trabalham com Aurora DSQL (Distributed SQL). Em fevereiro de 2026, a empresa anunciou o lançamento de conectores específicos para as três linguagens mais populares na comunidade de desenvolvimento: Go, Python e Node.js. Esses conectores trazem uma abordagem inovadora para resolver um desafio comum em ambientes de nuvem: a autenticação segura e simplificada.

    O grande diferencial dos novos conectores é que funcionam como camadas transparentes de autenticação. Isso significa que os desenvolvedores não precisam se preocupar com a geração manual de tokens de autenticação. O processo acontece automaticamente, eliminando linhas de código e reduzindo a superfície de ataque relacionada a credenciais.

    Como Funcionam os Conectores

    Os três conectores lançados seguem padrões bem estabelecidos no ecossistema de desenvolvimento:

    • Go (pgx) – integração nativa com o driver pgx mais amplamente utilizado
    • Python (asyncpg) – compatibilidade com o asyncpg, popular em aplicações assíncronas
    • Node.js (Websocket para Postgres.js) – suporte ao protocolo WebSocket, essencial em ambientes onde conexões TCP tradicionais não estão disponíveis

    O funcionamento é elegante: cada vez que uma conexão é estabelecida, os conectores geram automaticamente um novo token de autenticação usando credenciais de Identidade e Acesso (IAM). Tokens inválidos não persistem, pois são sempre renovados. Ao mesmo tempo, os conectores mantêm compatibilidade integral com todos os recursos dos drivers PostgreSQL padrão.

    Segurança e Flexibilidade

    Uma das preocupações tradicionais com autenticação em banco de dados é o gerenciamento de senhas. Os conectores da Aurora DSQL eliminam essa classe de riscos ao substituir senhas por tokens IAM temporários e gerenciados automaticamente. Não há segredos espalhados pelo código ou arquivos de configuração.

    Para organizações com necessidades avançadas de gerenciamento de credenciais, todos os três conectores suportam provedores de credenciais IAM customizados. Isso oferece flexibilidade para integrar com sistemas corporativos de gerenciamento de identidade já existentes.

    O conector Node.js adiciona um diferencial importante: suporte ao protocolo WebSocket. Em muitos ambientes em nuvem, especialmente em arquiteturas serverless ou em redes restritas, conexões TCP diretas podem não estar disponíveis. WebSocket resolve esse impedimento técnico.

    Como Começar

    Desenvolvedores interessados em usar os novos conectores têm acesso a documentação técnica completa. A documentação de Conectores para Aurora DSQL fornece guias de instalação e configuração. Além disso, repositórios no GitHub contêm exemplos práticos de código:

    Para quem deseja explorar sem custos iniciais, a AWS Free Tier disponibiliza créditos para experimentar Aurora DSQL. Mais informações sobre o serviço estão disponíveis na página oficial do Aurora DSQL.

    Fonte

    Aurora DSQL launches new Go, Python, and Node.js connectors that simplify IAM authentication (https://aws.amazon.com/about-aws/whats-new/2026/02/aurora-dsql-launches-go-python-nodejs-connectors)

  • Autenticação por chave pública agora é suportada entre Amazon QuickSight e Snowflake

    O desafio da conexão segura com data warehouses

    Empresas modernas enfrentam desafios significativos ao integrar plataformas de inteligência de negócios com data warehouses em nuvem, especialmente quando é necessário manter a automação sem comprometer a segurança. A autenticação baseada em senha introduz vulnerabilidades, cria atrito operacional e gera lacunas de conformidade — particularmente crítico considerando que o Snowflake está descontinuando o suporte a autenticação por nome de usuário e senha.

    A AWS reconheceu esse cenário e implementou uma solução através do Amazon QuickSight (um componente do Amazon Quick Suite), agora oferecendo suporte a autenticação por chave pública para integrações com Snowflake. Esse novo recurso utiliza criptografia assimétrica, onde pares de chaves RSA substituem as tradicionais senhas. Com essa capacidade, usuários da Amazon Quick Suite podem estabelecer conexões seguras e sem senha com fontes de dados Snowflake usando pares de chaves RSA, proporcionando uma experiência de integração contínua e segura que atende aos padrões empresariais de segurança.

    Por que essa mudança importa

    A implementação de autenticação por chave pública representa um avanço transformador na segurança de conectividade entre Amazon QuickSight e Snowflake. Ao eliminar as vulnerabilidades associadas a senhas e adotar autenticação criptográfica, as organizações conseguem alcançar uma postura de segurança superior mantendo fluxos de trabalho automatizados e contínuos. Essa implementação atende a requisitos críticos de empresas, como melhor segurança através de criptografia assimétrica, gerenciamento simplificado de contas de serviço e conformidade com padrões de autenticação em evolução, especialmente diante da transição do Snowflake para longe dos métodos tradicionais de senha.

    Pré-requisitos para configuração

    Antes de configurar a autenticação por chave pública entre Amazon QuickSight e Snowflake, verifique se você tem os seguintes requisitos:

    Conta ativa da Amazon Quick

    Você precisa de uma conta Amazon Quick com permissões apropriadas. Isso requer acesso administrativo para criar e gerenciar fontes de dados, configurar parâmetros de autenticação e conceder permissões a usuários. Tipicamente, licenças Enterprise da Amazon Quick ou o papel de Author na Amazon Quick Enterprise Edition fornecem acesso suficiente.

    Conta Snowflake com permissões elevadas

    Uma conta Snowflake com papéis ACCOUNTADMIN, SECURITYADMIN ou USERADMIN é essencial. Essas permissões elevadas são necessárias para modificar contas de usuário, atribuir chaves públicas usando comandos ALTER USER e conceder permissões em warehouses e bancos de dados. Se você não tiver acesso a esses papéis, entre em contato com seu administrador Snowflake.

    OpenSSL instalado

    OpenSSL, um kit de ferramentas criptográficas, é necessário para gerar pares de chaves RSA no formato PKCS#8. A maioria dos sistemas Linux e macOS inclui OpenSSL pré-instalado. Usuários de Windows podem usar Windows Subsystem for Linux (WSL) ou baixar OpenSSL separadamente.

    AWS Secrets Manager (opcional)

    Para configurações baseadas em API, acesso a AWS Secrets Manager é necessário. Você precisará de permissões IAM (Identity and Access Management) para criar e gerenciar secrets, além de acesso à API do Amazon QuickSight para implantações automatizadas e implementações de infraestrutura como código (IaC).

    Passo a passo: Configurando a autenticação por chave pública

    Para estabelecer autenticação segura por chave pública entre Amazon QuickSight e Snowflake, você seguirá estas etapas essenciais:

    Gerar o par de chaves RSA

    Navegue até AWS CloudShell no AWS Management Console e execute o comando a seguir para gerar a chave privada RSA. Você será solicitado a inserir uma frase de criptografia. Escolha uma frase forte e armazene-a com segurança — você precisará dela posteriormente ao gerar a chave pública.

    openssl genrsa 2048 | openssl pkcs8 -topk8 -inform PEM -out rsa_key.p8

    Execute os comandos a seguir para criar o par de chaves públicas. Você será solicitado a inserir a frase que utilizou no passo anterior.

    openssl rsa -in rsa_key.p8 -pubout -out rsa_key.pub

    Extraia o conteúdo da chave privada (incluindo cabeçalho e rodapé):

    cat rsa_key.p8

    Isso exibirá sua chave privada no formato:

    -----BEGIN PRIVATE KEY-----[conteúdo da chave]-----END PRIVATE KEY-----

    Importante: copie a saída inteira incluindo as linhas -----BEGIN PRIVATE KEY----- e -----END PRIVATE KEY-----. Você utilizará essa chave privada completa (com cabeçalhos e rodapés) ao criar sua conexão de fonte de dados Snowflake.

    Formatar a chave pública

    O Snowflake requer a chave pública em um formato específico sem cabeçalhos ou quebras de linha. Execute estes comandos para extrair e formatar a chave corretamente:

    grep -v KEY rsa_key.pub | tr -d '\n' | awk '{print $1}' > pub.Key
    cat pub.Key

    Isso exibirá sua string de chave pública formatada. Copie essa saída — você a utilizará no próximo passo para configurar sua conta de usuário no Snowflake.

    Atribuir a chave pública ao usuário Snowflake

    Faça login no Snowflake e execute os seguintes comandos SQL para atribuir a chave pública ao seu usuário:

    ALTER USER <username> SET RSA_PUBLIC_KEY='<public_key_content>';

    Verifique a atribuição da chave procurando pela propriedade RSA_PUBLIC_KEY para confirmar se a chave pública foi configurada:

    DESCRIBE USER <username>;

    Estabelecendo a conexão através da interface do Amazon QuickSight

    Navegue até Amazon QuickSight no AWS Management Console e selecione Datasets. Em seguida, selecione a aba Data sources e escolha Create data source. No painel Create data source, insira “snowflake” no campo Search datasets, selecione Snowflake e escolha Next.

    No painel New Snowflake data source, insira o nome da fonte de dados e o tipo de conexão como Public Network ou uma Private VPC Connection. Se você precisar de uma conexão VPC, consulte a documentação para configurar a conexão VPC em QuickSight. Em seguida, insira o nome do host do servidor de banco de dados, o nome do banco de dados e o nome do warehouse.

    Selecione Authentication Type como KeyPair e insira o nome do usuário Snowflake. No campo Private Key, cole a saída completa do comando cat rsa_key.p8 (incluindo os cabeçalhos BEGIN e END). Se você tiver configurado uma frase de criptografia durante a geração da chave, forneça-a no campo opcional Passphrase.

    Após preencher todos os campos, selecione o botão Validate connection. Depois que a conexão for validada, selecione Create data source. Na lista de Data sources, localize a fonte de dados Snowflake que você criou. No menu Actions, selecione a opção Create dataset.

    Estabelecendo a conexão através da API do Amazon QuickSight

    Usando AWS CLI, você pode criar a conexão de fonte de dados do Amazon QuickSight com Snowflake executando o seguinte comando:

    aws quicksight create-data-source \
      --aws-account-id 123456789 \
      --data-source-id awsclikeypairtest \
      --name "awsclikeypairtest" \
      --type SNOWFLAKE \
      --data-source-parameters '{
        "SnowflakeParameters": {
          "Host": "hostname.snowflakecomputing.com",
          "Database": "DB_NAME",
          "Warehouse": "WH_NAME",
          "AuthenticationType": "KEYPAIR"
        }
      }' \
      --credentials '{
        "KeyPairCredentials": {
          "KeyPairUsername": "SNOWFLAKE_USERNAME",
          "PrivateKey": "-----BEGIN ENCRYPTED PRIVATE KEY-----\nPRIVATE_KEY\n-----END ENCRYPTED PRIVATE KEY-----",
          "PrivateKeyPassphrase": "******"
        }
      }' \
      --permissions '[
        {
          "Principal": "arn:aws:quicksight:us-east-1:123456789:user/default/Admin/username",
          "Actions": [
            "quicksight:DescribeDataSource",
            "quicksight:DescribeDataSourcePermissions",
            "quicksight:PassDataSource",
            "quicksight:UpdateDataSource",
            "quicksight:DeleteDataSource",
            "quicksight:UpdateDataSourcePermissions"
          ]
        }
      ]' \
      --region us-east-1

    Use o comando a seguir para verificar o status da criação:

    aws quicksight describe-data-source --region us-east-1 --aws-account-id 123456789 --data-source-id awsclikeypairtest

    Inicialmente, o status retornado pelo comando describe-data-source será CREATION_IN_PROGRESS. O status mudará para CREATION_SUCCESSFUL quando a nova fonte de dados estiver pronta para uso.

    Alternativamente, ao criar a fonte de dados programaticamente através de CreateDataSource, você pode armazenar o nome de usuário, chave e frase no AWS Secrets Manager e referenciá-los usando o Secret ARN. Após a criação bem-sucedida da fonte de dados, você poderá navegar até o console do QuickSight. Na página Create a Dataset, você visualizará a conexão de fonte de dados recém-criada awsclikeypairtest na lista de data sources. Você poderá então prosseguir para criar os datasets.

    Limpeza de recursos

    Para limpar seus recursos e evitar incorrer em custos adicionais, siga estas etapas:

    Benefícios práticos dessa implementação

    A adoção de autenticação por chave pública oferece flexibilidade sem comprometer a segurança, independentemente de você estar implantando através da interface intuitiva do Amazon QuickSight ou usando AWS CLI para implementações de Infraestrutura como Código. A integração com AWS Secrets Manager ajuda a proteger as chaves privadas, enquanto o processo de configuração direto permite implantação rápida em ambientes de desenvolvimento, staging e produção.

    Conforme a segurança de dados continua evoluindo, a adoção de autenticação por chave pública posiciona sua organização na vanguarda das melhores práticas. Os times de inteligência de negócios agora podem se concentrar em extrair insights acionáveis dos dados do Snowflake, em vez de gerenciar complexidades de autenticação, acelerando assim o tempo para obtenção de insights e melhorando a eficiência operacional.

    Próximas leituras

    Para aprofundar seu conhecimento sobre esse tópico, consulte autenticação por chave pública no Snowflake.

    Fonte

    Amazon Quick now supports key pair authentication to Snowflake data source (https://aws.amazon.com/blogs/machine-learning/amazon-quick-suite-now-supports-key-pair-authentication-to-snowflake-data-source/)

  • Amazon Managed Grafana agora suporta chaves criptográficas gerenciadas pelo cliente

    Novo suporte para chaves gerenciadas pelo cliente

    A AWS anunciou que o Amazon Managed Grafana agora suporta chaves gerenciadas pelo cliente (Customer Managed Keys – CMK) por meio do AWS Key Management Service (Serviço de Gerenciamento de Chaves da AWS – KMS). Este recurso possibilita que você criptografe os dados armazenados em seus workspaces do Amazon Managed Grafana utilizando suas próprias chaves de criptografia.

    O que é Amazon Managed Grafana

    Amazon Managed Grafana é um serviço totalmente gerenciado, baseado no Grafana de código aberto, que facilita a visualização e análise de dados operacionais em grande escala. O serviço já oferecia criptografia em repouso por padrão, utilizando chaves de propriedade da AWS.

    Benefício da camada de segurança adicional

    Com este lançamento, agora você tem a opção de utilizar uma chave gerenciada pelo cliente ao criar um workspace do Amazon Managed Grafana. Essa flexibilidade permite adicionar uma camada de segurança autogerenciada, auxiliando sua organização a atender requisitos específicos de conformidade e regulamentações.

    Disponibilidade e próximos passos

    O recurso está disponível em todas as regiões onde Amazon Managed Grafana é oferecido, com exceção das AWS GovCloud (US) Regions.

    Para começar a usar Amazon Managed Grafana com chaves gerenciadas pelo cliente, consulte a documentação completa do serviço.

    Para conhecer mais detalhes sobre a plataforma, visite a página do produto e a página de preços.

    Fonte

    Amazon Managed Grafana now supports AWS KMS customer managed keys (https://aws.amazon.com/about-aws/whats-new/2026/02/amazon-managed-grafana-customer-managed-keys)

  • Amazon Aurora DSQL integra-se com poderes Kiro e habilidades de agentes de IA

    Nova Integração do Aurora DSQL com Poderes Kiro

    A AWS anunciou a integração do Amazon Aurora DSQL com os poderes Kiro e habilidades de agentes de IA, uma evolução importante para desenvolvedores que desejam construir aplicações baseadas em Aurora DSQL de forma mais ágil. Essa integração combina o servidor de Protocolo de Contexto de Modelo (MCP) do Aurora DSQL com as melhores práticas de desenvolvimento, permitindo que agentes de IA auxiliem diretamente em tarefas como design de esquema, otimização de desempenho e operações de banco de dados, tudo pronto para uso imediato.

    Entendendo os Poderes Kiro

    Os poderes Kiro funcionam como um registro organizado de servidores MCP pré-configurados, arquivos de direcionamento e ganchos de agentes, acelerando processos especializados de desenvolvimento e implantação de software. Com o poder dedicado ao Aurora DSQL, os agentes ganham acesso instantâneo a conhecimento especializado, permitindo que desenvolvedores trabalhem com confiança mesmo sem experiência prévia, reduzindo significativamente ciclos de desenvolvimento baseados em tentativa e erro.

    O poder está disponível dentro da Kiro IDE com instalação em um clique, tornando o acesso simples e direto.

    Extensão das Capacidades com Habilidades de Agentes

    A habilidade de agente do Aurora DSQL amplia essas mesmas funcionalidades para uma variedade maior de agentes de codificação de IA, acessível através da Skills CLI. Desenvolvedores conseguem instalar a habilidade com um único comando, selecionando seus agentes preferidos entre opções como Kiro CLI, Claude Code, Gemini, Codex, Cursor, Copilot, Cline, Windsurf, Roo, OpenCode, entre outros.

    Carregamento Dinâmico de Orientações Especializadas

    Quando desenvolvedores trabalham em tarefas relacionadas a bancos de dados, o agente carrega dinamicamente as orientações de habilidades relevantes. Isso inclui padrões SQL compatíveis com Postgres do Aurora DSQL, design de banco de dados distribuído e autenticação de Gerenciamento de Identidades e Acesso (IAM), eliminando a necessidade de fornecer repetidamente o mesmo contexto ao longo de diferentes conversas.

    Conforme o Aurora DSQL recebe novas funcionalidades, futuras versões da habilidade incluirão padrões e orientações atualizadas, assegurando que os agentes sempre tenham acesso às práticas mais atuais e recomendadas.

    Começando com Aurora DSQL

    Para mais informações sobre o poder Kiro e habilidades de agentes do Aurora DSQL, consulte a documentação de direcionamento do Aurora DSQL e a página no GitHub. Desenvolvedores podem começar a usar o Aurora DSQL gratuitamente através da AWS Free Tier.

    Fonte

    Amazon Aurora DSQL now integrates with Kiro powers and AI agent skills (https://aws.amazon.com/about-aws/whats-new/2026/02/amazon-aurora-dsql-integrates-with-kiro-powers-and-agent-skills)

  • AWS Clean Rooms anuncia suporte para catálogos remotos Apache Iceberg

    Nova capacidade de federação de catálogos

    A AWS Clean Rooms passou a oferecer suporte para federação de catálogos direcionada a catálogos Iceberg remotos. Esta novidade representa um avanço significativo na forma como as organizações podem colaborar e compartilhar insights sobre seus dados, sem necessidade de replicar metadados de tabelas ou construir infraestruturas complexas de integração de dados.

    O diferencial dessa abordagem está na simplicidade: o Clean Rooms agora oferece acesso direto e seguro às tabelas Iceberg armazenadas no Amazon S3 e catalogadas em repositórios remotos. Isso elimina uma barreira técnica importante que existia anteriormente, reduzindo significativamente o esforço necessário para configurar ambientes de análise colaborativa.

    Como a federação de catálogos funciona

    Com o suporte à federação de catálogos, as organizações podem aproveitar o AWS Glue para fornecer acesso direto a seus catálogos Iceberg REST existentes em uma colaboração Clean Rooms. Essa integração permite que diferentes parceiros de negócios trabalhem juntos mantendo seus dados em seus próprios repositórios e sob seu próprio controle.

    Caso de uso prático

    Um cenário comum ilustra bem o potencial dessa funcionalidade: imagine uma empresa de mídia cujos dados estão catalogados no AWS Glue Data Catalog e um anunciante com dados catalogados em um catálogo Iceberg remoto. Ambos podem agora analisar seus conjuntos de dados combinados para avaliar gastos com publicidade — tudo sem construir pipelines ETL (Extração, Transformação e Carregamento) complexos e sem que um lado precise compartilhar seus dados brutos com o outro.

    O propósito do AWS Clean Rooms

    O AWS Clean Rooms foi desenvolvido para permitir que empresas e seus parceiros analisem e colaborem sobre conjuntos de dados compartilhados de forma segura, revelando apenas insights e conclusões — não os dados subjacentes. A adição do suporte a catálogos Iceberg remotos reforça essa proposta de valor, tornando possível colaborações mais eficientes e com menos complexidade operacional.

    Disponibilidade regional

    Para informações sobre as regiões onde o AWS Clean Rooms está disponível, consulte a tabela de regiões da AWS. Mais detalhes sobre como colaborar utilizando o AWS Clean Rooms podem ser encontrados na documentação oficial do serviço.

    Fonte

    AWS Clean Rooms announces support for remote Apache Iceberg REST catalogs (https://aws.amazon.com/about-aws/whats-new/2026/02/aws-clean-rooms-remote-iceberg-catalogs)