Blog

  • SageMaker HyperPod: Treinamento sem Checkpoints Reduz Tempo de Recuperação de Falhas em IA

    Superando as Limitações do Treinamento com Checkpoints

    A AWS anunciou uma novidade significativa no SageMaker HyperPod: o suporte a treinamento sem checkpoints, uma capacidade fundamental para modelos de IA que elimina a necessidade de reinicializações baseadas em checkpoints para recuperação de falhas.

    Tradicionalmente, quando uma falha ocorre durante o treinamento de um modelo em larga escala, o processo segue um fluxo trabalhoso: é necessário pausar todo o cluster de treinamento, diagnosticar manualmente o problema, e restaurar a partir de checkpoints salvos anteriormente. Este procedimento deixa os aceleradores de IA (GPUs e TPUs) custosos ociosos por horas, gerando desperdício considerável de recursos computacionais e aumentando significativamente os custos operacionais.

    Como Funciona o Treinamento Checkpointless

    O treinamento sem checkpoints transforma este paradigma ao preservar automaticamente o estado do modelo de treinamento em todo o cluster distribuído. Quando uma falha é detectada, o sistema substitui os nós defeituosos sobre a marcha (on the fly) e utiliza transferência de estado ponto-a-ponto entre os aceleradores saudáveis para recuperação imediata.

    A implementação reduz drasticamente o tempo de recuperação: em vez de horas, o sistema retoma o treinamento em minutos. Ao eliminar as dependências de checkpoints durante a recuperação, as organizações economizam significativamente em custos de aceleradores ociosos e aceleram o ciclo geral de desenvolvimento.

    Escalabilidade e Performance em Larga Escala

    Um aspecto impressionante deste recurso é seu desempenho em ambientes de grande escala. Mesmo operando com clusters contendo milhares de aceleradores de IA, o treinamento checkpointless no SageMaker HyperPod mantém uma “goodput” (aproveitamento produtivo) superior a 95%.

    Disponibilidade e Integração

    O treinamento checkpointless está disponível em todas as regiões AWS onde o SageMaker HyperPod já opera. O recurso pode ser ativado sem necessidade de alterações de código, utilizando receitas de HyperPod para modelos populares de código aberto, como Llama e GPT.

    Para arquiteturas de modelo personalizadas, a integração de componentes checkpointless requer modificações mínimas em workflows baseados em PyTorch, tornando a capacidade acessível mesmo para equipes sem expertise profunda em treinamento distribuído.

    Próximos Passos

    Para começar, a AWS disponibiliza a página do produto SageMaker HyperPod e oferece um repositório GitHub com orientações de implementação para guiar equipes técnicas através da configuração e uso do recurso.

    Fonte

    Amazon SageMaker HyperPod now supports checkpointless training (https://aws.amazon.com/about-aws/whats-new/2025/12/amazon-sagemaker-hyperpod-checkpointless-training)

  • AWS Transform: novas capacidades de IA agêntica para migrações empresariais do VMware

    Automação inteligente em migrações do VMware

    A AWS expandiu as capacidades do AWS Transform com poderosos recursos de IA agêntica para automatizar migrações do VMware para a plataforma. O agente de migração funciona em colaboração com as equipes técnicas, compreendendo as prioridades empresariais e orquestrando de forma inteligente o planejamento e a migração de centenas de aplicações distribuídas em milhares de servidores. Essa abordagem reduz significativamente o esforço manual, o tempo total de projeto e a complexidade operacional.

    Descoberta e priorização intelligent

    O agente agora consegue descobrir automaticamente o ambiente on-premises e priorizar as aplicações para migração usando diversas fontes de dados. Ele integra informações do AWS Transform discovery tool, dados de inventário provenientes de ferramentas de descoberta de terceiros e informações não estruturadas, como documentos, anotações e regras de negócio.

    Uma vez coletados esses dados, o agente analisa os detalhes de infraestrutura, banco de dados e aplicações, mapeando dependências entre componentes. Com base nessa análise, gera planos de migração agrupados conforme prioridades empresariais e técnicas — considerando propriedade, departamento, função, subnet e sistemas operacionais.

    Geração de configurações de rede

    O agente é capaz de gerar configurações de rede em topologias hub-and-spoke ou isoladas, oferecendo opções flexíveis de gerenciamento de endereços IP. Além disso, suporta deployment em múltiplas contas da AWS e gera configurações de rede alinhadas com landing zones da empresa. O serviço migra também infraestrutura de rede de ambientes como NSX, Palo Alto, Fortigate e Cisco ACI.

    Migração segura e iterativa

    A migração dos servidores para a AWS ocorre de forma segura e iterativa, em ondas sucessivas, com atualizações claras de progresso durante todo o deployment. O agente suporta a migração de servidores x86 Windows e Linux, hipervisores como VMware, HyperV, Nutanix e KVM, além de ambientes bare-metal em múltiplas contas de destino.

    Interação e colaboração durante a migração

    Ao longo de toda a jornada de migração, as equipes podem fazer perguntas ao agente e orientar suas decisões — como repetir ou pular etapas ou ajustar planos conforme necessário. Para simplificar aprovações internas, o agente gera um relatório detalhado contendo o plano de migração e o mapeamento completo de redes, servidores e aplicações.

    Disponibilidade e escopo

    Essas novas capacidades estão disponíveis em todas as Regiões da AWS onde o AWS Transform é oferecido, com suporte para migração de servidores e redes para 16 Regiões da AWS. Para explorar a ferramenta, você pode acessar a página do produto e o guia do usuário, além de começar com o AWS Transform.

    Benefícios práticos

    Com o AWS Transform, as organizações conseguem acelerar o tempo para gerar valor, reduzir riscos e diminuir a complexidade operacional de migrações do VMware. A combinação de automação, inteligência artificial e colaboração interativa torna toda a operação mais previsível, rápida e menos propensa a erros.

    Fonte

    AWS Transform adds new agentic AI capabilities for enterprise VMware migrations (https://aws.amazon.com/about-aws/whats-new/2025/12/transform-vmware-agentic-ai-enterprise-migration/)

  • Treinamento Elástico no Amazon SageMaker HyperPod: Otimização de Recursos para Modelos Foundation

    Uma Abordagem Revolucionária para Treinamento de Modelos em Larga Escala

    A AWS anunciou uma novidade significativa para o Amazon SageMaker HyperPod: o suporte a treinamento elástico. Esta funcionalidade transforma a maneira como organizações realizam treinamento de modelos foundation, permitindo escalabilidade automática de cargas de trabalho com base na disponibilidade de recursos e nas prioridades das tarefas.

    O treinamento elástico representa uma mudança fundamental comparado ao modelo tradicional, onde os recursos eram alocados de forma fixa durante todo o ciclo de treinamento. Com essa nova abordagem, a AWS busca economizar horas de trabalho de engenharia que seriam gastas reonfigurando tarefas de treinamento de acordo com a disponibilidade de computação.

    O Problema que o Treinamento Elástico Resolve

    Anteriormente, qualquer alteração na disponibilidade de recursos exigia um processo manual e complexo: interromper o treinamento, reconfigurar os parâmetros, reiniciar as tarefas — tudo exigindo conhecimento especializado em treinamento distribuído. Enquanto essa reconfiguração ocorria, os aceleradores de IA de alto custo permaneciam ociosos, representando desperdício financeiro significativo.

    Como o Treinamento Elástico Funciona

    Escalabilidade Contínua Sem Interrupções

    O treinamento elástico opera de forma automática, expandindo tarefas de treinamento para absorver aceleradores de IA que estão ociosos. Quando cargas de trabalho de maior prioridade necessitam de recursos, o sistema contrai gracefully — tudo sem interromper completamente o treinamento em progresso. Esse mecanismo de contração dinâmica garante que os recursos sejam sempre utilizados de forma eficiente.

    Começo Ágil com Crescimento Oportunista

    As tarefas de treinamento podem iniciar imediatamente com recursos mínimos e crescer conforme a capacidade fica disponível. Essa flexibilidade permite que as organizações iniciem projetos sem aguardar a disponibilidade total de infraestrutura, acelerando o tempo até o mercado.

    Benefícios para Organizações

    Ao eliminar overhead de reconfiguração manual e garantir utilização contínua dos recursos disponíveis, o treinamento elástico oferece três vantagens principais:

    • Economia de tempo: redução significativa no tempo gasto em gerenciamento de infraestrutura;
    • Redução de custos: maximização da utilização do cluster reduz gastos com recursos subutilizados;
    • Aceleração do time-to-market: os modelos chegam ao mercado mais rapidamente.

    Implementação Acessível e Flexível

    O treinamento elástico está disponível em todas as regiões onde o Amazon SageMaker HyperPod funciona atualmente. A implementação foi projetada para ser acessível mesmo sem expertise profunda em sistemas distribuídos.

    Para Modelos Públicos

    Organizações podem habilitar treinamento elástico sem nenhuma alteração de código usando HyperPod recipes para modelos amplamente disponíveis, como Llama e GPT OSS — frameworks de código aberto conhecidos e consolidados no mercado.

    Para Arquiteturas Personalizadas

    Quando se trabalha com arquiteturas de modelo customizadas, é possível integrar capacidades de treinamento elástico através de atualizações leves de configuração e modificações mínimas de código. Essa abordagem deixa a funcionalidade acessível para equipes sem exigir especialização em sistemas distribuídos.

    Próximos Passos

    Para começar, equipes podem acessar a página do produto Amazon SageMaker HyperPod e consultar a documentação de treinamento elástico para orientações de implementação específicas.

    Fonte

    Introducing elastic training on Amazon SageMaker HyperPod (https://aws.amazon.com/about-aws/whats-new/2025/12/elastic-training-amazon-sagemaker-hyperpod/)

  • Agente de Upgrade do Apache Spark para Amazon EMR: Transformando Processos de Migração

    Novo Agente Acelera Upgrading de Spark para Amazon EMR

    A AWS anunciou o lançamento de um agente de upgrade para Apache Spark, um novo recurso que promete transformar um dos desafios mais complexos da engenharia de dados em nuvem. O agente foi desenvolvido para funcionar tanto em Amazon EMR no EC2 quanto em EMR Serverless, oferecendo automação inteligente em processos que tradicionalmente demandavam investimentos substanciais de tempo e recursos.

    O Desafio dos Upgrades de Spark

    Historicamente, atualizar versões do Apache Spark em ambientes corporativos é um processo moroso e exaustivo. As organizações precisam investir recursos significativos de engenharia para:

    • Analisar mudanças nas APIs (Interfaces de Programação de Aplicações) entre versões
    • Resolver conflitos entre código legado e novas funcionalidades
    • Validar aplicações inteiras para garantir que funcionem corretamente com a nova versão

    Esses processos, que tradicionalmente consumiam meses de trabalho, agora podem ser reduzidos para semanas com a ajuda do novo agente.

    Como o Agente Funciona

    Interface Conversacional Intuitiva

    O diferencial do agente está em sua abordagem conversacional. Em vez de depender de scripts complexos ou análises manuais, os engenheiros podem expressar seus requisitos de upgrade em linguagem natural. O agente compreende essas instruções e mantém os desenvolvedores em controle total sobre as modificações de código.

    Análise Automática de Mudanças

    O agente identifica automaticamente:

    • Mudanças nas APIs entre versões do Spark
    • Modificações de comportamento em aplicações PySpark e Scala
    • Possíveis conflitos e incompatibilidades

    Fluxo de Trabalho Controlado

    Durante o processo, o agente:

    • Analisa o código existente da aplicação
    • Sugere mudanças específicas e necessárias
    • Permite que os engenheiros revisem e aprovem cada alteração antes da implementação
    • Valida a correção funcional através de validações de qualidade de dados

    Integração com Ferramentas Existentes

    Os engenheiros podem iniciar upgrades diretamente de suas ferramentas preferidas graças ao suporte ao MCP (Model Context Protocol):

    • SageMaker Unified Studio
    • Kiro CLI
    • IDEs de desenvolvimento da escolha do usuário

    Compatibilidade e Disponibilidade

    O agente suporta atualmente upgrades da versão 2.4 para 3.5 do Spark, mantendo a precisão do processamento de dados ao longo de todo o processo. O recurso está disponível em todas as regiões da AWS onde o SageMaker Unified Studio está disponível.

    Como Começar

    Para começar a usar o agente de upgrade do Apache Spark:

    • Acesse o SageMaker Unified Studio e selecione IDE Spaces
    • Ou instale a Kiro CLI em seu ambiente
    • Consulte a documentação de upgrade do Spark para orientações detalhadas de implementação, exemplos de migração e referências técnicas

    Impacto para Organizações

    Este agente representa um avanço significativo para equipes que lidam com ecossistemas de dados complexos. Ao reduzir o tempo e os recursos necessários para upgrades, as organizações podem:

    • Accelerar a modernização de suas plataformas de dados
    • Liberar engenheiros para trabalhos de maior valor estratégico
    • Reduzir riscos associados a migrações manuais
    • Manter-se atualizado com as últimas versões do Spark de forma mais eficiente

    Fonte

    Announcing the Apache Spark upgrade agent for Amazon EMR (https://aws.amazon.com/about-aws/whats-new/2025/12/apache-spark-upgrade-agent-amazon-emr)

  • Amazon Connect agora oferece recursos nativos de teste e simulação

    Novos recursos de teste e simulação no Amazon Connect

    A AWS anunciou a disponibilidade de recursos nativos de teste e simulação para o Amazon Connect, seu serviço de plataforma de contact center baseado em IA. Com essa novidade (disponível em fase de prévia), fica significativamente mais simples validar fluxos de trabalho, interações de voz de autoatendimento e os resultados dessas operações, tudo isso com apenas alguns cliques.

    Como funciona a validação de cenários

    Para cada teste executado, é possível configurar diversos parâmetros que definem o comportamento simulado. Entre esses parâmetros estão:

    • O número de telefone do chamador ou perfil do cliente
    • O motivo da chamada (exemplo: “preciso verificar o status do meu pedido”)
    • As respostas esperadas (exemplo: “sua solicitação foi processada”)
    • Condições de negócio, como cenários fora do horário comercial ou filas de chamadas cheias

    Após executar os testes, os resultados mostram claramente se tiveram sucesso ou falharam, baseando-se nos critérios que você definiu. Além disso, o sistema registra o caminho exato percorrido pela interação simulada e fornece logs detalhados para diagnosticar rapidamente possíveis problemas.

    Benefícios para validação em escala

    Um diferencial importante é a possibilidade de executar múltiplos testes simultaneamente, o que permite validar diversos cenários e fluxos de trabalho em larga escala. Essa capacidade reduz significativamente o tempo necessário para testar as suas implementações.

    As empresas podem visualizar os resultados dos testes e identificar padrões comuns de falha em todos os testes através dos painéis de análise do Connect. Dessa forma, fica muito mais fácil detectar problemas recorrentes e priorizá-los para correção.

    Impacto na implementação de mudanças

    Com esses novos recursos, validar alterações nos fluxos de trabalho se torna um processo rápido e confiável. As organizações conseguem fazer deploy de novas experiências de contact center com segurança, sabendo que seus workflows foram testados adequadamente. Isso permite que as empresas se adaptem rapidamente às mudanças nas necessidades do negócio.

    Disponibilidade e próximos passos

    Os recursos de teste e simulação nativa estão disponíveis em todas as regiões AWS onde Amazon Connect está disponível. Para mais detalhes sobre essas funcionalidades, você pode consultar a documentação do Amazon Connect. Saiba mais sobre o Amazon Connect, a solução de experiência do cliente nativa de IA da AWS, visitando o website do Amazon Connect.

    Fonte

    Amazon Connect now provides native testing and simulation capabilities (Preview) (https://aws.amazon.com/about-aws/whats-new/2025/11/amazon-connect-native-testing-simulation-capabilities-preview)

  • Amazon Quick Suite agora integra pesquisa rápida com fluxos automatizados para relatórios

    A Integração Chegou: Quick Research Dentro do Quick Flows

    A AWS expandiu as capacidades do Amazon Quick Suite, seu espaço de trabalho inteligente alimentado por IA para análise de dados empresariais. A novidade principal é a integração do Quick Research diretamente dentro do Quick Flows, o que transforma como as equipes conduzem pesquisa e análise em suas organizações.

    Até agora, análise de pesquisa e automação de fluxos funcionavam como ferramentas separadas. Com essa integração, é possível incorporar etapas de pesquisa em fluxos de trabalho automatizados e multi-etapas, transformando projetos de pesquisa em workflows reutilizáveis que podem ser compartilhados por toda a organização.

    Automatização de Pesquisa em Escala

    Um dos principais desafios das equipes é capturar e padronizar métodos de pesquisa comprovados, replicando-os em centenas de casos de uso diferentes. A integração resolve essa dificuldade ao permitir que pesquisas sejam disparadas automaticamente dentro dos fluxos, eliminando a necessidade de análise manual em cada situação.

    Além disso, usuários podem configurar acionadores agendados, permitindo que fluxos gerem pesquisas automaticamente em momentos específicos. Isso significa que relatórios podem ser programados para rodar sem intervenção humana, em intervalos regulares ou sob demanda.

    Casos de Uso Práticos

    A AWS destacou alguns cenários onde essa integração oferece valor imediato:

    • Criação automatizada de planos de conta;
    • Padronização de análise de conformidade de produtos;
    • Geração agendada de relatórios de indústria.

    Do Relatório para a Ação

    O que torna essa integração particularmente poderosa é a capacidade de encadear ações após a geração do relatório. Os fluxos vêm pré-configurados com instruções do criador do fluxo e podem aceitar entradas adicionais do usuário conforme necessário.

    Os relatórios gerados podem disparar automaticamente ações subsequentes, como:

    • Atualizar uma oportunidade no Salesforce para que equipes de conta façam acompanhamento;
    • Postar em um ticket Jira para que equipes de conformidade façam revisão;
    • Criar uma tarefa no Asana para que um especialista legal aprove a análise.

    Esse modelo de “configurar e esquecer” permite que análises consistentes sejam entregues sem esforço manual pesado, criando o que a AWS chama de workflows automáticos verdadeiramente autônomos.

    Mantendo a Qualidade da Análise

    O Quick Research mantém seus pontos fortes mesmo operando dentro desses fluxos automatizados: agilidade na análise de dados empresariais diversos, mantendo insights verificados com rastreamento de fonte. Para usuários já familiarizados com o Quick Flows, essa integração oferece acesso a análises mais abrangentes e profundas.

    Disponibilidade Regional

    A integração de Quick Research com Flows está disponível nas seguintes regiões da AWS: Leste dos EUA (N. Virgínia), Oeste dos EUA (Oregon), Ásia Pacífico (Sydney) e Europa (Irlanda).

    Para explorar como automatizar suas necessidades de pesquisa, consulte a documentação do Amazon Quick Suite.

    Fonte

    Amazon Quick Suite integrates Quick Research with Quick Flows for report automation (https://aws.amazon.com/about-aws/whats-new/2025/12/amazon-quick-suite-research-flows-report-automation)

  • Amazon Nova 2 Sonic: o novo modelo de IA conversacional em tempo real

    A AWS anuncia Amazon Nova 2 Sonic

    Em dezembro de 2025, a AWS anunciou a disponibilidade do Amazon Nova 2 Sonic, um modelo de fala-para-fala (speech-to-speech) desenvolvido para aplicações de IA conversacional em tempo real. O serviço combina qualidade excepcional com preço competitivo, representando um avanço importante no segmento de IA por voz.

    Capacidades principais do Nova 2 Sonic

    O modelo oferece compreensão de fala em tempo real com streaming, apresentando robustez diante de ruído de fundo e diferentes estilos de fala dos usuários. A gestão eficiente de diálogos e a geração de voz com expressividade estão entre seus destaques.

    Uma das características mais relevantes é o suporte a vozes poliglotas — vozes únicas capazes de falar múltiplos idiomas com naturalidade e expressão nativa. O modelo oferece raciocínio superior, melhor compreensão de instruções e maior precisão na invocação de ferramentas em comparação com a versão anterior.

    Melhorias em relação ao modelo anterior

    O Nova 2 Sonic expande as funcionalidades do modelo original Nova Sonic com várias inovações. O suporte a idiomas foi ampliado e agora inclui português e hindi, atendendo melhor ao mercado brasileiro e global.

    Entre as novas funcionalidades estão o controle de turnos de conversação — permitindo aos desenvolvedores configurar sensibilidade de pausas como baixa, média ou alta — e interação cross-modal, que permite aos usuários alternar entre voz e texto na mesma sessão sem interrupção.

    O modelo também incorpora chamadas de ferramentas assíncronas para suportar tarefas multietapas sem interromper o fluxo conversacional, e oferece uma janela de contexto de um milhão de tokens para manter interações prolongadas.

    Integração e disponibilidade

    Desenvolvedores podem integrar o Nova 2 Sonic diretamente em sistemas de voz em tempo real através da API de streaming bidirecional do Amazon Bedrock (Ambiente de Execução de Modelos de Base da AWS).

    O modelo também se integra com o Amazon Connect (serviço de call center em nuvem da AWS) e provedores de telefonia líderes como Vonage, Twilio e AudioCodes, além de frameworks de código aberto populares como LiveKit e Pipecat.

    O Amazon Nova 2 Sonic está disponível no Amazon Bedrock nas seguintes regiões AWS: US East (N. Virginia), US West (Oregon), Ásia Pacífico (Tóquio) e Europa (Estocolmo).

    Próximos passos

    Para conhecer mais detalhes técnicos, consulte o blog de notícias da AWS e o guia do usuário do Amazon Nova Sonic. Para começar a usar o Nova 2 Sonic, acesse o console do Amazon Bedrock.

    Fonte

    Announcing Amazon Nova 2 Sonic for real-time conversational AI (https://aws.amazon.com/about-aws/whats-new/2025/12/amazon-nova-2-sonic-real-time-conversational-ai/)

  • Instâncias Amazon EC2 M9g com processadores AWS Graviton5 chegam em prévia

    Novos processadores Graviton5 para EC2

    A AWS anunciou nesta semana a disponibilidade em prévia das novas instâncias M9g do Amazon EC2, equipadas com os processadores AWS Graviton5. Trata-se da evolução mais recente da linha de processadores Graviton, desenvolvidos especificamente pela AWS para entregar o melhor custo-benefício em cargas de trabalho rodando no Amazon EC2.

    Melhorias de desempenho

    As instâncias M9g trazem ganhos significativos em relação à geração anterior (M8g, baseada em Graviton4). Segundo a empresa, os novos processadores oferecem até 25% melhor desempenho de computação. Além disso, proporcionam maior largura de banda tanto para rede quanto para o Amazon EBS (Elastic Block Store, o serviço de armazenamento em blocos da AWS).

    Em cenários específicos, os ganhos são ainda mais expressivos: as instâncias M9g apresentam até 35% de velocidade maior para aplicações web e até 35% de aceleração para cargas de machine learning. Para bancos de dados, o ganho chega a 30%.

    Arquitetura e recursos

    Essas instâncias foram construídas sobre o AWS Nitro System, um conjunto de inovações em hardware e software desenvolvidas pela AWS. O Nitro System é projetado para viabilizar serviços em nuvem eficientes, flexíveis e seguros, com suporte a multitenância isolada, redes privadas e armazenamento local de rápido acesso.

    Casos de uso

    De acordo com a AWS, as instâncias Amazon EC2 M9g são ideais para uma variedade de cargas de trabalho, incluindo servidores de aplicação, microsserviços, servidores de gaming, armazenamentos de dados de médio porte e frotas de cache.

    Próximos passos

    Quem deseja explorar essas novas instâncias pode solicitar acesso à prévia através da página de instâncias M9g. Para quem está começando sua jornada com processadores Graviton, a AWS disponibiliza recursos complementares sobre como potencializar seu compute com AWS Graviton.

    Fonte

    Announcing new Amazon EC2 M9g instances powered by AWS Graviton5 processors (Preview) (https://aws.amazon.com/about-aws/whats-new/2025/12/ec2-m9g-instances-graviton5-processors-preview/)

  • AWS apresenta inovações de segurança potencializadas por IA na re:Invent 2025

    O contexto de segurança em expansão com IA

    A conferência re:Invent 2025 trouxe consigo um importante reconhecimento sobre a evolução das despesas em segurança corporativa. Conforme apontam dados de pesquisa do mercado, as organizações devem aumentar seus investimentos em segurança de forma substancial nos próximos anos. O panorama de investimentos reflete uma preocupação crescente das empresas em proteger suas implementações de inteligência artificial generativa enquanto expandem suas operações digitais. Esse direcionamento de recursos demonstra como a segurança permanece como prioritária nas estratégias de transformação digital, especialmente em um cenário onde as tecnologias de IA se tornam cada vez mais centrais nos negócios.

    A AWS respondeu a essa demanda apresentando uma abordagem integrada que combina inteligência artificial, machine learning e automação para fortalecer a segurança de forma proativa. As inovações anunciadas cobrem múltiplas camadas de proteção — desde aplicações até infraestrutura, passando por redes e dados — criando uma defesa em profundidade capaz de enfrentar ameaças sofisticadas, vulnerabilidades emergentes e configurações incorretas que possam interromper operações.

    Agentes de segurança com IA integrados aos fluxos de trabalho

    Uma das principais novidades apresentadas foi a incorporação de agentes de IA diretamente nos processos de segurança corporativa. Esses agentes executam tarefas especializadas como revisões de código, consolidação de sinais de resposta a incidentes e proteção de acesso para outros agentes autônomos.

    AWS Security Agent — segurança desde o design

    O AWS Security Agent funciona como um agente de fronteira que atua de forma proativa durante todo o ciclo de desenvolvimento das aplicações. Sua função inclui realizar revisões automatizadas de segurança adaptadas aos requisitos específicos de cada organização, além de oferecer testes de penetração sob demanda com contexto específico do ambiente. Ao validar continuamente a segurança desde a fase de design até o lançamento em produção, esse agente contribui para prevenir vulnerabilidades nos estágios iniciais do desenvolvimento, reduzindo riscos e custos de remediação posterior.

    Resposta a incidentes com capacidades agentic

    O AWS Security Incident Response traz capacidades de investigação potencializadas por IA agentic, projetadas para aprimorar e acelerar a resposta a eventos de segurança, bem como o tempo de recuperação. A automação nesse nível permite que equipes de segurança se dediquem a tarefas estratégicas enquanto o sistema executa investigações em paralelo.

    Controle de identidade para agentes IA

    O AgentCore Identity agora oferece autenticação melhorada que proporciona controles de acesso específicos para agentes IA. Esses controles determinam precisamente com quais serviços e dados os agentes podem interagir, respeitando permissões e atributos do usuário. Estabelecer limites granulares sobre como agentes autônomos interagem com aplicações corporativas diminui significativamente os riscos de acesso não autorizado ou exposição de dados.

    Detecção de ameaças impulsionada por machine learning e automação

    Os modelos de machine learning e processos automatizados agora aceleram a detecção de ameaças em mais ambientes da AWS. Essa capacidade permite identificar correlações que seriam difíceis de discernir manualmente, especialmente em ataques sofisticados com múltiplas etapas coordenadas, operando em escala.

    Detecção estendida para EC2 e ECS

    O GuardDuty extended threat detection para EC2 e ECS utiliza algoritmos avançados de IA e machine learning para identificar ataques sofisticados em múltiplas etapas direcionados a contas AWS, cargas de trabalho e dados em máquinas virtuais, contêineres e ambientes sem servidor. A automatização reduz o tempo necessário ao correlacionar sinais de diferentes fontes em sequências consolidadas, facilitando a análise de investigadores.

    Proteção contra malware em backups

    O GuardDuty malware protection para AWS Backup realiza varreduras automáticas de backups de EC2, EBS e S3 em busca de malware. Esse serviço ajuda as organizações a identificar seu último backup conhecido como limpo, minimizando interrupções durante o processo de recuperação. Adicionalmente, suporta varredura incremental de novos dados entre execuções de backup, otimizando tempo e recursos.

    Análise em tempo quase real da postura de segurança

    O Security Hub com análise em tempo quase real correlaciona sinais de segurança de múltiplas fontes — Amazon GuardDuty, Amazon Inspector, AWS Security Hub CSPM e Amazon Macie — oferecendo análise de risco praticamente em tempo real. Essa unificação de sinais simplifica as operações de segurança em nuvem, permitindo uma visão consolidada e acionável da postura de proteção.

    Gerenciamento de identidades e acesso centrado em agentes

    Os controles de acesso inteligente estão redefinindo a forma como as organizações gerenciam identidades e permissões. Essas soluções automatizam a geração de políticas e elevam o nível de maturidade em modelos de confiança zero, tornando mais acessível o uso dos serviços AWS.

    Geração automática de políticas de IAM

    O IAM policy autopilot permite que assistentes de código com IA criem rapidamente políticas de IAM (Gerenciamento de Identidades e Acesso) de linha de base, que as equipes podem refinar conforme a aplicação evolui. Essa abordagem acelera o processo de desenvolvimento sem comprometer os padrões de segurança.

    Federação de identidades para serviços externos

    O Outbound identity Federation permite que clientes de IAM façam federação segura de suas identidades AWS com serviços externos. Essa capacidade facilita a autenticação de cargas de trabalho AWS com provedores de nuvem, plataformas SaaS e aplicações hospedadas internamente, ampliando a interoperabilidade.

    Acesso privado ao console AWS

    O Private access sign-in roteia 100% do tráfego do console através de endpoints de VPC em vez de internet pública, utilizando roteamento inteligente para manter a segurança sem prejudicar o desempenho. Essa abordagem fornece camada adicional de proteção para acessos administrativos.

    Acesso programático para desenvolvimento local

    O Login para desenvolvimento local AWS permite que desenvolvedores utilizem suas credenciais de console existentes para acessar programaticamente a AWS em ambientes de desenvolvimento local. Essa simplificação reduz a complexidade de gerenciamento de credenciais sem sacrificar a segurança.

    Transformação da segurança através de IA e automação

    Coletivamente, esses avanços em IA e machine learning transformam a segurança de um modelo reativo e manual para um modelo proativo e escalável. As organizações conseguem agora operacionalizar a busca de ameaças e avançar sua postura de segurança mesmo enquanto expandem sua pegada digital. A confiança que as organizações depositam em segurança nativa de nuvem valida essa abordagem. Pesquisa com 2.800 profissionais de segurança e TI tomadores de decisão patrocinada pela AWS revelou dados significativos sobre essa percepção: 81% concordam que as capacidades nativas de segurança e conformidade de seu provedor de nuvem primário superam o que suas equipes conseguiriam entregar de forma independente. Adicionalmente, 56% responderam que nuvem pública está melhor posicionada para entregar segurança em comparação com 37% que selecionaram infraestrutura local, e 51% acreditam que nuvem pública está melhor preparada para atender regulamentações versus 41% que selecionaram ambientes on-premises.

    A nuvem permanece como fundação sobre a qual organizações constroem seus negócios, e a AWS segue ampliando seu portfólio de inovações em segurança que reforçam essa fundação. As capacidades apresentadas na re:Invent 2025 refletem essa trajetória contínua de evolução, especialmente no contexto de organizações que buscam proteger suas investidas em inteligência artificial enquanto escalam suas operações digitais.

    Fonte

    AWS launches AI-enhanced security innovations at re:Invent 2025 (https://aws.amazon.com/blogs/security/aws-launches-ai-enhanced-security-innovations-at-reinvent-2025/)

  • Suporte a TypeScript no Strands Agents chega em preview

    Expansão do Strands Agents com TypeScript

    Desde maio, a AWS disponibiliza o Strands Agents SDK, um framework open source em Python que utiliza uma abordagem orientada por modelos para construir e executar agentes de IA com apenas algumas linhas de código. Agora, a empresa expande as possibilidades da plataforma anunciando o suporte a TypeScript em preview, permitindo que desenvolvedores escolham entre Python e TypeScript para desenvolver Strands Agents.

    O suporte a TypeScript foi estruturado para proporcionar uma experiência idiomática dessa linguagem, incluindo segurança de tipo completa, suporte a async/await e padrões modernos de JavaScript e TypeScript. Os desenvolvedores podem executar Strands em aplicações cliente, navegadores e aplicações servidor em ambientes como AWS Lambda e Bedrock AgentCore. Além disso, é possível construir toda a arquitetura em TypeScript utilizando AWS CDK.

    Novidades Adicionais do SDK

    Suporte a dispositivos edge

    O suporte a dispositivos edge para Strands Agents agora está em disponibilidade geral, expandindo as capacidades do SDK com streaming bidirecional e provedores de modelos locais adicionais, como llama.cpp. Essa funcionalidade permite executar agentes em dispositivos de pequena escala utilizando modelos locais.

    Direcionamento de agentes

    Strands steering é apresentado como um recurso experimental, oferecendo aos desenvolvedores um mecanismo modular de prompt que fornece feedback ao agente no momento apropriado de seu ciclo de vida. Esse mecanismo direciona os agentes para um resultado desejado sem depender de workflows rígidos.

    Avaliação de agentes

    Strands evaluations chega em preview, permitindo que desenvolvedores validem sistematicamente o comportamento de agentes, meçam melhorias e façam deploy com confiança durante ciclos de desenvolvimento.

    Próximos Passos

    Para começar a construir com essas novas funcionalidades, desenvolvedores podem acessar o repositório Strands Agents no GitHub.

    Fonte

    Announcing TypeScript support in Strands Agents (preview) and more (https://aws.amazon.com/about-aws/whats-new/2025/12/typescript-strands-agents-preview)