Blog

  • Personalização de Modelos Serverless no Amazon SageMaker AI

    Novo recurso de personalização serverless no SageMaker AI

    A AWS anunciou uma nova capacidade de personalização de modelos serverless no Amazon SageMaker AI, que capacita desenvolvedores de IA a customizarem rapidamente modelos populares com técnicas como fine-tuning supervisionado e aprendizado por reforço. O Amazon SageMaker AI é um serviço totalmente gerenciado que reúne um amplo conjunto de ferramentas para viabilizar desenvolvimento de modelos de IA de alto desempenho e baixo custo, adequado para qualquer caso de uso.

    Desafios na customização de modelos

    Muitos desenvolvedores de IA buscam customizar modelos com dados proprietários para melhorar a precisão, porém esse processo frequentemente envolve longos ciclos de iteração. Tradicionalmente, o fluxo de trabalho exigia múltiplas etapas: definir um caso de uso, preparar dados, selecionar o modelo e a técnica de customização, treinar o modelo e, finalmente, avaliar para deployement em produção.

    Com essa nova capacidade, a AWS simplifica todo o fluxo de trabalho de customização de modelos, desde a preparação de dados até avaliação e deployement, acelerando significativamente o processo.

    Capacidades e modelos suportados

    Por meio de uma interface intuitiva, desenvolvedores de IA podem agora personalizar rapidamente modelos populares, incluindo Amazon Nova, Llama, Qwen, DeepSeek e GPT-OSS com seus próprios dados. A plataforma oferece suporte a técnicas como fine-tuning supervisionado e abordagens mais avançadas de customização, incluindo aprendizado por reforço e otimização de preferência direta.

    Além disso, desenvolvedores podem utilizar o fluxo de trabalho guiado por agente de IA (em preview), permitindo usar linguagem natural para gerar dados sintéticos, analisar qualidade de dados e gerenciar treinamento e avaliação do modelo — tudo de forma totalmente serverless.

    Disponibilidade e próximos passos

    O novo recurso está disponível nas seguintes regiões AWS: Europe (Ireland), US East (N. Virginia), Asia Pacific (Tokyo) e US West (Oregon).

    Para acessar o fluxo de trabalho guiado por agente de IA, desenvolvedores podem se registrar na página de inscrição na waitlist.

    Mais informações estão disponíveis na página de customização de modelos do SageMaker AI e no blog da AWS.

    Fonte

    New serverless model customization capability in Amazon SageMaker AI (https://aws.amazon.com/about-aws/whats-new/2025/12/new-serverless-model-customization-capability-amazon-sagemaker-ai)

  • Amazon RDS e Aurora agora oferecem tags de recursos para backups automatizados

    Etiquetagem de backups automatizados no RDS e Aurora

    A AWS expandiu as capacidades de gerenciamento de recursos nos serviços RDS (Relational Database Service) e Aurora. Agora é possível atribuir tags aos backups automatizados independentemente da instância ou cluster de banco de dados de origem. Essa mudança oferece mais flexibilidade para organizar, controlar e rastrear a infraestrutura de dados na nuvem.

    O que muda com as tags de backups automatizados

    Anteriormente, as tags estavam vinculadas apenas à instância ou cluster pai. Com esse novo recurso, os backups ganham autonomia na etiquetagem. Isso significa que você pode aplicar diferentes conjuntos de tags aos backups automatizados, criando uma estrutura mais granular de controle e organização.

    Como utilizar as tags

    A etiquetagem pode ser realizada por meio do AWS Management Console, da API ou do SDK. Uma vez aplicadas as tags aos backups, elas funcionam como critério para políticas IAM, permitindo controle de acesso baseado em atributos (ABAC — Attribute-Based Access Control). Com isso, você define quem pode descrever, deletar ou restaurar backups específicos com base nas tags associadas.

    Benefícios práticos de gerenciamento

    As tags funcionam como categorias para organizar recursos por aplicação, projeto, departamento, ambiente ou qualquer outra dimensão relevante para seu negócio. Um exemplo prático: você pode criar tags específicas de aplicação para controlar permissões sobre os backups dessa aplicação e, simultaneamente, rastrear quanto ela está custando em termos de armazenamento de backups.

    Esse nível de granularidade simplifica o rastreamento de custos e o gerenciamento de permissões, especialmente em ambientes com múltiplas equipes ou aplicações compartilhando a mesma infraestrutura.

    Disponibilidade e documentação

    O recurso está disponível em todas as regiões AWS, incluindo as regiões AWS GovCloud (US). Para aprofundar-se na implementação, a AWS oferece documentação completa sobre etiquetagem de recursos do Amazon Aurora e etiquetagem de recursos do Amazon RDS, além de um guia sobre como usar tags para controle de acesso baseado em atributos.

    Fonte

    Amazon RDS and Aurora now support resource tagging for Automated Backups (https://aws.amazon.com/about-aws/whats-new/2025/12/rds-aurora-resource-tagging-automated-backups/)

  • Integração com dados S&P Global expande as capacidades do Amazon Quick Research

    Uma integração estratégica para pesquisa mais eficiente

    A AWS anunciou uma nova integração entre o Amazon Quick Research e a S&P Global. Esta integração oferece aos clientes do Quick Research acesso tanto aos dados de energia, pesquisa e insights da S&P Global quanto à inteligência de mercado da empresa, tudo consolidado em um único agente de pesquisa profundo.

    A integração com a S&P Global expande significativamente as capacidades do Quick Research, permitindo que profissionais de negócios analisem múltiplas fontes de dados — incluindo notícias globais de energia e inteligência financeira premium — em um único espaço de trabalho. O resultado prático é a eliminação da necessidade de alternar entre plataformas diferentes, transformando semanas de pesquisa em minutos de geração de insights focados.

    O Quick Suite, que integra informações de repositórios internos, aplicações populares, serviços da AWS e, através do Protocolo de Contexto de Modelo (MCP), conexões com mais de 1.000 aplicativos, está reformulando como o trabalho é executado. Esta aplicação de IA agentica transforma a forma como equipes encontram insights, conduzem pesquisas profundas, automatizam tarefas, visualizam dados e executam ações entre diferentes aplicativos.

    A arquitetura da solução

    Implementações MCP inovadoras

    A S&P Global desenvolveu duas implementações de servidor MCP na AWS, permitindo que organizações integrem facilmente conteúdo confiável de serviços financeiros e energia em fluxos de trabalho alimentados por IA. A abordagem mantém a qualidade, segurança e confiabilidade que líderes de negócios exigem.

    S&P Global Energy: inteligência abrangente em commodities e energia

    A integração S&P Global Energy, agora disponível no Amazon Quick Research, utiliza um servidor MCP de Dados Prontos para IA para entregar acesso abrangente à inteligência de mercado de commodities e energia. Essa inteligência abrange setores de Óleo, Gás, Energia, Metais, Energia Limpa, Agricultura e Transporte Marítimo em mercados globais.

    Construída sobre a reputação da S&P Global como autoridade confiável de mercado, a solução utiliza centenas de milhares de documentos criados por especialistas — incluindo análises, comentários e artigos de notícias — que refletem décadas de expertise industrial. A solução oferece uma perspectiva única multihorizontal, proporcionando inteligência desde atualizações diárias de mercado até projeções de um ano, estendendo-se a análises de cenários de 20 anos ou mais.

    Com dados atualizando a cada 30 minutos, líderes de negócios ganham acesso quase em tempo real à inteligência de commodities e energia, acelerando dramaticamente a velocidade de decisão ao explorar desafios regulatórios, oportunidades de investimento ou implicações ambientais.

    S&P Global Market Intelligence: inteligência financeira confiável

    A integração S&P Global Market Intelligence, também disponível no Amazon Quick Research, utiliza o servidor MCP de API pronta para LLM desenvolvido pela Kensho, o hub de inovação em IA da S&P Global. Este servidor MCP torna dados financeiros confiáveis acessíveis através de consultas em linguagem natural, integrando-se perfeitamente ao Amazon Quick Research.

    Profissionais de finanças podem acessar S&P Capital IQ Financials, transcrições de chamadas de resultados, informações de empresas, transações e muito mais, simplesmente fazendo perguntas. A solução Kensho aborda um desafio crítico em serviços financeiros: tornar repositórios vastos de dados financeiros imediatamente acessíveis sem exigir linguagens de consulta complexas ou expertise técnica.

    Equipes de engenharia, produto e negócios economizam tempo e recursos significativos ao transformar o que antes exigia horas de extração de dados em consultas conversacionais que retornam informações precisas e confiáveis em segundos.

    Detalhes técnicos da implementação

    Fluxo de arquitetura

    Quando usando uma das integrações S&P, o tráfego flui do Quick Research através do Amazon API Gateway para um Balanceador de Carga de Aplicação AWS com os serviços MCP hospedados no Amazon Elastic Kubernetes Service (Amazon EKS). O servidor MCP utiliza dados hospedados no Amazon S3 e no Serviço de Banco de Dados Relacional AWS para PostgreSQL para dados estruturados, e no Amazon OpenSearch Service para armazenamento vetorial. Esta arquitetura oferece servidores MCP prontos para empresas com segurança em profundidade, dimensionamento automatizado e observabilidade abrangente.

    O MCP é um padrão aberto que suporta comunicação perfeita entre agentes de IA e fontes de dados externas, ferramentas e serviços. Opera em uma arquitetura cliente-servidor em que servidores MCP tratam chamadas de ferramentas — normalmente compostas por múltiplas chamadas de API — e expõem implementações de lógica de negócios como funções chamáveis. Isso permite que agentes de IA descubram capacidades dinamicamente, negociem recursos e compartilhem contexto de forma segura, atendendo a todos os requisitos críticos para aplicações de nível empresarial.

    Componentes principais da solução

    Pipeline automatizado de dados com Amazon Bedrock: No coração da solução está um pipeline de ingestão de dados de Geração Aumentada por Recuperação (RAG) usando o Amazon Bedrock. Este pipeline transforma dados brutos de mercado em Dados Prontos para IA. Documentos dos repositórios proprietários da S&P Global passam por pré-processamento, fragmentação e enriquecimento antes de serem convertidos em embeddings vetoriais usando o modelo Cohere Embed hospedado em Bedrock. O pipeline de ingestão executa em base agendada, atualizando o armazenamento vetorial OpenSearch a cada 30 minutos para acesso quase em tempo real aos dados de energia.

    Busca vetorial e semântica: O Amazon OpenSearch serve como banco de dados vetorial, armazenando embeddings gerados pelo Bedrock e habilitando capacidades de busca semântica nos dados de energia da S&P Global. O armazenamento vetorial OpenSearch é otimizado para operações vetoriais de alta dimensionalidade, suportando buscas de similaridade rápidas que potencializam a capacidade dos servidores MCP de recuperar informações contextualmente relevantes em resposta a consultas em linguagem natural.

    Resiliência e escala: A solução utiliza Amazon EKS para hospedar todas as soluções de servidor MCP com dois clusters de produção habilitando divisão de tráfego e capacidades de failover. Esta abordagem de cluster duplo oferece disponibilidade contínua mesmo durante falhas inesperadas. Tanto o Cluster Autoscaler quanto o Horizontal Pod Autoscaler habilitam dimensionamento dinâmico baseado em demanda. Os servidores MCP são construídos com o framework FastMCP, oferecendo endpoints HTTP de alto desempenho que em conformidade com a especificação de Transporte HTTP Fluxível exigida pelo protocolo MCP.

    Segurança em camadas: A segurança é integrada em cada camada da solução. O API Gateway serve como endpoint para acesso ao servidor MCP. O provedor de identidade empresarial da S&P Global é utilizado para autenticação OAuth. O API Gateway é ainda protegido com o Firewall de Aplicação Web AWS (WAF) com detecção avançada de ameaças. As funções e políticas do AWS IAM impõem princípios de privilégio mínimo, garantindo que cada componente tenha apenas as permissões que necessita. O AWS Secrets Manager armazena de forma segura credenciais para acessar recursos e serviços AWS. Os Grupos de Segurança AWS e as configurações de VPC oferecem isolamento de rede, enquanto TLS 1.2+ com o AWS Certificate Manager valida que todos os dados em trânsito permanecem criptografados. Essa segurança multicamada inclui controles de segurança em profundidade.

    Observabilidade: O Amazon CloudWatch oferece registro centralizado, coleta de métricas e monitoramento em tempo real de todo o pipeline, desde ingestão de dados até respostas de servidor MCP. O AWS CloudTrail captura logs de atividade de API detalhados e trilhas de auditoria, essenciais para conformidade em indústrias reguladas.

    Conclusão

    Juntos, esses servidores MCP construídos na AWS e integrados ao Amazon Quick Research demonstram a visão da S&P Global para o futuro de serviços financeiros e inteligência de energia: manter a confiança, precisão e profundidade que líderes de negócios exigem enquanto abraçam o potencial transformador da IA para tornar essa inteligência mais acessível, acionável e integrada em fluxos de trabalho modernos.

    Próximos passos

    Para mais detalhes sobre como começar, consulte a documentação de Dados de Terceiros do Quick Research.

    Fonte

    S&P Global Data integration expands Amazon Quick Research capabilities (https://aws.amazon.com/blogs/machine-learning/sp-global-data-integration-expands-amazon-quick-research-capabilities/)

  • AWS Transform for Mainframe agora suporta reimaginação de aplicações legadas

    Novas capacidades para modernização de mainframes

    A AWS anunciou expansão significativa do AWS Transform for Mainframe com funcionalidades dedicadas à reimaginação de aplicações. O serviço agora entrega recursos avançados de análise de dados e atividades, permitindo que as organizações extraiam insights abrangentes que conduzem à modernização de aplicações mainframe. Esses insights podem ser combinados com extração de lógica de negócio para orientar a decomposição de sistemas legados em domínios de negócio bem definidos.

    Fluxo completo de engenharia reversa

    O AWS Transform for Mainframe oferece um fluxo de trabalho abrangente que abrange análise automatizada de código e estruturas de dados, análise de atividades, geração de documentação técnica, extração de lógica de negócio e decomposição inteligente de código. Juntos, esses componentes formam a base de uma especificação técnica robusta que pode ser utilizada por agentes de código com inteligência artificial, como o Kiro, para reimaginar aplicações em arquiteturas nativas em nuvem.

    Análise profunda para decisões arquiteturais

    Através de análise detalhada de dados e atividades, o AWS Transform identifica componentes de aplicação com alta utilização ou valor de negócio. Essa capacidade permite que as equipes otimizem seus esforços de modernização e tomem decisões arquiteturais baseadas em dados concretos, em vez de suposições.

    Interface interativa com flexibilidade

    A plataforma oferece uma interface de chat alimentada por inteligência artificial onde os usuários podem personalizar sua abordagem de modernização. Através de planos de trabalho flexíveis, é possível escolher entre fluxos predefinidos—modernização completa, foco em análise ou foco em lógica de negócio—ou criar uma combinação customizada de capacidades alinhada aos objetivos específicos da organização.

    Disponibilidade em múltiplas regiões

    As capacidades de reimaginação no AWS Transform for Mainframe estão disponíveis em oito regiões da AWS: US East (N. Virginia), Ásia-Pacífico (Mumbai, Seul, Sydney e Tóquio), Canadá (Central) e Europa (Frankfurt e Londres).

    Saiba mais

    Para explorar em detalhes como reimaginar aplicações mainframe com o AWS Transform, consulte o artigo publicado no blog da AWS ou visite a página do produto AWS Transform.

    Fonte

    AWS Transform for mainframe now supports application reimagining (https://aws.amazon.com/about-aws/whats-new/2025/12/transform-mainframe-application-reimagining/)

  • SageMaker HyperPod: Treinamento sem Checkpoints Reduz Tempo de Recuperação de Falhas em IA

    Superando as Limitações do Treinamento com Checkpoints

    A AWS anunciou uma novidade significativa no SageMaker HyperPod: o suporte a treinamento sem checkpoints, uma capacidade fundamental para modelos de IA que elimina a necessidade de reinicializações baseadas em checkpoints para recuperação de falhas.

    Tradicionalmente, quando uma falha ocorre durante o treinamento de um modelo em larga escala, o processo segue um fluxo trabalhoso: é necessário pausar todo o cluster de treinamento, diagnosticar manualmente o problema, e restaurar a partir de checkpoints salvos anteriormente. Este procedimento deixa os aceleradores de IA (GPUs e TPUs) custosos ociosos por horas, gerando desperdício considerável de recursos computacionais e aumentando significativamente os custos operacionais.

    Como Funciona o Treinamento Checkpointless

    O treinamento sem checkpoints transforma este paradigma ao preservar automaticamente o estado do modelo de treinamento em todo o cluster distribuído. Quando uma falha é detectada, o sistema substitui os nós defeituosos sobre a marcha (on the fly) e utiliza transferência de estado ponto-a-ponto entre os aceleradores saudáveis para recuperação imediata.

    A implementação reduz drasticamente o tempo de recuperação: em vez de horas, o sistema retoma o treinamento em minutos. Ao eliminar as dependências de checkpoints durante a recuperação, as organizações economizam significativamente em custos de aceleradores ociosos e aceleram o ciclo geral de desenvolvimento.

    Escalabilidade e Performance em Larga Escala

    Um aspecto impressionante deste recurso é seu desempenho em ambientes de grande escala. Mesmo operando com clusters contendo milhares de aceleradores de IA, o treinamento checkpointless no SageMaker HyperPod mantém uma “goodput” (aproveitamento produtivo) superior a 95%.

    Disponibilidade e Integração

    O treinamento checkpointless está disponível em todas as regiões AWS onde o SageMaker HyperPod já opera. O recurso pode ser ativado sem necessidade de alterações de código, utilizando receitas de HyperPod para modelos populares de código aberto, como Llama e GPT.

    Para arquiteturas de modelo personalizadas, a integração de componentes checkpointless requer modificações mínimas em workflows baseados em PyTorch, tornando a capacidade acessível mesmo para equipes sem expertise profunda em treinamento distribuído.

    Próximos Passos

    Para começar, a AWS disponibiliza a página do produto SageMaker HyperPod e oferece um repositório GitHub com orientações de implementação para guiar equipes técnicas através da configuração e uso do recurso.

    Fonte

    Amazon SageMaker HyperPod now supports checkpointless training (https://aws.amazon.com/about-aws/whats-new/2025/12/amazon-sagemaker-hyperpod-checkpointless-training)

  • AWS Transform: novas capacidades de IA agêntica para migrações empresariais do VMware

    Automação inteligente em migrações do VMware

    A AWS expandiu as capacidades do AWS Transform com poderosos recursos de IA agêntica para automatizar migrações do VMware para a plataforma. O agente de migração funciona em colaboração com as equipes técnicas, compreendendo as prioridades empresariais e orquestrando de forma inteligente o planejamento e a migração de centenas de aplicações distribuídas em milhares de servidores. Essa abordagem reduz significativamente o esforço manual, o tempo total de projeto e a complexidade operacional.

    Descoberta e priorização intelligent

    O agente agora consegue descobrir automaticamente o ambiente on-premises e priorizar as aplicações para migração usando diversas fontes de dados. Ele integra informações do AWS Transform discovery tool, dados de inventário provenientes de ferramentas de descoberta de terceiros e informações não estruturadas, como documentos, anotações e regras de negócio.

    Uma vez coletados esses dados, o agente analisa os detalhes de infraestrutura, banco de dados e aplicações, mapeando dependências entre componentes. Com base nessa análise, gera planos de migração agrupados conforme prioridades empresariais e técnicas — considerando propriedade, departamento, função, subnet e sistemas operacionais.

    Geração de configurações de rede

    O agente é capaz de gerar configurações de rede em topologias hub-and-spoke ou isoladas, oferecendo opções flexíveis de gerenciamento de endereços IP. Além disso, suporta deployment em múltiplas contas da AWS e gera configurações de rede alinhadas com landing zones da empresa. O serviço migra também infraestrutura de rede de ambientes como NSX, Palo Alto, Fortigate e Cisco ACI.

    Migração segura e iterativa

    A migração dos servidores para a AWS ocorre de forma segura e iterativa, em ondas sucessivas, com atualizações claras de progresso durante todo o deployment. O agente suporta a migração de servidores x86 Windows e Linux, hipervisores como VMware, HyperV, Nutanix e KVM, além de ambientes bare-metal em múltiplas contas de destino.

    Interação e colaboração durante a migração

    Ao longo de toda a jornada de migração, as equipes podem fazer perguntas ao agente e orientar suas decisões — como repetir ou pular etapas ou ajustar planos conforme necessário. Para simplificar aprovações internas, o agente gera um relatório detalhado contendo o plano de migração e o mapeamento completo de redes, servidores e aplicações.

    Disponibilidade e escopo

    Essas novas capacidades estão disponíveis em todas as Regiões da AWS onde o AWS Transform é oferecido, com suporte para migração de servidores e redes para 16 Regiões da AWS. Para explorar a ferramenta, você pode acessar a página do produto e o guia do usuário, além de começar com o AWS Transform.

    Benefícios práticos

    Com o AWS Transform, as organizações conseguem acelerar o tempo para gerar valor, reduzir riscos e diminuir a complexidade operacional de migrações do VMware. A combinação de automação, inteligência artificial e colaboração interativa torna toda a operação mais previsível, rápida e menos propensa a erros.

    Fonte

    AWS Transform adds new agentic AI capabilities for enterprise VMware migrations (https://aws.amazon.com/about-aws/whats-new/2025/12/transform-vmware-agentic-ai-enterprise-migration/)

  • Treinamento Elástico no Amazon SageMaker HyperPod: Otimização de Recursos para Modelos Foundation

    Uma Abordagem Revolucionária para Treinamento de Modelos em Larga Escala

    A AWS anunciou uma novidade significativa para o Amazon SageMaker HyperPod: o suporte a treinamento elástico. Esta funcionalidade transforma a maneira como organizações realizam treinamento de modelos foundation, permitindo escalabilidade automática de cargas de trabalho com base na disponibilidade de recursos e nas prioridades das tarefas.

    O treinamento elástico representa uma mudança fundamental comparado ao modelo tradicional, onde os recursos eram alocados de forma fixa durante todo o ciclo de treinamento. Com essa nova abordagem, a AWS busca economizar horas de trabalho de engenharia que seriam gastas reonfigurando tarefas de treinamento de acordo com a disponibilidade de computação.

    O Problema que o Treinamento Elástico Resolve

    Anteriormente, qualquer alteração na disponibilidade de recursos exigia um processo manual e complexo: interromper o treinamento, reconfigurar os parâmetros, reiniciar as tarefas — tudo exigindo conhecimento especializado em treinamento distribuído. Enquanto essa reconfiguração ocorria, os aceleradores de IA de alto custo permaneciam ociosos, representando desperdício financeiro significativo.

    Como o Treinamento Elástico Funciona

    Escalabilidade Contínua Sem Interrupções

    O treinamento elástico opera de forma automática, expandindo tarefas de treinamento para absorver aceleradores de IA que estão ociosos. Quando cargas de trabalho de maior prioridade necessitam de recursos, o sistema contrai gracefully — tudo sem interromper completamente o treinamento em progresso. Esse mecanismo de contração dinâmica garante que os recursos sejam sempre utilizados de forma eficiente.

    Começo Ágil com Crescimento Oportunista

    As tarefas de treinamento podem iniciar imediatamente com recursos mínimos e crescer conforme a capacidade fica disponível. Essa flexibilidade permite que as organizações iniciem projetos sem aguardar a disponibilidade total de infraestrutura, acelerando o tempo até o mercado.

    Benefícios para Organizações

    Ao eliminar overhead de reconfiguração manual e garantir utilização contínua dos recursos disponíveis, o treinamento elástico oferece três vantagens principais:

    • Economia de tempo: redução significativa no tempo gasto em gerenciamento de infraestrutura;
    • Redução de custos: maximização da utilização do cluster reduz gastos com recursos subutilizados;
    • Aceleração do time-to-market: os modelos chegam ao mercado mais rapidamente.

    Implementação Acessível e Flexível

    O treinamento elástico está disponível em todas as regiões onde o Amazon SageMaker HyperPod funciona atualmente. A implementação foi projetada para ser acessível mesmo sem expertise profunda em sistemas distribuídos.

    Para Modelos Públicos

    Organizações podem habilitar treinamento elástico sem nenhuma alteração de código usando HyperPod recipes para modelos amplamente disponíveis, como Llama e GPT OSS — frameworks de código aberto conhecidos e consolidados no mercado.

    Para Arquiteturas Personalizadas

    Quando se trabalha com arquiteturas de modelo customizadas, é possível integrar capacidades de treinamento elástico através de atualizações leves de configuração e modificações mínimas de código. Essa abordagem deixa a funcionalidade acessível para equipes sem exigir especialização em sistemas distribuídos.

    Próximos Passos

    Para começar, equipes podem acessar a página do produto Amazon SageMaker HyperPod e consultar a documentação de treinamento elástico para orientações de implementação específicas.

    Fonte

    Introducing elastic training on Amazon SageMaker HyperPod (https://aws.amazon.com/about-aws/whats-new/2025/12/elastic-training-amazon-sagemaker-hyperpod/)

  • Agente de Upgrade do Apache Spark para Amazon EMR: Transformando Processos de Migração

    Novo Agente Acelera Upgrading de Spark para Amazon EMR

    A AWS anunciou o lançamento de um agente de upgrade para Apache Spark, um novo recurso que promete transformar um dos desafios mais complexos da engenharia de dados em nuvem. O agente foi desenvolvido para funcionar tanto em Amazon EMR no EC2 quanto em EMR Serverless, oferecendo automação inteligente em processos que tradicionalmente demandavam investimentos substanciais de tempo e recursos.

    O Desafio dos Upgrades de Spark

    Historicamente, atualizar versões do Apache Spark em ambientes corporativos é um processo moroso e exaustivo. As organizações precisam investir recursos significativos de engenharia para:

    • Analisar mudanças nas APIs (Interfaces de Programação de Aplicações) entre versões
    • Resolver conflitos entre código legado e novas funcionalidades
    • Validar aplicações inteiras para garantir que funcionem corretamente com a nova versão

    Esses processos, que tradicionalmente consumiam meses de trabalho, agora podem ser reduzidos para semanas com a ajuda do novo agente.

    Como o Agente Funciona

    Interface Conversacional Intuitiva

    O diferencial do agente está em sua abordagem conversacional. Em vez de depender de scripts complexos ou análises manuais, os engenheiros podem expressar seus requisitos de upgrade em linguagem natural. O agente compreende essas instruções e mantém os desenvolvedores em controle total sobre as modificações de código.

    Análise Automática de Mudanças

    O agente identifica automaticamente:

    • Mudanças nas APIs entre versões do Spark
    • Modificações de comportamento em aplicações PySpark e Scala
    • Possíveis conflitos e incompatibilidades

    Fluxo de Trabalho Controlado

    Durante o processo, o agente:

    • Analisa o código existente da aplicação
    • Sugere mudanças específicas e necessárias
    • Permite que os engenheiros revisem e aprovem cada alteração antes da implementação
    • Valida a correção funcional através de validações de qualidade de dados

    Integração com Ferramentas Existentes

    Os engenheiros podem iniciar upgrades diretamente de suas ferramentas preferidas graças ao suporte ao MCP (Model Context Protocol):

    • SageMaker Unified Studio
    • Kiro CLI
    • IDEs de desenvolvimento da escolha do usuário

    Compatibilidade e Disponibilidade

    O agente suporta atualmente upgrades da versão 2.4 para 3.5 do Spark, mantendo a precisão do processamento de dados ao longo de todo o processo. O recurso está disponível em todas as regiões da AWS onde o SageMaker Unified Studio está disponível.

    Como Começar

    Para começar a usar o agente de upgrade do Apache Spark:

    • Acesse o SageMaker Unified Studio e selecione IDE Spaces
    • Ou instale a Kiro CLI em seu ambiente
    • Consulte a documentação de upgrade do Spark para orientações detalhadas de implementação, exemplos de migração e referências técnicas

    Impacto para Organizações

    Este agente representa um avanço significativo para equipes que lidam com ecossistemas de dados complexos. Ao reduzir o tempo e os recursos necessários para upgrades, as organizações podem:

    • Accelerar a modernização de suas plataformas de dados
    • Liberar engenheiros para trabalhos de maior valor estratégico
    • Reduzir riscos associados a migrações manuais
    • Manter-se atualizado com as últimas versões do Spark de forma mais eficiente

    Fonte

    Announcing the Apache Spark upgrade agent for Amazon EMR (https://aws.amazon.com/about-aws/whats-new/2025/12/apache-spark-upgrade-agent-amazon-emr)

  • Amazon Connect agora oferece recursos nativos de teste e simulação

    Novos recursos de teste e simulação no Amazon Connect

    A AWS anunciou a disponibilidade de recursos nativos de teste e simulação para o Amazon Connect, seu serviço de plataforma de contact center baseado em IA. Com essa novidade (disponível em fase de prévia), fica significativamente mais simples validar fluxos de trabalho, interações de voz de autoatendimento e os resultados dessas operações, tudo isso com apenas alguns cliques.

    Como funciona a validação de cenários

    Para cada teste executado, é possível configurar diversos parâmetros que definem o comportamento simulado. Entre esses parâmetros estão:

    • O número de telefone do chamador ou perfil do cliente
    • O motivo da chamada (exemplo: “preciso verificar o status do meu pedido”)
    • As respostas esperadas (exemplo: “sua solicitação foi processada”)
    • Condições de negócio, como cenários fora do horário comercial ou filas de chamadas cheias

    Após executar os testes, os resultados mostram claramente se tiveram sucesso ou falharam, baseando-se nos critérios que você definiu. Além disso, o sistema registra o caminho exato percorrido pela interação simulada e fornece logs detalhados para diagnosticar rapidamente possíveis problemas.

    Benefícios para validação em escala

    Um diferencial importante é a possibilidade de executar múltiplos testes simultaneamente, o que permite validar diversos cenários e fluxos de trabalho em larga escala. Essa capacidade reduz significativamente o tempo necessário para testar as suas implementações.

    As empresas podem visualizar os resultados dos testes e identificar padrões comuns de falha em todos os testes através dos painéis de análise do Connect. Dessa forma, fica muito mais fácil detectar problemas recorrentes e priorizá-los para correção.

    Impacto na implementação de mudanças

    Com esses novos recursos, validar alterações nos fluxos de trabalho se torna um processo rápido e confiável. As organizações conseguem fazer deploy de novas experiências de contact center com segurança, sabendo que seus workflows foram testados adequadamente. Isso permite que as empresas se adaptem rapidamente às mudanças nas necessidades do negócio.

    Disponibilidade e próximos passos

    Os recursos de teste e simulação nativa estão disponíveis em todas as regiões AWS onde Amazon Connect está disponível. Para mais detalhes sobre essas funcionalidades, você pode consultar a documentação do Amazon Connect. Saiba mais sobre o Amazon Connect, a solução de experiência do cliente nativa de IA da AWS, visitando o website do Amazon Connect.

    Fonte

    Amazon Connect now provides native testing and simulation capabilities (Preview) (https://aws.amazon.com/about-aws/whats-new/2025/11/amazon-connect-native-testing-simulation-capabilities-preview)

  • Amazon Quick Suite agora integra pesquisa rápida com fluxos automatizados para relatórios

    A Integração Chegou: Quick Research Dentro do Quick Flows

    A AWS expandiu as capacidades do Amazon Quick Suite, seu espaço de trabalho inteligente alimentado por IA para análise de dados empresariais. A novidade principal é a integração do Quick Research diretamente dentro do Quick Flows, o que transforma como as equipes conduzem pesquisa e análise em suas organizações.

    Até agora, análise de pesquisa e automação de fluxos funcionavam como ferramentas separadas. Com essa integração, é possível incorporar etapas de pesquisa em fluxos de trabalho automatizados e multi-etapas, transformando projetos de pesquisa em workflows reutilizáveis que podem ser compartilhados por toda a organização.

    Automatização de Pesquisa em Escala

    Um dos principais desafios das equipes é capturar e padronizar métodos de pesquisa comprovados, replicando-os em centenas de casos de uso diferentes. A integração resolve essa dificuldade ao permitir que pesquisas sejam disparadas automaticamente dentro dos fluxos, eliminando a necessidade de análise manual em cada situação.

    Além disso, usuários podem configurar acionadores agendados, permitindo que fluxos gerem pesquisas automaticamente em momentos específicos. Isso significa que relatórios podem ser programados para rodar sem intervenção humana, em intervalos regulares ou sob demanda.

    Casos de Uso Práticos

    A AWS destacou alguns cenários onde essa integração oferece valor imediato:

    • Criação automatizada de planos de conta;
    • Padronização de análise de conformidade de produtos;
    • Geração agendada de relatórios de indústria.

    Do Relatório para a Ação

    O que torna essa integração particularmente poderosa é a capacidade de encadear ações após a geração do relatório. Os fluxos vêm pré-configurados com instruções do criador do fluxo e podem aceitar entradas adicionais do usuário conforme necessário.

    Os relatórios gerados podem disparar automaticamente ações subsequentes, como:

    • Atualizar uma oportunidade no Salesforce para que equipes de conta façam acompanhamento;
    • Postar em um ticket Jira para que equipes de conformidade façam revisão;
    • Criar uma tarefa no Asana para que um especialista legal aprove a análise.

    Esse modelo de “configurar e esquecer” permite que análises consistentes sejam entregues sem esforço manual pesado, criando o que a AWS chama de workflows automáticos verdadeiramente autônomos.

    Mantendo a Qualidade da Análise

    O Quick Research mantém seus pontos fortes mesmo operando dentro desses fluxos automatizados: agilidade na análise de dados empresariais diversos, mantendo insights verificados com rastreamento de fonte. Para usuários já familiarizados com o Quick Flows, essa integração oferece acesso a análises mais abrangentes e profundas.

    Disponibilidade Regional

    A integração de Quick Research com Flows está disponível nas seguintes regiões da AWS: Leste dos EUA (N. Virgínia), Oeste dos EUA (Oregon), Ásia Pacífico (Sydney) e Europa (Irlanda).

    Para explorar como automatizar suas necessidades de pesquisa, consulte a documentação do Amazon Quick Suite.

    Fonte

    Amazon Quick Suite integrates Quick Research with Quick Flows for report automation (https://aws.amazon.com/about-aws/whats-new/2025/12/amazon-quick-suite-research-flows-report-automation)