A Amazon Web Services (AWS) expandiu sua certificação GSMA Scheme de Acreditação de Segurança para Gerenciamento de Assinaturas (SAS-SM) para quatro novas regiões globais. Simultaneamente, duas regiões que já possuíam essa certificação passaram pelo processo de renovação.
As quatro regiões que receberam a certificação GSMA SAS-SM pela primeira vez são: US West (Oregon), Europe (Frankfurt), Asia Pacific (Tokyo) e Asia Pacific (Singapore). Além disso, a AWS renovou as certificações das regiões US East (Ohio) e Europe (Paris). Todas essas certificações têm escopo em Operações e Gerenciamento de Data Center (DCOM) e foram validadas por auditores independentes selecionados pela GSM Association (GSMA), com validade até outubro de 2026.
O Significado da Certificação SAS-SM para o Mercado
Rastreabilidade e Conformidade
A certificação GSMA SAS-SM representa um marco importante na conformidade de segurança para provedores de nuvem. O escopo DCOM (Operações e Gerenciamento de Data Center) garante que os ambientes foram avaliados segundo critérios rigorosos de segurança estabelecidos globalmente. O certificado de conformidade, que comprova que a AWS atende aos padrões GSMA, está disponível nos sites tanto da GSMA quanto da AWS.
Herança de Controles para ISVs
Desde que o US East (Ohio) obteve a certificação GSMA em setembro de 2021 e o Europe (Paris) em outubro de 2021, diversos fornecedores independentes de software (ISVs) têm se beneficiado da herança dos controles de conformidade SAS-SM DCOM da AWS. Isso permite que essas empresas construam serviços de gerenciamento de assinaturas ou eSIM (módulo de identidade de assinante incorporado) compatíveis com GSMA.
Para líderes de mercado consolidados, essa abordagem reduz a dívida técnica enquanto mantém a escalabilidade e o desempenho esperados pelos clientes. Para startups que inovam com soluções de eSIM, a oportunidade é ainda mais valiosa: podem acelerar seu tempo de entrada no mercado em vários meses em comparação com modelos de implantação locais.
A Revolução do eSIM no Mercado de Telecomunicações
Evolução Tecnológica
Até 2023, a transição de módulos de identidade de assinante físicos (SIMs) para eSIMs (módulos incorporados) era impulsionada principalmente por fabricantes de automóveis, wearables conectados à rede celular e dispositivos complementares como tablets. No entanto, o cenário está mudando rapidamente.
A GSMA promove as especificações SGP.31 e SGP.32, que padronizam protocolos e garantem compatibilidade e experiência de usuário consistente em todos os dispositivos eSIM. Com essas especificações, o escopo de aplicação do eSIM agora abrange smartphones, Internet das Coisas (IoT), casas inteligentes, IoT industrial e muito mais.
Demanda por Plataformas em Nuvem
Conforme mais fabricantes de dispositivos lançam modelos exclusivamente com eSIM, os clientes da AWS demandam soluções robustas e centradas em nuvem para gerenciamento de eSIM. Atualmente, mais de 400 operadoras de telecomunicações em todo o mundo oferecem suporte a serviços de eSIM para seus assinantes.
Hospedar plataformas de eSIM na nuvem permite que essas operadoras se integrem de forma eficiente com seus novos sistemas de suporte operacional (OSS) e sistemas de suporte comercial (BSS) baseados em nuvem. Essa integração é fundamental para modelos de operação modernos.
Cobertura Global e Resiliência
A expansão da AWS para certificar quatro novas regiões GSMA em novembro de 2025 demonstra seu compromisso contínuo com as expectativas elevadas estabelecidas para provedores de serviços em nuvem. Essa expansão também estende significativamente a cobertura global de infraestrutura certificada GSMA.
Com duas regiões certificadas GSMA em cada uma das três áreas geográficas principais — Estados Unidos, União Europeia e Ásia — os clientes podem agora construir soluções de eSIM com redundância geográfica. Essa abordagem melhora tanto a recuperação de desastres quanto a postura geral de resiliência dos sistemas.
A AWS mantém um canal aberto com sua comunidade de clientes e parceiros. Dúvidas técnicas ou feedback sobre conformidade GSMA podem ser direcionadas à equipe de conformidade por meio da página de contato.
A inteligência artificial agentica tornou-se fundamental para implantar aplicações de IA prontas para produção. Contudo, desenvolvedores enfrentam dificuldades significativas ao configurar manualmente a infraestrutura de agentes em múltiplos ambientes.
Aqui entra um conceito crítico: Infraestrutura como Código (IaC). Essa abordagem proporciona infraestrutura consistente, segura e escalável — exatamente o que sistemas de IA autônomos necessitam. A IaC minimiza erros de configuração manual através da automação de gerenciamento de recursos e templates declarativos, reduzindo o tempo de deployment de horas para minutos. Ao mesmo tempo, garante consistência de infraestrutura entre ambientes, prevenindo comportamentos impredizíveis dos agentes.
Adicionalmente, a IaC oferece controle de versão e capacidades de rollback para recuperação rápida de problemas — essencial para manter a disponibilidade de sistemas agenticos. Ela também viabiliza escalonamento automatizado e otimização de recursos através de templates parametrizados que se adaptam desde deployments leves em desenvolvimento até configurações de produção robustas.
Suporte Expandido para Infraestrutura como Código
Para aplicações agenticas que operam com intervenção humana mínima, a confiabilidade da IaC, validação automatizada de padrões de segurança e integração perfeita em workflows DevOps são essenciais para operações autônomas robustas.
Com essa visão, o Amazon Bedrock AgentCore passou a ser suportado por diversos frameworks de IaC, incluindo AWS Cloud Development Kit (AWS CDK), Terraform e AWS CloudFormation Templates. Essa integração leva o poder da IaC diretamente ao AgentCore, permitindo que desenvolvedores provisionar, configurar e gerenciar infraestrutura de agentes de IA de forma declarativa e reproduzível.
Caso de Uso Prático: Planejador de Atividades Baseado em Clima
O exemplo apresentado demonstra um planejador de atividades em tempo real que processa dados meteorológicos para fornecer recomendações personalizadas de atividades baseadas na localização do usuário e condições climáticas.
Componentes da Aplicação
A arquitetura integra múltiplos componentes especializados:
Coleta de dados meteorológicos em tempo real — A aplicação recupera condições climáticas atuais de fontes meteorológicas autorizadas, como weather.gov, capturando dados essenciais: leituras de temperatura, previsões de probabilidade de precipitação, medições de velocidade do vento e outras condições atmosféricas relevantes que influenciam a adequação de atividades ao ar livre.
Motor de análise meteorológica — O sistema processa dados brutos através de lógica customizada para avaliar a adequação de um dia para atividades ao ar livre baseado em múltiplos fatores:
Pontuação de conforto de temperatura — Atividades recebem pontuações reduzidas quando temperaturas caem abaixo de 50°F
Avaliação de risco de precipitação — Probabilidades de chuva acima de 30% disparam ajustes nas recomendações
Avaliação do impacto de condições de vento — Velocidades de vento acima de 15 mph afetam pontuações gerais de conforto e segurança
Sistema de recomendação personalizada — A aplicação processa resultados da análise meteorológica juntamente com preferências do usuário e consciência de localização para gerar sugestões de atividades adaptadas.
Implementação com AgentCore
A solução aproveita componentes especializados do AgentCore:
AgentCore Browser — Para navegação automatizada de dados meteorológicos de fontes como weather.gov
AgentCore Code Interpreter — Para executar código Python que processa dados meteorológicos, realiza cálculos e implementa algoritmos de pontuação
AgentCore Runtime — Para hospedar um agente que orquestra o fluxo da aplicação, gerencia pipelines de processamento de dados e coordena componentes
AgentCore Memory — Para armazenar preferências do usuário como memória de longo prazo
Deployment com CloudFormation
O processo de deployment segue uma sequência clara e estruturada:
Faça download do template do CloudFormation — Obtenha o arquivo End-to-End-Weather-Agent.yaml do repositório e salve localmente
Acesse o CloudFormation — Abra o serviço a partir do console AWS
Crie uma nova stack — Selecione “Criar stack” com recursos novos (padrão)
Escolha a fonte do template — Faça upload do arquivo que você baixou
Defina parâmetros — Insira o nome da stack e ajuste parâmetros conforme necessário
Revise e confirme — Analise a configuração e confirme as capacidades de IAM
Monitore o deployment — Acompanhe o progresso através da aba de eventos
Observabilidade e Monitoramento
O AgentCore Observability oferece vantagens significativas para confiabilidade operacional. Fornece qualidade e confiança através de visualizações detalhadas de workflows e monitoramento de desempenho em tempo real.
A integração com Amazon CloudWatch em dashboards powered oferece aceleração no time-to-market, reduzindo integração manual de dados de múltiplas fontes e permitindo ações corretivas baseadas em insights acionáveis.
O serviço oferece rastreabilidade fim-a-fim entre frameworks e modelos de fundação (FMs), capturando métricas críticas como uso de tokens e padrões de seleção de ferramentas. Suporta instrumentação automática para agentes hospedados em AgentCore Runtime e monitoramento configurável para agentes deployados em outros serviços.
Essa abordagem abrangente de observabilidade ajuda organizações a alcançar ciclos de desenvolvimento mais rápidos, comportamento de agentes mais confiável e visibilidade operacional aprimorada ao construir agentes de IA confiáveis em escala.
Adaptação para Seus Casos de Uso
O template do CloudFormation para o planejador de atividades meteorológicas foi projetado com componentes modulares que se adaptam facilmente a diversos contextos. Exemplos de customização incluem:
AgentCore Browser — Customizar para coletar informações de diferentes aplicações web, como websites financeiros para orientação de investimentos, feeds de mídia social para monitoramento de sentimento ou sites de e-commerce para rastreamento de preços
AgentCore Code Interpreter — Modificar algoritmos para processar lógica de negócio específica, como modelagem preditiva para previsão de vendas, avaliação de risco para seguros ou controle de qualidade para manufatura
AgentCore Memory — Ajustar para armazenar preferências do usuário ou contexto de negócio relevante, como perfis de cliente, níveis de inventário ou requisitos de projeto
Strands Agents — Reconfigurar tarefas para orquestrar workflows específicos do seu domínio, como otimização de cadeia de suprimentos, automação de atendimento ao cliente ou monitoramento de conformidade
Melhores Práticas para Deployments
Para implementações robustas e mantíveis, recomenda-se:
Arquitetura de componentes modulares — Estruture templates do CloudFormation com seções separadas para cada serviço AWS, facilitando manutenção e reutilização.
Design de template parametrizado — Utilize parâmetros do CloudFormation para elementos configuráveis, permitindo reutilização de templates entre ambientes. Isso facilita associar o mesmo container base com múltiplos deployments de agentes, apontar para diferentes configurações de build ou parametrizar o modelo de linguagem que alimenta seus agentes.
Monitoramento e observabilidade abrangentes — Ative logging do CloudWatch, métricas customizadas, rastreamento distribuído do AWS X-Ray e alertas entre componentes.
Controle de versão e integração CI/CD — Mantenha templates no GitHub com validação automatizada, testes abrangentes e AWS CloudFormation StackSets para deployments consistentes entre regiões. Consulte melhores práticas de CloudFormation para um conjunto mais completo de recomendações.
Limpeza de Recursos
Para evitar incurrir em cobranças futuras, delete os recursos utilizados nesta solução:
No console do Amazon S3, delete manualmente o conteúdo dentro do bucket criado para o deployment do template e então delete o bucket
No console do CloudFormation, escolha Stacks na navegação, selecione a stack principal e escolha Delete
Conclusão
A integração do Amazon Bedrock AgentCore com frameworks de Infraestrutura como Código representa um avanço significativo na simplificação do deployment de sistemas de IA autônomos. Os templates pré-configurados viabilizam deployment rápido de poderosos sistemas agenticos sem a complexidade de configuração manual de componentes.
Essa abordagem automatizada economiza tempo e facilita deployments consistentes e reproduzíveis, permitindo que organizações foquem em construir workflows de IA agentica que impulsionem crescimento de negócio.
Para explorar mais exemplos de Infraestrutura como Código, repositórios de amostra estão disponíveis para Terraform, CloudFormation e CDK.
A AWS expandiu a disponibilidade do Amazon Neptune Analytics para sete novas regiões geográficas. O serviço agora está acessível em US West (N. California), Asia Pacific (Seoul), Asia Pacific (Osaka), Asia Pacific (Hong Kong), Europe (Stockholm), Europe (Paris) e South America (São Paulo). Essa expansão permite que desenvolvedores e empresas em diferentes continentes criem e gerenciem gráficos do Neptune Analytics, executando análises avançadas de dados conectados com menor latência.
O que é Amazon Neptune
O Amazon Neptune é um banco de dados de grafos serverless projetado para trabalhar com dados conectados. Seu propósito principal é melhorar a precisão de aplicações de inteligência artificial, simultaneamente reduzindo a complexidade operacional e os custos associados à gestão de infraestrutura. O serviço escala automaticamente as cargas de trabalho de grafos, eliminando a necessidade de gerenciar capacidade de forma manual.
Benefícios para aplicações de IA
Ao modelar dados em formato de grafo, o Neptune captura contexto que melhora significativamente a precisão e a explicabilidade de aplicações de IA generativa. A AWS oferece integração completa com GraphRAG (Graph Retrieval-Augmented Generation) totalmente gerenciado através do Amazon Bedrock Knowledge Bases. O serviço também se integra com o Strands AI Agents SDK e com ferramentas populares de memória para agentes autônomos.
Capacidades analíticas
Uma das características mais destacadas do Neptune é sua capacidade de analisar dezenas de bilhões de relacionamentos em dados estruturados e não estruturados em questão de segundos. Essa velocidade de processamento permite extrair insights estratégicos rapidamente, algo essencial para organizações que precisam tomar decisões baseadas em dados complexos e altamente conectados.
A AWS posiciona o Neptune como o único banco de dados e mecanismo de análise que oferece o poder de dados conectados com as capacidades empresariais e o valor agregado dos serviços AWS.
A AWS anunciou o lançamento de 13 novas regras gerenciadas para o serviço AWS Config, ampliando as capacidades de conformidade e governança para ambientes em nuvem. Essas regras cobrem diferentes cenários de uso, desde validação de segurança até verificações operacionais e de durabilidade dos recursos.
Com essa expansão, os usuários agora conseguem pesquisar, descobrir, ativar e gerenciar essas novas regras diretamente pela interface do AWS Config. O grande diferencial é a possibilidade de implantar esses controles em toda a conta ou até mesmo em múltiplas contas da organização, facilitando a governança centralizada.
Principais capacidades das novas regras
Validação de conformidade em diferentes serviços
As 13 novas regras permitem avaliar a postura de segurança em diversos recursos AWS. Alguns exemplos incluem validações em Amazon Cognito User Pools, Amazon EBS Snapshots, AWS CloudFormation Stacks e outros serviços críticos da plataforma.
Cada regra foi desenhada para verificar configurações específicas que impactam a segurança, a disponibilidade e a conformidade regulatória dos ambientes.
Governança com Conformance Packs
Uma vantagem importante é a possibilidade de usar Conformance Packs — agrupamentos de regras que podem ser implantados em conta única ou em múltiplas contas da organização. Isso simplifica significativamente a governança multi-conta, permitindo padronização de políticas em toda a estrutura organizacional.
Lista de regras lançadas
As 13 novas regras gerenciadas disponibilizadas são:
Extensões de navegador personalizadas no AgentCore Browser
A AWS expandiu as capacidades do Amazon Bedrock AgentCore Browser com suporte a extensões personalizadas do Chrome. Este novo recurso permite que desenvolvedores corporativos, engenheiros de automação e organizações de diversos setores implementem funcionalidades especializadas de navegador em um ambiente seguro, indo além do que a automação padrão consegue fazer isoladamente.
Como funciona o novo recurso
O suporte a extensões personalizadas se baseia nos recursos já existentes de navegador seguro do AgentCore. O fluxo é direto: os usuários fazem upload de extensões compatíveis com Chrome para o Amazon S3 e o sistema as instala automaticamente durante as sessões do navegador. Essa abordagem garante que as extensões funcionem de forma integrada dentro do ambiente controlado do AgentCore Browser, sem comprometer a segurança.
Casos de uso práticos
O novo recurso abre possibilidades significativas para automação empresarial. Destacam-se:
Fluxos de autenticação customizados: Implementação de processos de autenticação específicos que exigem lógica não padrão
Testes automatizados avançados: Execução de cenários de teste que requerem funcionalidades além da automação de navegador convencional
Otimização de navegação: Melhorias em performance e experiência, como bloqueio de anúncios e outras otimizações
Integração de ferramentas de terceiros: Possibilidade de conectar ferramentas externas que funcionam como extensões de navegador, eliminando processos manuais
Disponibilidade geográfica
O suporte a extensões personalizadas está disponível em todos os nove Regiões da AWS onde o Amazon Bedrock AgentCore Browser já opera: US East (N. Virginia), US East (Ohio), US West (Oregon), Ásia Pacífico (Mumbai), Ásia Pacífico (Singapura), Ásia Pacífico (Sydney), Ásia Pacífico (Tóquio), Europa (Frankfurt) e Europa (Irlanda).
Próximos passos
Organizações interessadas em implementar extensões de navegador personalizadas no Amazon Bedrock AgentCore devem consultar a documentação do navegador para orientações técnicas detalhadas e práticas recomendadas.
A AWS anunciou melhorias significativas nas capacidades de resolução de problemas do Amazon SageMaker HyperPod, focando especificamente no debug de scripts de ciclo de vida. Essas atualizações tornam muito mais fácil identificar e corrigir problemas que ocorrem durante o provisionamento de nós de cluster.
O Amazon SageMaker HyperPod é um serviço projetado para provisionamento de clusters resilientes destinados à execução de cargas de trabalho de IA e aprendizado de máquina, além do desenvolvimento de modelos de última geração — como modelos de linguagem grande (LLMs), modelos de difusão e modelos de fundação (FMs).
Mensagens de Erro Mais Informativas
Quando scripts de ciclo de vida encontram problemas durante a criação de cluster ou operações de nó, a AWS agora oferece mensagens de erro detalhadas que incluem os nomes específicos do grupo de logs e stream de logs do CloudWatch (serviço de registro e monitoramento) onde os logs de execução dos scripts podem ser encontrados.
Usuários podem visualizar essas mensagens de erro através da execução da API DescribeCluster ou pela página de detalhes do cluster no console do SageMaker. O console também disponibiliza um botão “Visualizar logs de scripts de ciclo de vida” que navega diretamente para o stream de logs relevante no CloudWatch, eliminando a necessidade de busca manual.
Rastreamento Aprimorado de Execução
Além das mensagens de erro, o CloudWatch agora inclui marcadores específicos nos logs de scripts de ciclo de vida para ajudar a acompanhar o progresso da execução. Esses marcadores indicam pontos críticos do processo:
Quando o log do script de ciclo de vida inicia
Quando os scripts estão sendo baixados
Quando os downloads são concluídos
Quando os scripts são bem-sucedidos ou falham
Graças a esses indicadores, identificar exatamente onde ocorreram problemas durante o provisionamento se tornou muito mais ágil, reduzindo significativamente o tempo necessário para diagnóstico e correção de falhas em scripts de ciclo de vida.
Benefícios Práticos
Essas melhorias contribuem para acelerar o processo de colocação de clusters HyperPod em operação. Os engenheiros e cientistas de dados podem agora gastar menos tempo depurando problemas de provisionamento e mais tempo desenvolvendo e treinando seus modelos de IA e aprendizado de máquina.
O recurso está disponível em todas as regiões AWS onde o Amazon SageMaker HyperPod é suportado. Para mais informações e detalhes técnicos sobre gerenciamento de clusters, consulte a documentação de gerenciamento de cluster do SageMaker HyperPod no Guia do Desenvolvedor do Amazon SageMaker.
A AWS anunciou a expansão do tier de capacidade reservada do Amazon Bedrock, uma solução desenvolvida para aplicações que precisam de desempenho previsível e garantia de throughput de tokens por minuto. Este novo tier permite que os clientes reservem capacidade computacional prioritária, mantendo níveis de serviço estáveis para suas aplicações críticas.
Flexibilidade Assimétrica de Tokens
Um dos principais diferenciais desta solução está na capacidade de alocar diferentes volumes de tokens por minuto para entrada e saída, permitindo que cada workload seja ajustado com precisão de acordo com suas necessidades específicas. Essa flexibilidade é particularmente valiosa porque muitas aplicações apresentam padrões assimétricos de consumo de tokens.
Por exemplo, tarefas de sumarização consomem muitos tokens de entrada, mas geram poucos tokens de saída. Em contraste, aplicações de geração de conteúdo requerem menos capacidade de entrada e mais de saída. Com o tier reservado, é possível dimensionar essas capacidades independentemente, otimizando custos sem comprometer performance.
Operação Contínua com Overflow Automático
Quando uma aplicação necessita de mais throughput de tokens por minuto do que aquilo que foi reservado, o serviço automaticamente transfere o excesso para o tier padrão sob demanda (Standard), garantindo que as operações continuem sem interrupção. Esse mecanismo de overflow oferece segurança operacional sem a necessidade de pré-provisionar capacidade excessiva.
Detalhes de Disponibilidade e Preços
O tier reservado está disponível hoje para o modelo Anthropic Claude Sonnet 4.5 no AWS GovCloud (US-West). Os clientes podem reservar capacidade por 1 mês ou 3 meses, pagando um preço fixo por 1.000 tokens por minuto, com cobrança mensal. O acesso está disponível através do perfil GOV-CRIS entre regiões (GOV-CRIS cross-region profile).
Continuidade de Escolha e Otimização de Custos
Com a expansão do tier de capacidade reservada, a AWS reforça seu compromisso em oferecer mais opções aos clientes, ajudando-os a desenvolver, dimensionar e implantar aplicações e agentes que melhoram produtividade e experiência dos usuários, equilibrando requisitos de performance e custos.
Para obter mais informações sobre as regiões AWS onde o tier reservado do Amazon Bedrock está disponível, consulte a documentação oficial. Para acessar o tier reservado, é necessário entrar em contato com o time de contas da AWS.
Maior controle sobre criptografia em ambientes de análise de dados
A Amazon EMR Serverless recebeu uma atualização importante em suas capacidades de segurança. O serviço agora oferece suporte a chaves gerenciadas pelo cliente do Serviço de Gerenciamento de Chaves da AWS (AWS KMS – Key Management Service) para criptografar discos locais. Essa mudança é particularmente significativa para organizações que enfrentam requisitos regulatórios e de conformidade rigorosos, pois amplia as opções de encriptação além das chaves padrão pertencentes à AWS.
O que é o EMR Serverless
O Amazon EMR Serverless é uma modalidade de implantação dentro do Amazon EMR que simplifica o trabalho de engenheiros de dados e cientistas de dados. Com essa abordagem, é possível executar frameworks de análise de dados de código aberto sem precisar configurar, gerenciar ou dimensionar clusters e servidores manualmente. A solução abstrai grande parte da complexidade operacional, permitindo que os profissionais concentrem-se na análise em si.
Criptografia padrão e novas possibilidades
Anteriormente, os discos locais nos workers do EMR Serverless eram criptografados por padrão utilizando chaves de propriedade da AWS. Com esse novo recurso, clientes com necessidades estritas de regulamentação e conformidade podem agora criptografar discos locais com suas próprias chaves gerenciadas pelo KMS. Essas chaves podem residir na mesma conta ou em conta diferente da organização.
Flexibilidade na aplicação das chaves
A integração oferece dois níveis de granularidade para especificação da chave KMS gerenciada pelo cliente:
Nível de aplicação: você pode definir a chave no nível da aplicação EMR Serverless, onde ela se aplica a todas as cargas de trabalho submetidas naquela aplicação
Nível de execução: alternativamente, é possível especificar a chave para uma execução de job específica ou sessão interativa individual
Esse design flexível permite que organizações adaptem sua estratégia de criptografia conforme necessário, equilibrando centralização e controle granular.
Disponibilidade e compatibilidade
O novo recurso está disponível em todas as versões de EMR suportadas e em todas as regiões da AWS onde o Amazon EMR Serverless opera, incluindo AWS GovCloud (US) e regiões da China. Funciona tanto em aplicações EMR Serverless novas quanto em aplicações existentes, oferecendo compatibilidade retroativa.
Próximos passos
Para quem deseja implementar esse recurso, a AWS disponibiliza documentação específica sobre Criptografia de Discos Locais com Chaves KMS do Cliente no Guia do Usuário do Amazon EMR Serverless. A documentação contém detalhes técnicos, exemplos de configuração e orientações para diferentes cenários de uso.
Por que arquiteturas multi-agente estão transformando a inteligência artificial
Soluções que envolvem redes de agentes colaborando, coordenando e raciocinando juntos estão mudando a forma como organizações enfrentam desafios reais. Em ambientes corporativos complexos, gerenciar múltiplas fontes de dados, objetivos em constante mudança e diversas restrições operacionais é uma realidade. É justamente nesse contexto que as arquiteturas multi-agente se destacam.
Quando múltiplos agentes — cada um com suas ferramentas especializadas, memória ou perspectivas únicas — interagem e raciocinam coletivamente, as organizações desbloqueiam capacidades poderosas:
Escalabilidade: Frameworks multi-agente conseguem lidar com tarefas de crescente complexidade, distribuindo cargas de trabalho inteligentemente e se adaptando em tempo real.
Resiliência: Quando agentes trabalham em conjunto, falhas em um podem ser compensadas por outros, criando sistemas robustos e tolerantes a falhas.
Especialização: Agentes individuais se destacam em domínios específicos — como finanças, transformação de dados ou suporte ao usuário — mas conseguem colaborar perfeitamente para resolver problemas multidisciplinares.
Resolução dinâmica de problemas: Sistemas multi-agente podem se reconfigurar rapidamente, mudar de direção e responder a mudanças, essencial em ambientes voláteis de negócios, segurança e operações.
Frameworks de IA agentica facilitam a construção de soluções inteligentes
Lançamentos recentes em frameworks de IA agentica, como Strands Agents, estão facilitando para desenvolvedores a participação na criação e implementação de soluções multi-agente acionadas por modelos de linguagem. Em vez de depender de fluxos de trabalho manuais e frágeis, esses frameworks permitem que modelos robustos de linguagem raciocinem, planejem e invoquem ferramentas de forma autônoma.
Em ambiente de produção, serviços como Amazon Bedrock AgentCore oferecem implementação segura e escalável, com recursos como memória persistente, integração de identidade e observabilidade em nível empresarial. Essa mudança em direção a soluções colaborativas e multi-agente de IA está revolucionando arquiteturas de software, tornando-as mais autônomas, resilientes e adaptáveis.
De resolução de problemas em tempo real em infraestruturas de nuvem até automação entre equipes em serviços financeiros e assistentes baseados em chat coordenando processos comerciais complexos e multietapas, organizações que adotam soluções multi-agente estão se posicionando para maior agilidade e inovação. Agora, com frameworks abertos como Strands, qualquer pessoa pode começar a construir sistemas inteligentes que pensam, interagem e evoluem juntos.
Processamento automático de vídeos com agentes especializados
Este artigo explora como construir um fluxo de trabalho multi-agente de processamento de vídeos usando Strands Agents SDK, modelos Llama 4 da Meta com suas capacidades multimodais, e Amazon Bedrock para analisar e compreender automaticamente conteúdo de vídeo através de agentes especializados trabalhando em coordenação. A demonstração da solução usa Amazon SageMaker AI para guiar através do código.
Llama 4: Janelas de contexto de 1 milhão de tokens e além
Llama 4 é a mais recente família de modelos de linguagem grandes (LLMs) da Meta, se destacando por suas capacidades de janela de contexto e inteligência multimodal. Ambos os modelos utilizam arquitetura de mistura de especialistas (MoE) para eficiência, foram projetados para entradas multimodais e são otimizados para alimentar sistemas agenticos e fluxos de trabalho complexos.
A variante principal, Llama 4 Scout, suporta uma janela de contexto de 10 milhões de tokens — uma primeira na indústria — permitindo que o modelo processe e reflita sobre grandes volumes de dados em um único prompt. Isso viabiliza aplicações como resumir bibliotecas inteiras de livros, analisar bases de código massivas, conduzir pesquisas abrangentes em milhares de documentos e manter contexto de conversa profundo e persistente em interações prolongadas.
A variante Llama 4 Maverick oferece também uma janela de 1 milhão de tokens, adequada para tarefas exigentes de linguagem, visão e análise entre documentos. Essas janelas de contexto ultralong abrem novas possibilidades para sumarização avançada, retenção de memória e fluxos de trabalho complexos e multietapas.
Nome do Modelo
Janela de Contexto
Capacidades e Casos de Uso
Llama 4 Scout
10M tokens (até 3,5M no Amazon Bedrock)
Processamento ultralong de documentos, ingestão de livros ou bases de código completas, sumarização em larga escala, memória de diálogo extensiva, pesquisa avançada
Llama 4 Maverick
1M tokens
Tarefas multimodais com contexto grande, compreensão avançada de documentos e imagens, análise de código, Q&A abrangente, sumarização robusta
Arquitetura da solução: orquestração inteligente de agentes
A solução demonstra como construir um fluxo de trabalho multi-agente de processamento de vídeos usando a integração incorporada do Strands Agents com Amazon Web Services (AWS) e a infraestrutura de IA gerenciada do Amazon Bedrock. Embora o foco seja principalmente em agentes especializados para análise de vídeo, as práticas de criação de fluxos multi-agente podem ser aplicadas para construir soluções adaptáveis e automatizadas em nível empresarial.
Para escalabilidade, essa abordagem se estende naturalmente para lidar com cargas de trabalho maiores e mais diversas — desde processamento de streams de vídeo de milhões de dispositivos conectados em cidades inteligentes até automação industrial para manutenção preditiva através de análise contínua de vídeo e dados de sensores, sistemas de vigilância em tempo real em múltiplas localidades ou empresas de mídia gerenciando grandes bibliotecas para indexação e recuperação de conteúdo.
Seis agentes especializados trabalhando em tandem
O fluxo de trabalho implementa seis agentes especializados. Cada um desempenha um papel específico, passando sua saída para o próximo agente completar tarefas multietapas. Isso é conduzido através da mesma análise de uma arquitetura de pesquisa profunda, onde existe um agente orquestrador que coordena o processo dos outros agentes trabalhando juntos. Esse conceito em Strands Agents é chamado Agents as Tools (Agentes como Ferramentas).
Os agentes especializados são:
Llama4_coordinator_agent: Tem acesso aos outros agentes e inicia o processo desde o agente de extração de frames até geração de resumo.
s3_frame_extraction_agent: Usa a biblioteca OpenCV para extrair frames significativos de vídeos, lidando com a complexidade de operações com arquivos de vídeo.
s3_visual_analysis_agent: Possui ferramentas necessárias para processar os frames analisando cada imagem e armazenando como arquivo JSON no bucket Amazon Simple Storage Service (Amazon S3).
retrieve_json_agent: Recupera a análise dos frames em forma de arquivo JSON.
c_temporal_analysis_agent: Agente de IA especializado em sequências temporais em frames de vídeo, analisando imagens cronologicamente.
summary_generation_agent: Especializado em criar resumo da análise temporal das imagens.
O processo começa com o agente orquestrador, implementado usando Llama 4 da Meta, que coordena comunicação e delegação de tarefas entre agentes especializados. Esse agente central inicia e monitora cada passo do pipeline de processamento de vídeo. Usando o padrão Agents as Tools em Strands Agents, cada agente especializado é encapsulado como uma função chamável (ferramenta), permitindo comunicação inter-agente perfeita e orquestração modular. Esse padrão de delegação hierárquica reflete como equipes humanas colaborativas funcionam.
Os benefícios dessa abordagem incluem:
Customização: O prompt do sistema de cada agente pode ser ajustado independentemente para desempenho ótimo em sua tarefa especializada.
Separação de responsabilidades: Agentes focam no que fazem melhor, tornando o sistema mais direto de desenvolver e manter.
Flexibilidade de fluxo: O agente coordenador pode orquestrar componentes em diferentes sequências para vários casos de uso.
Escalabilidade: Componentes podem ser otimizados individualmente baseado em seus requisitos de desempenho específicos.
Extensibilidade: Novas capacidades podem ser adicionadas introduzindo novos agentes especializados sem desestabilizar existentes.
Fluxo de operação: da extração ao resumo
O agente coordenador inicia acionando o agente de extração de frames. Esse agente especializado possui as ferramentas necessárias para extrair frames-chave do vídeo de entrada usando OpenCV, fazer upload dos frames para Amazon S3 e identificar o caminho da pasta a passar para o agente de análise visual.
Após os frames serem armazenados no Amazon S3, o agente de análise visual tem acesso a ferramentas que listam os frames da pasta S3, usam Meta’s Llama no Amazon Bedrock para processar as imagens e fazem upload da análise como arquivo JSON para Amazon S3.
O arquivo JSON é então recuperado por um agente especializado que processa e extrai o texto da análise. Essa saída é então alimentada ao agente de análise temporal para ganhar consciência temporal das sequências nos frames de vídeo. Após a análise temporal ser gerada, o agente de geração de resumo é acionado para fornecer o resumo final.
No terminal, instale as dependências: pip install -r requirements.txt
Implantação com Gradio
Para implantar o aplicativo de processamento de vídeo usando Gradio:
Abra sua interface de linha de comando Python3
Execute: python3 gradio_app.py
Acesse o link hospedado gerado no terminal
Faça upload de seu arquivo de vídeo e selecione Executar
Execução no Jupyter Notebook
Após importar as bibliotecas necessárias, você precisa fazer upload manual de seu vídeo para seu bucket S3. O código fornecido no repositório guia através desse processo. Após o vídeo ser carregado, inicie o fluxo de trabalho do agente instanciando um novo agente com histórico de conversa fresco:
agent = new_llama4_coordinator_agent()
video_instruction = f"Process a video from {s3_video_uri}. Use tools in this order: run_frame_extraction, run_visual_analysis, retrieve_json_from_s3, run_temporal_reasoning, run_summary_generation, upload_analysis_results"
response = agent(video_instruction)
print(response)
Exemplo de saída: análise de conteúdo de vídeo
Quando processado através da solução, um vídeo de exemplo produz análise estruturada em múltiplas camadas:
O que acontece no vídeo: O vídeo segue personagens navegando através de uma série de eventos, começando de comportamento cauteloso em um cenário natural, buscando ajuda ou comunicação, participação em discussão crucial, e finalmente tomando ação com o grupo.
Sequência cronológica de eventos: A sequência começa com cautela perto de um cenário natural, seguida de aproximação de um grupo, participação em discussão significativa, e conclui com o grupo tomando ação juntos.
Elementos visuais-chave: Incluem postura inicial cautelosa, interação com outros personagens, discussões e cenas de ação final, destacando progressão de solitude para ação coletiva.
Narrativa geral: O arco segue jornada de cautela e busca por ajuda para participação em discussão crucial e finalmente ação com um grupo, sugerindo progressão, planejamento e ação coletiva.
Limpeza e próximos passos
Para evitar incorrer em cobranças futuras desnecessárias, limpe os recursos criados. Acesse AWS Management Console, navegue para Amazon S3, encontre seu bucket Amazon SageMaker, selecione os arquivos de vídeo carregados e delete-os. Para parar e remover o notebook SageMaker, acesse Amazon SageMaker AI no AWS Management Console, escolha Notebook instances, selecione seu notebook e delete após parar.
Conclusão: arquitetura robusta para IA autônoma
Combinar o SDK Strands Agents com modelos Llama 4 da Meta e infraestrutura Amazon Bedrock viabiliza a construção de fluxos de trabalho avançados de processamento de vídeo multi-agente. Através de agentes altamente especializados que comunicam e colaboram utilizando o padrão Agents as Tools, desenvolvedores conseguem modularizar tarefas complexas como extração de frames, análise visual, raciocínio temporal e sumarização.
Essa separação de responsabilidades aprimora manutenibilidade, customização e escalabilidade enquanto permite integração perfeita entre serviços AWS. Desenvolvedores são encorajados a explorar e estender essa arquitetura adicionando novos agentes especializados e adaptando fluxos para casos de uso diversos — de cidades inteligentes e automação industrial até gestão de conteúdo em mídia.
A maioria dos agentes de IA atuais funciona de forma reativa: conseguem acessar fatos e conhecimentos disponíveis no momento da interação, mas não conseguem lembrar de como resolveram problemas similares anteriormente ou por que certas abordagens funcionaram ou falharam. Essa limitação impede que os agentes aprendam e evoluam continuamente ao longo do tempo.
A Amazon Bedrock AgentCore apresenta uma solução para esse desafio através da memória episódica. Enquanto memória semântica ajuda um agente a lembrar o que ele sabe, a memória episódica documenta como ele chegou a essa conclusão: qual era o objetivo, quais foram os passos de raciocínio, que ações foram tomadas, quais foram os resultados e que reflexões surgiram do processo.
Ao converter cada interação em um episódio estruturado, é possível que agentes recuperem conhecimento e interpretem e apliquem raciocínios anteriores de forma mais efetiva. Isso permite que os agentes se adaptem entre sessões, evitem repetir erros e desenvolvam sua estratégia de planejamento gradualmente.
Desafios Principais na Construção de Memória Episódica
Implementar um sistema efetivo de memória episódica para agentes requer resolver diversos desafios técnicos:
Manutenção de Coerência Temporal e Causal
Os episódios precisam preservar a sequência e o fluxo de causa e efeito dos passos de raciocínio, ações e resultados. Dessa forma, o agente consegue compreender como suas decisões evoluíram e por que chegou a determinadas conclusões.
Detecção e Segmentação de Múltiplos Objetivos
Frequentemente uma sessão envolve objetivos que se sobrepõem ou mudam durante a interação. O sistema de memória episódica precisa identificar e separar esses objetivos para evitar misturar raciocínios não relacionados.
Aprendizado a Partir da Experiência
Cada episódio deve ser avaliado quanto ao sucesso ou fracasso. A reflexão deve então comparar episódios similares do passado para identificar padrões generalizáveis e princípios, permitindo que o agente adapte esses conhecimentos a novos objetivos sem simplesmente reproduzir trajetórias anteriores.
Como a Memória Episódica Funciona
Quando uma aplicação com agentes envia eventos conversacionais para o AgentCore Memory, as interações brutas são transformadas em registros ricos de memória episódica através de um processo inteligente de extração e reflexão.
O Módulo de Extração de Episódios
O módulo de extração transforma dados brutos de interação entre usuário e agente em episódios estruturados e significativos. O processo segue uma abordagem em dois estágios.
O primeiro estágio realiza processamento no nível de “turnos” conversacionais. Cada troca entre usuário e agente é identificada, segmentada e transformada em resumos estruturados que capturam:
Situação do turno: descrição breve das circunstâncias e contexto em que o assistente está respondendo, incluindo o contexto imediato, os objetivos mais amplos do usuário e histórico relevante de interações anteriores
Intenção do turno: qual é o propósito específico e objetivo principal do assistente naquele momento
Ação do turno: registro detalhado dos passos concretos tomados, quais ferramentas específicas foram utilizadas, que argumentos ou parâmetros foram fornecidos e como o assistente converteu a intenção em ações executáveis
Pensamento do turno: o raciocínio por trás das decisões do assistente, explicando o “porquê” da seleção de ferramentas e da abordagem adotada
Avaliação do turno: avaliação honesta sobre se o assistente alcançou seu objetivo declarado naquele turno específico
Avaliação do objetivo: perspectiva mais ampla sobre se o objetivo geral do usuário está sendo satisfeito ou progredindo em direção à conclusão
Após processar e estruturar turnos individuais, o sistema segue para o estágio de extração de episódio quando o usuário completa seu objetivo ou quando a interação termina. Isso permite capturar a jornada completa do usuário, pois o objetivo geralmente se estende por múltiplos turnos e dados isolados de turnos individuais não conseguem comunicar se o objetivo geral foi alcançado ou qual era a estratégia holística.
Neste estágio, turnos sequencialmente relacionados são sintetizados em memórias episódicas coerentes que capturam jornadas completas do usuário, da solicitação inicial até a resolução final. Cada episódio registra:
Situação do episódio: as circunstâncias mais amplas que originaram a necessidade do usuário de assistência
Intenção do episódio: articulação clara do que o usuário ultimamente queria alcançar
Avaliação de sucesso: avaliação definitiva sobre se a conversa alcançou seu propósito pretendido
Justificativa da avaliação: raciocínio concreto para avaliações de sucesso ou fracasso, fundamentado em momentos específicos da conversa
Insights do episódio: conhecimentos capturando abordagens comprovadas como efetivas e identificando armadilhas a evitar
O Módulo de Reflexão
O módulo de reflexão habilita a capacidade central da memória episódica: aprender a partir de experiências passadas e gerar conhecimentos que melhoram o desempenho futuro. Aqui, aprendizados de episódios individuais evoluem para conhecimento generalizável que pode orientar agentes em cenários diversos.
O módulo opera através de reflexão entre episódios. Quando novos episódios são processados, o sistema realiza as seguintes ações:
Utilizando a intenção do usuário como chave semântica, o sistema identifica episódios históricos bem-sucedidos e relevantes que compartilham objetivos, contextos ou domínios de problemas similares
O sistema analisa padrões entre o episódio principal e episódios relevantes, buscando conhecimentos transferíveis sobre quais abordagens funcionam consistentemente em diferentes contextos
O conhecimento de reflexão existente é revisado e aprimorado com novos conhecimentos ou expandido com padrões inteiramente novos descobertos através da análise entre episódios
Cada registro de memória de reflexão contém:
Caso de uso: quando e onde o conhecimento se aplica, incluindo objetivos de usuário relevantes e condições de acionamento
Sugestões (insights): orientação acionável cobrindo estratégias de seleção de ferramentas, abordagens efetivas e armadilhas a evitar
Pontuação de confiança: score de 0,1 até 1,0 indicando quão bem o conhecimento se generaliza em diferentes cenários
Episódios vs. Reflexões: Quando Usar Cada Um
Episódios fornecem agentes com exemplos concretos de como problemas similares foram resolvidos antes, funcionando como estudos de caso que mostram as ferramentas específicas utilizadas, o raciocínio aplicado e os resultados alcançados, incluindo sucessos e fracassos. Isso cria um framework de aprendizagem onde agentes podem seguir estratégias comprovadas e evitar erros documentados.
Reflexões extraem padrões de múltiplos episódios para fornecer conhecimentos estratégicos. Em vez de casos individuais, elas revelam quais ferramentas funcionam melhor, quais abordagens de tomada de decisão têm sucesso e quais fatores impulsionam resultados. Esses princípios destilados dão orientação de nível superior para agentes navegarem cenários complexos.
Configurações Personalizadas
Embora as estratégias de memória integradas cubram casos de uso comuns, muitos domínios requerem abordagens customizadas para processamento de memória. O sistema suporta customizações através de prompts personalizados que estendem a lógica integrada:
Prompts personalizados: focam em critérios e lógica, permitindo que desenvolvedores definam critérios de extração, regras de consolidação, resolução de conflitos e geração de insights
Modelo personalizado: o AgentCore Memory suporta seleção de modelo personalizado para operações de extração, consolidação e reflexão, ajudando desenvolvedores a balancear precisão e latência
Namespaces: fornecem organização hierárquica para episódios e reflexões, permitindo acesso aos conhecimentos do agente em diferentes níveis de granularidade
Resultados de Desempenho
A AWS avaliou a memória episódica do Bedrock AgentCore em benchmarks de conclusão de objetivos do mundo real nos domínios de varejo e companhias aéreas, baseados em τ2-bench. Os benchmarks contêm tarefas que espelham cenários reais de atendimento ao cliente onde agentes precisam ajudar usuários a alcançar objetivos específicos.
Foram comparadas três configurações diferentes: agente sem interação com o componente de memória (baseline), agentes com exemplos de aprendizagem em contexto (episódios como exemplos), e agentes com reflexão como orientação.
Os resultados demonstraram melhorias claras em ambos os domínios. No domínio de varejo, reflexão entre episódios melhorou a taxa de sucesso em 11,4% (Pass^1) e 13,6% (Pass^3) comparado ao baseline. No domínio de companhias aéreas, episódios como exemplos alcançaram o melhor Pass^3 com 43,0%.
Esses resultados indicam que diferentes estratégias de recuperação de memória são mais adequadas para diferentes características de tarefa. Reflexões generalizadas são particularmente valiosas para cenários de atendimento ao cliente abertos e diversos, enquanto exemplos passo-a-passo concretos ajudam agentes a navegar fluxos de trabalho estruturados de forma confiável.
Melhores Práticas para Memória Episódica
Quando Usar Memória Episódica
Memória episódica entrega o maior valor quando você alinha o tipo correto de memória com a necessidade atual. É ideal para tarefas complexas com múltiplos passos onde contexto importa significativamente, como depuração de código, planejamento de viagens e análise de dados. Também é particularmente valiosa para fluxos de trabalho repetitivos onde aprender de tentativas anteriores pode dramaticamente melhorar resultados e para problemas específicos do domínio onde expertise acumulada faz diferença real.
Contudo, memória episódica nem sempre é a escolha certa. Você pode prescindir dela para perguntas simples e pontuais como consultas de clima ou fatos básicos que não requerem raciocínio ou contexto. Conversas de atendimento ao cliente simples, perguntas e respostas básicas ou chats casuais não se beneficiam dos recursos avançados que memória episódica oferece.
O verdadeiro benefício de memória episódica se observa ao longo do tempo. Para tarefas curtas, um resumo de sessão fornece informação suficiente. Contudo, para tarefas complexas e fluxos de trabalho repetitivos, memória episódica ajuda agentes a construir sobre experiências passadas e continuamente melhorar seu desempenho.
Escolhendo Entre Episódios e Reflexões
Episódios funcionam melhor quando você está enfrentando problemas específicos similares e precisa de orientação clara. Se está depurando um componente React que não renderiza, episódios podem mostrar exatamente como problemas similares foram corrigidos antes, incluindo ferramentas específicas, processo de pensamento e resultados.
Reflexões funcionam melhor quando você precisa de orientação estratégica em contextos mais amplos em vez de soluções passo-a-passo específicas. Use reflexões quando está enfrentando um novo tipo de problema e precisa compreender princípios gerais ou quando está tomando decisões de alto nível sobre seleção de ferramentas e qual método seguir.
Conclusão
Memória episódica preenche uma lacuna crítica nas capacidades atuais de agentes. Ao armazenar caminhos completos de raciocínio e aprender com resultados, agentes conseguem evitar repetir erros e construir sobre estratégias bem-sucedidas. Memória episódica complementa o framework de memória completo do Amazon Bedrock AgentCore junto com memória de sumarização, semântica e de preferência. Cada uma serve um propósito específico: sumarização gerencia extensão de contexto, memória semântica armazena fatos, memória de preferência lida com personalização e memória episódica captura experiência.