Blog

  • AWS CDK Mixins agora está disponível para uso em produção

    O que é CDK Mixins

    A AWS anunciou a disponibilidade geral do CDK Mixins, um novo recurso do Kit de Desenvolvimento em Nuvem (AWS CDK – Cloud Development Kit) que oferece uma forma inovadora de trabalhar com construtos de infraestrutura. Esse recurso permite que você adicione abstrações compostas e reutilizáveis a qualquer construto AWS—sejam construtos de nível 1 (L1), nível 2 (L2) ou construtos personalizados—sem necessidade de reconstruir seu código de infraestrutura existente.

    O CDK Mixins fica disponível através do pacote aws-cdk-lib e funciona de forma compatível com todos os tipos de construtos, oferecendo a flexibilidade de aplicar as abstrações corretas exatamente onde e quando você precisa delas.

    Por que CDK Mixins resolve um problema real

    Historicamente, as equipes de infraestrutura enfrentavam uma escolha difícil: utilizar construtos L1 para ter acesso imediato aos novos recursos da AWS, ou optar pela conveniência das abstrações de nível mais alto oferecidas pelos construtos L2. Essa decisão frequentemente resultava em trabalho significativo para atender a requisitos de segurança, conformidade ou operacionais.

    O CDK Mixins simplifica a manutenção de bibliotecas de construtos personalizadas, eliminando essa falsa dicotomia.

    Capacidades práticas do CDK Mixins

    O novo recurso permite aplicar funcionalidades como exclusão automática, criptografia de buckets, versionamento e bloqueio de acesso público diretamente aos construtos usando uma sintaxe simples de .with(). Você também pode combinar múltiplos Mixins em construtos L2 customizados e aplicar políticas de conformidade em um escopo inteiro de infraestrutura.

    Para casos mais avançados, desenvolvedores podem usar Mixins.of() para realizar filtragem sofisticada por tipo de recurso ou padrão de caminho.

    Benefícios para equipes corporativas

    Equipes empresariais agora conseguem implementar e aplicar políticas de segurança e conformidade reutilizáveis em toda a sua infraestrutura, mantendo simultaneamente acesso ao dia um com novos recursos da AWS. Essa combinação oferece maior flexibilidade operacional sem comprometer a segurança ou os padrões regulatórios exigidos pelas organizações.

    Disponibilidade e próximos passos

    O CDK Mixins está disponível em todas as regiões da AWS onde o AWS CloudFormation é suportado. Para começar a usar o CDK Mixins, você pode consultar a documentação da AWS completa com exemplos e guias de implementação.

    Fonte

    AWS CDK Mixins is now generally available (https://aws.amazon.com/about-aws/whats-new/2026/03/aws-cdk-mixins/)

  • OpenSearch UI agora permite acesso a dados em múltiplas contas AWS

    Novo recurso de acesso entre contas no OpenSearch

    A AWS anunciou um novo recurso no Amazon OpenSearch Service que facilita significativamente o trabalho com dados distribuídos em múltiplas contas: o suporte nativo para acesso entre contas. Esse recurso permite que os usuários acessem domínios OpenSearch hospedados em diferentes contas AWS diretamente de uma única interface de aplicação, sem necessidade de trocar de endpoint ou replicar dados.

    Como funciona o acesso entre contas

    Com essa funcionalidade, é possível executar consultas e construir dashboards utilizando dados provenientes de domínios OpenSearch espalhados por diferentes contas na mesma região geográfica. Tudo isso permanecendo dentro do mesmo aplicativo OpenSearch UI, o que simplifica bastante o fluxo de trabalho.

    Configurações suportadas

    O recurso de acesso entre contas funciona tanto em domínios OpenSearch hospedados em configurações públicas quanto em Virtual Private Cloud (VPC), oferecendo flexibilidade para diferentes arquiteturas de segurança.

    Benefícios para equipes e organizações

    Antes desse recurso, equipes precisavam consolidar todos os dados em uma única conta ou manter pipelines de dados custosos e complexos para viabilizar análises unificadas que cruzassem fronteiras organizacionais. Agora, com o acesso entre contas, os dados permanecem exatamente onde estão, cada conta mantendo seu próprio controle de acesso, enquanto análises centralizadas tornam-se possíveis.

    Casos de uso principais

    Esse recurso é especialmente valioso para implementar fluxos de trabalho centralizados de observabilidade, busca e análise de segurança que abrangem múltiplas contas AWS, mantendo a segurança e a governança de dados intactas em cada uma delas.

    Autenticação e acesso

    O acesso entre contas no OpenSearch suporta dois mecanismos de autenticação para usuários finais: IAM (incluindo SAML via federação IAM) e IAM Identity Center (IdC). Isso garante que as organizações possam manter seus modelos de autenticação e governança existentes.

    Disponibilidade

    O recurso de acesso entre contas para domínios OpenSearch está disponível em todas as regiões AWS onde o OpenSearch UI é oferecido. Para informações técnicas detalhadas e instruções de configuração, consulte a documentação disponível em acesso entre contas para domínios OpenSearch no guia de desenvolvimento do Amazon OpenSearch Service.

    Fonte

    OpenSearch UI supports Cross Account Data Access to OpenSearch domains (https://aws.amazon.com/about-aws/whats-new/2026/03/opensearch-ui-cross-account-data-access-domains/)

  • Amazon Bedrock AgentCore Memory: Notificações em Tempo Real para Memória de Longo Prazo

    Notificações em Tempo Real para Memória de Longo Prazo

    A AWS anunciou um novo recurso para o Bedrock AgentCore Memory que muda a forma como os desenvolvedores trabalham com memória de longo prazo em aplicações de inteligência artificial. Agora é possível receber notificações em tempo real sempre que registros de memória são criados ou modificados, eliminando completamente a necessidade de implementar lógica de sondagem constante.

    Como Funciona a Memória de Longo Prazo

    A memória de longo prazo é um componente fundamental do AgentCore Memory que extrai insights das interações dos agentes de IA. Esses insights permitem que o agente entregue experiências personalizadas em interações futuras com o mesmo usuário ou contexto. Quando bem configurada, essa memória transforma a qualidade da experiência do usuário ao longo do tempo.

    O Novo Sistema de Notificações por Streaming

    Com essa atualização, os desenvolvedores não precisam mais implementar mecanismos de polling. As atualizações são transmitidas diretamente para o Amazon Kinesis (Fluxo de Dados em Tempo Real) cada vez que um registro de memória é criado ou modificado. Isso oferece várias vantagens práticas:

    • Acionamento automático de fluxos de trabalho downstream sem intervenção manual
    • Atualização do estado da aplicação em tempo real
    • Auditoria automática de mudanças na memória
    • Eliminação da necessidade de gerenciar intervalos de atualização

    Disponibilidade Global

    Este recurso está disponível em 15 regiões AWS, cobrindo as principais geografias: US East (N. Virginia), US East (Ohio), US West (Oregon), Europe (Frankfurt), Europe (Ireland), Europe (London), Europe (Paris), Europe (Stockholm), Asia Pacific (Mumbai), Asia Pacific (Singapore), Asia Pacific (Sydney), Asia Pacific (Tokyo), Asia Pacific (Seoul), Canada (Central), e South America (São Paulo).

    Próximos Passos

    Os desenvolvedores interessados em integrar notificações em tempo real no AgentCore Memory podem consultar a documentação completa sobre como implementar o recurso de streaming de notificações em seus projetos.

    Fonte

    Amazon Bedrock AgentCore Memory announces streaming notifications for long-term memory (https://aws.amazon.com/about-aws/whats-new/2026/03/agentcore-memory-streaming-ltm/)

  • AWS Private CA Connector para SCEP agora suporta AWS PrivateLink

    Conectividade Privada para Certificados via SCEP

    A AWS anunciou em março de 2026 uma atualização significativa no seu AWS Private CA Connector para SCEP: suporte a AWS PrivateLink. Essa expansão permite que os clientes solicitem certificados a partir de dentro de sua Amazon Virtual Private Cloud (VPC) sem precisar atravessar a internet pública.

    Com esse novo recurso, é possível criar endpoints de VPC para conectar-se ao conector SCEP de forma privada, mantendo todo o tráfego dentro da rede AWS. Essa abordagem elimina a necessidade de internet gateways, dispositivos NAT ou conexões VPN para acessar os endpoints do conector SCEP.

    O que é o AWS Private CA Connector para SCEP?

    O AWS Private CA Connector para SCEP é um conector gerenciado que permite usar o Simple Certificate Enrollment Protocol (SCEP) para emitir certificados a partir da AWS Private Certificate Authority (CA).

    O SCEP é amplamente adotado para automação de inscrição e renovação de certificados em diversos tipos de dispositivos, incluindo:

    • Dispositivos móveis
    • Equipamentos de rede
    • Dispositivos IoT (Internet das Coisas)

    Benefícios da Integração com PrivateLink

    O suporte a AWS PrivateLink traz vantagens significativas para organizações que precisam gerenciar certificados em ambientes altamente seguros:

    • Simplificação da conectividade de rede: elimina a necessidade de configurações complexas com internet gateways, NAT ou VPN
    • Conformidade regulatória: atende requisitos que mandatam conectividade privada para gerenciamento de certificados
    • Redução de superfície de ataque: mantém todo o tráfego dentro da rede AWS, sem exposição à internet pública
    • Facilidade operacional: simplifica a arquitetura de rede para ambientes complexos

    Disponibilidade Geográfica

    O suporte a AWS PrivateLink para AWS Private CA Connector para SCEP está disponível em todas as regiões AWS onde o conector está presente. Para verificar a disponibilidade regional específica, consulte a AWS Region Table.

    Próximos Passos

    Para começar a utilizar essa nova funcionalidade, os usuários podem acessar a documentação do AWS Private CA Connector para SCEP com instruções detalhadas de implementação. Informações adicionais sobre PrivateLink podem ser encontradas na documentação do AWS PrivateLink.

    Fonte

    AWS Private CA Connector for SCEP now supports AWS PrivateLink (https://aws.amazon.com/about-aws/whats-new/2026/03/aws-private-ca-connector-scep-privatelink/)

  • Como gerenciar o ciclo de vida de Amazon Machine Images usando AMI Lineage na AWS

    O desafio do gerenciamento de AMIs em escala

    Conforme as organizações expandem suas infraestruturas na nuvem, o gerenciamento adequado do ciclo de vida das Amazon Machine Images (AMIs) torna-se um componente crítico para segurança e gestão de riscos. As AMIs fornecem informações essenciais para lançar instâncias do Amazon Elastic Compute Cloud (Amazon EC2), mas apresentam desafios significativos de segurança e conformidade quando não são rastreadas e gerenciadas adequadamente ao longo de seu ciclo de vida.

    O principal desafio reside em manter visibilidade sobre as vulnerabilidades potenciais distribuídas pelas AMIs em todo o ambiente AWS. Sem uma forma clara de rastrear a origem e as derivações das imagens, as equipes de segurança enfrentam dificuldades para responder perguntas críticas: qual é o impacto de uma vulnerabilidade específica? Quais instâncias precisam de atualização urgente? As AMIs em uso são provenientes de fontes aprovadas?

    O anúncio do suporte a linhagem de AMIs

    No final de 2024, a AWS anunciou suporte a rastreamento de linhagem para Amazon EC2, disponibilizando detalhes sobre a origem das AMIs. Com essa informação de linhagem, é possível rastrear AMIs copiadas ou derivadas até sua fonte original.

    Os dados de origem estão disponíveis para AMIs criadas usando comandos API específicos como CreateImage, CopyImage e CreateRestoreImageTask. Porém, quando uma AMI é criada através de um comando API diferente, o ID e a região AWS da AMI de origem não aparecem, criando lacunas de visibilidade que podem impactar os esforços de segurança e conformidade.

    Uma solução integrada de governança

    Para preencher essas lacunas e oferecer governança abrangente de AMIs, as organizações precisam construir capacidades adicionais. Uma solução bem projetada deve rastrear a origem das AMIs, validar que recursos implantados provêm de imagens douradas aprovadas, responder a investigações de auditoria com uma cadeia de custódia clara, e fazer cumprir padrões aprovados de criação de AMIs em todas as contas e regiões da AWS.

    A solução apresentada utiliza Amazon Neptune, um banco de dados em grafo de alta performance, juntamente com serviços de segurança nativos da AWS para manter uma visão abrangente das relações entre AMIs e permitir monitoramento proativo de segurança. Com essa solução, é possível implementar controles sobre a origem de AMIs, validar imagens do marketplace por meio de políticas de controle de serviço, e manter conformidade com requisitos organizacionais e regulatórios.

    Componentes principais da arquitetura

    A solução de governança de AMI Lineage integra serviços essenciais da AWS em uma arquitetura de múltiplas contas. O Neptune funciona como banco de dados em grafo especializado, armazenando e gerenciando os dados de relacionamentos entre AMIs de forma segura.

    Funções do AWS Lambda atuam como motor de processamento, captando eventos do ciclo de vida das AMIs (como CreateImage, CopyImage e DeregisterImage), avaliando-os contra regras de conformidade e atualizando o banco de dados em grafo. Essas funções são configuradas com permissões de AWS Identity and Access Management (IAM) com privilégios mínimos para aumentar a segurança.

    O Amazon API Gateway oferece endpoints REST seguros para consultas de linhagem e avaliações de segurança. A autenticação combina chaves de API e papéis de IAM para garantir que apenas usuários e sistemas autorizados possam acessar os dados.

    Imagem original — fonte: Aws

    Arquitetura multi-conta e fluxo de trabalho

    A solução segue as melhores práticas de segurança da AWS com uma arquitetura de múltiplas contas dividida em três tipos principais: conta de gerenciamento da organização, conta centralizada de ferramentas de segurança e múltiplas contas membros.

    A abordagem trabalha da seguinte forma: a AWS Organizations é usada para fazer cumprir políticas de controle de serviço que previnem ações não conformes em AMIs. Quando um evento de ciclo de vida de AMI ocorre em uma conta membro, uma regra local do Amazon EventBridge o captura e encaminha com segurança para o EventBridge central na conta de ferramentas de segurança.

    Uma função Lambda na conta de ferramentas de segurança processa o evento, analisa conformidade e atualiza o banco de dados em grafo do Neptune. O AWS Security Hub e o Amazon GuardDuty recebem e analisam descobertas de todas as contas. As equipes de segurança consultam os dados através de um endpoint seguro do API Gateway para visualizar hierarquias de AMI, investigar descobertas de segurança e avaliar o impacto de uma AMI específica.

    Capacidades de monitoramento e conformidade

    A solução oferece validação abrangente de origem de AMI, garantindo que as imagens provenham de fontes aprovadas, incluindo validação de AMIs do AWS Marketplace em relação a uma lista de fornecedores confiáveis. Capacidades de gerenciamento de ciclo de vida fazem cumprir políticas de retenção de AMIs e processos de descontinuação.

    O monitoramento contínuo rastreia conformidade com requisitos organizacionais e regulatórios. Uma trilha de auditoria detalhada mantém um histórico completo de criação, modificação e padrões de uso de AMIs. Quando vulnerabilidades são descobertas, a solução permite avaliação rápida do escopo de impacto, identificando quais recursos foram afetados.

    Integrando segurança em toda a solução

    O IAM gerencia controle de acesso com privilégios mínimos em todos os componentes. O AWS CloudTrail registra atividades de API para trilhas de auditoria e relatórios de conformidade. O Security Hub centraliza descobertas de segurança e status de conformidade em todo o patrimônio de AMIs. O GuardDuty oferece detecção de ameaças para atividades relacionadas a AMIs.

    Políticas de controle de serviço fazem cumprir controles em nível organizacional sobre criação e uso de AMIs. O AWS Config rastreia mudanças de configuração de AMIs e avalia regras de conformidade contínuas.

    Preparação para implementação

    Antes de implementar a solução, é necessário estabelecer a base apropriada de segurança e governança. A conta de gerenciamento das AWS Organizations requer permissões administrativas e deve estar habilitada com todos os recursos para suportar as políticas utilizadas.

    Uma conta dedicada de ferramentas de segurança é necessária para hospedar os componentes principais da solução, com papéis de IAM de múltiplas contas configurados para permitir acesso seguro. Serviços essenciais de segurança devem ser configurados no nível organizacional, incluindo Security Hub, trilhas CloudTrail organizacionais para registros de auditoria, e chaves de criptografia usando o AWS Key Management Service (AWS KMS) para proteção de dados.

    Tecnicamente, é necessário ter Python 3.8 ou posterior instalado e a AWS Command Line Interface (AWS CLI) versão 2 configurada com credenciais de segurança apropriadas. Um bucket do Amazon Simple Storage Service (Amazon S3) é necessário para artefatos de implantação, criptografado usando SSE-KMS com uma chave gerenciada pelo cliente.

    Fases de implementação

    O processo de implantação segue uma abordagem de cinco fases que constrói capacidades de segurança e conformidade progressivamente.

    Fase 1 – Estabelecimento de fundações de segurança: Configurar os serviços de segurança do AWS Organizations, habilitando Security Hub com a conta de ferramentas de segurança como administrador delegado, habilitando GuardDuty com a conta de ferramentas de segurança como administrador delegado, e habilitando uma trilha CloudTrail em nível organizacional.

    Fase 2 – Controles de segurança: Implantar controles de segurança base através de políticas de controle de serviço em nível organizacional que fazem cumprir controles de governança de AMI.

    Fase 3 – Regras de EventBridge: Implantar regras de EventBridge em nível organizacional da conta de gerenciamento para capturar eventos de AMI em contas membros e encaminhá-los à conta de ferramentas de segurança.

    Fase 4 – Infraestrutura central: Implantar componentes de processamento e armazenamento na conta de ferramentas de segurança, seguindo as melhores práticas de segurança centralizando operações sensíveis em uma conta dedicada.

    Fase 5 – Conformidade e monitoramento: Estabelecer capacidades abrangentes de conformidade e monitoramento em contas membros, com regras do AWS Config para monitoramento contínuo de conformidade de AMIs.

    A solução completa está disponível como código aberto no repositório de exemplos da AWS. É possível clonar o repositório e seguir as instruções de implantação, que incluem templates do AWS CloudFormation, funções Lambda e scripts de implantação.

    Operando a solução de AMI Lineage

    Quando implantada, a solução oferece capacidades de operações de segurança e monitoramento de conformidade através de sua API hospedada na conta de ferramentas de segurança. As equipes de segurança podem consultar e receber relacionamentos completos de segurança de AMIs para entender o contexto total das imagens no ambiente.

    Durante investigações, a solução fornece contexto de segurança detalhado incluindo informações de validação de origem confirmando se as AMIs provêm de fontes do marketplace ou contas confiáveis, status de conformidade mostrando níveis de patch e conformidade com políticas, status de vulnerabilidade com descobertas de CVE (Vulnerabilidades e Exposições Comuns) e resultados de verificação, e dados completos de linhagem mostrando a cadeia completa de relacionamentos e histórico de aprovação.

    Para avaliações de impacto de segurança, quando novas CVEs são descobertas, a solução permite que equipes de segurança determinem rapidamente cada recurso afetado em toda a organização que se originou de uma AMI comprometida ou vulnerável. Com essa informação, é possível compreender o escopo total da exposição e iniciar a remediação.

    Monitoramento contínuo e automação

    O monitoramento de conformidade opera continuamente através de capacidades automatizadas de avaliação que avaliam o patrimônio de AMIs em relação às políticas organizacionais e requisitos regulatórios. As equipes podem gerar relatórios completos de conformidade mostrando aderência aos padrões de segurança em toda a infraestrutura.

    A solução oferece capacidades robustas de automação de políticas que operam continuamente para manter segurança e conformidade. O sistema garante que apenas AMIs aprovadas com histórico de linhagem verificado possam ser usadas para lançar novas instâncias, bloqueando automaticamente tentativas de usar imagens não conformes. Quando violações de políticas são detectadas, o sistema pode disparar respostas automatizadas a eventos de segurança.

    O Security Hub, operando em modo de administrador delegado, pode ser configurado para responder automaticamente a descobertas parando instâncias usando AMIs com vulnerabilidades críticas, colocando em quarentena instâncias lançadas de fontes não aprovadas, e enviando notificações imediatas para descobertas de alta severidade.

    Visualização, relatórios e auditoria

    As capacidades de visualização e relatórios de segurança, centralizadas na conta de ferramentas de segurança, oferecem dashboards em tempo real mostrando status de conformidade em toda a organização, visualização de escopo para tomada rápida de decisões, status do fluxo de trabalho de aprovação de AMI para monitoramento de processo, métricas de conformidade de patch para manutenção de postura de segurança, e logs de atividades de remediação automatizadas para fins de auditoria.

    Para investigações de segurança e fins de auditoria, a solução mantém uma trilha de auditoria consultável oferecendo histórico completo de AMIs incluindo eventos de criação e modificação, resultados de verificação de segurança e descobertas, histórico de fluxo de trabalho de aprovação, e mudanças de status de conformidade ao longo do tempo.

    Considerações finais

    A solução de AMI Lineage transforma a governança de AMI de um processo manual e propenso a erros em uma capacidade de segurança automatizada e abrangente que escala com o crescimento organizacional. Implementando essa solução, as organizações ganham visibilidade, controle e capacidades de resposta automatizadas necessários para manter uma postura de segurança forte, enquanto permitem implantação rápida e segura de infraestrutura em todo o ambiente AWS.

    É importante considerar os aspectos operacionais e de custo da solução. Os componentes principais, particularmente o Neptune, têm custos associados que escalarão com o tamanho do patrimônio de AMIs da organização. Recomenda-se implementar monitoramento e alertas de custo como parte da implantação. Além disso, como a solução é orientada por eventos, deve-se planejar um processo único de preenchimento retrospectivo para ingerir o histórico de AMIs existente da organização no banco de dados em grafo. Para organizações que exigem esse nível de controle granular e visibilidade, essas considerações operacionais são compensadas pelos ganhos significativos na postura de segurança e automação de conformidade.

    Fonte

    How to manage the lifecycle of Amazon Machine Images using AMI Lineage for AWS (https://aws.amazon.com/blogs/security/how-to-manage-the-lifecycle-of-amazon-machine-images-using-ami-lineage-for-aws/)

  • Amazon CloudWatch Database Insights agora disponível em modo de análise sob demanda no AWS GovCloud (US)

    Expansão do CloudWatch Database Insights para GovCloud

    A AWS anunciou a disponibilidade do CloudWatch Database Insights com análise sob demanda nas regiões AWS GovCloud (US-East) e AWS GovCloud (US-West). Essa expansão permite que administradores de banco de dados e desenvolvedores em ambientes sensíveis à conformidade regulatória aproveitem capacidades avançadas de monitoramento e diagnóstico.

    O que é CloudWatch Database Insights

    O CloudWatch Database Insights é uma solução de monitoramento e diagnóstico que oferece visibilidade abrangente sobre métricas de banco de dados, análise de consultas e padrões de utilização de recursos. A ferramenta utiliza modelos de aprendizado de máquina para identificar gargalos de performance durante o período de tempo selecionado, fornecendo recomendações específicas sobre os próximos passos.

    Transformação no Diagnóstico de Performance

    Historicamente, administradores de banco de dados precisavam realizar análise manual de dados de performance, correlacionar métricas e investigar causas raiz de problemas. Esse processo era demorado e exigia conhecimento profundo sobre banco de dados.

    Com essa funcionalidade, é possível analisar dados de monitoramento de performance de qualquer período com inteligência automatizada. O sistema compara automaticamente o período selecionado contra a baseline de performance normal, identifica anomalias e oferece orientações de remediação específicas. Através de visualizações intuitivas e explicações claras, problemas de performance podem ser identificados rapidamente, com orientação passo a passo para resolução.

    Esse sistema automatizado reduz o tempo médio de diagnóstico de horas para minutos, acelerando significativamente o processo de resolução de problemas.

    Como Começar

    O recurso pode ser ativado através do modo Advanced do CloudWatch Database Insights para bancos de dados Amazon Aurora e Amazon RDS. A ativação é possível utilizando:

    • Console do serviço RDS
    • APIs da AWS
    • AWS SDK
    • AWS CloudFormation

    Para instruções detalhadas sobre implementação, consulte a documentação do Aurora ou a documentação do RDS.

    Fonte

    Amazon CloudWatch Database Insights on-demand analysis now available in AWS Govcloud (US) Regions (https://aws.amazon.com/about-aws/whats-new/2026/03/amazon-cloudwatch-database-insights-on-demand-analysis-in-govcloud/)

  • Operacionalizando IA Agentica Parte 1: Guia para Stakeholders

    Entendendo o Salto da IA Agentica

    IA agentica não é simplesmente um recurso que se ativa. Trata-se de uma transformação fundamental na forma como o trabalho é organizado, quem o executa e como as decisões são tomadas. Muitas empresas aprendem isso da forma mais difícil: lançam pilotos que travam quando encontram processos reais, sistemas legados e requisitos de governança. O ciclo é previsível—casos de uso vagos, protótipos que fracassam diante de dados desorganizados, autonomia avançando mais rápido que os controles, conformidade atrasando o lançamento, e conjuntos de dados insuficientes para decisões autônomas. Por baixo de tudo isso, existe um problema raiz comum: ninguém se pôs de acordo sobre o que significaria sucesso.

    A AWS Generative AI Innovation Center trabalhou com mais de 1.000 clientes para colocar IA em produção, documentando ganhos de produtividade que se somam a milhões de dólares. Equipes multidisciplinares—cientistas de dados, estrategistas e especialistas em aprendizado de máquina—colaboram lado a lado com clientes desde a concepção até a implementação. Cada vez mais, esse trabalho envolve agentes. Este artigo oferece orientações para líderes em todas as camadas organizacionais: Diretores de Tecnologia (CTOs), Diretores de Segurança (CISOs), Diretores de Dados (CDOs) e Chefes de Ciência de Dados/IA, além de proprietários de negócios e responsáveis por conformidade.

    Quando IA agentica funciona bem, não parece software mágico—parece um time bem gerenciado. Cada agente tem um trabalho claro, um supervisor, um plano de ação e uma forma de evoluir continuamente.

    O Desafio Real: Identificando a Lacuna de Valor

    A Pergunta que Importa

    Em reuniões executivas, perguntar “Estamos investindo o suficiente em IA?” geralmente resulta em um “sim” imediato. Mas quando o questionamento muda para “Quais workflows específicos estão materialmente melhores hoje graças aos agentes de IA e como sabemos disso?”, a sala cai em silêncio. Esse silêncio é revelador.

    Entre essas duas respostas não falta uma base de modelos ou um fornecedor inovador. O que falta é um modelo operacional adequado. Onde agentes geram valor visível, três características tendem a estar presentes: o trabalho é definido com precisão; a autonomia tem limites claros; e a melhoria é um hábito, não um projeto de uma única vez.

    O Padrão Repetitivo do Fracasso

    Onde essas características estão ausentes, sintomas similares surgem: provas de conceito impressionantes que nunca saem do laboratório, pilotos que desaparecem silenciosamente após alguns meses, e líderes que deixam de perguntar “O que mais podemos fazer?” para começar a questionar “Por que estamos gastando tanto com isso?”

    O que diferencia sucesso de fracasso em projetos de IA agentica não é uma questão de tecnologia avançada ou investimento maior. É uma questão de execução—definir o trabalho corretamente, estruturar autoridade e controles, e criar ciclos regulares de aprendizado.

    O Trabalho Moldado para Agentes

    Muitas organizações começam perguntando “Onde podemos usar um agente?” Uma pergunta melhor seria “Onde o trabalho já está naturalmente estruturado como um trabalho que um agente poderia fazer?” Na prática, isso significa identificar quatro características específicas.

    Primeiro: Início, Fim e Propósito Claros

    O trabalho precisa ter um ponto de partida bem definido, um fim identificável e um propósito claro. Uma reclamação chega, uma fatura aparece, um ticket de suporte é aberto. O agente consegue reconhecer quando tem informação suficiente para começar, qual é seu objetivo e quando a tarefa está completa ou precisa ser escalada. Isso vai além de um simples gatilho e uma linha de chegada. O agente precisa compreender a intenção subjacente ao trabalho bem o suficiente para lidar com variações razoáveis sem instruções explícitas para cada cenário.

    Se sua equipe não consegue articular o que significa “feito bem” para uma tarefa específica—incluindo como lidar com exceções e casos extremos—o trabalho ainda não está pronto para um agente.

    Segundo: Julgamento Através de Múltiplas Ferramentas

    O agente não segue um roteiro fixo. Ele raciocina sobre que informações precisa, decide quais sistemas consultar, interpreta os resultados e determina a ação correta baseado no contexto. Diferente da automação tradicional, o caminho não é codificado: o agente adapta sua abordagem, lida com variações e sabe quando uma situação está além de sua competência.

    Mas agentes agem através de ferramentas, e essas ferramentas precisam existir antes do agente. Os sistemas precisam ter interfaces bem definidas, seguras e confiáveis que um agente possa chamar para ler dados, escrever atualizações, disparar transações ou enviar comunicações. Se o processo atual é humanos raciocinando em email e planilhas, há tanto trabalho de design de processo quanto trabalho de ferramental a fazer antes de ter um caso de uso viável para agentes.

    Terceiro: Sucesso é Observável e Mensurável

    Alguém de fora da equipe precisa conseguir olhar para o resultado e dizer “Isto está correto” ou “Isto precisa ser corrigido” sem ler mentes. Isso pode significar verificar se um ticket foi resolvido no prazo, se um formulário está completo e consistente, se uma transação se equilibra, ou se um cliente recebeu a resposta que precisava.

    Mas observabilidade vai além de auditar apenas os resultados finais. É necessário ver como o agente chegou à sua resposta: que dados usou, quais ferramentas chamou, quais opções considerou e por que escolheu uma em detrimento de outra. Sem conseguir avaliar o raciocínio, não se consegue melhorar o agente nem defender suas decisões quando algo corre mal.

    Comece com trabalho onde ações são reversíveis ou onde o resultado do agente é uma recomendação que um humano atua. À medida que confiança, controles e avaliação amadurecem, a organização ganha o direito de avançar para trabalho de maior risco onde o agente fecha o loop por conta própria.

    Quarto: Modo Seguro Quando as Coisas Dão Errado

    Os melhores candidatos iniciais para agentes são tarefas onde erros são capturados rapidamente, corrigidos com baixo custo e não criam danos irreversíveis. Se um agente misclassifica um ticket de suporte, ele pode ser roteado novamente. Se redige uma resposta incorreta, um humano pode editar antes do envio. Mas se um agente aprova um pagamento, executa uma negociação ou envia uma comunicação legalmente vinculante, o custo de estar errado muda fundamentalmente.

    Comece com trabalho onde ações são reversíveis ou onde o resultado do agente é uma recomendação que um humano atua. Conforme ganhos em confiança, controles e capacidade de avaliação amadurecem, a organização conquista a autoridade de avançar para trabalho de maior complexidade onde o agente fecha a transação independentemente.

    Quando Esses Ingredientes Se Unem

    Quando essas quatro características estão presentes, existe algo que pode se tornar um trabalho para um agente. Quando faltam, a conversa desliza para trás em rótulos vagos como assistente, copilot ou automação que significam coisas diferentes para cada pessoa na sala. Precisão na linguagem é precisão na execução.

    Três Passos para Esta Semana

    Nomeie o Trabalho, Não o Desejo

    Escolha um workflow em sua organização que tenha um início claro, um fim definido e uma métrica observável de “feito”. Esse é seu primeiro candidato para um agente. Não comece com aspirações—comece com o trabalho que pode ser descrito com precisão hoje.

    Faça a Pergunta Difícil na Sala

    Na próxima reunião de liderança, não pergunte “Estamos investindo o suficiente em IA?” Pergunte “Quais workflows específicos estão materialmente melhores hoje graças aos agentes de IA, e como sabemos disso?” O silêncio que segue é seu mapa do caminho.

    Comece uma Descrição de Cargo

    Antes de qualquer decisão tecnológica, escreva o que o agente faria, quais ferramentas precisaria, o que sucesso parece e o que acontece quando falha. Se não conseguir preencher essa página, não está pronto para construir—e essa é uma informação valiosa.

    Próximos Passos: Orientação por Função

    Saber que IA agentica é um problema de execução é uma coisa. Compreender seu papel específico em resolvê-lo é outro. O artigo promete que, em uma próxima parte, haverá orientação dirigida diretamente aos líderes que precisam fazer isso na prática: o proprietário de linha de negócio que precisa vincular agentes a KPIs, o CTO escolhendo entre dez agentes únicos ou uma plataforma para cem, o CISO que precisa tratar agentes como colegas em vez de código, o CDO que precisa tornar dados chatos do jeito certo, o Chefe de IA para quem avaliação é o produto, e o líder de conformidade que precisa desenhar para auditorias antes que elas aconteçam.

    Parceria e Suporte

    Não é necessário navegar essa jornada sozinho. Seja planejando o primeiro piloto agentico ou dimensionando para uma capacidade corporativa, a AWS Generative AI Innovation Center oferece diálogo fundamentado em workflows específicos, dados e resultados de negócio.

    Fonte

    Operationalizing Agentic AI Part 1: A Stakeholder’s Guide (https://aws.amazon.com/blogs/machine-learning/operationalizing-agentic-ai-part-1-a-stakeholders-guide/)

  • Como escalabilizar o desenvolvimento do Amazon Lex com pipelines CI/CD multidesenvolvedor

    Transformando o desenvolvimento de IA conversacional

    Conforme as iniciativas de inteligência artificial conversacional evoluem nas organizações, o desenvolvimento de assistentes Amazon Lex torna-se cada vez mais complexo. Quando múltiplos desenvolvedores trabalham simultaneamente na mesma instância compartilhada do Lex, surgem problemas críticos: conflitos de configuração, alterações sobrescritas e ciclos de iteração lentos que comprometem a produtividade.

    Para escalar adequadamente o desenvolvimento de Amazon Lex, é necessário contar com ambientes isolados, controle de versão robusto e pipelines de implantação automatizados. Adotando práticas bem estruturadas de integração contínua e entrega contínua (CI/CD), as organizações conseguem eliminar gargalos no desenvolvimento, acelerar inovação e oferecer experiências conversacionais mais refinadas e confiáveis.

    Arquitetura da solução multidesenvolvedor

    A solução transforma o Amazon Lex de uma ferramenta de desenvolvimento limitada e monodesenvolvedor em uma plataforma de IA conversacional pronta para empresas. Essa abordagem resolve os desafios fundamentais de colaboração que costumam desacelerar projetos de IA conversacional.

    Arquitetura do pipeline CI/CD para Amazon Lex
    Imagem original — fonte: Aws

    O funcionamento envolve o uso de infraestrutura como código (IaC) com o AWS Cloud Development Kit (AWS CDK). Cada desenvolvedor executa cdk deploy para provisionar sua própria instância dedicada de assistente Lex e funções AWS Lambda dentro de uma conta compartilhada da Amazon Web Services (AWS). Esta abordagem elimina os problemas comuns de sobreescrita e permite fluxos de trabalho verdadeiramente paralelos com capacidades completas de controle de versão.

    Os desenvolvedores utilizam lexcli, uma ferramenta customizada de linha de comando, para exportar as configurações do assistente Lex da conta AWS compartilhada para suas estações de trabalho locais. A partir daí, testam e depuram localmente usando lex_emulator, uma ferramenta customizada que oferece testes integrados tanto para configurações do assistente quanto para funções Lambda, com validação em tempo real antes de qualquer implantação na nuvem.

    Quando os desenvolvedores enviam alterações para o controle de versão, o pipeline implanta automaticamente ambientes de teste efêmeros para cada solicitação de mesclagem através do GitLab CI/CD. O pipeline é executado em contêineres Docker, garantindo um ambiente de compilação consistente que assegura o empacotamento confiável de funções Lambda e implantações reproduzíveis. Testes automatizados são executados contra essas pilhas temporárias, e as mesclagens só ocorrem se todos os testes forem bem-sucedidos.

    Fluxo de trabalho do desenvolvedor nas fases de desenvolvimento local, controle de versão e implantação
    Imagem original — fonte: Aws

    As alterações que passam pela validação em ambientes efêmeros são promovidas para ambientes compartilhados (Desenvolvimento, QA e Produção) com portões de aprovação manual entre etapas. Essa estrutura mantém altos padrões de qualidade enquanto acelera o processo de entrega, permitindo que equipes implantem novas funcionalidades e melhorias com confiança.

    Impactos mensuráveis para as organizações

    Ao habilitar fluxos de trabalho de desenvolvimento paralelo, essa solução proporciona ganhos significativos em tempo e eficiência para equipes de IA conversacional. Avaliações internas mostram que equipes conseguem paralelizar grande parte do trabalho de desenvolvimento, gerando ganhos mensuráveis em produtividade. Os resultados variam conforme o tamanho da equipe, escopo do projeto e abordagem de implementação, mas algumas equipes relataram redução significativa nos ciclos de desenvolvimento.

    A aceleração permitiu que equipes entregassem funcionalidades em semanas em vez de meses, melhorando o tempo de chegada ao mercado. As economias de tempo liberam capacidade para que as equipes gerenciem maiores volumes de trabalho dentro dos mesmos ciclos de desenvolvimento, destinando recursos para inovação e aprimoramento da qualidade.

    Casos de sucesso práticos

    O pipeline CI/CD multidesenvolvedor para Amazon Lex apoiou equipes empresariais na melhoria de sua eficiência de desenvolvimento. Uma organização o utilizou para migrar sua plataforma para Amazon Lex, possibilitando colaboração de múltiplos desenvolvedores sem conflitos. Ambientes isolados e capacidades de mesclagem automatizada ajudaram a manter progresso consistente durante esforços de desenvolvimento complexos.

    Uma grande empresa adotou o pipeline como parte de sua estratégia de IA mais ampla. Ao usar funcionalidades de validação e colaboração dentro do processo de CI/CD, suas equipes aprimoraram coordenação e responsabilidade entre ambientes. Esses exemplos ilustram como fluxos de trabalho estruturados contribuem para maior eficiência, migrações mais suaves e redução de retrabalho.

    Começando com a implementação

    O pipeline CI/CD multidesenvolvedor para Amazon Lex está disponível como solução de código aberto através do repositório GitHub. Aplicam-se cobranças padrão de serviços AWS para os recursos implantados.

    Pré-requisitos

    Para seguir este guia, você precisará de:

    Componentes principais

    A framework consiste em vários componentes-chave que trabalham juntos para habilitar desenvolvimento colaborativo: infraestrutura como código com AWS CDK, a ferramenta CLI do Amazon Lex chamada lexcli e a configuração do pipeline CI/CD do GitLab.

    A solução usa AWS CDK para definir componentes de infraestrutura como código, incluindo:

    • Instâncias individuais do Amazon Lex para cada desenvolvedor
    • Funções Lambda para lógica de atendimento
    • Logging e monitoramento via Amazon CloudWatch
    • Buckets de Amazon Simple Storage Service (Amazon S3) para armazenamento de configurações

    Implante o ambiente de cada desenvolvedor usando:

    cdk deploy -c environment=your-username --outputs-file ./cdk-outputs.json

    Esse comando cria um ambiente completo e isolado que espelha a configuração compartilhada mas permite modificações independentes.

    A ferramenta lexcli exporta a configuração do assistente Amazon Lex do console para arquivos JSON sob controle de versão. Ao invocar lexcli export <environment>, ela:

    • Conecta ao seu assistente implantado usando a API Amazon Lex
    • Baixa a configuração completa do assistente como arquivo .zip
    • Extrai e padroniza identificadores para tornar configurações agnósticas de ambiente
    • Formata arquivos JSON para revisão durante solicitações de mesclagem
    • Oferece prompts interativos para exportação seletiva de intents e slots que sofreram alterações

    O arquivo .gitlab-ci.yml orquestra todo o fluxo de trabalho de desenvolvimento:

    • Criação de ambiente efêmero: Cria e destrói automaticamente um ambiente dinâmico temporário para cada solicitação de mesclagem
    • Testes automatizados: Executa testes abrangentes incluindo validação de intents, verificação de slots e benchmarks de desempenho
    • Portões de qualidade: Reforça linting de código e testes automatizados com cobertura mínima de 40%; requer aprovação manual para todas as implantações em ambientes
    • Promoção de ambientes: Habilita progressão controlada de implantações através de dev, staging e produção com aprovação manual em cada etapa

    Guia de implementação passo a passo

    A implementação segue cinco fases: preparação do repositório e GitLab, autenticação AWS, ambiente de desenvolvimento local, fluxo de trabalho de desenvolvimento e execução do pipeline CI/CD.

    Preparação do repositório e GitLab: Clone o repositório de exemplo e crie seu próprio projeto:

    git clone https://gitlab.aws.dev/lex/sample-lex-multi-developer-cicd.git
    cd sample-lex-multi-developer-cicd
    git remote remove origin
    git remote add origin <seu-repositorio>
    git push -u origin main

    Configure as variáveis de CI/CD do GitLab navegando até Configurações, depois CI/CD e Variáveis. Adicione os seguintes valores:

    • AWS_REGION: us-east-1
    • AWS_DEFAULT_REGION: us-east-1
    • Outras variáveis de segredos específicos de seu ambiente

    Configure regras de proteção de branch para proteger sua branch principal. A aplicação correta de fluxo de trabalho previne commits diretos em código de produção.

    Ambiente de desenvolvimento local: Para configurar seu ambiente local, complete as seguintes etapas:

    pip install -r requirements.txt
    cdk deploy -c environment=your-username --outputs-file ./cdk-outputs.json

    Isso cria sua instância de assistente isolada para modificações independentes.

    Fluxo de trabalho de desenvolvimento: Crie uma branch de funcionalidade:

    git checkout -b feature/your-feature-name

    Para fazer modificações ao assistente, acesse seu assistente pessoal no console do Amazon Lex, modifique intents, slots ou configurações conforme necessário, e teste suas alterações diretamente no console. Depois exporte as alterações para código:

    python lexcli.py export your-username

    A ferramenta oferecerá prompts interativos para que você selecione quais alterações exportar. Revise e confirme as alterações:

    git add .
    git commit -m "feat: add new intent for booking flow"
    git push origin feature/your-feature-name

    Execução do pipeline CI/CD: O pipeline executa as seguintes etapas: cria automaticamente um ambiente efêmero para sua branch, executa testes abrangentes contra suas alterações, permite que membros da equipe revisem tanto mudanças de código quanto resultados de testes, mescla após aprovação e implanta automaticamente no desenvolvimento, e utiliza portões de aprovação manual para controlar promoção a QA e produção.

    Próximos passos

    Após implementar este pipeline multidesenvolvedor, considere: expandir seus testes com suites mais abrangentes para validação de intents, aprimorar monitoramento integrando dashboards do Amazon CloudWatch para desempenho do assistente, e explorar IA híbrida combinando Amazon Lex com Amazon Bedrock para capacidades de IA generativa.

    Para mais informações sobre Amazon Lex, consulte o Guia do Desenvolvedor Amazon Lex.

    Conclusão

    A implementação de pipelines CI/CD multidesenvolvedor para Amazon Lex aborda desafios operacionais críticos no desenvolvimento de IA conversacional. Ao habilitar ambientes de desenvolvimento isolados, capacidades de testes locais e fluxos de trabalho de validação automatizados, as equipes conseguem trabalhar em paralelo sem comprometer qualidade, acelerando o tempo de chegada ao mercado para soluções complexas de IA conversacional.

    Você pode começar a implementar essa abordagem hoje mesmo usando o protótipo AWS CDK e a ferramenta CLI do Amazon Lex disponíveis no repositório GitHub. Para organizações que desejam aprimorar ainda mais suas capacidades de IA conversacional, considere explorar a integração do Amazon Lex com Amazon Bedrock para soluções híbridas que combinam gerenciamento de diálogo estruturado e modelos de linguagem de grande escala (LLMs).

    Para orientação na implementação, entre em contato com AWS Professional Services.

    Fonte

    Drive organizational growth with Amazon Lex multi-developer CI/CD pipeline (https://aws.amazon.com/blogs/machine-learning/drive-organizational-growth-with-amazon-lex-multi-developer-ci-cd-pipeline/)

  • Aprovação Multiparte da AWS agora Suporta Validação de Equipes

    O que é a Nova Capacidade de Validação

    A AWS anunciou uma importante adição ao recurso de Aprovação Multiparte (MPA — Multi-Party Approval): agora os administradores podem executar testes de aprovação para verificar se sua equipe está configurada corretamente. Essa funcionalidade permite que os responsáveis pela administração da MPA confirmem que os aprovadores estão ativos e acessíveis antes de depender desse fluxo para operações sensíveis.

    Por Que Isso Importa para Sua Organização

    Equipes de aprovação podem se tornar inativas por diversos motivos: rotatividade de pessoal, configurações incorretas de aprovadores ou simplesmente falta de engajamento. Sem uma forma de validar regularmente a saúde da equipe, sua organização corre o risco de descobrir problemas críticos apenas quando uma aprovação urgente é necessária — e aí é tarde demais.

    Com esse novo recurso, os administradores e equipes de segurança podem avaliar proativamente suas configurações de aprovação. Isso significa identificar problemas antes que eles impactem operações críticas.

    Recursos Principais da Validação

    A funcionalidade de validação base (baselining) oferece várias capacidades importantes:

    • Verificação manual de testes: Permite iniciar sessões de teste de aprovação diretamente pelo console do AWS Organizations
    • Validação de disponibilidade: Confirma que os aprovadores conseguem realmente responder quando necessário
    • Identificação de membros inativos: Detecta membros da equipe que não estão mais participando do fluxo
    • Conformidade interna: Ajuda a manter a equipe alinhada com os requisitos de governança interna

    Casos de Uso Recomendados

    A AWS recomenda usar a validação de equipes em três cenários principais:

    Verificação Regular de Responsividade

    A validação deve ser executada regularmente — a AWS recomenda a cada 90 dias — utilizando o Console de MPA. Esse ciclo garante que sua equipe de aprovação continue funcional e responsiva ao longo do tempo.

    Validação de Novas Configurações

    Quando você implementa uma nova configuração de aprovação, execute testes antes de colocá-la em produção. Isso reduz significativamente o risco de falhas quando aprovações reais forem necessárias.

    Verificações de Saúde Operacional

    Utilize a validação para garantir que os fluxos de aprovação funcionem conforme esperado em momentos críticos. Identificar problemas durante testes é muito mais seguro do que descobri-los durante uma operação sensível real.

    Disponibilidade

    Esse recurso está disponível em todas as regiões comerciais da AWS. Para aprender como implementar testes de validação em seus fluxos de aprovação multiparte, consulte a documentação de aprovação multiparte.

    Fonte

    Multi-party approval now supports approval team baselining (https://aws.amazon.com/about-aws/whats-new/2026/03/multi-party-approval-team-baselining/)

  • Elastic Beanstalk ganha análise de ambientes potenciada por IA

    Uma nova capacidade de diagnóstico automático

    A AWS anunciou uma adição significativa ao Elastic Beanstalk: um recurso de análise de ambientes potenciado por inteligência artificial. Esta funcionalidade foi desenvolvida especificamente para ajudar desenvolvedores e equipes de operações a identificarem rapidamente as causas raiz de problemas e obterem recomendações de soluções quando o ambiente enfenta questões de saúde.

    Como funciona a análise inteligente

    O processo é relativamente direto. Quando um ambiente do Elastic Beanstalk enfrenta problemas, o serviço coleta automaticamente eventos recentes, dados de saúde das instâncias e logs do ambiente. Estes dados são então encaminhados para o Amazon Bedrock para análise inteligente. O objetivo é fornecer recomendações de resolução de problemas personalizadas conforme o estado atual do seu ambiente, reduzindo significativamente o tempo necessário para resolver questões operacionais.

    Acessando a análise de IA

    A funcionalidade é acessível de duas maneiras principais. A primeira é através do console do Elastic Beanstalk: quando o status de saúde do seu ambiente apresenta os estados Warning (Aviso), Degraded (Degradado) ou Severe (Grave), você encontrará um botão de Análise de IA disponível. A segunda forma é programática, utilizando a Interface de Linha de Comando (CLI) da AWS e as operações de API RequestEnvironmentInfo e RetrieveEnvironmentInfo.

    Disponibilidade e recursos suportados

    O recurso de análise de ambiente potenciado por IA está disponível em todas as regiões da AWS onde tanto o Elastic Beanstalk quanto o Amazon Bedrock operam simultaneamente. A AWS fornece documentação detalhada sobre esta funcionalidade, incluindo uma lista completa das versões de plataforma suportadas, disponível em seu guia de desenvolvimento do Elastic Beanstalk.

    Para aprofundar seu conhecimento sobre o Elastic Beanstalk e todas as suas capacidades, consulte a página do produto dedicada ao serviço.

    Fonte

    AWS Elastic Beanstalk now offers AI-powered environment analysis (https://aws.amazon.com/about-aws/whats-new/2026/03/elastic-beanstalk-ai-analysis/)