Blog

  • CloudTroop Weekly #004 — 2026-w11





    CloudTroop Weekly #004 — 2026-w11

    12 de março de 2026

    Resumo da Semana

    A semana foi dominada por melhorias que tornam segurança e governança IAM menos dolorosas no dia a dia. O destaque vai para o novo detalhe nas mensagens de acesso negado, que agora apontam diretamente a política bloqueante — fim do jogo de adivinha no troubleshooting. Em paralelo, a AWS avançou na governança de agentes de IA com Bedrock AgentCore Policy e reforçou controles multiparte. No campo de operações, IA começa a aparecer de forma prática: no Beanstalk, no HyperPod e em call centers. A tendência é clara — menos atrito para configurar permissões, mais automação para detectar e corrigir problemas.

    O que muda na prática

    • Erros de 'acesso negado' no IAM agora incluem o ARN da política bloqueante, eliminando a necessidade de vasculhar políticas manualmente durante incidentes.
    • Equipes de segurança podem governar o que agentes de IA acessam via Bedrock AgentCore Policy sem tocar no código da aplicação, separando responsabilidades entre dev e sec de forma concreta.
    • A validação de equipes e aprovadores na Aprovação Multiparte fecha uma lacuna silenciosa de governança: controles que pareciam ativos mas podiam falhar na hora crítica.

    Ações da semana

    • Reproduza um erro de acesso negado em ambiente de teste e verifique se o ARN da política bloqueante já aparece na sua conta — se sim, atualize o runbook de troubleshooting IAM do seu time.
    • Revise os fluxos de Aprovação Multiparte ativos na sua organização e confirme que todas as equipes e aprovadores cadastrados estão válidos antes que um incidente real exija essa validação.

    Top 10 da Semana

    1

    Mensagens de Acesso Negado agora incluem ARN da política bloqueante

    Reduz drasticamente o tempo de diagnóstico de problemas de permissão IAM ao apontar diretamente qual política está negando o acesso.

    Para quem: Desenvolvedores, SREs e administradores de nuvem que lidam diariamente com troubleshooting de permissões AWS.

    IAM, Segurança

    2

    AWS Shield detecta configurações incorretas de rede via Security Hub

    Centraliza alertas de segurança de rede com recomendações automatizadas, reduzindo exposição a ataques por misconfiguration.

    Para quem: Engenheiros de segurança e arquitetos de rede que gerenciam proteção de infraestrutura AWS.

    Segurança, Rede

    3

    Bedrock AgentCore Policy: controle granular de agentes IA sem alterar código

    Permite que equipes de segurança governem o que agentes de IA podem acessar de forma centralizada, separando responsabilidades entre dev e sec.

    Para quem: Arquitetos de segurança e times de plataforma que implantam agentes de IA em produção.

    IA, Segurança

    4

    Aprovação Multiparte AWS agora valida equipes e aprovadores ativos

    Evita falhas silenciosas em fluxos de aprovação críticos, garantindo que controles de governança estejam realmente operacionais antes de serem necessários.

    Para quem: Times de compliance, governança e administradores de contas AWS que usam aprovação multiparte.

    Governança, Segurança

    5

    AWS permite criar roles IAM diretamente no fluxo de cada serviço

    Elimina o atrito de alternar entre consoles para configurar permissões, acelerando provisionamento seguro de serviços.

    Para quem: Desenvolvedores e engenheiros cloud que configuram serviços AWS com frequência no console.

    IAM, Produtividade

    6

    Elastic Beanstalk usa IA para identificar e sugerir correções de ambiente

    Reduz tempo de resolução de incidentes em ambientes Beanstalk ao usar Bedrock para correlacionar logs, eventos e saúde das instâncias automaticamente.

    Para quem: Times de desenvolvimento e operações que ainda utilizam Elastic Beanstalk em produção.

    IA, Operações

    7

    SageMaker Unified Studio sincroniza metadados com Atlan, Collibra e Alation

    Elimina reconciliação manual de catálogos de dados entre plataformas, viabilizando governança de dados consistente em ambientes híbridos.

    Para quem: Engenheiros de dados e times de data governance que operam múltiplas ferramentas de catálogo.

    Dados, Governança

    8

    Pipeline CI/CD multidesenvolvedor para Amazon Lex sem conflitos

    Resolve o gargalo de colaboração em projetos Lex com múltiplos devs, acelerando entrega de assistentes conversacionais empresariais.

    Para quem: Engenheiros de software e DevOps que desenvolvem ou mantêm bots e assistentes com Amazon Lex.

    DevOps, IA Conversacional

    9

    SageMaker HyperPod ganha observabilidade unificada para clusters de treinamento

    Unifica monitoramento de desempenho, saúde e estado Kubernetes em um painel, reduzindo tempo cego durante treinamento de modelos foundation.

    Para quem: Engenheiros de ML e equipes de plataforma que treinam modelos de grande escala no SageMaker HyperPod.

    MLOps, Observabilidade

    10

    Amazon Nova analisa chamadas de call center: sentimento, protocolo e vulnerabilidade

    Demonstra caso de uso prático e de alto ROI para GenAI em operações de atendimento, com arquitetura replicável para outros setores.

    Para quem: Arquitetos de soluções e líderes técnicos de empresas com operações de atendimento ao cliente.

    IA Aplicada, Analytics


  • Como escalabilizar o desenvolvimento do Amazon Lex com pipelines CI/CD multidesenvolvedor

    Transformando o desenvolvimento de IA conversacional

    Conforme as iniciativas de inteligência artificial conversacional evoluem nas organizações, o desenvolvimento de assistentes Amazon Lex torna-se cada vez mais complexo. Quando múltiplos desenvolvedores trabalham simultaneamente na mesma instância compartilhada do Lex, surgem problemas críticos: conflitos de configuração, alterações sobrescritas e ciclos de iteração lentos que comprometem a produtividade.

    Para escalar adequadamente o desenvolvimento de Amazon Lex, é necessário contar com ambientes isolados, controle de versão robusto e pipelines de implantação automatizados. Adotando práticas bem estruturadas de integração contínua e entrega contínua (CI/CD), as organizações conseguem eliminar gargalos no desenvolvimento, acelerar inovação e oferecer experiências conversacionais mais refinadas e confiáveis.

    Arquitetura da solução multidesenvolvedor

    A solução transforma o Amazon Lex de uma ferramenta de desenvolvimento limitada e monodesenvolvedor em uma plataforma de IA conversacional pronta para empresas. Essa abordagem resolve os desafios fundamentais de colaboração que costumam desacelerar projetos de IA conversacional.

    Arquitetura do pipeline CI/CD para Amazon Lex
    Imagem original — fonte: Aws

    O funcionamento envolve o uso de infraestrutura como código (IaC) com o AWS Cloud Development Kit (AWS CDK). Cada desenvolvedor executa cdk deploy para provisionar sua própria instância dedicada de assistente Lex e funções AWS Lambda dentro de uma conta compartilhada da Amazon Web Services (AWS). Esta abordagem elimina os problemas comuns de sobreescrita e permite fluxos de trabalho verdadeiramente paralelos com capacidades completas de controle de versão.

    Os desenvolvedores utilizam lexcli, uma ferramenta customizada de linha de comando, para exportar as configurações do assistente Lex da conta AWS compartilhada para suas estações de trabalho locais. A partir daí, testam e depuram localmente usando lex_emulator, uma ferramenta customizada que oferece testes integrados tanto para configurações do assistente quanto para funções Lambda, com validação em tempo real antes de qualquer implantação na nuvem.

    Quando os desenvolvedores enviam alterações para o controle de versão, o pipeline implanta automaticamente ambientes de teste efêmeros para cada solicitação de mesclagem através do GitLab CI/CD. O pipeline é executado em contêineres Docker, garantindo um ambiente de compilação consistente que assegura o empacotamento confiável de funções Lambda e implantações reproduzíveis. Testes automatizados são executados contra essas pilhas temporárias, e as mesclagens só ocorrem se todos os testes forem bem-sucedidos.

    Fluxo de trabalho do desenvolvedor nas fases de desenvolvimento local, controle de versão e implantação
    Imagem original — fonte: Aws

    As alterações que passam pela validação em ambientes efêmeros são promovidas para ambientes compartilhados (Desenvolvimento, QA e Produção) com portões de aprovação manual entre etapas. Essa estrutura mantém altos padrões de qualidade enquanto acelera o processo de entrega, permitindo que equipes implantem novas funcionalidades e melhorias com confiança.

    Impactos mensuráveis para as organizações

    Ao habilitar fluxos de trabalho de desenvolvimento paralelo, essa solução proporciona ganhos significativos em tempo e eficiência para equipes de IA conversacional. Avaliações internas mostram que equipes conseguem paralelizar grande parte do trabalho de desenvolvimento, gerando ganhos mensuráveis em produtividade. Os resultados variam conforme o tamanho da equipe, escopo do projeto e abordagem de implementação, mas algumas equipes relataram redução significativa nos ciclos de desenvolvimento.

    A aceleração permitiu que equipes entregassem funcionalidades em semanas em vez de meses, melhorando o tempo de chegada ao mercado. As economias de tempo liberam capacidade para que as equipes gerenciem maiores volumes de trabalho dentro dos mesmos ciclos de desenvolvimento, destinando recursos para inovação e aprimoramento da qualidade.

    Casos de sucesso práticos

    O pipeline CI/CD multidesenvolvedor para Amazon Lex apoiou equipes empresariais na melhoria de sua eficiência de desenvolvimento. Uma organização o utilizou para migrar sua plataforma para Amazon Lex, possibilitando colaboração de múltiplos desenvolvedores sem conflitos. Ambientes isolados e capacidades de mesclagem automatizada ajudaram a manter progresso consistente durante esforços de desenvolvimento complexos.

    Uma grande empresa adotou o pipeline como parte de sua estratégia de IA mais ampla. Ao usar funcionalidades de validação e colaboração dentro do processo de CI/CD, suas equipes aprimoraram coordenação e responsabilidade entre ambientes. Esses exemplos ilustram como fluxos de trabalho estruturados contribuem para maior eficiência, migrações mais suaves e redução de retrabalho.

    Começando com a implementação

    O pipeline CI/CD multidesenvolvedor para Amazon Lex está disponível como solução de código aberto através do repositório GitHub. Aplicam-se cobranças padrão de serviços AWS para os recursos implantados.

    Pré-requisitos

    Para seguir este guia, você precisará de:

    Componentes principais

    A framework consiste em vários componentes-chave que trabalham juntos para habilitar desenvolvimento colaborativo: infraestrutura como código com AWS CDK, a ferramenta CLI do Amazon Lex chamada lexcli e a configuração do pipeline CI/CD do GitLab.

    A solução usa AWS CDK para definir componentes de infraestrutura como código, incluindo:

    • Instâncias individuais do Amazon Lex para cada desenvolvedor
    • Funções Lambda para lógica de atendimento
    • Logging e monitoramento via Amazon CloudWatch
    • Buckets de Amazon Simple Storage Service (Amazon S3) para armazenamento de configurações

    Implante o ambiente de cada desenvolvedor usando:

    cdk deploy -c environment=your-username --outputs-file ./cdk-outputs.json

    Esse comando cria um ambiente completo e isolado que espelha a configuração compartilhada mas permite modificações independentes.

    A ferramenta lexcli exporta a configuração do assistente Amazon Lex do console para arquivos JSON sob controle de versão. Ao invocar lexcli export <environment>, ela:

    • Conecta ao seu assistente implantado usando a API Amazon Lex
    • Baixa a configuração completa do assistente como arquivo .zip
    • Extrai e padroniza identificadores para tornar configurações agnósticas de ambiente
    • Formata arquivos JSON para revisão durante solicitações de mesclagem
    • Oferece prompts interativos para exportação seletiva de intents e slots que sofreram alterações

    O arquivo .gitlab-ci.yml orquestra todo o fluxo de trabalho de desenvolvimento:

    • Criação de ambiente efêmero: Cria e destrói automaticamente um ambiente dinâmico temporário para cada solicitação de mesclagem
    • Testes automatizados: Executa testes abrangentes incluindo validação de intents, verificação de slots e benchmarks de desempenho
    • Portões de qualidade: Reforça linting de código e testes automatizados com cobertura mínima de 40%; requer aprovação manual para todas as implantações em ambientes
    • Promoção de ambientes: Habilita progressão controlada de implantações através de dev, staging e produção com aprovação manual em cada etapa

    Guia de implementação passo a passo

    A implementação segue cinco fases: preparação do repositório e GitLab, autenticação AWS, ambiente de desenvolvimento local, fluxo de trabalho de desenvolvimento e execução do pipeline CI/CD.

    Preparação do repositório e GitLab: Clone o repositório de exemplo e crie seu próprio projeto:

    git clone https://gitlab.aws.dev/lex/sample-lex-multi-developer-cicd.git
    cd sample-lex-multi-developer-cicd
    git remote remove origin
    git remote add origin <seu-repositorio>
    git push -u origin main

    Configure as variáveis de CI/CD do GitLab navegando até Configurações, depois CI/CD e Variáveis. Adicione os seguintes valores:

    • AWS_REGION: us-east-1
    • AWS_DEFAULT_REGION: us-east-1
    • Outras variáveis de segredos específicos de seu ambiente

    Configure regras de proteção de branch para proteger sua branch principal. A aplicação correta de fluxo de trabalho previne commits diretos em código de produção.

    Ambiente de desenvolvimento local: Para configurar seu ambiente local, complete as seguintes etapas:

    pip install -r requirements.txt
    cdk deploy -c environment=your-username --outputs-file ./cdk-outputs.json

    Isso cria sua instância de assistente isolada para modificações independentes.

    Fluxo de trabalho de desenvolvimento: Crie uma branch de funcionalidade:

    git checkout -b feature/your-feature-name

    Para fazer modificações ao assistente, acesse seu assistente pessoal no console do Amazon Lex, modifique intents, slots ou configurações conforme necessário, e teste suas alterações diretamente no console. Depois exporte as alterações para código:

    python lexcli.py export your-username

    A ferramenta oferecerá prompts interativos para que você selecione quais alterações exportar. Revise e confirme as alterações:

    git add .
    git commit -m "feat: add new intent for booking flow"
    git push origin feature/your-feature-name

    Execução do pipeline CI/CD: O pipeline executa as seguintes etapas: cria automaticamente um ambiente efêmero para sua branch, executa testes abrangentes contra suas alterações, permite que membros da equipe revisem tanto mudanças de código quanto resultados de testes, mescla após aprovação e implanta automaticamente no desenvolvimento, e utiliza portões de aprovação manual para controlar promoção a QA e produção.

    Próximos passos

    Após implementar este pipeline multidesenvolvedor, considere: expandir seus testes com suites mais abrangentes para validação de intents, aprimorar monitoramento integrando dashboards do Amazon CloudWatch para desempenho do assistente, e explorar IA híbrida combinando Amazon Lex com Amazon Bedrock para capacidades de IA generativa.

    Para mais informações sobre Amazon Lex, consulte o Guia do Desenvolvedor Amazon Lex.

    Conclusão

    A implementação de pipelines CI/CD multidesenvolvedor para Amazon Lex aborda desafios operacionais críticos no desenvolvimento de IA conversacional. Ao habilitar ambientes de desenvolvimento isolados, capacidades de testes locais e fluxos de trabalho de validação automatizados, as equipes conseguem trabalhar em paralelo sem comprometer qualidade, acelerando o tempo de chegada ao mercado para soluções complexas de IA conversacional.

    Você pode começar a implementar essa abordagem hoje mesmo usando o protótipo AWS CDK e a ferramenta CLI do Amazon Lex disponíveis no repositório GitHub. Para organizações que desejam aprimorar ainda mais suas capacidades de IA conversacional, considere explorar a integração do Amazon Lex com Amazon Bedrock para soluções híbridas que combinam gerenciamento de diálogo estruturado e modelos de linguagem de grande escala (LLMs).

    Para orientação na implementação, entre em contato com AWS Professional Services.

    Fonte

    Drive organizational growth with Amazon Lex multi-developer CI/CD pipeline (https://aws.amazon.com/blogs/machine-learning/drive-organizational-growth-with-amazon-lex-multi-developer-ci-cd-pipeline/)

  • Aprovação Multiparte da AWS agora Suporta Validação de Equipes

    O que é a Nova Capacidade de Validação

    A AWS anunciou uma importante adição ao recurso de Aprovação Multiparte (MPA — Multi-Party Approval): agora os administradores podem executar testes de aprovação para verificar se sua equipe está configurada corretamente. Essa funcionalidade permite que os responsáveis pela administração da MPA confirmem que os aprovadores estão ativos e acessíveis antes de depender desse fluxo para operações sensíveis.

    Por Que Isso Importa para Sua Organização

    Equipes de aprovação podem se tornar inativas por diversos motivos: rotatividade de pessoal, configurações incorretas de aprovadores ou simplesmente falta de engajamento. Sem uma forma de validar regularmente a saúde da equipe, sua organização corre o risco de descobrir problemas críticos apenas quando uma aprovação urgente é necessária — e aí é tarde demais.

    Com esse novo recurso, os administradores e equipes de segurança podem avaliar proativamente suas configurações de aprovação. Isso significa identificar problemas antes que eles impactem operações críticas.

    Recursos Principais da Validação

    A funcionalidade de validação base (baselining) oferece várias capacidades importantes:

    • Verificação manual de testes: Permite iniciar sessões de teste de aprovação diretamente pelo console do AWS Organizations
    • Validação de disponibilidade: Confirma que os aprovadores conseguem realmente responder quando necessário
    • Identificação de membros inativos: Detecta membros da equipe que não estão mais participando do fluxo
    • Conformidade interna: Ajuda a manter a equipe alinhada com os requisitos de governança interna

    Casos de Uso Recomendados

    A AWS recomenda usar a validação de equipes em três cenários principais:

    Verificação Regular de Responsividade

    A validação deve ser executada regularmente — a AWS recomenda a cada 90 dias — utilizando o Console de MPA. Esse ciclo garante que sua equipe de aprovação continue funcional e responsiva ao longo do tempo.

    Validação de Novas Configurações

    Quando você implementa uma nova configuração de aprovação, execute testes antes de colocá-la em produção. Isso reduz significativamente o risco de falhas quando aprovações reais forem necessárias.

    Verificações de Saúde Operacional

    Utilize a validação para garantir que os fluxos de aprovação funcionem conforme esperado em momentos críticos. Identificar problemas durante testes é muito mais seguro do que descobri-los durante uma operação sensível real.

    Disponibilidade

    Esse recurso está disponível em todas as regiões comerciais da AWS. Para aprender como implementar testes de validação em seus fluxos de aprovação multiparte, consulte a documentação de aprovação multiparte.

    Fonte

    Multi-party approval now supports approval team baselining (https://aws.amazon.com/about-aws/whats-new/2026/03/multi-party-approval-team-baselining/)

  • Elastic Beanstalk ganha análise de ambientes potenciada por IA

    Uma nova capacidade de diagnóstico automático

    A AWS anunciou uma adição significativa ao Elastic Beanstalk: um recurso de análise de ambientes potenciado por inteligência artificial. Esta funcionalidade foi desenvolvida especificamente para ajudar desenvolvedores e equipes de operações a identificarem rapidamente as causas raiz de problemas e obterem recomendações de soluções quando o ambiente enfenta questões de saúde.

    Como funciona a análise inteligente

    O processo é relativamente direto. Quando um ambiente do Elastic Beanstalk enfrenta problemas, o serviço coleta automaticamente eventos recentes, dados de saúde das instâncias e logs do ambiente. Estes dados são então encaminhados para o Amazon Bedrock para análise inteligente. O objetivo é fornecer recomendações de resolução de problemas personalizadas conforme o estado atual do seu ambiente, reduzindo significativamente o tempo necessário para resolver questões operacionais.

    Acessando a análise de IA

    A funcionalidade é acessível de duas maneiras principais. A primeira é através do console do Elastic Beanstalk: quando o status de saúde do seu ambiente apresenta os estados Warning (Aviso), Degraded (Degradado) ou Severe (Grave), você encontrará um botão de Análise de IA disponível. A segunda forma é programática, utilizando a Interface de Linha de Comando (CLI) da AWS e as operações de API RequestEnvironmentInfo e RetrieveEnvironmentInfo.

    Disponibilidade e recursos suportados

    O recurso de análise de ambiente potenciado por IA está disponível em todas as regiões da AWS onde tanto o Elastic Beanstalk quanto o Amazon Bedrock operam simultaneamente. A AWS fornece documentação detalhada sobre esta funcionalidade, incluindo uma lista completa das versões de plataforma suportadas, disponível em seu guia de desenvolvimento do Elastic Beanstalk.

    Para aprofundar seu conhecimento sobre o Elastic Beanstalk e todas as suas capacidades, consulte a página do produto dedicada ao serviço.

    Fonte

    AWS Elastic Beanstalk now offers AI-powered environment analysis (https://aws.amazon.com/about-aws/whats-new/2026/03/elastic-beanstalk-ai-analysis/)

  • AWS Shield amplia detecção de vulnerabilidades de rede com integração ao Security Hub

    Integração do AWS Shield Network Security Director com o Security Hub

    A AWS anunciou que os achados gerados pelo Network Security Director, que se encontrava em fase de prévia, agora estão disponíveis diretamente no AWS Security Hub. Esta integração representa um avanço significativo na forma como as organizações podem gerenciar e monitorar a segurança de suas redes na nuvem.

    O que é o Network Security Director

    O Network Security Director é um componente do AWS Shield que funciona como uma ferramenta de diagnóstico contínuo para infraestruturas de segurança de rede. Seu propósito principal é identificar quando serviços críticos de proteção estão ausentes ou mal configurados em toda uma organização AWS. Entre os serviços que monitora estão o AWS WAF (Firewall de Aplicações Web), Security Groups de VPC e Network Access Control Lists (ACLs de controle de acesso à rede).

    Capacidades de Análise e Recomendações

    Ao integrar-se ao Security Hub, o Network Security Director oferece uma análise contínua da rede distribuída entre múltiplas contas e unidades organizacionais. Além de identificar problemas, ele fornece recomendações de remediação baseadas nas melhores práticas da AWS. Os achados gerados aparecem agora na seção Inventory (Inventário) do console do Security Hub, facilitando a visualização centralizada.

    Um aspecto importante é como a severidade de cada achado é calculada. A AWS não utiliza apenas a misconfiguration (configuração incorreta) identificada como critério de gravidade. Ao contrário, leva em consideração a topologia de rede do recurso associado ao achado, oferecendo uma avaliação contextualizada e mais precisa dos riscos reais enfrentados pela organização.

    Benefícios para Organizações

    Esta integração simplifica o gerenciamento de segurança de rede ao centralizar os achados em uma única plataforma. Times de segurança podem identificar lacunas em sua postura de proteção sem necessidade de navegar entre múltiplas ferramentas. A abordagem contínua garante que novas misconfigurações ou desvios das melhores práticas sejam detectados rapidamente.

    Fonte

    AWS Shield network security director findings are now available in AWS Security Hub (https://aws.amazon.com/about-aws/whats-new/2026/03/network-security-director-findings/)

  • AWS completa auditoria anual de certificação do Dubai Electronic Security Centre (DESC) em 2026

    Renovação da Certificação DESC 2026

    A Amazon Web Services (AWS) concluiu com sucesso sua auditoria anual de certificação junto ao Dubai Electronic Security Centre (DESC) para continuar operando como provedor de serviços em nuvem (Provedor de Serviços em Nuvem – CSP) Tier 1 na região do Oriente Médio (EAU). Esta certificação reafirma o compromisso contínuo da plataforma em atender aos rigorosos requisitos de segurança e conformidade esperados de provedores de nuvem de alto nível.

    Para clientes governamentais que utilizam a AWS, esta certificação representa uma garantia importante: seus aplicativos podem ser executados com confiança em regiões de nuvem certificadas pelo DESC. A conformidade foi validada de forma independente pela BSI, uma auditoria terceirizada antes da emissão do certificado renovado pelo DESC. O certificado atualizado permanecerá válido por um ano, até 22 de janeiro de 2027.

    Ampliação do Escopo de Serviços Certificados

    Um destaque importante desta certificação é a expansão significativa de serviços incluídos no escopo de conformidade. A AWS adicionou dez novos serviços ao programa, aumentando de 98 para 108 o total de serviços certificados na região do Oriente Médio (EAU) — um crescimento de 10%.

    Os serviços recém-adicionados ao escopo de certificação DESC incluem:

    Acesso à Documentação de Conformidade

    A certificação renovada está disponível através do AWS Artifact, um portal de autoatendimento que fornece acesso sob demanda a relatórios de conformidade da AWS. Usuários podem acessar o AWS Artifact no Console de Gerenciamento da AWS ou consultar a documentação sobre como começar com o AWS Artifact para obter mais detalhes sobre seu funcionamento.

    Estratégia de Expansão Contínua

    Esta expansão reflete a estratégia da AWS de incorporar continuamente novos serviços ao escopo de seus programas de conformidade. O objetivo é ajudar clientes a atender suas necessidades arquiteturais e regulatórias específicas, especialmente em regiões com requisitos rigorosos de segurança.

    Organizações interessadas podem consultar a página de serviços no escopo de conformidade para visualizar a lista completa de serviços certificados. Clientes com dúvidas sobre conformidade DESC podem entrar em contato com sua equipe de conta AWS ou utilizar os canais de suporte disponibilizados.

    Para aprofundar o entendimento sobre todos os programas de conformidade da AWS, consulte a página Programas de Conformidade da AWS. A plataforma permanece aberta a feedback e questões através da página de contato dedicada à conformidade.

    Fonte

    AWS completes the 2026 annual Dubai Electronic Security Centre (DESC) certification audit (https://aws.amazon.com/blogs/security/aws-completes-the-2026-annual-dubai-electronic-security-centre-desc-certification-audit/)

  • Criando Parsers Personalizados para Agents Strands com LLMs no SageMaker AI

    Integrando LLMs Customizados com Strands Agents

    Organizações que adotam modelos de linguagem de grande escala (LLMs) cada vez mais optam por implantá-los em endpoints de tempo real do SageMaker AI, utilizando frameworks de serving de sua preferência como SGLang, vLLM ou TorchServe. Essa abordagem oferece controle mais granular sobre as implantações, oportunidades de otimização de custos e alinhamento com requisitos de conformidade regulatória.

    Contudo, essa flexibilidade introduz um desafio técnico significativo: esses frameworks de serving customizados tipicamente retornam respostas em formatos compatíveis com OpenAI para facilitar suporte amplo em diferentes ambientes. Já o Strands Agents, por sua vez, espera que as respostas dos modelos estejam alinhadas com o formato da Bedrock Messages API. Essa desconexão entre o formato de saída do servidor de modelos e o que Strands espera criar uma lacuna que impede integração perfeita, mesmo quando ambos os sistemas estão tecnicamente funcionais.

    Desde dezembro de 2025, o mecanismo de inferência distribuído Amazon Bedrock Mantle passou a oferecer suporte a formatos de mensagem compatíveis com OpenAI. No entanto, essa compatibilidade não é garantida para todos os modelos hospedados em endpoints de tempo real do SageMaker AI. A plataforma permite hospedar diversos modelos que podem exigir formatos específicos de prompt e resposta que não se conformam aos padrões de API conhecidos.

    A Solução: Parsers Personalizados

    O caminho para resolver essa incompatibilidade é implementar parsers de modelos personalizados que estendem a classe SageMakerAIModel e traduzem o formato de resposta do servidor de modelos para o que Strands espera. Dessa forma, organizações conseguem aproveitar seus frameworks de serving preferidos sem sacrificar a compatibilidade com o SDK do Strands Agents.

    Este artigo demonstra como construir parsers personalizados para Strands agents ao trabalhar com LLMs hospedados no SageMaker que não suportam nativamente o formato da Bedrock Messages API. O exemplo prático envolve implantar Llama 3.1 com SGLang no SageMaker utilizando o gerador de projetos de containers ml-container-creator, seguido pela implementação de um parser customizado para integração com Strands agents.

    Por que o Erro Ocorre

    Quando você implanta modelos usando frameworks de serving customizados como SGLang, vLLM ou TorchServe, eles retornam respostas em seus próprios formatos, frequentemente compatíveis com OpenAI para suporte amplo. Sem um parser personalizado, você encontrará erros como:

    TypeError: 'NoneType' object is not subscriptable

    Isso acontece porque a classe padrão SageMakerAIModel do Strands Agents tenta fazer parsing de respostas assumindo uma estrutura específica que seu endpoint customizado não fornece.

    Arquitetura da Implementação

    A implementação se organiza em três camadas distintas:

    • Camada de Implantação de Modelo: Llama 3.1 sendo servido pelo SGLang no SageMaker, retornando respostas compatíveis com OpenAI
    • Camada de Parser: Classe LlamaModelProvider personalizada que estende SageMakerAIModel para processar o formato de resposta do Llama 3.1
    • Camada de Agent: Agent Strands que utiliza o provider customizado para IA conversacional, fazendo o parsing apropriado da resposta do modelo

    Preparando o Ambiente

    Instalando ml-container-creator

    O primeiro passo envolve construir o container de serving para o modelo. Utiliza-se um projeto open-source que automatiza a criação do container e gera scripts de deployment. O ml-container-creator, um gerador Yeoman de código aberto mantido pela AWS Labs, automatiza a criação de projetos de deployment BYOC (Bring Your Own Container) para o SageMaker. Ele gera os artefatos necessários para construir containers de serving de LLM, incluindo Dockerfiles, configurações CodeBuild e scripts de deployment.

    Para instalar, execute:

    # Instalar Yeoman globalmente
    npm install -g yo
    
    # Clonar e instalar ml-container-creator
    git clone https://github.com/awslabs/ml-container-creator
    cd ml-container-creator
    npm install && npm link
    
    # Verificar instalação
    yo --generators
    # Deve mostrar ml-container-creator

    Gerando o Projeto de Deployment

    Uma vez instalado e vinculado, o comando yo ml-container-creator permite executar o gerador necessário para este exercício:

    # Executar o gerador
    yo ml-container-creator
    
    # Opções de configuração:
    # - Framework: transformers
    # - Model Server: sglang
    # - Model: meta-llama/Llama-3.1-8B-Instruct
    # - Deploy Target: codebuild
    # - Instance Type: ml.g6.12xlarge (GPU)
    # - Region: us-east-1

    O gerador cria uma estrutura de projeto completa:

    <project-directory>/
    ├── Dockerfile # Container com SGLang e dependências
    ├── buildspec.yml # Configuração CodeBuild
    ├── code/
    │   └── serve # Script de inicialização do servidor SGLang
    ├── deploy/
    │   ├── submit_build.sh # Dispara CodeBuild
    │   └── deploy.sh # Faz deploy no SageMaker
    └── test/
        └── test_endpoint.sh # Script de teste do endpoint

    Compilação e Implantação

    Projetos criados pelo ml-container-creator incluem scripts de build e deployment templatizados. Os scripts ./deploy/submit_build.sh e ./deploy/deploy.sh são utilizados para construir a imagem, fazer push para Amazon Elastic Container Registry (ECR) e fazer deploy em um endpoint de tempo real do SageMaker AI.

    cd llama-31-deployment
    
    # Compilar container com CodeBuild (Docker local não necessário)
    ./deploy/submit_build.sh
    
    # Fazer deploy no SageMaker
    ./deploy/deploy.sh arn:aws:iam::ACCOUNT:role/SageMakerExecutionRole

    O processo de implantação funciona da seguinte forma:

    • CodeBuild constrói a imagem Docker com SGLang e Llama 3.1
    • A imagem é enviada para Amazon ECR
    • SageMaker cria um endpoint de tempo real
    • SGLang baixa o modelo do HuggingFace e o carrega na memória da GPU
    • O endpoint atinge o status InService (aproximadamente 10-15 minutos)

    Você pode testar o endpoint usando ./test/test_endpoint.sh ou com uma invocação direta:

    import boto3
    import json
    
    runtime_client = boto3.client('sagemaker-runtime', region_name='us-east-1')
    
    payload = {
        "messages": [
            {"role": "user", "content": "Hello, how are you?"}
        ],
        "max_tokens": 100,
        "temperature": 0.7
    }
    
    response = runtime_client.invoke_endpoint(
        EndpointName='llama-31-deployment-endpoint',
        ContentType='application/json',
        Body=json.dumps(payload)
    )
    
    result = json.loads(response['Body'].read().decode('utf-8'))
    print(result['choices'][0]['message']['content'])

    Compreendendo o Formato de Resposta

    O Llama 3.1 retorna respostas compatíveis com o padrão OpenAI. O Strands, por sua vez, espera que as respostas dos modelos sigam o formato da Bedrock Messages API. Até recentemente, essa era uma desconexão padrão de compatibilidade. Desde dezembro de 2025, o mecanismo de inferência distribuído Amazon Bedrock Mantle passou a oferecer suporte a formatos de mensagem OpenAI.

    Uma resposta típica do Llama 3.1 em formato OpenAI se parece assim:

    {
      "id": "cmpl-abc123",
      "object": "chat.completion",
      "created": 1704067200,
      "model": "meta-llama/Llama-3.1-8B-Instruct",
      "choices": [{
        "index": 0,
        "message": {
          "role": "assistant",
          "content": "I'm doing well, thank you for asking!"
        },
        "finish_reason": "stop"
      }],
      "usage": {
        "prompt_tokens": 23,
        "completion_tokens": 12,
        "total_tokens": 35
      }
    }

    Porém, o suporte ao formato da Messages API não é garantido para todos os modelos hospedados em endpoints de tempo real do SageMaker AI. A plataforma permite hospedar diversos tipos de modelos base em infraestrutura gerenciada com aceleração por GPU, alguns dos quais podem exigir formatos esotéricos de prompt e resposta que não se conformam a APIs padrão. Por exemplo, a classe SageMakerAIModel padrão utiliza o formato legado da Bedrock Messages API e tenta acessar campos que não existem no formato OpenAI Messages padrão, causando falhas do tipo TypeError.

    Implementando um Parser Personalizado

    Parsers de modelos personalizados são um recurso da SDK do Strands Agents que oferece forte compatibilidade e flexibilidade para clientes que constroem agents alimentados por LLMs hospedados no SageMaker AI. A criação de um provider customizado que estende SageMakerAIModel segue este padrão:

    def stream(self, messages: List[Dict[str, Any]], tool_specs: list, system_prompt: Optional[str], **kwargs):
        # Construir mensagens de payload
        payload_messages = []
        if system_prompt:
            payload_messages.append({"role": "system", "content": system_prompt})
        
        # Extrair conteúdo de mensagem do formato Strands
        for msg in messages:
            payload_messages.append({"role": "user", "content": msg['content'][0]['text']})
        
        # Construir payload completo com streaming habilitado
        payload = {
            "messages": payload_messages,
            "max_tokens": kwargs.get('max_tokens', self.max_tokens),
            "temperature": kwargs.get('temperature', self.temperature),
            "top_p": kwargs.get('top_p', self.top_p),
            "stream": True
        }
        
        try:
            # Invocar endpoint SageMaker com streaming
            response = self.runtime_client.invoke_endpoint_with_response_stream(
                EndpointName=self.endpoint_name,
                ContentType='application/json',
                Accept='application/json',
                Body=json.dumps(payload)
            )
            
            # Processar resposta de streaming
            accumulated_content = ""
            for event in response['Body']:
                chunk = event['PayloadPart']['Bytes'].decode('utf-8')
                if not chunk.strip():
                    continue
                
                # Parse de formato SSE: "data: {json}\n"
                for line in chunk.split('\n'):
                    if line.startswith('data: '):
                        try:
                            json_str = line.replace('data: ', '').strip()
                            if not json_str:
                                continue
                            chunk_data = json.loads(json_str)
                            
                            if 'choices' in chunk_data and chunk_data['choices']:
                                delta = chunk_data['choices'][0].get('delta', {})
                                
                                # Renderizar delta de conteúdo em formato Strands
                                if 'content' in delta:
                                    content_chunk = delta['content']
                                    accumulated_content += content_chunk
                                    yield {
                                        "type": "contentBlockDelta",
                                        "delta": {"text": content_chunk},
                                        "contentBlockIndex": 0
                                    }
                                
                                # Verificar conclusão
                                finish_reason = chunk_data['choices'][0].get('finish_reason')
                                if finish_reason:
                                    yield {
                                        "type": "messageStop",
                                        "stopReason": finish_reason
                                    }
                            
                            # Renderizar metadados de uso
                            if 'usage' in chunk_data:
                                yield {
                                    "type": "metadata",
                                    "usage": chunk_data['usage']
                                }
                        except json.JSONDecodeError:
                            continue
        except Exception as e:
            yield {
                "type": "error",
                "error": {
                    "message": f"Endpoint invocation failed: {str(e)}",
                    "type": "EndpointInvocationError"
                }
            }

    O método stream substitui o comportamento padrão de SageMakerAIModel e permite que o agent faça parsing de respostas conforme os requisitos do modelo subjacente. Embora a maioria dos modelos suporte o protocolo OpenAI Messages API, esse recurso permite que usuários avançados aproveitem LLMs altamente especializados no SageMaker AI para alimentar workloads de agents utilizando a SDK do Strands Agents.

    Inicializando Agents com Providers Personalizados

    Uma vez que a lógica personalizada de resposta do modelo é construída, a SDK do Strands Agents simplifica a inicialização de agents com providers de modelos customizados:

    from strands.agent import Agent
    
    # Inicializar provider customizado
    provider = LlamaModelProvider(
        endpoint_name="llama-31-deployment-endpoint",
        region_name="us-east-1",
        max_tokens=1000,
        temperature=0.7
    )
    
    # Criar agent com provider customizado
    agent = Agent(
        name="llama-assistant",
        model=provider,
        system_prompt=(
            "You are a helpful AI assistant powered by Llama 3.1, "
            "deployed on Amazon SageMaker. You provide clear, accurate, "
            "and friendly responses to user questions."
        )
    )
    
    # Testar o agent
    response = agent("What are the key benefits of deploying LLMs on SageMaker?")
    print(response.content)

    Recursos Disponíveis

    A implementação completa deste parser customizado, incluindo um notebook Jupyter com explicações detalhadas e o projeto de deployment gerado pelo ml-container-creator, está disponível no repositório GitHub acompanhador.

    Considerações Finais

    Construir parsers de modelos personalizados para Strands agents oferece aos usuários a oportunidade de aproveitar diferentes deployments de LLM no SageMaker, independentemente do formato de resposta que o modelo retorna. Ao estender SageMakerAIModel e implementar o método stream(), é possível integrar modelos hospedados customizadamente enquanto se mantém a interface limpa do agent oferecida pelo Strands.

    Os principais aprendizados deste artigo são:

    • O ml-container-creator simplifica deployments SageMaker BYOC com código de infraestrutura pronto para produção
    • Parsers personalizados preenchem a lacuna entre os formatos de resposta do servidor de modelos e as expectativas do Strands
    • O método stream() é o ponto crítico de integração para providers customizados

    Fonte

    Building custom model provider for Strands Agents with LLMs hosted on SageMaker AI endpoints (https://aws.amazon.com/blogs/machine-learning/building-custom-model-provider-for-strands-agents-with-llms-hosted-on-sagemaker-ai-endpoints/)

  • Amazon SageMaker HyperPod agora oferece observabilidade completa para Grupos de Instâncias Restritas

    Observabilidade Integrada para Treinamento em Escala

    A AWS anunciou uma expansão significativa no Amazon SageMaker HyperPod: agora o serviço oferece observabilidade abrangente para Grupos de Instâncias Restritas (RIG — Restricted Instance Groups). Este é um avanço importante para equipes que trabalham com treinamento de modelos foundation utilizando Nova Forge, pois elimina a necessidade de coletar e correlacionar manualmente métricas distribuídas pela infraestrutura.

    Visão Unificada da Infraestrutura

    O grande benefício desta capacidade é a consolidação de informações de diferentes camadas técnicas em um único ponto de observação. Através de um painel do Amazon Managed Grafana pré-configurado e alimentado pelo Amazon Managed Service for Prometheus, os profissionais conseguem acompanhar simultaneamente:

    • Utilização de GPU
    • Largura de banda NVLink
    • Pressão de CPU
    • Uso de FSx for Lustre
    • Ciclo de vida dos pods (pod lifecycle)

    Coleta Estruturada de Métricas e Logs

    A arquitetura de monitoramento funciona através de quatro coletores especializados (exporters), cada um responsável por diferentes aspectos da infraestrutura: desempenho de GPU, saúde do sistema em nível de hospedeiro, fabric de rede e estado dos objetos Kubernetes.

    Além das métricas, o sistema disponibiliza logs curados automaticamente nos painéis, incluindo progresso de época, logs em nível de passo de treinamento, erros de pipeline e stack traces de Python. Esta abordagem acelera significativamente o diagnóstico quando falhas ocorrem durante o treinamento.

    Ativação Simples e Intuitiva

    A configuração da observabilidade foi desenhada para ser prática. O recurso é ativado automaticamente sempre que um novo cluster é criado utilizando RIGs. Para clusters já existentes, a ativação requer apenas alguns cliques no console de gerenciamento de clusters do HyperPod.

    Disponibilidade e Próximos Passos

    A observabilidade para Grupos de Instâncias Restritas está disponível em todas as regiões AWS onde o SageMaker HyperPod RIG é suportado. Para aprofundar-se nos detalhes técnicos e começar a usar este recurso, a AWS disponibiliza documentação completa sobre a implementação.

    Fonte

    Amazon SageMaker HyperPod now provides comprehensive observability for Restricted Instance Groups (https://aws.amazon.com/about-aws/whats-new/2026/03/amazon-sagemaker-hyperpod-observability-rig/)

  • Amazon Lightsail agora oferece OpenClaw, um assistente de IA privado e auto-hospedado

    Uma nova opção de assistente de IA privado no Lightsail

    A AWS anunciou a disponibilidade do OpenClaw no Amazon Lightsail, expandindo as opções para quem busca uma solução de assistente de inteligência artificial (IA) privada e auto-hospedada. Este recurso permite que desenvolvedores e empresas brasileiras implantem o OpenClaw diretamente em sua infraestrutura em nuvem de forma simples e segura, sem depender de plataformas públicas ou modelos em nuvem compartilhada.

    Recursos de segurança integrados e pré-configurados

    O grande diferencial do OpenClaw no Lightsail é a segurança fornecida pronta para uso. Cada instância do OpenClaw vem com controles de segurança construídos e já pré-configurados, eliminando a necessidade de ajustes técnicos complexos. A plataforma utiliza sandboxing para isolar cada sessão de agente, aumentando significativamente a postura de segurança da implementação.

    O acesso ao painel do OpenClaw ocorre através de HTTPS (Protocolo Seguro de Transferência de Hipertexto) com um clique, trazendo o dashboard diretamente no navegador sem exigir configuração manual de Certificados TLS (Transport Layer Security). Além disso, a autenticação por pareamento de dispositivos garante que apenas os dispositivos autorizados consigam se conectar ao assistente de IA.

    As configurações são protegidas através de snapshots automáticos contínuos, garantindo que a instalação nunca seja perdida e possa ser recuperada quando necessário.

    Flexibilidade no uso de modelos e integrações

    O Amazon Bedrock funciona como o provedor de modelo padrão para o Lightsail OpenClaw, mas a AWS permite que usuários alternem entre diferentes modelos conforme suas necessidades evoluem. A plataforma também oferece conectividade com aplicativos de mensageria populares, permitindo integração com Slack, Telegram, WhatsApp e Discord, ampliando as formas de interagir com o assistente.

    Disponibilidade e próximos passos

    O Amazon Lightsail está disponível em 15 regiões da AWS ao redor do mundo, incluindo US East (N. Virginia), US West (Oregon), Europe (Frankfurt), Europe (London), Asia Pacific (Tokyo) e Asia Pacific (Jakarta). Essa cobertura geográfica ampla facilita a implantação localizada, importante para reduzir latência e atender requisitos de residência de dados.

    Para começar, usuários podem acessar o console do Lightsail. Detalhes sobre preços do Amazon Lightsail e mais informações técnicas estão disponíveis na documentação de início rápido.

    Fonte

    Amazon Lightsail now offers OpenClaw, a private self-hosted AI assistant (https://aws.amazon.com/about-aws/whats-new/2026/03/amazon-lightsail-openclaw/)

  • Integrando agentes de chat da Amazon Quick Suite em aplicações empresariais

    O desafio da inteligência artificial conversacional em ambientes empresariais

    As organizações enfrentam dois obstáculos significativos ao implementar IA conversacional. Primeiro, os usuários precisam acessar respostas inteligentes no contexto onde trabalham — dentro do seu sistema de CRM, console de suporte ou portal de análise — sem precisar alternar entre diferentes plataformas. Segundo, construir uma solução de chat embarcada de forma segura frequentemente demanda semanas de desenvolvimento, envolvendo autenticação, validação de tokens, segurança de domínio e infraestrutura global de distribuição.

    A Amazon Quick Suite oferece um chat embarcado que endereça o primeiro desafio trazendo IA conversacional diretamente para dentro das aplicações empresariais. Dessa forma, usuários conseguem consultar dados estruturados, pesquisar documentos e executar ações sem abandonar a ferramenta em que já trabalham. Este artigo explora como resolver o segundo desafio — segurança e implantação — através de uma solução de implantação com um clique, utilizando o Embedding SDK para integrar agentes de chat em portais corporativos.

    Visão geral da solução arquitetônica

    A solução constrói um portal web seguro para o chat embarcado, combinando vários serviços da AWS em uma arquitetura bem definida. O Amazon CloudFront gerencia a distribuição global de conteúdo, Amazon Cognito orquestra autenticação via OAuth 2.0, Amazon API Gateway expõe endpoints REST, AWS Lambda processa as requisições sem servidor, e OpenID Connect (OIDC) integra identidades com a Quick Suite.

    Arquitetura de defesa em profundidade

    A segurança é implementada em múltiplas camadas de proteção. O DDoS (Proteção contra Ataques de Negação de Serviço) atua no CloudFront, um bucket privado do Amazon Simple Storage Service (S3) com controle de acesso de origem previne acesso direto aos assets do frontend, o AWS WAF (Firewall de Aplicação Web) implementa rate limiting no API Gateway, e JSON Web Token (JWT) valida assinaturas criptográficas usando chaves públicas do Amazon Cognito antes de gerar URLs de embed temporárias e específicas por usuário, com permissões de privilégio mínimo via AWS Identity and Access Management (IAM).

    Fluxo de autenticação e autorização

    O processo começa quando usuários acessam a URL do portal web, que é roteada através do CloudFront. O CloudFront usa controle de acesso de origem para buscar arquivos HTML, CSS e JavaScript de um bucket S3 privado. A aplicação web verifica a validade do token de autenticação e redireciona usuários não autenticados para a interface de login do Amazon Cognito com OAuth 2.0.

    Após inserir credenciais, o Amazon Cognito valida as informações e redireciona de volta para a URL do CloudFront com um código de autorização de uso único. A aplicação extrai esse código e faz uma chamada HTTPS para o API Gateway, que passa pelo filtro de rate limiting do AWS WAF. O API Gateway invoca uma função Lambda com o código de autorização.

    A função Lambda faz uma chamada servidor-a-servidor ao endpoint OAuth do Amazon Cognito, trocando o código de autorização por tokens JWT (token de ID, token de acesso, token de atualização). A função valida a assinatura criptográfica do token de ID usando o JSON Web Key Set (JWKS) do Amazon Cognito, com caching thread-safe.

    Obtenção de credenciais temporárias e validação de usuário

    A função Lambda invoca o AWS Security Token Service (STS) através da API AssumeRoleWithWebIdentity, usando o token de ID verificado para assumir um papel IAM de identidade web e receber credenciais temporárias da AWS.

    Com essas credenciais, a função consulta a API ListUsers da Quick Suite para confirmar que o usuário existe, e então chama a API GenerateEmbedUrlForRegisteredUser para gerar uma URL de embed segura com restrições de domínio.

    A função retorna a URL de embed em uma resposta JSON com headers de compartilhamento de recursos entre origens (CORS) através do API Gateway para o CloudFront. A aplicação CloudFront utiliza o Quick Suite Embedding SDK para criar um contexto de embedding e renderizar a interface de chat em um iframe HTML com comunicação segura entre origens.

    Pré-requisitos para implementação

    A solução requer uma conta AWS, uma assinatura Quick Suite com método de autenticação baseado em senha ou Single-Sign On, o AWS CDK CLI, o AWS SDK para Python (Boto3), um perfil AWS CLI com permissões apropriadas (incluindo listagem de namespaces Quick Suite, criação de papéis IAM e recursos AWS como distribuição CloudFront, bucket S3, API Gateway REST, AWS WAF Web ACL e função Lambda), Node.js 20+, jq 1.7+, e Docker Desktop em execução.

    Implantação da infraestrutura serverless

    Para implantar a infraestrutura usando AWS CDK, comece clonando o repositório GitHub:

    git clone git@github.com:aws-samples/sample-quicksuite-chat-embedding.git
    cd sample-quicksuite-chat-embedding

    Em seguida, execute o script de configuração:

    ./setup.sh

    Você será solicitado a informar seu código de região AWS, o ID da stack do AWS CloudFormation, o título do portal, e seu perfil AWS CLI.

    Provisionamento de usuários

    Após a infraestrutura estar implantada, crie um usuário no Amazon Cognito:

    python scripts/create_cognito_user.py --profile  

    Em seguida, crie um usuário federado na Quick Suite:

    python scripts/create_quicksuite_user.py --profile  

    Para compartilhar agentes de chat, acesse o console Quick Suite com credenciais de função Author Pro, navegue até Chat agents, selecione os agentes desejados e escolha Share. Pesquise pelo nome de usuário criado anteriormente e confirme o compartilhamento. Lembre-se de que cada recurso vinculado ao agente também precisa ser compartilhado separadamente para garantir funcionalidade completa.

    Acesso e utilização do portal

    Procure pela senha temporária no email de verificação do Amazon Cognito. Acesse a URL do CloudFront usando o ID de usuário e a senha temporária fornecida. Na primeira autenticação, você será solicitado a alterar sua senha. Após o login bem-sucedido, selecione a região para conectar aos agentes de chat personalizados da Quick Suite. Para visualizar os agentes compartilhados, escolha Shared with me no filtro e inicie uma conversa com o agente desejado.

    Limpeza de recursos

    Para remover os recursos implantados e evitar custos contínuos, execute:

    ./cleanup.sh

    Considerações finais

    Essa solução aborda os desafios centrais da integração de IA conversacional em escala: autenticação segura para milhares de usuários simultâneos em diferentes localizações geográficas, manutenção de segurança de nível empresarial com trilhas de auditoria abrangentes, e simplificação da implantação através do provisionamento automatizado de infraestrutura. O portal pode ser personalizado quanto à marca, as políticas de segurança ajustadas, e integrado com provedores de identidade existentes. A solução escala automaticamente para milhares de usuários simultâneos mantendo modelo de pagamento conforme você usa.

    Para experimentar essa solução, clone o repositório GitHub e implante a infraestrutura completa com um clique para integrar agentes de chat Quick Suite em suas aplicações empresariais.

    Fonte

    Embed Amazon Quick Suite chat agents in enterprise applications (https://aws.amazon.com/blogs/machine-learning/embed-amazon-quick-suite-chat-agents-in-enterprise-applications/)