Blog

  • Mensagens de Erro de Acesso Negado Aprimoradas com ARNs de Políticas

    O Que Mudou na AWS

    A AWS aprimorou significativamente as mensagens de erro de acesso negado ao incluir o Amazon Resource Name (ARN) da política que está causando a negação. Essa inovação complementa uma melhoria anterior de 2021 que já identificava o tipo de política envolvida. Agora, a plataforma vai além: fornece a identificação precisa da política responsável pela restrição.

    É importante notar que o ARN da política é fornecido apenas em cenários envolvendo a mesma conta AWS ou a mesma organização. A funcionalidade está sendo distribuída gradualmente em todos os serviços AWS em todas as regiões.

    Quais Políticas Recebem essa Melhoria?

    A atualização abrange AWS Identity and Access Management (IAM) e AWS Organizations, cobrindo os seguintes tipos de políticas:

    • Políticas de Controle de Serviço (SCPs — Service Control Policies)
    • Políticas de Controle de Recursos (RCPs — Resource Control Policies)
    • Políticas de Limite de Permissões (Permissions Boundaries)
    • Políticas de Sessão (Session Policies)
    • Políticas Baseadas em Identidade (Identity-Based Policies)

    Comparação: Antes e Depois

    Para ilustrar a diferença prática, considere um desenvolvedor tentando executar a ação ListRoles no IAM, mas sendo bloqueado por uma SCP:

    Mensagem Anterior

    An error occurred (AccessDenied) when calling the ListRoles operation: User: arn:aws:iam::123456789012:user/Matt is not authorized to perform: iam:ListRoles on resource: arn:aws:iam::123456789012:role/* with an explicit deny in a service control policy

    Mensagem Aprimorada

    An error occurred (AccessDenied) when calling the ListRoles operation: User: arn:aws:iam::123456789012:user/Matt is not authorized to perform: iam:ListRoles on resource: arn:aws:iam::123456789012:role/* with an explicit deny in a service control policy: arn:aws:organizations::987654321098:policy/o-qv5af4abcd/service_control_policy/p-2kgnabcd

    Note a diferença fundamental: a mensagem aprimorada inclui o ARN completo da política — arn:aws:organizations::987654321098:policy/o-qv5af4abcd/service_control_policy/p-2kgnabcd — eliminando a necessidade de investigar todas as políticas do mesmo tipo.

    Os Princípios por Trás da Melhoria

    A AWS estruturou essa funcionalidade com três pilares principais:

    1. Escopo Limitado para Segurança

    Os ARNs das políticas aparecem apenas quando a solicitação origina-se da mesma conta ou da mesma organização que a política. Essa limitação reduz o fluxo de informações sensíveis.

    2. Informação Contextual Sem Exposição de Detalhes

    A mensagem fornece apenas o ARN da política — um identificador de recurso — e não o conteúdo completo do documento de política. Isso significa que as permissões específicas e condições não são reveladas. Usuários ainda precisam de permissões apropriadas para acessar o conteúdo real da política ou tomar ações corretivas.

    3. Lógica de Autorização Inalterada

    Essa melhoria afeta exclusivamente a mensagem de erro exibida. A lógica de tomada de decisão sobre autorização permanece a mesma — as mesmas políticas continuam negando ou permitindo acesso da forma anterior.

    Benefícios Práticos para Organizações

    Resolução Mais Rápida de Problemas

    Anteriormente, ao receber um erro de acesso negado originário de uma SCP, era necessário revisar todas as SCPs da organização, determinar quais se aplicavam à conta e avaliar cada uma — um processo demorado. Com o ARN específico incluído na mensagem, qualquer pessoa com permissão adequada pode acessar a política identificada e resolver o problema em minutos.

    Redução da Carga Investigativa

    A precisão do diagnóstico elimina investigações desnecessárias, economizando tempo de administradores e desenvolvedores.

    Comunicação Melhorada Entre Equipes

    Mensagens claras com ARNs da política oferecem um ponto de referência comum, eliminando ambiguidades e reduzindo trocas de mensagens entre equipes de desenvolvimento e operações.

    Validação Rápida de Controles de Segurança

    Ao validar controles de segurança, o ARN na mensagem de erro fornece confirmação imediata de qual política está aplicando a restrição, permitindo que clientes verifiquem rapidamente se suas políticas estão funcionando conforme esperado.

    Um Exemplo Prático: Diagnóstico em Ação

    Imagine um cenário em que você tenta descrever snapshots do Amazon Relational Database Service (Amazon RDS) na região us-east-2:

    aws rds describe-db-snapshots --region us-east-2

    Você recebe um erro de acesso negado com a seguinte mensagem:

    An error occurred (AccessDenied) when calling the DescribeDBSnapshots operation: User: arn:aws:sts::123456789012:assumed-role/ReadOnly/ReadOnlySession is not authorized to perform: rds:DescribeDBSnapshots on resource: arn:aws:rds:us-east-2:123456789012:snapshot:* with an explicit deny in a service control policy: arn:aws:organizations::987654321098:policy/o-qv5af4abcd/service_control_policy/p-lvi9abcd

    O Que Essa Mensagem Nos Diz

    • Tipo de negação: É uma negação explícita — não é simplesmente a ausência de permissão, mas uma política que nega ativa e intencionalmente a ação.
    • Origem da negação: A restrição vem da SCP com o ARN específico: arn:aws:organizations::987654321098:policy/o-qv5af4abcd/service_control_policy/p-lvi9abcd

    Passos para Resolução

    Passo 1: Verifique se você tem permissão para visualizar a SCP. Se não tiver, contate o administrador e forneça a mensagem que inclui o ARN da política.

    Passo 2: Se tiver as permissões necessárias, acesse a SCP através do Console de Gerenciamento AWS para AWS Organizations.

    Passo 3: Procure por uma instrução Deny (negação) para a ação específica. No exemplo, a ação é rds:DescribeDBSnapshots.

    Passo 4: Modifique a instrução para remover a Deny se ela não for mais aplicável. Para mais informações, consulte Atualizar uma política de controle de serviço (SCP).

    Passo 5: Tente novamente a operação. Se continuar recebendo erros de acesso negado por razões ou políticas diferentes, repita o processo de diagnóstico.

    Quando Essa Funcionalidade Estará Disponível

    A atualização está sendo distribuída gradualmente em todos os serviços AWS em todas as regiões, com início previsto para o início de 2026.

    Suporte e Assistência

    Caso tenha dúvidas ou enfrente problemas relacionados a essa funcionalidade, entre em contato com AWS Support ou seu Technical Account Manager (TAM).

    Fonte

    Enhanced access denied error messages with policy ARNs (https://aws.amazon.com/blogs/security/enhanced-access-denied-error-messages-with-policy-arns/)

  • Amazon Lightsail agora oferece OpenClaw, um assistente de IA privado e auto-hospedado

    Uma nova opção de assistente de IA privado no Lightsail

    A AWS anunciou a disponibilidade do OpenClaw no Amazon Lightsail, expandindo as opções para quem busca uma solução de assistente de inteligência artificial (IA) privada e auto-hospedada. Este recurso permite que desenvolvedores e empresas brasileiras implantem o OpenClaw diretamente em sua infraestrutura em nuvem de forma simples e segura, sem depender de plataformas públicas ou modelos em nuvem compartilhada.

    Recursos de segurança integrados e pré-configurados

    O grande diferencial do OpenClaw no Lightsail é a segurança fornecida pronta para uso. Cada instância do OpenClaw vem com controles de segurança construídos e já pré-configurados, eliminando a necessidade de ajustes técnicos complexos. A plataforma utiliza sandboxing para isolar cada sessão de agente, aumentando significativamente a postura de segurança da implementação.

    O acesso ao painel do OpenClaw ocorre através de HTTPS (Protocolo Seguro de Transferência de Hipertexto) com um clique, trazendo o dashboard diretamente no navegador sem exigir configuração manual de Certificados TLS (Transport Layer Security). Além disso, a autenticação por pareamento de dispositivos garante que apenas os dispositivos autorizados consigam se conectar ao assistente de IA.

    As configurações são protegidas através de snapshots automáticos contínuos, garantindo que a instalação nunca seja perdida e possa ser recuperada quando necessário.

    Flexibilidade no uso de modelos e integrações

    O Amazon Bedrock funciona como o provedor de modelo padrão para o Lightsail OpenClaw, mas a AWS permite que usuários alternem entre diferentes modelos conforme suas necessidades evoluem. A plataforma também oferece conectividade com aplicativos de mensageria populares, permitindo integração com Slack, Telegram, WhatsApp e Discord, ampliando as formas de interagir com o assistente.

    Disponibilidade e próximos passos

    O Amazon Lightsail está disponível em 15 regiões da AWS ao redor do mundo, incluindo US East (N. Virginia), US West (Oregon), Europe (Frankfurt), Europe (London), Asia Pacific (Tokyo) e Asia Pacific (Jakarta). Essa cobertura geográfica ampla facilita a implantação localizada, importante para reduzir latência e atender requisitos de residência de dados.

    Para começar, usuários podem acessar o console do Lightsail. Detalhes sobre preços do Amazon Lightsail e mais informações técnicas estão disponíveis na documentação de início rápido.

    Fonte

    Amazon Lightsail now offers OpenClaw, a private self-hosted AI assistant (https://aws.amazon.com/about-aws/whats-new/2026/03/amazon-lightsail-openclaw/)

  • Integrando agentes de chat da Amazon Quick Suite em aplicações empresariais

    O desafio da inteligência artificial conversacional em ambientes empresariais

    As organizações enfrentam dois obstáculos significativos ao implementar IA conversacional. Primeiro, os usuários precisam acessar respostas inteligentes no contexto onde trabalham — dentro do seu sistema de CRM, console de suporte ou portal de análise — sem precisar alternar entre diferentes plataformas. Segundo, construir uma solução de chat embarcada de forma segura frequentemente demanda semanas de desenvolvimento, envolvendo autenticação, validação de tokens, segurança de domínio e infraestrutura global de distribuição.

    A Amazon Quick Suite oferece um chat embarcado que endereça o primeiro desafio trazendo IA conversacional diretamente para dentro das aplicações empresariais. Dessa forma, usuários conseguem consultar dados estruturados, pesquisar documentos e executar ações sem abandonar a ferramenta em que já trabalham. Este artigo explora como resolver o segundo desafio — segurança e implantação — através de uma solução de implantação com um clique, utilizando o Embedding SDK para integrar agentes de chat em portais corporativos.

    Visão geral da solução arquitetônica

    A solução constrói um portal web seguro para o chat embarcado, combinando vários serviços da AWS em uma arquitetura bem definida. O Amazon CloudFront gerencia a distribuição global de conteúdo, Amazon Cognito orquestra autenticação via OAuth 2.0, Amazon API Gateway expõe endpoints REST, AWS Lambda processa as requisições sem servidor, e OpenID Connect (OIDC) integra identidades com a Quick Suite.

    Arquitetura de defesa em profundidade

    A segurança é implementada em múltiplas camadas de proteção. O DDoS (Proteção contra Ataques de Negação de Serviço) atua no CloudFront, um bucket privado do Amazon Simple Storage Service (S3) com controle de acesso de origem previne acesso direto aos assets do frontend, o AWS WAF (Firewall de Aplicação Web) implementa rate limiting no API Gateway, e JSON Web Token (JWT) valida assinaturas criptográficas usando chaves públicas do Amazon Cognito antes de gerar URLs de embed temporárias e específicas por usuário, com permissões de privilégio mínimo via AWS Identity and Access Management (IAM).

    Fluxo de autenticação e autorização

    O processo começa quando usuários acessam a URL do portal web, que é roteada através do CloudFront. O CloudFront usa controle de acesso de origem para buscar arquivos HTML, CSS e JavaScript de um bucket S3 privado. A aplicação web verifica a validade do token de autenticação e redireciona usuários não autenticados para a interface de login do Amazon Cognito com OAuth 2.0.

    Após inserir credenciais, o Amazon Cognito valida as informações e redireciona de volta para a URL do CloudFront com um código de autorização de uso único. A aplicação extrai esse código e faz uma chamada HTTPS para o API Gateway, que passa pelo filtro de rate limiting do AWS WAF. O API Gateway invoca uma função Lambda com o código de autorização.

    A função Lambda faz uma chamada servidor-a-servidor ao endpoint OAuth do Amazon Cognito, trocando o código de autorização por tokens JWT (token de ID, token de acesso, token de atualização). A função valida a assinatura criptográfica do token de ID usando o JSON Web Key Set (JWKS) do Amazon Cognito, com caching thread-safe.

    Obtenção de credenciais temporárias e validação de usuário

    A função Lambda invoca o AWS Security Token Service (STS) através da API AssumeRoleWithWebIdentity, usando o token de ID verificado para assumir um papel IAM de identidade web e receber credenciais temporárias da AWS.

    Com essas credenciais, a função consulta a API ListUsers da Quick Suite para confirmar que o usuário existe, e então chama a API GenerateEmbedUrlForRegisteredUser para gerar uma URL de embed segura com restrições de domínio.

    A função retorna a URL de embed em uma resposta JSON com headers de compartilhamento de recursos entre origens (CORS) através do API Gateway para o CloudFront. A aplicação CloudFront utiliza o Quick Suite Embedding SDK para criar um contexto de embedding e renderizar a interface de chat em um iframe HTML com comunicação segura entre origens.

    Pré-requisitos para implementação

    A solução requer uma conta AWS, uma assinatura Quick Suite com método de autenticação baseado em senha ou Single-Sign On, o AWS CDK CLI, o AWS SDK para Python (Boto3), um perfil AWS CLI com permissões apropriadas (incluindo listagem de namespaces Quick Suite, criação de papéis IAM e recursos AWS como distribuição CloudFront, bucket S3, API Gateway REST, AWS WAF Web ACL e função Lambda), Node.js 20+, jq 1.7+, e Docker Desktop em execução.

    Implantação da infraestrutura serverless

    Para implantar a infraestrutura usando AWS CDK, comece clonando o repositório GitHub:

    git clone git@github.com:aws-samples/sample-quicksuite-chat-embedding.git
    cd sample-quicksuite-chat-embedding

    Em seguida, execute o script de configuração:

    ./setup.sh

    Você será solicitado a informar seu código de região AWS, o ID da stack do AWS CloudFormation, o título do portal, e seu perfil AWS CLI.

    Provisionamento de usuários

    Após a infraestrutura estar implantada, crie um usuário no Amazon Cognito:

    python scripts/create_cognito_user.py --profile  

    Em seguida, crie um usuário federado na Quick Suite:

    python scripts/create_quicksuite_user.py --profile  

    Para compartilhar agentes de chat, acesse o console Quick Suite com credenciais de função Author Pro, navegue até Chat agents, selecione os agentes desejados e escolha Share. Pesquise pelo nome de usuário criado anteriormente e confirme o compartilhamento. Lembre-se de que cada recurso vinculado ao agente também precisa ser compartilhado separadamente para garantir funcionalidade completa.

    Acesso e utilização do portal

    Procure pela senha temporária no email de verificação do Amazon Cognito. Acesse a URL do CloudFront usando o ID de usuário e a senha temporária fornecida. Na primeira autenticação, você será solicitado a alterar sua senha. Após o login bem-sucedido, selecione a região para conectar aos agentes de chat personalizados da Quick Suite. Para visualizar os agentes compartilhados, escolha Shared with me no filtro e inicie uma conversa com o agente desejado.

    Limpeza de recursos

    Para remover os recursos implantados e evitar custos contínuos, execute:

    ./cleanup.sh

    Considerações finais

    Essa solução aborda os desafios centrais da integração de IA conversacional em escala: autenticação segura para milhares de usuários simultâneos em diferentes localizações geográficas, manutenção de segurança de nível empresarial com trilhas de auditoria abrangentes, e simplificação da implantação através do provisionamento automatizado de infraestrutura. O portal pode ser personalizado quanto à marca, as políticas de segurança ajustadas, e integrado com provedores de identidade existentes. A solução escala automaticamente para milhares de usuários simultâneos mantendo modelo de pagamento conforme você usa.

    Para experimentar essa solução, clone o repositório GitHub e implante a infraestrutura completa com um clique para integrar agentes de chat Quick Suite em suas aplicações empresariais.

    Fonte

    Embed Amazon Quick Suite chat agents in enterprise applications (https://aws.amazon.com/blogs/machine-learning/embed-amazon-quick-suite-chat-agents-in-enterprise-applications/)

  • Como o Amazon Nova Potencializa a Análise de Dados em Centrais de Atendimento

    Inteligência artificial em centrais de atendimento

    As centrais de atendimento ao cliente são ambientes críticos para o sucesso de qualquer organização. Melhorar a experiência dos clientes e a eficiência operacional nestes espaços depende de análises profundas dos dados de interação. Com a adoção de modelos de fundação — programas de IA treinados em enormes volumes de dados — é possível transformar significativamente a qualidade das operações e das análises realizadas nestes ambientes.

    A inteligência artificial generativa oferece suporte aos agentes de atendimento e aos gestores de equipes, permitindo que extraiam insights mais nuançados dos dados de chamadas. Essa mudança redefine como as perguntas são formuladas e que tipo de análise é possível realizar sobre o histórico de interações com clientes.

    Organizações têm diferentes abordagens para implementar IA generativa em suas operações. Algumas optam por soluções prontas, como o Amazon Connect Contact Lens. Outras preferem construir sistemas personalizados de suporte ao cliente, utilizando os serviços da AWS como base de infraestrutura. Nesse segundo caso, surge a oportunidade de integrar modelos de fundação ao sistema existente, oferecendo apoio de IA aos agentes e seus gestores.

    Uma das principais decisões que estas organizações enfrentam é qual modelo escolher para alimentar as capacidades de IA e análise em sua plataforma. Para explorar essa questão, o Centro de Inovação em IA Generativa da AWS desenvolveu uma aplicação de demonstração que apresenta diversos casos de uso baseados na mais recente família de modelos de fundação: o Amazon Nova. Este artigo aborda como o Amazon Nova demonstra capacidades práticas em análise conversacional, classificação de chamadas e outros casos de uso relevantes para soluções de centrais de atendimento.

    Características do Amazon Nova para escala

    Os modelos de fundação Amazon Nova oferecem um equilibro excepcional entre custo e desempenho, tornando-os ideais para implementação em larga escala. Estes modelos foram pré-treinados em vastos conjuntos de dados, capacitando-os a realizar uma ampla gama de tarefas de linguagem natural com precisão e eficiência, mesmo quando submetidos a alto volume de requisições.

    No contexto de análise de centrais de atendimento, os modelos Amazon Nova conseguem compreender conversas complexas, extrair informações relevantes e gerar insights valiosos que, anteriormente, eram difíceis ou impossíveis de obter em escala.

    A aplicação de demonstração apresenta capacidades do Amazon Nova em tarefas analíticas como:

    • Análise de sentimento
    • Identificação de tópicos de conversa
    • Avaliação de clientes em situação de vulnerabilidade
    • Verificação de aderência a protocolos
    • Resposta a perguntas interativas sobre as chamadas

    Ao usar essas capacidades avançadas de IA, empresas ganham compreensão mais profunda de suas interações com clientes e conseguem tomar decisões fundamentadas em dados para melhorar a qualidade do atendimento e a eficiência operacional.

    Visão geral da solução

    A aplicação de análise de centrais de atendimento foi construída sobre uma arquitetura simples que integra sem barreiras o Amazon Bedrock e o Amazon Nova, possibilitando análise completa de chamadas — tanto análises isoladas quanto comparativas entre múltiplas chamadas.

    Fonte: Aws

    Os componentes principais da arquitetura incluem:

    • Amazon Bedrock – Fornece acesso aos modelos de fundação Amazon Nova, habilitando capacidades poderosas de processamento de linguagem natural
    • Amazon Athena – Utilizado para consultar dados de chamadas armazenados em formato estruturado, permitindo recuperação e análise eficiente
    • Amazon Transcribe – Serviço gerenciado de reconhecimento automático de fala (Reconhecimento Automático de Fala — ASR)
    • Amazon Simple Storage Service (Amazon S3) – Serviço de armazenamento de objetos com escalabilidade, disponibilidade, segurança e desempenho líderes do setor
    • Streamlit – Alimenta a interface web, oferecendo uma experiência intuitiva e interativa aos usuários

    A aplicação se divide em dois componentes principais: Análise de Chamada Isolada e Análise de Múltiplas Chamadas. Estes scripts trabalham em conjunto para oferecer uma solução abrangente que combina análise pós-chamada com insights de dados históricos.

    Análise de chamada isolada

    A funcionalidade de análise de chamada isolada fornece exame detalhado de interações individuais de atendimento ao cliente. Esta seção explora algumas das capacidades principais desta funcionalidade.

    Análise de sentimento e identificação de clientes vulneráveis

    A solução utiliza os modelos de fundação Amazon Nova para extrair insights sobre sentimento tanto do cliente quanto do agente de atendimento.

    Fonte: Aws

    Através de um assistente conversacional, usuários conseguem solicitar explicações sobre a classificação de sentimento atribuída e obter referências diretas na transcrição da chamada. Este recurso oferece melhor compreensão da classificação ao localizar rapidamente as expressões que fundamentaram a análise — informações que podem ser reutilizadas em outras análises posteriormente.

    Um cliente vulnerável ou potencialmente vulnerável é aquele que, devido a suas circunstâncias pessoais, está particularmente exposto a riscos financeiros ou necessita de consideração especial em contextos de serviços financeiros. A aplicação avalia se o cliente que realizou a chamada se qualifica como cliente vulnerável ou potencialmente vulnerável, processando a transcrição da conversa através de um prompt estruturado.

    O modelo Amazon Nova utiliza uma definição genérica de cliente vulnerável para realizar a classificação. Contudo, se a empresa possui sua própria definição específica, é possível personalizar o prompt para que o modelo execute a classificação conforme os critérios internos. Este recurso auxilia gestores de centrais de atendimento a identificar situações potencialmente sensíveis e garantir que clientes vulneráveis recebam o cuidado e atenção apropriados, com explicação clara sobre os motivos da identificação.

    Assistência em protocolos e rastreamento de etapas

    Os modelos Amazon Nova identificam automaticamente qual protocolo é relevante para cada chamada e verificam se o agente seguiu todas as etapas prescritas. Os protocolos são definidos em um arquivo de configuração que é carregado no momento da execução da aplicação.

    O processo funciona em duas etapas: primeiro, o modelo identifica o protocolo relevante consultando a transcrição da chamada e comparando com a lista de protocolos disponíveis. Em seguida, a transcrição e as etapas do protocolo identificado são processadas juntas para verificar se cada passo foi completado pelo agente. Os resultados são exibidos em um formato amigável, permitindo que gestores avaliem rapidamente o desempenho do agente e sua conformidade com as diretrizes estabelecidas.

    Fonte: Aws

    Visualização interativa de transcrição e assistente de IA

    A página de análise de chamada isolada oferece uma visualização interativa da transcrição, permitindo que usuários leiam a conversa entre agente e cliente. Além disso, inclui um assistente de IA que permite formular perguntas específicas sobre a chamada.

    Fonte: Aws

    Esta funcionalidade, ativada pelos modelos Amazon Nova, facilita investigação profunda de aspectos específicos da chamada sem necessidade de busca manual pela transcrição inteira.

    Análise de múltiplas chamadas

    A funcionalidade de análise de múltiplas chamadas oferece exame agregado entre várias interações e possibilita consultas potentes de inteligência de negócios.

    Visualização de dados e seleção flexível de modelos

    Este recurso auxilia usuários a visualizar rapidamente tendências e padrões ao longo de múltiplas chamadas, facilitando a identificação de áreas para melhoria ou sucesso. A visualização dos cinco principais tópicos de chamadas também é alimentada pelos modelos Amazon Nova — usuários podem classificar o assunto de cada chamada submetendo a transcrição ao modelo, que determina o tema principal.

    Fonte: Aws

    Este recurso permite que empresas classifiquem chamadas rapidamente e as organizem por categoria de tema para gerar visualizações. Ao identificar os principais motivos pelos quais clientes entram em contato, as empresas conseguem focar em estratégias para reduzir o volume de chamadas nessas categorias.

    A aplicação oferece ainda opções flexíveis de seleção de modelos, permitindo aos usuários escolher entre diferentes variantes do Amazon Nova — como Nova Pro, Nova Lite e Nova Micro — para diferentes tarefas analíticas. Esta flexibilidade permite selecionar o modelo mais apropriado para necessidades e casos de uso específicos.

    Assistente de IA analítico

    Um dos recursos principais da página de análise de múltiplas chamadas é o Assistente de IA Analítico, que consegue processar consultas complexas de inteligência de negócios utilizando SQL. O assistente compreende consultas complexas, traduz-as em instruções SQL e até sugere tipos de gráficos apropriados para visualizar os resultados.

    Fonte: Aws

    As consultas SQL são executadas em dados processados pelo Amazon Transcribe e consultados através do Athena, sendo posteriormente apresentadas no Assistente de IA Analítico.

    Implementação prática

    A aplicação de análise de chamadas foi desenvolvida utilizando a interface de usuário Streamlit, escolhida pela velocidade e simplicidade de desenvolvimento. A aplicação combina casos de uso específicos e tarefas de IA para oferecer uma amostra das possibilidades que os modelos Amazon Nova podem proporcionar em operações e análises de centrais de atendimento.

    Para informações detalhadas sobre como esta aplicação foi implementada, consulte o repositório no GitHub.

    Conclusão

    Os modelos de fundação Amazon Nova representam avanço significativo no campo de análise de centrais de atendimento. Ao aproveitar o poder desses modelos avançados de IA, empresas conseguem extrair insights únicos de interações com clientes, melhorar o desempenho de agentes e aumentar a eficiência operacional geral.

    Os recursos abrangentes da aplicação — incluindo análise de sentimento, verificação de aderência a protocolos, avaliação de clientes vulneráveis e capacidades robustas de inteligência de negócios — oferecem aos gestores de centrais de atendimento as ferramentas necessárias para tomar decisões baseadas em dados e melhorar continuamente operações de atendimento ao cliente.

    À medida que os modelos de fundação Amazon Nova evoluem e se aprimoram, é esperado que capacidades ainda mais avançadas e sofisticadas de análise se tornem disponíveis. Esta demonstração representa um excelente ponto de partida para organizações que desejam explorar o potencial da análise de centrais de atendimento alimentada por IA e aplicar essas técnicas em seu próprio ambiente.

    Fonte

    Unlock powerful call center analytics with Amazon Nova foundation models (https://aws.amazon.com/blogs/machine-learning/unlock-powerful-call-center-analytics-with-amazon-nova-foundation-models/)

  • Certificações ISO e CSA STAR 2025 agora incluem um novo serviço e uma nova região

    Novas certificações da AWS em conformidade e segurança

    A Amazon Web Services (AWS) finalizou com êxito o ciclo anual de auditoria de recertificação sem achados em conformidade para um conjunto abrangente de normas internacionais. Os padrões validados incluem ISO 9001:2015, 27001:2022, 27017:2015, 27018:2019, 27701:2019, 20000-1:2018 e 22301:2019, além da certificação Cloud Security Alliance (CSA) STAR Cloud Controls Matrix (CCM) v4.0.

    Ampliação do escopo de certificação

    Como parte do processo de recertificação, o objetivo da auditoria foi expandir as certificações existentes para incorporar novos componentes ao escopo de validação. Dois elementos foram adicionados especificamente: a região Ásia Pacífico (Taipei) e o serviço AWS Deadline Cloud. Essas inclusões reforçam o compromisso da AWS em manter controles de segurança robustos e expandir a proteção de dados dos clientes em suas operações globais.

    O que as normas ISO cobrem

    As certificações ISO validadas abrangem áreas essenciais para operações em nuvem, incluindo gestão da qualidade, segurança da informação, segurança específica para ambientes em nuvem, proteção de privacidade, gestão de serviços e continuidade de negócios. Juntas, essas normas formam um framework completo que demonstra o comprometimento da AWS com padrões internacionais de segurança e confiabilidade.

    Acesso às certificações e recursos

    Clientes que desejam consultar a lista completa de serviços AWS certificados sob os padrões ISO e CSA STAR podem acessar a página ISO and CSA STAR Certified. Além disso, essas certificações estão disponíveis diretamente no AWS Management Console através do serviço AWS Artifact, facilitando a auditoria e conformidade para organizações que utilizam a plataforma.

    Fonte

    2025 ISO and CSA STAR certificates are now available with one additional service and one new region (https://aws.amazon.com/blogs/security/2025-iso-and-csa-star-certificates-are-now-available-with-one-additional-service-and-one-new-region/)

  • AWS simplifica a criação e configuração de funções IAM diretamente nos fluxos de trabalho

    Simplificação na criação de funções IAM

    A AWS Identity and Access Management (IAM) recebeu uma importante melhoria que torna o processo de criação e configuração de funções significativamente mais direto e eficiente. A novidade permite que você estabeleça e customize funções de acesso sem necessidade de alternar entre múltiplas abas ou navegadores.

    Quando você realiza tarefas no console que envolvem configuração de funções, um novo painel aparece para definir as permissões necessárias. Essa abordagem integrada reduz a complexidade de um processo que tradicionalmente exigia navegação entre diferentes seções da plataforma.

    Como as funções IAM funcionam

    As funções do IAM desempenham um papel essencial na segurança das conexões entre serviços AWS. Elas habilitam conexões seguras entre diferentes serviços usando credenciais temporárias, eliminando completamente a necessidade de chaves de acesso hardcoded (fixas no código). Essa é uma prática de segurança fundamental em ambientes de produção.

    Com essa integração, o processo de configuração de funções e permissões agora ocorre diretamente dentro dos fluxos de trabalho dos serviços, sem que você precise navegar para o console específico de IAM. Você pode tanto utilizar políticas padrão já disponíveis quanto usar um construtor simplificado de declarações para personalizar suas permissões conforme necessário.

    Serviços e disponibilidade

    Este recurso já está disponível ao trabalhar com os seguintes serviços AWS:

    • Amazon EC2
    • AWS Lambda
    • Amazon EKS
    • Amazon ECS
    • AWS Glue
    • AWS CloudFormation
    • AWS Database Migration Service
    • AWS Systems Manager
    • AWS Secrets Manager
    • Amazon Relational Database Service
    • AWS IoT Core

    No momento do anúncio, a funcionalidade está disponível na região US East (N. Virginia). A AWS planeja uma expansão gradual para serviços adicionais e outras regiões.

    Mantendo a funcionalidade completa

    A simplificação do processo não significa perda de funcionalidade. O novo painel integrado mantém toda a potência e controle fino do gerenciamento de funções IAM, permitindo que você configure permissões granulares e customize políticas com a mesma profundidade que teria acessando diretamente o console de IAM.

    Para mais informações técnicas e detalhes de implementação, você pode consultar o guia do usuário de cada serviço específico ou a documentação de IAM.

    Fonte

    AWS simplifies IAM role creation and setup in service workflows (https://aws.amazon.com/about-aws/whats-new/2026/03/aws-simplifies-iam-role-creation-and-setup/)

  • Prova de Roupas Virtual em Escala: Como Construir uma Solução com Amazon Nova no AWS — Parte 1

    O Desafio das Devoluções no Varejo Online

    O comércio eletrônico enfrenta um problema estrutural: a cada quatro peças de roupa compradas online, uma é devolvida. Esse cenário alimenta um problema de US$ 890 bilhões em devoluções apenas nos Estados Unidos em 2024. A razão é simples e intuitiva: os clientes não conseguem avaliar adequadamente o caimento, o estilo e a qualidade de uma roupa através de uma tela.

    Entre as principais causas para devoluções de itens de moda estão inadequação do tamanho, caimento errado ou descompasso com o estilo esperado. Para varejistas, isso representa um desafio crítico, especialmente considerando que seus clientes mais valiosos são frequentemente os que mais devolvem produtos. Isso força as empresas a manter políticas generosas de devolução, apesar dos custos elevados de processamento e do impacto ambiental significativo.

    Cada devolução gera 30% mais emissões de carbono do que a entrega inicial e representa uma oportunidade de venda perdida enquanto o item é reprocessado no estoque.

    A Tecnologia de Prova Virtual como Solução

    À medida que as compras digitais crescem, a tecnologia de prova virtual surge como uma estratégia promissora para reduzir devoluções sem sacrificar a conveniência do cliente. Porém, as implementações iniciais enfrentavam limitações significativas: falta de precisão, dificuldades de escalabilidade e perda de detalhes importantes como drapeado de tecidos, padrões e logos.

    A Amazon Nova Canvas aborda esses desafios através de sua capacidade nativa de prova virtual. O modelo funciona com dois inputs de imagem bidimensionais: uma imagem de origem (mostrando uma pessoa ou espaço) e uma imagem de referência (do produto a ser visualizado). O sistema oferece posicionamento automático de produtos via funcionalidade de máscara automática, além de controles manuais para ajustes precisos.

    Durante todo o processo, o modelo preserva cuidadosamente detalhes cruciais como logos e texturas, enquanto oferece controles abrangentes de estilo para customização. Essa tecnologia pode ser implantada em múltiplos canais de engajamento com clientes: desde websites de ecommerce e aplicativos mobile até quiosques em lojas físicas, plataformas de shopping social e showrooms virtuais.

    Imagine acessar um site de ecommerce, fazer upload de sua foto pessoal e visualizar como diferentes roupas e acessórios ficariam em você. É exatamente esse o tipo de experiência que a prova virtual em escala torna viável.

    Visão Geral da Solução Técnica

    Varejistas e empresas de ecommerce podem integrar visualização de produtos diretamente em seus pontos de contato com clientes — existentes ou novos — utilizando apenas upload de foto e seleção de produto. Os clientes conseguem visualizar como itens ficariam em si mesmos, em um modelo ou em outro contexto desejado.

    É possível experimentar a capacidade de prova virtual no Amazon Bedrock playground. Além disso, a AWS fornece orientações para implementar uma solução completa dessa funcionalidade em seu próprio ambiente Amazon Web Services.

    A solução utiliza a prova virtual recém-lançada no Amazon Nova Canvas, integrado ao Amazon Bedrock. Esse modelo oferece velocidades de inferência rápidas, tornando-o adequado para aplicações em tempo real como ecommerce. Simultaneamente, preserva detalhes de alta fidelidade dos itens de referência, incluindo padrões, texturas e logos, mantendo manipulações semânticas precisas dentro das cenas.

    A arquitetura combina serviços serverless da AWS com capacidades de processamento de IA em uma estrutura orientada a eventos. Amazon DynamoDB Streams dispara fluxos de trabalho AWS Step Functions e eventos Amazon Simple Storage Service (S3) para gerenciar entrega de resultados. O Amazon Nova Canvas no Amazon Bedrock gerencia tanto a geração de máscaras quanto a detecção de pose. A solução segue um pipeline de processamento assíncrono com atualizações de status em tempo real, onde conexões WebSocket mantêm comunicação em tempo real com clientes, viabilizando engajamento contínuo durante todo o processo.

    Explicação Detalhada da Arquitetura

    Fluxo de Iniciação de Requisição

    O Amazon S3 armazena as fotos de modelo enviadas pelos clientes e as imagens de produtos. Cada upload gera uma mensagem enviada para uma fila Amazon Simple Queue Service (SQS). Uma função AWS Lambda cria os metadados correspondentes e o caminho S3, armazenando-os na tabela de produtos DynamoDB para recuperação posterior. O Amazon API Gateway gerencia as conexões WebSocket para atualizações de status em tempo real entre o cliente e o serviço de prova virtual.

    Lambda processa requisições iniciais recuperando informações de produtos na tabela DynamoDB e criando entradas de trabalho no DynamoDB.

    Estrutura de Dados — Tabelas DynamoDB

    A solução utiliza quatro tabelas DynamoDB fundamentais:

    • Tabela de Produtos (vto-products): Armazena itens de catálogo disponíveis para prova virtual, incluindo localização da imagem no S3.
    • Tabela de Trabalhos (vto-jobs): Rastreia o estado de cada requisição de prova virtual.
    • Tabela de Modelos (vto-models): Armazena catálogo de imagens de clientes usadas para prova virtual.
    • Tabela de Conexões WebSocket (vto-connections): Rastreia conexões WebSocket ativas para atualizações de status em tempo real.

    Cada tabela segue esquemas específicos que suportam o fluxo completo da solução, desde a recepção de requisições até a entrega final de resultados visuais.

    Geração da Prova Virtual

    Após a criação de um trabalho, o DynamoDB Streams dispara workflows do AWS Step Functions para processar requisições de prova virtual de forma assíncrona. O Step Functions orquestra a geração da prova virtual, acionando uma função Lambda que invoca o modelo Amazon Nova Canvas através do Amazon Bedrock. A tabela DynamoDB de trabalhos é atualizada com o status da prova virtual.

    Entrega de Resultados

    O Amazon S3 armazena as imagens de prova virtual geradas com metadados de ID de trabalho. O Amazon SQS gerencia notificações de eventos S3 para imagens de prova concluídas. Uma função Lambda envia a URL do Amazon S3 do resultado de volta ao usuário através do WebSocket. Esse processo completo típico leva entre 7 e 11 segundos.

    Funcionamento Passo a Passo da Solução

    Quando um cliente inicia uma requisição de prova, primeiro realiza autenticação no Amazon Cognito e depois faz upload de suas fotos armazenadas no Amazon S3. Um workflow está disponível para popular automaticamente a tabela de produtos no DynamoDB através de eventos do S3.

    O cliente estabelece uma conexão WebSocket através do API Gateway, criando um canal persistente para atualizações em tempo real. Em seguida, envia o ID do produto que deseja experimentar virtualmente, juntamente com a URL S3 da imagem de modelo estático que deseja usar.

    Uma função Lambda processa essa requisição recuperando a URL da imagem de produto do DynamoDB e criando uma entrada de trabalho com ambas as URLs de imagem, retornando um ID de trabalho único para rastreamento.

    O DynamoDB stream dispara então um step function para coordenar diferentes escritas e atualizações na tabela DynamoDB. O step function também invoca a funcionalidade de prova virtual do Amazon Nova Canvas.

    Processamento de Imagens e Máscaras

    O modelo recebe como entrada: a imagem de origem (imagem base que você deseja modificar, por exemplo, a foto do cliente) e a imagem de referência (contendo o produto que você deseja inserir na imagem base). Para peças de roupa, a imagem de referência pode conter roupas com corpo ou sem corpo, podendo inclusive conter múltiplos produtos representando componentes distintos de um outfit (como camiseta, calça e sapatos em uma única imagem).

    Por padrão, uma máscara é calculada automaticamente usando inputs auxiliares — maskType: "GARMENT" ou maskType: "PROMPT". A imagem de máscara pode ser fornecida diretamente pelo desenvolvedor (maskType: "IMAGE").

    Quando maskType: "GARMENT" é especificado, o Amazon Nova Canvas cria uma máscara sensível a roupas baseada no valor do parâmetro garmentClass. As classes de roupa de alto nível mais comuns incluem:

    • "UPPER_BODY" – Cria uma máscara que inclui comprimento total dos braços.
    • "LOWER_BODY" – Cria uma máscara que inclui comprimento total das pernas sem gap entre elas.
    • "FOOTWEAR" – Cria uma máscara que se ajusta ao perfil do sapato mostrado na imagem de origem.
    • "FULL_BODY" – Cria uma máscara equivalente à combinação de "UPPER_BODY" e "LOWER_BODY".

    Usando maskType: "PROMPT", é possível utilizar linguagem natural para descrever qual item na imagem de origem você deseja substituir. Isso é particularmente útil para imagens de itens além de roupas. Esse recurso utiliza a mesma funcionalidade de máscara automática presente na tarefa “INPAINTING” do Nova Canvas usando o parâmetro maskPrompt.

    Uma vez que a máscara é entendida e as áreas de roupa que precisam ser substituídas são identificadas, a imagem de produto é inserida na foto do usuário como entrada. O modelo gera então a imagem de prova, que é armazenada no Amazon S3 com o ID do trabalho como metadados. Durante todo esse processo, o sistema envia atualizações de progresso através da conexão WebSocket.

    Uma notificação de evento do Amazon S3 dispara uma função Lambda através do Amazon SQS. A função gera uma URL pré-assinada para a imagem de resultado e a entrega ao cliente através da conexão WebSocket estabelecida, completando todo o ciclo.

    Detalhes de Implementação — Estrutura de Dados

    A solução pressupõe que a tabela de produtos está pré-populada com o inventário do varejista. Produtos são automaticamente populados quando imagens são enviadas para a pasta /products/ do S3.

    O esquema da tabela de produtos inclui: identificador único do produto, URL S3 da imagem original, nome de exibição, categoria, descrição detalhada (incluindo estilo, cor e opções de tamanho), sinalizador indicando importação automática, e timestamps de criação e atualização.

    A tabela de modelos armazena o catálogo de imagens de clientes usadas para prova virtual, automaticamente populadas quando imagens são enviadas para a pasta /models/ do S3, com esquema similar incluindo ID único do modelo, URL S3, nome de exibição, categoria, descrição e timestamps.

    A tabela de trabalhos de prova virtual mantém informações de estado e rastreamento para cada requisição durante o fluxo de processamento. Seu esquema inclui: ID único para cada trabalho, referência ao modelo utilizado, referência ao produto sendo experimentado, URL S3 da foto do cliente, URL S3 da imagem de produto, URL S3 da imagem de resultado gerada, status atual do trabalho (criado, processando, completado ou erro), mapa de parâmetros da API de prova virtual, ID de conexão WebSocket para atualizações em tempo real, detalhes de erro se o trabalho falhar, e timestamps de criação e última atualização.

    A tabela de conexões WebSocket rastreia conexões ativas para atualizações de status de trabalho em tempo real. Informações técnicas adicionais sobre implementação de WebSocket API podem ser encontradas no tutorial Create a WebSocket chat app with a WebSocket API, Lambda, and DynamoDB. O esquema inclui identificador de conexão WebSocket como chave de partição, timestamp de quando a conexão foi estabelecida, e um valor de time-to-live para limpeza automática de conexões obsoletas.

    Começando a Implementação

    Para começar rapidamente, a AWS fornece uma GitHub sample completa com pré-requisitos, scripts de implantação, código de exemplo e um documento de guia de solução abrangente com melhores práticas e detalhes de configuração. Esse guia permite começar imediatamente a experimentar a solução.

    Conclusão e Perspectiva Estratégica

    Conforme o ecommerce continua crescendo exponencialmente, reduzir taxas de devolução mantendo satisfação do cliente se torna criticamente importante para lucratividade e sustentabilidade dos varejistas. A solução de prova virtual demonstra como serviços serverless da AWS podem ser combinados com inteligência artificial generativa para endereçar um desafio significativo do varejo moderno.

    Ao utilizar Amazon Nova Canvas junto com uma arquitetura serverless robusta, varejistas conseguem oferecer aos clientes visualização precisa de produtos com preservação de pose, enquanto mantêm a experiência de compra contínua que seus clientes mais leais esperam.

    Considerações de implementação vão além da arquitetura técnica. Implantação bem-sucedida requer atenção cuidadosa a quotas de serviço, monitoramento e otimização de custos. O guia de solução fornece recomendações detalhadas para gerenciar conexões WebSocket, implementar estratégias de retry e otimizar utilização de recursos. Esses aspectos operacionais são cruciais para manter desempenho confiável durante períodos de pico de compras enquanto gerencia custos de forma efetiva.

    Fonte

    Building a scalable virtual try-on solution using Amazon Nova on AWS: part 1 (https://aws.amazon.com/blogs/machine-learning/building-a-scalable-virtual-try-on-solution-using-amazon-nova-on-aws-part-1/)

  • Amazon SageMaker Unified Studio agora suporta AWS Glue 5.1 para processamento de dados

    Suporte ao AWS Glue 5.1 no SageMaker Unified Studio

    A AWS anunciou a integração do AWS Glue 5.1 ao Amazon SageMaker Unified Studio, expandindo as possibilidades de processamento de dados para engenheiros e cientistas de dados. Com esta atualização, os usuários podem agora trabalhar com jobs de processamento de dados em três modalidades: Visual ETL (Extração, Transformação e Carregamento), notebooks e jobs baseados em código.

    Capacidades Técnicas Aprimoradas

    A inclusão do AWS Glue 5.1 traz melhorias significativas ao ambiente de processamento. Os usuários podem executar jobs sobre o Apache Spark 3.5.6 com suporte a Python 3.11 e Scala 2.12.18, garantindo compatibilidade com versões recentes das linguagens de programação mais utilizadas em ciência de dados.

    Além disso, a atualização incorpora bibliotecas atualizadas para formatos de tabelas abertas, que são padrões importantes no ecossistema de dados modernos. A integração inclui:

    • Apache Iceberg 1.10.0
    • Apache Hudi 1.0.2
    • Delta Lake 3.3.2

    Como Utilizar o AWS Glue 5.1

    A implementação é direta e acessível aos usuários. Ao criar jobs de processamento de dados no SageMaker Unified Studio, é necessário selecionar a versão Glue 5.1 através do menu suspenso de versões nas configurações do job. Este procedimento se aplica uniformemente a todos os tipos de jobs: Visual ETL, notebooks e jobs baseados em código, permitindo que os times aproveitem o runtime Spark mais atual e as bibliotecas de formatos de tabelas abertas em todos os seus fluxos de trabalho de processamento.

    Disponibilidade e Próximos Passos

    O AWS Glue 5.1 no Amazon SageMaker Unified Studio está disponível em todas as regiões onde o serviço SageMaker Unified Studio é oferecido. Para conhecer os detalhes completos sobre implementação, consulte a documentação do Amazon SageMaker Unified Studio. Informações técnicas adicionais sobre o AWS Glue 5.1, incluindo detalhes sobre suporte a formatos de tabelas abertas e capacidades de controle de acesso, estão disponíveis na documentação do AWS Glue.

    Fonte

    Amazon SageMaker Unified Studio now supports AWS Glue 5.1 for data processing jobs (https://aws.amazon.com/about-aws/whats-new/2026/03/amazon-sagemaker-unified-studio-aws-glue-5-1/)

  • Amazon SageMaker Unified Studio agora suporta conexão remota do Kiro IDE

    Integração entre Kiro IDE e Amazon SageMaker Unified Studio

    A AWS anunciou, em março de 2026, uma nova capacidade que permite conectar remotamente o Kiro IDE ao Amazon SageMaker Unified Studio. Essa funcionalidade abre possibilidades interessantes para cientistas de dados, engenheiros de aprendizado de máquina e desenvolvedores que desejam aproveitar as características do Kiro — como desenvolvimento orientado por especificações, codificação conversacional e geração automatizada de features — enquanto acessam os recursos computacionais escaláveis do Amazon SageMaker.

    Eliminando o Contexto Compartimentado

    Uma das principais vantagens dessa integração é a possibilidade de eliminar a mudança de contexto entre o ambiente de desenvolvimento local e a infraestrutura em nuvem. Ao conectar o Kiro ao SageMaker Unified Studio através da extensão AWS Toolkit, os desenvolvedores conseguem manter seus fluxos de trabalho agentic dentro de um único ambiente, acessando todos os serviços de análise e inteligência artificial da AWS sem precisar sair do seu IDE customizado.

    O que o SageMaker Unified Studio Oferece

    O SageMaker Unified Studio, parte da próxima geração do Amazon SageMaker, disponibiliza um conjunto abrangente de ambientes de desenvolvimento interativos gerenciados na nuvem (IDE). Isso inclui JupyterLab e Code Editor, desenvolvidos sobre a base Code-OSS (Software de Código Aberto). A partir de agora, também é possível utilizar a configuração local customizada do Kiro — mantendo suas especificações, arquivos de direcionamento e hooks — enquanto acessa recursos computacionais e dados alojados no Amazon SageMaker.

    Segurança e Autenticação

    Como o Kiro é construído sobre Code-OSS, a autenticação ocorre de forma segura através do IAM (Gerenciador de Identidade e Acesso) usando a extensão AWS Toolkit. Isso garante acesso a todos os domínios e projetos do SageMaker Unified Studio mantendo padrões corporativos de segurança. A integração oferece ainda suporte a chaves de criptografia gerenciadas pelo cliente e integração completa com AWS IAM.

    Um Caminho Conveniente para Infraestrutura Escalável

    Essa integração cria um trajeto prático entre o ambiente local de desenvolvimento com IA até infraestrutura escalável para executar cargas de trabalho. Os usuários conseguem trabalhar em diferentes áreas: processamento de dados, serviços de análise SQL como Amazon EMR, AWS Glue e Amazon Athena, além de fluxos de trabalho de aprendizado de máquina — tudo com segurança de nível corporativo.

    Disponibilidade

    Esse recurso está disponível em todas as regiões onde o Amazon SageMaker Unified Studio opera. Para conhecer mais detalhes técnicos sobre como configurar e utilizar essa funcionalidade, consulte a documentação do SageMaker.

    Fonte

    Amazon SageMaker Unified Studio launches support for remote connection from Kiro IDE (https://aws.amazon.com/about-aws/whats-new/2026/03/amazon-sagemaker-unified-studio-kiro-ide/)

  • Relatório de Conformidade FINMA ISAE 3000 Tipo II 2025 Agora Disponível com 183 Serviços em Escopo

    Conformidade Regulatória Suíça em Destaque

    A AWS anunciou a disponibilidade do relatório de atestação Type II da Autoridade Supervisora do Mercado Financeiro Suíço (FINMA) referente a 2025, cobrindo 183 serviços em seu portfólio. A FINMA estabeleceu uma série de exigências e diretrizes específicas para instituições financeiras reguladas na Suíça que utilizam serviços terceirizados na nuvem.

    Uma empresa de auditoria independente emitiu o relatório com objetivo de assegurar aos clientes que o ambiente de controles da AWS foi apropriadamente estruturado e está funcionando de maneira eficaz para suportar a conformidade com os requisitos da FINMA.

    Período de Cobertura e Circulares Aplicáveis

    O relatório mais recente cobre um período de 12 meses, de 1º de outubro de 2024 a 30 de setembro de 2025, abrangendo as seguintes circulares regulatórias:

    • Circular 2018/03 – Externalização de Serviços para bancos, seguradoras e instituições financeiras selecionadas sob a Lei FinIA
    • Circular 2023/01 – Riscos Operacionais e Resiliência para bancos
    • Normas mínimas de Gestão de Continuidade de Negócios (BCM) propostas pela Associação Suíça de Seguros

    Novos Serviços Adicionados ao Escopo

    Na versão atualizada, a AWS incluiu cinco novos serviços ao escopo de conformidade FINMA:

    Acessando o Relatório

    Clientes podem acessar o relatório FINMA ISAE 3000 através do AWS Artifact, um portal de autoatendimento que oferece acesso sob demanda a relatórios de conformidade. Para começar, faça login no AWS Artifact no Console de Gerenciamento da AWS ou consulte a documentação de Primeiros Passos com AWS Artifact.

    Responsabilidade Compartilhada em Segurança

    É importante destacar que segurança e conformidade representam uma responsabilidade compartilhada entre a AWS e seus clientes. Quando organizações migram sistemas e dados para a nuvem, as responsabilidades de segurança são distribuídas entre o cliente e o provedor de serviços em nuvem. Para compreender melhor essa divisão, consulte o Modelo de Responsabilidade Compartilhada de Segurança da AWS.

    Instituições financeiras na Suíça que utilizam infraestrutura da AWS podem verificar mais informações sobre os programas de conformidade e segurança em Programas de Conformidade da AWS. Dúvidas adicionais podem ser encaminhadas à equipe de conformidade através da página de contato.

    Fonte

    2025 FINMA ISAE 3000 Type II attestation report available with 183 services in scope (https://aws.amazon.com/blogs/security/2025-finma-isae-3000-type-ii-attestation-report-available-with-183-services-in-scope/)