Author: Make.com Service User

  • AWS Shield amplia detecção de vulnerabilidades de rede com integração ao Security Hub

    Integração do AWS Shield Network Security Director com o Security Hub

    A AWS anunciou que os achados gerados pelo Network Security Director, que se encontrava em fase de prévia, agora estão disponíveis diretamente no AWS Security Hub. Esta integração representa um avanço significativo na forma como as organizações podem gerenciar e monitorar a segurança de suas redes na nuvem.

    O que é o Network Security Director

    O Network Security Director é um componente do AWS Shield que funciona como uma ferramenta de diagnóstico contínuo para infraestruturas de segurança de rede. Seu propósito principal é identificar quando serviços críticos de proteção estão ausentes ou mal configurados em toda uma organização AWS. Entre os serviços que monitora estão o AWS WAF (Firewall de Aplicações Web), Security Groups de VPC e Network Access Control Lists (ACLs de controle de acesso à rede).

    Capacidades de Análise e Recomendações

    Ao integrar-se ao Security Hub, o Network Security Director oferece uma análise contínua da rede distribuída entre múltiplas contas e unidades organizacionais. Além de identificar problemas, ele fornece recomendações de remediação baseadas nas melhores práticas da AWS. Os achados gerados aparecem agora na seção Inventory (Inventário) do console do Security Hub, facilitando a visualização centralizada.

    Um aspecto importante é como a severidade de cada achado é calculada. A AWS não utiliza apenas a misconfiguration (configuração incorreta) identificada como critério de gravidade. Ao contrário, leva em consideração a topologia de rede do recurso associado ao achado, oferecendo uma avaliação contextualizada e mais precisa dos riscos reais enfrentados pela organização.

    Benefícios para Organizações

    Esta integração simplifica o gerenciamento de segurança de rede ao centralizar os achados em uma única plataforma. Times de segurança podem identificar lacunas em sua postura de proteção sem necessidade de navegar entre múltiplas ferramentas. A abordagem contínua garante que novas misconfigurações ou desvios das melhores práticas sejam detectados rapidamente.

    Fonte

    AWS Shield network security director findings are now available in AWS Security Hub (https://aws.amazon.com/about-aws/whats-new/2026/03/network-security-director-findings/)

  • AWS completa auditoria anual de certificação do Dubai Electronic Security Centre (DESC) em 2026

    Renovação da Certificação DESC 2026

    A Amazon Web Services (AWS) concluiu com sucesso sua auditoria anual de certificação junto ao Dubai Electronic Security Centre (DESC) para continuar operando como provedor de serviços em nuvem (Provedor de Serviços em Nuvem – CSP) Tier 1 na região do Oriente Médio (EAU). Esta certificação reafirma o compromisso contínuo da plataforma em atender aos rigorosos requisitos de segurança e conformidade esperados de provedores de nuvem de alto nível.

    Para clientes governamentais que utilizam a AWS, esta certificação representa uma garantia importante: seus aplicativos podem ser executados com confiança em regiões de nuvem certificadas pelo DESC. A conformidade foi validada de forma independente pela BSI, uma auditoria terceirizada antes da emissão do certificado renovado pelo DESC. O certificado atualizado permanecerá válido por um ano, até 22 de janeiro de 2027.

    Ampliação do Escopo de Serviços Certificados

    Um destaque importante desta certificação é a expansão significativa de serviços incluídos no escopo de conformidade. A AWS adicionou dez novos serviços ao programa, aumentando de 98 para 108 o total de serviços certificados na região do Oriente Médio (EAU) — um crescimento de 10%.

    Os serviços recém-adicionados ao escopo de certificação DESC incluem:

    Acesso à Documentação de Conformidade

    A certificação renovada está disponível através do AWS Artifact, um portal de autoatendimento que fornece acesso sob demanda a relatórios de conformidade da AWS. Usuários podem acessar o AWS Artifact no Console de Gerenciamento da AWS ou consultar a documentação sobre como começar com o AWS Artifact para obter mais detalhes sobre seu funcionamento.

    Estratégia de Expansão Contínua

    Esta expansão reflete a estratégia da AWS de incorporar continuamente novos serviços ao escopo de seus programas de conformidade. O objetivo é ajudar clientes a atender suas necessidades arquiteturais e regulatórias específicas, especialmente em regiões com requisitos rigorosos de segurança.

    Organizações interessadas podem consultar a página de serviços no escopo de conformidade para visualizar a lista completa de serviços certificados. Clientes com dúvidas sobre conformidade DESC podem entrar em contato com sua equipe de conta AWS ou utilizar os canais de suporte disponibilizados.

    Para aprofundar o entendimento sobre todos os programas de conformidade da AWS, consulte a página Programas de Conformidade da AWS. A plataforma permanece aberta a feedback e questões através da página de contato dedicada à conformidade.

    Fonte

    AWS completes the 2026 annual Dubai Electronic Security Centre (DESC) certification audit (https://aws.amazon.com/blogs/security/aws-completes-the-2026-annual-dubai-electronic-security-centre-desc-certification-audit/)

  • Criando Parsers Personalizados para Agents Strands com LLMs no SageMaker AI

    Integrando LLMs Customizados com Strands Agents

    Organizações que adotam modelos de linguagem de grande escala (LLMs) cada vez mais optam por implantá-los em endpoints de tempo real do SageMaker AI, utilizando frameworks de serving de sua preferência como SGLang, vLLM ou TorchServe. Essa abordagem oferece controle mais granular sobre as implantações, oportunidades de otimização de custos e alinhamento com requisitos de conformidade regulatória.

    Contudo, essa flexibilidade introduz um desafio técnico significativo: esses frameworks de serving customizados tipicamente retornam respostas em formatos compatíveis com OpenAI para facilitar suporte amplo em diferentes ambientes. Já o Strands Agents, por sua vez, espera que as respostas dos modelos estejam alinhadas com o formato da Bedrock Messages API. Essa desconexão entre o formato de saída do servidor de modelos e o que Strands espera criar uma lacuna que impede integração perfeita, mesmo quando ambos os sistemas estão tecnicamente funcionais.

    Desde dezembro de 2025, o mecanismo de inferência distribuído Amazon Bedrock Mantle passou a oferecer suporte a formatos de mensagem compatíveis com OpenAI. No entanto, essa compatibilidade não é garantida para todos os modelos hospedados em endpoints de tempo real do SageMaker AI. A plataforma permite hospedar diversos modelos que podem exigir formatos específicos de prompt e resposta que não se conformam aos padrões de API conhecidos.

    A Solução: Parsers Personalizados

    O caminho para resolver essa incompatibilidade é implementar parsers de modelos personalizados que estendem a classe SageMakerAIModel e traduzem o formato de resposta do servidor de modelos para o que Strands espera. Dessa forma, organizações conseguem aproveitar seus frameworks de serving preferidos sem sacrificar a compatibilidade com o SDK do Strands Agents.

    Este artigo demonstra como construir parsers personalizados para Strands agents ao trabalhar com LLMs hospedados no SageMaker que não suportam nativamente o formato da Bedrock Messages API. O exemplo prático envolve implantar Llama 3.1 com SGLang no SageMaker utilizando o gerador de projetos de containers ml-container-creator, seguido pela implementação de um parser customizado para integração com Strands agents.

    Por que o Erro Ocorre

    Quando você implanta modelos usando frameworks de serving customizados como SGLang, vLLM ou TorchServe, eles retornam respostas em seus próprios formatos, frequentemente compatíveis com OpenAI para suporte amplo. Sem um parser personalizado, você encontrará erros como:

    TypeError: 'NoneType' object is not subscriptable

    Isso acontece porque a classe padrão SageMakerAIModel do Strands Agents tenta fazer parsing de respostas assumindo uma estrutura específica que seu endpoint customizado não fornece.

    Arquitetura da Implementação

    A implementação se organiza em três camadas distintas:

    • Camada de Implantação de Modelo: Llama 3.1 sendo servido pelo SGLang no SageMaker, retornando respostas compatíveis com OpenAI
    • Camada de Parser: Classe LlamaModelProvider personalizada que estende SageMakerAIModel para processar o formato de resposta do Llama 3.1
    • Camada de Agent: Agent Strands que utiliza o provider customizado para IA conversacional, fazendo o parsing apropriado da resposta do modelo

    Preparando o Ambiente

    Instalando ml-container-creator

    O primeiro passo envolve construir o container de serving para o modelo. Utiliza-se um projeto open-source que automatiza a criação do container e gera scripts de deployment. O ml-container-creator, um gerador Yeoman de código aberto mantido pela AWS Labs, automatiza a criação de projetos de deployment BYOC (Bring Your Own Container) para o SageMaker. Ele gera os artefatos necessários para construir containers de serving de LLM, incluindo Dockerfiles, configurações CodeBuild e scripts de deployment.

    Para instalar, execute:

    # Instalar Yeoman globalmente
    npm install -g yo
    
    # Clonar e instalar ml-container-creator
    git clone https://github.com/awslabs/ml-container-creator
    cd ml-container-creator
    npm install && npm link
    
    # Verificar instalação
    yo --generators
    # Deve mostrar ml-container-creator

    Gerando o Projeto de Deployment

    Uma vez instalado e vinculado, o comando yo ml-container-creator permite executar o gerador necessário para este exercício:

    # Executar o gerador
    yo ml-container-creator
    
    # Opções de configuração:
    # - Framework: transformers
    # - Model Server: sglang
    # - Model: meta-llama/Llama-3.1-8B-Instruct
    # - Deploy Target: codebuild
    # - Instance Type: ml.g6.12xlarge (GPU)
    # - Region: us-east-1

    O gerador cria uma estrutura de projeto completa:

    <project-directory>/
    ├── Dockerfile # Container com SGLang e dependências
    ├── buildspec.yml # Configuração CodeBuild
    ├── code/
    │   └── serve # Script de inicialização do servidor SGLang
    ├── deploy/
    │   ├── submit_build.sh # Dispara CodeBuild
    │   └── deploy.sh # Faz deploy no SageMaker
    └── test/
        └── test_endpoint.sh # Script de teste do endpoint

    Compilação e Implantação

    Projetos criados pelo ml-container-creator incluem scripts de build e deployment templatizados. Os scripts ./deploy/submit_build.sh e ./deploy/deploy.sh são utilizados para construir a imagem, fazer push para Amazon Elastic Container Registry (ECR) e fazer deploy em um endpoint de tempo real do SageMaker AI.

    cd llama-31-deployment
    
    # Compilar container com CodeBuild (Docker local não necessário)
    ./deploy/submit_build.sh
    
    # Fazer deploy no SageMaker
    ./deploy/deploy.sh arn:aws:iam::ACCOUNT:role/SageMakerExecutionRole

    O processo de implantação funciona da seguinte forma:

    • CodeBuild constrói a imagem Docker com SGLang e Llama 3.1
    • A imagem é enviada para Amazon ECR
    • SageMaker cria um endpoint de tempo real
    • SGLang baixa o modelo do HuggingFace e o carrega na memória da GPU
    • O endpoint atinge o status InService (aproximadamente 10-15 minutos)

    Você pode testar o endpoint usando ./test/test_endpoint.sh ou com uma invocação direta:

    import boto3
    import json
    
    runtime_client = boto3.client('sagemaker-runtime', region_name='us-east-1')
    
    payload = {
        "messages": [
            {"role": "user", "content": "Hello, how are you?"}
        ],
        "max_tokens": 100,
        "temperature": 0.7
    }
    
    response = runtime_client.invoke_endpoint(
        EndpointName='llama-31-deployment-endpoint',
        ContentType='application/json',
        Body=json.dumps(payload)
    )
    
    result = json.loads(response['Body'].read().decode('utf-8'))
    print(result['choices'][0]['message']['content'])

    Compreendendo o Formato de Resposta

    O Llama 3.1 retorna respostas compatíveis com o padrão OpenAI. O Strands, por sua vez, espera que as respostas dos modelos sigam o formato da Bedrock Messages API. Até recentemente, essa era uma desconexão padrão de compatibilidade. Desde dezembro de 2025, o mecanismo de inferência distribuído Amazon Bedrock Mantle passou a oferecer suporte a formatos de mensagem OpenAI.

    Uma resposta típica do Llama 3.1 em formato OpenAI se parece assim:

    {
      "id": "cmpl-abc123",
      "object": "chat.completion",
      "created": 1704067200,
      "model": "meta-llama/Llama-3.1-8B-Instruct",
      "choices": [{
        "index": 0,
        "message": {
          "role": "assistant",
          "content": "I'm doing well, thank you for asking!"
        },
        "finish_reason": "stop"
      }],
      "usage": {
        "prompt_tokens": 23,
        "completion_tokens": 12,
        "total_tokens": 35
      }
    }

    Porém, o suporte ao formato da Messages API não é garantido para todos os modelos hospedados em endpoints de tempo real do SageMaker AI. A plataforma permite hospedar diversos tipos de modelos base em infraestrutura gerenciada com aceleração por GPU, alguns dos quais podem exigir formatos esotéricos de prompt e resposta que não se conformam a APIs padrão. Por exemplo, a classe SageMakerAIModel padrão utiliza o formato legado da Bedrock Messages API e tenta acessar campos que não existem no formato OpenAI Messages padrão, causando falhas do tipo TypeError.

    Implementando um Parser Personalizado

    Parsers de modelos personalizados são um recurso da SDK do Strands Agents que oferece forte compatibilidade e flexibilidade para clientes que constroem agents alimentados por LLMs hospedados no SageMaker AI. A criação de um provider customizado que estende SageMakerAIModel segue este padrão:

    def stream(self, messages: List[Dict[str, Any]], tool_specs: list, system_prompt: Optional[str], **kwargs):
        # Construir mensagens de payload
        payload_messages = []
        if system_prompt:
            payload_messages.append({"role": "system", "content": system_prompt})
        
        # Extrair conteúdo de mensagem do formato Strands
        for msg in messages:
            payload_messages.append({"role": "user", "content": msg['content'][0]['text']})
        
        # Construir payload completo com streaming habilitado
        payload = {
            "messages": payload_messages,
            "max_tokens": kwargs.get('max_tokens', self.max_tokens),
            "temperature": kwargs.get('temperature', self.temperature),
            "top_p": kwargs.get('top_p', self.top_p),
            "stream": True
        }
        
        try:
            # Invocar endpoint SageMaker com streaming
            response = self.runtime_client.invoke_endpoint_with_response_stream(
                EndpointName=self.endpoint_name,
                ContentType='application/json',
                Accept='application/json',
                Body=json.dumps(payload)
            )
            
            # Processar resposta de streaming
            accumulated_content = ""
            for event in response['Body']:
                chunk = event['PayloadPart']['Bytes'].decode('utf-8')
                if not chunk.strip():
                    continue
                
                # Parse de formato SSE: "data: {json}\n"
                for line in chunk.split('\n'):
                    if line.startswith('data: '):
                        try:
                            json_str = line.replace('data: ', '').strip()
                            if not json_str:
                                continue
                            chunk_data = json.loads(json_str)
                            
                            if 'choices' in chunk_data and chunk_data['choices']:
                                delta = chunk_data['choices'][0].get('delta', {})
                                
                                # Renderizar delta de conteúdo em formato Strands
                                if 'content' in delta:
                                    content_chunk = delta['content']
                                    accumulated_content += content_chunk
                                    yield {
                                        "type": "contentBlockDelta",
                                        "delta": {"text": content_chunk},
                                        "contentBlockIndex": 0
                                    }
                                
                                # Verificar conclusão
                                finish_reason = chunk_data['choices'][0].get('finish_reason')
                                if finish_reason:
                                    yield {
                                        "type": "messageStop",
                                        "stopReason": finish_reason
                                    }
                            
                            # Renderizar metadados de uso
                            if 'usage' in chunk_data:
                                yield {
                                    "type": "metadata",
                                    "usage": chunk_data['usage']
                                }
                        except json.JSONDecodeError:
                            continue
        except Exception as e:
            yield {
                "type": "error",
                "error": {
                    "message": f"Endpoint invocation failed: {str(e)}",
                    "type": "EndpointInvocationError"
                }
            }

    O método stream substitui o comportamento padrão de SageMakerAIModel e permite que o agent faça parsing de respostas conforme os requisitos do modelo subjacente. Embora a maioria dos modelos suporte o protocolo OpenAI Messages API, esse recurso permite que usuários avançados aproveitem LLMs altamente especializados no SageMaker AI para alimentar workloads de agents utilizando a SDK do Strands Agents.

    Inicializando Agents com Providers Personalizados

    Uma vez que a lógica personalizada de resposta do modelo é construída, a SDK do Strands Agents simplifica a inicialização de agents com providers de modelos customizados:

    from strands.agent import Agent
    
    # Inicializar provider customizado
    provider = LlamaModelProvider(
        endpoint_name="llama-31-deployment-endpoint",
        region_name="us-east-1",
        max_tokens=1000,
        temperature=0.7
    )
    
    # Criar agent com provider customizado
    agent = Agent(
        name="llama-assistant",
        model=provider,
        system_prompt=(
            "You are a helpful AI assistant powered by Llama 3.1, "
            "deployed on Amazon SageMaker. You provide clear, accurate, "
            "and friendly responses to user questions."
        )
    )
    
    # Testar o agent
    response = agent("What are the key benefits of deploying LLMs on SageMaker?")
    print(response.content)

    Recursos Disponíveis

    A implementação completa deste parser customizado, incluindo um notebook Jupyter com explicações detalhadas e o projeto de deployment gerado pelo ml-container-creator, está disponível no repositório GitHub acompanhador.

    Considerações Finais

    Construir parsers de modelos personalizados para Strands agents oferece aos usuários a oportunidade de aproveitar diferentes deployments de LLM no SageMaker, independentemente do formato de resposta que o modelo retorna. Ao estender SageMakerAIModel e implementar o método stream(), é possível integrar modelos hospedados customizadamente enquanto se mantém a interface limpa do agent oferecida pelo Strands.

    Os principais aprendizados deste artigo são:

    • O ml-container-creator simplifica deployments SageMaker BYOC com código de infraestrutura pronto para produção
    • Parsers personalizados preenchem a lacuna entre os formatos de resposta do servidor de modelos e as expectativas do Strands
    • O método stream() é o ponto crítico de integração para providers customizados

    Fonte

    Building custom model provider for Strands Agents with LLMs hosted on SageMaker AI endpoints (https://aws.amazon.com/blogs/machine-learning/building-custom-model-provider-for-strands-agents-with-llms-hosted-on-sagemaker-ai-endpoints/)

  • Amazon SageMaker HyperPod agora oferece observabilidade completa para Grupos de Instâncias Restritas

    Observabilidade Integrada para Treinamento em Escala

    A AWS anunciou uma expansão significativa no Amazon SageMaker HyperPod: agora o serviço oferece observabilidade abrangente para Grupos de Instâncias Restritas (RIG — Restricted Instance Groups). Este é um avanço importante para equipes que trabalham com treinamento de modelos foundation utilizando Nova Forge, pois elimina a necessidade de coletar e correlacionar manualmente métricas distribuídas pela infraestrutura.

    Visão Unificada da Infraestrutura

    O grande benefício desta capacidade é a consolidação de informações de diferentes camadas técnicas em um único ponto de observação. Através de um painel do Amazon Managed Grafana pré-configurado e alimentado pelo Amazon Managed Service for Prometheus, os profissionais conseguem acompanhar simultaneamente:

    • Utilização de GPU
    • Largura de banda NVLink
    • Pressão de CPU
    • Uso de FSx for Lustre
    • Ciclo de vida dos pods (pod lifecycle)

    Coleta Estruturada de Métricas e Logs

    A arquitetura de monitoramento funciona através de quatro coletores especializados (exporters), cada um responsável por diferentes aspectos da infraestrutura: desempenho de GPU, saúde do sistema em nível de hospedeiro, fabric de rede e estado dos objetos Kubernetes.

    Além das métricas, o sistema disponibiliza logs curados automaticamente nos painéis, incluindo progresso de época, logs em nível de passo de treinamento, erros de pipeline e stack traces de Python. Esta abordagem acelera significativamente o diagnóstico quando falhas ocorrem durante o treinamento.

    Ativação Simples e Intuitiva

    A configuração da observabilidade foi desenhada para ser prática. O recurso é ativado automaticamente sempre que um novo cluster é criado utilizando RIGs. Para clusters já existentes, a ativação requer apenas alguns cliques no console de gerenciamento de clusters do HyperPod.

    Disponibilidade e Próximos Passos

    A observabilidade para Grupos de Instâncias Restritas está disponível em todas as regiões AWS onde o SageMaker HyperPod RIG é suportado. Para aprofundar-se nos detalhes técnicos e começar a usar este recurso, a AWS disponibiliza documentação completa sobre a implementação.

    Fonte

    Amazon SageMaker HyperPod now provides comprehensive observability for Restricted Instance Groups (https://aws.amazon.com/about-aws/whats-new/2026/03/amazon-sagemaker-hyperpod-observability-rig/)

  • Mensagens de Erro de Acesso Negado Aprimoradas com ARNs de Políticas

    O Que Mudou na AWS

    A AWS aprimorou significativamente as mensagens de erro de acesso negado ao incluir o Amazon Resource Name (ARN) da política que está causando a negação. Essa inovação complementa uma melhoria anterior de 2021 que já identificava o tipo de política envolvida. Agora, a plataforma vai além: fornece a identificação precisa da política responsável pela restrição.

    É importante notar que o ARN da política é fornecido apenas em cenários envolvendo a mesma conta AWS ou a mesma organização. A funcionalidade está sendo distribuída gradualmente em todos os serviços AWS em todas as regiões.

    Quais Políticas Recebem essa Melhoria?

    A atualização abrange AWS Identity and Access Management (IAM) e AWS Organizations, cobrindo os seguintes tipos de políticas:

    • Políticas de Controle de Serviço (SCPs — Service Control Policies)
    • Políticas de Controle de Recursos (RCPs — Resource Control Policies)
    • Políticas de Limite de Permissões (Permissions Boundaries)
    • Políticas de Sessão (Session Policies)
    • Políticas Baseadas em Identidade (Identity-Based Policies)

    Comparação: Antes e Depois

    Para ilustrar a diferença prática, considere um desenvolvedor tentando executar a ação ListRoles no IAM, mas sendo bloqueado por uma SCP:

    Mensagem Anterior

    An error occurred (AccessDenied) when calling the ListRoles operation: User: arn:aws:iam::123456789012:user/Matt is not authorized to perform: iam:ListRoles on resource: arn:aws:iam::123456789012:role/* with an explicit deny in a service control policy

    Mensagem Aprimorada

    An error occurred (AccessDenied) when calling the ListRoles operation: User: arn:aws:iam::123456789012:user/Matt is not authorized to perform: iam:ListRoles on resource: arn:aws:iam::123456789012:role/* with an explicit deny in a service control policy: arn:aws:organizations::987654321098:policy/o-qv5af4abcd/service_control_policy/p-2kgnabcd

    Note a diferença fundamental: a mensagem aprimorada inclui o ARN completo da política — arn:aws:organizations::987654321098:policy/o-qv5af4abcd/service_control_policy/p-2kgnabcd — eliminando a necessidade de investigar todas as políticas do mesmo tipo.

    Os Princípios por Trás da Melhoria

    A AWS estruturou essa funcionalidade com três pilares principais:

    1. Escopo Limitado para Segurança

    Os ARNs das políticas aparecem apenas quando a solicitação origina-se da mesma conta ou da mesma organização que a política. Essa limitação reduz o fluxo de informações sensíveis.

    2. Informação Contextual Sem Exposição de Detalhes

    A mensagem fornece apenas o ARN da política — um identificador de recurso — e não o conteúdo completo do documento de política. Isso significa que as permissões específicas e condições não são reveladas. Usuários ainda precisam de permissões apropriadas para acessar o conteúdo real da política ou tomar ações corretivas.

    3. Lógica de Autorização Inalterada

    Essa melhoria afeta exclusivamente a mensagem de erro exibida. A lógica de tomada de decisão sobre autorização permanece a mesma — as mesmas políticas continuam negando ou permitindo acesso da forma anterior.

    Benefícios Práticos para Organizações

    Resolução Mais Rápida de Problemas

    Anteriormente, ao receber um erro de acesso negado originário de uma SCP, era necessário revisar todas as SCPs da organização, determinar quais se aplicavam à conta e avaliar cada uma — um processo demorado. Com o ARN específico incluído na mensagem, qualquer pessoa com permissão adequada pode acessar a política identificada e resolver o problema em minutos.

    Redução da Carga Investigativa

    A precisão do diagnóstico elimina investigações desnecessárias, economizando tempo de administradores e desenvolvedores.

    Comunicação Melhorada Entre Equipes

    Mensagens claras com ARNs da política oferecem um ponto de referência comum, eliminando ambiguidades e reduzindo trocas de mensagens entre equipes de desenvolvimento e operações.

    Validação Rápida de Controles de Segurança

    Ao validar controles de segurança, o ARN na mensagem de erro fornece confirmação imediata de qual política está aplicando a restrição, permitindo que clientes verifiquem rapidamente se suas políticas estão funcionando conforme esperado.

    Um Exemplo Prático: Diagnóstico em Ação

    Imagine um cenário em que você tenta descrever snapshots do Amazon Relational Database Service (Amazon RDS) na região us-east-2:

    aws rds describe-db-snapshots --region us-east-2

    Você recebe um erro de acesso negado com a seguinte mensagem:

    An error occurred (AccessDenied) when calling the DescribeDBSnapshots operation: User: arn:aws:sts::123456789012:assumed-role/ReadOnly/ReadOnlySession is not authorized to perform: rds:DescribeDBSnapshots on resource: arn:aws:rds:us-east-2:123456789012:snapshot:* with an explicit deny in a service control policy: arn:aws:organizations::987654321098:policy/o-qv5af4abcd/service_control_policy/p-lvi9abcd

    O Que Essa Mensagem Nos Diz

    • Tipo de negação: É uma negação explícita — não é simplesmente a ausência de permissão, mas uma política que nega ativa e intencionalmente a ação.
    • Origem da negação: A restrição vem da SCP com o ARN específico: arn:aws:organizations::987654321098:policy/o-qv5af4abcd/service_control_policy/p-lvi9abcd

    Passos para Resolução

    Passo 1: Verifique se você tem permissão para visualizar a SCP. Se não tiver, contate o administrador e forneça a mensagem que inclui o ARN da política.

    Passo 2: Se tiver as permissões necessárias, acesse a SCP através do Console de Gerenciamento AWS para AWS Organizations.

    Passo 3: Procure por uma instrução Deny (negação) para a ação específica. No exemplo, a ação é rds:DescribeDBSnapshots.

    Passo 4: Modifique a instrução para remover a Deny se ela não for mais aplicável. Para mais informações, consulte Atualizar uma política de controle de serviço (SCP).

    Passo 5: Tente novamente a operação. Se continuar recebendo erros de acesso negado por razões ou políticas diferentes, repita o processo de diagnóstico.

    Quando Essa Funcionalidade Estará Disponível

    A atualização está sendo distribuída gradualmente em todos os serviços AWS em todas as regiões, com início previsto para o início de 2026.

    Suporte e Assistência

    Caso tenha dúvidas ou enfrente problemas relacionados a essa funcionalidade, entre em contato com AWS Support ou seu Technical Account Manager (TAM).

    Fonte

    Enhanced access denied error messages with policy ARNs (https://aws.amazon.com/blogs/security/enhanced-access-denied-error-messages-with-policy-arns/)

  • Amazon Lightsail agora oferece OpenClaw, um assistente de IA privado e auto-hospedado

    Uma nova opção de assistente de IA privado no Lightsail

    A AWS anunciou a disponibilidade do OpenClaw no Amazon Lightsail, expandindo as opções para quem busca uma solução de assistente de inteligência artificial (IA) privada e auto-hospedada. Este recurso permite que desenvolvedores e empresas brasileiras implantem o OpenClaw diretamente em sua infraestrutura em nuvem de forma simples e segura, sem depender de plataformas públicas ou modelos em nuvem compartilhada.

    Recursos de segurança integrados e pré-configurados

    O grande diferencial do OpenClaw no Lightsail é a segurança fornecida pronta para uso. Cada instância do OpenClaw vem com controles de segurança construídos e já pré-configurados, eliminando a necessidade de ajustes técnicos complexos. A plataforma utiliza sandboxing para isolar cada sessão de agente, aumentando significativamente a postura de segurança da implementação.

    O acesso ao painel do OpenClaw ocorre através de HTTPS (Protocolo Seguro de Transferência de Hipertexto) com um clique, trazendo o dashboard diretamente no navegador sem exigir configuração manual de Certificados TLS (Transport Layer Security). Além disso, a autenticação por pareamento de dispositivos garante que apenas os dispositivos autorizados consigam se conectar ao assistente de IA.

    As configurações são protegidas através de snapshots automáticos contínuos, garantindo que a instalação nunca seja perdida e possa ser recuperada quando necessário.

    Flexibilidade no uso de modelos e integrações

    O Amazon Bedrock funciona como o provedor de modelo padrão para o Lightsail OpenClaw, mas a AWS permite que usuários alternem entre diferentes modelos conforme suas necessidades evoluem. A plataforma também oferece conectividade com aplicativos de mensageria populares, permitindo integração com Slack, Telegram, WhatsApp e Discord, ampliando as formas de interagir com o assistente.

    Disponibilidade e próximos passos

    O Amazon Lightsail está disponível em 15 regiões da AWS ao redor do mundo, incluindo US East (N. Virginia), US West (Oregon), Europe (Frankfurt), Europe (London), Asia Pacific (Tokyo) e Asia Pacific (Jakarta). Essa cobertura geográfica ampla facilita a implantação localizada, importante para reduzir latência e atender requisitos de residência de dados.

    Para começar, usuários podem acessar o console do Lightsail. Detalhes sobre preços do Amazon Lightsail e mais informações técnicas estão disponíveis na documentação de início rápido.

    Fonte

    Amazon Lightsail now offers OpenClaw, a private self-hosted AI assistant (https://aws.amazon.com/about-aws/whats-new/2026/03/amazon-lightsail-openclaw/)

  • Integrando agentes de chat da Amazon Quick Suite em aplicações empresariais

    O desafio da inteligência artificial conversacional em ambientes empresariais

    As organizações enfrentam dois obstáculos significativos ao implementar IA conversacional. Primeiro, os usuários precisam acessar respostas inteligentes no contexto onde trabalham — dentro do seu sistema de CRM, console de suporte ou portal de análise — sem precisar alternar entre diferentes plataformas. Segundo, construir uma solução de chat embarcada de forma segura frequentemente demanda semanas de desenvolvimento, envolvendo autenticação, validação de tokens, segurança de domínio e infraestrutura global de distribuição.

    A Amazon Quick Suite oferece um chat embarcado que endereça o primeiro desafio trazendo IA conversacional diretamente para dentro das aplicações empresariais. Dessa forma, usuários conseguem consultar dados estruturados, pesquisar documentos e executar ações sem abandonar a ferramenta em que já trabalham. Este artigo explora como resolver o segundo desafio — segurança e implantação — através de uma solução de implantação com um clique, utilizando o Embedding SDK para integrar agentes de chat em portais corporativos.

    Visão geral da solução arquitetônica

    A solução constrói um portal web seguro para o chat embarcado, combinando vários serviços da AWS em uma arquitetura bem definida. O Amazon CloudFront gerencia a distribuição global de conteúdo, Amazon Cognito orquestra autenticação via OAuth 2.0, Amazon API Gateway expõe endpoints REST, AWS Lambda processa as requisições sem servidor, e OpenID Connect (OIDC) integra identidades com a Quick Suite.

    Arquitetura de defesa em profundidade

    A segurança é implementada em múltiplas camadas de proteção. O DDoS (Proteção contra Ataques de Negação de Serviço) atua no CloudFront, um bucket privado do Amazon Simple Storage Service (S3) com controle de acesso de origem previne acesso direto aos assets do frontend, o AWS WAF (Firewall de Aplicação Web) implementa rate limiting no API Gateway, e JSON Web Token (JWT) valida assinaturas criptográficas usando chaves públicas do Amazon Cognito antes de gerar URLs de embed temporárias e específicas por usuário, com permissões de privilégio mínimo via AWS Identity and Access Management (IAM).

    Fluxo de autenticação e autorização

    O processo começa quando usuários acessam a URL do portal web, que é roteada através do CloudFront. O CloudFront usa controle de acesso de origem para buscar arquivos HTML, CSS e JavaScript de um bucket S3 privado. A aplicação web verifica a validade do token de autenticação e redireciona usuários não autenticados para a interface de login do Amazon Cognito com OAuth 2.0.

    Após inserir credenciais, o Amazon Cognito valida as informações e redireciona de volta para a URL do CloudFront com um código de autorização de uso único. A aplicação extrai esse código e faz uma chamada HTTPS para o API Gateway, que passa pelo filtro de rate limiting do AWS WAF. O API Gateway invoca uma função Lambda com o código de autorização.

    A função Lambda faz uma chamada servidor-a-servidor ao endpoint OAuth do Amazon Cognito, trocando o código de autorização por tokens JWT (token de ID, token de acesso, token de atualização). A função valida a assinatura criptográfica do token de ID usando o JSON Web Key Set (JWKS) do Amazon Cognito, com caching thread-safe.

    Obtenção de credenciais temporárias e validação de usuário

    A função Lambda invoca o AWS Security Token Service (STS) através da API AssumeRoleWithWebIdentity, usando o token de ID verificado para assumir um papel IAM de identidade web e receber credenciais temporárias da AWS.

    Com essas credenciais, a função consulta a API ListUsers da Quick Suite para confirmar que o usuário existe, e então chama a API GenerateEmbedUrlForRegisteredUser para gerar uma URL de embed segura com restrições de domínio.

    A função retorna a URL de embed em uma resposta JSON com headers de compartilhamento de recursos entre origens (CORS) através do API Gateway para o CloudFront. A aplicação CloudFront utiliza o Quick Suite Embedding SDK para criar um contexto de embedding e renderizar a interface de chat em um iframe HTML com comunicação segura entre origens.

    Pré-requisitos para implementação

    A solução requer uma conta AWS, uma assinatura Quick Suite com método de autenticação baseado em senha ou Single-Sign On, o AWS CDK CLI, o AWS SDK para Python (Boto3), um perfil AWS CLI com permissões apropriadas (incluindo listagem de namespaces Quick Suite, criação de papéis IAM e recursos AWS como distribuição CloudFront, bucket S3, API Gateway REST, AWS WAF Web ACL e função Lambda), Node.js 20+, jq 1.7+, e Docker Desktop em execução.

    Implantação da infraestrutura serverless

    Para implantar a infraestrutura usando AWS CDK, comece clonando o repositório GitHub:

    git clone git@github.com:aws-samples/sample-quicksuite-chat-embedding.git
    cd sample-quicksuite-chat-embedding

    Em seguida, execute o script de configuração:

    ./setup.sh

    Você será solicitado a informar seu código de região AWS, o ID da stack do AWS CloudFormation, o título do portal, e seu perfil AWS CLI.

    Provisionamento de usuários

    Após a infraestrutura estar implantada, crie um usuário no Amazon Cognito:

    python scripts/create_cognito_user.py --profile  

    Em seguida, crie um usuário federado na Quick Suite:

    python scripts/create_quicksuite_user.py --profile  

    Para compartilhar agentes de chat, acesse o console Quick Suite com credenciais de função Author Pro, navegue até Chat agents, selecione os agentes desejados e escolha Share. Pesquise pelo nome de usuário criado anteriormente e confirme o compartilhamento. Lembre-se de que cada recurso vinculado ao agente também precisa ser compartilhado separadamente para garantir funcionalidade completa.

    Acesso e utilização do portal

    Procure pela senha temporária no email de verificação do Amazon Cognito. Acesse a URL do CloudFront usando o ID de usuário e a senha temporária fornecida. Na primeira autenticação, você será solicitado a alterar sua senha. Após o login bem-sucedido, selecione a região para conectar aos agentes de chat personalizados da Quick Suite. Para visualizar os agentes compartilhados, escolha Shared with me no filtro e inicie uma conversa com o agente desejado.

    Limpeza de recursos

    Para remover os recursos implantados e evitar custos contínuos, execute:

    ./cleanup.sh

    Considerações finais

    Essa solução aborda os desafios centrais da integração de IA conversacional em escala: autenticação segura para milhares de usuários simultâneos em diferentes localizações geográficas, manutenção de segurança de nível empresarial com trilhas de auditoria abrangentes, e simplificação da implantação através do provisionamento automatizado de infraestrutura. O portal pode ser personalizado quanto à marca, as políticas de segurança ajustadas, e integrado com provedores de identidade existentes. A solução escala automaticamente para milhares de usuários simultâneos mantendo modelo de pagamento conforme você usa.

    Para experimentar essa solução, clone o repositório GitHub e implante a infraestrutura completa com um clique para integrar agentes de chat Quick Suite em suas aplicações empresariais.

    Fonte

    Embed Amazon Quick Suite chat agents in enterprise applications (https://aws.amazon.com/blogs/machine-learning/embed-amazon-quick-suite-chat-agents-in-enterprise-applications/)

  • Como o Amazon Nova Potencializa a Análise de Dados em Centrais de Atendimento

    Inteligência artificial em centrais de atendimento

    As centrais de atendimento ao cliente são ambientes críticos para o sucesso de qualquer organização. Melhorar a experiência dos clientes e a eficiência operacional nestes espaços depende de análises profundas dos dados de interação. Com a adoção de modelos de fundação — programas de IA treinados em enormes volumes de dados — é possível transformar significativamente a qualidade das operações e das análises realizadas nestes ambientes.

    A inteligência artificial generativa oferece suporte aos agentes de atendimento e aos gestores de equipes, permitindo que extraiam insights mais nuançados dos dados de chamadas. Essa mudança redefine como as perguntas são formuladas e que tipo de análise é possível realizar sobre o histórico de interações com clientes.

    Organizações têm diferentes abordagens para implementar IA generativa em suas operações. Algumas optam por soluções prontas, como o Amazon Connect Contact Lens. Outras preferem construir sistemas personalizados de suporte ao cliente, utilizando os serviços da AWS como base de infraestrutura. Nesse segundo caso, surge a oportunidade de integrar modelos de fundação ao sistema existente, oferecendo apoio de IA aos agentes e seus gestores.

    Uma das principais decisões que estas organizações enfrentam é qual modelo escolher para alimentar as capacidades de IA e análise em sua plataforma. Para explorar essa questão, o Centro de Inovação em IA Generativa da AWS desenvolveu uma aplicação de demonstração que apresenta diversos casos de uso baseados na mais recente família de modelos de fundação: o Amazon Nova. Este artigo aborda como o Amazon Nova demonstra capacidades práticas em análise conversacional, classificação de chamadas e outros casos de uso relevantes para soluções de centrais de atendimento.

    Características do Amazon Nova para escala

    Os modelos de fundação Amazon Nova oferecem um equilibro excepcional entre custo e desempenho, tornando-os ideais para implementação em larga escala. Estes modelos foram pré-treinados em vastos conjuntos de dados, capacitando-os a realizar uma ampla gama de tarefas de linguagem natural com precisão e eficiência, mesmo quando submetidos a alto volume de requisições.

    No contexto de análise de centrais de atendimento, os modelos Amazon Nova conseguem compreender conversas complexas, extrair informações relevantes e gerar insights valiosos que, anteriormente, eram difíceis ou impossíveis de obter em escala.

    A aplicação de demonstração apresenta capacidades do Amazon Nova em tarefas analíticas como:

    • Análise de sentimento
    • Identificação de tópicos de conversa
    • Avaliação de clientes em situação de vulnerabilidade
    • Verificação de aderência a protocolos
    • Resposta a perguntas interativas sobre as chamadas

    Ao usar essas capacidades avançadas de IA, empresas ganham compreensão mais profunda de suas interações com clientes e conseguem tomar decisões fundamentadas em dados para melhorar a qualidade do atendimento e a eficiência operacional.

    Visão geral da solução

    A aplicação de análise de centrais de atendimento foi construída sobre uma arquitetura simples que integra sem barreiras o Amazon Bedrock e o Amazon Nova, possibilitando análise completa de chamadas — tanto análises isoladas quanto comparativas entre múltiplas chamadas.

    Fonte: Aws

    Os componentes principais da arquitetura incluem:

    • Amazon Bedrock – Fornece acesso aos modelos de fundação Amazon Nova, habilitando capacidades poderosas de processamento de linguagem natural
    • Amazon Athena – Utilizado para consultar dados de chamadas armazenados em formato estruturado, permitindo recuperação e análise eficiente
    • Amazon Transcribe – Serviço gerenciado de reconhecimento automático de fala (Reconhecimento Automático de Fala — ASR)
    • Amazon Simple Storage Service (Amazon S3) – Serviço de armazenamento de objetos com escalabilidade, disponibilidade, segurança e desempenho líderes do setor
    • Streamlit – Alimenta a interface web, oferecendo uma experiência intuitiva e interativa aos usuários

    A aplicação se divide em dois componentes principais: Análise de Chamada Isolada e Análise de Múltiplas Chamadas. Estes scripts trabalham em conjunto para oferecer uma solução abrangente que combina análise pós-chamada com insights de dados históricos.

    Análise de chamada isolada

    A funcionalidade de análise de chamada isolada fornece exame detalhado de interações individuais de atendimento ao cliente. Esta seção explora algumas das capacidades principais desta funcionalidade.

    Análise de sentimento e identificação de clientes vulneráveis

    A solução utiliza os modelos de fundação Amazon Nova para extrair insights sobre sentimento tanto do cliente quanto do agente de atendimento.

    Fonte: Aws

    Através de um assistente conversacional, usuários conseguem solicitar explicações sobre a classificação de sentimento atribuída e obter referências diretas na transcrição da chamada. Este recurso oferece melhor compreensão da classificação ao localizar rapidamente as expressões que fundamentaram a análise — informações que podem ser reutilizadas em outras análises posteriormente.

    Um cliente vulnerável ou potencialmente vulnerável é aquele que, devido a suas circunstâncias pessoais, está particularmente exposto a riscos financeiros ou necessita de consideração especial em contextos de serviços financeiros. A aplicação avalia se o cliente que realizou a chamada se qualifica como cliente vulnerável ou potencialmente vulnerável, processando a transcrição da conversa através de um prompt estruturado.

    O modelo Amazon Nova utiliza uma definição genérica de cliente vulnerável para realizar a classificação. Contudo, se a empresa possui sua própria definição específica, é possível personalizar o prompt para que o modelo execute a classificação conforme os critérios internos. Este recurso auxilia gestores de centrais de atendimento a identificar situações potencialmente sensíveis e garantir que clientes vulneráveis recebam o cuidado e atenção apropriados, com explicação clara sobre os motivos da identificação.

    Assistência em protocolos e rastreamento de etapas

    Os modelos Amazon Nova identificam automaticamente qual protocolo é relevante para cada chamada e verificam se o agente seguiu todas as etapas prescritas. Os protocolos são definidos em um arquivo de configuração que é carregado no momento da execução da aplicação.

    O processo funciona em duas etapas: primeiro, o modelo identifica o protocolo relevante consultando a transcrição da chamada e comparando com a lista de protocolos disponíveis. Em seguida, a transcrição e as etapas do protocolo identificado são processadas juntas para verificar se cada passo foi completado pelo agente. Os resultados são exibidos em um formato amigável, permitindo que gestores avaliem rapidamente o desempenho do agente e sua conformidade com as diretrizes estabelecidas.

    Fonte: Aws

    Visualização interativa de transcrição e assistente de IA

    A página de análise de chamada isolada oferece uma visualização interativa da transcrição, permitindo que usuários leiam a conversa entre agente e cliente. Além disso, inclui um assistente de IA que permite formular perguntas específicas sobre a chamada.

    Fonte: Aws

    Esta funcionalidade, ativada pelos modelos Amazon Nova, facilita investigação profunda de aspectos específicos da chamada sem necessidade de busca manual pela transcrição inteira.

    Análise de múltiplas chamadas

    A funcionalidade de análise de múltiplas chamadas oferece exame agregado entre várias interações e possibilita consultas potentes de inteligência de negócios.

    Visualização de dados e seleção flexível de modelos

    Este recurso auxilia usuários a visualizar rapidamente tendências e padrões ao longo de múltiplas chamadas, facilitando a identificação de áreas para melhoria ou sucesso. A visualização dos cinco principais tópicos de chamadas também é alimentada pelos modelos Amazon Nova — usuários podem classificar o assunto de cada chamada submetendo a transcrição ao modelo, que determina o tema principal.

    Fonte: Aws

    Este recurso permite que empresas classifiquem chamadas rapidamente e as organizem por categoria de tema para gerar visualizações. Ao identificar os principais motivos pelos quais clientes entram em contato, as empresas conseguem focar em estratégias para reduzir o volume de chamadas nessas categorias.

    A aplicação oferece ainda opções flexíveis de seleção de modelos, permitindo aos usuários escolher entre diferentes variantes do Amazon Nova — como Nova Pro, Nova Lite e Nova Micro — para diferentes tarefas analíticas. Esta flexibilidade permite selecionar o modelo mais apropriado para necessidades e casos de uso específicos.

    Assistente de IA analítico

    Um dos recursos principais da página de análise de múltiplas chamadas é o Assistente de IA Analítico, que consegue processar consultas complexas de inteligência de negócios utilizando SQL. O assistente compreende consultas complexas, traduz-as em instruções SQL e até sugere tipos de gráficos apropriados para visualizar os resultados.

    Fonte: Aws

    As consultas SQL são executadas em dados processados pelo Amazon Transcribe e consultados através do Athena, sendo posteriormente apresentadas no Assistente de IA Analítico.

    Implementação prática

    A aplicação de análise de chamadas foi desenvolvida utilizando a interface de usuário Streamlit, escolhida pela velocidade e simplicidade de desenvolvimento. A aplicação combina casos de uso específicos e tarefas de IA para oferecer uma amostra das possibilidades que os modelos Amazon Nova podem proporcionar em operações e análises de centrais de atendimento.

    Para informações detalhadas sobre como esta aplicação foi implementada, consulte o repositório no GitHub.

    Conclusão

    Os modelos de fundação Amazon Nova representam avanço significativo no campo de análise de centrais de atendimento. Ao aproveitar o poder desses modelos avançados de IA, empresas conseguem extrair insights únicos de interações com clientes, melhorar o desempenho de agentes e aumentar a eficiência operacional geral.

    Os recursos abrangentes da aplicação — incluindo análise de sentimento, verificação de aderência a protocolos, avaliação de clientes vulneráveis e capacidades robustas de inteligência de negócios — oferecem aos gestores de centrais de atendimento as ferramentas necessárias para tomar decisões baseadas em dados e melhorar continuamente operações de atendimento ao cliente.

    À medida que os modelos de fundação Amazon Nova evoluem e se aprimoram, é esperado que capacidades ainda mais avançadas e sofisticadas de análise se tornem disponíveis. Esta demonstração representa um excelente ponto de partida para organizações que desejam explorar o potencial da análise de centrais de atendimento alimentada por IA e aplicar essas técnicas em seu próprio ambiente.

    Fonte

    Unlock powerful call center analytics with Amazon Nova foundation models (https://aws.amazon.com/blogs/machine-learning/unlock-powerful-call-center-analytics-with-amazon-nova-foundation-models/)

  • Certificações ISO e CSA STAR 2025 agora incluem um novo serviço e uma nova região

    Novas certificações da AWS em conformidade e segurança

    A Amazon Web Services (AWS) finalizou com êxito o ciclo anual de auditoria de recertificação sem achados em conformidade para um conjunto abrangente de normas internacionais. Os padrões validados incluem ISO 9001:2015, 27001:2022, 27017:2015, 27018:2019, 27701:2019, 20000-1:2018 e 22301:2019, além da certificação Cloud Security Alliance (CSA) STAR Cloud Controls Matrix (CCM) v4.0.

    Ampliação do escopo de certificação

    Como parte do processo de recertificação, o objetivo da auditoria foi expandir as certificações existentes para incorporar novos componentes ao escopo de validação. Dois elementos foram adicionados especificamente: a região Ásia Pacífico (Taipei) e o serviço AWS Deadline Cloud. Essas inclusões reforçam o compromisso da AWS em manter controles de segurança robustos e expandir a proteção de dados dos clientes em suas operações globais.

    O que as normas ISO cobrem

    As certificações ISO validadas abrangem áreas essenciais para operações em nuvem, incluindo gestão da qualidade, segurança da informação, segurança específica para ambientes em nuvem, proteção de privacidade, gestão de serviços e continuidade de negócios. Juntas, essas normas formam um framework completo que demonstra o comprometimento da AWS com padrões internacionais de segurança e confiabilidade.

    Acesso às certificações e recursos

    Clientes que desejam consultar a lista completa de serviços AWS certificados sob os padrões ISO e CSA STAR podem acessar a página ISO and CSA STAR Certified. Além disso, essas certificações estão disponíveis diretamente no AWS Management Console através do serviço AWS Artifact, facilitando a auditoria e conformidade para organizações que utilizam a plataforma.

    Fonte

    2025 ISO and CSA STAR certificates are now available with one additional service and one new region (https://aws.amazon.com/blogs/security/2025-iso-and-csa-star-certificates-are-now-available-with-one-additional-service-and-one-new-region/)

  • AWS simplifica a criação e configuração de funções IAM diretamente nos fluxos de trabalho

    Simplificação na criação de funções IAM

    A AWS Identity and Access Management (IAM) recebeu uma importante melhoria que torna o processo de criação e configuração de funções significativamente mais direto e eficiente. A novidade permite que você estabeleça e customize funções de acesso sem necessidade de alternar entre múltiplas abas ou navegadores.

    Quando você realiza tarefas no console que envolvem configuração de funções, um novo painel aparece para definir as permissões necessárias. Essa abordagem integrada reduz a complexidade de um processo que tradicionalmente exigia navegação entre diferentes seções da plataforma.

    Como as funções IAM funcionam

    As funções do IAM desempenham um papel essencial na segurança das conexões entre serviços AWS. Elas habilitam conexões seguras entre diferentes serviços usando credenciais temporárias, eliminando completamente a necessidade de chaves de acesso hardcoded (fixas no código). Essa é uma prática de segurança fundamental em ambientes de produção.

    Com essa integração, o processo de configuração de funções e permissões agora ocorre diretamente dentro dos fluxos de trabalho dos serviços, sem que você precise navegar para o console específico de IAM. Você pode tanto utilizar políticas padrão já disponíveis quanto usar um construtor simplificado de declarações para personalizar suas permissões conforme necessário.

    Serviços e disponibilidade

    Este recurso já está disponível ao trabalhar com os seguintes serviços AWS:

    • Amazon EC2
    • AWS Lambda
    • Amazon EKS
    • Amazon ECS
    • AWS Glue
    • AWS CloudFormation
    • AWS Database Migration Service
    • AWS Systems Manager
    • AWS Secrets Manager
    • Amazon Relational Database Service
    • AWS IoT Core

    No momento do anúncio, a funcionalidade está disponível na região US East (N. Virginia). A AWS planeja uma expansão gradual para serviços adicionais e outras regiões.

    Mantendo a funcionalidade completa

    A simplificação do processo não significa perda de funcionalidade. O novo painel integrado mantém toda a potência e controle fino do gerenciamento de funções IAM, permitindo que você configure permissões granulares e customize políticas com a mesma profundidade que teria acessando diretamente o console de IAM.

    Para mais informações técnicas e detalhes de implementação, você pode consultar o guia do usuário de cada serviço específico ou a documentação de IAM.

    Fonte

    AWS simplifies IAM role creation and setup in service workflows (https://aws.amazon.com/about-aws/whats-new/2026/03/aws-simplifies-iam-role-creation-and-setup/)