Author: Make.com Service User

  • Amazon Aurora DSQL agora permite criar clusters em segundos

    Uma nova forma de provisionar bancos de dados na AWS

    A AWS anunciou uma importante melhoria no Amazon Aurora DSQL: a plataforma agora oferece a capacidade de criar clusters de banco de dados em questão de segundos, reduzindo drasticamente o tempo de configuração que anteriormente levava minutos. Essa otimização representa um avanço significativo para organizações que buscam agilidade no desenvolvimento e prototipagem de aplicações em nuvem.

    O que mudou com essa melhoria

    A redução no tempo de criação de clusters traz benefícios práticos imediatos para desenvolvedoras e desenvolvedores. Com a possibilidade de provisionar bancos de dados Aurora DSQL em segundos, é possível colocar novas ideias em produção muito mais rapidamente, sem aguardar processos de configuração longos e complexos.

    A experiência foi ainda potencializada com a integração do editor de consultas direto no console da AWS. Isso significa que os desenvolvedores podem começar a trabalhar imediatamente, construindo aplicações sem necessidade de configurar clientes externos ou conectar-se através do servidor Model Context Protocol (MCP) do Aurora DSQL para ativar ferramentas de desenvolvimento com inteligência artificial.

    Capacidades principais do Aurora DSQL

    Independentemente do cenário — seja prototipagem rápida ou carga de produção em larga escala — o Aurora DSQL oferece um conjunto robusto de características:

    • Escalabilidade virtualmente ilimitada para acompanhar o crescimento da sua aplicação
    • Alta disponibilidade ativa-ativa, garantindo continuidade de operação
    • Zero necessidade de gerenciamento de infraestrutura
    • Modelo de preço por consumo: você paga apenas pelo que usa

    Essa combinação de recursos garante que o banco de dados escala de forma automática conforme as demandas da aplicação aumentam, sem comprometer performance ou disponibilidade.

    Disponibilidade e como começar

    A melhoria de criação de clusters em segundos está disponível em todas as regiões onde o Aurora DSQL é oferecido. Para aqueles que desejam explorar a plataforma sem investimento inicial, a AWS disponibiliza o AWS Free Tier com acesso gratuito ao Aurora DSQL.

    Para aprofundar seus conhecimentos sobre o serviço, é possível consultar a página oficial do Aurora DSQL e sua documentação técnica, onde você encontrará guias detalhados e exemplos práticos de implementação.

    Fonte

    Amazon Aurora DSQL now supports cluster creation in seconds (https://aws.amazon.com/about-aws/whats-new/2025/12/amazon-aurora-dsql-cluster-creation-in-seconds)

  • Amazon Cognito agora suporta conectividade privada com AWS PrivateLink

    Nova funcionalidade de conectividade privada no Amazon Cognito

    A AWS anunciou suporte para AWS PrivateLink no Amazon Cognito identity pools, uma adição significativa para organizações que buscam maior segurança em seus fluxos de autenticação. Com essa novidade, agora é possível trocar identidades federadas por credenciais da AWS através de conectividade privada entre sua nuvem privada virtual (Virtual Private Cloud — VPC) e o Cognito.

    A principal vantagem dessa funcionalidade é eliminar a necessidade de rotear tráfego de autenticação pela internet pública. Isso resulta em uma postura de segurança aprimorada para cargas de trabalho que exigem isolamento de rede rigoroso.

    Como funciona a integração com identity pools

    Os identity pools do Cognito têm a função de mapear identidades autenticadas e de convidado para papéis (roles) do AWS Identity and Access Management (IAM) e fornecer credenciais temporárias da AWS. Com o suporte ao PrivateLink, esse mapeamento agora pode ocorrer através de uma conexão segura e privada, mantendo o tráfego completamente isolado dentro da infraestrutura da AWS.

    Disponibilidade e cobertura geográfica

    Você pode utilizar conexões PrivateLink em todas as regiões da AWS onde o Amazon Cognito identity pools está disponível, com exceção da região AWS China (Beijing), operada pela Sinnet, e das regiões AWS GovCloud (US).

    É importante observar que a criação de endpoints VPC no AWS PrivateLink gera custos adicionais. Para conhecer os detalhes de precificação, consulte a página de preços do AWS PrivateLink.

    Como começar

    Para iniciar o uso dessa funcionalidade, você pode criar um endpoint de interface VPC do AWS PrivateLink para o Amazon Cognito identity pools utilizando qualquer uma das seguintes ferramentas:

    • AWS Management Console
    • AWS Command Line Interface (CLI)
    • AWS Software Development Kits (SDKs)
    • AWS Cloud Development Kit (CDK)
    • AWS CloudFormation

    Para aprofundar-se na implementação, consulte a documentação sobre como criar um endpoint de interface VPC e o guia do desenvolvedor do Amazon Cognito.

    Fonte

    Amazon Cognito identity pools now support private connectivity with AWS PrivateLink (https://aws.amazon.com/about-aws/whats-new/2025/12/amazon-cognito-identity-pools-private-connectivity-aws-privatelink)

  • MLflow em escala empresarial: as novidades do SageMaker AI

    MLflow para empresas: nova era de escalabilidade automática

    A AWS anunciou recentemente Amazon SageMaker AI com MLflow, agora incluindo uma capacidade serverless que gerencia dinamicamente provisionamento de infraestrutura, escalabilidade e operações para tarefas de desenvolvimento em inteligência artificial e aprendizado de máquina (IA/ML). O destaque principal é que os recursos aumentam durante experimentos intensivos e reduzem a zero quando não estão em uso, diminuindo significativamente o overhead operacional.

    A nova versão traz funcionalidades de nível empresarial como controle de acesso simplificado com compartilhamento entre contas, atualizações automáticas de versões e integração com capacidades do SageMaker AI, como customização de modelos e pipelines. O melhor: não exige configuração de administrador e não tem custo adicional, permitindo que cientistas de dados comecem imediatamente a rastrear experimentos, implementar observabilidade e avaliar desempenho de modelos sem delays relacionados a infraestrutura.

    Recursos empresariais do SageMaker AI com MLflow

    A nova capacidade serverless do MLflow no SageMaker AI oferece gerenciamento de nível empresarial com escalabilidade automática, provisionamento padrão, atualizações de versão perfeitas, autorização simplificada de AWS Identity and Access Management (IAM), compartilhamento de recursos através do AWS Resource Access Manager (AWS RAM), e integração com Amazon SageMaker Pipelines e customização de modelos.

    Imagem original — fonte: Aws

    A terminologia mudou: “MLflow Apps” agora substitui a designação anterior de “servidores de rastreamento MLflow”, refletindo uma abordagem simplificada e focada em aplicações. Cientistas de dados acessam a nova página MLflow Apps no Amazon SageMaker Studio.

    Um MLflow App padrão é provisionado automaticamente ao criar um domínio SageMaker Studio, simplificando todo o processo de configuração. Já sai pronto para uso empresarial, sem exigir provisionamento ou configuração adicional. O MLflow App escala elasticamente conforme o uso, eliminando a necessidade de planejamento manual de capacidade. Cargas de trabalho de treinamento, rastreamento e experimentação recebem automaticamente os recursos necessários, simplificando operações enquanto mantém desempenho.

    Atualizações automatizadas e versionamento

    Administradores podem definir uma janela de manutenção durante a criação do MLflow App, período no qual ocorrem atualizações in-place da versão. Isso garante que o MLflow App permaneça padronizado, seguro e constantemente atualizado, minimizando overhead de manutenção manual. A versão 3.4 do MLflow é suportada neste lançamento, estendendo a plataforma para aplicações de IA generativa e cargas de trabalho com agentes.

    Controle de identidades simplificado com MLflow Apps

    A AWS simplificou o controle de acesso e permissões IAM para equipes de aprendizado de máquina com o novo MLflow App. Um conjunto de permissões racionalizado, como sagemaker:CallMlflowAppApi, agora cobre operações comuns — desde criar e buscar experimentos até atualizar informações de rastreamento — tornando o controle de acesso muito mais direto de aplicar.

    Ao ativar limites de permissões IAM simplificados, usuários e administradores de plataforma podem padronizar papéis IAM entre equipes, personas e projetos, facilitando acesso consistente e auditável a experimentos e metadados do MLflow. Para configurações completas de permissão e políticas IAM, a documentação disponibiliza detalhes em Set up IAM permissions for MLflow Apps.

    Compartilhamento entre contas AWS usando AWS RAM

    Administradores frequentemente desejam gerenciar centralmente sua infraestrutura MLflow enquanto provisionam acesso em diferentes contas AWS. Os MLflow Apps suportam compartilhamento entre contas para desenvolvimento empresarial colaborativo em IA. Usando AWS RAM, essa funcionalidade permite que administradores de plataforma de IA compartilhem um MLflow App perfeitamente entre cientistas de dados em contas consumidoras separadas.

    Imagem original — fonte: Aws

    Administradores de plataforma mantêm um domínio SageMaker centralizado e governado que provisiona e gerencia o MLflow App, enquanto cientistas de dados em contas consumidoras separadas podem iniciar e interagir com o MLflow App com segurança. Combinado com as novas permissões IAM simplificadas, empresas podem iniciar e gerenciar um MLflow App a partir de uma conta AWS administrativa centralizada. Usando o MLflow App compartilhado, um cientista de dados consumidor downstream pode registrar suas experimentações MLflow e cargas de trabalho de IA generativa mantendo governança, auditabilidade e conformidade a partir de um único plano de controle do administrador de plataforma. Para saber mais sobre compartilhamento entre contas, consulte Getting Started with AWS RAM.

    Integração entre SageMaker Pipelines e MLflow

    Amazon SageMaker Pipelines está integrado ao MLflow. Trata-se de um serviço serverless de orquestração de fluxo de trabalho construído especificamente para automação de MLOps (operações de aprendizado de máquina) e LLMOps (operações com modelos de linguagem grande). Você pode construir, executar e monitorar fluxos de trabalho ML repetíveis de ponta a ponta de forma perfeita, usando interface arrastar-e-soltar intuitiva ou SDK Python.

    A partir de um pipeline SageMaker, um MLflow App padrão é criado automaticamente se não existir, um nome de experimento MLflow pode ser definido, e métricas, parâmetros e artefatos são registrados no MLflow App conforme definido no código do pipeline SageMaker.

    Imagem original — fonte: Aws

    Customização de modelos SageMaker e integração com MLflow

    A customização de modelos SageMaker integra-se com MLflow por padrão, oferecendo vinculação automática entre trabalhos de customização de modelos e experimentos MLflow. Ao executar trabalhos de fine-tuning (ajuste fino) de customização de modelos, o MLflow App padrão é utilizado, um experimento é selecionado, e métricas, parâmetros e artefatos são registrados automaticamente.

    Na página de trabalho de customização de modelos do SageMaker, você pode visualizar métricas provenientes do MLflow e acessar métricas adicionais na interface do MLflow.

    Imagem original — fonte: Aws

    Próximos passos

    Essas funcionalidades preparam os novos MLflow Apps no SageMaker AI para cargas de trabalho ML e IA generativa em escala empresarial com mínimo peso administrativo. Para começar, existem exemplos disponíveis no repositório de exemplos no GitHub e em workshop AWS.

    Os MLflow Apps estão geralmente disponíveis nas regiões AWS onde o SageMaker Studio está disponível, com exceção das regiões China e US GovCloud. Para explorar a nova capacidade, você pode visitar a página de detalhes do produto SageMaker AI com MLflow e consultar a documentação sobre aceleração de desenvolvimento de IA generativa usando MLflow gerenciado no Amazon SageMaker AI. Para feedback, a AWS disponibiliza AWS re:Post para SageMaker ou canais usuais de suporte AWS.

    Fonte

    Scaling MLflow for enterprise AI: What’s New in SageMaker AI with MLflow (https://aws.amazon.com/blogs/machine-learning/scaling-mlflow-for-enterprise-ai-whats-new-in-sagemaker-ai-with-mlflow/)

  • Observabilidade de Agentes no Amazon Bedrock AgentCore com Langfuse

    O Desafio da Transparência em Agentes de IA

    O surgimento de agentes de inteligência artificial marca uma mudança profunda no desenvolvimento de software e na forma como as aplicações tomam decisões e interagem com usuários. Enquanto sistemas tradicionais seguem caminhos previsíveis, agentes de IA realizam raciocínios complexos que frequentemente permanecem ocultos à visão. Essa invisibilidade cria um desafio para as organizações: como confiar em algo que não conseguem visualizar completamente?

    É nesse contexto que entra a observabilidade de agentes, oferecendo visibilidade profunda sobre como aplicações acionárias funcionam, interagem e executam suas tarefas. A capacidade de compreender cada etapa da execução de um agente não é apenas uma conveniência — é essencial para garantir confiabilidade, otimizar desempenho e controlar custos em produção.

    Integrando Langfuse com Amazon Bedrock AgentCore

    A Langfuse é uma plataforma de observabilidade e avaliação para aplicações que utilizam modelos de linguagem. Quando integrada com o Amazon Bedrock AgentCore, ela oferece visibilidade detalhada sobre o desempenho de agentes de IA, facilitando a depuração rápida de problemas e permitindo otimizações baseadas em dados reais.

    O Amazon Bedrock AgentCore é uma plataforma abrangente que permite implantar e operar agentes de IA altamente capazes, de forma segura e em escala. Oferece infraestrutura propositalmente construída para cargas de trabalho dinâmicas de agentes, ferramentas poderosas para aprimorá-los e controles essenciais para implantação em ambientes reais. A plataforma funciona com diversos frameworks — incluindo CrewAI, LangGraph, LlamaIndex e Strands Agents — e com qualquer modelo de fundação, dentro ou fora do Bedrock, oferecendo flexibilidade e confiabilidade.

    Visão geral da arquitetura de integração entre código de agente, Amazon ECR Repository e AgentCore Runtime Endpoint

    Como Funciona o Rastreamento com Langfuse

    A Langfuse utiliza OpenTelemetry (OTEL) para rastrear e monitorar agentes implantados no Amazon Bedrock AgentCore. OpenTelemetry é um projeto da Cloud Native Computing Foundation (CNCF) que fornece especificações, APIs e bibliotecas para definir uma forma padrão de coletar traces distribuídos e métricas de uma aplicação.

    Com essa integração, desenvolvedores conseguem acompanhar métricas de desempenho cruciais, incluindo uso de tokens, latência e durações de execução em diferentes fases de processamento. O sistema cria estruturas hierárquicas de rastreamento que capturam tanto respostas em streaming quanto não-streaming, com atributos detalhados de operações e estados de erro.

    Através do endpoint `/api/public/otel`, a Langfuse funciona como um Backend OpenTelemetry, mapeando traces para seu modelo de dados usando convenções de IA generativa. Isso é particularmente valioso para aplicações complexas de modelos de linguagem que utilizam cadeias e agentes com ferramentas, onde traces aninhados ajudam desenvolvedores a identificar e resolver problemas rapidamente.

    Além da observabilidade de agentes, a Langfuse oferece um conjunto integrado de ferramentas que abrangem todo o ciclo de vida do desenvolvimento de aplicações com IA: execução de avaliadores automatizados, organização de dados para análise de causa raiz, rastreamento de experimentos, iteração interativa em promptas e controle de versão através de gerenciamento de prompts.

    Visão Geral da Solução

    A solução demonstrada implanta um agente Strands no AgentCore Runtime com observabilidade Langfuse. A implementação utiliza modelos Anthropic Claude acessados através do Amazon Bedrock. Os dados de telemetria fluem do agente Strands através de exportadores OTEL até a Langfuse para monitoramento e depuração.

    Os componentes-chave utilizados na solução incluem:

    • Strands Agents: Framework Python para construir agentes acionários com suporte de telemetria integrado
    • Amazon Bedrock AgentCore Runtime: Serviço de runtime gerenciado para hospedagem e dimensionamento de agentes na AWS
    • Langfuse: Plataforma de observabilidade e avaliação de código aberto para aplicações com modelos de linguagem
    • OpenTelemetry: Protocolo padrão do setor para coleta e exportação de dados de telemetria

    Guia de Implementação Técnica

    Pré-requisitos

    Antes de começar, certifique-se de ter em mãos:

    • Uma conta AWS com credenciais configuradas corretamente através do AWS CLI ou variáveis de ambiente
    • Acesso a modelos Anthropic Claude 3.7 na região us-west-2
    • Permissões adequadas do Amazon Bedrock AgentCore
    • Python 3.10+ instalado
    • Docker instalado localmente
    • Uma conta Langfuse com chave de API gerada (registre-se em Langfuse cloud, crie um projeto e obtenha as chaves de API)

    Passo 1: Dependências Python

    Comece instalando as dependências necessárias definidas no arquivo requirements.txt:

    !pip install --force-reinstall -U -r requirements.txt –quiet

    Passo 2: Implementação do Agente

    O arquivo do agente (strands_claude.py) implementa um agente de viagens com capacidades de busca na web. Aqui está a estrutura principal:

    import os
    import logging
    from bedrock_agentcore.runtime import BedrockAgentCoreApp
    from strands import Agent, tool
    from strands.models import BedrockModel
    from strands.telemetry import StrandsTelemetry
    from ddgs import DDGS
    
    logging.basicConfig(level=logging.ERROR, format="[%(levelname)s] %(message)s")
    logger = logging.getLogger(__name__)
    logger.setLevel(os.getenv("AGENT_RUNTIME_LOG_LEVEL", "INFO").upper())
    
    @tool
    def web_search(query: str) -> str:
        """
        Search the web for information using DuckDuckGo.
        Args:
            query: The search query
        Returns:
            A string containing the search results
        """
        try:
            ddgs = DDGS()
            results = ddgs.text(query, max_results=5)
            formatted_results = []
            for i, result in enumerate(results, 1):
                formatted_results.append(
                    f"{i}. {result.get('title', 'No title')}\n"
                    f" {result.get('body', 'No summary')}\n"
                    f" Source: {result.get('href', 'No URL')}\n"
                )
            return "\n".join(formatted_results) if formatted_results else "No results found."
        except Exception as e:
            return f"Error searching the web: {str(e)}"
    
    def get_bedrock_model():
        region = os.getenv("AWS_DEFAULT_REGION", "us-west-2")
        model_id = os.getenv("BEDROCK_MODEL_ID", "us.anthropic.claude-3-7-sonnet-20250219-v1:0")
        bedrock_model = BedrockModel(
            model_id=model_id,
            region_name=region,
            temperature=0.0,
            max_tokens=1024
        )
        return bedrock_model
    
    bedrock_model = get_bedrock_model()
    
    system_prompt = """You are an experienced travel agent specializing in personalized travel recommendations with access to real-time web information. Your role is to find dream destinations matching user preferences using web search for current information. You should provide comprehensive recommendations with current information, brief descriptions, and practical travel details."""
    
    app = BedrockAgentCoreApp()
    
    def initialize_agent():
        """Initialize the agent with proper telemetry configuration."""
        strands_telemetry = StrandsTelemetry()
        strands_telemetry.setup_otlp_exporter()
        agent = Agent(
            model=bedrock_model,
            system_prompt=system_prompt,
            tools=[web_search]
        )
        return agent
    
    @app.entrypoint
    def strands_agent_bedrock(payload, context=None):
        """
        Invoke the agent with a payload
        """
        user_input = payload.get("prompt")
        logger.info("[%s] User input: %s", context.session_id, user_input)
        agent = initialize_agent()
        response = agent(user_input)
        return response.message['content'][0]['text']
    
    if __name__ == "__main__":
        app.run()

    Passo 3: Configuração do AgentCore Runtime

    Utilize o kit de iniciação para configurar a implantação do AgentCore Runtime com o ponto de entrada, a função de execução e o arquivo de requisitos. O kit de iniciação também cria automaticamente o repositório Amazon Elastic Container Registry (ECR). Durante a etapa de configuração, o dockerfile é gerado com base no código da aplicação.

    Configuração do AgentCore Runtime com decorador e arquivo Docker

    Importante: ao configurar o agente com o kit de iniciação, o AgentCore Observability é ativado por padrão. Para usar Langfuse, desative OTEL definindo o sinalizador de configuração como “True”:

    from bedrock_agentcore_starter_toolkit import Runtime
    from boto3.session import Session
    
    boto_session = Session()
    region = boto_session.region_name
    agentcore_runtime = Runtime()
    agent_name = "strands_langfuse_observability"
    response = agentcore_runtime.configure(
        entrypoint="strands_claude.py",
        auto_create_execution_role=True,
        auto_create_ecr=True,
        requirements_file="requirements.txt",
        region=region,
        agent_name=agent_name,
        disable_otel=True,
    )
    response

    Passo 4: Implantação no AgentCore Runtime

    Após gerar o dockerfile, inicie o agente no AgentCore Runtime. Configure as chaves e endpoints da Langfuse no AWS Systems Manager Parameter Store para armazenamento seguro e hierárquico de dados de configuração:

    import base64
    
    otel_endpoint = "https://us.cloud.langfuse.com/api/public/otel"
    langfuse_secret_key = ""
    langfuse_public_key = "

    Passo 5: Verificação de Status da Implantação

    Aguarde até que o runtime esteja pronto antes de invocar:

    import time
    
    status_response = agentcore_runtime.status()
    status = status_response.endpoint['status']
    end_status = ['READY', 'CREATE_FAILED', 'DELETE_FAILED', 'UPDATE_FAILED']
    
    while status not in end_status:
        time.sleep(10)
        status_response = agentcore_runtime.status()
        status = status_response.endpoint['status']
        print(status)
    
    status

    Uma implantação bem-sucedida exibe o status "READY" para o agente runtime.

    Passo 6: Invocação do AgentCore Runtime

    Com o runtime pronto, invoque-o com uma carga útil de teste:

    invoke_response = agentcore_runtime.invoke({"prompt": "I'm planning a weekend trip to london. What are the must-visit places and local food I should try?"})

    Visualizando Traces na Langfuse

    Após executar o agente, acesse o painel do projeto Langfuse para visualizar os traces detalhados. Os traces incluem:

    • Detalhes de invocação do agente
    • Chamadas de ferramentas (buscas na web)
    • Interações com modelos, incluindo latência e uso de tokens
    • Payloads de requisição e resposta
    • Hierarquia completa de traces

    A Langfuse captura todas as interações, desde requisições de usuários até chamadas individuais de modelos. Cada trace captura o caminho de execução completo, incluindo chamadas de API, invocações de funções e respostas de modelos, criando uma linha do tempo abrangente das atividades do agente. A estrutura aninhada de traces permite aos desenvolvedores investigar interações específicas e identificar gargalos de desempenho ou padrões de erro em qualquer nível da cadeia de execução.

    Visualização de traces hierárquicos na Langfuse mostrando execução completa do agente

    Análise Hierárquica de Desempenho

    A combinação de traces hierárquicos com marcação estratégica fornece insights profundos sobre operações de agentes, possibilitando otimizações orientadas por dados e experiências de usuário superiores. Ao investigar a hierarquia detalhada, você consegue visualizar o tempo preciso de cada operação dentro do fluxo de execução do agente. Por exemplo, uma requisição completa pode levar 26,57 segundos, com detalhamentos individuais para ciclo de evento, chamadas de ferramentas e outros componentes. Use essas informações de tempo para identificar gargalos de desempenho e reduzir tempos de resposta. Certas operações de IA podem levar mais tempo que o esperado, ou pode haver oportunidades para paralelizar ações específicas e reduzir a latência geral.

    Hierarquia detalhada de trace mostrando timings de cada operação do agente

    Dashboards de Monitoramento da Langfuse

    A Langfuse oferece três dashboards diferentes para monitoramento: Custo, Latência e Gerenciamento de Uso. Cada um fornece perspectivas específicas sobre o desempenho e eficiência das aplicações com agentes.

    Visão geral dos três dashboards disponíveis na Langfuse para monitoramento

    Monitoramento de Custos

    O monitoramento de custos ajuda a acompanhar despesas tanto em nível agregado quanto em requisições individuais, mantendo o controle sobre despesas de infraestrutura de IA. A plataforma fornece detalhamentos de custo granulares por modelo, usuário e chamada de função, permitindo que equipes identifiquem operações que consomem mais recursos e otimizem suas implementações. Essa visibilidade granular de custos facilita tomadas de decisão baseadas em dados sobre seleção de modelos, engenharia de prompts e alocação de recursos, mantendo restrições orçamentárias.

    Dashboard de custos da Langfuse mostrando custos totais, por modelo e por ambiente

    Dashboard de Latência

    Métricas de latência podem ser monitoradas através de traces e gerações para otimização de desempenho. O dashboard exibe por padrão métricas como latência P95 por nível, latência máxima por ID de usuário, tempo médio até primeiro token por nome de prompt, latência P95 por modelo e tokens de saída médios por segundo por modelo. É possível criar gráficos e dashboards customizados conforme necessário.

    Dashboard de latência da Langfuse com métricas de desempenho por modelo

    Gerenciamento de Uso

    Este dashboard apresenta métricas através de traces, observações e pontuações para gerenciar alocação de recursos. Oferece visibilidade completa sobre como os recursos estão sendo consumidos pela aplicação, ajudando equipes a otimizar a utilização e garantir eficiência operacional.

    Dashboard de gerenciamento de uso da Langfuse com contagens de traces e observações

    Conclusão

    A integração entre Langfuse e Amazon Bedrock AgentCore oferece um caminho sólido para alcançar observabilidade completa em aplicações com agentes de IA. Com essas ferramentas, equipes conseguem rastrear desempenho em detalhes, depurar interações complexas e otimizar custos de forma contínua.

    Ao implementar Langfuse com AgentCore hoje, você ganha visibilidade profunda no desempenho de seus agentes, consegue rastrear fluxos de conversação e otimizar aplicações de IA para oferecer melhor valor a seus usuários. A capacidade de compreender cada etapa da execução de um agente transforma-se em vantagem competitiva no desenvolvimento de sistemas de IA confiáveis e eficientes.

    Para explorar mais sobre o tema, consulte os recursos adicionais como Perguntas frequentes sobre o Amazon Bedrock AgentCore e informações sobre integração com Amazon Bedrock AgentCore. Também há exemplos práticos disponíveis no repositório de amostras do Amazon Bedrock AgentCore no GitHub.

    Fonte

    Amazon Bedrock AgentCore Observability with Langfuse (https://aws.amazon.com/blogs/machine-learning/amazon-bedrock-agentcore-observability-with-langfuse/)

  • Entendendo a Nova Nuvem Soberana Europeia da AWS: O Framework de Referência de Soberania

    Uma Resposta da AWS aos Requisitos de Soberania Europeia

    A AWS vem desenvolvendo uma infraestrutura de nuvem especificamente pensada para atender às expectativas regulatórias e de segurança mais rigorosas do continente europeu. A Nuvem Soberana Europeia da AWS será uma infraestrutura de nuvem completamente independente, voltada para organizações do setor público e empresas em setores altamente regulados que precisam garantir total controle sobre seus dados e operações dentro das fronteiras europeias.

    Essa solução se baseia nos mesmos fundamentos de segurança, privacidade e controles de conformidade presentes em outras regiões da AWS ao redor do mundo, mas adiciona camadas extras de governança, controles técnicos e medidas operacionais para responder às expectativas exigentes de clientes e reguladores europeus.

    Apresentando o Framework de Referência de Soberania

    O conceito central dessa iniciativa é a soberania — a capacidade de uma organização exercer controle total sobre seus dados e operações. Para garantir isso, a AWS desenvolveu o Framework de Referência de Soberania (ESC-SRF, na sigla em inglês), um modelo independentemente validado que alinha critérios de soberania em múltiplos domínios.

    Esse framework organiza requisitos em áreas como independência de governança, controle operacional, residência de dados e isolamento técnico. Cada um desses critérios foi desenvolvido ouvindo diretamente os casos de uso de clientes e, em seguida, alinhando controles técnicos específicos a cada necessidade identificada.

    A Nuvem Soberana Europeia da AWS está passando por auditorias independentes de terceiros para verificar se os controles implementados realmente estão em conformidade com os compromissos de soberania que a empresa se propôs a cumprir.

    Um Framework Transparente e Validado

    O ESC-SRF foi construído a partir de diversos insumos: feedback de clientes, requisitos regulatórios da União Europeia, frameworks reconhecidos na indústria, compromissos contratuais da AWS e contribuições de parceiros. O framework é agnóstico em relação ao setor — foi escrito para endereçar necessidades fundamentais de soberania em camadas básicas de oferecimento de nuvem, com requisitos e controles adicionais que se aplicam especificamente à Nuvem Soberana Europeia.

    Cada critério é implementado através de controles de soberania que serão independentemente validados por auditores de terceiros. O framework se apoia em capacidades básicas de segurança da AWS, incluindo criptografia, gerenciamento de chaves, governança de acesso, isolamento baseado no AWS Nitro System, e certificações de conformidade internacionalmente reconhecidas.

    Além disso, o framework incorpora medidas específicas de governança, técnicas e operacionais, como estruturas corporativas independentes na UE, serviços dedicados de confiança e certificados europeus, operações realizadas por pessoal residente na UE, residência rigorosa de dados de clientes e metadados criados por clientes, separação completa de outras regiões da AWS, e resposta a incidentes operada dentro do território europeu.

    Esses controles formam a base de uma atestação dedicada do AWS European Sovereign Cloud System and Organization Controls (SOC 2, na sigla em inglês). O framework estabelece uma fundação sólida para a soberania da infraestrutura de nuvem, permitindo que clientes se concentrem em definir medidas de soberania personalizadas conforme seus objetivos regulatórios, necessidades específicas e postura de risco.

    Como Usar o Framework de Referência de Soberania

    O ESC-SRF descreve como a AWS implementa e valida controles de soberania na Nuvem Soberana Europeia. A empresa trata cada critério do framework como vinculante, e sua implementação será validada por um auditor independente de terceiros em 2026.

    Perspectiva de Garantia e Conformidade

    Embora a maioria das organizações não opere na escala da AWS, elas podem usar o ESC-SRF como modelo de garantia e framework de referência adaptável aos seus casos de uso específicos. De uma perspectiva de garantia, o framework oferece visibilidade completa para cada critério de soberania até sua implementação técnica. A AWS também fornecerá validação de terceiros através do relatório SOC 2 da Nuvem Soberana Europeia.

    Os clientes podem usar esse relatório junto a auditores internos, assessores externos, autoridades supervisoras e reguladores. Isso reduz a necessidade de solicitações ad hoc de evidências e fornece às organizações documentação para demonstrar garantias claras e executáveis de soberania.

    Perspectiva de Desenho e Arquitetura

    De uma perspectiva de design, organizações podem consultar o framework ao estruturar sua própria arquitetura de soberania, selecionando configurações e definindo controles internos para atender requisitos regulatórios, contratuais e específicos de missão.

    Como o ESC-SRF é agnóstico em relação ao setor, critérios do framework podem ser aplicados e adaptados às necessidades únicas de cada organização. Dependendo do caso de uso de soberania, nem todos os critérios podem se aplicar — e isso é aceitável. O ESC-SRF também pode ser usado em conjunto com a arquitetura bem construída da AWS, que ajuda a aprender, medir e construir usando melhores práticas arquiteturais.

    Conforme apropriado, organizações podem criar sua própria versão do ESC-SRF, mapear controles correspondentes e testá-los com terceiros.

    Publicação e Acesso ao Framework

    O ESC-SRF está sendo publicado no AWS Artifact — um portal de recuperação de artefatos em autosserviço — onde se encontram documentos de segurança e conformidade da AWS e acordos da empresa. Nessa plataforma, clientes agora podem acessar o ESC-SRF para definir melhores práticas aplicáveis aos seus casos de uso, mapear essas práticas a controles específicos e demonstrar como atendem — e até mesmo excedem — as necessidades soberanas de seus clientes.

    Um Fundamento Claro e Robusto

    A publicação do ESC-SRF faz parte do compromisso contínuo da AWS em cumprir o Compromisso de Soberania Digital da AWS através de transparência e garantias que ajudem clientes a atender suas necessidades de soberania em evolução. Todas essas garantias foram projetadas, implementadas e validadas inteiramente dentro da UE.

    Dentro do framework, clientes podem construir soluções na Nuvem Soberana Europeia com confiança e compreensão clara de como atingir seus objetivos de soberania usando a plataforma da AWS. Para mais informações sobre a Nuvem Soberana Europeia, é possível consultar aws.eu.

    Fonte

    Exploring the new AWS European Sovereign Cloud: Sovereign Reference Framework (https://aws.amazon.com/blogs/security/exploring-the-new-aws-european-sovereign-cloud-sovereign-reference-framework/)

  • Testes de Validação Automatizados com Amazon Nova Act em Modo Sem Interface Gráfica

    Validação Ágil de Funcionalidades Críticas com Inteligência Artificial

    A automação de testes é fundamental para equipes de desenvolvimento que realizam múltiplas implantações diárias. Os testes de validação rápida (conhecidos como smoke tests) representam uma alternativa prática aos testes de ponta a ponta tradicionais, que frequentemente demandam horas para execução e criam gargalos nas linhas de produção.

    O conceito de smoke test concentra-se em validar as funcionalidades mais críticas de uma aplicação logo após sua implantação. Em vez de verificar cada detalhe da interface, esses testes focam em fluxos essenciais como autenticação de usuário, navegação principal e transações-chave. A execução típica ocorre em minutos, não em horas, tornando-os ideais para pipelines CI/CD que dependem de feedback rápido sobre mudanças no código.

    Uma Abordagem Inteligente para Automação de Testes

    Amazon Nova Act introduz uma mudança significativa na forma como testes de interface são construídos. Em vez de depender de seletores CSS frágeis e scripts de teste complexos, a plataforma utiliza compreensão de interface baseada em inteligência artificial e processamento de linguagem natural. Isso permite escrever testes com instruções em inglês simples que se adaptam automaticamente a mudanças na interface, eliminando a fragilidade dos métodos tradicionais.

    A solução apresentada integra um executor de testes em Python, validação de fluxos de comércio eletrônico para jornadas completas do usuário, integração com GitLab CI/CD para automação nativa, e execução paralela para potencializar a eficiência dos recursos. O modo headless (sem interface gráfica) permite que os testes rodem em segundo plano, um requisito essencial para ambientes automatizados.

    Construindo a Solução Passo a Passo

    Preparação do Projeto e Dependências

    O primeiro passo envolve criar um projeto Python e instalar as dependências necessárias. A abordagem utiliza UV, um gerenciador de pacotes Python moderno que oferece funcionalidade similar ao npm para projetos Node.js:

    uv init nova-act-smoke-tests
    code nova-act-smoke-tests
    uv add nova-act

    UV é particularmente eficiente pois gerencia automaticamente a instalação de dependências e criação de ambientes virtuais. Para completar a configuração, é necessário ter acesso ao Amazon Nova Act com chave de API, um repositório no GitLab, e familiaridade com Python e CI/CD.

    Implementação do Teste de Autenticação

    O primeiro teste valida o fluxo completo de login. A solução utiliza uma aplicação de demonstração chamada SauceDemo, um aplicativo de comércio eletrônico adequado para exemplos educacionais:

    import os
    from nova_act import NovaAct
    
    SAUCEDEMO_URL = "https://www.saucedemo.com/"
    
    def test_login_flow():
        """Test complete login flow and product page verification"""
        with NovaAct(starting_page=SAUCEDEMO_URL) as nova:
            nova.act("Enter 'standard_user' in the username field")
            nova.act("Enter 'secret_sauce' in the password field")
            nova.act("Click the login button")
            nova.act("Verify Products appear on the page")
    
    def main():
        if not os.getenv("NOVA_ACT_API_KEY"):
            exit("❌ Set NOVA_ACT_API_KEY environment variable")
        
        print("🚀 Starting Nova Act Smoke Test")
        try:
            test_login_flow()
            print("✅ Login test: PASS")
        except Exception as e:
            print(f"❌ Login test: FAIL - {e}")
            exit(1)
        
        print("🎉 All tests passed!")
    
    if __name__ == "__main__":
        main()

    Observe que as chaves de API são armazenadas em variáveis de ambiente, nunca no código-fonte, mantendo informações sensíveis separadas da base de código e fora do controle de versão.

    Expandindo para Fluxos Completos de Negócio

    Um teste prático deve validar jornadas completas do usuário, não apenas funcionalidades isoladas. A solução expande o escopo para incluir todo o fluxo de comércio eletrônico:

    def test_ecommerce_workflow():
        """Test complete e-commerce workflow: login → shop → checkout → logout"""
        with NovaAct(starting_page=SAUCEDEMO_URL, headless=False) as nova:
            # Login
            nova.act("Enter 'standard_user' in the username field")
            nova.act("Enter 'secret_sauce' in the password field")
            nova.act("Click the login button")
            nova.act("Verify Products appear on the page")
            
            # Shopping
            nova.act("Select Sauce Labs Backpack")
            nova.act("Add Sauce Labs Backpack to the cart")
            nova.act("Navigate back to products page")
            nova.act("Select Sauce Labs Onesie")
            nova.act("Add Sauce Labs Onesie to the cart")
            
            # Cart verification
            nova.act("Click cart and Navigate to the cart page")
            nova.act("Verify 2 items are in the cart")
            
            # Checkout
            nova.act("Click the Checkout button")
            nova.act("Enter 'John' in the First Name field")
            nova.act("Enter 'Doe' in the Last Name field")
            nova.act("Enter '12345' in the Zip/Postal Code field")
            nova.act("Click the Continue button")
            
            # Order completion
            nova.act("Verify Checkout:Overview page appears")
            nova.act("Click the Finish button")
            nova.act("Verify 'THANK YOU FOR YOUR ORDER' appears on the page")
            
            # Logout
            nova.act("Click the Back Home button")
            nova.act("Click the hamburger menu on the left")
            nova.act("Click the Logout link")
            nova.act("Verify the user is on the login page")

    Este teste abrangente valida autenticação, descoberta de produtos, adição ao carrinho, preenchimento de informações de envio, conclusão de pedido e logout—essencialmente, toda a experiência crítica do cliente.

    Imagem original — fonte: Aws

    Integração com Pipeline CI/CD

    Configurando o GitLab CI/CD

    O verdadeiro valor dos testes aparece quando são executados automaticamente em cada mudança de código. A integração com GitLab CI/CD transforma a execução manual em automação contínua:

    stages:
      - test
    
    smoke-tests:
      stage: test
      image: mcr.microsoft.com/playwright/python:v1.40.0-jammy
      rules:
        - if: $CI_COMMIT_BRANCH == "main"
        - if: $CI_COMMIT_BRANCH == "develop"
        - if: $CI_PIPELINE_SOURCE == "merge_request_event"
        - if: $CI_PIPELINE_SOURCE == "web"
      before_script:
        - pip install uv
        - uv sync
        - uv run playwright install chromium
      script:
        - uv run python smoke_tests.py
      variables:
        HEADLESS: 'true'
        NOVA_ACT_SKIP_PLAYWRIGHT_INSTALL: 'true'

    Esta configuração define regras que acionam os testes automaticamente quando código é enviado para branches principais, durante solicitações de merge, ou quando disparados manualmente. O modo headless é ativado definindo HEADLESS: 'true', permitindo que testes rodem em ambiente sem interface gráfica.

    As chaves de API são gerenciadas através de variáveis seguras do GitLab CI/CD. O processo envolve acessar Configurações > CI/CD > Variáveis, adicionar uma nova variável chamada NOVA_ACT_API_KEY, marcar a opção de mascarar o valor nos logs, e salvar. Essa abordagem mantém credenciais sensíveis criptografadas e acessíveis apenas ao pipeline.

    Imagem original — fonte: Aws

    Modo Headless para Ambientes Automatizados

    A diferença entre modo headless e modo visual é crucial. Durante desenvolvimento local, a interface gráfica fornece feedback valioso para depuração. Em ambientes de CI/CD, browsers sem interface gráfica executam com eficiência sem overhead visual:

    headless = os.getenv("HEADLESS", "false").lower() == "true"
    with NovaAct(starting_page=SAUCEDEMO_URL, headless=headless) as nova:
        # test code

    Quando a variável de ambiente não está definida durante desenvolvimento local, headless é False, abrindo a janela do browser. Em CI/CD, definir HEADLESS=true executa tudo em background, otimizando recursos computacionais.

    Otimização através de Execução Paralela

    Conforme a suite de testes cresce, execução sequencial cria gargalos. A solução implementa execução paralela usando ThreadPoolExecutor do Python:

    from concurrent.futures import ThreadPoolExecutor, as_completed
    
    def main():
        if not os.getenv("NOVA_ACT_API_KEY"):
            exit("❌ Set NOVA_ACT_API_KEY environment variable")
        
        print("🚀 Starting Nova Act Tests (Parallel)")
        tests = [
            ("Login Flow", test_login_flow),
            ("E-commerce Workflow", test_ecommerce_workflow)
        ]
        
        max_workers = int(os.getenv("MAX_WORKERS", "2"))
        
        results = []
        with ThreadPoolExecutor(max_workers=max_workers) as executor:
            future_to_test = {
                executor.submit(run_test, name, func): name 
                for name, func in tests
            }
            for future in as_completed(future_to_test):
                results.append(future.result())
        
        passed = sum(results)
        total = len(results)
        print(f"\n📊 Results: {passed}/{total} tests passed")
        
        if passed == total:
            print("🎉 All tests passed!")
        else:
            exit(1)

    ThreadPoolExecutor gerencia um pool de threads de trabalho, permitindo múltiplas instâncias de browser executarem simultaneamente. Cada thread roda um teste separado, reduzindo significativamente o tempo total de execução. Com dois workers, testes que levariam 10 minutos sequencialmente podem executar em aproximadamente 5 minutos.

    O número de workers é configurável através da variável de ambiente MAX_WORKERS. Começar com dois workers e ajustar com base na capacidade do ambiente é a prática recomendada. Cada instância paralela consome recursos significativos e incorre em uso de API, portanto, o equilíbrio entre velocidade e custos deve ser monitorado.

    Práticas Recomendadas para Produção

    A implementação robusta requer atenção a alguns princípios fundamentais:

    • Testes independentes: Cada teste deve funcionar corretamente independentemente da ordem de execução ou de outros testes rodando simultaneamente
    • Lógica de retry: Wrapping de funções de teste com try-catch e mecanismos de retry reduzem falhas causadas por problemas transitórios de rede
    • Timeouts apropriados: Configurar timeouts razoáveis no pipeline CI/CD previne travamentos indefinidos
    • Rotação de chaves: Implementar rotação de chaves de API a cada 90 dias mantém padrões de segurança
    • Monitoramento de performance: Rastrear tempos de execução ajuda identificar regressões de performance cedo

    Após implementação e testes bem-sucedidos, é importante limpar recursos para evitar custos futuros. Isso inclui remover ou desabilitar pipelines não utilizados, rotacionar chaves API e revogar chaves não utilizadas, deletar repositórios de demonstração, e limpar credenciais armazenadas em cache.

    Recursos Complementares

    Para aprofundamento em tópicos relacionados, a AWS disponibiliza documentação adicional:

    Conclusão

    A implementação de testes de validação automatizados usando Amazon Nova Act em modo headless oferece uma alternativa moderna e eficiente aos frameworks tradicionais. A abordagem de linguagem natural reduz significativamente a manutenção comparada a frameworks baseados em seletores CSS. Combinada com gerenciamento moderno de pacotes como UV e integração nativa com GitLab CI/CD, essa solução fornece execução rápida e confiável de testes que escala com o fluxo de desenvolvimento.

    O modelo apresentado não apenas detecta problemas antes deles atingirem produção, mas também fornece o feedback rápido que é essencial para implantação contínua confiante, mantendo padrões elevados de qualidade da aplicação. Equipes de desenvolvimento podem adaptar esse framework para cenários específicos de suas aplicações, estendendo-o com testes adicionais que correspondam a jornadas críticas de usuário únicas do seu negócio.

    Fonte

    Implement automated smoke testing using Amazon Nova Act headless mode (https://aws.amazon.com/blogs/machine-learning/implement-automated-smoke-testing-using-amazon-nova-act-headless-mode/)

  • Responsabilidade Ampla pela Segurança da Infraestrutura Digital na União Europeia

    A Responsabilidade Compartilhada pela Segurança Digital na Europa

    As tecnologias digitais transformaram profundamente a sociedade, governos, empresas e vida cotidiana ao longo das últimas décadas. Porém, essa crescente dependência da tecnologia carrega consigo uma responsabilidade ampla: garantir que a segurança permaneça robusta e inabalável, independentemente do caso de uso. A AWS reconhece essa responsabilidade como um princípio fundamental, onde cada colaborador contribui para que a segurança seja integrada em todas as dimensões do negócio.

    Esse compromisso posiciona a AWS de forma estratégica enquanto o cenário regulatório de cibersegurança continua evoluindo na Europa. Um exemplo expressivo dessa evolução é a Diretiva sobre Medidas para um Nível Comum Elevado de Cibersegurança em toda a União (Diretiva NIS 2), formalmente adotada pelo Parlamento Europeu e Conselho da UE como Diretiva (UE) 2022/2555 e aplicável desde outubro de 2024.

    Até dezembro de 2025, a maioria dos Estados-Membros da UE transpôs a NIS 2 para legislação nacional, embora os cronogramas de implementação completa se estendam até 2025–2026 em várias jurisdições. Os requisitos e prazos de transposição variam entre os países europeus, com o objetivo comum de fortalecer a postura de cibersegurança em todo o continente.

    Conformidade com a Diretiva NIS 2

    A NIS 2 busca garantir que as entidades mitiguem os riscos impostos por ameaças cibernéticas, minimizem o impacto de incidentes e protejam a continuidade de serviços essenciais e importantes na UE. A diretiva estabelece um marco fortalecido em nível europeu, impondo obrigações proporcionais e baseadas em risco para entidades essenciais e importantes em setores críticos.

    O escopo de implementação é amplo: a NIS 2 obriga a adoção de medidas abrangentes, incluindo governança, gerenciamento de incidentes, continuidade de negócios, segurança da cadeia de suprimentos, controles de acesso e criptografia. Essas medidas devem cobrir todo o ciclo de vida da cibersegurança — identificação, proteção, detecção, resposta, recuperação e comunicação — com requisitos para testes regulares, gerenciamento de riscos da cadeia de suprimentos e comunicação de incidentes significativos às autoridades nacionais.

    Infraestrutura Crítica e Certificações Regionais

    Em vários países europeus, os serviços da AWS já fazem parte da infraestrutura crítica nacional. Na Alemanha, por exemplo, o Amazon EC2 e o Amazon CloudFront estão no escopo da regulação KRITIS (Kritische Infrastruktur — Infraestrutura Crítica). Por vários anos, a AWS vem cumprindo suas obrigações de segurança, conduzindo auditorias relacionadas à infraestrutura crítica nacional e mantendo canais estabelecidos de troca de informações de segurança com o BSI (Bundesamt für Sicherheit in der Informationstechnik — Escritório Federal Alemão de Segurança da Informação).

    A empresa também participa da iniciativa UP KRITIS, um esforço cooperativo entre indústria e governo alemão para estabelecer padrões do setor. Essa colaboração demonstra o compromisso em trabalhar com autoridades locais para elevar o padrão de segurança.

    Além da infraestrutura crítica, a AWS conquistou múltiplas certificações regionais que validam seu desempenho em segurança:

    • C5 – na Alemanha, oferece um marco de controle abrangente para estabelecer e evidenciar a segurança de operações em nuvem
    • ENS High – na Espanha, compreende princípios para proteção adequada aplicáveis a agências governamentais e organizações públicas
    • HDS – na França, demonstra um marco adequado de medidas técnicas e de governança para proteger dados de saúde pessoal
    • Pinakes – na Espanha, oferece um marco de avaliação para gerenciar e monitorar controles de cibersegurança de provedores de serviços

    Modelo de Responsabilidade Compartilhada e Conformidade

    A AWS oferece mais de 150 certificações e atestados de conformidade independentemente auditadas em segurança, incluindo ISO 27001, ISO 22301, ISO 20000, ISO 27017 e SOC 2 (Controles de Sistemas e Organizações). Essas certificações reforçam que a segurança e conformidade são responsabilidades compartilhadas entre a plataforma e os clientes.

    A AWS garante que a infraestrutura de nuvem esteja em conformidade com requisitos regulatórios aplicáveis e boas práticas de provedores de nuvem. Os clientes, por sua vez, mantêm responsabilidade por construir workloads conformes na nuvem. O Modelo de Responsabilidade Compartilhada da AWS detalha essa divisão clara de obrigações.

    Segurança por Design e Frameworks de Arquitetura

    Para a segurança na nuvem, é crucial que os clientes façam da segurança por design e segurança por padrão os pilares centrais do desenvolvimento de produtos. A AWS disponibiliza o AWS Well-Architected Framework para ajudar a construir infraestrutura segura, de alto desempenho, resiliente e eficiente para diversas aplicações e workloads.

    Clientes que utilizam o AWS Cloud Adoption Framework (AWS CAF) podem melhorar a prontidão para nuvem identificando e priorizando oportunidades de transformação. Esses recursos fundamentais apoiam a segurança de workloads regulados.

    Ferramentas de Gestão de Riscos e Conformidade

    No que diz respeito às medidas de gerenciamento de riscos de cibersegurança e obrigações de comunicação que a NIS 2 estabelece, ofertas de serviços existentes da AWS podem ajudar clientes a cumprir sua parte do modelo de responsabilidade compartilhada.

    Monitoramento, Auditoria e Avaliação

    • AWS CloudTrail fornece registro de auditoria centralizado de todas as ações na plataforma
    • Amazon CloudWatch oferece métricas, alarmes e análise de logs de aplicação em tempo real
    • AWS Config permite que clientes avaliem, auditem e avaliem continuamente as configurações e relacionamentos de recursos selecionados na AWS, localmente e em outras nuvens
    • AWS Security Hub oferece uma visão abrangente do estado de segurança na AWS e ajuda a avaliar ambientes contra padrões do setor e boas práticas

    Automação de Evidências e Resiliência

    • AWS Audit Manager automatiza a coleta de evidências para demonstração de conformidade
    • AWS Resilience Hub realiza avaliações de resiliência para garantir continuidade operacional

    A AWS disponibiliza ainda AWS Whitepapers abrangentes, como o Guia de Resposta a Incidentes de Segurança da AWS, para que clientes entendam, implementem e gerenciem conceitos fundamentais de segurança em suas arquiteturas em nuvem.

    Guia Atualizado de Considerações NIS 2

    O guia atualizado de Considerações NIS 2 para Clientes da AWS (dezembro de 2025) apresenta uma tabela de mapeamento que conecta os requisitos do Anexo da diretiva a capacidades específicas da AWS, permitindo que entidades interpretem obrigações e implementem controles proporcionais de forma eficiente.

    Treinamento e Conscientização em Cibersegurança

    A NIS 2 determina o desenvolvimento e implementação de programas abrangentes de conscientização em cibersegurança para corpos diretivos e funcionários. A AWS oferece diversos programas de treinamento sem custo ao público para aumentar a conscientização sobre segurança cibernética, como o AWS Security Learning Hub, que inclui simulações de phishing, fundamentos de segurança em nuvem e módulos baseados em função.

    Clientes podem entregar treinamento em toda a organização utilizando módulos do AWS Skill Builder sobre phishing, higiene cibernética e práticas seguras em nuvem, atribuindo caminhos específicos por função e rastreando conclusão em múltiplas contas através do AWS Organizations.

    Cooperação com Autoridades e Agências de Segurança

    A Amazon se esforça por ser a empresa mais centrada no cliente do mundo. Para a AWS Security Assurance, isso significa manter equipes que se envolvem continuamente com autoridades para compreender e superar obrigações regulatórias e de clientes. Essa abordagem representa uma forma de elevar o padrão de segurança na Europa.

    A AWS coopera com agências de cibersegurança globais, reconhecendo a importância de seu papel em manter o mundo seguro. Para isso, desenvolveu o AWS Global Cloud Security Program (GCSP) para fornecer às agências uma linha direta e consistente de comunicação com o time de segurança da AWS.

    Parcerias Regionais Estratégicas

    Dois exemplos de membros do GCSP incluem:

    Na Espanha, a AWS assinou um acordo de colaboração estratégica (MoU) com o Centro Nacional de Inteligência e Centro Nacional de Criptologia (CNI-CCN) em agosto de 2023 para promover cibersegurança e inovação no setor público através da tecnologia AWS Cloud. Como resultado, o CCN aderiu ao GCSP e a parceria produziu oito guias STIC (Série 887) sobre tópicos como endurecimento, resposta a incidentes e monitoramento para ambientes multi-nuvem e híbridos.

    A parceria também gerou o template ENS Landing Zone (CCN-STIC-887 Anexo A), que clientes podem baixar do site do CCN para implantar ambientes em nuvem conformes com ENS. Além da acreditação ENS High, mais de 25 serviços de nuvem da AWS foram acreditados pelo CCN sob o Catálogo de Segurança de Produtos e Serviços para processar workloads sensíveis e classificadas na Espanha.

    Contribuição em Contextos de Crise

    Com a guerra na Ucrânia, a importância dessa colaboração se tornou evidente. A AWS desempenhou papel importante em ajudar o governo da Ucrânia a manter continuidade e fornecer serviços críticos aos cidadãos desde o início do conflito.

    Próximos Passos para Organizações Europeia

    A AWS continua fornecendo aos principais stakeholders maior clareza sobre como auxilia clientes a enfrentar seus desafios de cibersegurança mais complexos, oferecendo oportunidades para análises profundas sobre soluções em desenvolvimento.

    O guia atualizado de Considerações NIS 2 para Clientes da AWS (dezembro de 2025) e o AWS Compliance Center servem como hubs centrais para recursos mais recentes, incluindo mapeamentos para Diretrizes Técnicas de Implementação da ENISA (26 de junho de 2025), whitepapers e documentação pronta para auditoria.

    Entidades podem começar com AWS Control Tower ou Landing Zone Accelerator para estabelecer baselines de segurança, depois aplicar o Well-Architected Framework (Pilares de Segurança e Confiabilidade) para projetar arquiteturas auditáveis e resilientes.

    Para organizações que buscam expertise externa, parceiros do AWS Marketplace oferecem suporte especializado em análise de lacunas, testes de resiliência e implementação de mapeamentos ENISA.

    Fonte

    Embracing our broad responsibility for securing digital infrastructure in the European Union (https://aws.amazon.com/blogs/security/embracing-our-broad-responsibility-for-securing-digital-infrastructure-in-the-european-union/)

  • AWS Transform Custom: IA Agencial para Modernização de Aplicações em Larga Escala

    Uma Solução para o Débito Técnico em Escala

    A AWS anunciou a disponibilidade geral do AWS Transform Custom, um serviço baseado em inteligência artificial agencial que acelera a modernização de código e aplicações específicas de organizações. A solução endereça um desafio crítico enfrentado por muitas empresas: o acúmulo de débito técnico.

    Débito técnico se forma quando organizações mantêm sistemas legados e código desatualizado, forçando alocação de 20% a 30% dos recursos de desenvolvimento de software para tarefas de transformação repetitivas que precisam ser executadas manualmente em múltiplas bases de código.

    Como o AWS Transform Custom Funciona

    O serviço é capaz de automatizar transformações repetitivas em escala, incluindo atualizações de versão, migrações de runtime, transições de frameworks e tradução de linguagens. Em muitos casos, o AWS Transform Custom reduz o tempo de execução em mais de 80%, enquanto elimina a necessidade de expertise especializada em automação.

    Transformações Pré-Construídas e Personalizadas

    O agente de transformação personalizado oferece soluções tanto pré-construídas quanto personalizáveis. As transformações prontas para uso incluem cenários comuns como atualizações de runtime Python e Node.js, modernização de funções Lambda, atualizações do AWS SDK em múltiplas linguagens, além de migrações de Java 8 para 17 (com suporte a qualquer sistema de build, incluindo Gradle e Maven).

    Para necessidades específicas de cada organização, equipes podem definir transformações personalizadas utilizando linguagem natural, documentos de referência e exemplos de código. Os usuários disparam transformações autônomas com um simples comando CLI de uma linha, que pode ser executado manualmente, via script ou integrado em pipelines e fluxos de trabalho existentes.

    Aprendizado Contínuo e Melhoria Adaptativa

    Dentro de cada organização, o agente aprende continuamente com feedback de desenvolvedores e resultados de execução, melhorando a precisão das transformações e alinhando seu desempenho às preferências específicas da organização. Essa abordagem permite que empresas enderecem débito técnico de forma sistemática e em escala, enquanto o agente continua evoluindo, liberando desenvolvedores para focar em inovação e tarefas de maior impacto.

    Disponibilidade e Próximos Passos

    O AWS Transform Custom está disponível na região AWS US East (N. Virginia). Para aprofundar o conhecimento, consulte o guia do usuário, a página de visão geral e a página de preços.

    Fonte

    AWS launches AWS Transform custom to accelerate organization-wide application modernization (https://aws.amazon.com/about-aws/whats-new/2025/12/transform-custom-organization-wide-modernization/)

  • Assistentes de Chat Inteligentes para Empresas: Entendendo a Abordagem da AWS com Quick Suite

    O Desafio da Informação Fragmentada nas Empresas

    Dentro das organizações modernas, os colaboradores enfrentam um problema recorrente: informações espalhadas por múltiplos sistemas, tornando difícil encontrar respostas rápidas e confiáveis. Ao invés de tomar decisões ágeis, equipes desperdiçam tempo precioso procurando dados relevantes em diferentes plataformas. A AWS Quick Suite propõe uma solução através de agentes de chat alimentados por inteligência artificial, capazes de consolidar e contextualizar essas informações de forma acessível.

    A inovação apresentada não se limita a simplesmente conectar um chatbot genérico aos dados corporativos. A abordagem vai além: demonstra como transformar esses agentes em assistentes especializados que guiam usuários através de descoberta de recursos, análise de impacto e recomendações personalizadas — tudo mantendo segurança e conformidade empresarial.

    Democratizando a Criação de Assistentes Inteligentes

    Um dos principais benefícios dos agentes de chat do Quick Suite é a acessibilidade. Representantes de vendas, analistas e especialistas de domínio podem criar assistentes sofisticados sem necessidade de conhecimento profundo em machine learning ou infraestrutura em nuvem. A plataforma torna essas capacidades avançadas de IA disponíveis para usuários não técnicos de negócios.

    O Quick Suite vem equipado com um agente de chat padrão do sistema chamado My Assistant. Administradores podem habilitar a capacidade de criar agentes de chat personalizados para os usuários. Muitos começam explorando o My Assistant, descobrindo suas capacidades através de experimentação prática.

    Os usuários podem melhorar suas interações configurando contexto: apontando o agente para Spaces específicos para filtrar o escopo da conversa, garantindo que as respostas saiam de fontes organizacionais relevantes. Também é possível fazer upload de templates de resposta ou documentos de processo diretamente nas sessões de chat para modificar como o agente estrutura suas saídas.

    Embora essas abordagens ofereçam valor imediato para tarefas isoladas, cada conversa requer configuração manual — seleção de Spaces corretos, upload de templates relevantes e instrução de contexto específico. Com agentes personalizados, essas práticas bem-sucedidas podem ser capturadas em soluções permanentes e compartilháveis. O conhecimento contextual e diretrizes comportamentais são preservados na persona do agente e empacotados em assistentes consistentes e reutilizáveis que equipes podem deployar em escala.

    Os Três Pilares: Identidade, Instruções e Conhecimento

    Agentes de chat eficazes são construídos sobre três componentes essenciais que trabalham em conjunto para criar assistentes de IA consistentes e confiáveis:

    • Identidade — Define quem é o agente e qual papel ele serve
    • Instruções — Especifica como o agente deve pensar e responder
    • Conhecimento — Fornece a informação que o agente pode acessar para buscar respostas e geração de conteúdo

    Compreender essas três camadas é crucial porque determinam o comportamento do agente, incluindo seu estilo de comunicação e as informações que consegue recuperar.

    Identidade: Definindo o Papel do Agente

    A identidade define quem o agente é e qual papel ele desempenha, moldando como ele responde a cada solicitação. Essa configuração é realizada através do campo de configuração de identidade do agente. Um agente bem definido em sua identidade comunica com autoridade apropriada e mantém coerência em suas respostas.

    Instruções: Controle Granular Comportamental

    As instruções funcionam como diretrizes comportamentais que fornecem controle granular sobre a geração de respostas do agente. Especificidade e consistência são cruciais para efetividade. Habilidades eficazes de prompt engineering tornam-se essenciais ao elaborar identidade e instruções, porque a precisão e clareza desses elementos impactam diretamente a capacidade do agente de entender contexto, seguir diretrizes comportamentais e manter respostas consistentes e orientadas por persona.

    A configuração de instruções de persona, estilo de comunicação e documentos de referência permite definir o comportamento específico esperado. Documentos de referência referem-se a instruções mais específicas ou detalhadas, ou informações anexadas como arquivos que o agente deve sempre ter e seguir exatamente, como templates e documentos de processo.

    Conhecimento: Fornecendo Contexto aos Modelos

    Modelos de linguagem grandes (LLMs) alimentam os agentes. O agente de chat personalizado fornece contexto necessário aos LLMs através de dois meios distintos: instruções conforme discutido na seção anterior e conhecimento pesquisável. Quick Spaces fornece a capacidade de consolidar conhecimento pesquisável para o agente de chat em diferentes formas:

    Spaces funcionam como repositórios de conhecimento dinâmicos e pesquisáveis que facilitam acesso em tempo real às informações das equipes em forma estruturada ou não estruturada, mantendo limites de segurança e suportando fluxos colaborativos.

    Caso Prático: O Quick Suite Product Specialist

    Para ilustrar como esses princípios funcionam na prática, a AWS apresenta um exemplo: um agente personalizado que ajuda usuários a identificar as funcionalidades corretas do Quick Suite para suas necessidades específicas. O My Assistant pode responder questões gerais sobre Quick Suite; este agente especialista toma uma abordagem consultiva.

    O agente está configurado para seguir uma metodologia em três fases: descoberta, análise e recomendações de solução. Isso demonstra como agentes de IA modernos devem equilibrar conhecimento abrangente de plataforma com sabedoria prática sobre dimensionamento de soluções.

    A Estrutura de Três Fases

    Descoberta: O agente inicia analisando os detalhes iniciais do caso de uso, depois faz perguntas esclarecedoras antes de qualquer recomendação. Busca entender escala, experiência do usuário com IA generativa, número potencial de usuários beneficiados, métricas disponíveis sobre o desafio e nível de prontidão técnica da equipe.

    Análise: Com as informações coletadas, avalia potencial de impacto considerando o tamanho de usuários afetados e economia de tempo/esforço. Diferencia entre impacto baixo — onde soluções simples com prompts otimizados são apropriadas — e alto impacto, onde capacidades dedicadas e escaláveis se justificam.

    Recomendações de Solução: Apresenta capacidades apropriadas do Quick Suite alinhadas com o tamanho de solução adequado ao impacto, incluindo análise custo-benefício e projeções de ROI em termos de economia de tempo multiplicada pelo número de usuários.

    Implementação Prática

    Pré-requisitos

    Para construir um agente de chat personalizado no Quick Suite, são necessários:

    • Uma instância ativa de Quick Suite
    • Uma subscrição do Quick Suite para as capacidades requeridas: Professional — criar, configurar e compartilhar spaces e agentes de chat personalizados; ou Enterprise (inclui capacidades Professional) — criar bases de conhecimento

    Para mais informações sobre os níveis de subscrição, consulte Amazon Quick Suite pricing.

    Preparando o Conhecimento

    O primeiro passo é configurar um Quick Space como componente contextual da fundação de três camadas. Este Space contém uma base de conhecimento pesquisável. A AWS oferece duas opções: usar um arquivo estático com documentação oficial do Quick Suite (que requer atualizações ocasionais) ou estabelecer uma base de conhecimento rastreada por web que mantém conexão direta com a documentação, refrescando automaticamente em cronograma padrão.

    Configurando o Agente

    Após criar o Space, o próximo passo é criar o agente personalizado. O processo envolve:

    Definir identidade clara — quem é o agente e qual expertise possui. Para o exemplo do Product Specialist, a identidade descreve um especialista experiente em Quick Suite, evangelista de IA generativa e engenheiro de prompts proficiente, especializado em descoberta de casos de uso, análise de desafios e design de soluções.

    Configurar instruções de persona detalhadas que guiem o comportamento do agente através das três fases. Estas instruções especificam exatamente como o agente deve abordar cada situação, quais informações coletar antes de recomendar, como analisar impacto e como estruturar recomendações.

    Determinar tom e formato de resposta. O tom executivo, consultivo e entusiasmado sobre potencial de IA, combinado com um formato prescritivo durante fase de recomendações, garante que o agente comunique com clareza apropriada para diferentes públicos.

    Vincular o Space contendo a base de conhecimento, permitindo que o agente verifique recomendações contra documentação atual do produto.

    Opcionalmente, integrar conectores de ação para ferramentas de colaboração empresarial como Slack ou Teams, permitindo que o agente compartilhe recomendações diretamente com equipes.

    Testando e Refinando o Agente

    Após configuração e lançamento, o agente pode ser testado com solicitações reais. Por exemplo, pedindo ajuda com formatação de emails de status semanais, o agente responderia com um questionário de descoberta detalhado ao invés de pular direto para recomendações. As respostas podem variar entre execuções, refletindo a natureza dinâmica dos modelos de linguagem.

    O usuário responde o questionário e recebe uma resposta abrangente incluindo avaliação de impacto, múltiplas recomendações com raciocínio fundamentado e opções de pathway implementação de alto nível. Iteração contínua com o agente fornece orientação detalhada.

    Princípios Fundamentais Demonstrados

    A exemplo do Quick Suite Product Specialist ilustra vários princípios críticos:

    Especificidade impulsiona consistência. Ao invés de confiar que o LLM determinará a abordagem correta, é possível fornecer definições explícitas de identidade, restrições comportamentais, estruturas de decisão e formatos de saída, transformando IA genérica em assistentes confiáveis e especializados.

    Estrutura previne falhas comuns. A metodologia de três fases — descoberta, análise, recomendações — demonstra como abordagens sistemáticas guiam usuários a dimensionar soluções adequadamente apenas após compreender profundamente o problema.

    Conhecimento dinâmico mantém relevância. Vinculando documentação ao vivo e Spaces conscientes de permissões, assegura-se que agentes validem recomendações contra informações atuais enquanto respeitam limites organizacionais de segurança.

    Conclusão

    Agentes de chat personalizados no Quick Suite transformam como equipes acessam e utilizam conhecimento empresarial. Aplicando o framework de três camadas — identidade, instruções e conhecimento — é possível criar assistentes de IA que entregam respostas instantâneas e precisas enquanto mantêm segurança e conformidade corporativa.

    A recomendação prática é começar com um caso de uso focado que demonstre ROI claro, então expandir conforme adoção cresce. Agentes personalizados entregam ganhos mensuráveis de produtividade, ajudando equipes encontrar informações mais rapidamente, automatizar fluxos repetitivos ou fornecer orientação de especialistas em escala.

    Para aprender mais sobre criação e deployment de agentes de chat do Quick Suite, consulte Create, customize, and deploy AI-powered chat agents in Amazon Quick Suite.

    Fonte

    Create AI-powered chat assistants for your enterprise with Amazon Quick Suite (https://aws.amazon.com/blogs/machine-learning/create-ai-powered-chat-assistants-for-your-enterprise-with-amazon-quick-suite/)

  • Amazon Connect ganha suporte a assistência de IA e resumo de contatos para Agentforce Service

    Amazon Connect integrado com Agentforce Service

    A AWS anunciou o suporte a assistência de inteligência artificial em tempo real e resumo de contatos para a solução Salesforce Contact Center com Amazon Connect (SCC-AC). O anúncio marca uma evolução importante na integração entre o Amazon Connect e a plataforma Agentforce do Salesforce, trazendo capacidades de IA que aceleram a resolução de problemas e padronizam os atendimentos.

    Capacidades principais da solução

    Assistência inteligente para agentes de IA

    Os agentes de IA conectados ao Amazon Connect podem agora aproveitar automaticamente informações do cliente e artigos da base de conhecimento armazenados no Sistema de Gestão de Relacionamento com o Cliente (CRM) do Salesforce. Essa capacidade acelera significativamente a resolução de problemas e garante consistência nos atendimentos, independentemente do canal utilizado — sejam chamadas de voz ou interações por chat.

    Transição suave entre IA e atendentes humanos

    Quando é necessária a intervenção de um humano, a integração dentro da SCC-AC garante que o cliente seja conectado a um atendente que possui uma visão unificada dos dados do cliente, contexto completo da questão e histórico da interação. Tudo isso fica acessível diretamente no Agentforce Service e Agentforce Sales, eliminando a necessidade de o atendente solicitar informações novamente ao cliente.

    Recursos em tempo real para supervisão e documentação

    Os atendentes recebem transcrições de voz em tempo real e recomendações contextualizadas durante a chamada, o que amplia suas capacidades de decisão rápida. Os supervisores, por sua vez, ganham funcionalidades aprimoradas de monitoramento de chamadas — tudo isso disponível diretamente na interface do Salesforce.

    Após a conclusão do atendimento, o resumo automático do contato permite que os agentes atualizem facilmente os casos do Salesforce sem esforço manual adicional, reduzindo tarefas administrativas e economizando tempo.

    Implantação e disponibilidade

    Administradores conseguem implantar e configurar essa solução de contact center integrada em minutos, aproveitando as capacidades nativas do Amazon Connect em canais de voz, digitais e roteamento inteligente de chamadas.

    O recurso está disponível em todas as regiões da AWS onde o Amazon Connect opera.

    Próximos passos

    Para explorar a solução em detalhes, confira a documentação do Salesforce Contact Center com Amazon Connect. Para compreender melhor o Amazon Connect e entender a estratégia de parceria entre as duas empresas, acesse a parceria estratégica entre Salesforce e AWS.

    Fonte

    Amazon Connect now supports AI agent assistance and summarization for Agentforce Service (https://aws.amazon.com/about-aws/whats-new/2025/11/amazon-connect-ai-agent-assistance-summarization-agentforce-service)