Author: Make.com Service User

  • Amazon Nova 2 Sonic: o novo modelo de IA conversacional em tempo real

    A AWS anuncia Amazon Nova 2 Sonic

    Em dezembro de 2025, a AWS anunciou a disponibilidade do Amazon Nova 2 Sonic, um modelo de fala-para-fala (speech-to-speech) desenvolvido para aplicações de IA conversacional em tempo real. O serviço combina qualidade excepcional com preço competitivo, representando um avanço importante no segmento de IA por voz.

    Capacidades principais do Nova 2 Sonic

    O modelo oferece compreensão de fala em tempo real com streaming, apresentando robustez diante de ruído de fundo e diferentes estilos de fala dos usuários. A gestão eficiente de diálogos e a geração de voz com expressividade estão entre seus destaques.

    Uma das características mais relevantes é o suporte a vozes poliglotas — vozes únicas capazes de falar múltiplos idiomas com naturalidade e expressão nativa. O modelo oferece raciocínio superior, melhor compreensão de instruções e maior precisão na invocação de ferramentas em comparação com a versão anterior.

    Melhorias em relação ao modelo anterior

    O Nova 2 Sonic expande as funcionalidades do modelo original Nova Sonic com várias inovações. O suporte a idiomas foi ampliado e agora inclui português e hindi, atendendo melhor ao mercado brasileiro e global.

    Entre as novas funcionalidades estão o controle de turnos de conversação — permitindo aos desenvolvedores configurar sensibilidade de pausas como baixa, média ou alta — e interação cross-modal, que permite aos usuários alternar entre voz e texto na mesma sessão sem interrupção.

    O modelo também incorpora chamadas de ferramentas assíncronas para suportar tarefas multietapas sem interromper o fluxo conversacional, e oferece uma janela de contexto de um milhão de tokens para manter interações prolongadas.

    Integração e disponibilidade

    Desenvolvedores podem integrar o Nova 2 Sonic diretamente em sistemas de voz em tempo real através da API de streaming bidirecional do Amazon Bedrock (Ambiente de Execução de Modelos de Base da AWS).

    O modelo também se integra com o Amazon Connect (serviço de call center em nuvem da AWS) e provedores de telefonia líderes como Vonage, Twilio e AudioCodes, além de frameworks de código aberto populares como LiveKit e Pipecat.

    O Amazon Nova 2 Sonic está disponível no Amazon Bedrock nas seguintes regiões AWS: US East (N. Virginia), US West (Oregon), Ásia Pacífico (Tóquio) e Europa (Estocolmo).

    Próximos passos

    Para conhecer mais detalhes técnicos, consulte o blog de notícias da AWS e o guia do usuário do Amazon Nova Sonic. Para começar a usar o Nova 2 Sonic, acesse o console do Amazon Bedrock.

    Fonte

    Announcing Amazon Nova 2 Sonic for real-time conversational AI (https://aws.amazon.com/about-aws/whats-new/2025/12/amazon-nova-2-sonic-real-time-conversational-ai/)

  • Instâncias Amazon EC2 M9g com processadores AWS Graviton5 chegam em prévia

    Novos processadores Graviton5 para EC2

    A AWS anunciou nesta semana a disponibilidade em prévia das novas instâncias M9g do Amazon EC2, equipadas com os processadores AWS Graviton5. Trata-se da evolução mais recente da linha de processadores Graviton, desenvolvidos especificamente pela AWS para entregar o melhor custo-benefício em cargas de trabalho rodando no Amazon EC2.

    Melhorias de desempenho

    As instâncias M9g trazem ganhos significativos em relação à geração anterior (M8g, baseada em Graviton4). Segundo a empresa, os novos processadores oferecem até 25% melhor desempenho de computação. Além disso, proporcionam maior largura de banda tanto para rede quanto para o Amazon EBS (Elastic Block Store, o serviço de armazenamento em blocos da AWS).

    Em cenários específicos, os ganhos são ainda mais expressivos: as instâncias M9g apresentam até 35% de velocidade maior para aplicações web e até 35% de aceleração para cargas de machine learning. Para bancos de dados, o ganho chega a 30%.

    Arquitetura e recursos

    Essas instâncias foram construídas sobre o AWS Nitro System, um conjunto de inovações em hardware e software desenvolvidas pela AWS. O Nitro System é projetado para viabilizar serviços em nuvem eficientes, flexíveis e seguros, com suporte a multitenância isolada, redes privadas e armazenamento local de rápido acesso.

    Casos de uso

    De acordo com a AWS, as instâncias Amazon EC2 M9g são ideais para uma variedade de cargas de trabalho, incluindo servidores de aplicação, microsserviços, servidores de gaming, armazenamentos de dados de médio porte e frotas de cache.

    Próximos passos

    Quem deseja explorar essas novas instâncias pode solicitar acesso à prévia através da página de instâncias M9g. Para quem está começando sua jornada com processadores Graviton, a AWS disponibiliza recursos complementares sobre como potencializar seu compute com AWS Graviton.

    Fonte

    Announcing new Amazon EC2 M9g instances powered by AWS Graviton5 processors (Preview) (https://aws.amazon.com/about-aws/whats-new/2025/12/ec2-m9g-instances-graviton5-processors-preview/)

  • AWS apresenta inovações de segurança potencializadas por IA na re:Invent 2025

    O contexto de segurança em expansão com IA

    A conferência re:Invent 2025 trouxe consigo um importante reconhecimento sobre a evolução das despesas em segurança corporativa. Conforme apontam dados de pesquisa do mercado, as organizações devem aumentar seus investimentos em segurança de forma substancial nos próximos anos. O panorama de investimentos reflete uma preocupação crescente das empresas em proteger suas implementações de inteligência artificial generativa enquanto expandem suas operações digitais. Esse direcionamento de recursos demonstra como a segurança permanece como prioritária nas estratégias de transformação digital, especialmente em um cenário onde as tecnologias de IA se tornam cada vez mais centrais nos negócios.

    A AWS respondeu a essa demanda apresentando uma abordagem integrada que combina inteligência artificial, machine learning e automação para fortalecer a segurança de forma proativa. As inovações anunciadas cobrem múltiplas camadas de proteção — desde aplicações até infraestrutura, passando por redes e dados — criando uma defesa em profundidade capaz de enfrentar ameaças sofisticadas, vulnerabilidades emergentes e configurações incorretas que possam interromper operações.

    Agentes de segurança com IA integrados aos fluxos de trabalho

    Uma das principais novidades apresentadas foi a incorporação de agentes de IA diretamente nos processos de segurança corporativa. Esses agentes executam tarefas especializadas como revisões de código, consolidação de sinais de resposta a incidentes e proteção de acesso para outros agentes autônomos.

    AWS Security Agent — segurança desde o design

    O AWS Security Agent funciona como um agente de fronteira que atua de forma proativa durante todo o ciclo de desenvolvimento das aplicações. Sua função inclui realizar revisões automatizadas de segurança adaptadas aos requisitos específicos de cada organização, além de oferecer testes de penetração sob demanda com contexto específico do ambiente. Ao validar continuamente a segurança desde a fase de design até o lançamento em produção, esse agente contribui para prevenir vulnerabilidades nos estágios iniciais do desenvolvimento, reduzindo riscos e custos de remediação posterior.

    Resposta a incidentes com capacidades agentic

    O AWS Security Incident Response traz capacidades de investigação potencializadas por IA agentic, projetadas para aprimorar e acelerar a resposta a eventos de segurança, bem como o tempo de recuperação. A automação nesse nível permite que equipes de segurança se dediquem a tarefas estratégicas enquanto o sistema executa investigações em paralelo.

    Controle de identidade para agentes IA

    O AgentCore Identity agora oferece autenticação melhorada que proporciona controles de acesso específicos para agentes IA. Esses controles determinam precisamente com quais serviços e dados os agentes podem interagir, respeitando permissões e atributos do usuário. Estabelecer limites granulares sobre como agentes autônomos interagem com aplicações corporativas diminui significativamente os riscos de acesso não autorizado ou exposição de dados.

    Detecção de ameaças impulsionada por machine learning e automação

    Os modelos de machine learning e processos automatizados agora aceleram a detecção de ameaças em mais ambientes da AWS. Essa capacidade permite identificar correlações que seriam difíceis de discernir manualmente, especialmente em ataques sofisticados com múltiplas etapas coordenadas, operando em escala.

    Detecção estendida para EC2 e ECS

    O GuardDuty extended threat detection para EC2 e ECS utiliza algoritmos avançados de IA e machine learning para identificar ataques sofisticados em múltiplas etapas direcionados a contas AWS, cargas de trabalho e dados em máquinas virtuais, contêineres e ambientes sem servidor. A automatização reduz o tempo necessário ao correlacionar sinais de diferentes fontes em sequências consolidadas, facilitando a análise de investigadores.

    Proteção contra malware em backups

    O GuardDuty malware protection para AWS Backup realiza varreduras automáticas de backups de EC2, EBS e S3 em busca de malware. Esse serviço ajuda as organizações a identificar seu último backup conhecido como limpo, minimizando interrupções durante o processo de recuperação. Adicionalmente, suporta varredura incremental de novos dados entre execuções de backup, otimizando tempo e recursos.

    Análise em tempo quase real da postura de segurança

    O Security Hub com análise em tempo quase real correlaciona sinais de segurança de múltiplas fontes — Amazon GuardDuty, Amazon Inspector, AWS Security Hub CSPM e Amazon Macie — oferecendo análise de risco praticamente em tempo real. Essa unificação de sinais simplifica as operações de segurança em nuvem, permitindo uma visão consolidada e acionável da postura de proteção.

    Gerenciamento de identidades e acesso centrado em agentes

    Os controles de acesso inteligente estão redefinindo a forma como as organizações gerenciam identidades e permissões. Essas soluções automatizam a geração de políticas e elevam o nível de maturidade em modelos de confiança zero, tornando mais acessível o uso dos serviços AWS.

    Geração automática de políticas de IAM

    O IAM policy autopilot permite que assistentes de código com IA criem rapidamente políticas de IAM (Gerenciamento de Identidades e Acesso) de linha de base, que as equipes podem refinar conforme a aplicação evolui. Essa abordagem acelera o processo de desenvolvimento sem comprometer os padrões de segurança.

    Federação de identidades para serviços externos

    O Outbound identity Federation permite que clientes de IAM façam federação segura de suas identidades AWS com serviços externos. Essa capacidade facilita a autenticação de cargas de trabalho AWS com provedores de nuvem, plataformas SaaS e aplicações hospedadas internamente, ampliando a interoperabilidade.

    Acesso privado ao console AWS

    O Private access sign-in roteia 100% do tráfego do console através de endpoints de VPC em vez de internet pública, utilizando roteamento inteligente para manter a segurança sem prejudicar o desempenho. Essa abordagem fornece camada adicional de proteção para acessos administrativos.

    Acesso programático para desenvolvimento local

    O Login para desenvolvimento local AWS permite que desenvolvedores utilizem suas credenciais de console existentes para acessar programaticamente a AWS em ambientes de desenvolvimento local. Essa simplificação reduz a complexidade de gerenciamento de credenciais sem sacrificar a segurança.

    Transformação da segurança através de IA e automação

    Coletivamente, esses avanços em IA e machine learning transformam a segurança de um modelo reativo e manual para um modelo proativo e escalável. As organizações conseguem agora operacionalizar a busca de ameaças e avançar sua postura de segurança mesmo enquanto expandem sua pegada digital. A confiança que as organizações depositam em segurança nativa de nuvem valida essa abordagem. Pesquisa com 2.800 profissionais de segurança e TI tomadores de decisão patrocinada pela AWS revelou dados significativos sobre essa percepção: 81% concordam que as capacidades nativas de segurança e conformidade de seu provedor de nuvem primário superam o que suas equipes conseguiriam entregar de forma independente. Adicionalmente, 56% responderam que nuvem pública está melhor posicionada para entregar segurança em comparação com 37% que selecionaram infraestrutura local, e 51% acreditam que nuvem pública está melhor preparada para atender regulamentações versus 41% que selecionaram ambientes on-premises.

    A nuvem permanece como fundação sobre a qual organizações constroem seus negócios, e a AWS segue ampliando seu portfólio de inovações em segurança que reforçam essa fundação. As capacidades apresentadas na re:Invent 2025 refletem essa trajetória contínua de evolução, especialmente no contexto de organizações que buscam proteger suas investidas em inteligência artificial enquanto escalam suas operações digitais.

    Fonte

    AWS launches AI-enhanced security innovations at re:Invent 2025 (https://aws.amazon.com/blogs/security/aws-launches-ai-enhanced-security-innovations-at-reinvent-2025/)

  • Suporte a TypeScript no Strands Agents chega em preview

    Expansão do Strands Agents com TypeScript

    Desde maio, a AWS disponibiliza o Strands Agents SDK, um framework open source em Python que utiliza uma abordagem orientada por modelos para construir e executar agentes de IA com apenas algumas linhas de código. Agora, a empresa expande as possibilidades da plataforma anunciando o suporte a TypeScript em preview, permitindo que desenvolvedores escolham entre Python e TypeScript para desenvolver Strands Agents.

    O suporte a TypeScript foi estruturado para proporcionar uma experiência idiomática dessa linguagem, incluindo segurança de tipo completa, suporte a async/await e padrões modernos de JavaScript e TypeScript. Os desenvolvedores podem executar Strands em aplicações cliente, navegadores e aplicações servidor em ambientes como AWS Lambda e Bedrock AgentCore. Além disso, é possível construir toda a arquitetura em TypeScript utilizando AWS CDK.

    Novidades Adicionais do SDK

    Suporte a dispositivos edge

    O suporte a dispositivos edge para Strands Agents agora está em disponibilidade geral, expandindo as capacidades do SDK com streaming bidirecional e provedores de modelos locais adicionais, como llama.cpp. Essa funcionalidade permite executar agentes em dispositivos de pequena escala utilizando modelos locais.

    Direcionamento de agentes

    Strands steering é apresentado como um recurso experimental, oferecendo aos desenvolvedores um mecanismo modular de prompt que fornece feedback ao agente no momento apropriado de seu ciclo de vida. Esse mecanismo direciona os agentes para um resultado desejado sem depender de workflows rígidos.

    Avaliação de agentes

    Strands evaluations chega em preview, permitindo que desenvolvedores validem sistematicamente o comportamento de agentes, meçam melhorias e façam deploy com confiança durante ciclos de desenvolvimento.

    Próximos Passos

    Para começar a construir com essas novas funcionalidades, desenvolvedores podem acessar o repositório Strands Agents no GitHub.

    Fonte

    Announcing TypeScript support in Strands Agents (preview) and more (https://aws.amazon.com/about-aws/whats-new/2025/12/typescript-strands-agents-preview)

  • AgentCore Gateway agora integra o API Gateway da AWS para aplicações com IA

    Integração entre AgentCore Gateway e API Gateway

    O desafio de levar dados corporativos para contexto de requisições a modelos de linguagem grandes (LLMs) mantém organizações atentas à segurança e conformidade com políticas empresariais. Para padronizar e proteger essas interações, muitas empresas adotam o Model Context Protocol (MCP), uma especificação que define como aplicações agentic se conectam seguramente a fontes de dados e ferramentas.

    Embora o MCP tenha se mostrado vantajoso para novos casos de uso, organizações enfrentam desafios ao trazer seus ecossistemas de API existentes para a era agentic. Enquanto o MCP consegue envolver APIs existentes, isso exige trabalho adicional: tradução de requisições de MCP para REST, garantia de segurança em todo o fluxo e aplicação de observabilidade necessária para ambientes de produção.

    A AWS anunciou que o Amazon Bedrock AgentCore Gateway agora suporta o Amazon API Gateway como alvo, traduzindo requisições MCP para o AgentCore Gateway em chamadas REST para o API Gateway. Isso permite expor endpoints de API novos e existentes a aplicações agentic usando MCP, com segurança e observabilidade já integradas.

    Imagem original — fonte: AWS

    O que mudou: Suporte a API Gateway no AgentCore Gateway

    O AgentCore Gateway agora suporta tipos de alvo existentes ampliados com API Gateway, além de funções Lambda, esquemas OpenAPI, modelos Smithy e servidores MCP. Muitos clientes AWS construíram ecossistemas extensos de APIs usando API Gateway, conectando backends em diversas aplicações. Conforme as empresas evoluem para aplicações agentic de próxima geração, a evolução natural é expor essas APIs existentes e ferramentas de backend para sistemas alimentados por inteligência artificial, permitindo integração perfeita entre infraestrutura estabelecida e agentes inteligentes modernos.

    Essa integração entre AgentCore Gateway e API Gateway simplifica a conexão entre os dois serviços. Permite direcionar diretamente o API Gateway, sem necessidade de exportar APIs do API Gateway como especificação OpenAPI 3 e depois adicioná-las ao AgentCore Gateway como alvo OpenAPI. Com essa integração, um novo tipo de alvo API_GATEWAY é adicionado ao AgentCore Gateway, eliminando o processo manual de exportação e importação.

    Proprietários de APIs REST podem adicionar sua API como alvo do AgentCore Gateway com poucas interações no console ou um único comando CLI, expondo sua API REST existente como ferramentas MCP através do AgentCore Gateway. Consumidores de API podem então conectar agentes de IA a essas APIs REST via Model Context Protocol (MCP) e potencializar seus fluxos de trabalho com integração de IA.

    Imagem original — fonte: AWS

    Segurança e observabilidade

    A integração entre AgentCore Gateway e API Gateway oferece suporte a autorização por IAM e chave de API. Tanto AgentCore Gateway quanto API Gateway possuem integrações com Amazon CloudWatch Logs, AWS CloudTrail e AWS X-Ray para observabilidade. Desenvolvedores de agentes que usam essa nova capacidade entre AgentCore Gateway e API Gateway podem aproveitar essas ferramentas de observabilidade.

    Configuração e implementação

    Este tópico apresenta como configurar uma API REST existente no API Gateway como alvo para AgentCore Gateway, permitindo usar APIs REST existentes como ferramentas para aplicações agentic expostas através do AgentCore Gateway.

    Pré-requisitos

    Para este exemplo, você precisa de:

    • Uma conta AWS com uma API REST existente no API Gateway
    • Uma função ou usuário Identity and Access Management (IAM) com permissões suficientes para criar um AgentCore Gateway e configurar um alvo API Gateway

    Gateways e alvos podem ser criados de múltiplas formas:

    Este artigo utiliza Boto3 para configurar a integração entre AgentCore Gateway e API Gateway. Para um guia interativo, você pode usar o exemplo de Jupyter Notebook no GitHub.

    Configuração de autorização de entrada e saída

    Configure os pré-requisitos para autorização de entrada e saída. Autorização de entrada autentica requisições de usuários recebidas. Autorização de saída ajuda AgentCore Gateway a conectar-se seguramente a alvos de gateway, como API Gateway, em nome do usuário autenticado.

    Imagem original — fonte: AWS

    Para API Gateway como alvo, AgentCore Gateway oferece suporte aos seguintes tipos de autorização de saída:

    • Sem autorização (não recomendado) — Alguns tipos de alvo oferecem a opção de contornar autorização de saída. Essa opção menos segura não é recomendada.
    • Autorização baseada em IAM — Use a função de serviço do gateway para autorizar acesso ao alvo de gateway com AWS Signature Version 4 (Sig V4).
    • Chave de API — Use a chave de API configurada usando AgentCore Identity para autorizar acesso ao alvo API Gateway. Chaves de API criadas usando um API Gateway mapeado com planos de uso API Gateway ajudam a monitorar e controlar o uso da API.

    Criar um papel IAM

    Crie uma função IAM com a política de confiança da documentação. Para autorização de saída com autorização baseada em IAM, a política deve incluir a permissão execute-api:Invoke.

    Exemplo de política inline:

    {
      "Version": "2012-10-17",
      "Statement": [
        {
          "Action": [
            "execute-api:Invoke"
          ],
          "Resource": "arn:aws:execute-api:{AWS_Region}:{AWS_Account_ID}:api-id/stage/METHOD_HTTP_VERB/resource-path",
          "Effect": "Allow"
        }
      ]
    }

    Para autorização por chave de API, crie uma chave de API e associe-a ao seu plano de uso API Gateway. Depois, crie um provedor de credencial de chave de API com AgentCore Identity. Uma vez feito isso, atualize a política conforme descrito na documentação do AgentCore Gateway.

    Criar um AgentCore Gateway

    Ao usar o kit de ferramentas AgentCore starter, você pode criar um gateway com uma configuração de autorização padrão usando Amazon Cognito para autorização de entrada baseada em JWT.

    import boto3
    
    gateway_client = boto3.client('bedrock-agentcore-control')
    
    auth_config = {
      "customJWTAuthorizer": {
        "allowedClients": [''],
        "discoveryUrl": 
      }
    }
    
    create_response = gateway_client.create_gateway(
      name='sample-ac-gateway',
      roleArn='',
      protocolType='MCP',
      protocolConfiguration={
        'mcp': {
          'supportedVersions': ['2025-03-26'],
          'searchType': 'SEMANTIC'
        }
      },
      authorizerType='CUSTOM_JWT',
      authorizerConfiguration=auth_config,
      description='AgentCore Gateway with API Gateway target'
    )
    
    print(create_response)
    
    gatewayID = create_response["gatewayId"]
    gatewayURL = create_response["gatewayUrl"]
    print(gatewayID)

    Isso retorna um GATEWAY_ID que você precisará para criar o alvo do gateway.

    Criar um alvo do AgentCore Gateway

    Para criar um alvo API Gateway, você precisa especificar o seguinte como parte da configuração de alvo:

    • toolFilters — Use para determinar quais recursos da API REST serão expostos como ferramenta no gateway. Os filtros também suportam wildcards no caminho de filtro.
    • toolOverrides (opcional) — Permite que usuários substituam nomes e descrições de ferramentas. Você deve especificar caminhos e métodos explícitos.
    • restApiId — Use para passar a ID do API Gateway.

    Abaixo estão exemplos de configurações de alvo:

    Exemplo 1 — Expõe GET e POST em /pets, GET em /pets/{petId} para o gateway e substitui seus nomes e descrições de ferramentas:

    {
      "mcp": {
        "apiGateway": {
          "restApiId": "",
          "stage": "",
          "apiGatewayToolConfiguration": {
            "toolFilters": [
              {
                "filterPath": "/pets",
                "methods": ["GET","POST"]
              },
              {
                "filterPath": "/pets/{petId}",
                "methods": ["GET"]
              }
            ],
            "toolOverrides" : [
              {
                "name": "ListPets",
                "path": "/pets",
                "method": "GET",
                "description":"Retrieves all the available Pets."
              },
              {
                "name": "AddPet",
                "path": "/pets",
                "method": "POST",
                "description":"Add a new pet to the available Pets."
              },
              {
                "path": "/pets/{petId}",
                "method": "GET",
                "name": "GetPetById",
                "description": "Retrieve a specific pet by its ID"
              }
            ]
          }
        }
      }
    }

    Exemplo 2 — Expõe GET em /pets e também GET em /pets/{petId} ou qualquer coisa sob /pets. Como toolOverrides não está especificado, usará a descrição de recurso do API Gateway:

    {
      "mcp": {
        "apiGateway": {
          "restApiId": "",
          "stage": "",
          "apiGatewayToolConfiguration": {
            "toolFilters": [
              {
                "filterPath": "/pets/*",
                "methods": ["GET"]
              }
            ]
          }
        }
      }
    }

    Configuração do provedor de credencial

    Ao criar um alvo, você também precisa especificar a autorização de saída do alvo usando uma configuração de provedor de credencial. Existem três tipos de provedores de credencial:

    GATEWAY_IAM_ROLE — Usa a ROLE_ARN especificada ao criar o gateway:

    [
      {
        "credentialProviderType": "GATEWAY_IAM_ROLE"
      }
    ]

    API_KEY — Requer a criação de um provedor de credencial de chave de API com AgentCore Identity:

    [
      {
        "credentialProviderType": "API_KEY",
        "credentialProvider": {
          "apiKeyCredentialProvider": {
            "providerArn": "",
            "credentialParameterName": "x-api-key",
            "credentialPrefix": "abc",
            "credentialLocation": "HEADER"
          }
        }
      }
    ]

    NO_AUTH — Configure não especificando uma configuração de provedor de credencial ao criar o alvo do AgentCore Gateway. Essa opção não é recomendada.

    Criar um alvo AgentCore Gateway

    Agora configure sua API REST como um alvo de gateway:

    import boto3
    
    gateway_client = boto3.client('bedrock-agentcore-control')
    
    create_gateway_target_response = gateway_client.create_gateway_target(
      name='api-gateway-target',
      gatewayIdentifier='',
      targetConfiguration=[< sua_configuracao_de_alvo>],
      credentialProviderConfigurations=[]
    )
    
    print(create_gateway_target_response)
    gateway_target_id = create_gateway_target_response['targetId']

    Testando o gateway

    Teste o gateway com o framework Strands Agents para listar e chamar as ferramentas disponíveis do servidor MCP. Você também pode usar outros agentes compatíveis com MCP construídos com diferentes frameworks agentic.

    def create_streamable_http_transport():
      return streamablehttp_client(
        gatewayURL,
        headers={"Authorization": f"Bearer {}"}
      )
    
    client = MCPClient(create_streamable_http_transport)
    
    with client:
      tools = client.list_tools_sync()
      agent = Agent(model=yourModel, tools=tools)
      agent("Hi, can you list all tools available to you")
      agent("List all the available pets")
      agent("Tell me about the pet with petId 3")
      agent("When my order will be delivered? My order id is 2")

    Você observará uma saída como a seguinte:

    I have access to the following tools:
    1. **x_amz_bedrock_agentcore_search** - A search tool that returns a trimmed down list of tools based on a provided context/query
    2. **api-gateway-target-1___Add_Pet** - Add a new pet to the available Pets
    3. **api-gateway-target-1___GetPetById** - Retrieve a specific pet by its ID (requires petId parameter)
    4. **api-gateway-target-1___List_Pets** - Retrieves all the available Pets (optional parameters: page, type)
    5. **api-gateway-target-2___GetOrderById** - Retrieve a specific order by its ID (requires orderId parameter)
    
    I'll retrieve all the available pets for you.
    Tool #1: api-gateway-target-1___List_Pets
    "HTTP/1.1 200 OK"
    
    Here are all the available pets:
    1. **Pet ID 1** - Dog - $249.99
    2. **Pet ID 2** - Cat - $124.99
    3. **Pet ID 3** - Fish - $0.99
    
    I'll retrieve the details for pet ID 3.
    Tool #2: api-gateway-target-1___GetPetById
    "HTTP/1.1 200 OK"
    
    Here are the details for pet ID 3:
    - **Pet ID**: 3
    - **Type**: Fish
    - **Price**: $0.99
    
    I'll check the details of your order with ID 2 to see the delivery information.
    Tool #3: api-gateway-target-2___GetOrderById
    "HTTP/1.1 200 OK"
    
    Based on your order details:
    - **Order ID**: 2
    - **Pet Category**: Cat
    - **Price**: $124.99
    - **Delivery Date**: 02-12-2025 (December 2nd, 2025)
    
    Your cat order will be delivered on **December 2nd, 2025**.

    Observabilidade

    Ative logs de aplicação e rastreamento para seu recurso AgentCore Gateway. Você verá logs detalhados que ajudam a monitorar e solucionar problemas do seu recurso AgentCore Gateway. Isso inclui as chamadas de ferramenta realizadas pela sua aplicação agentic, parâmetros de requisição, respostas e erros, se houver.

    Exemplo de logs:

    {
      "resource_arn": "arn:aws:bedrock-agentcore:us-west-2::gateway/sample-ac-gateway2-mgtqozexct",
      "event_timestamp": 1763621922275,
      "body": {
        "isError": false,
        "log": "Executing tool api-gateway-target-1___GetPetById from target W8BCF5VEAZ",
        "id": "3"
      },
      "account_id": "",
      "request_id": "8a70f423-79ee-4168-9d68-b76ad3*****",
      "trace_id": "324a2ecc08631a55a02bb8f74104****",
      "span_id": "f58914982450ad9b",
      "timestamp": "1763621922275",
      "gateway_id": "sample-ac-gateway2-mgtqozexct"
    }
    
    {
      "resource_arn": "arn:aws:bedrock-agentcore:us-west-2::gateway/sample-ac-gateway2-mgtqozexct",
      "event_timestamp": 1763621922348,
      "body": {
        "isError": false,
        "responseBody": "{jsonrpc=2.0, id=3, result={isError=false, content=[{type=text, text={\"id\":3,\"type\":\"fish\",\"price\":0.99}}]}}",
        "log": "Successfully processed request",
        "id": "3"
      },
      "account_id": "",
      "request_id": "8a70f423-79ee-4168-9d68-b76ad3ef****",
      "trace_id": "324a2ecc08631a55a02bb8f7410****",
      "span_id": "f58914982450ad9b",
      "timestamp": "1763621922348",
      "gateway_id": "sample-ac-gateway2-mgtqozexct"
    }

    O AgentCore Gateway oferece métricas detalhadas do CloudWatch incluindo métricas de uso (TargetType, IngressAuthType, EgressAuthType, RequestsPerSession), métricas de invocação (Invocations, ConcurrentExecutions, Sessions), métricas de desempenho (Latency, Duration, TargetExecutionTime) e taxas de erro (Throttles, SystemErrors, UserErrors).

    O AgentCore Gateway também suporta AWS X-Ray e spans conformes a OTEL que clientes podem usar para rastrear invocações em diferentes primitivas sendo utilizadas. Para saber mais, consulte a documentação de observabilidade do AgentCore Gateway.

    Imagem original — fonte: AWS

    Limpeza de recursos

    Para evitar cobranças recorrentes, certifique-se de deletar os recursos criados executando o código a seguir:

    import boto3
    
    gateway_client = boto3.client('bedrock-agentcore-control')
    
    response = gateway_client.delete_gateway_target(
      gatewayIdentifier='',
      targetId='')
    
    print(response)
    
    response = gateway_client.delete_gateway(
      gatewayIdentifier='')
    
    print(response)

    Próximos passos

    O AgentCore Gateway agora oferece suporte ao Amazon API Gateway como alvo, expondo APIs REST como endpoints compatíveis com MCP. Você pode trazer sua infraestrutura de API existente para casos de uso agentic enquanto utiliza suas ferramentas de segurança e observabilidade atuais.

    Visite a documentação do desenvolvedor e workshop para saber mais e começar hoje mesmo.

    Fonte

    Streamline AI agent tool interactions: Connect API Gateway to AgentCore Gateway with MCP (https://aws.amazon.com/blogs/machine-learning/streamline-ai-agent-tool-interactions-connect-api-gateway-to-agentcore-gateway-with-mcp/)

  • Amazon Bedrock agora suporta ajuste fino com aprendizado por reforço, alcançando ganhos de 66% em precisão comparado aos modelos base

    O que é o ajuste fino com aprendizado por reforço

    A AWS anunciou suporte a ajuste fino com aprendizado por reforço no Amazon Bedrock, democratizando uma técnica avançada de customização de modelos que antes era acessível apenas a especialistas. O recurso elimina barreiras como a necessidade de expertise profunda em aprendizado de máquina ou grandes volumes de dados rotulados.

    A plataforma automatiza todo o fluxo de trabalho, permitindo que equipes de desenvolvimento comum implementem esta abordagem sofisticada. Os modelos aprendem através de feedback sobre múltiplas respostas possíveis para o mesmo prompt, refinando o seu julgamento sobre o que constitui uma boa resposta. Este método requer apenas um pequeno conjunto de prompts, em contraste com os volumes massivos necessários para métodos tradicionais de ajuste fino.

    Impacto em precisão e custo

    O ajuste fino com aprendizado por reforço no Amazon Bedrock entrega ganhos médios de 66% em precisão quando comparado aos modelos base. Este ganho significativo permite que as organizações utilizem variantes de modelos menores, mais rápidos e economicamente mais eficientes, mantendo qualidade elevada.

    Resolvendo o dilema das empresas

    Muitas organizações enfrentam um dilema ao tentar adaptar modelos de IA às suas necessidades específicas: escolher entre modelos genéricos com desempenho médio ou investir em customizações complexas que demandam talento especializado, infraestrutura dedicada e movimento arriscado de dados.

    O ajuste fino com aprendizado por reforço no Amazon Bedrock simplifica este cenário ao tornar a customização avançada rápida, automatizada e segura. Os dados proprietários nunca deixam o ambiente seguro e governado da AWS durante todo o processo de customização, mitigando preocupações de segurança e conformidade.

    Como começar

    O fluxo de trabalho é flexível: você pode enviar dados de treinamento diretamente do seu computador ou utilizar datasets já armazenados no Amazon S3, eliminando a necessidade de datasets rotulados previamente.

    A definição de funções de recompensa oferece duas abordagens: verificadores baseados em regras ou juízes alimentados por IA, além de templates integrados. Esta flexibilidade permite otimizar modelos tanto para tarefas objetivas — como geração de código ou raciocínio matemático — quanto para tarefas subjetivas, como seguimento de instruções ou interações de chatbot.

    Você pode começar com ajuste fino por reforço no Amazon Bedrock através do console do Amazon Bedrock ou via APIs do Amazon Bedrock. No lançamento inicial, o recurso está disponível com o Amazon Nova 2 Lite, com suporte para modelos adicionais previsto em breve.

    Próximos passos

    Para explorar mais detalhes sobre ajuste fino com aprendizado por reforço no Amazon Bedrock, consulte o blog de lançamento, a página de preços e a documentação completa.

    Fonte

    Amazon Bedrock now supports reinforcement fine-tuning delivering 66% accuracy gains on average over base models (https://aws.amazon.com/about-aws/whats-new/2025/12/bedrock-reinforcement-fine-tuning-66-base-models/)

  • Amazon Nova Lite 2.0: como o modelo de IA da AWS resolve cenários complexos de atendimento ao cliente

    Compreendendo o raciocínio em modelos de IA

    O que diferencia um modelo de inteligência artificial verdadeiramente útil de um que apenas replica padrões? A resposta está no raciocínio. Capacidades sólidas de raciocínio permitem que modelos identifiquem problemas a partir de descrições ambíguas, apliquem políticas sob restrições concorrentes, adaptem o tom a situações sensíveis e forneçam soluções completas que resolvem causas raiz. Sem raciocínio robusto, sistemas de IA falham quando confrontados com cenários nuançados que exigem julgamento, conscientização contextual e resolução de problemas em múltiplas etapas.

    A AWS recentemente publicou uma análise detalhada mostrando como seu modelo mais recente, o Amazon Nova Lite 2.0, se comporta em situações do mundo real de atendimento ao cliente. O estudo compara o desempenho do Nova Lite 2.0 contra outros modelos da família Nova — incluindo Lite 1.0, Micro, Pro 1.0 e Premier — revelando avanços significativos em qualidade e consistência do raciocínio.

    Estrutura de avaliação: medindo capacidades reais

    A avaliação da AWS testou cinco modelos Nova em cinco cenários diferentes de atendimento ao cliente, medindo desempenho em oito dimensões críticas:

    • Identificação de problemas
    • Completude da solução
    • Aderência a políticas
    • Acurácia factual
    • Empatia e tom
    • Clareza da comunicação
    • Coerência lógica
    • Utilidade prática

    Um modelo avaliador independente (gpt-oss-20b) forneceu pontuação automatizada e imparcial. A arquitetura de avaliação utilizou a mesma região (us-east-1) e tratou diferentes formatos de API automaticamente: Converse API para Nova e OpenAI Chat Completions para gpt-oss-20b. Todos os detalhes técnicos e o notebook de exemplo estão disponíveis no repositório GitHub.

    Cenários testados: desafios do mundo real

    Para gerar os cenários de avaliação, a AWS utilizou Claude Sonnet 4.5 by Anthropic no Amazon Bedrock para gerar uma amostra de 100 cenários de interações típicas de atendimento ao cliente. Nenhum modelo Nova foi usado para gerar os cenários, evitando viés potencial. Cinco cenários foram selecionados aleatoriamente para testes, representando desafios comuns de raciocínio:

    • Reclamação de cliente irado: Testa desescalação, empatia e resolução quando um cliente ameaça sair após entrega atrasada e serviço deficiente
    • Problema técnico de software: Avalia troubleshooting quando um aplicativo falha durante upload de fotos apesar de tentativas básicas
    • Disputa de faturamento: Analisa habilidades de investigação e consciência de segurança para cobranças não reconhecidas indicando possível acesso não autorizado
    • Relatório de defeito de produto: Mede aplicação de políticas de garantia e atendimento ao cliente para produto defeituoso com dois meses de uso
    • Preocupação de segurança de conta: Testa resposta de urgência e protocolos de segurança para mudanças de senha não autorizadas e compras fraudulentas

    Cada cenário incluía problemas-chave a identificar, soluções obrigatórias e políticas relevantes, fornecendo critérios objetivos para avaliação.

    Metodologia técnica: detalhes da implementação

    A AWS utilizou prompts otimizados gerados pela Amazon Bedrock Prompt Optimizer API. O otimizador analisa e reescreve prompts brutos para melhorar desempenho dos modelos, criando otimizações específicas para cada modelo Nova.

    O framework de avaliação utiliza um processo de pontuação em duas etapas: primeiro, o avaliador atribui um rótulo de categoria que melhor caracteriza a resposta; depois, atribui uma pontuação predeterminada correspondente. Essa abordagem garante metodologia consistente e uniforme em todas as respostas.

    Para cada dimensão de avaliação, cinco categorias foram estabelecidas com pontuações mapeadas: Excelente (10), Bom (8), Adequado (6), Fraco (4) e Falha Crítica (2). O avaliador fornecia raciocínio detalhado para cada pontuação, garantindo transparência no processo de assessment.

    Avaliação por modelo de linguagem: escalabilidade e confiabilidade

    Técnicas tradicionais como ROUGE e BLEU têm limitações em conversas abertas. A avaliação por modelo de linguagem (LLM-as-a-judge) oferece escalabilidade, flexibilidade e resultados que se alinham com preferências humanas em até 80%. A metodologia incluiu 10 execuções por combinação modelo-cenário, produzindo 250 avaliações totais (5 modelos × 5 cenários × 10 execuções), proporcionando uma distribuição estatística abrangente.

    O framework incluía verificações diagnósticas para validar qualidade e confiabilidade da avaliação. Avaliações falhadas foram excluídas dos cálculos de média e desvio padrão, evitando que falhas técnicas deflacionassem artificialmente as pontuações dos modelos.

    Análise estatística e medição de incerteza

    A avaliação estatística empregou rigor metodológico para quantificar incerteza nas estimativas de desempenho. O erro padrão foi calculado como SE = √(σ²/n), onde σ² é a variância amostral e n é o tamanho da amostra. Isso mediu precisão da estimativa da média e forneceu intervalos de confiança de 95% (IC = μ± 1,96×SE).

    Um escore de consistência baseado em coeficiente de variação foi calculado como (100 – CV%), onde CV% = (σ/μ)×100, normalizando a medição de confiabilidade em uma escala de 0-100. Análises adicionais incluíram efeito mínimo detectável, comparação pareada entre modelos e análise de potência.

    Fonte: AWS

    Resultados: desempenho do Nova Lite 2.0

    O Amazon Nova Lite 2.0 alcançou a pontuação geral mais alta (9,42/10) com erro padrão de 0,08 e coeficiente de variação de 5,55%, demonstrando raciocínio de alta qualidade. A comparação revelou que:

    • Nova Lite 2.0 obteve pontuação geral de 9,42 com intervalo de confiança de [9,28 a 9,57]
    • Nova Lite 1.0 alcançou 8,65 com intervalo [8,48 a 8,82]
    • Nova Pro 1.0 atingiu 8,53 com intervalo [8,30 a 8,76]
    • Nova Micro obteve 7,70 com intervalo [7,08 a 8,32]
    • Nova Premier registrou 7,16 com intervalo [6,41 a 7,91]

    O Nova Lite 2.0 apresentou consistência excepcionalmente alta (escore de consistência de 94,45%), indicando desempenho confiável em cenários diversos. A variabilidade baixa versus outros modelos sugere que respostas do Nova Lite 2.0 se comportam de forma consistente e previsível.

    Fonte: AWS

    Análise dimensional: forças do Nova Lite 2.0

    Os pontos fortes dimensionais do Nova Lite 2.0 demonstram capacidades equilibradas em critérios críticos de avaliação. Pontuações altas em identificação de problemas, comunicação e raciocínio lógico indicam desempenho maduro que se traduz efetivamente em aplicações do mundo real.

    Identificação de Problemas: O modelo se destacou em identificar todos os problemas-chave, crucial quando problemas perdidos levam a soluções incompletas.

    Clareza de Comunicação: Alcançou a pontuação mais alta nesta dimensão, produzindo respostas bem estruturadas e acionáveis que clientes conseguem seguir facilmente.

    Coerência Lógica: Desempenho forte indica que o modelo mantém raciocínio fundamentado sem contradições em cenários complexos.

    Empatia e Tom: Pontuações altas demonstram inteligência emocional apropriada, crítica para desescalação e situações sensíveis.

    Cenários por modelo: performance desagregada

    Examinando desempenho por cenário específico, padrões interessantes emergiram. Para “Reclamação de Cliente Irado”, o Nova Lite 2.0 alcançou 9,95/10. Para “Problema Técnico de Software”, atingiu pontuação perfeita de 10,00. Em “Disputa de Faturamento”, obteve 9,15. Em “Relatório de Defeito de Produto”, marcou 9,25. Para “Preocupação de Segurança de Conta”, registrou 9,25.

    Comparativamente, o Nova Premier registrou apenas 2,00 para “Preocupação de Segurança de Conta” devido a invocação de Guardrails na maioria das respostas, indicando limitações em contextos de segurança sensíveis.

    Principais achados e implicações práticas

    Os resultados de avaliação revelam insights críticos para seleção e estratégias de deployment de modelos. Diferentes dimensões de desempenho importam conforme o caso de uso: modelos que se saem bem em acurácia mas mal em empatia ou clareza são inadequados para aplicações voltadas ao cliente. O desempenho equilibrado do Nova Lite 2.0 em todas as dimensões o torna pronto para produção.

    A variabilidade baixa do Nova Lite 2.0 versus outros modelos indica desempenho confiável em cenários diversos — crítico onde respostas inconsistentes danificam confiança do usuário. Avaliação multi-dimensional do mundo real revela capacidades práticas que benchmarks sintéticos perdem. O framework superficializa dimensões críticas como empatia, aderência a políticas e utilidade prática.

    Considerações de implementação

    Implementar com sucesso este framework de avaliação requer atenção a fatores operacionais que impactam significativamente qualidade e custo-efetividade da avaliação. A escolha de metodologia de avaliação, mecanismos de pontuação e infraestrutura técnica influenciam diretamente confiabilidade e escalabilidade dos resultados.

    Seleção do Avaliador: A AWS selecionou gpt-oss-20b para garantir independência da família Nova, reduzindo viés potencial. O Amazon Bedrock oferece capacidades LLM-as-a-judge incorporadas com métricas padrão como correção, completude e nocividade. O framework apresentado oferece flexibilidade para definir critérios de avaliação especializados e assessments multi-dimensionais customizáveis ao caso de uso específico.

    Design de Cenários: Cenários efetivos equilibram realismo com mensurabilidade. Cada um inclui detalhes específicos enraizando avaliação em contextos realistas. Critérios objetivos — problemas-chave a identificar, soluções obrigatórias, políticas relevantes — permitem pontuação consistente. Complexidade realista combinando múltiplos problemas e prioridades concorrentes revela como modelos lidam com ambiguidade do mundo real.

    Validação Estatística: Múltiplas execuções por cenário fornecem intervalos de confiança e detectam inconsistência, garantindo que diferenças de desempenho são estatisticamente significativas.

    Próximos passos para organizações

    Para organizações considerando o Nova Lite 2.0 para seus próprios casos de uso, a abordagem prática recomendada inclui:

    • Começar com ferramentas de avaliação de modelo do Amazon Bedrock, incluindo capacidades LLM-as-a-judge incorporadas para métricas padrão, ou adaptar o framework customizado discutido para critérios de avaliação especializados
    • Implementar testes multi-dimensionais adaptando o framework a requisitos de domínio específico
    • Iniciar deployment com cenários de baixo risco para validar desempenho em seu ambiente
    • Escalar sistematicamente usando a abordagem de validação estatística para expandir a casos de uso adicionais

    Recursos adicionais incluem a documentação do Amazon Bedrock, os modelos Amazon Nova e o repositório GitHub com código completo e exemplos.

    Conclusão

    A avaliação abrangente da AWS demonstra que o Amazon Nova Lite 2.0 entrega capacidades de raciocínio em IA prontas para produção, com confiabilidade mensurável em aplicações diversas de negócios. O framework de assessment multi-dimensional fornece às organizações evidência quantitativa necessária para fazer deployment confiante de sistemas de IA em ambientes operacionais críticos.

    À medida que modelos avançam, metodologias de assessment devem evoluir para capturar capacidades sofisticadas cada vez maiores — conversas multi-turno, tomada de decisão complexa sob incerteza e julgamento nuançado em situações ambíguas. A abordagem prática demonstrada neste estudo representa um passo importante nessa direção, transformando avaliação de IA de comparação simples de pontuações em ciência experimental rigorosa com incerteza quantificada.

    Fonte

    Real-world reasoning: How Amazon Nova Lite 2.0 handles complex customer support scenarios (https://aws.amazon.com/blogs/machine-learning/real-world-reasoning-how-amazon-nova-lite-2-0-handles-complex-customer-support-scenarios/)

  • Amazon Connect Chat agora suporta fluxos iniciados por agentes

    O que é essa novidade?

    A AWS anunciou que o Amazon Connect Chat agora oferece suporte a fluxos de trabalho iniciados por agentes. Essa funcionalidade permite que os atendentes (agentes de suporte) enviem formulários interativos diretamente aos clientes durante uma conversa de chat, sem interrupções no diálogo.

    Esses formulários podem ser usados para coletar informações sensíveis ou compartilhar políticas e divulgações de forma segura e organizada, tudo dentro do contexto da conversa. Isso representa uma evolução importante para plataformas de atendimento ao cliente que buscam equilibrar segurança, conformidade e experiência do usuário.

    Como funciona na prática?

    Uso em tempo real

    Os agentes agora podem disparar esses fluxos a qualquer momento durante uma conversa, tornando as interações mais dinâmicas e responsivas às necessidades específicas do cliente. Por exemplo: quando um cliente precisa atualizar seu endereço cadastrado, o agente pode enviar um formulário que o cliente preenche sem sair da interface de chat.

    Manutenção de segurança e conformidade

    Como tudo ocorre dentro da própria conversa de chat, as empresas conseguem manter padrões de segurança e conformidade regulatória, ao mesmo tempo que oferecem soluções mais rápidas ao cliente. Essa abordagem elimina a necessidade de redirecionar o usuário para outras interfaces ou plataformas.

    Disponibilidade regional

    Essa nova funcionalidade já está disponível nos seguintes pontos de presença da AWS:

    • Regiões da América do Norte: US East (N. Virginia) e US West (Oregon)
    • Regiões da Ásia-Pacífico: Seoul, Singapore, Sydney e Tokyo
    • Regiões da América do Norte: Canada (Central)
    • Regiões da Europa: Frankfurt e London
    • Regiões da África: Cape Town

    Para explorar mais

    Quem deseja implementar essa funcionalidade pode consultar a documentação oficial do Amazon Connect para obter detalhes técnicos e práticas recomendadas.

    Fonte

    Amazon Connect Chat now supports agent-initiated workflows (https://aws.amazon.com/about-aws/whats-new/2025/11/amazon-connect-chat-agent-initiated-workflows)

  • Agente inteligente de análise de risco em seguros com Amazon Nova 2 Lite

    Desafios na análise de risco em seguros

    A análise de risco em seguros enfrenta um cenário complexo: os analistas precisam examinar múltiplas fontes de dados, avaliar riscos e tomar decisões que atendam a requisitos regulatórios cada vez mais rigorosos. Esse processo se torna ainda mais desafiador quando a organização enfrenta três problemas críticos.

    Primeiro, os dados estão fragmentados. Informações de clientes residem em sistemas de Gestão de Relacionamento com Clientes (Sistemas de CRM), repositórios de documentos e bases de dados transacionais, criando silos que dificultam uma análise integrada e confiável.

    Segundo, há pressão regulatória. As autoridades exigem decisões que sejam explicáveis e auditáveis — propriedades que abordagens tradicionais baseadas em modelos de “caixa preta” não conseguem fornecer adequadamente.

    Terceiro, há necessidade de escala. As organizações precisam manter regras de análise consistentes e automatizadas em todo o portfólio, com capacidade de identificar proativamente sinais de fraude e comportamentos suspeitos.

    Uma solução integrada com inteligência artificial

    A AWS apresenta uma arquitetura que combina diferentes componentes para resolver esses desafios. O pilar técnico dessa solução é o Amazon Nova 2 Lite, um modelo de linguagem que fornece raciocínio transparente e explicável para cada decisão tomada.

    Como funciona a arquitetura

    A solução utiliza o Protocolo de Contexto de Modelo (MCP) para criar ferramentas especializadas em três tarefas: detecção de fraude em seguros, avaliação de risco de um solicitante e tomada de decisão sobre cobertura. Quando uma ferramenta é acionada a partir de uma consulta, ela acessa dados de fontes específicas — repositórios de documentos como Amazon Simple Storage Service (S3) e bases de dados como Amazon DynamoDB — e invoca o Amazon Nova 2 Lite para análise e geração de recomendações.

    Depois de recuperar as instruções de sistema e o contexto necessário, o modelo retorna uma resposta estruturada conforme esperado pela ferramenta. O servidor MCP é hospedado no Amazon Bedrock AgentCore Runtime com autorização de entrada via OAuth 2.0. Já o cliente MCP do Amazon Quick Suite é configurado com autenticação de serviço para permitir conexões de entrada ao servidor MCP.

    A interação do usuário ocorre de forma natural: o agente de conversa processa consultas em linguagem natural, invoca as ferramentas MCP necessárias e mantém diálogos interativos com múltiplas trocas de mensagens.

    Fluxo de operação

    O fluxo começa quando um usuário autenticado do Quick Suite acessa o agente de conversa do Quick Suite e submete uma pergunta através da interface do assistente. Um exemplo seria: “Avalie o risco para o solicitante APP-0900”.

    O agente de conversa está integrado com as Integrações de Ações MCP do Amazon Quick Suite para invocar ações em um servidor MCP implantado no AgentCore Runtime. O agente analisa a pergunta para entender a intenção, identifica entidades-chave como identificadores de solicitantes e números de sinistros, e decide quais ferramentas MCP devem ser acionadas.

    O cliente MCP do Quick Suite solicita um token de acesso do Amazon Cognito usando credenciais de cliente OAuth. O Cognito valida as credenciais e emite um token de curta duração. O Quick Suite inclui esse token na requisição ao AgentCore Runtime, que valida o token contra o Cognito.

    O AgentCore Runtime possui uma tradução integrada que transforma a requisição de entrada no formato JSON-RPC 2.0 do MCP e invoca as ferramentas apropriadas. O registro de eventos pode ser habilitado para registrar tudo no Amazon CloudWatch.

    O servidor MCP executa a lógica das ferramentas, recupera dados do DynamoDB e S3, e invoca o Amazon Nova 2 Lite através da API Converse do Amazon Bedrock para gerar uma resposta com um processo detalhado de raciocínio. A resposta é transformada novamente para corresponder ao protocolo do Quick Suite e retornada ao usuário através da interface do assistente.

    O Amazon Nova 2 Lite oferece capacidades importantes nesse cenário: consegue solicitar ferramentas e compreender seus esquemas, realiza raciocínio para determinar quais ferramentas são necessárias baseado nas perguntas do usuário, e então gera requisições de ferramentas com parâmetros validados que o servidor MCP executa.

    Implementação prática da solução

    Pré-requisitos

    Para colocar em prática essa solução, você precisará de:

    • Uma conta AWS
    • Amazon Quick Suite configurado com assinatura Author Pro
    • Permissão para criar funções e políticas de AWS Identity and Access Management (IAM) e recursos AWS, incluindo tabela DynamoDB, bucket S3, pool de usuários Cognito e AgentCore Runtime
    • Acesso a um ambiente de linha de comando com AWS SDK e Python instalados

    Hospedagem do servidor MCP

    A implementação começa clonando o repositório de código correspondente. Em seguida, você edita o arquivo de configuração config/enterprise_config.yaml para fornecer o nome do servidor MCP, o pool de usuários Cognito, as tabelas DynamoDB contendo solicitantes e sinistros, e o bucket S3 para registros médicos.

    Depois, configura um ambiente virtual Python com as dependências necessárias:

    python -m venv smart_insurance_agent_venv
    source smart_insurance_agent_venv/bin/activate
    pip install -r deployment/requirements.txt

    Opcionalmente, você pode gerar dados sintéticos de solicitantes, registros médicos e sinistros. A geração de dados sintéticos utiliza a biblioteca faker para criar registros de solicitantes e sinistros que são persistidos no DynamoDB e registros médicos que são persistidos no S3 em formato JSON. Você pode modificar o esquema ou formatos de registro personalizando o script de carregamento conforme suas necessidades.

    Com tudo preparado, você implanta o servidor MCP no Amazon Bedrock AgentCore executando o script de implantação. Este passo cria um pool de usuários Cognito, constrói uma imagem Docker, a implanta no AgentCore, configura permissões IAM, e gera a documentação com a URL do endpoint do servidor MCP e configuração OAuth necessária para integração com o Quick Suite.

    Para validar que tudo funcionou corretamente, executa o teste de funcionalidade das ferramentas MCP. A execução bem-sucedida fornecerá uma saída confirmando que o servidor foi implantado e operacional.

    Integração com Quick Suite

    Depois, você estabelece uma conexão OAuth de serviço a serviço do Quick Suite para o endpoint hospedado no Amazon Bedrock AgentCore. Essa conexão permite que seu agente de conversa do Quick Suite invoque ações do servidor MCP para cumprir solicitações dos usuários.

    No console do Quick Suite, você navega até Integrações e cria uma nova integração MCP. Na página de configuração de conexão, fornece os detalhes do servidor MCP: um nome (por exemplo, “Especialista em Análise de Seguros”), uma descrição opcional e a URL do endpoint do servidor MCP.

    Na página de autenticação, você seleciona autenticação de serviço, escolhe OAuth de serviço a serviço como tipo de autenticação, e fornece o ID de cliente, segredo do cliente e URL do token. Depois de revisar e confirmar, a integração está pronta.

    Para testar, você acessa a seção de Integrações no console, verifica que o status está “Disponível”, seleciona a integração criada e testa as APIs de ação para confirmar que estão funcionando corretamente.

    Criando o agente de conversa personalizado

    Agora você cria um agente de conversa customizado no Quick Suite. Você fornece um nome para identificar o agente e uma descrição opcional que ajude os usuários a entender seu propósito.

    Na configuração do agente, você define sua identidade. Um exemplo seria: “Você é Nova, um Analista de Seguros baseado em IA com expertise profunda em avaliação de risco explicável e detecção de fraude. Você tem acesso a dados empresariais de seguros incluindo mais de 1000 perfis de solicitantes, registros médicos e histórico de sinistros através de capacidades avançadas de raciocínio”.

    Você também fornece instruções de persona que definem como o agente interage com usuários durante a conversa. Por exemplo, instruções que enfatizam transparência, explicam o nível de confiança nas recomendações, decompõem decisões complexas em passos lógicos claros, referenciam perfis específicos de solicitantes quando disponível, fornecem pontuações de risco com explicações detalhadas dos fatores contribuintes, incluem considerações de conformidade regulatória, e oferecem perguntas de acompanhamento para aprofundar a análise quando apropriado.

    Na seção de Ações, você vincula o conector de ação que criou, lançando o agente. Após alguns minutos, o agente estará operacional e pronto para conversar.

    Você pode começar pedindo ao agente uma avaliação de risco específica — por exemplo, “Avalie o risco para o solicitante APP-0900”. O agente processará a requisição, invocará as ações necessárias, e retornará uma análise detalhada. A interface da conversa pode solicitar informações adicionais para algumas ações antes de proceder, garantindo precisão na análise.

    Benefícios da abordagem

    Essa arquitetura soluciona os três desafios centrais mencionados no início. Primeiro, unifica dados de DynamoDB e S3, permitindo que o sistema acesse informações completas sobre solicitantes, registros e histórico de sinistros em uma única consulta. Segundo, entrega raciocínio passo a passo transparente para cada decisão, atendendo requisitos regulatórios de explicabilidade e auditoria. Terceiro, mantém trilhas de auditoria completas no CloudWatch para conformidade regulatória, e permite que investigadores façam perguntas como “Mostre-me todos os sinistros registrados dentro de 30 dias do início da apólice” para identificar padrões suspeitos.

    Com essa solução em operação, você consegue escalar análises de risco — líderes de negócios ganham inteligência de portfólio em tempo real através de interações em linguagem natural, e todo o processo de análise é rastreável e auditável do início ao fim.

    Limpeza de recursos

    Após experimentar a solução, você pode remover todos os recursos AWS criados para evitar cobranças contínuas usando o script fornecido na documentação de implantação.

    Fonte

    Create an intelligent insurance underwriter agent powered by Amazon Nova 2 Lite and Amazon Quick Suite (https://aws.amazon.com/blogs/machine-learning/create-an-intelligent-insurance-underwriter-agent-powered-by-amazon-nova-2-lite-and-amazon-quick-suite/)

  • SES Mail Manager agora está disponível em 10 regiões adicionais da AWS, totalizando 27

    Expansão global do SES Mail Manager

    A AWS anunciou a disponibilidade do SES Mail Manager em 10 regiões comerciais adicionais. Esta expansão leva o serviço de um total de 17 regiões para 27 regiões, consolidando uma cobertura significativa. A novidade marca um passo importante: o Mail Manager agora está disponível em todas as regiões comerciais onde o SES oferece seu serviço principal de envio de emails (Outbound).

    O que é o SES Mail Manager

    O SES Mail Manager é um serviço da AWS que permite aos clientes configurar mecanismos de roteamento e entrega de emails para seus domínios. Mais que isso, oferece uma visualização única de governança de emails, gerenciamento de riscos e soluções de conformidade para todos os trabalhos relacionados a emails na organização.

    Na prática, as empresas implantam o Mail Manager para substituir soluções legadas de retransmissão de emails hospedados ou para simplificar a integração com provedores de caixas de correio terceirizados e soluções de segurança de email. O serviço também oferece funcionalidades complementares:

    • Integração com caixas de correio WorkMail
    • Arquivamento integrado com capacidades de busca e exportação
    • Integração com complementos de segurança terceirizados diretamente no console

    As 10 novas regiões

    As regiões recém-adicionadas incluem:

    • Oriente Médio (Bahrein)
    • Ásia Pacífico (Jacarta)
    • África (Cidade do Cabo)
    • Oriente Médio (Emirados Árabes Unidos)
    • Ásia Pacífico (Hyderabad)
    • Ásia Pacífico (Malásia)
    • Europa (Milão)
    • Israel (Tel Aviv)
    • Canadá Oeste (Calgary)
    • Europa (Zurique)

    Como começar

    Para ter acesso à lista completa de regiões onde o Mail Manager está disponível, consulte a documentação de disponibilidade de regiões. Para aprender mais detalhes sobre o serviço, visite a página do produto Amazon SES Mail Manager e a documentação completa. Você pode começar a usar o Mail Manager nessas novas regiões imediatamente através do console da Amazon SES.

    Fonte

    SES Mail Manager is now available in 10 additional AWS Regions, 27 total (https://aws.amazon.com/about-aws/whats-new/2025/12/ses-mail-manager-10-regions/)