Blog

  • AgentCore Gateway agora integra o API Gateway da AWS para aplicações com IA

    Integração entre AgentCore Gateway e API Gateway

    O desafio de levar dados corporativos para contexto de requisições a modelos de linguagem grandes (LLMs) mantém organizações atentas à segurança e conformidade com políticas empresariais. Para padronizar e proteger essas interações, muitas empresas adotam o Model Context Protocol (MCP), uma especificação que define como aplicações agentic se conectam seguramente a fontes de dados e ferramentas.

    Embora o MCP tenha se mostrado vantajoso para novos casos de uso, organizações enfrentam desafios ao trazer seus ecossistemas de API existentes para a era agentic. Enquanto o MCP consegue envolver APIs existentes, isso exige trabalho adicional: tradução de requisições de MCP para REST, garantia de segurança em todo o fluxo e aplicação de observabilidade necessária para ambientes de produção.

    A AWS anunciou que o Amazon Bedrock AgentCore Gateway agora suporta o Amazon API Gateway como alvo, traduzindo requisições MCP para o AgentCore Gateway em chamadas REST para o API Gateway. Isso permite expor endpoints de API novos e existentes a aplicações agentic usando MCP, com segurança e observabilidade já integradas.

    Imagem original — fonte: AWS

    O que mudou: Suporte a API Gateway no AgentCore Gateway

    O AgentCore Gateway agora suporta tipos de alvo existentes ampliados com API Gateway, além de funções Lambda, esquemas OpenAPI, modelos Smithy e servidores MCP. Muitos clientes AWS construíram ecossistemas extensos de APIs usando API Gateway, conectando backends em diversas aplicações. Conforme as empresas evoluem para aplicações agentic de próxima geração, a evolução natural é expor essas APIs existentes e ferramentas de backend para sistemas alimentados por inteligência artificial, permitindo integração perfeita entre infraestrutura estabelecida e agentes inteligentes modernos.

    Essa integração entre AgentCore Gateway e API Gateway simplifica a conexão entre os dois serviços. Permite direcionar diretamente o API Gateway, sem necessidade de exportar APIs do API Gateway como especificação OpenAPI 3 e depois adicioná-las ao AgentCore Gateway como alvo OpenAPI. Com essa integração, um novo tipo de alvo API_GATEWAY é adicionado ao AgentCore Gateway, eliminando o processo manual de exportação e importação.

    Proprietários de APIs REST podem adicionar sua API como alvo do AgentCore Gateway com poucas interações no console ou um único comando CLI, expondo sua API REST existente como ferramentas MCP através do AgentCore Gateway. Consumidores de API podem então conectar agentes de IA a essas APIs REST via Model Context Protocol (MCP) e potencializar seus fluxos de trabalho com integração de IA.

    Imagem original — fonte: AWS

    Segurança e observabilidade

    A integração entre AgentCore Gateway e API Gateway oferece suporte a autorização por IAM e chave de API. Tanto AgentCore Gateway quanto API Gateway possuem integrações com Amazon CloudWatch Logs, AWS CloudTrail e AWS X-Ray para observabilidade. Desenvolvedores de agentes que usam essa nova capacidade entre AgentCore Gateway e API Gateway podem aproveitar essas ferramentas de observabilidade.

    Configuração e implementação

    Este tópico apresenta como configurar uma API REST existente no API Gateway como alvo para AgentCore Gateway, permitindo usar APIs REST existentes como ferramentas para aplicações agentic expostas através do AgentCore Gateway.

    Pré-requisitos

    Para este exemplo, você precisa de:

    • Uma conta AWS com uma API REST existente no API Gateway
    • Uma função ou usuário Identity and Access Management (IAM) com permissões suficientes para criar um AgentCore Gateway e configurar um alvo API Gateway

    Gateways e alvos podem ser criados de múltiplas formas:

    Este artigo utiliza Boto3 para configurar a integração entre AgentCore Gateway e API Gateway. Para um guia interativo, você pode usar o exemplo de Jupyter Notebook no GitHub.

    Configuração de autorização de entrada e saída

    Configure os pré-requisitos para autorização de entrada e saída. Autorização de entrada autentica requisições de usuários recebidas. Autorização de saída ajuda AgentCore Gateway a conectar-se seguramente a alvos de gateway, como API Gateway, em nome do usuário autenticado.

    Imagem original — fonte: AWS

    Para API Gateway como alvo, AgentCore Gateway oferece suporte aos seguintes tipos de autorização de saída:

    • Sem autorização (não recomendado) — Alguns tipos de alvo oferecem a opção de contornar autorização de saída. Essa opção menos segura não é recomendada.
    • Autorização baseada em IAM — Use a função de serviço do gateway para autorizar acesso ao alvo de gateway com AWS Signature Version 4 (Sig V4).
    • Chave de API — Use a chave de API configurada usando AgentCore Identity para autorizar acesso ao alvo API Gateway. Chaves de API criadas usando um API Gateway mapeado com planos de uso API Gateway ajudam a monitorar e controlar o uso da API.

    Criar um papel IAM

    Crie uma função IAM com a política de confiança da documentação. Para autorização de saída com autorização baseada em IAM, a política deve incluir a permissão execute-api:Invoke.

    Exemplo de política inline:

    {
      "Version": "2012-10-17",
      "Statement": [
        {
          "Action": [
            "execute-api:Invoke"
          ],
          "Resource": "arn:aws:execute-api:{AWS_Region}:{AWS_Account_ID}:api-id/stage/METHOD_HTTP_VERB/resource-path",
          "Effect": "Allow"
        }
      ]
    }

    Para autorização por chave de API, crie uma chave de API e associe-a ao seu plano de uso API Gateway. Depois, crie um provedor de credencial de chave de API com AgentCore Identity. Uma vez feito isso, atualize a política conforme descrito na documentação do AgentCore Gateway.

    Criar um AgentCore Gateway

    Ao usar o kit de ferramentas AgentCore starter, você pode criar um gateway com uma configuração de autorização padrão usando Amazon Cognito para autorização de entrada baseada em JWT.

    import boto3
    
    gateway_client = boto3.client('bedrock-agentcore-control')
    
    auth_config = {
      "customJWTAuthorizer": {
        "allowedClients": [''],
        "discoveryUrl": 
      }
    }
    
    create_response = gateway_client.create_gateway(
      name='sample-ac-gateway',
      roleArn='',
      protocolType='MCP',
      protocolConfiguration={
        'mcp': {
          'supportedVersions': ['2025-03-26'],
          'searchType': 'SEMANTIC'
        }
      },
      authorizerType='CUSTOM_JWT',
      authorizerConfiguration=auth_config,
      description='AgentCore Gateway with API Gateway target'
    )
    
    print(create_response)
    
    gatewayID = create_response["gatewayId"]
    gatewayURL = create_response["gatewayUrl"]
    print(gatewayID)

    Isso retorna um GATEWAY_ID que você precisará para criar o alvo do gateway.

    Criar um alvo do AgentCore Gateway

    Para criar um alvo API Gateway, você precisa especificar o seguinte como parte da configuração de alvo:

    • toolFilters — Use para determinar quais recursos da API REST serão expostos como ferramenta no gateway. Os filtros também suportam wildcards no caminho de filtro.
    • toolOverrides (opcional) — Permite que usuários substituam nomes e descrições de ferramentas. Você deve especificar caminhos e métodos explícitos.
    • restApiId — Use para passar a ID do API Gateway.

    Abaixo estão exemplos de configurações de alvo:

    Exemplo 1 — Expõe GET e POST em /pets, GET em /pets/{petId} para o gateway e substitui seus nomes e descrições de ferramentas:

    {
      "mcp": {
        "apiGateway": {
          "restApiId": "",
          "stage": "",
          "apiGatewayToolConfiguration": {
            "toolFilters": [
              {
                "filterPath": "/pets",
                "methods": ["GET","POST"]
              },
              {
                "filterPath": "/pets/{petId}",
                "methods": ["GET"]
              }
            ],
            "toolOverrides" : [
              {
                "name": "ListPets",
                "path": "/pets",
                "method": "GET",
                "description":"Retrieves all the available Pets."
              },
              {
                "name": "AddPet",
                "path": "/pets",
                "method": "POST",
                "description":"Add a new pet to the available Pets."
              },
              {
                "path": "/pets/{petId}",
                "method": "GET",
                "name": "GetPetById",
                "description": "Retrieve a specific pet by its ID"
              }
            ]
          }
        }
      }
    }

    Exemplo 2 — Expõe GET em /pets e também GET em /pets/{petId} ou qualquer coisa sob /pets. Como toolOverrides não está especificado, usará a descrição de recurso do API Gateway:

    {
      "mcp": {
        "apiGateway": {
          "restApiId": "",
          "stage": "",
          "apiGatewayToolConfiguration": {
            "toolFilters": [
              {
                "filterPath": "/pets/*",
                "methods": ["GET"]
              }
            ]
          }
        }
      }
    }

    Configuração do provedor de credencial

    Ao criar um alvo, você também precisa especificar a autorização de saída do alvo usando uma configuração de provedor de credencial. Existem três tipos de provedores de credencial:

    GATEWAY_IAM_ROLE — Usa a ROLE_ARN especificada ao criar o gateway:

    [
      {
        "credentialProviderType": "GATEWAY_IAM_ROLE"
      }
    ]

    API_KEY — Requer a criação de um provedor de credencial de chave de API com AgentCore Identity:

    [
      {
        "credentialProviderType": "API_KEY",
        "credentialProvider": {
          "apiKeyCredentialProvider": {
            "providerArn": "",
            "credentialParameterName": "x-api-key",
            "credentialPrefix": "abc",
            "credentialLocation": "HEADER"
          }
        }
      }
    ]

    NO_AUTH — Configure não especificando uma configuração de provedor de credencial ao criar o alvo do AgentCore Gateway. Essa opção não é recomendada.

    Criar um alvo AgentCore Gateway

    Agora configure sua API REST como um alvo de gateway:

    import boto3
    
    gateway_client = boto3.client('bedrock-agentcore-control')
    
    create_gateway_target_response = gateway_client.create_gateway_target(
      name='api-gateway-target',
      gatewayIdentifier='',
      targetConfiguration=[< sua_configuracao_de_alvo>],
      credentialProviderConfigurations=[]
    )
    
    print(create_gateway_target_response)
    gateway_target_id = create_gateway_target_response['targetId']

    Testando o gateway

    Teste o gateway com o framework Strands Agents para listar e chamar as ferramentas disponíveis do servidor MCP. Você também pode usar outros agentes compatíveis com MCP construídos com diferentes frameworks agentic.

    def create_streamable_http_transport():
      return streamablehttp_client(
        gatewayURL,
        headers={"Authorization": f"Bearer {}"}
      )
    
    client = MCPClient(create_streamable_http_transport)
    
    with client:
      tools = client.list_tools_sync()
      agent = Agent(model=yourModel, tools=tools)
      agent("Hi, can you list all tools available to you")
      agent("List all the available pets")
      agent("Tell me about the pet with petId 3")
      agent("When my order will be delivered? My order id is 2")

    Você observará uma saída como a seguinte:

    I have access to the following tools:
    1. **x_amz_bedrock_agentcore_search** - A search tool that returns a trimmed down list of tools based on a provided context/query
    2. **api-gateway-target-1___Add_Pet** - Add a new pet to the available Pets
    3. **api-gateway-target-1___GetPetById** - Retrieve a specific pet by its ID (requires petId parameter)
    4. **api-gateway-target-1___List_Pets** - Retrieves all the available Pets (optional parameters: page, type)
    5. **api-gateway-target-2___GetOrderById** - Retrieve a specific order by its ID (requires orderId parameter)
    
    I'll retrieve all the available pets for you.
    Tool #1: api-gateway-target-1___List_Pets
    "HTTP/1.1 200 OK"
    
    Here are all the available pets:
    1. **Pet ID 1** - Dog - $249.99
    2. **Pet ID 2** - Cat - $124.99
    3. **Pet ID 3** - Fish - $0.99
    
    I'll retrieve the details for pet ID 3.
    Tool #2: api-gateway-target-1___GetPetById
    "HTTP/1.1 200 OK"
    
    Here are the details for pet ID 3:
    - **Pet ID**: 3
    - **Type**: Fish
    - **Price**: $0.99
    
    I'll check the details of your order with ID 2 to see the delivery information.
    Tool #3: api-gateway-target-2___GetOrderById
    "HTTP/1.1 200 OK"
    
    Based on your order details:
    - **Order ID**: 2
    - **Pet Category**: Cat
    - **Price**: $124.99
    - **Delivery Date**: 02-12-2025 (December 2nd, 2025)
    
    Your cat order will be delivered on **December 2nd, 2025**.

    Observabilidade

    Ative logs de aplicação e rastreamento para seu recurso AgentCore Gateway. Você verá logs detalhados que ajudam a monitorar e solucionar problemas do seu recurso AgentCore Gateway. Isso inclui as chamadas de ferramenta realizadas pela sua aplicação agentic, parâmetros de requisição, respostas e erros, se houver.

    Exemplo de logs:

    {
      "resource_arn": "arn:aws:bedrock-agentcore:us-west-2::gateway/sample-ac-gateway2-mgtqozexct",
      "event_timestamp": 1763621922275,
      "body": {
        "isError": false,
        "log": "Executing tool api-gateway-target-1___GetPetById from target W8BCF5VEAZ",
        "id": "3"
      },
      "account_id": "",
      "request_id": "8a70f423-79ee-4168-9d68-b76ad3*****",
      "trace_id": "324a2ecc08631a55a02bb8f74104****",
      "span_id": "f58914982450ad9b",
      "timestamp": "1763621922275",
      "gateway_id": "sample-ac-gateway2-mgtqozexct"
    }
    
    {
      "resource_arn": "arn:aws:bedrock-agentcore:us-west-2::gateway/sample-ac-gateway2-mgtqozexct",
      "event_timestamp": 1763621922348,
      "body": {
        "isError": false,
        "responseBody": "{jsonrpc=2.0, id=3, result={isError=false, content=[{type=text, text={\"id\":3,\"type\":\"fish\",\"price\":0.99}}]}}",
        "log": "Successfully processed request",
        "id": "3"
      },
      "account_id": "",
      "request_id": "8a70f423-79ee-4168-9d68-b76ad3ef****",
      "trace_id": "324a2ecc08631a55a02bb8f7410****",
      "span_id": "f58914982450ad9b",
      "timestamp": "1763621922348",
      "gateway_id": "sample-ac-gateway2-mgtqozexct"
    }

    O AgentCore Gateway oferece métricas detalhadas do CloudWatch incluindo métricas de uso (TargetType, IngressAuthType, EgressAuthType, RequestsPerSession), métricas de invocação (Invocations, ConcurrentExecutions, Sessions), métricas de desempenho (Latency, Duration, TargetExecutionTime) e taxas de erro (Throttles, SystemErrors, UserErrors).

    O AgentCore Gateway também suporta AWS X-Ray e spans conformes a OTEL que clientes podem usar para rastrear invocações em diferentes primitivas sendo utilizadas. Para saber mais, consulte a documentação de observabilidade do AgentCore Gateway.

    Imagem original — fonte: AWS

    Limpeza de recursos

    Para evitar cobranças recorrentes, certifique-se de deletar os recursos criados executando o código a seguir:

    import boto3
    
    gateway_client = boto3.client('bedrock-agentcore-control')
    
    response = gateway_client.delete_gateway_target(
      gatewayIdentifier='',
      targetId='')
    
    print(response)
    
    response = gateway_client.delete_gateway(
      gatewayIdentifier='')
    
    print(response)

    Próximos passos

    O AgentCore Gateway agora oferece suporte ao Amazon API Gateway como alvo, expondo APIs REST como endpoints compatíveis com MCP. Você pode trazer sua infraestrutura de API existente para casos de uso agentic enquanto utiliza suas ferramentas de segurança e observabilidade atuais.

    Visite a documentação do desenvolvedor e workshop para saber mais e começar hoje mesmo.

    Fonte

    Streamline AI agent tool interactions: Connect API Gateway to AgentCore Gateway with MCP (https://aws.amazon.com/blogs/machine-learning/streamline-ai-agent-tool-interactions-connect-api-gateway-to-agentcore-gateway-with-mcp/)

  • Amazon Bedrock agora suporta ajuste fino com aprendizado por reforço, alcançando ganhos de 66% em precisão comparado aos modelos base

    O que é o ajuste fino com aprendizado por reforço

    A AWS anunciou suporte a ajuste fino com aprendizado por reforço no Amazon Bedrock, democratizando uma técnica avançada de customização de modelos que antes era acessível apenas a especialistas. O recurso elimina barreiras como a necessidade de expertise profunda em aprendizado de máquina ou grandes volumes de dados rotulados.

    A plataforma automatiza todo o fluxo de trabalho, permitindo que equipes de desenvolvimento comum implementem esta abordagem sofisticada. Os modelos aprendem através de feedback sobre múltiplas respostas possíveis para o mesmo prompt, refinando o seu julgamento sobre o que constitui uma boa resposta. Este método requer apenas um pequeno conjunto de prompts, em contraste com os volumes massivos necessários para métodos tradicionais de ajuste fino.

    Impacto em precisão e custo

    O ajuste fino com aprendizado por reforço no Amazon Bedrock entrega ganhos médios de 66% em precisão quando comparado aos modelos base. Este ganho significativo permite que as organizações utilizem variantes de modelos menores, mais rápidos e economicamente mais eficientes, mantendo qualidade elevada.

    Resolvendo o dilema das empresas

    Muitas organizações enfrentam um dilema ao tentar adaptar modelos de IA às suas necessidades específicas: escolher entre modelos genéricos com desempenho médio ou investir em customizações complexas que demandam talento especializado, infraestrutura dedicada e movimento arriscado de dados.

    O ajuste fino com aprendizado por reforço no Amazon Bedrock simplifica este cenário ao tornar a customização avançada rápida, automatizada e segura. Os dados proprietários nunca deixam o ambiente seguro e governado da AWS durante todo o processo de customização, mitigando preocupações de segurança e conformidade.

    Como começar

    O fluxo de trabalho é flexível: você pode enviar dados de treinamento diretamente do seu computador ou utilizar datasets já armazenados no Amazon S3, eliminando a necessidade de datasets rotulados previamente.

    A definição de funções de recompensa oferece duas abordagens: verificadores baseados em regras ou juízes alimentados por IA, além de templates integrados. Esta flexibilidade permite otimizar modelos tanto para tarefas objetivas — como geração de código ou raciocínio matemático — quanto para tarefas subjetivas, como seguimento de instruções ou interações de chatbot.

    Você pode começar com ajuste fino por reforço no Amazon Bedrock através do console do Amazon Bedrock ou via APIs do Amazon Bedrock. No lançamento inicial, o recurso está disponível com o Amazon Nova 2 Lite, com suporte para modelos adicionais previsto em breve.

    Próximos passos

    Para explorar mais detalhes sobre ajuste fino com aprendizado por reforço no Amazon Bedrock, consulte o blog de lançamento, a página de preços e a documentação completa.

    Fonte

    Amazon Bedrock now supports reinforcement fine-tuning delivering 66% accuracy gains on average over base models (https://aws.amazon.com/about-aws/whats-new/2025/12/bedrock-reinforcement-fine-tuning-66-base-models/)

  • Amazon Nova Lite 2.0: como o modelo de IA da AWS resolve cenários complexos de atendimento ao cliente

    Compreendendo o raciocínio em modelos de IA

    O que diferencia um modelo de inteligência artificial verdadeiramente útil de um que apenas replica padrões? A resposta está no raciocínio. Capacidades sólidas de raciocínio permitem que modelos identifiquem problemas a partir de descrições ambíguas, apliquem políticas sob restrições concorrentes, adaptem o tom a situações sensíveis e forneçam soluções completas que resolvem causas raiz. Sem raciocínio robusto, sistemas de IA falham quando confrontados com cenários nuançados que exigem julgamento, conscientização contextual e resolução de problemas em múltiplas etapas.

    A AWS recentemente publicou uma análise detalhada mostrando como seu modelo mais recente, o Amazon Nova Lite 2.0, se comporta em situações do mundo real de atendimento ao cliente. O estudo compara o desempenho do Nova Lite 2.0 contra outros modelos da família Nova — incluindo Lite 1.0, Micro, Pro 1.0 e Premier — revelando avanços significativos em qualidade e consistência do raciocínio.

    Estrutura de avaliação: medindo capacidades reais

    A avaliação da AWS testou cinco modelos Nova em cinco cenários diferentes de atendimento ao cliente, medindo desempenho em oito dimensões críticas:

    • Identificação de problemas
    • Completude da solução
    • Aderência a políticas
    • Acurácia factual
    • Empatia e tom
    • Clareza da comunicação
    • Coerência lógica
    • Utilidade prática

    Um modelo avaliador independente (gpt-oss-20b) forneceu pontuação automatizada e imparcial. A arquitetura de avaliação utilizou a mesma região (us-east-1) e tratou diferentes formatos de API automaticamente: Converse API para Nova e OpenAI Chat Completions para gpt-oss-20b. Todos os detalhes técnicos e o notebook de exemplo estão disponíveis no repositório GitHub.

    Cenários testados: desafios do mundo real

    Para gerar os cenários de avaliação, a AWS utilizou Claude Sonnet 4.5 by Anthropic no Amazon Bedrock para gerar uma amostra de 100 cenários de interações típicas de atendimento ao cliente. Nenhum modelo Nova foi usado para gerar os cenários, evitando viés potencial. Cinco cenários foram selecionados aleatoriamente para testes, representando desafios comuns de raciocínio:

    • Reclamação de cliente irado: Testa desescalação, empatia e resolução quando um cliente ameaça sair após entrega atrasada e serviço deficiente
    • Problema técnico de software: Avalia troubleshooting quando um aplicativo falha durante upload de fotos apesar de tentativas básicas
    • Disputa de faturamento: Analisa habilidades de investigação e consciência de segurança para cobranças não reconhecidas indicando possível acesso não autorizado
    • Relatório de defeito de produto: Mede aplicação de políticas de garantia e atendimento ao cliente para produto defeituoso com dois meses de uso
    • Preocupação de segurança de conta: Testa resposta de urgência e protocolos de segurança para mudanças de senha não autorizadas e compras fraudulentas

    Cada cenário incluía problemas-chave a identificar, soluções obrigatórias e políticas relevantes, fornecendo critérios objetivos para avaliação.

    Metodologia técnica: detalhes da implementação

    A AWS utilizou prompts otimizados gerados pela Amazon Bedrock Prompt Optimizer API. O otimizador analisa e reescreve prompts brutos para melhorar desempenho dos modelos, criando otimizações específicas para cada modelo Nova.

    O framework de avaliação utiliza um processo de pontuação em duas etapas: primeiro, o avaliador atribui um rótulo de categoria que melhor caracteriza a resposta; depois, atribui uma pontuação predeterminada correspondente. Essa abordagem garante metodologia consistente e uniforme em todas as respostas.

    Para cada dimensão de avaliação, cinco categorias foram estabelecidas com pontuações mapeadas: Excelente (10), Bom (8), Adequado (6), Fraco (4) e Falha Crítica (2). O avaliador fornecia raciocínio detalhado para cada pontuação, garantindo transparência no processo de assessment.

    Avaliação por modelo de linguagem: escalabilidade e confiabilidade

    Técnicas tradicionais como ROUGE e BLEU têm limitações em conversas abertas. A avaliação por modelo de linguagem (LLM-as-a-judge) oferece escalabilidade, flexibilidade e resultados que se alinham com preferências humanas em até 80%. A metodologia incluiu 10 execuções por combinação modelo-cenário, produzindo 250 avaliações totais (5 modelos × 5 cenários × 10 execuções), proporcionando uma distribuição estatística abrangente.

    O framework incluía verificações diagnósticas para validar qualidade e confiabilidade da avaliação. Avaliações falhadas foram excluídas dos cálculos de média e desvio padrão, evitando que falhas técnicas deflacionassem artificialmente as pontuações dos modelos.

    Análise estatística e medição de incerteza

    A avaliação estatística empregou rigor metodológico para quantificar incerteza nas estimativas de desempenho. O erro padrão foi calculado como SE = √(σ²/n), onde σ² é a variância amostral e n é o tamanho da amostra. Isso mediu precisão da estimativa da média e forneceu intervalos de confiança de 95% (IC = μ± 1,96×SE).

    Um escore de consistência baseado em coeficiente de variação foi calculado como (100 – CV%), onde CV% = (σ/μ)×100, normalizando a medição de confiabilidade em uma escala de 0-100. Análises adicionais incluíram efeito mínimo detectável, comparação pareada entre modelos e análise de potência.

    Fonte: AWS

    Resultados: desempenho do Nova Lite 2.0

    O Amazon Nova Lite 2.0 alcançou a pontuação geral mais alta (9,42/10) com erro padrão de 0,08 e coeficiente de variação de 5,55%, demonstrando raciocínio de alta qualidade. A comparação revelou que:

    • Nova Lite 2.0 obteve pontuação geral de 9,42 com intervalo de confiança de [9,28 a 9,57]
    • Nova Lite 1.0 alcançou 8,65 com intervalo [8,48 a 8,82]
    • Nova Pro 1.0 atingiu 8,53 com intervalo [8,30 a 8,76]
    • Nova Micro obteve 7,70 com intervalo [7,08 a 8,32]
    • Nova Premier registrou 7,16 com intervalo [6,41 a 7,91]

    O Nova Lite 2.0 apresentou consistência excepcionalmente alta (escore de consistência de 94,45%), indicando desempenho confiável em cenários diversos. A variabilidade baixa versus outros modelos sugere que respostas do Nova Lite 2.0 se comportam de forma consistente e previsível.

    Fonte: AWS

    Análise dimensional: forças do Nova Lite 2.0

    Os pontos fortes dimensionais do Nova Lite 2.0 demonstram capacidades equilibradas em critérios críticos de avaliação. Pontuações altas em identificação de problemas, comunicação e raciocínio lógico indicam desempenho maduro que se traduz efetivamente em aplicações do mundo real.

    Identificação de Problemas: O modelo se destacou em identificar todos os problemas-chave, crucial quando problemas perdidos levam a soluções incompletas.

    Clareza de Comunicação: Alcançou a pontuação mais alta nesta dimensão, produzindo respostas bem estruturadas e acionáveis que clientes conseguem seguir facilmente.

    Coerência Lógica: Desempenho forte indica que o modelo mantém raciocínio fundamentado sem contradições em cenários complexos.

    Empatia e Tom: Pontuações altas demonstram inteligência emocional apropriada, crítica para desescalação e situações sensíveis.

    Cenários por modelo: performance desagregada

    Examinando desempenho por cenário específico, padrões interessantes emergiram. Para “Reclamação de Cliente Irado”, o Nova Lite 2.0 alcançou 9,95/10. Para “Problema Técnico de Software”, atingiu pontuação perfeita de 10,00. Em “Disputa de Faturamento”, obteve 9,15. Em “Relatório de Defeito de Produto”, marcou 9,25. Para “Preocupação de Segurança de Conta”, registrou 9,25.

    Comparativamente, o Nova Premier registrou apenas 2,00 para “Preocupação de Segurança de Conta” devido a invocação de Guardrails na maioria das respostas, indicando limitações em contextos de segurança sensíveis.

    Principais achados e implicações práticas

    Os resultados de avaliação revelam insights críticos para seleção e estratégias de deployment de modelos. Diferentes dimensões de desempenho importam conforme o caso de uso: modelos que se saem bem em acurácia mas mal em empatia ou clareza são inadequados para aplicações voltadas ao cliente. O desempenho equilibrado do Nova Lite 2.0 em todas as dimensões o torna pronto para produção.

    A variabilidade baixa do Nova Lite 2.0 versus outros modelos indica desempenho confiável em cenários diversos — crítico onde respostas inconsistentes danificam confiança do usuário. Avaliação multi-dimensional do mundo real revela capacidades práticas que benchmarks sintéticos perdem. O framework superficializa dimensões críticas como empatia, aderência a políticas e utilidade prática.

    Considerações de implementação

    Implementar com sucesso este framework de avaliação requer atenção a fatores operacionais que impactam significativamente qualidade e custo-efetividade da avaliação. A escolha de metodologia de avaliação, mecanismos de pontuação e infraestrutura técnica influenciam diretamente confiabilidade e escalabilidade dos resultados.

    Seleção do Avaliador: A AWS selecionou gpt-oss-20b para garantir independência da família Nova, reduzindo viés potencial. O Amazon Bedrock oferece capacidades LLM-as-a-judge incorporadas com métricas padrão como correção, completude e nocividade. O framework apresentado oferece flexibilidade para definir critérios de avaliação especializados e assessments multi-dimensionais customizáveis ao caso de uso específico.

    Design de Cenários: Cenários efetivos equilibram realismo com mensurabilidade. Cada um inclui detalhes específicos enraizando avaliação em contextos realistas. Critérios objetivos — problemas-chave a identificar, soluções obrigatórias, políticas relevantes — permitem pontuação consistente. Complexidade realista combinando múltiplos problemas e prioridades concorrentes revela como modelos lidam com ambiguidade do mundo real.

    Validação Estatística: Múltiplas execuções por cenário fornecem intervalos de confiança e detectam inconsistência, garantindo que diferenças de desempenho são estatisticamente significativas.

    Próximos passos para organizações

    Para organizações considerando o Nova Lite 2.0 para seus próprios casos de uso, a abordagem prática recomendada inclui:

    • Começar com ferramentas de avaliação de modelo do Amazon Bedrock, incluindo capacidades LLM-as-a-judge incorporadas para métricas padrão, ou adaptar o framework customizado discutido para critérios de avaliação especializados
    • Implementar testes multi-dimensionais adaptando o framework a requisitos de domínio específico
    • Iniciar deployment com cenários de baixo risco para validar desempenho em seu ambiente
    • Escalar sistematicamente usando a abordagem de validação estatística para expandir a casos de uso adicionais

    Recursos adicionais incluem a documentação do Amazon Bedrock, os modelos Amazon Nova e o repositório GitHub com código completo e exemplos.

    Conclusão

    A avaliação abrangente da AWS demonstra que o Amazon Nova Lite 2.0 entrega capacidades de raciocínio em IA prontas para produção, com confiabilidade mensurável em aplicações diversas de negócios. O framework de assessment multi-dimensional fornece às organizações evidência quantitativa necessária para fazer deployment confiante de sistemas de IA em ambientes operacionais críticos.

    À medida que modelos avançam, metodologias de assessment devem evoluir para capturar capacidades sofisticadas cada vez maiores — conversas multi-turno, tomada de decisão complexa sob incerteza e julgamento nuançado em situações ambíguas. A abordagem prática demonstrada neste estudo representa um passo importante nessa direção, transformando avaliação de IA de comparação simples de pontuações em ciência experimental rigorosa com incerteza quantificada.

    Fonte

    Real-world reasoning: How Amazon Nova Lite 2.0 handles complex customer support scenarios (https://aws.amazon.com/blogs/machine-learning/real-world-reasoning-how-amazon-nova-lite-2-0-handles-complex-customer-support-scenarios/)

  • Amazon Connect Chat agora suporta fluxos iniciados por agentes

    O que é essa novidade?

    A AWS anunciou que o Amazon Connect Chat agora oferece suporte a fluxos de trabalho iniciados por agentes. Essa funcionalidade permite que os atendentes (agentes de suporte) enviem formulários interativos diretamente aos clientes durante uma conversa de chat, sem interrupções no diálogo.

    Esses formulários podem ser usados para coletar informações sensíveis ou compartilhar políticas e divulgações de forma segura e organizada, tudo dentro do contexto da conversa. Isso representa uma evolução importante para plataformas de atendimento ao cliente que buscam equilibrar segurança, conformidade e experiência do usuário.

    Como funciona na prática?

    Uso em tempo real

    Os agentes agora podem disparar esses fluxos a qualquer momento durante uma conversa, tornando as interações mais dinâmicas e responsivas às necessidades específicas do cliente. Por exemplo: quando um cliente precisa atualizar seu endereço cadastrado, o agente pode enviar um formulário que o cliente preenche sem sair da interface de chat.

    Manutenção de segurança e conformidade

    Como tudo ocorre dentro da própria conversa de chat, as empresas conseguem manter padrões de segurança e conformidade regulatória, ao mesmo tempo que oferecem soluções mais rápidas ao cliente. Essa abordagem elimina a necessidade de redirecionar o usuário para outras interfaces ou plataformas.

    Disponibilidade regional

    Essa nova funcionalidade já está disponível nos seguintes pontos de presença da AWS:

    • Regiões da América do Norte: US East (N. Virginia) e US West (Oregon)
    • Regiões da Ásia-Pacífico: Seoul, Singapore, Sydney e Tokyo
    • Regiões da América do Norte: Canada (Central)
    • Regiões da Europa: Frankfurt e London
    • Regiões da África: Cape Town

    Para explorar mais

    Quem deseja implementar essa funcionalidade pode consultar a documentação oficial do Amazon Connect para obter detalhes técnicos e práticas recomendadas.

    Fonte

    Amazon Connect Chat now supports agent-initiated workflows (https://aws.amazon.com/about-aws/whats-new/2025/11/amazon-connect-chat-agent-initiated-workflows)

  • Agente inteligente de análise de risco em seguros com Amazon Nova 2 Lite

    Desafios na análise de risco em seguros

    A análise de risco em seguros enfrenta um cenário complexo: os analistas precisam examinar múltiplas fontes de dados, avaliar riscos e tomar decisões que atendam a requisitos regulatórios cada vez mais rigorosos. Esse processo se torna ainda mais desafiador quando a organização enfrenta três problemas críticos.

    Primeiro, os dados estão fragmentados. Informações de clientes residem em sistemas de Gestão de Relacionamento com Clientes (Sistemas de CRM), repositórios de documentos e bases de dados transacionais, criando silos que dificultam uma análise integrada e confiável.

    Segundo, há pressão regulatória. As autoridades exigem decisões que sejam explicáveis e auditáveis — propriedades que abordagens tradicionais baseadas em modelos de “caixa preta” não conseguem fornecer adequadamente.

    Terceiro, há necessidade de escala. As organizações precisam manter regras de análise consistentes e automatizadas em todo o portfólio, com capacidade de identificar proativamente sinais de fraude e comportamentos suspeitos.

    Uma solução integrada com inteligência artificial

    A AWS apresenta uma arquitetura que combina diferentes componentes para resolver esses desafios. O pilar técnico dessa solução é o Amazon Nova 2 Lite, um modelo de linguagem que fornece raciocínio transparente e explicável para cada decisão tomada.

    Como funciona a arquitetura

    A solução utiliza o Protocolo de Contexto de Modelo (MCP) para criar ferramentas especializadas em três tarefas: detecção de fraude em seguros, avaliação de risco de um solicitante e tomada de decisão sobre cobertura. Quando uma ferramenta é acionada a partir de uma consulta, ela acessa dados de fontes específicas — repositórios de documentos como Amazon Simple Storage Service (S3) e bases de dados como Amazon DynamoDB — e invoca o Amazon Nova 2 Lite para análise e geração de recomendações.

    Depois de recuperar as instruções de sistema e o contexto necessário, o modelo retorna uma resposta estruturada conforme esperado pela ferramenta. O servidor MCP é hospedado no Amazon Bedrock AgentCore Runtime com autorização de entrada via OAuth 2.0. Já o cliente MCP do Amazon Quick Suite é configurado com autenticação de serviço para permitir conexões de entrada ao servidor MCP.

    A interação do usuário ocorre de forma natural: o agente de conversa processa consultas em linguagem natural, invoca as ferramentas MCP necessárias e mantém diálogos interativos com múltiplas trocas de mensagens.

    Fluxo de operação

    O fluxo começa quando um usuário autenticado do Quick Suite acessa o agente de conversa do Quick Suite e submete uma pergunta através da interface do assistente. Um exemplo seria: “Avalie o risco para o solicitante APP-0900”.

    O agente de conversa está integrado com as Integrações de Ações MCP do Amazon Quick Suite para invocar ações em um servidor MCP implantado no AgentCore Runtime. O agente analisa a pergunta para entender a intenção, identifica entidades-chave como identificadores de solicitantes e números de sinistros, e decide quais ferramentas MCP devem ser acionadas.

    O cliente MCP do Quick Suite solicita um token de acesso do Amazon Cognito usando credenciais de cliente OAuth. O Cognito valida as credenciais e emite um token de curta duração. O Quick Suite inclui esse token na requisição ao AgentCore Runtime, que valida o token contra o Cognito.

    O AgentCore Runtime possui uma tradução integrada que transforma a requisição de entrada no formato JSON-RPC 2.0 do MCP e invoca as ferramentas apropriadas. O registro de eventos pode ser habilitado para registrar tudo no Amazon CloudWatch.

    O servidor MCP executa a lógica das ferramentas, recupera dados do DynamoDB e S3, e invoca o Amazon Nova 2 Lite através da API Converse do Amazon Bedrock para gerar uma resposta com um processo detalhado de raciocínio. A resposta é transformada novamente para corresponder ao protocolo do Quick Suite e retornada ao usuário através da interface do assistente.

    O Amazon Nova 2 Lite oferece capacidades importantes nesse cenário: consegue solicitar ferramentas e compreender seus esquemas, realiza raciocínio para determinar quais ferramentas são necessárias baseado nas perguntas do usuário, e então gera requisições de ferramentas com parâmetros validados que o servidor MCP executa.

    Implementação prática da solução

    Pré-requisitos

    Para colocar em prática essa solução, você precisará de:

    • Uma conta AWS
    • Amazon Quick Suite configurado com assinatura Author Pro
    • Permissão para criar funções e políticas de AWS Identity and Access Management (IAM) e recursos AWS, incluindo tabela DynamoDB, bucket S3, pool de usuários Cognito e AgentCore Runtime
    • Acesso a um ambiente de linha de comando com AWS SDK e Python instalados

    Hospedagem do servidor MCP

    A implementação começa clonando o repositório de código correspondente. Em seguida, você edita o arquivo de configuração config/enterprise_config.yaml para fornecer o nome do servidor MCP, o pool de usuários Cognito, as tabelas DynamoDB contendo solicitantes e sinistros, e o bucket S3 para registros médicos.

    Depois, configura um ambiente virtual Python com as dependências necessárias:

    python -m venv smart_insurance_agent_venv
    source smart_insurance_agent_venv/bin/activate
    pip install -r deployment/requirements.txt

    Opcionalmente, você pode gerar dados sintéticos de solicitantes, registros médicos e sinistros. A geração de dados sintéticos utiliza a biblioteca faker para criar registros de solicitantes e sinistros que são persistidos no DynamoDB e registros médicos que são persistidos no S3 em formato JSON. Você pode modificar o esquema ou formatos de registro personalizando o script de carregamento conforme suas necessidades.

    Com tudo preparado, você implanta o servidor MCP no Amazon Bedrock AgentCore executando o script de implantação. Este passo cria um pool de usuários Cognito, constrói uma imagem Docker, a implanta no AgentCore, configura permissões IAM, e gera a documentação com a URL do endpoint do servidor MCP e configuração OAuth necessária para integração com o Quick Suite.

    Para validar que tudo funcionou corretamente, executa o teste de funcionalidade das ferramentas MCP. A execução bem-sucedida fornecerá uma saída confirmando que o servidor foi implantado e operacional.

    Integração com Quick Suite

    Depois, você estabelece uma conexão OAuth de serviço a serviço do Quick Suite para o endpoint hospedado no Amazon Bedrock AgentCore. Essa conexão permite que seu agente de conversa do Quick Suite invoque ações do servidor MCP para cumprir solicitações dos usuários.

    No console do Quick Suite, você navega até Integrações e cria uma nova integração MCP. Na página de configuração de conexão, fornece os detalhes do servidor MCP: um nome (por exemplo, “Especialista em Análise de Seguros”), uma descrição opcional e a URL do endpoint do servidor MCP.

    Na página de autenticação, você seleciona autenticação de serviço, escolhe OAuth de serviço a serviço como tipo de autenticação, e fornece o ID de cliente, segredo do cliente e URL do token. Depois de revisar e confirmar, a integração está pronta.

    Para testar, você acessa a seção de Integrações no console, verifica que o status está “Disponível”, seleciona a integração criada e testa as APIs de ação para confirmar que estão funcionando corretamente.

    Criando o agente de conversa personalizado

    Agora você cria um agente de conversa customizado no Quick Suite. Você fornece um nome para identificar o agente e uma descrição opcional que ajude os usuários a entender seu propósito.

    Na configuração do agente, você define sua identidade. Um exemplo seria: “Você é Nova, um Analista de Seguros baseado em IA com expertise profunda em avaliação de risco explicável e detecção de fraude. Você tem acesso a dados empresariais de seguros incluindo mais de 1000 perfis de solicitantes, registros médicos e histórico de sinistros através de capacidades avançadas de raciocínio”.

    Você também fornece instruções de persona que definem como o agente interage com usuários durante a conversa. Por exemplo, instruções que enfatizam transparência, explicam o nível de confiança nas recomendações, decompõem decisões complexas em passos lógicos claros, referenciam perfis específicos de solicitantes quando disponível, fornecem pontuações de risco com explicações detalhadas dos fatores contribuintes, incluem considerações de conformidade regulatória, e oferecem perguntas de acompanhamento para aprofundar a análise quando apropriado.

    Na seção de Ações, você vincula o conector de ação que criou, lançando o agente. Após alguns minutos, o agente estará operacional e pronto para conversar.

    Você pode começar pedindo ao agente uma avaliação de risco específica — por exemplo, “Avalie o risco para o solicitante APP-0900”. O agente processará a requisição, invocará as ações necessárias, e retornará uma análise detalhada. A interface da conversa pode solicitar informações adicionais para algumas ações antes de proceder, garantindo precisão na análise.

    Benefícios da abordagem

    Essa arquitetura soluciona os três desafios centrais mencionados no início. Primeiro, unifica dados de DynamoDB e S3, permitindo que o sistema acesse informações completas sobre solicitantes, registros e histórico de sinistros em uma única consulta. Segundo, entrega raciocínio passo a passo transparente para cada decisão, atendendo requisitos regulatórios de explicabilidade e auditoria. Terceiro, mantém trilhas de auditoria completas no CloudWatch para conformidade regulatória, e permite que investigadores façam perguntas como “Mostre-me todos os sinistros registrados dentro de 30 dias do início da apólice” para identificar padrões suspeitos.

    Com essa solução em operação, você consegue escalar análises de risco — líderes de negócios ganham inteligência de portfólio em tempo real através de interações em linguagem natural, e todo o processo de análise é rastreável e auditável do início ao fim.

    Limpeza de recursos

    Após experimentar a solução, você pode remover todos os recursos AWS criados para evitar cobranças contínuas usando o script fornecido na documentação de implantação.

    Fonte

    Create an intelligent insurance underwriter agent powered by Amazon Nova 2 Lite and Amazon Quick Suite (https://aws.amazon.com/blogs/machine-learning/create-an-intelligent-insurance-underwriter-agent-powered-by-amazon-nova-2-lite-and-amazon-quick-suite/)

  • SES Mail Manager agora está disponível em 10 regiões adicionais da AWS, totalizando 27

    Expansão global do SES Mail Manager

    A AWS anunciou a disponibilidade do SES Mail Manager em 10 regiões comerciais adicionais. Esta expansão leva o serviço de um total de 17 regiões para 27 regiões, consolidando uma cobertura significativa. A novidade marca um passo importante: o Mail Manager agora está disponível em todas as regiões comerciais onde o SES oferece seu serviço principal de envio de emails (Outbound).

    O que é o SES Mail Manager

    O SES Mail Manager é um serviço da AWS que permite aos clientes configurar mecanismos de roteamento e entrega de emails para seus domínios. Mais que isso, oferece uma visualização única de governança de emails, gerenciamento de riscos e soluções de conformidade para todos os trabalhos relacionados a emails na organização.

    Na prática, as empresas implantam o Mail Manager para substituir soluções legadas de retransmissão de emails hospedados ou para simplificar a integração com provedores de caixas de correio terceirizados e soluções de segurança de email. O serviço também oferece funcionalidades complementares:

    • Integração com caixas de correio WorkMail
    • Arquivamento integrado com capacidades de busca e exportação
    • Integração com complementos de segurança terceirizados diretamente no console

    As 10 novas regiões

    As regiões recém-adicionadas incluem:

    • Oriente Médio (Bahrein)
    • Ásia Pacífico (Jacarta)
    • África (Cidade do Cabo)
    • Oriente Médio (Emirados Árabes Unidos)
    • Ásia Pacífico (Hyderabad)
    • Ásia Pacífico (Malásia)
    • Europa (Milão)
    • Israel (Tel Aviv)
    • Canadá Oeste (Calgary)
    • Europa (Zurique)

    Como começar

    Para ter acesso à lista completa de regiões onde o Mail Manager está disponível, consulte a documentação de disponibilidade de regiões. Para aprender mais detalhes sobre o serviço, visite a página do produto Amazon SES Mail Manager e a documentação completa. Você pode começar a usar o Mail Manager nessas novas regiões imediatamente através do console da Amazon SES.

    Fonte

    SES Mail Manager is now available in 10 additional AWS Regions, 27 total (https://aws.amazon.com/about-aws/whats-new/2025/12/ses-mail-manager-10-regions/)

  • AWS Transform apresenta agente de IA para modernização completa de ambientes Windows

    Expansão da Capacidade de Modernização

    A AWS expandiu significativamente as capacidades da plataforma AWS Transform, evoluindo de um agente focado em modernização .NET para uma solução de modernização de pilha completa em ambientes Windows. Essa evolução representa um avanço importante para organizações que trabalham com aplicações .NET e seus bancos de dados associados, oferecendo uma abordagem integrada e automatizada para a transformação.

    O novo agente de modernização de pilha completa em Windows gerencia tanto aplicações .NET quanto bancos de dados Microsoft SQL Server, transformando-os para arquiteturas modernas baseadas em nuvem. As aplicações são migradas para Amazon Aurora PostgreSQL e implantadas em containers dentro de Amazon ECS ou em instâncias Amazon EC2 Linux.

    Ganhos de Desempenho e Eficiência

    A plataforma oferece melhorias expressivas: acelera a modernização de pilha completa em 5 vezes (comparando camadas de aplicação e banco de dados) e reduz custos operacionais em até 70%. Esses números refletem a automação de tarefas repetitivas e a otimização das arquiteturas resultantes.

    Como Funciona o Fluxo de Transformação

    Descoberta e Planejamento

    O agente realiza varredura em bancos de dados Microsoft SQL Server localizados em instâncias Amazon EC2 ou Amazon RDS, além de examinar o código da aplicação .NET a partir de repositórios de código-fonte (GitHub, GitLab, Bitbucket ou Azure Repos). Com base nesses dados, cria planos de modernização personalizados que podem ser editados conforme necessário.

    Transformação de Dados e Aplicação

    Na etapa de transformação, o agente converte esquemas do SQL Server para Aurora PostgreSQL e realiza a migração dos bancos de dados para clusters Aurora PostgreSQL novos ou existentes. Para as aplicações .NET, atualiza as conexões de banco de dados no código-fonte e modifica o código de acesso a dados escrito em Entity Framework e ADO.NET para compatibilidade com Aurora PostgreSQL. Todo esse processo ocorre em um fluxo unificado com supervisão humana, e o código transformado é consolidado em um novo branch do repositório.

    Validação e Monitoramento

    As aplicações transformadas e seus bancos de dados podem ser implantados em ambientes novos ou existentes para validação. Os clientes acompanham o progresso da transformação por meio de atualizações de worklog e chat interativo. O sistema gera resumos detalhados da transformação com recomendações para próximos passos, facilitando a transição para assistentes de código IA.

    Disponibilidade e Próximos Passos

    O AWS Transform para modernização de pilha completa em Windows está disponível na região AWS Region US East (N. Virginia). Para aprofundar o conhecimento sobre a solução, consulte a página de visão geral e a documentação do AWS Transform.

    Fonte

    AWS Transform launches an AI agent for full-stack Windows modernization (https://aws.amazon.com/about-aws/whats-new/2025/12/aws-transform-ai-agent-full-stack-windows-modernization)

  • Amazon OpenSearch Service passa a oferecer enriquecimento semântico automático

    Busca semântica chega ao OpenSearch gerenciado

    A AWS anunciou a disponibilidade de enriquecimento semântico automático para o Amazon OpenSearch Service em clusters gerenciados. Esse recurso havia sido lançado anteriormente para o OpenSearch Serverless e agora se estende às implementações tradicionais da plataforma.

    Essa expansão permite que os usuários aproveitem o poder da busca semântica com esforço mínimo de configuração. Diferentemente das buscas lexicais tradicionais, que buscam apenas correspondências exatas de termos, a busca semântica compreende contexto e significado, entregando resultados muito mais relevantes.

    Como funciona na prática

    Um exemplo prático ilustra bem a diferença. Quando um usuário busca por “opções de transporte ecológico”, a busca semântica encontra correspondências para “veículos elétricos” ou “transporte público” — mesmo que esses termos exatos não apareçam nos documentos. A busca tradicional deixaria passar esses resultados relevantes por falta de correspondência literal.

    O grande diferencial é que o OpenSearch agora gerencia automaticamente todo o processamento semântico. Não há necessidade de manter ou configurar modelos de aprendizado de máquina manualmente, reduzindo significativamente a complexidade operacional.

    Suporte a múltiplos idiomas

    A funcionalidade suporta variantes exclusivamente em inglês e também versões multilíngues que cobrem 15 idiomas distintos. Entre eles estão árabe, francês, hindi, japonês, coreano e várias outras línguas, tornando a capacidade acessível a organizações globais.

    Modelo de precificação

    A cobrança é baseada no uso real durante a ingestão de dados. Ela ocorre através da unidade de computação do OpenSearch — especificamente a variante de Busca Semântica. Mais detalhes sobre custos e exemplos de precificação estão disponíveis na página de precificação.

    Disponibilidade e requisitos

    O recurso já está disponível para domínios do Amazon OpenSearch Service que executam versão 2.19 do OpenSearch ou posterior. Atualmente, suporta domínios fora de VPC nas seguintes regiões da AWS: US East (N. Virginia), US East (Ohio), US West (Oregon), Ásia Pacífico (Mumbai), Ásia Pacífico (Singapura), Ásia Pacífico (Sydney), Ásia Pacífico (Tóquio), Europa (Frankfurt), Europa (Irlanda) e Europa (Estocolmo).

    Para começar a usar o enriquecimento semântico automático, consulte a documentação disponível para guias e práticas recomendadas de implementação.

    Fonte

    Amazon OpenSearch Service now supports automatic semantic enrichment (https://aws.amazon.com/about-aws/whats-new/2025/12/opensearch-service-automatic-semantic-enrichment/)

  • Modelo Pegasus 1.2 da TwelveLabs agora disponível em 23 regiões AWS com inferência global entre regiões

    Expansão Global do Pegasus 1.2 no Amazon Bedrock

    A AWS anunciou uma expansão significativa na disponibilidade do modelo Pegasus 1.2, desenvolvido pela TwelveLabs, através do Amazon Bedrock. Com a introdução de inferência global entre regiões, o modelo agora está acessível em 23 novas regiões, complementando as sete regiões onde já estava disponível anteriormente. Além disso, o Bedrock passou a oferecer acesso ao modelo em todas as regiões da União Europeia utilizando inferência geográfica entre regiões.

    Diferenças nas Estratégias de Inferência

    A AWS disponibiliza duas estratégias distintas de processamento para esse modelo. A inferência geográfica entre regiões é ideal para cargas de trabalho que apresentam requisitos específicos de residência de dados ou conformidade regulatória dentro de limites geográficos definidos. Por outro lado, a inferência global entre regiões é recomendada para aplicações que priorizam disponibilidade e performance em múltiplas geografias, permitindo que o processamento aconteça onde houver melhor desempenho.

    Capacidades do Modelo Pegasus 1.2

    O Pegasus 1.2 é um modelo de linguagem orientado para processamento de vídeos que consegue gerar texto baseado no conteúdo visual, áudio e textual dentro de vídeos. Desenvolvido especificamente para vídeos de longa duração, o modelo se destaca na geração de texto a partir de vídeos e na compreensão temporal, permitindo análises sofisticadas de conteúdo videográfico.

    Benefícios da Maior Disponibilidade Regional

    Com a expansão do Pegasus 1.2 para essas regiões adicionais, desenvolvedores podem construir aplicações de inteligência em vídeo mais próximas aos seus dados e usuários finais. Essa proximidade reduz a latência das requisições e simplifica a arquitetura geral das soluções, permitindo processamento mais rápido e eficiente.

    Próximos Passos

    Para obter a lista completa de perfis de inferência suportados e regiões disponíveis para o Pegasus 1.2, consulte a documentação de inferência entre regiões. Para começar a trabalhar com o Pegasus 1.2, acesse o console do Amazon Bedrock. Mais detalhes técnicos e informações adicionais estão disponíveis na página do produto e na documentação do Amazon Bedrock.

    Fonte

    TwelveLabs’ Pegasus 1.2 model now in 23 new AWS regions via Global cross-region inference (https://aws.amazon.com/about-aws/whats-new/2025/12/twelvelabs-pegasus-available-with-global-cross-region-inference/)

  • Amazon Connect agora oferece avaliações automáticas de desempenho para interações de autoatendimento

    Novidade no Amazon Connect: Avaliações automáticas de qualidade

    A AWS anunciou uma funcionalidade inovadora para o Amazon Connect, permitindo que empresas avaliem automaticamente a qualidade das interações de autoatendimento. Essa capacidade oferece aos gerentes e supervisores uma visão consolidada do desempenho geral, além da possibilidade de analisar contatos individuais para identificar pontos de melhoria.

    Como funciona a avaliação automática

    O novo recurso permite que os gerentes definam critérios customizados para avaliar a qualidade das interações de autoatendimento. Esses critérios podem ser preenchidos de duas formas: manualmente pelos supervisores ou automaticamente através de insights obtidos por meio de análise de conversas e outros dados disponíveis no Connect.

    Exemplo prático de uso

    Uma aplicação comum é avaliar automaticamente se um agente de IA tem dificuldade para entender o cliente. Quando esse problema ocorre, muitas vezes resulta em sentimento negativo do cliente e eventual transferência para um atendente humano. Identificar esses padrões permite que os gerentes ajustem treinamentos e configurações do agente para melhorar sua compreensão.

    Análise de dados e melhorias contínuas

    Os gerentes podem revisar os insights agregados sobre as interações, bem como acessar registros e transcrições de autoatendimento específicas. Essa visibilidade facilita a identificação de oportunidades para otimizar o desempenho do agente de IA e, consequentemente, melhorar a experiência do cliente.

    Disponibilidade da funcionalidade

    As avaliações de autoatendimento preenchidas manualmente estão disponíveis em todas as regiões onde o Amazon Connect é oferecido. As avaliações automáticas, por sua vez, estão limitadas a regiões específicas: Leste dos EUA (N. Virginia), Oeste dos EUA (Oregon), Ásia Pacífico (Seul), Ásia Pacífico (Singapura), Ásia Pacífico (Sydney), Ásia Pacífico (Tóquio) e Europa (Frankfurt).

    Próximos passos

    Para conhecer detalhes sobre preços e modelos de cobrança, consulte a página de preços do Amazon Connect. A documentação técnica disponibiliza guias completos sobre como criar e configurar formulários de avaliação. Também é possível aprender mais sobre a plataforma através da página principal do Amazon Connect.

    Fonte

    Amazon Connect now provides automated performance evaluations for self-service interactions (https://aws.amazon.com/about-aws/whats-new/2025/11/amazon-connect-automated-performance-evaluations-self-service-interactions)