Author: Make.com Service User

  • Automatize tarefas repetitivas com o Amazon Quick Flows

    O problema que o Amazon Quick Flows resolve

    Pense numa segunda-feira típica: alguém da equipe passa horas copiando dados de sistemas diferentes para montar um relatório semanal, formatando tudo para diferentes públicos internos. Multiplique isso por toda a equipe ao longo do mês, e o volume de tempo perdido com tarefas manuais repetitivas se torna difícil de ignorar.

    É exatamente esse cenário que a AWS quer endereçar com o Amazon Quick Flows. A proposta é simples: você descreve em linguagem natural o que quer automatizar, e a ferramenta constrói o fluxo por você — sem código, sem conhecimento em aprendizado de máquina (ML).

    O que é o Amazon Quick Flows?

    O Amazon Quick Flows faz parte do Amazon Quick, uma coleção de funcionalidades com Inteligência Artificial (IA) que trabalham juntas para ajudar equipes a analisar dados, automatizar processos e obter insights por meio de conversas em linguagem natural.

    Com o Quick Flows especificamente, a ideia é transformar tarefas do dia a dia em fluxos automatizados — tanto para uso individual quanto para times inteiros. O usuário cria, personaliza e compartilha fluxos de IA construídos sob medida, conectados aos dados e às ações disponíveis dentro do Amazon Quick.

    Para começar, é necessário ter uma conta AWS ativa com o Amazon Quick habilitado e permissões de acesso ao Quick Flows. As instruções de configuração estão disponíveis no Guia do Usuário do Amazon Quick.

    Construindo o primeiro fluxo: análise financeira

    O exemplo introdutório apresentado pela AWS é um analisador de desempenho financeiro. O objetivo é criar um fluxo que colete dados de mercado em tempo real, analise métricas-chave e compile um resumo profissional a partir de um nome de empresa ou código de ação (ticker).

    O processo começa acessando o Quick Flows e descrevendo o que se quer em linguagem natural. No exemplo, o prompt solicita um fluxo com quatro componentes: coleta de dados de mercado em tempo real, análise de métricas financeiras (como índice Preço/Lucro, capitalização de mercado e receita), inteligência de notícias com manchetes recentes e análise profissional com recomendações de analistas.

    Após clicar em “Gerar”, o Quick Flows interpreta o prompt, identifica as etapas necessárias e monta um fluxo conectado automaticamente. Cada etapa é configurada com busca na web integrada, garantindo que os dados sejam coletados em tempo real — e não de bases estáticas.

    Depois de gerado, o fluxo pode ser testado imediatamente: basta inserir o nome ou ticker de uma empresa e executar. O resultado passa por cada etapa em ordem, coletando dados, analisando métricas, reunindo notícias e compilando o relatório final. É possível ainda conversar diretamente com o fluxo para ajustar o formato ou o nível de profundidade da análise.

    No editor visual, cada etapa aparece de forma clara, mostrando como os dados se movem do input até o output final. A partir daí, o usuário pode expandir o fluxo — adicionando, por exemplo, uma etapa para enviar o relatório por e-mail, publicar no Slack, salvar no SharePoint ou exportar como PDF ou documento Word. Também é possível agendar execuções periódicas.

    Os blocos de construção do Quick Flows

    O Quick Flows organiza suas capacidades em cinco categorias de etapas que podem ser combinadas para criar qualquer fluxo:

    • Respostas de IA: geram outputs, criam imagens a partir de texto, acionam agentes personalizados, fazem buscas na web, invocam o Quick Research e executam tarefas em sites.
    • Lógica de fluxo: controlam a execução do fluxo por meio de grupos de raciocínio que definem condições, loops ou validações.
    • Insights de dados: recuperam informações dos dados da empresa em espaços e bases de conhecimento, ou análises de dashboards e tópicos.
    • Ações: realizam operações de leitura e escrita em sistemas externos por meio de integrações prontas ou personalizadas.
    • Input do usuário: coletam informações por campos de texto ou upload de arquivos para iniciar e contextualizar o fluxo.

    Em termos de fontes de dados, o Quick Flows se conecta a planilhas e bancos de dados via Amazon Quick, repositórios de documentos como SharePoint, OneDrive, Google Drive ou Amazon Simple Storage Service (Amazon S3) via integrações, além de sistemas externos por meio de integrações de ações prontas ou customizadas.

    Caso avançado: automação de onboarding de funcionários

    Para demonstrar capacidades mais sofisticadas — como lógica condicional e integrações com sistemas externos — a AWS apresenta um segundo exemplo: a automação do processo de integração (onboarding) de novos colaboradores.

    O cenário é realista: um especialista de Recursos Humanos (RH) com três novos funcionários entrando na semana precisa criar registros no sistema de informações de RH, redigir e-mails de boas-vindas personalizados com base nas políticas da empresa, e coordenar com a área de Tecnologia da Informação (TI) a criação de crachás, pedido de equipamentos e configuração de e-mail. Tarefas manuais que consomem horas toda semana.

    O fluxo de onboarding começa coletando dados do novo funcionário (nome, sobrenome, e-mail) via campos de texto. Em seguida, consulta uma API de informações de funcionários para verificar se o e-mail já está cadastrado no sistema.

    Aqui entra um conceito central do Quick Flows: o grupo de raciocínio (reasoning group). Ele funciona como uma instrução “se-então”: se o funcionário já existe no sistema, o fluxo encerra; se não existe, ele segue em frente e executa seis etapas em sequência — criar o registro do funcionário, gerar o e-mail de boas-vindas, enviar o e-mail, gerar o ticket de solicitação de crachá, criar o ticket e resumir os resultados do onboarding.

    Imagem original — fonte: Aws

    Para criar esse fluxo, basta descrever o processo em linguagem natural. Um prompt eficaz para esse caso incluiria: coletar informações do novo contratado, verificar se ele já existe no sistema, criar o registro caso seja novo, gerar um e-mail de boas-vindas personalizado com as políticas da empresa, enviar o e-mail com o gestor em cópia, criar tickets de TI para crachá e equipamentos, e fornecer um resumo de todas as ações realizadas.

    Para quem quiser praticar com esse exemplo em sua própria conta AWS, a AWS disponibiliza o workshop A Complete Guide to Amazon Quick, com infraestrutura simulada de RH e TI. O processo envolve seguir as instruções de configuração no ritmo próprio e depois acessar o módulo de Flows do workshop.

    Como escrever prompts eficazes para o Quick Flows

    Um bom prompt para o Quick Flows deve contemplar quatro elementos: quais informações coletar (“reunir dados do funcionário”), quais decisões tomar (“verificar se já existe no sistema”), quais ações executar (“criar registro do funcionário”) e qual conteúdo gerar (“e-mail de boas-vindas personalizado”).

    Frases que descrevem operações em sistemas externos — como “cria o registro” ou “envia o e-mail” — se traduzem em etapas de ação que se integram com os conectores do Quick. Frases que sugerem geração de conteúdo a partir de dados internos se tornam etapas de output conectadas a bases de conhecimento. E expressões de lógica condicional — como “verifica se já existe” — disparam a criação automática de grupos de raciocínio.

    Variáveis: a cola entre as etapas

    Cada etapa de um fluxo gera uma variável — um contêiner nomeado que armazena informações para uso nas etapas seguintes. Por exemplo, quando alguém digita “João Silva” no campo Nome, esse valor fica disponível como @Nome em todo o fluxo.

    Sem variáveis, cada etapa operaria de forma isolada, sem acesso aos dados produzidos pelas etapas anteriores. Elas são o que permite, por exemplo, que o prompt de criação de registro use @Nome, @Sobrenome e @Email coletados lá no início do fluxo.

    Dicas práticas para começar

    • Teste o prompt antes de criar o fluxo. Use o assistente de chat do Quick para validar a abordagem. Você pode perguntar, por exemplo, como extrair dados de um dashboard e formatá-los como relatório semanal antes de automatizar o processo.
    • Comece com conjuntos de dados menores. O Quick tem limite de tamanho de contexto. Para processar listas grandes (como e-mails), use a funcionalidade de loop do grupo de raciocínio para operar um item por vez. Consulte a documentação de limites do Flows.
    • Escreva um prompt completo de uma vez. O Quick Flows funciona melhor com prompts bem elaborados que descrevem todo o fluxo. Se precisar de ajuda, peça ao próprio Quick para melhorar seu prompt. Veja as boas práticas de prompting no workshop.
    • Pergunte sobre integrações de ações. Você não precisa conhecer as APIs de cor. Basta perguntar ao assistente de chat como usar um conector específico e quais parâmetros ele aceita.
    • Mapeie o fluxo antes de criar. Entenda quais dados entram, quais ações precisam ser executadas e em que ordem. Desenhar ou escrever os passos antes de montar o fluxo ajuda muito.
    • Peça ajuda a um agente de chat. É possível pedir a um agente que ajude a projetar e construir fluxos. Um exemplo prático está disponível no workshop do Amazon Quick.

    Limpeza de recursos

    Para evitar cobranças desnecessárias, a AWS recomenda excluir os fluxos criados para testes, cancelar execuções agendadas e, para quem realizou o workshop, seguir as instruções de limpeza para remover a infraestrutura implantada. As cobranças do Amazon Quick são baseadas em uso, então remover fluxos e agendamentos inativos ajuda a controlar os custos.

    Próximos passos

    O Amazon Quick Flows representa uma aposta da AWS em democratizar a automação de processos — colocando nas mãos de qualquer profissional a capacidade de criar fluxos inteligentes sem escrever uma linha de código. Para quem quer explorar na prática, os caminhos sugeridos são: acessar o Amazon Quick e criar o primeiro fluxo usando os prompts de exemplo, completar o workshop A Complete Guide to Amazon Quick para experiência hands-on, e identificar uma tarefa repetitiva do dia a dia para descrever em linguagem natural. Para dúvidas e recursos adicionais, a Comunidade do Amazon Quick reúne perguntas, eventos e materiais de aprendizado.

    Fonte

    Automate repetitive tasks with Amazon Quick Flows (https://aws.amazon.com/blogs/machine-learning/automate-repetitive-tasks-with-amazon-quick-flows/)

  • CloudTroop Weekly #009 — 2026-w17





    CloudTroop Weekly #009 — 2026-w17

    26 de abril de 2026

    Resumo da Semana

    A semana foi dominada por avanços que tornam agentes de IA viáveis em ambientes corporativos reais. Lambda agora monta buckets S3 como sistema de arquivos, o AgentCore Gateway ganhou egresso seguro para VPCs privadas e o ToolSimulator resolve o problema de testes sem chamadas reais a APIs externas. No campo de segurança, o Secrets Manager ativou criptografia pós-quântica por padrão e o Security Hub Extended unificou visibilidade multicloud. Para quem escala GenAI, o Bedrock ganhou atribuição granular de custos e o SageMaker automatiza a escolha de GPU para inferência.

    O que muda na prática

    • Agentes de IA podem acessar dados em S3 e redes privadas corporativas sem gambiarras de arquitetura — as barreiras técnicas que travavam adoção em produção caíram significativamente.
    • Criptografia pós-quântica no Secrets Manager é automática: sem mudança de código, toda organização que usa o serviço já está protegida contra ataques 'coleta agora, decifra depois'.
    • Rastrear custos de GenAI por usuário, aplicação ou tenant via Bedrock e CUR 2.0 deixa de ser workaround para virar recurso nativo — chargeback de IA generativa agora tem suporte real.

    Ações da semana

    • Se você tem agentes de IA em desenvolvimento, configure o ToolSimulator esta semana para eliminar dependências de APIs externas nos testes e desbloquear o pipeline de CI/CD.
    • Acesse o Cost and Usage Report (CUR 2.0) e ative a atribuição de custos do Bedrock por aplicação — leva menos de 30 minutos e entrega visibilidade imediata para justificar investimentos em GenAI.

    Top 10 da Semana

    1

    AWS Secrets Manager habilita criptografia pós-quântica por padrão

    Proteção automática contra ataques 'coleta agora, decifra depois' sem mudança de código é uma decisão de segurança que afeta toda organização que usa Secrets Manager.

    Para quem: Engenheiros de segurança, arquitetos e times de compliance que gerenciam segredos em produção na AWS.

    Segurança, Criptografia

    2

    AWS Security Hub Extended unifica segurança multicloud com parceiros

    Uma solução empresarial que integra CrowdStrike, Okta e Splunk ao ecossistema AWS em modelo pay-as-you-go muda a equação de custo e complexidade para times de segurança multicloud.

    Para quem: CISOs, arquitetos de segurança e times de operações que gerenciam ambientes híbridos ou multicloud.

    Segurança, Multicloud

    3

    Lambda monta buckets S3 como sistema de arquivos com S3 Files

    Elimina a necessidade de baixar dados para funções Lambda, habilitando agentes de IA com estado persistente e pipelines de ML sem overhead de transferência.

    Para quem: Desenvolvedores serverless e engenheiros de ML que constroem pipelines de IA ou agentes com estado na AWS.

    Serverless, IA

    4

    Amazon Bedrock ganha atribuição granular de custos por usuário e app

    Rastrear gastos de IA por tenant, aplicação ou usuário via CUR 2.0 é pré-requisito para chargeback e otimização financeira em organizações que escalam uso de GenAI.

    Para quem: FinOps, arquitetos de plataforma e líderes técnicos que precisam justificar e controlar custos de IA generativa.

    FinOps, IA

    5

    Bedrock AgentCore Gateway e Identity ganham egresso de VPC seguro

    Agentes de IA que precisam acessar recursos privados na VPC do cliente agora têm suporte nativo, removendo uma barreira crítica para adoção em ambientes corporativos.

    Para quem: Arquitetos de soluções e engenheiros de plataforma que implantam agentes de IA em redes privadas corporativas.

    Agentes IA, Rede

    6

    SageMaker AI automatiza escolha de GPU e config de inferência GenAI

    Reduzir de semanas para horas a decisão de infraestrutura de inferência com benchmarks reais de latência, throughput e custo impacta diretamente o time-to-production de modelos.

    Para quem: Engenheiros de ML e arquitetos que implantam modelos de IA generativa em produção no SageMaker.

    MLOps, Inferência

    7

    AWS Network Firewall suporta 10M de domínios maliciosos via Marketplace

    Escalar proteção de rede com inteligência de ameaças de parceiros como Infoblox e ThreatSTOP diretamente no firewall gerenciado reduz fricção operacional e amplia cobertura de segurança.

    Para quem: Engenheiros de segurança de rede e times de SOC que gerenciam perímetro e conformidade com sanções internacionais.

    Segurança de Rede

    8

    ToolSimulator: testes seguros e escaláveis para agentes de IA

    Testar agentes de IA sem chamadas reais a APIs externas resolve dependências, efeitos colaterais e exposição de dados sensíveis — problemas que travam times que levam agentes para produção.

    Para quem: Engenheiros de software e times de QA que desenvolvem e validam agentes de IA com ferramentas externas.

    Agentes IA, Testes

    9

    EC2 permite ocultar recursos de serviços gerenciados no console e API

    Reduzir ruído visual de recursos provisionados por EKS, ECS e Lambda no console melhora governança e evita confusão operacional em contas com múltiplos serviços gerenciados.

    Para quem: Engenheiros de plataforma e times de operações que gerenciam contas AWS com workloads EKS, ECS ou Lambda em escala.

    Operações, Governança

    10

    ETL open-source converte logs customizados para formato OCSF

    Padronizar logs de segurança em OCSF é pré-requisito para integração com Amazon Security Lake e análise unificada de ameaças, especialmente em ambientes com fontes heterogêneas.

    Para quem: Engenheiros de segurança e times de SIEM que precisam normalizar logs customizados para análise centralizada.

    Segurança, Compliance


  • Amazon Quick agora integra com o agente Vee da Visier para inteligência de workforce

    O que foi anunciado

    A AWS anunciou a integração do Amazon Quick com o Vee, o assistente de IA da plataforma de análise de pessoas da Visier. A conexão entre as duas ferramentas acontece por meio do Protocolo de Contexto de Modelo (MCP), permitindo que profissionais de RH, finanças e operações acessem dados de workforce diretamente no ambiente do Amazon Quick — sem precisar alternar entre sistemas.

    Como a integração funciona

    Após configurar a conexão no Amazon Quick utilizando o servidor MCP remoto da Visier, os usuários conseguem fazer perguntas em linguagem natural sobre temas como:

    • Headcount (número de colaboradores ativos)
    • Attrition (taxa de rotatividade)
    • Tempo de casa dos funcionários
    • Vagas abertas em aberto

    As respostas retornadas pelo Vee são fundamentadas no modelo de dados de workforce governado pela própria Visier, garantindo que as informações apresentadas sigam as regras e políticas de acesso já estabelecidas pela empresa.

    Integração com fluxos automatizados

    Além das consultas pontuais, o Vee também pode ser acionado dentro dos Quick Flows — os fluxos automatizados do Amazon Quick — para executar revisões periódicas de workforce ou redigir documentos de forma recorrente. O Amazon Quick roteia de forma inteligente os prompts relevantes para o Vee e retorna as respostas contextualizadas junto ao conhecimento corporativo armazenado nos Quick Spaces, como orçamentos, políticas e planos estratégicos. Dessa forma, cada resposta reflete o cenário completo da organização.

    Disponibilidade

    A integração entre a Visier e o Amazon Quick está disponível em todas as regiões da AWS onde o Amazon Quick opera.

    Como começar

    Para quem quiser explorar essa novidade, a AWS disponibiliza alguns recursos de apoio:

    Fonte

    Amazon Quick now integrates with Visier’s Vee agent for workforce intelligence (https://aws.amazon.com/about-aws/whats-new/2026/04/amazon-quick-visier-vee/)

  • Protegendo seus segredos contra os riscos quânticos do futuro com AWS Secrets Manager

    O risco quântico que já exige ação hoje

    Computadores quânticos suficientemente poderosos ainda não existem, mas a ameaça que eles representam para a criptografia convencional já é real — e precisa ser endereçada agora. O motivo é um vetor de ataque chamado coleta agora, decifra depois (HNDL — Harvest Now, Decrypt Later): adversários capturam tráfego cifrado hoje e guardam para decifrar no futuro, quando tiverem acesso a hardware quântico capaz de quebrar os algoritmos assimétricos tradicionais.

    É dentro desse contexto que a AWS vem executando seu plano de migração para criptografia pós-quântica (PQC). Parte central desse plano é garantir que os clientes consigam atualizar o lado cliente de suas cargas de trabalho para suportar confidencialidade resistente a computadores quânticos — e a AWS reconhece que essa é uma responsabilidade compartilhada, descrita no modelo de responsabilidade compartilhada de PQC.

    O que mudou no AWS Secrets Manager

    O AWS Secrets Manager utiliza SSL/TLS para comunicação com recursos AWS, suportando TLS 1.2 e 1.3 em todas as regiões. A novidade é que o serviço agora habilita e prefere, por padrão, a troca de chaves híbrida pós-quântica nas conexões TLS iniciadas pelos clientes que suportam essa capacidade.

    A abordagem híbrida pós-quântica combina criptografia tradicional (como X25519) com algoritmos pós-quânticos (ML-KEM) para estabelecer conexões TLS. Isso garante proteção tanto contra ataques clássicos atuais quanto contra ameaças futuras de computadores quânticos.

    Vale destacar: os segredos em repouso já estavam protegidos por chaves gerenciadas pelo AWS Key Management Service (AWS KMS). A criptografia simétrica, quando bem implementada, é considerada resistente a computadores quânticos. A vulnerabilidade quântica recai sobre a criptografia assimétrica — exatamente o que é usado na troca de chaves TLS. Para aprofundar o tema, a AWS disponibilizou a sessão AWS re:Inforce 2025 – Post-Quantum Cryptography Demystified.

    Quais clientes já suportam a troca de chaves híbrida por padrão

    A AWS anunciou que os seguintes clientes do Secrets Manager já habilitam e preferem a troca de chaves pós-quântica ao iniciar conexões:

    Para clientes baseados em SDK, a troca de chaves híbrida pós-quântica está disponível nas versões listadas abaixo. Os requisitos variam por linguagem, versão e sistema operacional:

    As bibliotecas de cache do Secrets Manager são construídas sobre os SDKs e herdam o comportamento de TLS deles. Para Java, tanto a flag do driver JDBC quanto a flag de cache Java precisam ser habilitadas para ativar a troca de chaves híbrida.

    Quando o endpoint do serviço Secrets Manager detecta que o cliente anuncia suporte à troca de chaves pós-quântica durante o handshake TLS, ele a seleciona automaticamente. Atualizar para as versões listadas é a única ação necessária.

    Como verificar se suas conexões estão usando a troca de chaves híbrida

    Para a maioria dos clientes, não será necessário monitoramento contínuo após a atualização. No entanto, equipes de segurança e compliance podem querer confirmar que as chamadas de API do Secrets Manager estão de fato negociando a troca de chaves híbrida. A verificação pode ser feita tanto no lado servidor, via AWS CloudTrail, quanto no lado cliente, com ferramentas como Wireshark ou as ferramentas de desenvolvedor dos navegadores.

    Fonte

    Protecting your secrets from tomorrow’s quantum risks (https://aws.amazon.com/blogs/security/protecting-your-secrets-from-tomorrows-quantum-risks/)

  • Construindo Agentes de IA para RH com Visier e Amazon Quick

    O problema que essa integração resolve

    Profissionais de RH, finanças e operações lidam diariamente com um desafio clássico: as informações que precisam para tomar decisões estão espalhadas em sistemas diferentes. Dados de headcount vivem em um lugar, metas orçamentárias em outro, políticas internas em um terceiro. Cruzar tudo isso manualmente consome horas e ainda assim o resultado pode estar desatualizado.

    É exatamente esse problema que a integração entre a Visier e o Amazon Quick via Protocolo de Contexto de Modelo (MCP) se propõe a resolver. A ideia central é simples: conectar dados ao vivo da força de trabalho com o contexto organizacional interno, tudo acessível por meio de perguntas em linguagem natural.

    Os componentes da solução

    Amazon Quick

    O Amazon Quick é descrito pela AWS como um workspace de Inteligência Artificial (IA) agêntica. Ele funciona como uma interface unificada para usuários de negócio, reunindo conhecimento corporativo, inteligência de negócios e automação de fluxos de trabalho em um único lugar. Seus agentes inteligentes recuperam informações e raciocinam sobre múltiplas camadas de dados simultaneamente, entregando respostas prontas para ação.

    Visier

    A Visier é uma plataforma de IA para força de trabalho baseada em nuvem que unifica dados de Sistema de Informação de Recursos Humanos (HRIS), folha de pagamento, gestão de talentos e rastreamento de candidatos em uma única camada de inteligência. Ela permite responder perguntas complexas sobre a força de trabalho em minutos, por meio do seu assistente de IA chamado Vee, apoiado por métricas pré-construídas e benchmarks do setor baseados em registros anonimizados de funcionários.

    Por meio do seu servidor MCP, a Visier atua como um conector universal que entrega insights governados sobre pessoas diretamente nas ferramentas de IA corporativa onde as decisões são tomadas.

    O Protocolo de Contexto de Modelo (MCP)

    O MCP é um padrão aberto que permite que agentes de IA se conectem a fontes de dados e ferramentas externas. Funciona como um adaptador universal: o Amazon Quick consegue se comunicar com o agente analista Vee da Visier de forma estruturada e segura, sem precisar construir integrações customizadas do zero. A Visier expõe suas capacidades de análise de força de trabalho por meio de um servidor MCP, e o Amazon Quick inclui um cliente MCP nativo que descobre essas ferramentas e as disponibiliza para seus agentes e automações.

    Benefícios para empresas

    A integração endereça desafios reais do dia a dia corporativo. Entre os principais benefícios destacados:

    • Inteligência unificada da força de trabalho: o Amazon Quick orquestra dados ao vivo da Visier com o conhecimento interno da empresa, entregando respostas sintetizadas que nenhum sistema produziria sozinho.
    • Acesso em linguagem natural: usuários fazem perguntas conversacionais e recebem respostas atribuídas à fonte — seja um dado ao vivo da Visier ou um documento de política interna.
    • Fluxos de trabalho automatizados e repetíveis: revisões periódicas de força de trabalho, alertas de limites e briefings pré-reunião podem ser configurados uma vez e entregues automaticamente, sem esforço manual.
    • Acesso a dados governado e seguro: o servidor MCP da Visier aplica políticas de governança de dados para expor apenas informações autorizadas. O conhecimento corporativo no Quick Spaces mantém os controles de acesso existentes.
    • Redução do tempo para obter insights: o que antes exigia horas de cruzamento manual de planilhas pode ser feito rapidamente a partir de uma única interface.

    Pré-requisitos

    Para configurar essa integração, são necessários:

    Para mais detalhes sobre a configuração do Amazon Quick, a documentação oficial está disponível.

    Como configurar a integração

    Passo 1: Configurar o servidor MCP da Visier

    A Visier fornece um servidor MCP pré-construído que expõe suas capacidades de análise como ferramentas MCP. No console de administração da Visier, é necessário navegar até Configurações > API e Integrações, habilitar o servidor MCP, configurar as credenciais de autenticação e os escopos de acesso a dados, e anotar a URL do endpoint e os detalhes de autenticação. As instruções detalhadas estão na documentação MCP da Visier.

    Passo 2: Adicionar a Visier como integração MCP no Amazon Quick

    No Amazon Quick, o processo passa por acessar Integrações no painel de navegação esquerdo, selecionar a aba Ações, localizar o bloco do Protocolo de Contexto de Modelo (MCP) e criar uma nova integração. É necessário informar um nome descritivo, uma descrição opcional e a URL do endpoint do servidor MCP da Visier obtida no passo anterior. Depois, selecionar o método de autenticação correspondente e inserir as credenciais. Após criada, o Amazon Quick descobre automaticamente as ferramentas expostas pelo servidor MCP da Visier — como ask_vee_question, search_metrics e list_analytic_object_property_values.

    Para mais informações sobre a integração MCP no Amazon Quick, consulte Integrar ferramentas externas com agentes Amazon Quick usando MCP e a documentação de integração MCP.

    Passo 3: Organizar o conhecimento corporativo nos Spaces

    Os agentes do Amazon Quick utilizam os Spaces como fronteira contextual. Tudo que a organização sabe — políticas internas, documentos de planejamento, conhecimento específico de equipes — é construído dentro de um Space e disponibilizado ao agente no momento da consulta. O passo seguinte é fazer upload dos documentos internos relevantes para o Quick Spaces, criando um Space chamado “Planejamento de Força de Trabalho” e carregando documentos como orçamentos de headcount, diretrizes de remuneração, fluxos de aprovação e requisitos de conformidade.

    Cenário de uso: preparando uma reunião de liderança

    Para ilustrar a integração, o artigo original apresenta dois usuários fictícios — Maya, parceira de negócios de RH, e David, gerente de finanças — que precisam preparar juntos um briefing para uma reunião de liderança. A organização conectou a Visier ao Amazon Quick via MCP e carregou documentos internos no Quick Spaces, incluindo metas de saúde da força de trabalho para o ano fiscal, políticas de retenção e templates de briefing de risco.

    A conversa entre os dois e o agente Amazon Quick percorre seis turnos progressivos:

    • Turno 1 — Visão geral: David pergunta quantos funcionários a empresa tem e quantos estão nos EUA. O agente consulta a Visier via MCP e retorna os números ao vivo.
    • Turno 2 — Orçamento vs. realidade: David pergunta como o headcount nos EUA se compara às metas de distribuição. O agente consulta a Visier para os dados ao vivo e o documento de metas no Quick Spaces para comparar com o alvo aprovado.
    • Turno 3 — Panorama de tempo de serviço: Maya pergunta sobre o tempo médio de serviço e quais funções têm os maiores índices. O agente recupera os dados da Visier e os marcos relevantes da política de retenção no Quick Spaces.
    • Turno 4 — Tempo de serviço vs. limites da política: Maya verifica se a média atual atende ao threshold definido na política. O agente compara o dado ao vivo da Visier com o limite armazenado no Quick Spaces.
    • Turno 5 — Verificação de alta performance: Maya consulta quantos funcionários de alta performance existem e se a proporção está dentro do recomendado. O agente cruza o dado da Visier com o Playbook de Retenção de Alta Performance no Quick Spaces.
    • Turno 6 — Síntese do briefing: David e Maya pedem um resumo dos principais riscos de saúde da força de trabalho. O agente consolida todos os dados dos turnos anteriores, cruza cada métrica com os thresholds e políticas correspondentes, sinaliza os riscos e apresenta as ações recomendadas de cada documento de política.

    Automação com Quick Flows

    Além das consultas conversacionais, o Amazon Quick oferece o Quick Flows, um motor de automação de fluxos de trabalho que permite definir sequências de múltiplos passos e executá-las em um agendamento ou sob demanda. Um fluxo pode recuperar dados de fontes conectadas, aplicar lógica e comparações, gerar saídas formatadas e entregar os resultados em um destino como uma caixa de entrada ou canal do Slack — tudo sem intervenção manual.

    O artigo original apresenta um exemplo de fluxo chamado “Weekly Workforce Health Score” (Pontuação Semanal de Saúde da Força de Trabalho), que executa toda segunda-feira às 8h da manhã. Em seis passos sequenciais, ele:

    • Recupera da Visier quatro métricas ao vivo: headcount global total, headcount nos EUA, tempo médio de serviço e contagem de funcionários de alta performance.
    • Busca no Quick Spaces as metas e thresholds internos correspondentes a cada métrica.
    • Calcula indicadores como percentual de headcount em relação à meta, gap de headcount nos EUA, proporção de alta performance e buffer de tempo de serviço acima da zona de atenção.
    • Atribui uma pontuação a cada métrica (Em Dia: 25 pontos; Precisa de Atenção: 15 pontos; Abaixo da Meta: 5 pontos; Revisão Imediata Necessária: 0 pontos) e soma as quatro para gerar uma pontuação composta de 0 a 100.
    • Para métricas com pontuação abaixo do ideal, recupera as ações de intervenção recomendadas nos documentos de política do Quick Spaces.
    • Gera um briefing formatado com a pontuação composta, uma tabela de métricas com valores reais, metas, gaps e pontuações, e as ações recomendadas por prioridade.

    Quick Research: análise profunda e autônoma

    O Amazon Quick também oferece o Quick Research, uma capacidade de análise profunda projetada para perguntas que abrangem múltiplas fontes e exigem síntese. Diferente de uma conversa interativa, o Quick Research opera de forma autônoma: o usuário descreve o resultado que precisa em linguagem natural, e o Amazon Quick determina quais bases de conhecimento internas, fontes de dados conectadas e referências externas consultar, montando um relatório estruturado e com atribuição de fontes.

    No cenário do artigo, Maya usa o Quick Research antes da reunião para solicitar um relatório de benchmarking da força de trabalho comparando a organização com pares do setor em três dimensões: tempo de serviço dos funcionários, proporções de alta performance e distribuição geográfica da força de trabalho. O Quick Research automaticamente consulta as três camadas: dados ao vivo da Visier via MCP, metas de política interna do Quick Space de Planejamento de Força de Trabalho, e benchmarks externos do setor via web.

    Monitoramento e observabilidade

    Para administradores que precisam de visibilidade sobre o que está sendo acessado, com que frequência e por quem, o Amazon Quick se integra ao Amazon CloudWatch para expor métricas do conector de ações MCP, como contagens de invocação e taxas de erro. Cada interação de chat pode ser entregue via Amazon CloudWatch Logs para destinos como Amazon Simple Storage Service (Amazon S3) ou Amazon Data Firehose, para análise e retenção de longo prazo. Para auditoria e conformidade, o AWS CloudTrail fornece um registro completo de chamadas de API e ações administrativas em todo o ambiente Amazon Quick.

    Conclusão

    A integração entre Visier e Amazon Quick via MCP demonstra um padrão que vai além da análise de pessoas: qualquer cenário em que inteligência de negócios especializada precise ser combinada com contexto organizacional interno pode se beneficiar dessa arquitetura. O valor não está em nenhum dos sistemas isoladamente — o Amazon Quick fornece a camada de orquestração e contexto corporativo, a Visier fornece a inteligência sobre a força de trabalho, e o MCP fornece a conexão segura e padronizada entre os dois. Para o usuário final, a experiência é simples: fazer uma pergunta e receber uma resposta que combina tudo que a organização sabe, pronta para agir.

    Para começar, a documentação do Amazon Quick cobre configuração do ambiente, integrações e criação de agentes. Para o lado da Visier, a documentação do Servidor MCP da Visier detalha a configuração, autenticação e o conjunto completo de ferramentas de análise disponíveis. Mais informações sobre a plataforma de IA da Visier estão em visier.com. Para um aprofundamento em como o Amazon Quick se conecta a fontes externas via MCP, o artigo Integrar ferramentas externas com agentes Amazon Quick usando MCP é uma boa referência.

    Fonte

    Building Workforce AI Agents with Visier and Amazon Quick (https://aws.amazon.com/blogs/machine-learning/building-workforce-ai-agents-with-visier-and-amazon-quick/)

  • Amazon Connect ganha oito novas métricas para medir desempenho de agentes de IA

    O que foi anunciado

    A AWS anunciou a disponibilização de oito novas métricas no Amazon Connect voltadas especificamente para monitorar e aprimorar o desempenho de agentes de Inteligência Artificial (IA) em interações com clientes. Entre as novidades, destacam-se métricas como taxa de sucesso de objetivos, pontuação de fidelidade e precisão na seleção de ferramentas.

    O que essas métricas permitem monitorar

    Com esse conjunto de indicadores, equipes que utilizam o Amazon Connect passam a ter visibilidade real sobre a qualidade das interações conduzidas por agentes de IA. Na prática, é possível acompanhar:

    • Se os agentes de IA conseguiram de fato resolver as solicitações dos clientes;
    • O nível de fidelidade das respostas geradas — incluindo a detecção de alucinações contextuais, ou seja, quando o agente produz informações incorretas ou inventadas;
    • A precisão com que o agente seleciona e utiliza as ferramentas disponíveis para cada situação;
    • O feedback direto dos clientes, por meio de avaliações do tipo curtir/não curtir, quando esse recurso estiver habilitado.

    Como acessar as novas métricas

    As oito novas métricas podem ser acessadas de três formas distintas:

    • Pelo painel de desempenho de agentes de IA do próprio Amazon Connect;
    • Via API GetMetricDataV2, para quem prefere integrar os dados a fluxos de análise personalizados;
    • Por meio do data lake zero-ETL, que facilita a integração com ferramentas de análise já existentes na organização — sem a necessidade de pipelines de transformação de dados.

    Disponibilidade

    O recurso já está disponível em todas as regiões da AWS onde o Amazon Connect com agentes de IA é suportado. Para consultar a documentação completa e entender como configurar o painel de desempenho, a AWS disponibilizou o Guia do Administrador do Amazon Connect. Quem quiser conhecer mais sobre a plataforma em geral pode acessar o site oficial do Amazon Connect.

    Por que isso importa

    Monitorar agentes de IA em produção ainda é um desafio para muitas equipes. Ter métricas nativas dentro da própria plataforma de atendimento reduz a complexidade operacional e permite que times de CX (Experiência do Cliente) e engenharia atuem com mais precisão na melhoria contínua dos fluxos automatizados. A detecção de alucinações, em especial, é um ponto crítico para garantir que o cliente receba respostas confiáveis — e agora isso pode ser rastreado diretamente no Amazon Connect.

    Fonte

    Amazon Connect now provides eight new metrics to measure and improve AI agent performance (https://aws.amazon.com/about-aws/whats-new/2026/04/amazon-connect-ai-agent-metrics/)

  • Amazon Bedrock AgentCore Gateway e Identity ganham suporte a egresso de VPC

    O que foi anunciado

    A AWS anunciou que o Amazon Bedrock AgentCore Gateway e o AgentCore Identity passam a oferecer suporte a egresso de Nuvem Privada Virtual (VPC). Com isso, aplicações baseadas em agentes de IA conseguem se comunicar de forma segura e controlada com recursos que estão rodando dentro da VPC do próprio cliente — sem precisar expor esses recursos à internet pública.

    Como o egresso de VPC funciona no AgentCore

    O suporte ao egresso de VPC está disponível em duas modalidades: gerenciada e autogerenciada. A maioria dos casos de uso é atendida pela configuração gerenciada, que a AWS provisiona e mantém automaticamente. Para cenários de rede mais complexos, os clientes têm a opção de configurar seus próprios recursos do VPC Lattice — o serviço de rede gerenciada da AWS para comunicação entre serviços.

    Um exemplo prático: com esse suporte, é possível invocar diretamente, a partir do AgentCore Gateway, servidores MCP hospedados em clusters do Elastic Kubernetes Service (EKS) que estejam rodando dentro de uma VPC privada. Isso amplia bastante as possibilidades de integração em arquiteturas corporativas que priorizam isolamento de rede.

    Novidades no AgentCore Identity

    O AgentCore Identity também recebe suporte a egresso de VPC, com foco específico em conectividade com Provedores de Identidade (IdPs) que rodam dentro da VPC do cliente. Esse suporte habilita duas capacidades importantes:

    • Validação de tokens de acesso de entrada: permite verificar tokens emitidos por um IdP privado antes de autorizar requisições recebidas pelo agente.
    • Obtenção de tokens para autenticação de saída: permite que o agente busque tokens diretamente no IdP privado para autenticar requisições que ele mesmo faz a outros serviços.

    Resolução de DNS privado

    Outro ponto relevante desse lançamento é o suporte à resolução de DNS privado para recursos de egresso VPC gerenciado, tanto no Gateway quanto no Identity. Isso significa que os recursos internos podem ser acessados pelos seus nomes de domínio privados, sem depender de IPs fixos ou configurações manuais adicionais.

    Disponibilidade por região

    O suporte a egresso de VPC no AgentCore Gateway e Identity está disponível em 14 regiões da AWS:

    • US East (Norte da Virgínia e Ohio)
    • US West (Oregon)
    • Canada (Central)
    • Asia Pacific (Mumbai, Seul, Singapura, Sydney e Tóquio)
    • Europe (Frankfurt, Irlanda, Londres, Paris e Estocolmo)

    Saiba mais e comece a usar

    Para quem quiser se aprofundar nas capacidades de egresso de VPC, a AWS disponibiliza a documentação do AgentCore Gateway e a documentação do AgentCore Identity. Para dar os primeiros passos de forma prática, o ponto de entrada recomendado é o AgentCore CLI.

    Fonte

    Amazon Bedrock AgentCore Gateway and Identity support VPC egress (https://aws.amazon.com/about-aws/whats-new/2024/04/agentcore-gateway-identity-vpc/)

  • Amazon SageMaker HyperPod passa a gerenciar automaticamente a topologia do Slurm

    Gerenciamento automático de topologia no SageMaker HyperPod

    A AWS anunciou uma melhoria significativa no Amazon SageMaker HyperPod: o serviço agora seleciona e mantém automaticamente a configuração ideal de topologia de rede para clusters Slurm, levando em conta os tipos de instâncias GPU presentes no cluster.

    Por que a topologia de rede importa no treinamento distribuído

    A topologia de rede tem impacto direto na performance do treinamento distribuído. Quando os jobs são alocados em nós que estão topologicamente próximos uns dos outros, a comunicação entre GPUs se torna mais rápida, as operações coletivas do NCCL ficam mais eficientes e o throughput geral do treinamento aumenta. Em outras palavras, a disposição física e lógica dos nós no cluster não é detalhe — ela define o quão bem os recursos de hardware são aproveitados.

    Como o HyperPod gerencia a topologia automaticamente

    Ao criar um cluster, o HyperPod inspeciona os tipos de instâncias presentes em todos os grupos de instâncias, identifica as características de rede e interconexão de cada tipo, e seleciona automaticamente o modelo de topologia mais adequado. O serviço suporta dois modelos principais:

    • Topologia em árvore (tree topology): indicada para instâncias com interconexões hierárquicas, como ml.p5.48xlarge, ml.p5e.48xlarge e ml.p5en.48xlarge.
    • Topologia em bloco (block topology): indicada para instâncias com conectividade uniforme de alta largura de banda, como ml.p6e-gb200.NVL72.

    Para clusters com tipos de instâncias mistos, o HyperPod seleciona automaticamente uma topologia compatível que funcione de forma coerente em todos os nós.

    Adaptação dinâmica ao longo do ciclo de vida do cluster

    Um dos pontos mais relevantes dessa novidade é a capacidade de adaptação contínua. À medida que o cluster passa por operações de escalonamento — seja para cima, para baixo ou por substituição de nós — o HyperPod atualiza a configuração de topologia automaticamente, sem necessidade de intervenção manual. Isso garante que a topologia sempre reflita o estado real do cluster, sem exigir atualizações em arquivos de configuração nem reconfigurações do Slurm.

    Como começar a usar

    Para aproveitar esse recurso, basta criar um cluster SageMaker HyperPod Slurm com os tipos de instâncias GPU suportados. O agendamento com consciência de topologia já vem habilitado por padrão e não requer nenhuma configuração adicional. O recurso está disponível em todas as regiões AWS onde o Amazon SageMaker HyperPod é suportado.

    Para mais detalhes sobre o agendamento com consciência de topologia, consulte a documentação oficial do Amazon SageMaker HyperPod.

    Fonte

    Amazon SageMaker HyperPod now supports automatic Slurm topology management (https://aws.amazon.com/about-aws/whats-new/2026/04/amazon-sagemaker-hyperpod-automatic-slurm-topology/)

  • Amazon SageMaker passa a suportar notebooks e agente de dados para domínios IdC

    O que mudou no SageMaker Unified Studio

    A AWS anunciou uma expansão importante no Amazon SageMaker Unified Studio: a partir de agora, os notebooks serverless (sem servidor) com agente de dados integrado também estão disponíveis para domínios que utilizam o AWS IAM Identity Center (IdC) para autenticação e gerenciamento de acesso.

    Antes dessa atualização, tanto o ambiente de notebooks quanto o agente de dados estavam disponíveis apenas em domínios IAM. Com essa mudança, equipes que já adotaram o IdC como mecanismo de autenticação passam a ter acesso ao mesmo ambiente de alta performance para cargas de trabalho de análise de dados e aprendizado de máquina (ML).

    O que são os notebooks serverless do SageMaker

    O notebook serverless do SageMaker Unified Studio funciona como um espaço de trabalho unificado para diferentes perfis técnicos — engenheiros de dados, analistas e cientistas de dados. Em um único ambiente interativo, é possível:

    • Executar consultas SQL
    • Rodar código Python
    • Processar grandes volumes de dados
    • Executar cargas de trabalho de ML
    • Criar visualizações

    A infraestrutura por trás desse ambiente é o Amazon Athena para Apache Spark, o que garante escalabilidade desde consultas SQL interativas até o processamento de dados em escala de petabytes.

    O papel do agente de dados com IA integrada

    Junto com os notebooks, o agente de dados com inteligência artificial (IA) integrada acelera o desenvolvimento ao gerar código e instruções SQL diretamente a partir de prompts em linguagem natural. Ou seja, o profissional descreve o que precisa em texto simples, e o agente sugere o código correspondente — guiando o usuário ao longo das tarefas.

    Essa combinação permite que SQL, Python e linguagem natural coexistam no mesmo workspace, eliminando a necessidade de alternar entre ferramentas diferentes dependendo do tipo de tarefa. Um exemplo prático: é possível começar explorando dados com SQL, avançar para análises mais complexas com Python, e ainda usar prompts em linguagem natural para gerar código automaticamente em qualquer etapa do processo.

    Disponibilidade

    Os recursos de notebook e agente de dados do SageMaker estão disponíveis em todas as regiões da AWS onde o Amazon SageMaker Unified Studio é suportado.

    Para saber mais, a AWS disponibiliza o guia do usuário de notebooks do SageMaker e o guia do usuário do agente de dados do SageMaker com detalhes completos sobre como utilizar esses recursos.

    Fonte

    Amazon SageMaker supports notebooks and data agent for IdC domains (https://aws.amazon.com/about-aws/whats-new/2026/04/amazon-sagemaker-idc/)

  • Do zero ao primeiro agente funcional em minutos: novidades no Amazon Bedrock AgentCore

    O problema que o AgentCore resolve

    Qualquer desenvolvedor que já tentou colocar um agente de IA em funcionamento sabe bem como é: antes de testar se o agente faz algo útil, você passa horas — ou dias — resolvendo problemas de infraestrutura. Precisa escolher um framework, escrever código de orquestração, conectar ferramentas, configurar autenticação, montar pipeline de deploy. Só então o agente consegue processar a primeira requisição de verdade.

    É trabalho necessário, mas não é o trabalho que diz se o agente vai ser bom. A AWS identificou esse gargalo e construiu o Amazon Bedrock AgentCore justamente para mudar essa equação — permitindo que times foquem na lógica do agente, não no encanamento de infraestrutura. O serviço já suportava frameworks populares como LangGraph, LlamaIndex, CrewAI e Strands Agents. Agora, a AWS anuncia novas capacidades que aprofundam essa proposta.

    Harness gerenciado: do zero ao agente em três etapas

    Todo agente precisa de uma camada de orquestração — o loop que chama o modelo, decide qual ferramenta acionar, repassa os resultados, gerencia a janela de contexto e lida com falhas. Para esse loop funcionar, existe uma infraestrutura de suporte: computação para hospedar o agente, sandbox para execução segura de código, conexões seguras com ferramentas, armazenamento persistente e recuperação de erros. Esse conjunto é o que a AWS chama de agent harness.

    Até agora, montar esse harness era a primeira tarefa de qualquer time — e consumia dias antes mesmo de o agente processar uma única requisição real. A nova funcionalidade de harness gerenciado no AgentCore substitui toda essa construção inicial por uma configuração direta. Você declara o agente e o coloca para rodar com apenas três chamadas de API, sem escrever código de orquestração.

    A ideia é simples: você define o que o agente faz — qual modelo usa, quais ferramentas pode chamar e quais instruções deve seguir. O AgentCore cuida de montar computação, ferramentas, memória, identidade e segurança para criar um agente funcional que pode ser testado em minutos. Trocar de modelo ou adicionar uma ferramenta vira uma mudança de configuração, não uma reescrita de código. É possível testar várias variações do agente em minutos apenas alterando parâmetros na chamada de API.

    Essa velocidade não sacrifica flexibilidade. O harness do AgentCore é alimentado pelo Strands Agents, o framework open source da AWS. Quando você precisar de lógica de orquestração personalizada, roteamento especializado ou coordenação entre múltiplos agentes, basta migrar da configuração para um harness definido em código — na mesma plataforma, com o mesmo isolamento por microVM e o mesmo pipeline de deploy.

    Outro ponto relevante: o AgentCore persiste o estado da sessão em um sistema de arquivos durável. Isso significa que agentes podem suspender uma tarefa no meio e retomá-la exatamente de onde pararam — tornando padrões de human-in-the-loop (humano no ciclo de decisão) viáveis sem nenhuma customização extra.

    A VTEX, empresa brasileira de tecnologia para e-commerce, já está entre os casos de uso mencionados pela AWS. Rodrigo Moreira, VP de Engenharia da VTEX, destacou que antes cada novo protótipo de agente exigia dias de código de orquestração e configuração de infraestrutura antes de validar uma ideia. Com o harness do AgentCore, trocar de modelo, adicionar uma ferramenta ou refinar instruções passa a ser uma mudança de configuração — e a validação de ideias cai de dias para minutos.

    AgentCore CLI: um único terminal do protótipo ao produção

    Outro obstáculo clássico no ciclo de vida de agentes é a transição do desenvolvimento local para a produção. Normalmente isso significa sair do editor, configurar um pipeline de deploy separado e lidar com um processo que tem pouco a ver com o fluxo usado para construir o agente.

    O novo AgentCore CLI unifica esse ciclo em um único terminal: prototipar, fazer deploy e operar o agente sem trocar de ferramenta. Você itera localmente e, quando o agente estiver pronto, faz o deploy sem montar um pipeline separado.

    O AgentCore suporta deploy via Infraestrutura como Código (IaC) com suporte ao CDK e ao Terraform (em breve). Isso garante que a configuração do agente seja reproduzível e versionada — o que você testou localmente é exatamente o que roda em produção.

    Skills para agentes de código: contexto que faz diferença

    Boa parte do desenvolvimento de agentes hoje acontece com o apoio de assistentes de código como Claude Code ou Kiro. Mas um assistente de código só é tão eficaz quanto o contexto que ele tem. Um servidor MCP (Protocolo de Contexto de Modelo) genérico pode dar acesso a APIs e documentação, mas não captura as boas práticas específicas de uma plataforma: quais padrões usar, como as capacidades se encaixam, qual é o caminho recomendado para tarefas comuns.

    As novas skills pré-construídas do AgentCore vão além do acesso bruto à API. Elas fornecem aos agentes de código conhecimento atualizado e curado sobre as melhores práticas do AgentCore — de forma que as sugestões recebidas reflitam como a plataforma deve ser usada, não apenas quais endpoints existem. O Kiro já inclui isso como um Power nativo. Plugins para Claude Code, Codex e Cursor chegam em breve.

    Disponibilidade e preços

    O harness gerenciado do AgentCore está disponível em prévia em quatro regiões AWS: US West (Oregon), US East (N. Virginia), Asia Pacific (Sydney) e Europe (Frankfurt). O AgentCore CLI e o sistema de arquivos persistente para agentes estão disponíveis em todas as regiões comerciais da AWS onde o AgentCore é oferecido. As skills para agentes de código devem estar disponíveis até o final de abril.

    O modelo de cobrança é baseado nos recursos consumidos, sem custo adicional pelo CLI, pelo harness ou pelas skills. Mais detalhes estão na página de preços do AgentCore. Para começar, a documentação do AgentCore cobre os primeiros passos.

    O que muda na prática

    A proposta do AgentCore é clara: a plataforma em que você prototipa é a mesma em que você roda em produção. À medida que o agente evolui, você adiciona avaliações, memória, conexões com ferramentas e políticas de controle — sem precisar rearquitetar nada. O foco se mantém na lógica do agente, não na infraestrutura que o sustenta.

    Fonte

    Get to your first working agent in minutes: Announcing new features in Amazon Bedrock AgentCore (https://aws.amazon.com/blogs/machine-learning/get-to-your-first-working-agent-in-minutes-announcing-new-features-in-amazon-bedrock-agentcore/)