Blog

  • Solução Text-to-SQL Movida por Amazon Bedrock: Acesso Inteligente aos Dados

    Redefinindo o Acesso aos Dados Empresariais

    Um dos maiores desafios em organizações orientadas por dados é o gargalo entre a pergunta e a resposta. Quando um gestor precisa entender como está o crescimento de receita por segmento de cliente, essa pergunta muitas vezes fica aguardando em fila atrás de demandas consideradas mais urgentes. Uma solução de conversão de texto em SQL pode transformar esse cenário: usuários de negócio conseguem responder suas próprias perguntas rotineiras, liberando a capacidade técnica para iniciativas mais complexas e estratégicas.

    Perguntas que exigiriam horas de trabalho especializado — como “Qual é a tendência de receita este ano em comparação com o ano anterior, desagregada por nossos principais segmentos de clientes?” — podem se tornar acessíveis a qualquer pessoa, sem criar sobrecarga adicional nos times técnicos.

    Embora ferramentas tradicionais de Business Intelligence (BI) tenham evoluído significativamente, ainda existem lacunas quando usuários precisam explorar dados além das análises pré-configuradas. Uma solução customizada de text-to-SQL preenche essa lacuna, operando diretamente contra o esquema do seu data warehouse e incorporando contexto de negócio recuperado dinamicamente.

    Os Desafios que Justificam uma Abordagem Customizada

    A Barreira da Expertise em SQL

    A maioria dos usuários de negócio não possui conhecimento técnico de SQL. Perguntas aparentemente simples frequentemente exigem múltiplas junções entre tabelas, cálculos temporais complexos e agregações hierárquicas. Esse cenário cria um gargalo: usuários aguardam relatórios customizados enquanto analistas gastariam tempo valioso respondendo requisições repetitivas, em vez de se dedicarem a análises estratégicas.

    Os Limites das Ferramentas Modernas de BI

    Ferramentas contemporâneas de BI avançaram bastante em consultas em linguagem natural e análise de autoatendimento. Contudo, essas capacidades funcionam melhor quando confinadas a camadas semânticas pré-curadas, conjuntos de dados governados ou dashboards pré-modelados. Quando um usuário precisa explorar além desses limites — realizando junções pontuais, aplicando cálculos organizacionais específicos ou consultando tabelas não incluídas na camada semântica — ainda enfrenta restrições que demandam intervenção técnica.

    A Lacuna de Contexto e Semântica

    Traduzir terminologia de negócio em consultas de banco de dados corretas é desafiador. Termos como “atingimento”, “pipeline” e “previsão” carregam lógica de cálculo única, fontes de dados específicas e regras de negócio que variam conforme a organização. Compreender quais tabelas devem ser combinadas, como métricas são definidas e quais filtros aplicar exige conhecimento institucional profundo que muitos usuários não possuem. Uma solução efetiva precisa codificar esse contexto de negócio — princípios estratégicos, regras de segmentação de clientes, processos operacionais — permitindo que usuários tomem decisões orientadas por dados sem dominar schemas complexos.

    Como Funciona: A Experiência do Usuário

    Considere um usuário de negócio que formula uma pergunta através de uma interface conversacional: “Como a receita está evoluindo este ano em relação ao ano passado por segmento de cliente?” Em questão de segundos, o sistema realiza as seguintes operações:

    Compreensão da Pergunta

    O sistema classifica se a questão é uma consulta simples ou se requer decomposição em múltiplas etapas. No exemplo acima, reconhece que “tendência de receita”, “comparação ano a ano” e “principais segmentos de cliente” são componentes distintos que demandam passos de recuperação de dados separados.

    Recuperação de Contexto de Negócio

    O sistema consulta um grafo de conhecimento que codifica definições de métricas, terminologia de negócio, relacionamentos entre tabelas e regras de dados específicas da organização. Sabe o que “receita” significa no contexto da empresa, quais tabelas a contêm e como “segmento de cliente” é definido.

    Geração e Validação de SQL

    Gera uma consulta SQL estruturada, valida sua correção e segurança usando verificações determinísticas e a executa contra o data warehouse. Se a validação identificar um problema, a consulta é automaticamente revisada e executada novamente, sem necessidade de intervenção humana.

    Síntese da Resposta

    Os resultados brutos da consulta são transformados em narrativa em linguagem natural, fornecendo ao usuário tanto o insight quanto a transparência necessária para confiar no resultado.

    Arquitetura da Solução

    Para entregar essa experiência, a solução integra três capacidades principais:

    • Modelos de fundação (FM) em Amazon Bedrock para compreensão de linguagem natural e geração de SQL
    • Recuperação Aumentada por Grafos de Conhecimento (GraphRAG) para recuperação de contexto de negócio
    • Data warehouses de alto desempenho para execução rápida de consultas

    O Amazon Bedrock desempenha um papel central, fornecendo tanto a camada de inferência de modelo de linguagem de grande escala (LLM) quanto o runtime de orquestração de agentes. A plataforma oferece acesso a um amplo portfólio de modelos de fundação, permitindo que equipes selecionem e troquem modelos conforme evoluem os requisitos de desempenho, custo e latência, sem necessidade de redesenho arquitetural.

    Imagem original — fonte: Aws

    O Amazon Bedrock AgentCore Runtime funciona como camada central de orquestração, hospedando um agente supervisor que coordena todo o fluxo de trabalho. Roteia perguntas de usuários, invoca ferramentas de busca GraphRAG para recuperação de contexto, aplica segurança em nível de linha, dispara geração e validação de SQL e executa consultas contra um banco de dados como o Amazon Redshift. O runtime oferece suporte a múltiplos pontos de entrada, incluindo protocolos MCP e HTTP, possibilitando integração tanto com superfícies de análise integradas como o AWS QuickSight quanto com interfaces web customizadas.

    O Amazon Bedrock AgentCore também fornece observabilidade integrada, alimentando traces de execução de agentes e métricas de desempenho no Amazon CloudWatch para monitoramento, depuração e otimização contínua. Esse runtime gerenciado elimina o trabalho indiferenciado de construir infraestrutura customizada de agentes, permitindo que equipes se concentrem em lógica de negócio, ajuste de prompts e enriquecimento de conhecimento de domínio.

    Os Cinco Estágios do Fluxo de Trabalho

    Estágio 1: Análise e Decomposição da Pergunta

    Quando uma pergunta chega, o processador de questões a classifica inicialmente. Perguntas diretas e factuais como “Qual foi a receita total no Q4?” são roteadas diretamente ao pipeline de recuperação de dados. Perguntas complexas ou com múltiplas partes são decompostas em subperguntas independentes que podem ser processadas em paralelo por equipes de agentes separadas. Esse passo de decomposição permite que o sistema trabalhe com perguntas analíticas sofisticadas que abrangem múltiplos domínios de dados, períodos de tempo ou dimensões de negócio.

    Estágio 2: Recuperação de Contexto via Grafo de Conhecimento e GraphRAG

    Este é o estágio que resolve a barreira de contexto — e representa o diferencial mais crítico frente a abordagens naive de text-to-SQL. Um grafo de conhecimento construído sobre Amazon Neptune e Amazon OpenSearch Service funciona como fundação semântica. Armazena a ontologia de tabelas da organização e captura relacionamentos entre entidades de negócio, métricas, terminologia e hierarquias organizacionais.

    Criaticamente, esse grafo é enriquecido com conhecimento de domínio — proprietários de tabelas e especialistas em assunto fornecem descrições específicas do negócio, definições de métricas, mapeamentos de terminologia e tags de classificação carregadas a partir de arquivos de configuração estruturados.

    Quando o sistema processa uma pergunta, realiza uma busca GraphRAG leve em três fases:

    • Busca vetorial (usando Amazon OpenSearch Service): Localiza valores de coluna, nomes de coluna e descrições de tabelas semanticamente relevantes que correspondem aos conceitos na pergunta do usuário.
    • Traversal do grafo (usando Amazon Neptune): Segue relacionamentos no grafo de conhecimento, desde valores correspondidos até suas colunas-pai e tabelas-pai, construindo uma visão completa de quais ativos de dados são relevantes e como se conectam.
    • Scoring de relevância e filtragem: Classifica e estrutura o contexto recuperado para que o gerador de SQL receba precisamente as informações necessárias — as tabelas certas, as colunas certas, os caminhos de junção corretos e a lógica de negócio apropriada.

    O grafo de conhecimento e seus dados associados são atualizados regularmente para refletir mudanças de schema, novas tabelas e evoluções nas definições de negócio. Quanto mais rica essa camada contextual, mais precisa torna-se a geração de SQL subsequente.

    Estágio 3: Geração de SQL Estruturada e Validação

    O sistema utiliza os recursos de chamadas de função do Amazon Bedrock para produzir consultas SQL como dados estruturados. Isso impõe formatos de saída rigorosos, elimina a necessidade de pós-processamento frágil ou expressões regulares complexas e melhora significativamente a confiabilidade.

    As consultas geradas passam por validadores SQL determinísticos operando no nível de Árvore de Sintaxe Abstrata (AST). Esses validadores identificam proativamente operações potencialmente arriscadas — consultas sintaticamente corretas mas semanticamente perigosas (por exemplo, varreduras sem limite, filtros faltantes, lógica de agregação incorreta).

    Quando um validador identifica um problema, retorna feedback detalhado explicando a questão e sugerindo uma revisão. Para aumentar ainda mais a robustez, todo o ciclo é encapsulado em um agente de geração SQL leve que itera automaticamente até produzir uma consulta válida e executável ou atingir um limite configurável de tentativas. Essa abordagem visa entregar confiabilidade significativamente superior à engenharia de prompts isolada.

    Estágio 4: Computação Paralela em Tempo de Teste

    Para perguntas ambíguas ou complexas, o sistema pode gerar múltiplas respostas potenciais ou caminhos de raciocínio simultaneamente, submetendo a mesma pergunta a agentes em paralelo. Resultados são sintetizados através de votação majoritária, selecionando o resultado mais confiável. Isso é particularmente valioso para perguntas passíveis de múltiplas interpretações e melhora significativamente tanto a acurácia quanto a robustez.

    Estágio 5: Síntese da Resposta

    Resultados brutos de consulta — incluindo números, dataframes e logs de execução — são sintetizados em narrativas em linguagem natural que usuários recebem como respostas acionáveis. Transparência total é mantida: usuários podem inspecionar o SQL gerado e dados subjacentes a qualquer momento, construindo confiança nos outputs do sistema.

    Estratégias para Resultados em Ambiente de Produção

    Permitir que Usuários Finais Moldem os Prompts

    Mesmo entre usuários experientes, interpretações padrão divergem para termos ambíguos e expectativas variam para perguntas vagas. Recomenda-se construir uma interface de customização — como uma aplicação web — permitindo que proprietários de tabelas e usuários avançados designados personalizem prompts dentro de limites governados. Customizações devem passar por guardrails de validação que reforçam políticas de conteúdo, restringem tentativas de prompt injection e garantem que modificações permaneçam dentro de templates e parâmetros aprovados.

    Essa capacidade de customização prova-se essencial para alcançar a compreensão nuançada que domínios de negócio diferentes demandam. Sua solução deve acomodar essas variações em vez de impor uma abordagem única e padronizada.

    Validação de SQL como Camada Crítica de Segurança

    Engenharia de prompts isolada não consegue eliminar erros que produzem SQL sintaticamente válido mas semanticamente incorreto. Esses erros são particularmente perigosos pois retornam resultados que parecem plausíveis, podendo silenciosamente deteriorar confiança do usuário ou alimentar decisões incorretas. Como SQL é uma linguagem bem-definida, validadores determinísticos conseguem capturar uma ampla classe desses erros antes que a consulta chegue ao banco de dados.

    Priorize-a como um mecanismo de segurança inegociável.

    Otimização Agressiva para Latência

    Usuários acostumados com IA conversacional esperam respostas quase instantâneas. Embora recuperar dados ao vivo e executar cálculos necessariamente demande mais tempo que responder de uma base de conhecimento estática, a latência ainda deve ser gerenciada ativamente como preocupação crítica de experiência do usuário.

    Análise de desempenho revela que o fluxo de trabalho envolve múltiplos passos, e o tempo cumulativo através deles representa a maior oportunidade em relação ao tempo de execução SQL isoladamente. Para otimizar, foque em:

    • Execução de agentes em paralelo — Processe perguntas com múltiplas partes concorrentemente em vez de sequencialmente. Isso pode reduzir drasticamente o tempo total para consultas complexas.
    • Armazenamento analítico de alto desempenho — Use bancos de dados orientados por colunas que se destacam em cargas de trabalho pesadas em agregação, típicas em BI.
    • Otimização de tokens — Minimize tokens de entrada e saída por interação de agente através de otimização de prompt e padronização de formato de resposta. Reduza dependência de frameworks agentic baseados em chamadas de ferramentas, onde cada chamada força o agente a reingerir contexto crescente.

    Com essas otimizações, em implantações observadas, consultas SQL simples são tipicamente geradas em aproximadamente 3 a 5 segundos. Tempos de resposta reais variarão conforme fatores como desempenho de data warehouse, complexidade de consulta, seleção de modelo e tamanho do grafo de conhecimento. Recomenda-se fazer benchmark contra seu próprio ambiente para estabelecer alvos realistas de latência para análise de negócio interativa.

    Construir Segurança e Governança desde o Início

    Implemente integração de Segurança em Nível de Linha (RLS) para que usuários visualizem apenas dados aos quais estão autorizados a acessar. O sistema mantém tabelas de direitos compostas que aplicam políticas de controle de acesso originadas de sistemas organizacionais existentes. Quando um usuário submete uma consulta, filtros RLS apropriados são automaticamente injetados no SQL gerado antes da execução.

    Projetar essa camada para respeitar padrões rígidos de governança de dados sem adicionar fricção à experiência do usuário é essencial.

    Resultados e Impacto

    Após seguir a arquitetura e estratégias apresentadas, uma solução text-to-SQL consegue entregar melhorias significativas em acessibilidade de dados e produtividade analítica:

    • Velocidade — Respostas para perguntas de negócio complexas em minutos, comparado a horas ou dias com abordagens tradicionais. Perguntas exigindo múltiplas junções, cálculos temporais e agregações hierárquicas — que previamente demandavam desenvolvimento SQL customizado — tornam-se acessíveis via linguagem natural.
    • Democratização analítica — Usuários não técnicos em operações de vendas, planejamento financeiro e liderança executiva conseguem realizar análise de dados sofisticada sem expertise SQL. Isso tipicamente reduz a carga de trabalho analítico em times de engenharia de dados, permitindo que se dediquem a iniciativas estratégicas em vez de requisições de consulta repetitivas.
    • Suporte a consultas complexas — Análise multidimensional de receita com segmentação automática, tendências ano a ano e mês a mês com explicações de variância, inteligência de cliente em níveis granulares com padrões de uso, análise de variância de previsão com comparações de meta e benchmarking cross-funcional através de períodos e unidades de negócio.

    O Futuro das Consultas Conversacionais a Dados

    Soluções text-to-SQL movidas por Amazon Bedrock representam um avanço significativo em tornar análise de dados acessível a usuários de negócio. A arquitetura multi-agente usando Amazon Bedrock Agents oferece suporte a decomposição complexa de consultas e processamento paralelo, enquanto grafos de conhecimento fornecem contexto de negócio e compreensão semântica. Juntos, esses componentes entregam análise precisa, rápida e acessível que empoderam usuários a tomar decisões orientadas por dados sem barreiras técnicas.

    Ao construir sua própria solução, considere expandir cobertura do grafo de conhecimento para domínios adicionais de negócio, otimizar latência de resposta através de estratégias avançadas de cache e integração com mais fontes de dados empresariais. Os Amazon Bedrock Guardrails oferecem capacidades aprimoradas de validação de output e segurança que valem exploração, enquanto o Amazon Bedrock Flows fornece padrões de orquestração sofisticados para fluxos de trabalho agentic.

    A flexibilidade de modelos de fundação, capacidades de orquestração de agentes e integração de base de conhecimento disponíveis através do Amazon Bedrock continuam evoluindo, tornando análise de dados progressivamente mais intuitiva e poderosa para usuários de negócio através de organizações.

    Próximos Passos

    Para construir sua própria solução text-to-SQL, explore o Amazon Bedrock User Guide, participe de um Amazon Bedrock Workshop e revise o guia sobre Building generative AI agents with Amazon Bedrock. Para os desenvolvimentos mais recentes, visite What’s New with AWS.

    Fonte

    Text-to-SQL solution powered by Amazon Bedrock (https://aws.amazon.com/blogs/machine-learning/text-to-sql-solution-powered-by-amazon-bedrock/)

  • Defesas de IA em Escala: Construindo Proteções Antes das Ameaças Emergirem

    A Escala da Proteção: IA na Vanguarda da Segurança

    Ao longo de décadas, a AWS desenvolveu processos e ferramentas sofisticadas para defender milhões de clientes simultaneamente, independentemente de onde operem no planeta. Por trás das cortinas, seus times de segurança e inteligência de ameaças realizam diariamente trabalhos com IA e automação que a maioria das pessoas nunca vê.

    Os números revelam o alcance dessa operação: o sistema de análise de logs alimentado por IA da empresa conseguiu reduzir de seis horas para sete minutos o tempo que engenheiros de SecOps (Segurança de Operações) gastam analisando registros de segurança — um aumento de produtividade de 50 vezes que permite detectar e responder a ameaças com velocidade sem precedentes.

    A plataforma analisa mais de 400 trilhões de fluxos de rede por dia para identificar padrões que sinalizam ameaças emergentes. Apenas em 2025, bloqueou mais de 300 milhões de tentativas de criptografar maliciosamente arquivos de clientes hospedados no Amazon S3. Nesse ecossistema, cada ameaça detectada para um cliente fortalece as defesas para todos os outros — e a IA já é central nesse funcionamento.

    Uma Nova Classe de IA para Cibersegurança

    A Anthropic anunciou recentemente o Project Glasswing, uma iniciativa de cibersegurança concebida para proteger a infraestrutura de software mais crítica do mundo e avançar nas práticas que o setor precisará à medida que a IA se torna mais capaz. Organizações que desenvolvem ou mantêm infraestrutura digital crítica estão recebendo acesso antecipado ao Claude Mythos Preview, uma nova classe de modelo de IA criada para identificar e corrigir vulnerabilidades nos sistemas dos quais o mundo depende.

    Como instituição responsável por proteger algumas das infraestruturas mais essenciais do planeta, a AWS desempenha papel integral em avançar esse trabalho. A força propulsora por trás do projeto é o Claude Mythos Preview, o modelo de IA mais avançado da Anthropic até o momento — um salto qualitativo em capacidades de raciocínio e IA aplicadas à cibersegurança. Ele representa uma classe de modelo fundamentalmente nova: mais inteligente e capaz que os modelos anteriores da empresa, com desempenho superior em tarefas de cibersegurança, codificação de software e raciocínio complexo.

    A AWS já aplicou o Claude Mythos Preview a bases de código críticas próprias que sofrem revisões de segurança contínuas alimentadas por IA. Mesmo em ambientes bem testados, o modelo identificou oportunidades adicionais para fortalecer o código. Em testes internos, o Claude Mythos Preview provou ser mais produtivo que modelos anteriores ao descobrir achados de segurança, requerendo menos orientação manual dos engenheiros para entregar resultados acionáveis.

    A empresa também concedeu acesso antecipado a um grupo selecionado de clientes, que estão implantando o Claude Mythos Preview em seus próprios fluxos de trabalho de segurança e ajudando a moldar a evolução do modelo. Para a AWS, trata-se de uma extensão natural das ferramentas de IA que já utiliza — e conforme a tecnologia se torna mais poderosa, as defesas também devem evoluir.

    A Parceria AWS e Anthropic

    A AWS é o provedor de nuvem principal da Anthropic para cargas de trabalho críticas, pesquisa de segurança e desenvolvimento de modelos de fundação. Mais amplamente, a plataforma fornece a infraestrutura que as empresas de IA líderes mundiais usam para construir, treinar e implantar seus modelos mais avançados. A AWS traz duas décadas de experiência em segurança para essa parceria, ajudando a garantir que o Claude Mythos Preview esteja pronto para ainda mais organizações construírem e operarem com segurança em grande escala.

    O Claude Mythos Preview sinaliza uma onda próxima de modelos capazes de encontrar vulnerabilidades e construir exploits funcionais numa escala e velocidade nunca vista antes. A Anthropic e a AWS adotam uma abordagem deliberadamente cautelosa no lançamento. O acesso começa com um pequeno número de organizações, priorizando empresas críticas para a internet e mantenedores de código aberto cujo software e serviços digitais impactam centenas de milhões de usuários. O objetivo: encontrar e corrigir vulnerabilidades no software mais crítico do mundo.

    O Claude Mythos Preview está disponível em preview de pesquisa com portão através do Amazon Bedrock com controles de segurança de nível empresarial, incluindo criptografia gerenciada pelo cliente, isolamento de VPC (Nuvem Privada Virtual) e logging detalhado — permitindo que os times explorem as capacidades do Claude Mythos Preview sem expor ativos de produção a riscos desnecessários.

    Arquitetura de Segurança: Princípios que Escalam

    O trabalho com Project Glasswing está fundamentado em uma filosofia que a AWS desenvolveu ao longo de duas décadas protegendo cargas de trabalho críticas: não se pode esperar as ameaças se materializarem antes de construir defesas. É preciso antecipar, adotar novas tecnologias, construir proteções primeiro, implantá-las em operações próprias em grande escala e refiná-las com base no aprendizado obtido. É exatamente isso que a AWS fez com IA e segurança.

    Sua abordagem abrange o espectro completo: defesa proativa por meio de busca de ameaças e pesquisa de vulnerabilidades, resposta dinâmica a campanhas ativas e certificações de terceiros que verificam se as práticas de segurança atendem aos padrões mais altos do setor. Essa experiência operacional ensinou onde a IA acelera o trabalho de segurança e onde o julgamento humano permanece essencial — reforçando que inovação em segurança deve ser pragmática: comprovada em produção antes de pedir que clientes dependam dela.

    Padrões e Certificações

    É por isso que a AWS também ajuda a definir como deve ser a IA segura. Tornou-se o primeiro grande provedor de nuvem a conquistar certificação ISO 42001 (Padrão Internacional de Gestão de IA) para serviços de IA. Participa ativamente da OWASP (Projeto Aberto de Segurança de Aplicações Web), da Coalition for Secure AI (Coligação pela IA Segura) e do Frontier Model Safety Framework (Marco de Segurança de Modelos de Fronteira). E co-fundou o Open Cybersecurity Schema Framework (OCSF — Marco de Schema Aberto de Cibersegurança) para possibilitar melhor compartilhamento de inteligência de ameaças em todo o ecossistema.

    O AWS Nitro System oferece isolamento matemático para cargas de trabalho. Sua arquitetura de acesso zero de operadores significa que pessoal da AWS não pode acessar dados dos clientes. Estas não são aspirações — é como a empresa opera hoje, em escala, todos os dias. O Amazon Bedrock é onde esses princípios ganham vida prática para IA. Fornece controles de acesso aplicados por política, ferramentas de avaliação integradas para medir a eficácia com que modelos identificam e validam vulnerabilidades, além da capacidade de executar cargas de trabalho dentro da nuvem privada virtual do cliente.

    A AWS também é o primeiro provedor de nuvem a conquistar autorizações FedRAMP (Programa Federal de Gestão de Risco e Autorização) High e Department of Defense Security Requirements Guide (Guia de Requisitos de Segurança do Departamento de Defesa) Impact Levels 4 e 5 para modelos de fundação Claude geralmente disponíveis — reforçando que o Amazon Bedrock é onde organizações mais sensíveis em segurança já confiam na tecnologia da Anthropic.

    Ferramentas Práticas para Fortalecer a Postura de Segurança

    Os mesmos princípios que orientam o trabalho em escala na AWS aplicam-se independentemente de quais ferramentas de IA se está utilizando: observabilidade abrangente, defesa em profundidade, automação onde agrega valor e julgamento humano onde é essencial.

    Preparação para a Próxima Geração de Segurança de IA

    O Claude Mythos Preview sinaliza uma onda próxima de modelos de IA que transformarão a cibersegurança. Organizações devem começar a fortalecer sua postura de segurança agora, preparando-se para quando essas capacidades se tornarem mais amplamente disponíveis. O Claude Mythos Preview está disponível em preview com portão através do Amazon Bedrock, e o acesso é limitado a um allow-list inicial de organizações. Se a organização foi colocada na allow-list, o time de conta da AWS entrará em contato diretamente.

    Testes de Penetração sob Demanda com AWS Security Agent

    O AWS Security Agent, agora geralmente disponível, oferece testes de penetração autônomos que operam 24/7 a uma fração do custo dos testes de penetração manuais. Transforma testes de penetração de um gargalo periódico em uma capacidade sob demanda que cresce com a velocidade de desenvolvimento em AWS, Azure, GCP (Google Cloud Platform), outros provedores de nuvem e ambiente local.

    O AWS Security Agent representa uma nova classe de agentes de fronteira: sistemas autônomos que trabalham independentemente para atingir objetivos, escalam para lidar com tarefas simultâneas e rodam persistentemente sem supervisão humana constante. Implanta agentes de IA especializados para descobrir, validar e relatar vulnerabilidades de segurança através de cenários de ataque sofisticados e multi-etapas.

    Diferentemente de scanners tradicionais que geram achados sem validação, o AWS Security Agent identifica vulnerabilidades potenciais e depois tenta explorá-las com payloads direcionados e cadeias de ataque para confirmar que são riscos de segurança legítimos. Cada achado inclui pontuações de risco CVSS (Sistema Comum de Avaliação de Vulnerabilidade), classificações de severidade específicas da aplicação, etapas de reprodução detalhadas e sugestões de remediação. O resultado: testes de penetração que antes levavam semanas agora se completam em horas, e cobertura de segurança que cresce por toda carteira de aplicações, não apenas sistemas mais críticos.

    Clientes novos podem explorar o AWS Security Agent com um teste gratuito de dois meses.

    Construir Aplicações de IA Confiáveis com Amazon Bedrock

    Para times construindo com IA generativa, o desafio não é apenas fazer IA funcionar — é fazer IA funcionar com segurança. O Amazon Bedrock fornece os controles de segurança e proteção que se precisa para implantar IA responsavelmente. Sua capacidade de Raciocínio Automatizado é a primeira e única salvaguarda de IA a usar lógica formal para ajudar a prevenir erros factuais decorrentes de alucinações de IA, fornecendo explicações verificáveis com acurácia de 99% — capacidade refinada ao longo de mais de uma década aplicando métodos formais em armazenamento, identidade e rede da AWS.

    O Amazon Bedrock também oferece guardrails personalizáveis que bloqueiam conteúdo prejudicial e aplicam políticas de conteúdo próprias, junto com observabilidade abrangente para rastrear comportamento de IA e detectar anomalias em cargas de trabalho.

    A Urgência do Momento

    O cenário de ameaças não está aguardando que a indústria se atualize. Atores de nível de estado-nação, operadores de ransomware (sequestro de dados) e atacantes de cadeia de suprimentos já estão usando IA para escalar suas operações. A tarefa de seguradores é manter a frente construindo defesas primeiro, implantando-as em escala e compartilhando o que se aprende para que toda comunidade se beneficie.

    É o que a AWS faz todos os dias: prova que tecnologia funciona em suas próprias operações antes de pedir que clientes dependam dela, estabelece padrões em vez de segui-los, e antecipa os desafios de amanhã para abordá-los hoje. Conforme capacidades de IA continuam evoluindo, essa abordagem não mudará. A empresa seguirá construindo defesas primeiro, refinando-as em escala, e trabalhando com parceiros como a Anthropic para garantir que a próxima geração de ferramentas de segurança de IA atenda às necessidades reais de empresas defendendo nesta escala.

    Recursos para Aprofundamento

    Fonte

    Building AI defenses at scale: Before the threats emerge (https://aws.amazon.com/blogs/security/building-ai-defenses-at-scale-before-the-threats-emerge/)

  • Amazon SageMaker agora oferece fluxos de trabalho serverless em domínios do Identity Center

    Novidade no SageMaker: Fluxos de Trabalho Serverless para Identity Center

    A AWS anunciou a adição de uma funcionalidade importante ao Amazon SageMaker Unified Studio: suporte a fluxos de trabalho serverless em domínios do Identity Center (Centro de Identidades). Essa expansão democratiza o acesso a uma capacidade que, até então, estava disponível apenas para domínios baseados em IAM (Gerenciamento de Identidade e Acesso).

    O que são Fluxos de Trabalho Serverless?

    Os fluxos de trabalho serverless permitem que usuários orquestrem tarefas de processamento de dados utilizando Apache Airflow através do Managed Workflows for Apache Airflow, sem a necessidade de provisionar ou gerenciar manualmente a infraestrutura do Airflow. Esse modelo simplifica significativamente o trabalho dos engenheiros de dados e cientistas de dados que precisam coordenar pipelines complexos.

    Vantagens para Clientes do Identity Center

    O grande diferencial dessa solução é a eficiência operacional. Os fluxos de trabalho provisionam automaticamente os recursos de computação quando uma execução é iniciada e os liberam quando ela é concluída. Essa abordagem garante que você pague apenas pelo tempo de execução real do seu fluxo de trabalho, eliminando custos com infraestrutura ociosa.

    Além disso, cada fluxo de trabalho executa com sua própria função de execução e um worker isolado, oferecendo segurança em nível de fluxo de trabalho e prevenindo interferências entre diferentes processos. Essa arquitetura protege seus dados e garante a integridade das operações.

    Experiência Visual e Integrações Integradas

    Os clientes do Identity Center agora também têm acesso à experiência visual de fluxo de trabalho com suporte para aproximadamente 200 operadores. O Amazon SageMaker Unified Studio vem com integrações nativas para diversos serviços AWS, incluindo Amazon S3, Amazon Redshift, Amazon EMR, AWS Glue e Amazon SageMaker AI. Isso significa que você pode construir pipelines sofisticados conectando esses serviços sem escribar código complexo de integração.

    Disponibilidade e Próximos Passos

    Os fluxos de trabalho serverless em domínios do Identity Center estão disponíveis em todas as regiões AWS onde o SageMaker Unified Studio é suportado. Para aprofundar seu conhecimento técnico e explorar as capacidades completas dessa funcionalidade, você pode consultar a documentação detalhada sobre fluxos de trabalho serverless.

    Por que isso importa para equipes brasileiras?

    Essa novidade reduz a barreira de entrada para empresas brasileiras que desejam modernizar seus pipelines de dados na nuvem. Com menos complexidade operacional e uma interface visual intuitiva, organizações podem focar em entregar valor através dos dados, em vez de gastar recursos em administração de infraestrutura. Para startups e empresas que crescem rapidamente, o modelo de precificação pay-as-you-go dos fluxos serverless oferece flexibilidade financeira e escalabilidade sem surpresas orçamentárias.

    Fonte

    Amazon SageMaker adds serverless workflows to Identity Center domains (https://aws.amazon.com/about-aws/whats-new/2026/04/amazon-sagemaker-serverless-workflows/)

  • AWS Cost Explorer agora oferece consultas em linguagem natural com Amazon Q

    Consultas em linguagem natural chegam ao Cost Explorer

    A AWS anunciou a integração de capacidades de inteligência artificial generativa do Amazon Q diretamente ao AWS Cost Explorer, transformando a forma como equipes analisam seus custos e gastos na nuvem. Agora é possível utilizar perguntas em linguagem natural para fazer buscas sobre dados de custos e uso, reduzindo significativamente o tempo necessário para obter insights valiosos.

    Essa integração vai além de simplesmente responder perguntas. Quando o Amazon Q fornece insights, o Cost Explorer atualiza automaticamente suas visualizações, gráficos, filtros e agrupamentos conforme necessário. Isso elimina a necessidade de configurações manuais e cria uma experiência fluida, onde a análise acontece sem interrupções ou mudanças de ferramenta.

    Como funciona na prática

    Prompts sugeridos para começar

    Para facilitar o primeiro contato com o novo recurso, o Cost Explorer apresenta prompts sugeridos que contemplam perguntas frequentes sobre custos. Um exemplo é “Mostre meus principais serviços por gasto neste mês”, que oferece uma forma rápida de iniciar a análise. O Amazon Q responde com informações detalhadas enquanto o Cost Explorer atualiza a visualização correspondente, os filtros e os agrupamentos em tempo real.

    Perguntas customizadas e conversas contínuas

    Além dos prompts sugeridos, usuários podem fazer perguntas personalizadas usando o botão ‘Fazer uma Pergunta’. Isso permite explorar padrões de gastos de forma conversacional, sem restrições. Enquanto investiga custos baseados em dados de uso, o Cost Explorer atualiza automaticamente gráficos e tabelas. Quando o Amazon Q precisa compilar insights de conjuntos de dados adicionais — como informações de preços ou detecção de anomalias — as visualizações aparecem em um novo painel de artefatos do Amazon Q.

    A conversa permanece contextualizada ao longo de toda a sessão. Isso significa que é possível passar de uma verificação rápida de custos para uma investigação profunda mantendo o histórico completo da conversa, sem necessidade de alternar entre ferramentas ou perder o contexto da análise.

    Disponibilidade e próximos passos

    A análise de custos em linguagem natural para o AWS Cost Explorer está disponível hoje em todas as regiões comerciais da AWS, sem cobrança adicional. Para aproveitar o novo recurso, acesse AWS Cost Explorer ou consulte o guia do usuário para instruções detalhadas de uso.

    Fonte

    AWS Cost Explorer launches Natural Language Query capabilities powered by Amazon Q (https://aws.amazon.com/about-aws/whats-new/2026/04/aws-cost-explorer-natural-language-query/)

  • Amazon Bedrock agora oferece Claude Mythos Preview em acesso restrito

    Novo modelo de IA para segurança em larga escala

    A AWS expandiu o portfólio do Amazon Bedrock, sua plataforma para construir aplicações e agentes de IA generativa em escala de produção, com a inclusão do Claude Mythos Preview em acesso restrito. Anunciado em abril de 2026, este modelo representa uma colaboração estratégica entre Anthropic e AWS no contexto do Project Glasswing.

    Capacidades técnicas avançadas

    O Claude Mythos Preview é apresentado como o modelo de IA mais avançado da Anthropic até o momento, definido como uma classe fundamentalmente nova de modelo com capacidades de ponta em três áreas críticas: cibersegurança, desenvolvimento de software e tarefas de raciocínio complexo.

    A proposta diferencial está na capacidade de identificar vulnerabilidades sofisticadas em software e demonstrar sua exploração. O modelo consegue compreender grandes bases de código e entregar descobertas viáveis com menos orientação manual em comparação com modelos anteriores de IA, representando um avanço significativo em automação de análise de segurança.

    Implicações para equipes de segurança

    Para equipes de defesa cibernética, o Claude Mythos Preview promete acelerar trabalhos defensivos, permitindo identificação e correção mais rápida de vulnerabilidades em software crítico. A capacidade de encontrar e remediação de problemas antes que ameaças materializem oferece uma abordagem proativa ao invés de reativa.

    Estratégia cautelosa de lançamento

    Anthropic e AWS adotaram uma abordagem deliberadamente conservadora para o lançamento. O acesso inicial foi priorizado para empresas críticas à internet e mantenedores de código aberto cujo software e serviços digitais impactam centenas de milhões de usuários. Esta estratégia oferece aos defensores oportunidade de fortalecer seus códigos e compartilhar aprendizados, permitindo que toda a indústria se beneficie.

    Disponibilidade e acesso

    O Claude Mythos Preview está disponível em acesso restrito na região US East (N. Virginia) através do Amazon Bedrock. O acesso é limitado a uma lista inicial permitida de organizações. Organizações selecionadas receberão contato direto da equipe de conta AWS para ativação.

    Para compreender melhor as implicações desta anúncio para o futuro da cibersegurança, a AWS disponibiliza perspectivas adicionais em Building AI Defenses at Scale: Before the Threats Emerge.

    Fonte

    Amazon Bedrock now offers Claude Mythos Preview (Gated Research Preview) (https://aws.amazon.com/about-aws/whats-new/2026/04/amazon-bedrock-claude-mythos/)

  • AWS Lambda expande suporte a streaming de respostas para todas as regiões comerciais

    Streaming de Respostas do Lambda agora disponível globalmente

    A AWS expandiu o suporte ao streaming de respostas do Lambda para todas as suas regiões comerciais, alcançando paridade completa desse recurso em toda sua infraestrutura global. Clientes nas regiões recém-suportadas agora podem utilizar a API InvokeWithResponseStream para transmitir progressivamente as respostas de funções Lambda de volta aos clientes conforme os dados ficam disponíveis.

    Como funciona o streaming de respostas

    O streaming de respostas permite que funções Lambda enviem respostas parciais aos clientes de forma incremental, em vez de acumular toda a resposta em memória antes de transmiti-la. Essa abordagem traz benefícios significativos para aplicações sensíveis à latência, particularmente na redução do tempo até o primeiro byte (TTFB) — um fator crítico na experiência do usuário.

    Casos de uso ideais

    Esse recurso é especialmente adequado para aplicações baseadas em grandes modelos de linguagem (LLM), bem como para aplicativos web e mobile. Em cenários assim, os usuários se beneficiam de ver as respostas aparecerem progressivamente na tela, melhorando a percepção de responsividade da aplicação.

    Capacidades técnicas

    O streaming de respostas da AWS Lambda suporta:

    • Payloads de até 200 MB por padrão
    • Acesso através da API InvokeWithResponseStream via SDK da AWS suportados
    • Integração com Amazon API Gateway através de REST APIs com streaming habilitado
    • Runtimes gerenciados do Node.js e runtimes customizados

    Considerações de custo

    É importante saber que o streaming de respostas gera custos adicionais relacionados à transferência de rede da resposta. A cobrança ocorre com base na quantidade de bytes gerados e transmitidos pela função Lambda, considerando apenas os primeiros 6 MB. Isso permite um controle mais previsível dos custos em aplicações que transmitem grandes volumes de dados.

    Próximos passos

    Desenvolvedores interessados em implementar streaming de respostas nas funções Lambda podem consultar a documentação técnica do AWS Lambda para obter detalhes de implementação e boas práticas.

    Fonte

    AWS Lambda expands response streaming support to all commercial AWS Regions (https://aws.amazon.com/about-aws/whats-new/2026/04/aws-lambda-response-streaming/)

  • Podcasts conversacionais em tempo real com Amazon Nova 2 Sonic

    O desafio da produção de conteúdo em áudio

    Criadores de conteúdo e organizações enfrentam um desafio persistente: produzir áudio de alta qualidade em escala. A produção tradicional de podcasts exige investimento considerável de tempo — pesquisa, agendamento, gravação e edição — além de recursos substanciais como estúdios, equipamentos e talentos de voz. Essas restrições limitam a velocidade com que as organizações conseguem responder a novos tópicos ou escalar sua produção.

    O crescimento explosivo de podcasts transformou o medium de um nicho para formato de conteúdo mainstream. Essa expansão reflete a capacidade única dos podcasts de entregar informação durante atividades multitarefas — deslocamentos, exercício, afazeres domésticos — oferecendo acessibilidade que conteúdo visual não consegue alcançar.

    Contudo, a produção tradicional enfrenta desafios estruturais significativos:

    • Escalabilidade de conteúdo: Hosts humanos precisam de tempo extenso para pesquisa, agendamento, gravação e pós-produção, limitando frequência e volume de saídas.
    • Consistência: Hosts enfrentam conflitos de agendamento, doença, variações de energia e limitações de disponibilidade que criam cronogramas irregulares de publicação.
    • Personalização: Podcasts tradicionais seguem modelo único, incapazes de adaptar conteúdo a interesses ou níveis de conhecimento específicos em tempo real.
    • Eficiência de recursos: Produção de qualidade exige investimento contínuo em talento, equipamento, software de edição e custo operacional.
    • Acesso a especialistas: Garantir hosts conhecedores em diversos tópicos permanece desafiador e caro, restringindo amplitude e profundidade de conteúdo.

    Introdução ao Amazon Nova 2 Sonic

    A AWS desenvolveu o Amazon Nova 2 Sonic, um modelo de compreensão e geração de fala de última geração que oferece IA conversacional natural e humanizada com latência reduzida e desempenho de preço competitivo. O modelo processa entrada de fala e entrega saída de fala e transcrições de texto, criando conversas humanas com compreensão contextual rica.

    O Amazon Nova 2 Sonic oferece uma API de streaming para conversas multi-turno em tempo real e com baixa latência, permitindo que desenvolvedores construam aplicações orientadas por voz onde a fala impulsiona navegação, automação de fluxo de trabalho e conclusão de tarefas.

    Capacidades principais

    • Compreensão de fala com streaming: Processa e responde a fala em tempo real com latência reduzida.
    • Seguimento de instruções: Executa comandos de voz complexos e multi-etapas.
    • Invocação de ferramentas: Chama funções externas e APIs durante conversas.
    • Interação multi-modal: Alterna perfeitamente entre entrada/saída de voz e texto.
    • Suporte multilíngue: Nativo em inglês, francês, italiano, alemão, espanhol, português e hindi.
    • Janela de contexto grande: Suporta até 1 milhão de tokens para manter contexto de conversa estendida.

    O modelo é acessível através do Amazon Bedrock e pode ser integrado com recursos-chave da plataforma, incluindo Guardrails, Agents, Recuperação Aumentada por Geração (RAG) multimodal e Knowledge Bases para interoperabilidade contínua.

    A solução: gerador de podcasts live com Nova Sonic

    A AWS demonstra uma implementação prática que cria conversas naturais entre dois hosts de IA sobre qualquer tópico usando o modelo de fala para fala do Amazon Nova Sonic. Os usuários informam um tópico através de uma interface web, e a aplicação gera um diálogo multi-rodada com alternância de falantes transmitido em tempo real.

    Características principais da implementação

    • Geração de áudio com streaming em tempo real e latência reduzida.
    • Diálogo natural de mão dupla através de múltiplas rodadas de conversa.
    • Filtragem de conteúdo consciente de estágio que remove áudio duplicado.
    • Interface web simples com atualizações de conversa ao vivo.
    • Suporte para usuários simultâneos através de arquitetura AsyncIO.
    • Múltiplas personas de voz para diferentes casos de uso.

    Pré-requisitos

    Para implementar esta solução, os seguintes requisitos devem ser atendidos:

    • Conta AWS com acesso ao Amazon Bedrock e modelo Amazon Nova 2 Sonic.
    • Python 3.8 ou posterior.
    • Framework Flask e AsyncIO.
    • Credenciais AWS configuradas (chave de acesso, chave secreta, região AWS).
    • Ambiente de desenvolvimento com gerenciador pip.

    Detalhes de implementação e arquitetura

    Visão geral da arquitetura

    A solução segue uma arquitetura baseada em Flask com processamento de eventos de streaming e reativo, projetada para demonstrar as capacidades do Amazon Nova Sonic para fins de prova de conceito e educacional. Para amostras de código detalhadas e orientações de implementação completa, consulte o repositório no GitHub.

    Componentes da arquitetura

    A arquitetura segue uma abordagem em camadas com separação clara de responsabilidades:

    • Aplicação cliente: Hospeda três componentes fortemente acoplados que gerenciam o ciclo de vida completo do áudio. O motor PyAudio captura entrada de microfone em 16 kHz PCM e a transmite para o Amazon Bedrock. Também recebe áudio pronto para reprodução do fila de saída em 24 kHz PCM, tratando saída de falante em tempo real.
    • Processador de resposta: Recebe o fluxo de resposta bruto retornado pelo Amazon Nova Sonic, decodifica o payload de áudio codificado em Base64, e encaminha o áudio decodificado para a fila de saída.
    • Fila de saída de áudio: Atua como buffer entre o processador de resposta e o motor PyAudio, absorvendo respostas de latência variável e garantindo reprodução de áudio suave e ininterrupta.
    • Cloud AWS: Toda comunicação com modelo é executada através do Amazon Bedrock, que funciona como intermediário de um fluxo de evento bidirecional com Amazon Nova Sonic. O serviço recebe o fluxo de áudio PCM 16 kHz outbound do motor PyAudio e roteia para o modelo, carregando de volta o fluxo de resposta ao cliente. O Amazon Nova Sonic realiza inferência de fala para fala em tempo real e retorna um fluxo de resposta contendo áudio sintetizado codificado em Base64 PCM em 24 kHz.

    Nota sobre arquitetura em produção: Esta implementação usa Flask com PyAudio para fins de demonstração. O PyAudio não oferece cancelamento de eco integrado e é mais adequado para reprodução de áudio no servidor. Para aplicações web cliente em produção, recomenda-se bibliotecas de áudio baseadas em JavaScript (Web Audio API) ou WebRTC para tratamento de áudio nativo do navegador com melhor cancelamento de eco e latência reduzida. Consulte o repositório GitHub para padrões de arquitetura de produção.

    Integrações e componentes técnicos

    Integração com Amazon Bedrock: No coração do sistema está o BedrockStreamManager, um componente personalizado que gerencia conexões persistentes com o modelo Amazon Nova 2 Sonic. Este gerenciador lida com as complexidades das interações da API de streaming, incluindo inicialização, envio de mensagens e processamento de resposta. Credenciais AWS configuradas através de variáveis de ambiente mantêm acesso seguro ao modelo.

    Pipeline de streaming reativo: A aplicação utiliza RxPy (Reactive Extensions para Python) para implementar um padrão observável de tratamento de fluxos de dados em tempo real. Esta arquitetura reativa processa chunks de áudio e tokens de texto conforme chegam do Amazon Nova Sonic, em vez de aguardar respostas completas.

    Filtragem consciente de estágio: Uma inovação técnica-chave desta implementação é o mecanismo de filtragem consciente de estágio. O Amazon Nova 2 Sonic gera conteúdo em múltiplos estágios: ESPECULATIVO (preliminar) e FINAL (polido). A aplicação implementa lógica de filtragem inteligente que monitora eventos contentStart para metadados de estágio de geração, capturando apenas conteúdo no estágio FINAL para remover áudio duplicado ou preliminar, prevenindo artefatos de áudio para saída clara e natural.

    A filtragem opera em três níveis:

    • Filtro de conteúdo interrompido: Remove conteúdo cancelado verificando marcadores de interrupção.
    • Deduplicação de texto: Filtra texto exatamente duplicado entre estágios ESPECULATIVO e FINAL.
    • Deduplicação de hash de áudio: Filtra chunks de áudio duplicados usando fingerprinting de hash.

    Gerenciamento de conversa: O sistema implementa um modelo de conversa por turnos com múltiplas rodadas de diálogo. Cada turno segue um padrão consistente para fluxo natural de conversa: histórico é mantido através de variáveis específicas por falante para que cada falante possa referenciar o que foi dito anteriormente; prompts são construídos dinamicamente baseados em papel do falante e contexto de conversa; uma instância fresh de BedrockStreamManager é criada para cada turno de falante, prevenindo contaminação de estado entre turnos.

    Modelo de execução assíncrona: Para tratar a natureza bloqueante de reprodução de áudio e chamadas de API do modelo, a aplicação cria um novo event loop de asyncio para cada requisição de geração de podcast. Desta forma, múltiplos usuários podem gerar podcasts simultaneamente sem se bloquearem mutuamente. O loop gerencia inicialização de stream, envio de prompt, coordenação de reprodução de áudio e limpeza, suportando uso concorrente mantendo separação limpa entre sessões de usuário.

    Casos de uso

    Aprendizado interativo e compartilhamento de conhecimento

    Organizações lutam para criar conteúdo envolvente que ajude pessoas a aprender e reter informação, seja para educação de estudantes ou treinamento de funcionários. Instâncias do Amazon Nova 2 Sonic podem simular discussões de sala de aula ou diálogos socráticos, com uma instância fazendo perguntas enquanto a outra fornece explicações e exemplos. Para instituições educacionais, isto cria experiências dinâmicas de aprendizado que acomodam diferentes estilos e ritmos de aprendizagem. Para empresas, transforma comunicações internas — políticas, procedimentos, mudanças organizacionais — em formatos conversacionais que funcionários podem consumir enquanto multitarefam.

    Integração com Recuperação Aumentada por Geração (RAG) e Knowledge Bases do Amazon Bedrock mantém conteúdo atual e alinhado com currículo ou requisitos organizacionais, enquanto o formato conversacional aumenta retenção de informação e reduz perguntas de acompanhamento.

    Localização de conteúdo multilíngue

    Organizações globais precisam de mensagens consistentes entre mercados respeitando nuances culturais. O suporte do Amazon Nova Sonic para inglês, francês, italiano, alemão, espanhol, português e hindi permite criação de conteúdo de áudio localizado com conversas nativas. O modelo pode gerar discussões específicas de mercado que adaptam linguagem, referências culturais e estilos de comunicação, indo além de simples tradução para produzir conteúdo culturalmente relevante que ressoa com audiências locais. As capacidades de voz poliglota — vozes individuais que podem alternar entre idiomas dentro da mesma conversa — habilitam capacidades avançadas de alternância de código que tratam naturalmente sentenças com idiomas misturados. Isto é particularmente valioso para suporte ao cliente multilíngue e colaboração de equipes globais.

    Comentário de produtos e análises

    Plataformas de ecommerce precisam de formas envolventes de ajudar clientes a compreender produtos complexos. Instâncias do Amazon Nova 2 Sonic podem gerar análises de produtos conversacionais, com uma fazendo perguntas comuns de clientes enquanto a outra fornece respostas baseadas em especificações, análises de usuários e documentação técnica. Isto cria conteúdo acessível que ajuda clientes a avaliar produtos através de diálogo natural, com integração com catálogos de produtos garantindo precisão.

    Pensamento de liderança e análise de indústria

    Firmas de serviços profissionais precisam estabelecer liderança de pensamento através de conteúdo regular, mas produção de análise exige investimento significativo de tempo. Instâncias do Amazon Nova 2 Sonic podem engajar-se em discussões de nível especialista sobre tendências de indústria ou análise de mercado, com uma desafiando pressupostos enquanto a outra defende posições com dados. Isto permite que organizações reutilizem pesquisa existente em conteúdo de áudio acessível que alcança executivos ocupados que preferem formatos de áudio.

    Características de desempenho

    • Latência: Streaming com latência reduzida e reprodução de áudio imediata.
    • Duração do podcast: Duração flexível baseada em turnos de conversa (tipicamente 2-5 minutos).
    • Usuários simultâneos: Suporta múltiplas gerações simultâneas de podcast através de AsyncIO.
    • Qualidade de áudio: Síntese de fala de nível profissional com entonação e ritmo naturais.
    • Suporte de idiomas: Inglês, francês, italiano, alemão, espanhol, português e hindi.
    • Janela de contexto: Até 1 milhão de tokens para contexto de conversa estendida.

    Próximos passos

    O Amazon Nova 2 Sonic é um modelo de compreensão e geração de fala de última geração que habilita experiências conversacionais de IA naturais e humanizadas. A arquitetura delineada oferece fundação prática para construir aplicações conversacionais de IA. Seja simplificando suporte ao cliente, criando conteúdo educacional ou gerando materiais de liderança de pensamento, os padrões demonstrados aqui se aplicam através de casos de uso.

    Com suporte expandido de linguagem, capacidades de voz poliglota, integração telefônica aprimorada e interação multi-modal, o Amazon Nova 2 Sonic oferece às organizações ferramentas para construir aplicações orientadas por voz globais em escala.

    Para começar a construir com Amazon Nova Sonic, visite a página de produto do Amazon Nova. Para documentação abrangente, explore o guia do usuário do Amazon Nova 2 Sonic.

    Saiba mais

    Fonte

    Building real-time conversational podcasts with Amazon Nova 2 Sonic (https://aws.amazon.com/blogs/machine-learning/building-real-time-conversational-podcasts-with-amazon-nova-2-sonic/)

  • Conectando servidores MCP ao Amazon Bedrock AgentCore Gateway com fluxo de código de autorização

    Gerenciamento centralizado de acesso a servidores MCP

    À medida que as organizações expandem suas implementações de agentes de IA, o número de servidores MCP (Model Context Protocol) que cada equipe utiliza cresce rapidamente. O Amazon Bedrock AgentCore Gateway oferece uma camada centralizada para gerenciar como os agentes de IA conectam-se a ferramentas e servidores MCP em toda a organização. Essa solução consolida autenticação, observabilidade e imposição de políticas em um único endpoint, eliminando a necessidade de configurar e proteger cada conexão de servidor MCP individualmente.

    Em vez de configurar cada servidor MCP separadamente por IDE (ambiente de desenvolvimento), os times passam a apontar para uma única URL do Gateway, proporcionando acesso consistente ao conjunto completo de ferramentas MCP disponíveis. Esse padrão está acelerando conforme as organizações adotam servidores MCP de produção de terceiros, como os fornecidos pela AWS, GitHub, Salesforce e Databricks.

    Desafios na autenticação em escala

    Muitos servidores MCP empresariais exigem autenticação OAuth 2.0 (Protocolo de Autorização 2.0), onde o agente precisa autenticar-se em nome de um usuário antes de invocar ferramentas. Alguns desses servidores são protegidos pelo provedor de identidade principal através de federação, enquanto outros são protegidos por seus próprios servidores de autorização.

    À medida que o número de servidores MCP por organização aumenta, gerenciar conexões, autenticação e roteamento no nível do IDE torna-se insustentável. O AgentCore Gateway centraliza essa complexidade, oferecendo um único plano de controle para acesso MCP enquanto proporciona aos desenvolvedores uma experiência sem atritos.

    Suporte a fluxo de código de autorização

    A AWS agora oferece suporte ao fluxo de código de autorização OAuth 2.0 através do Amazon Bedrock AgentCore Identity. Com isso, seus agentes podem acessar com segurança servidores MCP protegidos sem incorporar credenciais no código da aplicação ou gerenciar manualmente o ciclo de vida dos tokens.

    A plataforma disponibiliza dois métodos para criar e gerenciar acesso a servidores MCP protegidos por OAuth:

    Sincronização implícita durante a criação do alvo MCP

    Neste método, o usuário administrador completa o fluxo de código de autorização durante operações CreateGatewayTarget, UpdateGatewayTarget ou SynchronizeGatewayTargets. Isso permite que o AgentCore Gateway descubra e cache as ferramentas do servidor MCP antecipadamente.

    Fornecimento de esquema antecipado

    Nesta abordagem, os usuários administradores fornecem o esquema das ferramentas diretamente durante operações CreateGatewayTarget ou UpdateGatewayTarget, em vez de o AgentCore Gateway buscá-los dinamicamente do servidor MCP. O gateway analisa o esquema fornecido e faz cache das definições de ferramentas.

    Esta é a abordagem recomendada quando a intervenção humana não é possível durante operações de criação ou atualização. Além disso, oferece controle granular sobre quais ferramentas do servidor MCP serão expostas. É importante notar que, com este método, a operação SynchronizeGatewayTargets não é suportada.

    Você pode alternar um alvo entre os dois métodos simplesmente atualizando a configuração do alvo, proporcionando flexibilidade conforme suas necessidades evoluem.

    Vinculação de sessão por URL

    Um componente crítico de segurança é a vinculação de sessão por URL, que verifica se o usuário que iniciou a solicitação de autorização OAuth é o mesmo que concedeu consentimento. Quando o AgentCore Identity gera uma URL de autorização, também retorna uma session-URI. Após o usuário concluir o consentimento, o navegador redireciona para uma URL de callback com a session-URI.

    A aplicação é então responsável por chamar a API CompleteResourceTokenAuth, apresentando tanto a identidade do usuário quanto a session-URI. O AgentCore Identity valida que o usuário que iniciou o fluxo é o mesmo que o completou antes de trocar o código de autorização por um token de acesso. Isso ajuda a evitar cenários onde um usuário compartilha acidentalmente a URL de autorização e outra pessoa completa o consentimento, concedendo tokens de acesso para a parte errada.

    Para segurança adicional, a URL de autorização e a session URI são válidas apenas por 10 minutos, limitando ainda mais a janela para uso indevido.

    Conceitos principais

    Usuário do AgentCore Gateway: O usuário final que consome as ferramentas no Amazon Bedrock AgentCore Gateway com clientes MCP. Esses usuários não gerenciam o próprio AgentCore Gateway — simplesmente usam a URL única do gateway para acessar as ferramentas disponíveis para eles.

    Usuário administrador: O usuário que gerencia e mantém o Amazon Bedrock AgentCore Gateway. É responsável por conectar servidores MCP, ferramentas ou APIs ao gateway, permitindo que usuários do gateway as consumam.

    Servidor MCP: Neste contexto, assume-se que o servidor MCP é protegido por um fluxo de código de autorização OAuth 2.0, que requer interação do usuário para completar a autenticação. Isso é diferente de métodos de autenticação máquina-para-máquina, como Client Credentials ou Token Exchange, que não requerem intervenção do usuário.

    Implementação prática com GitHub

    Para demonstrar a integração, a AWS fornece exemplos de código mostrando como conectar um servidor GitHub MCP ao Amazon Bedrock AgentCore Gateway. O processo envolve ambos os métodos — sincronização implícita durante a criação do alvo e fornecimento de esquema antecipado.

    Configuração inicial com GitHub

    Antes de começar, é necessário configurar uma aplicação OAuth no GitHub. Acesse https://github.com/settings/apps para criar uma nova aplicação GitHub, fornecendo detalhes como nome da aplicação, URL da homepage e URL de callback de autorização.

    Nas configurações avançadas, recomenda-se desativar a expiração automática de tokens, desativar a autorização de usuário durante a instalação e desativar o Device Flow, seguindo as melhores práticas de segurança da sua organização.

    Preparação do ambiente

    Você precisará de permissões IAM (Gestão de Identidade e Acesso) apropriadas para executar o código. O repositório contém exemplos práticos — comece clonando o repositório GitHub e abrindo o arquivo github-mcp-server.ipynb.

    Configuração do provedor de credenciais

    Configure o provedor de credenciais do Agentcore Identity no console do Amazon Bedrock AgentCore. Crie um cliente OAuth, fornecendo um nome e selecionando o provedor GitHub pré-incluído. Insira o ID do cliente e o segredo da aplicação GitHub.

    Copie a URL de callback do cliente OAuth do AgentCore Identity e retorne à aplicação OAuth do GitHub que criou para atualizar a URL de callback de autorização com o valor gerado.

    Fluxo de sincronização implícita

    No método de sincronização implícita, o usuário administrador completa o fluxo de autorização durante a criação do alvo. Certifique-se de que a função de execução do AgentCore Gateway possui permissões para GetWorkloadAccessTokenForUserId e CompleteResourceTokenAuth.

    O processo segue esta sequência: o administrador chama CreateGatewayTarget, fornecendo o endpoint do servidor MCP, o provedor de credenciais do AgentCore Identity e a URL de retorno. O AgentCore Gateway solicita um token de acesso de workload ao provedor de credenciais, passando a identidade do gateway e um ID de usuário. Com esse token, o gateway solicita um token de acesso OAuth 2.0, que retorna uma URL de autorização e uma session-URI.

    Neste ponto, o alvo entra em status “Requer autorização”. O administrador abre a URL de autorização em seu navegador, faz login e concede as permissões solicitadas. Após o consentimento, o servidor OAuth 2.0 envia um código de autorização ao callback registrado do provedor de credenciais.

    O provedor redireciona o navegador do administrador para a URL de retorno, com a session-URI. A aplicação então chama CompleteResourceTokenAuth, apresentando o ID do usuário e a session-URI. O provedor de credenciais valida que o mesmo usuário que iniciou o fluxo completou o consentimento, prevenindo roubo de token.

    Após validação bem-sucedida, o provedor troca o código de autorização pelo token de acesso OAuth 2.0. Esse token é usado para listar as ferramentas no alvo do servidor MCP; as definições de ferramentas retornadas são armazenadas em cache no AgentCore Gateway.

    Método de esquema antecipado

    Esta é a abordagem recomendada quando a intervenção humana não é possível durante operações de criação ou atualização. Durante a seleção de criação de alvo, você seleciona a opção de usar uma lista de ferramentas pré-definidas e fornece as definições de ferramentas do GitHub.

    O alvo entra imediatamente em status “Pronto”, com status de autorização “Nenhuma autorização necessária”. Isso oferece flexibilidade total sobre quais ferramentas expor e elimina a necessidade de interação do administrador durante a configuração.

    Experiência do usuário do gateway

    Após a criação bem-sucedida do alvo, seja através de sincronização implícita ou esquema antecipado, os usuários do AgentCore Gateway podem descobrir e invocar ferramentas usando o protocolo MCP.

    Quando um usuário do gateway envia uma solicitação de lista de ferramentas com seu token de autorização de entrada, o AgentCore Gateway retorna as definições de ferramentas em cache imediatamente, sem necessidade de nova autenticação no servidor MCP.

    Quando o usuário envia uma solicitação para invocar uma ferramenta, o AgentCore Gateway desencadeia o fluxo de autorização OAuth para aquele alvo específico de servidor MCP. O gateway solicita um token de acesso de workload, e então usa esse token para solicitar um token de acesso OAuth 2.0 ao provedor de credenciais.

    Se nenhum token válido existir ainda para este usuário, o provedor retorna uma URL de autorização e uma session-URI. O gateway passa esses valores para o usuário, que abre a URL em seu navegador, faz login e concede permissões. Após consentimento, o servidor OAuth 2.0 envia um código de autorização ao callback do provedor de credenciais.

    O provedor redireciona o navegador do usuário para a URL de retorno com a session-URI. A aplicação do usuário chama CompleteResourceTokenAuth com o JWT do usuário e a session-URI. O provedor valida que o mesmo usuário completou o consentimento, então troca o código de autorização por um token de acesso OAuth 2.0.

    Este token é armazenado em cache no Token Vault sob a identidade do workload e a identidade do usuário. Na próxima invocação de ferramenta, o AgentCore Gateway recupera o token em cache e o usa para chamar o servidor MCP, proporcionando uma experiência fluida após a autenticação inicial.

    Explorando exemplos e casos de uso

    Embora este exemplo concentre-se no servidor GitHub MCP, o repositório de código inclui exemplos de integração para outros servidores MCP populares de terceiros e um guia para hospedar seu próprio servidor MCP com suporte a fluxo de código de autorização no AgentCore Runtime.

    A AWS incentiva explorar esses exemplos e adaptá-los à paisagem de servidor MCP de sua organização, facilitando a adoção de múltiplas ferramentas MCP de forma segura e centralizada.

    Recursos adicionais

    Para aprofundar seu conhecimento, consulte a documentação oficial: Apresentando o Amazon Bedrock AgentCore Gateway: transformando o desenvolvimento de ferramentas para agentes de IA empresariais, Apresentando o Amazon Bedrock AgentCore Identity: protegendo IA agentic em escala e Exemplos do Amazon Bedrock AgentCore.

    Fonte

    Connecting MCP servers to Amazon Bedrock AgentCore Gateway using Authorization Code flow (https://aws.amazon.com/blogs/machine-learning/connecting-mcp-servers-to-amazon-bedrock-agentcore-gateway-using-authorization-code-flow/)

  • Amazon SageMaker Unified Studio ganha recursos de importação/exportação de notebooks e aceleração para desenvolvedores

    Notebooks com suporte a importação e exportação

    O Amazon SageMaker Unified Studio da AWS anunciou uma atualização significativa para seus notebooks, introduzindo capacidades robustas de importação e exportação. Essa funcionalidade possibilita que profissionais migrem facilmente de plataformas como JupyterLab e outras soluções de notebooks, eliminando barreiras técnicas e operacionais para quem deseja adotar o ambiente unificado da AWS.

    A implementação preserva completamente os tipos de células e metadados durante a transferência, garantindo que toda a estrutura e configuração dos notebooks sejam mantidas intactas. Essa abordagem simplifica significativamente o processo de migração, reduzindo trabalho manual e a possibilidade de perda de dados.

    Formatos suportados e flexibilidade de exportação

    A solução oferece suporte a múltiplos formatos que cobrem diferentes cenários de uso. Na importação, o sistema aceita arquivos no formato .ipynb, .json e .py. Para exportação, há quatro opções disponíveis:

    • Jupyter notebook com requirements (formato .zip)
    • Notebook padrão no formato .ipynb
    • Scripts Python (formato .py)
    • Formato nativo do SageMaker Unified Studio (formato .json)

    Essa variedade de formatos permite que cientistas de dados e engenheiros de dados escolham a opção mais adequada para seus fluxos de trabalho, seja para compartilhamento, versionamento ou integração com outras ferramentas.

    Recursos de aceleração para desenvolvedores

    Além das capacidades de importação e exportação, a AWS introduziu um conjunto de recursos projetados especificamente para melhorar a produtividade no desenvolvimento com notebooks:

    • Reordenação de células: permite reorganizar células sem necessidade de copiar e colar, eliminando duplicações e simplificando o gerenciamento do fluxo lógico
    • Nomenclatura customizada de células: atribui nomes personalizados às células, facilitando navegação em notebooks grandes e complexos
    • Atalhos de teclado familiares: implementa atalhos de teclado reconhecíveis, acelerando o desenvolvimento para profissionais com experiência em outras plataformas
    • Suporte a SQL multi-linha: permite executar múltiplos comandos SQL em uma única célula, com resultados exibidos em abas separadas para comparação e análise simplificadas

    Disponibilidade e documentação

    Esse conjunto de recursos está disponível em todas as regiões AWS onde o Amazon SageMaker Unified Studio opera. Para profissionais interessados em explorar essas funcionalidades em profundidade, a AWS disponibiliza recursos adicionais através da página de marketing do Amazon SageMaker Unified Studio e do guia do usuário. Além disso, é possível consultar a documentação sobre as regiões AWS onde o SageMaker Unified Studio está disponível.

    Fonte

    Amazon SageMaker Unified Studio adds notebook import/export and developer acceleration features (https://aws.amazon.com/about-aws/whats-new/2026/04/amazon-sagemaker-unified-studio/)

  • Agentes de Onboarding Alimentados por IA com Amazon Quick

    O desafio do onboarding em escala

    Integrar novos colaboradores em grandes organizações é uma tarefa desafiadora. Equipes de Recursos Humanos enfrentam trabalhos manuais repetitivos que atrasam a produtividade: processar documentos, responder perguntas sobre benefícios e políticas, e garantir que todos sigam os mesmos procedimentos. Durante os primeiros meses, novos funcionários alcançam apenas uma fração do seu potencial produtivo, enquanto o departamento de RH perde horas diárias por contratação em atividades rotineiras.

    Manter a consistência e a conformidade nesse contexto é complexo. As informações ficam espalhadas entre wikis, SharePoint, sistemas de tickets, chat e e-mail. Sem uma solução integrada, o onboarding se torna um labirinto de processos desconexos.

    Amazon Quick: automatização inteligente para RH

    O Amazon Quick é um serviço gerenciado que oferece capacidades de agentes de IA. Por meio dele, departamentos de RH podem criar agentes de conversação sem código que respondem perguntas de novos contratados, rastreiam conformidade em ferramentas existentes e eliminam tickets automaticamente. Isso permite que novos colaboradores se integrem mais rapidamente com menos intervenção manual.

    Componentes principais do Amazon Quick

    Bases de Conhecimento

    O Amazon Quick indexa conteúdo de fontes externas como SharePoint, OneDrive e Confluence, além de conteúdo interno incluindo sites internos, uploads de arquivos e buckets do Amazon Simple Storage Service (Amazon S3). Uma base de conhecimento funciona como um repositório único e pesquisável, permitindo que novos colaboradores obtenham respostas abrangentes de múltiplas fontes, sem precisar procurar em arquivos desconexos.

    Conectores de Ações

    Os conectores de ações são integrações seguras e cientes de permissões que habilitam agentes de IA a executar trabalho real em cenários de onboarding de RH. Um agente pode criar solicitações de equipamento de TI no ServiceNow, enviar mensagens de boas-vindas no Slack para canais da equipe, ou atualizar fluxos de trabalho de onboarding em ferramentas de gerenciamento de projetos. Isso vai além de apenas fornecer links para formulários.

    Espaços

    Espaços são ambientes focados que organizam ativos centrados na equipe, incluindo arquivos, artefatos de inteligência de negócios como dashboards e tópicos, bases de conhecimento e ações com controles de compartilhamento para colaboração. Dessa forma, o RH pode manter seus recursos de onboarding bem organizados e acessíveis apenas para quem precisa.

    Estrutura da solução

    Sem um agente inteligente, o RH alternava entre múltiplos sistemas para coordenar cada etapa do onboarding. Com o Quick, um agente customizado apresenta a lista de verificação mais atualizada, responde com linguagem aprovada pela organização, abre solicitações através de ações, notifica as partes interessadas e aponta o próximo passo. Confirmações e status permanecem nos sistemas de RH, e o agente os lê ou os atualiza por meio de conectores de ações ou fluxos de trabalho.

    A implementação segue passos diretos: criar o agente de conversação no Quick, anexar o espaço de RH e vinculá-lo a fontes de conhecimento, adicionar conectores de ações, testar com cenários reais e compartilhar com os funcionários.

    Tipos de agentes disponíveis

    Agente de sistema (“Meu assistente”)

    O agente de sistema do Quick aparece por padrão no console e ajuda usuários a fazer perguntas e completar tarefas usando recursos que têm permissão de acessar. Usuários podem interagir de várias formas: fazer perguntas gerais usando o conhecimento integrado do agente, fazer upload de seus próprios arquivos diretamente no chat (até 20 arquivos por conversa) para análise, e controlar o escopo da conversação escolhendo entre três modos: Todos os dados e aplicativos (busca em todos os recursos acessíveis), Conhecimento geral (apenas conhecimento integrado) ou Dados e aplicativos específicos (foca em espaços, dashboards, tópicos, bases de conhecimento ou ações particulares).

    O agente de sistema está disponível imediatamente sem nenhuma configuração necessária e adapta suas respostas baseado no escopo selecionado e nos recursos disponíveis.

    Agentes customizados

    Para necessidades mais específicas, é possível criar agentes customizados. Você configura o comportamento do agente (propósito, tom, formato de resposta), anexa espaços com dashboards, tópicos e bases de conhecimento para respostas fundamentadas em dados, e vincula conectores de ações para que o agente possa executar tarefas em ferramentas como Jira, Slack, ServiceNow, Salesforce, Outlook ou Teams. Agentes customizados podem ser compartilhados com usuários específicos ou grupos.

    Essas capacidades incluem: respostas específicas para casos de uso (defina a persona e estilo de resposta do agente), orientação através de documentos de referência (faça upload de documentos específicos que servem como templates de resposta para mensagens consistentes e guias de processo), integração abrangente de dados (vincule espaços para dar acesso ao agente a diferentes tipos de conteúdo pesquisável, respeitando a estrutura de permissões da organização), ações automatizadas (adicione conectores de ações para que usuários criem tickets Jira, enviem mensagens Slack, atualizem Salesforce ou abram solicitações ServiceNow diretamente do chat), e colaboração (teste, refine e compartilhe agentes com colegas, com administradores controlando quem pode criar e customizar agentes através de permissões).

    Fluxo de implementação: perspectiva do administrador de RH

    Criação do agente de conversação

    O primeiro passo é criar o agente em si, que se torna o local único onde novos contratados fazem perguntas e recebem orientação através do onboarding. No console do Quick, você escolhe “Agentes de conversação” e seleciona “Criar”. Insere um prompt em linguagem natural descrevendo o que deseja que o agente faça, por exemplo: “Ajude novos funcionários com perguntas sobre onboarding de RH e solicitações de equipamento.” O Quick expande automaticamente esse prompt em uma persona detalhada, instruções de resposta e realiza uma varredura de recursos disponíveis para vincular espaços e conectores de ações relevantes. Você revisa a configuração gerada, refina conforme necessário e escolhe “Lançar agente de conversação” quando estiver satisfeito.

    Configuração de comportamento

    O próximo passo é moldar como o agente deve responder para que seu tom, escopo e diretrizes correspondam às políticas de RH e à marca da organização. Atualize os metadados do agente (nome, descrição, mensagem de boas-vindas e prompts iniciais) para ajudar usuários a descobrir e usar o assistente corretamente. Revise e refine as instruções de persona geradas automaticamente, incluindo formato de resposta, tom e configurações de comprimento. Por fim, faça upload de documentos de referência específicos que fornecem instruções de prioridade máxima para o comportamento do agente.

    Conexão de conhecimento de RH

    Conecte suas fontes de conhecimento de RH para que o agente responda com base em manuais e políticas aprovados, não em respostas inventadas. Crie ou escolha um espaço de RH existente que contenha manuais, políticas e listas de verificação. Configure o escopo de conhecimento do agente para focar especificamente em conteúdo relacionado a RH, garantindo que respostas permaneçam dentro de limites apropriados. Faça upload de arquivos ao espaço, incluindo manuais de funcionários, documentos de políticas, informações sobre benefícios, materiais de treinamento e guias. Vincule o espaço configurado ao agente para que ele possa acessar esse conteúdo pesquisável e fundamentado para respostas aprovadas.

    Adição de ações

    Após o agente estar habilitado a responder perguntas, adicione ações para que também possa desencadear trabalho em suas ferramentas de RH, como tickets, solicitações e notificações. Abra o cartão de Ações e escolha “Vincular ações”, selecionando conectores de ações disponíveis que você já configurou. Para o caso de uso de onboarding de RH, isso pode incluir ferramentas como Jira (para criar e atualizar tickets) ou ServiceNow (para gerenciar incidentes). Atualize seus documentos de referência e instruções de persona para especificar quando invocar conectores de ações específicos, por exemplo: “Quando um funcionário solicita equipamento, use o conector ServiceNow para criar um ticket de solicitação de hardware” ou “Para solicitações de acesso, crie um ticket Jira no projeto TI-Acesso com prioridade definida como ‘Normal.’”

    Customização, teste e compartilhamento

    Finalize o agente com uma mensagem de boas-vindas e prompts sugeridos. Teste o agente com cenários realistas, ajuste a experiência conforme necessário e compartilhe com um grupo piloto para que o RH valide o fluxo de trabalho antes de um lançamento mais amplo. Quando estiver pronto, lance o agente e estará disponível em sua biblioteca pessoal para uso privado. Para compartilhar com outros, escolha “Compartilhar” e adicione usuários e grupos como visualizadores para usar o agente ou como proprietários para editá-lo e testá-lo.

    Fluxo de implementação: perspectiva do novo colaborador

    Após o agente ser publicado e compartilhado com colaboradores como visualizadores, eles podem abri-lo a partir do link fornecido pelo RH (por exemplo, em seu e-mail do Dia 1 ou portal de RH) ou a partir da lista de agentes de conversação no Quick, e então usá-lo da seguinte forma:

    O colaborador abre o agente de onboarding de RH compartilhado e inicia uma conversa do Dia 1. O agente apresenta a lista de verificação de onboarding mais atualizada do espaço de RH e fornece links para formulários obrigatórios, treinamentos e páginas internas para que o colaborador possa avançar pelos passos em ordem. Quando o colaborador faz perguntas sobre políticas ou benefícios em linguagem natural, o agente responde usando conteúdo do espaço de RH e fontes de conhecimento de RH conectadas, garantindo que as respostas correspondam à linguagem aprovada pelo RH.

    Quando o colaborador solicita equipamento ou acesso a aplicativos, o agente usa um conector de ações Jira para criar uma issue no projeto de onboarding de RH e retorna a chave da issue e o link para que você veja a solicitação completa sem tocar em sistemas de RH em produção. Para etapas sensíveis como verificação de I-9, formulários fiscais ou depósito direto, o agente direciona o colaborador para o sistema de RH apropriado ou portal seguro, em vez de coletar documentos no chat, garantindo que dados sensíveis permaneçam no lugar correto.

    A experiência final é simples: o colaborador abre um único chat, vê sua lista de verificação do Dia 1, faz perguntas em linguagem natural e permite que o agente abra solicitações e aponte para os sistemas corretos. Em vez de ficar malabarista com e-mails, portais e tickets, o onboarding se sente como uma conversa guiada onde o próximo passo é sempre claro.

    Pré-requisitos para implementação

    Antes de começar, certifique-se de que completou os seguintes passos: crie uma conta AWS. Confirme que você tem acesso ao Quick. Você precisará de pelo menos uma assinatura do Amazon Quick Enterprise para configurar ações e criar bases de conhecimento. Usuários que apenas usam o agente compartilhado podem estar na assinatura do Amazon Quick Professional. Acesse a área de introdução ao Atlassian Cloud e crie um site gratuito, selecionando tanto Confluence quanto Jira no plano gratuito (até 10 usuários).

    No Confluence, crie um espaço “HR Onboarding” para armazenar seu conteúdo de RH. No Jira, crie um projeto simples de onboarding de RH que o agente possa usar para solicitações de acesso ou equipamento. Baixe o arquivo ZIP da página de materiais do workshop de onboarding de RH. A partir da pasta de documentos de RH no arquivo ZIP, faça upload dos seguintes arquivos para seu espaço Confluence “HR Onboarding”: employee_handbook.pdf, leave_policy.pdf, onboarding_checklist.pdf, performance_review_guidelines.pdf e public_holidays.csv (opcional, usado depois para relatórios ou análise).

    Segurança e controles integrados

    O Amazon Quick inclui controles de segurança e conteúdo integrados para agentes de conversação. Você pode usar as configurações padrão em sua conta ou experimentar controles de política adicionando uma pequena lista de palavras ou frases bloqueadas para que o agente evite termos específicos em respostas de RH, por exemplo gíria informal ou linguagem desencorajada. Termos bloqueados são configurados no console do Quick e aplicados em todos os agentes em sua conta. Para instruções passo a passo e opções de segurança adicionais como controle de acesso e criptografia, consulte o guia de usuários do Amazon Quick.

    Opções de assinatura

    O Amazon Quick oferece duas assinaturas de usuário: Professional e Enterprise. O plano Professional suporta uso cotidiano de agentes de conversação e espaços, execução de Amazon Quick Flows e Amazon Quick Research, visualização de dashboards do Amazon Quick Sight, com a capacidade de criar e compartilhar agentes e espaços customizados. O plano Enterprise inclui tudo do Professional mais recursos de autoria avançada como configuração de ações, criação de bases de conhecimento, construção de automações em Amazon Quick Automate, edição de dashboards no Quick Sight e limites de uso mensal maiores. Uma avaliação gratuita de 30 dias está disponível para até 25 usuários por conta. Para detalhes, consulte a precificação do Amazon Quick.

    Próximos passos

    Esta abordagem demonstra como criar um agente de conversação de onboarding de RH no Quick, anexar conteúdo de RH, adicionar ações e fluxos de trabalho opcionais, e compartilhar com colaboradores. Comece com um piloto que cubra suas perguntas mais frequentes e duas ou três solicitações, revise o uso e refine as instruções e conteúdo do agente. Para próximas etapas, expanda o espaço de RH, adicione ações adicionais conforme necessário e revise a documentação do Quick para configuração avançada.

    Além do onboarding, equipes de RH podem explorar a construção de agentes para autoatendimento de funcionários, gerenciamento de desempenho, aquisição de talentos, desenvolvimento e aprendizagem, análise e processos de desligamento para transformar suas operações de RH como um todo.

    Pronto para transformar a produtividade do seu ambiente de trabalho? Comece com o Quick, explore opções de precificação que se ajustem às suas necessidades ou contate sua equipe de conta AWS para discutir como o Quick pode transformar a abordagem da sua organização para tomada de decisão orientada por dados.

    Fonte

    Build AI-powered employee onboarding agents with Amazon Quick (https://aws.amazon.com/blogs/machine-learning/build-ai-powered-employee-onboarding-agents-with-amazon-quick/)