Blog

  • Amazon Bedrock expande ajuste fine-tuning por reforço para modelos abertos com APIs compatíveis com OpenAI

    Suporte ampliado para modelos abertos no Amazon Bedrock

    A AWS anunciou uma expansão significativa das capacidades de ajuste fine-tuning por reforço (RFT) no Amazon Bedrock. A plataforma agora oferece suporte a modelos abertos populares, incluindo OpenAI GPT-OSS e modelos Qwen, além de introduzir APIs de ajuste fine-tuning compatíveis com OpenAI. Essa evolução torna mais acessível para desenvolvedores melhorar a precisão de modelos abertos sem necessidade de expertise profunda em aprendizado de máquina ou grandes conjuntos de dados rotulados.

    Como funciona o ajuste por reforço

    O ajuste fine-tuning por reforço no Amazon Bedrock automatiza todo o fluxo de customização de modelos. Em vez de depender de grandes volumes de dados de treinamento, ele permite que modelos aprendam com feedback sobre múltiplas respostas possíveis utilizando apenas um pequeno conjunto de prompts. Essa abordagem possibilita às organizações trabalhar com variantes de modelos menores, mais rápidos e mais econômicos, mantendo alta qualidade nas respostas.

    Resolvendo o dilema da customização

    Muitas empresas enfrentam um desafio comum: modelos genéricos oferecem desempenho limitado, enquanto pipelines de customização complexos exigem infraestrutura especializada e equipes experientes. O Amazon Bedrock simplifica esse cenário ao fornecer uma experiência de ajuste fine-tuning totalmente gerenciada e segura.

    Os clientes definem funções de recompensa utilizando avaliadores baseados em regras verificáveis ou juízes alimentados por inteligência artificial. A AWS oferece templates prontos para tarefas objetivas — como geração de código e raciocínio matemático — e subjetivas, como seguimento de instruções ou qualidade conversacional.

    Recursos de customização e controle

    Durante o treinamento, os clientes podem utilizar funções AWS Lambda para lógica de avaliação personalizada e acessar checkpoints intermediários do modelo. Isso permite avaliar, depurar e selecionar o melhor modelo, acelerando o ciclo de iteração e melhorando a eficiência do treinamento. Todos os dados proprietários permanecem em um ambiente seguro e governado dentro da AWS durante todo o processo de customização.

    Modelos e APIs suportados

    Neste lançamento, a AWS oferece suporte aos modelos qwen.qwen3-32b e openai.gpt-oss-20b. Após a conclusão do ajuste fine-tuning, os clientes podem utilizar imediatamente o modelo customizado para inferência sob demanda através das APIs compatíveis com OpenAI do Amazon Bedrock — incluindo as APIs Responses e Chat Completions — sem necessidade de etapas adicionais de implantação.

    Próximos passos

    Para explorar essa funcionalidade em detalhes, consulte a documentação do Amazon Bedrock.

    Fonte

    Amazon Bedrock reinforcement fine-tuning adds support for open-weight models with OpenAI-compatible APIs (https://aws.amazon.com/about-aws/whats-new/2026/02/amazon-bedrock-reinforcement-fine-tuning-openai)

  • AWS Glue 5.1 agora disponível em 18 regiões adicionais

    Expansão Global do AWS Glue 5.1

    A AWS anunciou a disponibilidade do AWS Glue 5.1 em dezoito regiões adicionais, ampliando significativamente o alcance desse serviço de integração de dados. A expansão abrange continentes e oferece cobertura em localidades estratégicas: África (Cidade do Cabo), Ásia Pacífico (Hyderabad, Jakarta, Melbourne, Osaka, Seul, Taipei), Canadá (Calgary, Central), Europa (Londres, Milão, Paris, Zurique), Israel (Tel Aviv), México (Central), Oriente Médio (Bahrein, Emirados Árabes Unidos) e US West (Califórnia do Norte). Com essa adição, o serviço chega a trinta e três regiões no total.

    O que é AWS Glue

    AWS Glue é um serviço serverless e escalável de integração de dados que simplifica as tarefas de descoberta, preparação, movimentação e integração de dados originários de múltiplas fontes. Ele elimina a necessidade de gerenciar infraestrutura, permitindo que equipes se concentrem na lógica de transformação e integração de dados.

    Principais Melhorias na Versão 5.1

    Atualização de Motores e Componentes

    A versão 5.1 traz atualizações importantes nos motores núcleo: Apache Spark 3.5.6, Python 3.11 e Scala 2.12.18. Essas atualizações contribuem para melhorias significativas de performance e segurança em operações de integração de dados.

    Suporte a Formatos Abertos de Tabelas

    O AWS Glue 5.1 estende o suporte para bibliotecas de formatos abertos de tabelas, incluindo Apache Hudi 1.0.2, Apache Iceberg 1.10.0 e Delta Lake 3.3.2. Essa compatibilidade oferece flexibilidade ao trabalhar com diferentes padrões da comunidade open source.

    Iceberg Format Version 3.0

    A versão 5.1 introduz suporte para Apache Iceberg format version 3.0, adicionando funcionalidades como valores padrão de coluna, deletion vectors para tabelas de merge-on-read, transformações multi-argumento e rastreamento de linhagem de linhas. Essas capacidades avançadas facilitam operações complexas de transformação e auditoria de dados.

    Controle de Acesso e Segurança

    Expansão do Lake Formation

    Uma das melhorias mais significativas é a extensão do AWS Lake Formation com controle de acesso granular para operações de escrita (tanto DML quanto DDL) em DataFrames Spark e Spark SQL. Anteriormente, essa funcionalidade estava limitada apenas a operações de leitura, representando um avanço importante em governança de dados.

    Controle de Acesso em Tabelas

    O AWS Glue 5.1 também adiciona controle de acesso em nível de tabela completa no Apache Spark para tabelas Apache Hudi e Delta Lake, proporcionando opções de segurança mais abrangentes para proteção de dados sensíveis.

    Como Começar

    Você pode iniciar com AWS Glue 5.1 através de diversas interfaces: APIs do AWS Glue, Interface de Linha de Comando (CLI) da AWS, Kit de Desenvolvimento de Software (SDK) da AWS, AWS Glue Studio ou Amazon SageMaker Unified Studio. Para aprofundar seu conhecimento, visite a página do produto e consulte a documentação oficial.

    Fonte

    AWS Glue 5.1 is now available in 18 additional regions (https://aws.amazon.com/about-aws/whats-new/2026/02/aws-glue-5-1-eighteen-additional-regions)

  • Arquitetura de Segurança em Camadas com IA para Microsserviços Serverless

    O Desafio Crescente da Segurança em Ambientes Serverless

    As organizações enfrentam um cenário de segurança sem precedentes. Atacantes sofisticados utilizam inteligência artificial para identificar vulnerabilidades, automatizar ataques e contornar sistemas de detecção em velocidade de máquina. Os modelos tradicionais de segurança baseados apenas em perímetro não são mais suficientes quando adversários conseguem analisar milhões de vetores de ataque em segundos e explorar vulnerabilidades zero-day antes mesmo que correções estejam disponíveis.

    Arquiteturas serverless com microsserviços amplificam esse desafio. Embora ofereçam agilidade e escalabilidade, expandem significativamente a superfície de ataque: cada endpoint de API, invocação de função e armazenamento de dados se torna um possível ponto de entrada. Um único componente mal configurado pode fornecer aos atacantes o apoio necessário para movimento lateral dentro da infraestrutura.

    Simultaneamente, as organizações precisam navegar por ambientes regulatórios complexos. Frameworks de conformidade como GDPR, HIPAA, PCI-DSS e SOC 2 demandam controles de segurança robustos e trilhas de auditoria abrangentes. A velocidade do desenvolvimento de software cria tensão entre segurança e inovação, exigindo arquiteturas que sejam simultaneamente compreensivas e automatizadas para permitir implantação segura sem sacrificar a velocidade.

    Os Desafios Técnicos Específicos

    Implementar segurança efetiva em microsserviços serverless envolve várias dimensões de risco:

    • Superfície de ataque expandida: Múltiplos pontos de entrada em serviços distribuídos exigem proteção contra ataques distribuído de negação de serviço (DDoS), vulnerabilidades de injeção e acesso não autorizado
    • Complexidade de identidade e acesso: Gerenciar autenticação e autorização entre numerosos microsserviços e comunicações serviço-a-serviço
    • Proteção de dados: Criptografar dados sensíveis em trânsito e em repouso, além de armazenar e rotacionar credenciais com segurança
    • Conformidade e proteção de dados: Atender requisitos regulatórios através de trilhas de auditoria abrangentes e monitoramento contínuo em ambientes distribuídos
    • Isolamento de rede: Implementar caminhos de comunicação controlados sem expor recursos à internet pública
    • Ameaças alimentadas por IA: Defender contra atacantes que usam IA para automatizar reconhecimento, adaptar ataques em tempo real e identificar vulnerabilidades em velocidade de máquina

    Defesa em Profundidade: A Solução em Camadas

    A resposta efetiva a esses desafios reside em defesa em profundidade – uma abordagem de segurança em camadas onde múltiplos controles independentes trabalham em conjunto para proteger a aplicação. Nenhum único ponto de falha compromete toda a infraestrutura. Se uma camada é comprometida, controles adicionais ajudam a limitar o impacto e conter o incidente.

    A AWS oferece uma arquitetura abrangente que integra serviços de IA e aprendizado de máquina em sete camadas distintas, com monitoramento contínuo e detecção de ameaças alimentadas por IA em toda a infraestrutura. Vamos percorrer como uma requisição de usuário atravessa cada camada de segurança:

    Camada 1: Proteção de Borda

    Antes que requisições atinjam sua aplicação, elas percorrem a internet pública onde atacantes lançam ataques volumétricos de DDoS, SQL injection, cross-site scripting (XSS) e outras explorações web. A AWS observou e mitigou milhares de ataques DDoS em 2024, com um deles ultrapassando 2,3 terabits por segundo.

    AWS Shield fornece proteção gerenciada contra DDoS para aplicações na AWS, habilitada sem custo para todos os clientes. AWS Shield Advanced oferece detecção aprimorada, acesso contínuo à equipe de resposta a DDoS da AWS, proteção de custo durante ataques e diagnósticos avançados para aplicações empresariais.

    AWS WAF (Firewall de Aplicação Web) protege contra ataques de camada 7 através de grupos de regras gerenciadas que cobrem as dez principais vulnerabilidades OWASP, incluindo SQL injection, XSS e inclusão de arquivo remoto. Regras baseadas em taxa bloqueiam automaticamente endereços IP que excedem limites de requisição, protegendo contra DDoS de camada de aplicação e ataques de força bruta. Recursos de bloqueio geográfico restringem acesso baseado em localização, enquanto Controle de Bots usa aprendizado de máquina para identificar e bloquear bots maliciosos permitindo tráfego legítimo.

    Amazon GuardDuty utiliza IA generativa para aprimorar serviços de segurança nativos, implementando capacidades de IA para melhorar detecção de ameaças, investigação e resposta através de análise automatizada. Organizações podem construir agentes autônomos de segurança com IA usando Amazon Bedrock para analisar logs do AWS WAF, raciocinar sobre dados de ataque e automatizar resposta a incidentes. Esses agentes detectam padrões de ataque novos que sistemas baseados em assinatura perdem, geram resumos em linguagem natural de incidentes de segurança, recomendam automaticamente atualizações de regras do AWS WAF baseadas em ameaças emergentes, correlacionam indicadores de ataque em serviços distribuídos para identificar campanhas coordenadas e acionam ações de remediação apropriadas baseadas em contexto de ameaça.

    Camada 2: Verificação de Identidade

    Após passar proteção de borda, você deve verificar identidade do usuário e determinar acesso a recursos. Autenticação tradicional baseada em usuário/senha é vulnerável a credential stuffing, phishing e ataques de força bruta, exigindo gerenciamento robusto de identidade que suporte múltiplos métodos de autenticação e segurança adaptativa respondendo a sinais de risco em tempo real.

    Amazon Cognito fornece gerenciamento abrangente de identidade e acesso para aplicações web e mobile através de dois componentes: pools de usuários oferecem um diretório de usuários totalmente gerenciado tratando registro, login, autenticação multifator (MFA), políticas de senha, integração com provedores de identidade social, federação SAML e OpenID Connect para provedores de identidade empresariais, e recursos avançados de segurança incluindo autenticação adaptativa e detecção de credenciais comprometidas. Pools de identidade concedem credenciais AWS temporárias com privilégios limitados aos usuários para acesso seguro direto aos serviços AWS sem expor credenciais de longo prazo.

    Autenticação adaptativa do Amazon Cognito usa aprendizado de máquina para detectar tentativas de login suspeitas analisando impressão digital de dispositivo, reputação de endereço IP, anomalias geográficas e padrões de velocidade de login. Baseado na avaliação de risco, permite login, requer verificação MFA adicional ou bloqueia tentativas. Detecção de credenciais comprometidas automaticamente verifica credenciais contra bancos de dados de senhas comprometidas e bloqueia logins usando credenciais conhecidas como comprometidas. MFA suporta tanto métodos baseados em SMS quanto senhas descartáveis baseadas em tempo (TOTP), reduzindo significativamente risco de takeover de conta. Para análise comportamental avançada, organizações podem usar Amazon Bedrock para analisar padrões em períodos estendidos, detectando tentativas de takeover de conta através de anomalias geográficas, mudanças em impressão digital de dispositivo, desvios em padrões de acesso e anomalias de hora do dia.

    Camada 3: Porta de Entrada da Aplicação

    Amazon API Gateway funciona como ponto de entrada da aplicação. Deve lidar com roteamento de requisição, limitação de taxa, gerenciamento de chaves de API, criptografia e integrar perfeitamente com sua camada de autenticação, fornecendo logs detalhados para auditoria de segurança mantendo alta performance e baixa latência.

    O API Gateway é um serviço totalmente gerenciado para criar, publicar e proteger APIs em escala, fornecendo capacidades críticas de segurança incluindo criptografia SSL/TLS com AWS Certificate Manager (ACM) que automaticamente trata provisionamento, renovação e implantação de certificados. Limitação de requisição e gerenciamento de cotas protegem serviços backend através de limites de rajada e taxa configuráveis com cotas de uso por chave de API ou cliente para prevenir abuso, enquanto gerenciamento de chaves de API controla acesso de sistemas parceiros e integrações de terceiros. Validação de requisição/resposta usa JSON Schema para validar dados antes de atingir AWS Lambda, prevenindo requisições malformadas de consumir recursos de computação. Integração perfeita com Amazon Cognito valida JSON Web Tokens (JWTs) e impõe requisitos de autenticação antes de requisições atingirem lógica de aplicação.

    GuardDuty fornece detecção inteligente de ameaças alimentada por IA analisando padrões de invocação de API e identificando atividades suspeitas incluindo exfiltração de credenciais usando aprendizado de máquina. Para análise avançada, Amazon Bedrock analisa métricas do API Gateway e logs do Amazon CloudWatch para identificar picos incomuns de erros HTTP 4XX (por exemplo, 403 Proibido) que podem indicar tentativas de scanning ou probing, anomalias de distribuição geográfica, desvios em padrões de acesso a endpoint, anomalias em série temporal de volume de requisição ou padrões suspeitos de user agent.

    Camada 4: Isolamento de Rede

    Lógica de aplicação e dados devem ser isolados de acesso direto à internet. Segmentação de rede é desenhada para limitar movimento lateral se ocorre um incidente de segurança, ajudando a prevenir componentes comprometidos de facilmente acessar recursos sensíveis.

    Amazon Virtual Private Cloud (Amazon VPC) fornece ambientes de rede isolados implementando arquitetura multi-tier com subnets públicas para gateways NAT e load balancers de aplicação com rotas de internet gateway, subnets privadas para funções Lambda e componentes de aplicação acessando internet através de Gateways NAT para conexões de saída, e subnets de dados com controles de acesso mais restritivos. Funções Lambda executam em subnets privadas para prevenir acesso direto à internet. VPC flow logs capturam tráfego de rede para análise de segurança. Grupos de segurança fornecem firewalls com estado seguindo princípios de menor privilégio. ACLs de rede adicionam firewalls stateless em nível de subnet com regras de negação explícita. VPC endpoints habilitam conectividade privada para Amazon DynamoDB, AWS Secrets Manager e Amazon S3 sem tráfego deixar a rede AWS.

    GuardDuty fornece detecção de ameaças de rede alimentada por IA continuamente monitorando VPC flow logs, logs CloudTrail e logs DNS usando aprendizado de máquina para identificar padrões de rede incomuns, tentativas de acesso não autorizado, instâncias comprometidas e atividades de reconhecimento. Agora inclui capacidades de IA generativa para análise automatizada e consultas de segurança em linguagem natural.

    Camada 5: Segurança de Computação

    Funções Lambda executando seu código de aplicação frequentemente requerem acesso a recursos sensíveis e credenciais devendo ser protegidas contra injeção de código, invocações não autorizadas e escalação de privilégio. Adicionalmente, funções devem ser monitoradas para comportamento incomum que pode indicar comprometimento.

    Lambda fornece recursos de segurança integrados incluindo funções de execução AWS Identity and Access Management (IAM) que definem acesso preciso a recursos e ações seguindo princípios de menor privilégio. Políticas baseadas em recurso controlam quais serviços e contas podem invocar funções prevenindo invocações não autorizadas. Criptografia de variável de ambiente usando AWS Key Management Services (AWS KMS) para variáveis em repouso enquanto dados sensíveis devem usar Secrets Manager. Isolamento de função desenhado para que cada execução rode em ambientes isolados prevenindo acesso de dados entre invocações. Integração VPC habilitando funções a se beneficiarem de isolamento de rede e controles de grupo de segurança. Segurança de runtime com runtimes gerenciados automaticamente patcheados e atualizados. Assinatura de código com AWS Signer assinando digitalmente pacotes de implantação para integridade de código e verificação criptográfica contra modificações não autorizadas.

    Amazon CodeGuru Security combina aprendizado de máquina e raciocínio automatizado para identificar vulnerabilidades incluindo os 10 principais problemas OWASP e 25 principais do CWE, injeção de log, segredos e uso inseguro de API AWS. Usando análise semântica profunda treinada em milhões de linhas de código Amazon, emprega mineração de regras e modelos de ML supervisionados combinando regressão logística e redes neurais para altas taxas de verdadeiros positivos. Amazon Inspector fornece gerenciamento automatizado de vulnerabilidade, continuamente scanning funções Lambda para vulnerabilidades de software e exposição de rede, usando aprendizado de máquina para priorizar achados e fornecer orientação detalhada de remediação.

    Camada 6: Proteção de Credenciais

    Aplicações requerem acesso a credenciais sensíveis incluindo senhas de banco de dados, chaves de API e chaves de criptografia. Hardcoding de segredos em código ou armazená-los em variáveis de ambiente cria vulnerabilidades de segurança, exigindo armazenamento seguro, rotação regular, acesso apenas autorizado e auditoria abrangente para conformidade.

    AWS Secrets Manager protege acesso a aplicações, serviços e recursos de TI sem gerenciar módulos de segurança de hardware (HSMs). Fornece armazenamento centralizado de segredos para credenciais de banco de dados, chaves de API e tokens OAuth em repositório criptografado usando criptografia AWS KMS em repouso. Rotação automática de segredos configura rotação para credenciais de banco de dados, automaticamente atualizando tanto o armazenamento de segredos quanto banco de dados alvo sem tempo de inatividade de aplicação. Controle de acesso refinado usa políticas IAM para controlar quais usuários e serviços acessam segredos específicos, implementando acesso de menor privilégio. Trilhas de auditoria registram acesso a segredos no AWS CloudTrail para investigações de conformidade e segurança. Suporte a VPC endpoint desenhado para que tráfego de recuperação de segredos não deixe a rede AWS. Integração Lambda habilita funções a recuperarem segredos programaticamente em runtime, desenhado para que segredos não sejam armazenados em código ou arquivos de configuração e possam ser rotacionados sem reimplantação.

    GuardDuty fornece monitoramento alimentado por IA, detectando padrões de comportamento anômalo que podem indicar comprometimento de credencial ou acesso não autorizado.

    Camada 7: Proteção de Dados

    A camada de dados armazena informações sensíveis de negócio e dados de cliente exigindo proteção tanto em repouso quanto em trânsito. Dados devem ser criptografados, acesso rigidamente controlado e operações auditadas, mantendo resiliência contra ataques de disponibilidade e alta performance.

    Amazon DynamoDB é um banco de dados NoSQL totalmente gerenciado fornecendo recursos de segurança integrados incluindo criptografia em repouso (usando chaves de propriedade AWS, gerenciadas AWS ou gerenciadas pelo cliente com AWS KMS). Criptografia em trânsito (TLS 1.2 ou superior). Controle de acesso refinado através de políticas IAM com permissões em nível de item e atributo. VPC endpoints para conectividade privada. Recuperação point-in-time para backups contínuos. Streams para trilhas de auditoria. Capacidades de backup e recuperação de desastre. Global Tables para replicação multi-região multi-ativa na AWS fornecendo alta disponibilidade e acesso global de baixa latência.

    GuardDuty e Amazon Bedrock fornecem proteção de dados alimentada por IA: GuardDuty monitora atividade de API do DynamoDB através de logs CloudTrail usando aprendizado de máquina para detectar padrões anômalo de acesso a dados incluindo volumes de query incomuns, acesso de localizações geográficas inesperadas e tentativas de exfiltração de dados. Amazon Bedrock analisa DynamoDB Streams e logs CloudTrail para identificar padrões de acesso suspeitos, correlacionar anomalias através de múltiplas tabelas e períodos de tempo, gerar resumos em linguagem natural de incidentes de acesso a dados para equipes de segurança e recomendar ajustes de política de controle de acesso baseados em padrões de uso real versus permissões configuradas. Isso ajuda transformar proteção de dados de monitoramento reativo para threat hunting proativo que pode detectar credenciais comprometidas e ameaças internas.

    Monitoramento Contínuo

    Mesmo com controles de segurança abrangentes em cada camada, monitoramento contínuo é essencial para detectar ameaças que contornam defesas. Segurança requer visibilidade em tempo real contínua, detecção inteligente de ameaças e capacidades rápidas de resposta em vez de implementação única.

    GuardDuty protege suas contas AWS, workloads e dados com detecção inteligente de ameaças. Amazon CloudWatch fornece monitoramento e observabilidade abrangentes, coletando métricas, monitorando arquivos de log, configurando alarmes e automaticamente reagindo a mudanças em recursos AWS. AWS CloudTrail fornece governança, conformidade e auditoria operacional registrando todas as chamadas de API em sua conta AWS, criando trilhas de auditoria abrangentes para análise de segurança e relatórios de conformidade.

    Aprimoramento alimentado por IA com Amazon Bedrock fornece análise automatizada de ameaças; gerando resumos em linguagem natural de achados de GuardDuty e logs CloudWatch, reconhecimento de padrão identificando ataques coordenados através de múltiplos sinais de segurança, recomendações de resposta a incidentes baseadas em sua arquitetura e requisitos de conformidade, avaliação de postura de segurança com recomendações de melhoria e resposta automatizada através de Lambda e Amazon EventBridge que isola recursos comprometidos, revoga credenciais suspeitas ou notifica equipes de segurança através do Amazon SNS quando ameaças são detectadas.

    Conclusão

    Proteger microsserviços serverless apresenta desafios significativos, mas como demonstrado, usar serviços AWS ao lado de capacidades alimentadas por IA cria uma arquitetura resiliente de defesa em profundidade que protege contra ameaças atuais e emergentes, comprovando que segurança e agilidade não são mutuamente exclusivas. Segurança é um processo contínuo—continuamente monitore seu ambiente, regularmente revise controles de segurança, mantenha-se informado sobre ameaças emergentes e melhores práticas, e trate segurança como um princípio arquitetural fundamental ao invés de pensamento posterior.

    Leitura Complementar

    Fonte

    Building an AI-powered defense-in-depth security architecture for serverless microservices (https://aws.amazon.com/blogs/security/building-an-ai-powered-defense-in-depth-security-architecture-for-serverless-microservices/)

  • AWS Backup anuncia suporte a PrivateLink para SAP HANA na AWS

    PrivateLink para SAP HANA: segurança de ponta a ponta

    A AWS expandiu as funcionalidades do AWS Backup ao introduzir suporte a PrivateLink (Link Privado) para sistemas SAP HANA em execução na Amazon EC2. Essa nova capacidade permite que as organizações direcionem todo o tráfego de backup através de conexões de rede privada, evitando completamente a passagem pela internet pública. Para muitas empresas que operam em setores regulados, esse é um requisito fundamental de conformidade e segurança.

    O desafio anterior: tráfego dividido

    Anteriormente, havia uma limitação importante: enquanto as cargas de trabalho de aplicação SAP HANA podiam utilizar o PrivateLink para estabelecer comunicação segura e privada com os serviços da AWS, o tráfego de backup precisava obrigatoriamente passar por endpoints públicos. Essa divisão criava um cenário onde a proteção de dados não era completamente privada de ponta a ponta, exigindo concessões em termos de segurança.

    Conformidade regulatória simplificada

    Organizações em setores altamente regulados — como serviços financeiros, saúde e agências governamentais — frequentemente enfrentam exigências estritas quanto à privacidade e localidade de dados. Com essa atualização, a AWS permite que empresas sujeitas a regulamentações como HIPAA (Lei de Portabilidade e Responsabilidade de Seguros de Saúde), Privacy Shield (EU/US) e PCI DSS (Padrão de Segurança de Dados para Indústria de Cartões de Pagamento) implementem estratégias de proteção de dados totalmente privadas. Isso significa que tanto o tráfego de aplicação quanto os dados de backup permanem dentro de redes privadas controladas pela organização.

    Como funciona e próximos passos

    Essa capacidade agora está disponível em todas as regiões da AWS onde o AWS Backup oferece suporte a bancos de dados SAP HANA em EC2. Para começar a utilizar o PrivateLink com backups de SAP HANA, os clientes precisam realizar duas ações principais:

    Essas configurações garantem que a infraestrutura de backup seja integrada completamente à rede privada da organização, eliminando qualquer ponto de exposição à internet pública.

    Impacto para empresas brasileiras

    Para organizações brasileiras que operam com SAP HANA e estão em setores regulados (instituições financeiras, plataformas de saúde, órgãos governamentais), essa novidade representa um avanço significativo na capacidade de atender exigências de conformidade de forma prática. O recurso simplifica a implementação de arquiteturas de nuvem verdadeiramente privadas, reduzindo a complexidade operacional e os riscos associados à exposição desnecessária de tráfego de dados.

    Fonte

    AWS Backup announces PrivateLink support for SAP HANA on AWS (https://aws.amazon.com/about-aws/whats-new/2026/02/aws-backup-announces-privatelink-sap-hana-aws/)

  • Personalize a navegação de agentes de IA com proxies, perfis e extensões no Amazon Bedrock AgentCore Browser

    Agentes de IA com capacidades avançadas de navegação na web

    Agentes que navegam na web não funcionam bem apenas com navegação básica de páginas. Empresas que usam a AWS para construir soluções com inteligência artificial relatam necessidades específicas: agentes que mantêm contexto de sessão entre interações, tráfego roteado através de infraestrutura de proxy corporativo, e comportamentos customizados em tempo de execução.

    O AgentCore Browser oferece um ambiente de navegação seguro e isolado para agentes interagirem com aplicações web. Até agora, cada sessão começava do zero com configurações padrão e acesso direto à internet, limitando as capacidades de agentes em ambientes corporativos reais.

    A AWS anunciou três novas capacidades que mudam esse cenário: configuração de proxy, perfis de navegador, e extensões de navegador. Juntas, essas funcionalidades oferecem controle fino sobre como agentes de IA interagem com a web.

    Entendendo as três novas capacidades

    Essas capacidades funcionam de forma complementar, oferecendo controle granular sobre como sessões do AgentCore Browser se conectam à internet, que estado retêm e como se comportam:

    • Configuração de proxy: Roteia tráfego do navegador através de servidores proxy próprios, garantindo estabilidade de IP e integração com infraestrutura de rede corporativa.
    • Perfis de navegador: Persistem cookies e armazenamento local entre sessões, permitindo que agentes retomem fluxos de trabalho autenticados sem repetir login.
    • Extensões de navegador: Carregam extensões Chrome em sessões para customizar comportamento do navegador conforme a necessidade — desde bloqueio de anúncios até autenticação auxiliar.

    Perfis de navegador persistentes para agentes operacionais

    Equipes construindo agentes para testes de e-commerce, fluxos de trabalho autenticados e jornadas multipassos precisam de sessões que “lembram” do estado anterior. Sem perfis persistentes, agentes precisam se reautenticar e reconstruir contexto a cada início de sessão, adicionando latência e fragilidade.

    Perfis de navegador resolvem esse problema salvando e restaurando cookies e armazenamento local entre sessões. Um agente que fez login em um portal ontem pode continuar exatamente de onde parou hoje.

    Estabilidade de IP é outro requisito comum. Portais de saúde e financeiros validam sessões baseando-se em endereço IP de origem. Endereços IP rotativos da AWS causam ciclos frequentes de reautenticação que quebram fluxos de trabalho de longa duração. Suporte a proxy permite rotear tráfego através de servidores com IPs de saída estáveis, mantendo continuidade de sessão e satisfazendo requisitos de IP allowlisting.

    Organizações que rotam tráfego através de proxies corporativos precisam estender essa prática para agentes de IA em sessões de navegador. Configuração de proxy habilita acesso a páginas internas e recursos que requerem conectividade baseada em proxy.

    Extensões de navegador permitem customizações como bloqueio de anúncios, auxiliares de autenticação ou outras personalizações em nível de navegador. Quando combinadas com logging de proxy, essas capacidades ajudam a fornecer controle de acesso e evidência de auditoria que podem suportar programas de conformidade como FedRAMP, HITRUST e PCI.

    Configuração de proxy para roteamento de tráfego

    O AgentCore Browser agora suporta rotear tráfego do navegador através de servidores proxy externos próprios. Ao criar uma sessão de navegador com configuração de proxy, o AgentCore configura o navegador para rotear tráfego HTTP e HTTPS através dos servidores proxy especificados.

    Como funciona

    Você chama StartBrowserSession com proxyConfiguration especificando seu servidor proxy. Se usar autenticação, o AgentCore recupera credenciais de proxy do AWS Secrets Manager. A sessão de navegador inicia com sua configuração de proxy aplicada, e tráfego do navegador roteia através de seu servidor proxy baseado em regras de roteamento por domínio.

    Começando com proxies

    Complete os pré-requisitos antes de prosseguir.

    Passo 1: Criar um segredo de credenciais (se seu proxy requer autenticação)

    import boto3
    import json
    
    client = boto3.client('secretsmanager')
    client.create_secret(
        Name='my-proxy-credentials',
        SecretString=json.dumps({
            'username': '',
            'password': ''
        })
    )

    Passo 2: Criar uma sessão de navegador com configuração de proxy

    session_client = boto3.client('bedrock-agentcore', region_name='')
    response = session_client.start_browser_session(
        browserIdentifier="aws.browser.v1",
        name="my-proxy-session",
        proxyConfiguration={
            "proxies": [{
                "externalProxy": {
                    "server": "",
                    "port": 8080,
                    "credentials": {
                        "basicAuth": {
                            "secretArn": "arn:aws:secretsmanager:::secret:"
                        }
                    }
                }
            }]
        }
    )
    print(f"Session ID: {response['sessionId']}")

    O campo credentials é opcional para proxies sem autenticação.

    Roteamento baseado em domínio

    Use domainPatterns para rotear domínios específicos através de proxies designados, e bypass.domainPatterns para domínios que devem conectar diretamente:

    proxyConfiguration={
        "proxies": [
            {
                "externalProxy": {
                    "server": "corp-proxy.example.com",
                    "port": 8080,
                    "domainPatterns": [".company.com", ".internal.corp"]
                }
            },
            {
                "externalProxy": {
                    "server": "general-proxy.example.com",
                    "port": 8080
                }
            }
        ],
        "bypass": {
            "domainPatterns": [".amazonaws.com"]
        }
    }

    Com essa configuração, requisições para *.company.com e *.internal.corp rotiam através do proxy corporativo, requisições para *.amazonaws.com contornam todos os proxies, e todo o resto roteia através do proxy geral.

    Precedência de roteamento

    Quando o AgentCore Browser processa uma requisição de saída, percorre três níveis de regras de roteamento para decidir onde enviar o tráfego. Primeiro verifica a lista de bypass. Se o domínio de destino corresponder a uma entrada em bypass.domainPatterns, a requisição conecta diretamente à internet sem usar proxy algum.

    Se o domínio não corresponder a uma regra de bypass, o AgentCore verifica cada domainPatterns de proxy em ordem e roteia a requisição através do primeiro proxy cuja regra corresponde. Se nenhuma regra de proxy corresponder, a requisição cai no proxy padrão — a entrada de proxy que não possui domainPatterns definida.

    Teste a nova funcionalidade de proxy com este exemplo de código.

    Perfis de navegador para persistência de estado

    Perfis de navegador permitem persistir e reutilizar dados de sessão entre múltiplas sessões de navegador, incluindo cookies e armazenamento local. Um agente que se autentica com um portal web em uma sessão pode restaurar esse estado em uma sessão posterior sem fazer login novamente.

    Isso é útil para fluxos de trabalho autenticados onde re-login adiciona latência, testes de e-commerce onde carrinhos de compras e dados de formulários precisam sobreviver entre sessões, e jornadas de usuário multipassos que abrangem múltiplas invocações de navegador.

    Ciclo de vida do perfil

    O ciclo de vida do perfil possui quatro estágios. Você começa chamando create_browser_profile() para criar um perfil nomeado. No final de uma sessão, você chama save_browser_session_profile() para capturar cookies e armazenamento local atuais naquele perfil. Ao iniciar uma nova sessão, você passa o identificador do perfil no parâmetro profileConfiguration de start_browser_session(), que restaura o estado salvo no novo navegador. Quando não precisar mais do perfil, você chama delete_browser_profile() para limpá-lo.

    O exemplo a seguir mostra um agente que adiciona itens a um carrinho de compras em uma sessão e verifica se persistem em uma sessão subsequente. Complete os pré-requisitos antes de prosseguir.

    import boto3
    
    control_client = boto3.client('bedrock-agentcore-control', region_name='')
    session_client = boto3.client('bedrock-agentcore', region_name='')
    
    # Create a browser profile
    profile = control_client.create_browser_profile(name="ecommerce_profile")
    profile_id = profile['profileId']
    
    # Session 1: Add items to cart
    session1 = session_client.start_browser_session(
        browserIdentifier="aws.browser.v1",
        name="shopping-session-1"
    )
    # ... agent navigates and adds items to cart ...
    
    # Save session state to profile
    session_client.save_browser_session_profile(
        sessionId=session1['sessionId'],
        browserIdentifier="aws.browser.v1",
        profileIdentifier=profile_id
    )
    session_client.stop_browser_session(sessionId=session1['sessionId'], browserIdentifier="aws.browser.v1")
    
    # Session 2: Resume with saved profile
    session2 = session_client.start_browser_session(
        browserIdentifier="aws.browser.v1",
        name="shopping-session-2",
        profileConfiguration={"profileIdentifier": profile_id}
    )
    # Cart items from Session 1 are now available

    Teste a nova funcionalidade de perfil com este exemplo de código.

    Extensões de navegador para customização

    Extensões de navegador permitem carregar extensões Chrome em sessões do AgentCore Browser para customizar como o navegador se comporta. Você empacota extensões como arquivos ZIP, carrega-as no Amazon Simple Storage Service (Amazon S3), e referencia-as ao iniciar uma sessão de navegador.

    Isso oferece acesso a funcionalidades disponíveis através da API de extensão Chrome, de roteamento de proxy e bloqueio de anúncios até auxiliares de autenticação e modificação de conteúdo. Por exemplo, você pode injetar tokens de autenticação para aplicações internas, remover anúncios e rastrear scripts que interferem com navegação de agente, ou modificar conteúdo de página para melhorar como agentes interagem com um site.

    Configurando extensões

    Sua extensão deve seguir o formato padrão de extensão Chromium e aderir às diretrizes de extensão Chromium. Complete os pré-requisitos antes de prosseguir.

    Fazer upload da extensão para Amazon S3:

    import boto3
    
    s3 = boto3.client('s3')
    s3.upload_file(
        'my-extension.zip',
        'amzn-s3-demo-bucket-extensions',
        'extensions/my-extension.zip'
    )

    Iniciar uma sessão com a extensão:

    import boto3
    
    region = ""
    client = boto3.client('bedrock-agentcore', region_name=region)
    response = client.start_browser_session(
        browserIdentifier="aws.browser.v1",
        name="my-session-with-extensions",
        sessionTimeoutSeconds=1800,
        viewPort={
            'height': 1080,
            'width': 1920
        },
        extensions=[
            {
                "location": {
                    "s3": {
                        "bucket": "amzn-s3-demo-bucket-extensions",
                        "prefix": "extensions/my-extension.zip"
                    }
                }
            },
            {
                "location": {
                    "s3": {
                        "bucket": "amzn-s3-demo-bucket-extensions",
                        "prefix": "extensions/another-extension.zip",
                        "versionId": "abc123"
                    }
                }
            }
        ]
    )
    print(f"Session ID: {response['sessionId']}")
    print(f"Status: {response['status']}")
    print(f"Automation Stream: {response['streams']['automationStream']['streamEndpoint']}")

    Teste a nova funcionalidade de extensões com este exemplo de código.

    Reunindo tudo: casos de uso práticos

    Essas três capacidades — configuração de proxy, perfis de navegador e extensões — permitem casos de uso que antes eram impossíveis:

    • Fluxos de trabalho autenticados: Agentes que precisam permanecer autenticados em portais corporativos internos podem usar perfis para manter sessão e proxies para acessar redes restritas.
    • Testes de e-commerce: Agentes podem manter carrinhos de compras, preferências e histórico de busca entre sessões, simulando comportamento real de usuários.
    • Jornadas complexas: Fluxos que envolvem múltiplas etapas, autenticação e verificação podem agora se completar sem começar do zero.
    • Conformidade e auditoria: Proxy logging combinado com extensões oferece visibilidade e controle necessários para programas de conformidade corporativa.

    Próximos passos

    Para começar, consulte os tutoriais no repositório Amazon Bedrock AgentCore samples e a documentação do AgentCore Browser. Para mais informações sobre preços, visite Amazon Bedrock AgentCore Pricing.

    Essas três capacidades — configuração de proxy, perfis de navegador e extensões — oferecem ao AgentCore Browser o roteamento de proxy, persistência de sessão e controles de extensibilidade que empresas precisam para implantar agentes de IA que navegam na web em produção. Você pode rotear tráfego através de infraestrutura de proxy corporativo, manter continuidade de sessão entre interações, e customizar comportamento de navegador com extensões, tudo mantendo credenciais seguras no AWS Secrets Manager.

    Fonte

    Customize AI agent browsing with proxies, profiles, and extensions in Amazon Bedrock AgentCore Browser (https://aws.amazon.com/blogs/machine-learning/customize-ai-agent-browsing-with-proxies-profiles-and-extensions-in-amazon-bedrock-agentcore-browser/)

  • Amazon Connect agora oferece resumos em tempo real com IA e recomenda as próximas ações para Tarefas

    O que mudou no Amazon Connect

    A Amazon Connect acaba de receber uma atualização importante que traz inteligência artificial para acelerar o trabalho dos agentes. O serviço agora fornece resumos de tarefas gerados por IA com sugestões de próximas ações, permitindo que os agentes entendam os trabalhos pendentes mais rapidamente e os resolvam com maior eficiência.

    Como funciona na prática

    Imagine um agente recebendo uma tarefa para processar uma solicitação de reembolso enviada através de um formulário online. Em vez de ter que revisar manualmente todos os passos anteriores, a IA do Amazon Connect faz um resumo automático das atividades realizadas — como verificação de detalhes do pedido, confirmação de elegibilidade para devolução e validação do método de pagamento — e então apresenta os próximos passos recomendados para completar o reembolso.

    Essa abordagem reduz significativamente o tempo que o agente gasta entendendo o contexto da tarefa e o coloca imediatamente em condição de avançar com a resolução.

    Como ativar o recurso

    Para aproveitar essa funcionalidade, é necessário adicionar o bloco de fluxo do assistente Connect aos seus fluxos antes de uma tarefa ser atribuída ao agente. Além disso, é possível orientar as recomendações do assistente de tarefas alimentado por IA através da adição de bases de conhecimento, personalizando as sugestões conforme a realidade do seu negócio.

    Disponibilidade

    Este novo recurso está disponível em todas as regiões da AWS onde o Amazon Connect oferece assistência em tempo real para agentes. Para começar a implementação, consulte a documentação de ajuda, explore a página de preços ou visite o site do Amazon Connect para obter informações completas.

    O impacto para centros de contato

    Essa integração de IA representa um passo significativo na automação de processos dentro de centros de contato. Ao reduzir o tempo de compreensão de cada tarefa, os agentes podem aumentar sua produtividade e oferecer um atendimento mais rápido aos clientes. A sugestão de próximas ações também ajuda a padronizar os processos, garantindo que os fluxos corretos sejam seguidos independentemente da experiência do agente.

    Fonte

    Amazon Connect now provides real time AI-powered overviews and recommended next actions for Tasks (https://aws.amazon.com/about-aws/whats-new/2026/02/connect-tasks-ai-assistance)

  • Suporte em IA da AWS Support Center agora funciona em 7 idiomas adicionais

    Suporte multilíngue chega ao console de troubleshooting da AWS

    A AWS anunciou a expansão do recurso de diagnóstico com inteligência artificial disponível no AWS Support Center Console. Agora o sistema oferece suporte em sete idiomas adicionais além do inglês: japonês, coreano, mandarim simplificado, mandarim tradicional, espanhol, português e francês.

    Uma barreira linguística importante foi removida

    O AWS Support Center Console é a interface principal onde clientes gerenciam sua experiência de suporte na nuvem, criando e rastreando casos de suporte. Anteriormente, as capacidades de diagnóstico assistidas por inteligência artificial estavam disponíveis somente em inglês, o que representava uma barreira significativa para profissionais que preferem trabalhar em seu idioma nativo.

    Com esta atualização, os usuários podem interagir com assistência de troubleshooting alimentada por IA em seu idioma preferido. Isso significa que desenvolvedores, arquitetos e equipes de operações em diferentes países agora têm acesso equivalente às ferramentas de resolução de problemas.

    Como funciona na prática

    O recurso de troubleshooting com IA da AWS Support ajuda clientes a resolver problemas com mais rapidez, fornecendo recomendações contextificadas e imediatas durante o processo de criação de um caso de suporte. Para ilustrar: um desenvolvedor japonês que enfrenta um problema de conectividade com EC2 pode agora receber insights gerados por IA e soluções potenciais totalmente em japonês, reduzindo significativamente o tempo necessário para entender e implementar as correções.

    Acesso democrático ao recurso

    Esta capacidade está integrada de forma contínua à experiência de suporte e está disponível para todos os clientes, independentemente do plano de suporte contratado. Isso garante que a barreira linguística não limite o acesso a ferramentas de autoatendimento.

    Qualquer cliente pode acessar o recurso selecionando um idioma suportado nas configurações do console e clicando no link “Try it now” no banner no topo do AWS Support Center Console.

    Regiões onde o recurso está disponível

    Este recurso está disponível em todas as regiões AWS onde o troubleshooting com IA no AWS Support Center Console é oferecido:

    • US East (N. Virginia)
    • US East (Ohio)
    • Europe (Ireland)

    Próximos passos

    Para aprender mais sobre o AWS Support Center Console e o troubleshooting com IA, consulte a documentação de suporte completa.

    Fonte

    AI Troubleshooting in the AWS Support Center Console now supports 7 additional languages (https://aws.amazon.com/about-aws/whats-new/2026/02/ai-troubleshooting-in-aws-support-center/)

  • Servidores MCP de Longa Duração no Amazon Bedrock AgentCore com Integração Strands Agents

    Agentes de IA Evoluindo Para Operações Complexas

    Os agentes de inteligência artificial estão deixando de ser simples interfaces de conversação para se tornarem ferramentas sofisticadas de processamento de dados. Organizações cada vez mais utilizam esses agentes para treinar modelos, processar grandes volumes de informações e executar simulações estendidas. Esse cenário traz uma questão técnica fundamental: operações que levam minutos ou horas extrapolam completamente os limites de tempo típicos das sessões de usuário.

    O desafio central abordado pela AWS diz respeito à execução de tarefas que persistem além das conexões convencionais. Imagine um cenário onde seu agente de IA inicia um processamento de dados que durará várias horas, o usuário fecha seu navegador, e quando retorna dias depois, o sistema apresenta os resultados completos com visibilidade total sobre o progresso e qualquer erro ocorrido. Isso é possível através de padrões arquiteturais que combinam Amazon Bedrock AgentCore e Strands Agents para gerenciar estado persistente.

    Sem esses padrões, encontram-se erros de timeout, utilização ineficiente de recursos e potencial perda de dados quando conexões se encerram abruptamente. A solução proposta integra três estratégias complementares: comunicação contínua entre servidores e clientes durante operações estendidas, gerenciamento de tarefas assíncronas que permite aos agentes iniciar processos sem bloquear outras operações, e a integração desses componentes em um sistema pronto para produção.

    Duas Estratégias Para Tarefas de Longa Duração

    Ao projetar servidores Model Context Protocol (MCP) para tarefas prolongadas, surge uma decisão arquitetural fundamental: a conexão deve permanecer ativa fornecendo atualizações em tempo real, ou deve haver desacoplamento entre execução e requisição inicial? Essa escolha delineia duas abordagens distintas.

    Mensagens de Contexto: Mantendo Conexões Ativas

    A abordagem de mensagens de contexto preserva comunicação contínua entre servidor MCP e cliente durante toda a execução. O servidor utiliza o objeto de contexto integrado do MCP para enviar notificações periódicas. Essa estratégia funciona melhor para cenários onde tarefas completam dentro de 10 a 15 minutos e a conectividade permanece estável.

    As vantagens dessa abordagem incluem implementação direta, ausência de lógica adicional de verificação repetida, implementação simplificada no cliente e sobrecarga mínima.

    A implementação funciona através de mensagens de “heartbeat” que mantêm a conexão viva durante operações estendidas. Cada notificação de progresso previne que o servidor encerre a conexão por inatividade. Exemplos práticos incluem relatórios de progresso em treinamento de modelos, onde a cada iteração um novo percentual de conclusão é reportado.

    Quando o progresso exato não é facilmente quantificável—como em processamento de datasets imprevisíveis ou chamadas a APIs externas—implementa-se um sistema de heartbeat baseado em tempo: notificações periódicas simplesmente informam que o processamento continua ativo, sem necessidade de métrica específica.

    Gerenciamento de Tarefas Assíncronas: O Modelo “Fire-and-Forget”

    O padrão de gerenciamento assíncronico separa a iniciação da tarefa de sua execução e recuperação de resultados. Após executar a ferramenta MCP, ela retorna imediatamente uma mensagem com identificador de tarefa enquanto o trabalho prossegue em background. Essa abordagem excele em cenários empresariais exigentes onde tarefas podem durar horas, usuários precisam de flexibilidade para desconectar e reconectar, e a confiabilidade do sistema é paramount.

    Os benefícios incluem verdadeira operação “fire-and-forget”, segurança para desconexão do cliente enquanto tarefas continuam, prevenção de perda de dados através de armazenamento persistente, suporte para operações de muitas horas, resiliência contra interrupções de rede e suporte a fluxos de trabalho completamente assíncronos.

    Este padrão espelha como organizações interagem com sistemas de processamento em lote: submete-se um job, desconecta-se, e verifica-se progresso quando conveniente. A implementação cria três ferramentas MCP distintas: uma que inicia a tarefa e retorna um identificador único, outra para verificar status e progresso em qualquer momento, e uma terceira para recuperar resultados quando concluídos.

    Quando Usar Cada Abordagem

    Mensagens de contexto funcionam melhor quando tarefas levam entre um e 15 minutos, conexões de rede são geralmente estáveis e a sessão do cliente permanece ativa durante toda a operação. O limite de 15 minutos baseia-se no tempo máximo para requisições síncronas no Amazon Bedrock AgentCore.

    Contudo, essa abordagem possui limitações críticas: a sessão do cliente deve permanecer ativa—se o navegador fecha ou a rede cai, o trabalho é perdido. Manter conexões abertas consome recursos significativos no servidor e cliente, potencialmente aumentando custos. Instabilidade de rede ainda pode interromper o processo, exigindo reinício completo. A maioria das infraestruturas possui limites de timeout absolutos que mensagens de heartbeat não conseguem contornar.

    Para operações verdadeiramente prolongadas que possam durar horas, ou quando usuários precisam desconectar e reconectar posteriormente, o gerenciamento assíncronico torna-se necessário. Porém, essa abordagem introduz suas próprias limitações: requer que usuários verifiquem manualmente status de tarefa, lembrem identificadores entre sessões e solicitem resultados explicitamente, aumentando complexidade de interação. Armazenamento em memória volátil—como em exemplo básico—significa que tarefas e resultados desaparecem se o servidor reinicia, tornando inadequado para produção sem persistência externa. Em ambientes serverless efêmeros, instâncias terminam automaticamente após inatividade, causando perda permanente do estado de tarefa em memória.

    Solução Robusta: Persistência Externa

    Para resolver essas limitações críticas, é necessário incluir persistência externa que sobreviva tanto a reinicializações de servidor quanto a terminações de instância. A solução avançada utiliza Amazon Bedrock AgentCore Memory como armazenamento persistente de estado de agente.

    Quando um servidor MCP executa tarefa de longa duração, escreve resultados intermediários ou finais diretamente no armazenamento de memória externa que o agente pode acessar. Isso cria resiliência contra dois tipos de falhas: a instância executando o servidor MCP pode ser encerrada por inatividade após conclusão da tarefa, e a instância hospedando o próprio agente pode ser reciclada em ambientes serverless. Quando usuários retornam para interagir com o agente—seja minutos, horas ou dias depois—o agente recupera resultados completados do armazenamento persistente.

    Essa abordagem minimiza dependências de runtime: mesmo que ambas as instâncias, servidor MCP e agente, sejam terminadas, os resultados da tarefa permanecem preservados e acessíveis quando necessário.

    Implementação Com Amazon Bedrock AgentCore e Strands Agents

    Escolhendo Entre Gateway e Runtime

    Antes de implementar, é importante compreender as opções de deployment disponíveis para servidores MCP no Amazon Bedrock AgentCore. Existem duas abordagens primárias: Amazon Bedrock AgentCore Gateway e AgentCore Runtime.

    AgentCore Gateway possui timeout de cinco minutos para invocações, tornando-o inadequado para hospedar servidores MCP que ofereçam ferramentas exigindo tempos de resposta estendidos ou operações longas. Amazon Bedrock AgentCore Runtime, por outro lado, oferece significativamente mais flexibilidade: timeout de 15 minutos para requisições síncronas e duração máxima de sessão ajustável para processos assíncronos—a duração padrão é oito horas.

    Embora fosse possível hospedar um servidor MCP em ambiente tradicional com servidores físicos para tempo de execução ilimitado, AgentCore Runtime proporciona equilíbrio ótimo para a maioria dos cenários de produção. Obtém-se benefícios serverless como scaling automático, preço por uso e sem gerenciamento de infraestrutura, enquanto os máximos ajustáveis cobrem praticamente todas as operações reais longas—desde processamento de dados e treinamento de modelos até geração de relatórios e simulações complexas. Essa abordagem permite construir agentes sofisticados sem overhead operacional de gerenciar servidores, reservando deployments com infraestrutura física apenas para casos raros que genuinamente exigem execuções de múltiplos dias.

    Servidor MCP Com Persistência de Memória

    A implementação do servidor MCP utiliza AgentCore Memory para atingir persistência de resultados. O cliente de memória estabelece comunicação com o armazenamento persistente. Quando uma tarefa em background completa, o método agentcore_memory_client.create_event() salva os resultados diretamente na memória do agente utilizando os identificadores apropriados de memória, ator e sessão.

    Diferentemente de abordagens tradicionais onde resultados podem ser armazenados temporariamente ou exigir recuperação manual, essa integração torna os resultados de tarefas uma parte permanente da memória conversacional do agente. O agente pode então referenciar esses resultados em interações futuras, criando experiência contínua de construção de conhecimento através de múltiplas sessões.

    Um componente crucial envolve extrair contexto de sessão através dos headers HTTP da requisição MCP. O header “Mcp-Session-Id” faz parte do protocolo MCP padrão. Esse header passa um identificador composto contendo três informações essenciais em formato delimitado: session_id@@@memory_id@@@actor_id. Headers são usados em vez de variáveis de ambiente por necessidade: esses identificadores mudam dinamicamente a cada conversa, enquanto variáveis de ambiente permanecem estáticas desde startup do container. Essa escolha é particularmente importante em cenários multi-tenant onde um único servidor MCP simultaneamente gerencia requisições de múltiplos usuários, cada um com seu próprio contexto de sessão distinto.

    Ao salvar eventos no AgentCore Memory, cada mensagem requer dois componentes: o conteúdo e um identificador de papel (role). Esses componentes precisam ser formatados de maneira que o framework de agente reconheça. Para o framework Strands Agents, isso significa serializar o conteúdo como JSON interno contendo detalhes da mensagem incluindo papel, conteúdo textual e identificador de mensagem, com um identificador de papel externo (USER neste exemplo) ajudando a categorizar a origem da mensagem no AgentCore Memory.

    Integração Com Strands Agents

    Integrar Amazon Bedrock AgentCore Memory com Strands Agents é notavelmente simples utilizando a classe AgentCoreMemorySessionManager do Bedrock AgentCore SDK. A implementação requer configuração mínima: criar um objeto AgentCoreMemoryConfig com os identificadores de sessão, inicializar o gerenciador de sessão com essa configuração, e passá-lo diretamente ao construtor do agente. O gerenciador de sessão transparentemente gerencia operações de memória nos bastidores, mantendo histórico de conversa e contexto através de interações enquanto organiza memórias utilizando a combinação de session_id, memory_id e actor_id.

    O gerenciamento de contexto de sessão é particularmente elegante nessa abordagem. O agente recebe identificadores de sessão através dos parâmetros de payload e contexto fornecidos pelo AgentCore Runtime. Esses identificadores formam uma ponte contextual crucial conectando interações do usuário através de múltiplas sessões. O session_id pode ser extraído do objeto contexto—gerando um novo se necessário—enquanto memory_id e actor_id são recuperados do payload. Esses identificadores são então empacotados em um header HTTP customizado que é passado ao servidor MCP durante o estabelecimento de conexão.

    Para manter essa experiência persistente através de múltiplas interações, clientes devem consistentemente fornecer os mesmos identificadores ao invocar o agente. Fornecendo consistentemente o mesmo memory_id, actor_id e runtimeSessionId através de invocações, usuários criam experiência conversacional contínua onde resultados de tarefas persistem independentemente de limites de sessão. Quando um usuário retorna dias depois, o agente pode automaticamente recuperar tanto histórico de conversa quanto resultados de tarefa que foram completados durante sua ausência.

    Uma Nova Geração de Agentes Autônomos

    Essa arquitetura representa avanço significativo nas capacidades de agentes de IA, transformando operações de longa duração de processos frágeis e dependentes de conexão em tarefas robustas e persistentes que continuam funcionando independentemente de estado de conexão. O resultado é um sistema que pode entregar assistência genuinamente assíncrona através de IA, onde trabalho complexo continua progredindo em background e resultados são integrados perfeitamente sempre que o usuário retorna à conversa.

    Tanto mensagens de contexto quanto gerenciamento assíncronico oferecem caminhos viáveis: mensagens de contexto para tarefas moderadas mantendo conexões ativas, gerenciamento assíncronico para necessidades que crescem. As soluções descritas podem ser rapidamente adaptadas para necessidades específicas, ajudando a construir IA que entrega resultados confiávelmente—mesmo quando usuários desconectam e retornam dias depois.

    Para conhecer mais detalhes, consulte a documentação do Amazon Bedrock AgentCore e explore o notebook de exemplo fornecido. Mais informações sobre quotas de serviço estão disponíveis na documentação de quotas do Amazon Bedrock AgentCore, e a documentação do AgentCore Memory Session Manager oferece detalhes sobre integração com Strands Agents.

    Fonte

    Build long-running MCP servers on Amazon Bedrock AgentCore with Strands Agents integration (https://aws.amazon.com/blogs/machine-learning/build-long-running-mcp-servers-on-amazon-bedrock-agentcore-with-strands-agents-integration/)

  • Amazon RDS for PostgreSQL: Suporte para Novas Versões Menores 18.2, 17.8, 16.12, 15.16 e 14.21

    Novas Versões Menores Disponíveis no Amazon RDS for PostgreSQL

    A Amazon Web Services anunciou o suporte a novas versões menores do PostgreSQL no serviço Amazon Relational Database Service (RDS) for PostgreSQL. Agora estão disponíveis as versões 18.2, 17.8, 16.12, 15.16 e 14.21, ampliando as opções de atualização para os usuários que mantêm bancos de dados em diferentes ciclos de suporte.

    Por Que Atualizar Para as Novas Versões Menores

    As atualizações de versões menores são importantes por dois motivos principais. Primeiro, elas resolvem vulnerabilidades de segurança conhecidas presentes em versões anteriores do PostgreSQL. A comunidade de desenvolvimento do PostgreSQL trabalha continuamente para identificar e corrigir essas falhas, tornando as novas versões menores mais seguras para ambientes de produção.

    Em segundo lugar, cada nova versão menor incorpora correções de bugs acumuladas pela comunidade PostgreSQL, melhorando a estabilidade e a confiabilidade do banco de dados. Essas correções adresam problemas encontrados em uso real e contribuem para uma experiência mais robusta.

    Nova Extensão pg_stat_monitor

    Esta versão também introduce a extensão pg_stat_monitor, que traz capacidades avançadas para monitoramento de performance. A ferramenta permite coletar métricas de desempenho e avaliar insights sobre o comportamento de consultas em uma visualização única e integrada, facilitando a identificação de gargalos e oportunidades de otimização.

    Estratégias de Atualização: Automática e Orquestrada

    Para simplificar o gerenciamento de bancos de dados em larga escala, a AWS oferece várias abordagens de atualização:

    • Atualizações Automáticas: Você pode configurar atualizações automáticas de versão menor durante janelas de manutenção programadas, minimizando a necessidade de intervenção manual.
    • Política de Rollout Orquestrado: Para organizações com muitas instâncias, a política de rollout do AWS Organizations permite orquestrar milhares de atualizações em fases. A estratégia típica começa pelos ambientes de desenvolvimento antes de passar aos sistemas de produção, reduzindo riscos.
    • Implantações Blue/Green: Para minimizar o tempo de inatividade, você pode utilizar implantações Blue/Green do Amazon RDS com replicação física, que criam uma cópia sincronizada do banco de dados e permitem failover com downtime próximo a zero durante a atualização.

    Como Começar

    A atualização de seus bancos de dados pode ser feita através do AWS Command Line Interface (CLI) ou do console de gerenciamento do Amazon RDS. Para informações sobre preços e disponibilidade regional das novas versões, consulte a página de precificação do Amazon RDS for PostgreSQL.

    Fonte

    Amazon RDS for PostgreSQL supports minor versions 18.2, 17.8, 16.12, 15.16 and 14.21 (https://aws.amazon.com/about-aws/whats-new/2026/02/rds-minor-version-18-2-17-8-16-12-15-16-14-21)

  • IA Encontra RH: Transformando Recrutamento e Seleção com Amazon Bedrock

    A IA na Transformação dos Processos de Recrutamento

    Organizações enfrentam desafios significativos ao tentar tornar seus processos de recrutamento mais eficientes sem comprometer práticas justas de contratação. Inteligência artificial oferece um caminho promissor para superar essas dificuldades, otimizando procedimentos de seleção e aumentando a qualidade das decisões. A AWS disponibiliza um conjunto de serviços de IA que potencializam a eficiência, efetividade e equidade nas práticas de recrutamento.

    Com o Amazon Bedrock, é possível construir um sistema de recrutamento escalável e robusto que simplifica fluxos de trabalho, permitindo que revisores humanos concentrem esforços na entrevista e avaliação real de candidatos. Este artigo detalha como criar um sistema de recrutamento alimentado por IA utilizando Amazon Bedrock, Amazon Bedrock Knowledge Bases, AWS Lambda e outros serviços AWS para aprimorar criação de descrições de vagas, comunicação com candidatos e preparação de entrevistas, sem abrir mão da supervisão humana.

    Arquitetura de um Sistema de Recrutamento Alimentado por IA

    O processo de recrutamento oferece múltiplas oportunidades para aprimoramento via IA através de agentes especializados, cada um potencializado pelo Amazon Bedrock e conectado a bases de conhecimento dedicadas. Esses agentes trabalham em conjunto ao longo de diferentes etapas do ciclo de recrutamento.

    Agente de Criação e Otimização de Descrição de Vagas

    Criar descrições de vagas inclusivas e atrativas é essencial para atrair talentos diversos. Este agente utiliza modelos de linguagem avançados disponíveis no Amazon Bedrock, conectando-se a uma base de conhecimento contendo descrições históricas da organização e diretrizes de inclusão. Ele é implantado com configuração segura de Amazon Virtual Private Cloud (Amazon VPC) e papéis de AWS Identity and Access Management (IAM). O agente referencia a base de conhecimento para otimizar anúncios de vagas mantendo conformidade com padrões organizacionais e requisitos de linguagem inclusiva.

    Agente de Gestão de Comunicação com Candidatos

    Este agente gerencia interações com candidatos através de funções Lambda que acionam comunicações baseadas em etapas do fluxo de trabalho, Amazon Simple Notification Service (Amazon SNS) para entrega segura de emails e mensagens, e integração com fluxos de aprovação para comunicações reguladas. Atualizações de status são automatizadas conforme a progressão do candidato. A configuração inclui endpoints VPC apropriados e criptografia para todos os dados em trânsito e em repouso. Amazon CloudWatch monitora a efetividade das comunicações e taxas de resposta.

    Agente de Preparação para Entrevistas

    Este agente oferece suporte ao processo de entrevista acessando uma base de conhecimento com questões, procedimentos operacionais padrão e melhores práticas. Gera materiais contextualizados para entrevistas baseados em requisitos específicos da função e analisa feedback de entrevistadores utilizando Amazon Bedrock para identificar sentimentos-chave e temas consistentes. Embora forneça estrutura e orientação, os entrevistadores mantêm controle completo sobre a conversação e processo de avaliação.

    Infraestrutura Técnica e Segurança

    A implementação demanda acesso a uma conta AWS com permissões administrativas, acesso aos modelos de fundação (FMs) do Amazon Bedrock, e capacidade de criar e gerenciar papéis IAM. Os serviços AWS necessários incluem Amazon API Gateway, AWS Key Management Service (AWS KMS), Amazon Simple Storage Service (Amazon S3) para armazenamento das bases de conhecimento, além de VPC, CloudWatch e SNS.

    O template de AWS CloudFormation define a infraestrutura completa, incluindo configuração de VPC, grupos de segurança, funções Lambda, API Gateway e bases de conhecimento, facilitando implantação segura e escalável com papéis IAM adequados e criptografia. A solução implementa uma abordagem abrangente de segurança: dados são protegidos através de criptografia KMS, papéis IAM seguem princípios de menor privilégio, e visibilidade completa é mantida via CloudWatch e logs de auditoria. Para informações sensíveis, tokenização de dados e políticas rigorosas de retenção protegem informações identificáveis pessoais (PII).

    Componentes Principais da Solução

    A arquitetura integra os três agentes de recrutamento e serviços AWS em um sistema coerente. O Agente de Criação de Descrição conecta-se diretamente a uma base de conhecimento contendo exemplos de descrições e práticas recomendadas para linguagem inclusiva. O Agente de Comunicação utiliza funções Lambda para gerenciar fluxos de trabalho e SNS para entrega confiável de mensagens. O Agente de Preparação para Entrevistas fornece orientação sobre formatos de perguntas enquanto ajuda a estruturar, resumir e analisar feedback, mantendo acesso a uma base de conhecimento detalhada de padrões de entrevista.

    Implementação de Bases de Conhecimento

    O gerenciador central de base de conhecimento interage com coleções de bases do Amazon Bedrock para fornecer melhores práticas, modelos e padrões aos agentes de recrutamento. Para melhorar a qualidade da Geração Aumentada por Recuperação (RAG), recomenda-se ajustar o tamanho dos segmentos de documentos e sua sobreposição, experimentar diferentes modelos de embedding e ativar reranking para promover passagens mais relevantes. Cada agente pode utilizar diferentes modelos de fundação — por exemplo, um modelo rápido como Anthropic Claude 3 Haiku para tarefas em alto volume, e um modelo mais robusto como Claude 3 Sonnet para análise mais profunda no Agente de Preparação para Entrevistas.

    Otimização de Custos e Desempenho

    Para otimizar eficiência e gerenciar custos, a solução implementa escalamento automático para funções Lambda adaptando-se a variações de carga de trabalho. Para cargas previsíveis, AWS Savings Plans reduzem custos sem sacrificar desempenho. É possível estimar custos da solução utilizando a AWS Pricing Calculator, que ajuda no planejamento de serviços como Amazon Bedrock, Lambda e Amazon Bedrock Knowledge Bases.

    Dashboards abrangentes do CloudWatch fornecem visibilidade em tempo real do desempenho do sistema, facilitando identificação e resolução rápida de problemas. Tags de alocação de custos rastreiam despesas por departamentos ou projetos, permitindo orçamento e alocação de recursos mais precisos. Alertas de orçamento notificam a equipe quando gastos se aproximam de limites predefinidos, evitando surpresas de faturamento. Revisões periódicas de planejamento de capacidade garantem que a infraestrutura acompanhe o crescimento organizacional e mudanças nas necessidades de recrutamento.

    Supervisão Humana e Governança

    O sistema de recrutamento alimentado por IA deve priorizar supervisão humana e governança para promover práticas éticas e justas. Pontos obrigatórios de revisão ao longo do processo permitem que recrutadores avaliem recomendações de IA e tomem decisões finais. Caminhos claros de escalação facilitam intervenção humana em casos excepcionais. Ações sensíveis, como seleção final de candidatos ou aprovação de ofertas, devem estar sujeitas a fluxos de aprovação em múltiplos níveis.

    Monitoramento contínuo de qualidade e precisão de decisões — comparando recomendações de IA com decisões humanas — identifica áreas para aprimoramento. A equipe deve receber treinamento regular sobre capacidades e limitações do sistema. Procedimentos de sobreposição bem documentados permitem que recrutadores ajustem ou cancelem decisões de IA quando necessário. Treinamento regular de conformidade reforça o compromisso com uso ético de IA no recrutamento.

    Framework de Melhoria Contínua

    O compromisso com excelência deve refletir-se em um framework de melhoria contínua. Revisões regulares de métricas e coleta de feedback de stakeholders identificam áreas de aprimoramento. Testes A/B de novas funcionalidades ou mudanças de processos permitem decisões orientadas por dados. Documentação abrangente captura lições aprendidas de cada iteração ou desafio, informando atualizações contínuas de dados de treinamento.

    Análise detalhada de tendências de desempenho ao longo do tempo permite resolução proativa de potenciais problemas e capitalização em estratégias bem-sucedidas. Satisfação de stakeholders — recrutadores, gestores de contratação e candidatos — deve ser uma métrica essencial no framework de melhoria, verificando se o sistema IA-alimentado atende as necessidades de todos os envolvidos no processo de recrutamento.

    Orquestração de Agentes e Evolução da Solução

    Conforme implementações de IA amadurecem e organizações desenvolvem múltiplos agentes especializados, a necessidade de orquestração sofisticada torna-se crítica. Amazon Bedrock AgentCore fornece a fundação para gerenciar essa evolução, facilitando coordenação perfeitamente integrada e comunicação entre agentes mantendo controle centralizado. Esta camada de orquestração otimiza alocação de recursos e roteia tarefas com base em capacidades dos agentes, futuro-provando a infraestrutura de IA.

    Conclusão

    Os serviços de IA da AWS oferecem capacidades específicas para transformar processos de recrutamento e aquisição de talento. Mantendo foco robusto em supervisão humana, organizações podem criar práticas de contratação mais eficientes, justas e efetivas. O objetivo da IA em recrutamento não é substituir tomada de decisão humana, mas aumentá-la e apoiá-la, ajudando profissionais de RH a concentrarem-se nos aspectos mais valiosos de seus papéis: construir relacionamentos, avaliar alinhamento cultural e tomar decisões matizadas que impactam carreiras e sucesso organizacional.

    Para mais informações sobre soluções alimentadas por IA na AWS, consulte postagens do blog Amazon Bedrock e recursos sobre IA Responsável.

    Fonte

    AI meets HR: Transforming talent acquisition with Amazon Bedrock (https://aws.amazon.com/blogs/machine-learning/ai-meets-hr-transforming-talent-acquisition-with-amazon-bedrock/)