Nova região disponível para transferências de arquivos
A AWS anunciou a expansão do AWS Transfer Family para a região da Ásia Pacífico (Nova Zelândia). Essa adição permite que clientes da região tenham acesso a um serviço gerenciado de transferência de arquivos, ampliando as opções de infraestrutura na região.
Com essa disponibilidade, usuários na Nova Zelândia podem agora utilizar o AWS Transfer Family para executar transferências de dados sobre diversos protocolos padrão de transferência de arquivos, incluindo Protocolo de Transferência Segura de Arquivos (SFTP), Protocolo de Transferência de Arquivos (FTP), FTP sobre SSL (FTPS) e Declaração de Aplicabilidade 2 (AS2).
Capacidades do serviço
O AWS Transfer Family funciona como um serviço totalmente gerenciado para movimentação de dados, integrando-se com o Amazon Simple Storage Service (Amazon S3) e o Amazon Elastic File System (Amazon EFS). A transferência ocorre através dos protocolos SFTP, FTP, FTPS e AS2, oferecendo flexibilidade em diferentes cenários de uso.
Além das transferências básicas, o serviço disponibiliza funcionalidades de processamento de arquivos e automação orientada por eventos, adequadas para fluxos de trabalho de transferência gerenciada de arquivos (MFT, na sigla em inglês). Essas capacidades auxiliam organizações a modernizarem suas operações de transferência de dados entre empresas (B2B) e a migrarem essas operações para a plataforma AWS.
Próximos passos
Clientes interessados em conhecer mais detalhes sobre o AWS Transfer Family podem consultar a página do produto e o guia do usuário. Para informações completas sobre a disponibilidade regional do serviço, a tabela de regiões da AWS apresenta uma visão consolidada de quais serviços estão acessíveis em cada localidade.
A partir de janeiro de 2026, a Amazon Web Services (AWS) disponibilizou as instâncias EC2 G5 na região Ásia-Pacífico (Hong Kong). Essas instâncias são alimentadas por processadores gráficos NVIDIA A10G Tensor Core, oferecendo uma solução robusta para organizações que operam na região ou servem mercados asiáticos com demandas intensivas de processamento gráfico e inteligência artificial.
Aplicações de processamento gráfico
As instâncias G5 foram projetadas para cenários onde performance gráfica em tempo real é crítica. A AWS identifica três principais categorias de uso:
Estações de trabalho remotas: profissionais podem acessar ambientes de computação potentes através da nuvem, sem necessidade de hardware local sofisticado
Renderização de vídeo: produtoras e estúdios podem processar conteúdo visual com alta fidelidade de forma escalável
Cloud gaming: plataformas de jogos em nuvem podem entregar experiências gráficas imersivas aos usuários finais
Capacidades para machine learning
Além das aplicações gráficas, as instâncias G5 servem também a usuários de inteligência artificial. A plataforma oferece performance e eficiência de custo para treinamento e inferência em casos de uso como processamento de linguagem natural, visão computacional e sistemas de recomendação.
Especificações técnicas
Cada instância G5 disponibiliza até 8 processadores gráficos NVIDIA A10G Tensor Core, combinados com processadores AMD EPYC de segunda geração. A configuração suporta até 192 vCPUs, largura de banda de rede de até 100 Gbps e armazenamento local NVMe SSD de até 7,6 TB.
A AWS oferece oito tamanhos diferentes de instâncias G5, permitindo que clientes selecionem a configuração mais apropriada para seus workloads específicos. A flexibilidade de tamanhos garante que organizações não paguem por recursos não utilizados, otimizando o custo total da solução.
Otimização para diferentes cargas de trabalho
As instâncias G5 suportam drivers NVIDIA específicos para computação, gaming e ambientes de estação de trabalho. Essa capacidade de customização permite que cada tipo de aplicação alcance seu desempenho máximo com a configuração ideal do driver.
Modelos de aquisição
A AWS coloca as instâncias G5 disponíveis sob dois modelos de compra: Instâncias sob Demanda (On-Demand) e Instâncias Reservadas (Reserved Instances), oferecendo flexibilidade para cenários temporários ou compromissos de longo prazo.
Novas capacidades de processamento de dados estruturados
A AWS anunciou uma expansão significativa nas funcionalidades do Amazon Connect, seu serviço de solução de experiência do cliente preparada para inteligência artificial. Agora é possível armazenar e trabalhar com estruturas de dados mais complexas nos fluxos de atendimento, facilitando a construção de experiências automatizadas dinâmicas que utilizam informações estruturadas vindas dos sistemas internos da organização.
Estruturas de dados complexas e referenciação
A capacidade principal que chega é a possibilidade de salvar registros completos de dados, incluindo objetos JSON (JavaScript Object Notation) aninhados e listas. Mais importante ainda, os administradores e desenvolvedores podem referenciar elementos específicos dentro dessas estruturas, como, por exemplo, um pedido particular dentro de uma lista de pedidos retornada em formato JSON.
Iteração automática através de listas
Complementando essa funcionalidade, o Amazon Connect agora permite executar loops automáticos através de listas de itens nos fluxos de atendimento ao cliente. Durante a iteração, o sistema avança sequencialmente por cada entrada enquanto acompanha a posição atual dentro do loop. Isso permite que os detalhes de cada item sejam acessados facilmente e informações relevantes sejam apresentadas aos clientes de forma progressiva.
Casos de uso práticos
Essas novas capacidades abrem múltiplas possibilidades. Uma agência de viagens, por exemplo, pode recuperar todos os itinerários de um cliente em uma única solicitação e guiar o chamador através de cada reserva, permitindo revisão ou atualização das mesmas. Um banco pode, similarmente, percorrer transações recentes uma a uma, utilizando dados recuperados de forma segura de seus sistemas internos.
Benefícios para operações
Essas capacidades reduzem a necessidade de realizar chamadas repetidas aos sistemas de negócio internos, simplificam o design dos fluxos de trabalho e facilitam a entrega de experiências automatizadas avançadas que se adaptam conforme os requisitos da empresa evoluem. Para obter mais detalhes sobre essas funcionalidades, a AWS disponibiliza o Guia do Administrador do Amazon Connect.
Disponibilidade
As novas funcionalidades estão disponíveis em todas as regiões da AWS onde o Amazon Connect está operacional. Para conhecer mais sobre o Amazon Connect e suas capacidades como solução nativa de IA para experiência do cliente, visite o site do Amazon Connect.
Novo recurso de monitoramento para o AWS Clean Rooms
A AWS anunciou o lançamento de monitoramento detalhado para consultas SQL no AWS Clean Rooms. Esse novo recurso publica métricas detalhadas no CloudWatch, permitindo o acompanhamento operacional de colaborações, incluindo desempenho de consultas e utilização de recursos.
Como funciona o monitoramento detalhado
Os usuários agora podem optar por publicar métricas detalhadas de monitoramento referentes a consultas SQL executadas em uma colaboração do Clean Rooms para o CloudWatch. Essa capacidade oferece maior observabilidade para cargas de trabalho em escala, facilitando a identificação de gargalos e otimizações necessárias.
Quem pode ativar o monitoramento?
O criador da colaboração pode ativar o monitoramento detalhado para uma colaboração. Além disso, o executor de análises ou o pagador configurado podem habilitar o monitoramento detalhado ao configurar sua participação na colaboração.
Aplicações práticas
Um exemplo prático é o uso por agências de publicidade e profissionais de marketing. Eles podem monitorar suas consultas de análise de incremento de campanha no CloudWatch para identificar problemas de desempenho e otimizar custos. Essa visibilidade detalhada permite decisões mais rápidas e eficientes sobre alocação de recursos.
O AWS Clean Rooms em contexto
O AWS Clean Rooms é um serviço que permite criar ambientes seguros de compartilhamento de dados em minutos. Clientes podem colaborar com qualquer empresa que utilize AWS ou Snowflake para gerar insights únicos sobre campanhas publicitárias, decisões de investimento e pesquisa e desenvolvimento.
Disponibilidade e próximos passos
Para informações sobre as regiões AWS onde o Clean Rooms está disponível, consulte a tabela de regiões AWS. Saiba mais sobre como colaborar com o AWS Clean Rooms visitando a página oficial do serviço.
Nova funcionalidade simplifica o gerenciamento de dados de auditoria
No final de dezembro de 2025, a AWS anunciou uma novidade que promete facilitar a vida de quem trabalha com monitoramento e conformidade na nuvem. O lançamento traz uma forma mais simples de importar dados do CloudTrail Lake — serviço de auditoria da AWS — diretamente para o Amazon CloudWatch, a plataforma de gerenciamento e análise de dados da empresa.
Essa integração permite que organizações consolidem dados operacionais, de segurança e conformidade em um único local, sem precisar lidar com procedimentos complexos. É especialmente útil para quem mantém múltiplas fontes de dados, incluindo sistemas de terceiros.
Como funciona a importação simplificada
O processo agora é bastante direto. Os usuários precisam apenas especificar o armazenamento de eventos do CloudTrail Lake — conhecido como Event Data Store (EDS) — e escolher o intervalo de datas desejado. A partir daí, os dados históricos são automaticamente importados para o CloudWatch.
Múltiplas formas de acesso
A AWS disponibiliza essa funcionalidade através de três interfaces diferentes:
Console web da AWS
Interface de linha de comando (CLI)
Kits de desenvolvimento (SDK)
Essa variedade garante que diferentes equipes — desde administradores que preferem interfaces gráficas até desenvolvedores que trabalham via automação — possam utilizar a funcionalidade conforme sua necessidade.
Aspectos financeiros e cobertura geográfica
Um dos pontos positivos é que a importação simplificada de dados não gera custos adicionais. No entanto, é importante considerar que o armazenamento e processamento dos dados no CloudWatch segue a política de preços padrão, baseada no modelo de logs personalizados da plataforma.
O recurso está disponível em regiões específicas da AWS. Para conhecer a cobertura completa e os detalhes de implementação, é recomendado consultar a documentação do Amazon CloudWatch.
O que muda na prática
Antes dessa simplificação, consolidar dados de auditoria em um único lugar exigia processos mais trabalhosos e, em muitos casos, scripts customizados. Agora, com apenas alguns passos, equipes de operações, segurança e conformidade conseguem ter uma visão unificada de todos os eventos importantes em seus ambientes AWS.
Essa melhoria se alinha com a tendência de consolidação de ferramentas de monitoramento, reduzindo a complexidade operacional e acelerando a capacidade de análise de segurança.
A partir de dezembro de 2025, a AWS WAF (Firewall de Aplicações Web) passou a estar disponível na região Ásia-Pacífico (Nova Zelândia). Esta expansão reforça o compromisso da empresa em oferecer seus serviços de segurança em diferentes localizações geográficas, permitindo que organizações atuantes naquela região acessem a solução diretamente de uma infraestrutura mais próxima.
O que é o AWS WAF e como funciona
O AWS WAF é um firewall especializado em proteção de aplicações web. Seu propósito é ajudar organizações a defender seus recursos de aplicações contra ameaças comuns, como explorações web conhecidas e atividades maliciosas de bots. Essas ameaças podem prejudicar a disponibilidade do serviço, comprometer a segurança dos dados ou gerar consumo excessivo de recursos.
Um dos principais diferenciais do serviço é a capacidade de controle granular de acesso ao conteúdo. Baseado em condições que o cliente especifica, o recurso protegido pode responder às requisições de diferentes formas: fornecendo o conteúdo solicitado normalmente, retornando um status HTTP 403 (Acesso Proibido), ou retornando uma resposta customizada definida pelo usuário.
Condições e configurações de acesso
As regras do AWS WAF podem ser baseadas em diversos critérios. Alguns exemplos incluem o endereço IP de origem das requisições ou valores específicos presentes em strings de consulta. Essa flexibilidade permite que cada organização configure uma política de proteção alinhada às suas necessidades específicas e ao perfil de seu tráfego.
Próximos passos
Para visualizar a lista completa de regiões onde o AWS WAF está disponível, acesse a tabela de regiões AWS. Organizações que desejam conhecer mais detalhes sobre o serviço podem consultar a página oficial do AWS WAF. Para informações sobre modelos de precificação e custos, a página de preços do AWS WAF oferece detalhes completos.
Organizações enfrentam um dilema crescente: clientes exigem respostas ágeis, mas os times de suporte trabalham sobrecarregados. Documentação de produtos e artigos em bases de conhecimento frequentemente exigem que usuários vasculhem centenas de páginas, enquanto agentes de atendimento precisam processar dezenas de consultas diárias para localizar informações específicas.
A AWS demonstra como resolver esse gargalo através da construção de um assistente de website inteligente, combinando Amazon Bedrock com Amazon Bedrock Knowledge Bases. A solução beneficia tanto equipes internas quanto clientes externos, oferecendo:
Respostas instantâneas e relevantes aos clientes, eliminando buscas manuais por documentação
Sistema potente de recuperação de informações para agentes de suporte, reduzindo tempo de resolução
Atendimento automatizado disponível 24 horas por dia, 7 dias por semana
Visão Geral da Solução
A arquitetura emprega Recuperação Aumentada por Geração (Retrieval-Augmented Generation — RAG) para recuperar dados relevantes de uma base de conhecimento e retorná-los ao usuário conforme seu nível de acesso. Os componentes principais são:
Amazon Bedrock Knowledge Bases
O conteúdo do website corporativo é rastreado e armazenado na base de conhecimento. Documentos de um bucket Amazon Simple Storage Service (Amazon S3), como manuais e guias de resolução de problemas, também são indexados. A plataforma permite configurar múltiplas fontes de dados e aplicar filtros para diferenciar informações internas de públicas, protegendo dados sensatos através de controles avançados de segurança.
Modelos de Linguagem Gerenciados do Amazon Bedrock
Um grande modelo de linguagem (LLM) do Amazon Bedrock gera respostas com inteligência artificial para perguntas do usuário.
Amazon Bedrock Knowledge Bases processa documentos enviados para Amazon S3, dividindo-os em segmentos e gerando representações vetoriais (embeddings). O rastreador web integrado acessa websites selecionados para extrair e ingerir conteúdo.
A aplicação web executa como aplicação ECS. Usuários internos e externos acessam através de navegadores, com balanceamento de carga gerenciado por Elastic Load Balancing (ELB).
Autenticação ocorre via Amazon Cognito, usando credenciais registradas em um pool de usuários.
Ao submeter uma pergunta, a aplicação invoca uma função Lambda, que utiliza APIs do Amazon Bedrock para recuperar informações relevantes da base de conhecimento. A função envia também IDs de fonte de dados conforme o tipo de usuário (externo ou interno), garantindo que apenas informações disponíveis sejam recuperadas.
A Lambda então invoca Amazon Nova Lite para gerar respostas. O modelo de linguagem complementa dados da base de conhecimento, gerando uma resposta que é retornada e exibida ao usuário.
Pré-requisitos
Para implantar a solução, certifique-se de possuir:
Usar a mesma região AWS para acesso ao modelo e implantação da solução
Um bucket S3 na mesma região para armazenar dados internos
Criação da Base de Conhecimento e Ingestão de Dados
Configurar a Base de Conhecimento
Na console do Amazon Bedrock, acesse Knowledge Bases sob Builder tools. Crie uma nova base selecionando a opção de armazenamento vetorial. Escolha Web Crawler como fonte de dados e insira URLs do seu website para rastreamento. Configure o escopo de rastreamento (domínio específico ou subdomínio, se desejado) e defina filtros de regex para incluir ou excluir padrões de URL conforme necessário. Mantenha a estratégia padrão de fragmentação de conteúdo, selecione o modelo Amazon Titan Text Embeddings V2 para gerar embeddings, escolha Amazon OpenSearch Serverless como repositório vetorial e finalize a criação.
Após criação, acesse a página de detalhes da base e selecione a fonte de dados para sincronizá-la, iniciando o rastreamento e ingestão de dados do website.
Adicionar Dados Internos do Amazon S3
Na página de detalhes da base de conhecimento, escolha adicionar uma nova fonte de dados especificando Amazon S3. Selecione o bucket desejado, mantenha a estratégia de análise padrão e finalize. Sincronize a nova fonte para indexar dados dos documentos no bucket.
Fazer Upload de Documentos Internos
Na console do Amazon S3, selecione seu bucket e faça upload dos documentos internos. Retorne à console do Amazon Bedrock, acesse a base de conhecimento e sincronize a fonte de dados interna para indexar os arquivos enviados no repositório vetorial.
Anote os IDs da base de conhecimento e das fontes de dados (externa e interna), pois serão necessários na etapa seguinte.
Abra o arquivo parameters.json e atualize os IDs capturados anteriormente:
"external_source_id": "Set this to value from Amazon Bedrock Knowledge Base datasource",
"internal_source_id": "Set this to value from Amazon Bedrock Knowledge Base datasource",
"knowledge_base_id": "Set this to value from Amazon Bedrock Knowledge Base"
Siga as instruções de implantação definidas no arquivo customer-support-ai/README.md para configurar a infraestrutura.
Ao concluir, os detalhes de saída incluem a URL do Application Load Balancer (ALB) e credenciais de usuários de teste. Você também pode acessar a console do Amazon EC2, selecionar Load Balancers e copiar o nome de domínio (DNS) do ALB para acessar a interface.
Testando a Solução
Exemplo Prático: Consultas sobre Amazon S3
A solução diferencia classes de usuários, permitindo que o Amazon Bedrock Knowledge Bases gerencie múltiplas fontes (conteúdo web, documentação, tickets de suporte) com controles de filtragem integrados. Usuários internos acessam tanto guias operacionais quanto documentação pública; usuários externos veem apenas conteúdo público.
Abra a URL do ALB em um navegador. Autentique-se com as credenciais de usuário externo fornecidas. Acesse o Support AI Assistant na navegação e formule perguntas sobre Amazon S3. O assistente fornecerá respostas baseadas no guia de primeiros passos do Amazon S3. Se o usuário externo questionar informações restritas a usuários internos, o assistente responderá apenas com dados públicos.
Faça logout, autentique-se novamente como usuário interno e formule as mesmas consultas. O usuário interno acessará informações presentes nos documentos internos.
Limpeza de Recursos
Ao descontinuar a solução, remova os recursos associados. No diretório iac do projeto, execute:
cd iac
./cleanup.sh
Alternativamente, execute manualmente:
cd iac
cdk destroy --all
Na console do Amazon Bedrock, acesse Knowledge Bases, selecione a base criada e escolha Delete. Digite “delete” e confirme. Na console do OpenSearch Service, acesse Collections sob Serverless, selecione a coleção provisionada durante implantação, escolha Delete, digite “confirm” e confirme.
Conclusão
A solução apresentada demonstra como criar assistentes de website alimentados por IA para recuperar informações rapidamente através de rastreamento web e upload de documentos. A mesma abordagem pode ser adaptada para desenvolver outros protótipos e aplicações com IA generativa.
Para aprofundamento em fundamentos de IA generativa e trabalho com modelos de fundação, incluindo técnicas avançadas de prompt engineering, explore o curso Generative AI with LLMs. Este curso sob demanda, com duração de 3 semanas, destina-se a cientistas de dados e engenheiros que desejam construir aplicações de IA generativa com LLMs, oferecendo uma base sólida para desenvolvimento com Amazon Bedrock. Inscreva-se para aprender mais sobre Amazon Bedrock.
Simplificando a Infraestrutura de Rastreamento MLflow
Operacionalizar um servidor de rastreamento MLflow auto-gerenciado traz consigo uma série de responsabilidades administrativas. Desde a manutenção de infraestrutura até decisões sobre dimensionamento de recursos, as equipes de ciência de dados precisam investir tempo e recursos em tarefas operacionais que poderiam ser dedicadas ao trabalho analítico propriamente dito. Quando as atividades de experimentação em aprendizado de máquina ganham escala, o desafio de gerenciar recursos de forma eficiente durante períodos de pico e ociosidade torna-se especialmente crítico.
Organizações que mantêm MLflow em Amazon EC2 ou em infraestrutura local podem otimizar custos e recursos de engenharia adotando Amazon SageMaker AI com MLflow serverless. A AWS anunciou uma nova capacidade que permite aos usuários migrar seus servidores MLflow existentes para um aplicativo MLflow totalmente gerenciado — denominado MLflow App — que dimensiona recursos automaticamente conforme demanda, ao mesmo tempo que elimina tarefas de correção de segurança e gerenciamento de armazenamento.
Este artigo apresenta um guia prático de como transferir um servidor MLflow auto-gerenciado para essa arquitetura serverless, utilizando a ferramenta MLflow Export Import para mover experimentos, execuções, modelos e outros recursos, com instruções para validar o sucesso da migração.
Embora este artigo concentre-se especificamente em migrar servidores MLflow auto-gerenciados para a nova capacidade serverless do SageMaker, a ferramenta MLflow Export Import oferece aplicações mais amplas. A mesma abordagem funciona para migrar servidores MLflow já gerenciados pelo SageMaker para a nova funcionalidade serverless. Além disso, a ferramenta auxilia em atualizações de versão e no estabelecimento de rotinas de backup para recuperação de desastres.
Guia Passo a Passo: Migrando para SageMaker com MLflow
O processo de migração se divide em três fases principais: exportação de artefatos MLflow para armazenamento intermediário, configuração de um aplicativo MLflow, e importação dos artefatos para o novo ambiente.
O ambiente de execução — seja uma instância EC2, seu computador pessoal ou um notebook SageMaker — deve manter conectividade tanto com o servidor de rastreamento de origem quanto com o servidor de destino. A ferramenta suporta exportações a partir de servidores auto-gerenciados e servidores MLflow gerenciados pelo Amazon SageMaker (a partir da versão MLflow v2.16 em diante) para o MLflow Serverless do SageMaker.
Pré-Requisitos Necessários
Antes de iniciar o processo de migração, certifique-se de ter:
Ambiente de execução (EC2, máquina local ou notebook SageMaker) com Python 3.10+ instalado e espaço em disco e recursos computacionais adequados ao tamanho dos dados do seu servidor de rastreamento
Etapa 1: Verificar Compatibilidade de Versão do MLflow
Antes de iniciar a migração, observe que nem todas as funcionalidades do MLflow podem estar suportadas no processo. A ferramenta MLflow Export Import transfere diferentes objetos dependendo da versão do MLflow em uso.
Para preparar uma migração bem-sucedida:
Verifique a versão atual do MLflow no seu servidor de rastreamento existente:
mlflow --version
Consulte a versão mais recente suportada pelo Amazon SageMaker MLflow na documentação. Se estiver executando uma versão antiga do MLflow em um ambiente auto-gerenciado, recomenda-se fazer upgrade para a versão mais recente suportada antes de proceder com a migração:
pip install --upgrade mlflow=={supported_version}
Para uma lista atualizada dos recursos MLflow que podem ser transferidos usando MLflow Export Import, consulte a documentação MLflow Export Import.
Etapa 2: Criar um Novo Aplicativo MLflow
Para preparar seu ambiente de destino, você precisa primeiramente criar um novo aplicativo SageMaker Serverless MLflow. Após configurar o Amazon SageMaker AI, você pode acessar o Amazon SageMaker Studio e, na seção MLflow, criar um novo aplicativo MLflow (se não tiver sido criado automaticamente durante a configuração inicial do domínio). Siga as instruções fornecidas na documentação do SageMaker.
Após a criação do aplicativo MLflow gerenciado, ele deve aparecer no console do SageMaker Studio. Lembre-se de que o processo de criação pode levar até 5 minutos. Alternativamente, você pode visualizá-lo executando o seguinte comando da Interface de Linha de Comando AWS (CLI):
aws sagemaker list-mlflow-tracking-servers
Copie o Nome do Recurso da Amazon (ARN) do seu servidor de rastreamento para um documento — você precisará dele na Etapa 4. Selecione “Abrir MLflow”, que o leva a um painel MLflow vazio. Nas próximas etapas, você importará seus experimentos e artefatos relacionados de seu servidor MLflow auto-gerenciado neste dashboard.
Etapa 3: Instalar MLflow e o Plugin SageMaker MLflow
Para preparar seu ambiente de execução para a migração, você precisa estabelecer conectividade com seus servidores MLflow existentes e instalar e configurar os pacotes e plugins MLflow necessários.
Antes de iniciar a migração, estabeleça conectividade e autentique-se no ambiente que hospeda seu servidor MLflow auto-gerenciado (por exemplo, uma máquina virtual). Assim que tiver acesso ao seu servidor de rastreamento, instale MLflow e o plugin SageMaker MLflow em seu ambiente de execução. O plugin lida com o estabelecimento de conexão e autenticação ao seu aplicativo MLflow. Execute o seguinte comando:
pip install mlflow sagemaker-mlflow
Etapa 4: Instalar a Ferramenta MLflow Export Import
Antes de exportar seus recursos MLflow, você precisa instalar a ferramenta MLflow Export Import. Familiarize-se com a ferramenta e suas capacidades visitando sua página no GitHub.
Nos próximos passos, você usará suas ferramentas em massa (especificamente export-all e import-all), que permitem criar uma cópia do seu servidor de rastreamento com seus experimentos e artefatos relacionados. Essa abordagem mantém a integridade referencial entre objetos. Se desejar migrar apenas experimentos selecionados ou alterar o nome de experimentos existentes, você pode usar as ferramentas individuais. Consulte a documentação de MLflow Export Import para mais informações sobre objetos suportados e limitações.
Instale a ferramenta MLflow Export Import em seu ambiente executando:
Etapa 5: Exportar Recursos MLflow para um Diretório
Agora que seu ambiente está configurado, você pode começar o processo de migração exportando seus recursos MLflow do ambiente de origem. Após instalar a ferramenta MLflow Export Import, crie um diretório de destino em seu ambiente de execução como alvo para os recursos que você extrairá na próxima etapa.
Inspecione seus experimentos existentes e os recursos MLflow associados que deseja exportar. No exemplo a seguir, você deseja exportar os objetos armazenados atualmente (por exemplo, experimentos e modelos registrados).
Inicie a migração configurando a URI (Identificador de Recurso Uniforme) do seu servidor de rastreamento como uma variável de ambiente e executando a ferramenta de exportação em massa com os parâmetros do seu servidor MLflow existente e um diretório de destino:
# Defina a URI de rastreamento para seu servidor MLflow auto-gerenciado
export MLFLOW_TRACKING_URI=http://localhost:8080
# Inicie a exportação
export-all --output-dir mlflow-export
Aguarde até que a exportação seja concluída para inspecionar o diretório de saída (no caso anterior: mlflow-export).
Etapa 6: Importar Recursos MLflow para seu Aplicativo MLflow
Durante a importação, atributos definidos pelo usuário são retidos, mas tags geradas pelo sistema (por exemplo, data_de_criação) não são preservadas pela ferramenta MLflow Export Import. Para preservar atributos de sistema originais, use a opção –import-source-tags conforme mostrado no exemplo a seguir. Isso os salva como tags com o prefixo mlflow_exim. Para mais informações, consulte MLflow Export Import – Governança e Linhagem. Esteja ciente das limitações adicionais detalhadas aqui: Limitações de Importação.
O seguinte procedimento transfere seus recursos MLflow exportados para seu novo aplicativo MLflow:
Inicie a importação configurando a URI para seu aplicativo MLflow. Você pode usar o ARN — que você salvou na Etapa 1 — para isso. O plugin SageMaker MLflow instalado anteriormente traduz automaticamente o ARN em uma URI válida e cria uma solicitação autenticada à AWS (lembre-se de configurar suas credenciais AWS como variáveis de ambiente para que o plugin as encontre).
# Defina a URI de rastreamento para seu ARN do aplicativo MLflow
export MLFLOW_TRACKING_URI=arn:aws:sagemaker:::mlflow-app/app-
# Inicie a importação
import-all --input-dir mlflow-export
Etapa 7: Validar Resultados da Migração
Para confirmar que sua migração foi bem-sucedida, verifique que seus recursos MLflow foram transferidos corretamente. Após o script import-all ter migrado seus experimentos, execuções e outros objetos para o novo servidor de rastreamento, você pode começar a validar o sucesso da migração abrindo o dashboard do seu aplicativo MLflow serverless e verificando que:
Recursos MLflow exportados estão presentes com seus nomes e metadados originais
Históricos de execução estão completos com métricas e parâmetros
Artefatos de modelo estão acessíveis e podem ser baixados
Tags e notas foram preservadas
Você pode verificar o acesso programático iniciando um novo notebook SageMaker e executando o seguinte código:
import mlflow
# Defina a URI de rastreamento para seu ARN do aplicativo MLflow
mlflow.set_tracking_uri('arn:aws:sagemaker:::mlflow-app/app-')
# Liste todos os experimentos
experiments = mlflow.search_experiments()
for exp in experiments:
print(f"Experiment Name: {exp.name}")
# Obtenha todas as execuções para este experimento
runs = mlflow.search_runs(exp.experiment_id)
print(f"Number of runs: {len(runs)}")
Considerações Importantes
Ao planejar sua migração MLflow, verifique se seu ambiente de execução (seja EC2, máquina local ou notebooks SageMaker) possui armazenamento e recursos computacionais suficientes para lidar com o volume de dados do seu servidor de rastreamento de origem. Embora a migração possa ser executada em vários ambientes, o desempenho pode variar com base na conectividade de rede e recursos disponíveis. Para migrações em larga escala, considere dividir o processo em lotes menores (por exemplo, experimentos individuais).
Limpeza e Gerenciamento de Custos
Um servidor MLflow gerenciado pelo SageMaker incorre em custos até que você o delete ou interrompa. A cobrança para servidores de rastreamento é baseada na duração de execução dos servidores, no tamanho selecionado e na quantidade de dados registrados nos servidores de rastreamento. Você pode interromper servidores de rastreamento quando não estiverem em uso para economizar custos, ou pode deletá-los usando a API ou a interface do SageMaker Studio. Para mais detalhes sobre preços, consulte Preços do Amazon SageMaker.
Conclusão
Este artigo demonstrou como migrar um servidor MLflow auto-gerenciado para SageMaker com MLflow utilizando a ferramenta de código aberto MLflow Export Import. A migração para um aplicativo MLflow serverless no Amazon SageMaker AI reduz a sobrecarga operacional associada à manutenção de infraestrutura MLflow, enquanto oferece integração contínua com os serviços abrangentes de IA/ML do SageMaker.
Para começar sua própria migração, siga o guia passo a passo anterior e consulte a documentação referenciada para mais detalhes. Você pode encontrar exemplos de código e amostras no repositório GitHub de amostras AWS. Para mais informações sobre capacidades do Amazon SageMaker AI e outras funcionalidades MLOps, visite a documentação do Amazon SageMaker AI.
Expansão de avaliações multilíngues no Amazon Connect
A AWS anunciou a expansão do Amazon Connect com a capacidade de automatizar avaliações de desempenho de agentes em cinco novos idiomas: português, francês, italiano, alemão e espanhol. Essa evolução utiliza inteligência artificial generativa para streamline de um processo que historicamente demanda considerável tempo das equipes de gestão em centros de contato.
Como funciona a avaliação automática
O recurso de avaliação de desempenho do Amazon Connect permite que gestores definam critérios de avaliação personalizados utilizando linguagem natural. Em vez de exigir conhecimento técnico complexo, os gerenciadores simplesmente descrevem em suas próprias palavras o que consideram importante avaliar nos atendimentos. A inteligência artificial generativa então processa as conversas de agentes e gera avaliações automáticas, acompanhadas de justificativas que fundamentam cada pontuação atribuída.
Um diferencial importante é que todas as avaliações e justificativas são entregues no idioma de preferência do gerenciador, facilitando significativamente a gestão de equipes globais ou multilíngues.
Avaliações transversais de idiomas
Além de avaliar conversas no mesmo idioma, o Amazon Connect suporta avaliação cruzada entre idiomas. Isso significa que é possível avaliar conversas que ocorreram em português, francês, italiano, alemão ou espanhol gerando os relatórios de avaliação em inglês, ou vice-versa. Essa capacidade é especialmente valiosa para centros de contato multilíngues que precisam manter um framework padronizado de avaliação entre diferentes mercados e operações.
Disponibilidade regional
O recurso está disponível em 8 regiões AWS: US East (N. Virginia), US West (Oregon), Europe (Frankfurt), Europe (London), Canada (Central), Asia Pacific (Sydney), Asia Pacific (Tokyo) e Asia Pacific (Singapore). Essa cobertura permite que operações em múltiplas geografias adotem a solução sem necessidade de migrações complexas.
Próximos passos
Para organizações interessadas em implementar essa funcionalidade, recomenda-se consultar a documentação oficial do Amazon Connect sobre avaliações de desempenho com inteligência artificial generativa, que contém detalhes técnicos de configuração e casos de uso. Informações sobre preços podem ser consultadas na página de precificação do Amazon Connect. Também está disponível a página principal do Amazon Connect com informações gerais sobre o serviço.
As organizações empresariais dependem cada vez mais de aplicações web para processos críticos de negócios, mas grande parte desses fluxos permanece intensiva em trabalho manual. Essa realidade cria ineficiências operacionais significativas e riscos de conformidade que prejudicam a produtividade.
Um problema recorrente em muitas empresas é que profissionais de conhecimento precisam navegar entre oito a doze aplicações web diferentes durante seus fluxos de trabalho padrão, alternando constantemente entre contextos e transferindo informações manualmente entre sistemas. Tarefas de entrada e validação de dados consomem aproximadamente 25 a 30% do tempo de trabalho, enquanto processos manuais criam gargalos de conformidade e desafios de consistência de dados entre sistemas que exigem verificação humana contínua.
As abordagens tradicionais de automação apresentam limitações significativas. A automação robótica de processos (RPA) funciona bem para processos estruturados e baseados em regras, mas se torna frágil quando aplicações são atualizadas e exige manutenção contínua. Integrações baseadas em APIs permanecem ideais, mas muitos sistemas legados carecem de capacidades modernas. Plataformas de gerenciamento de processos de negócio oferecem orquestração, mas enfrentam dificuldades com pontos de decisão complexos e interação direta com interfaces web.
Como resultado, a maioria das empresas opera com abordagens mistas: apenas 30% das tarefas de fluxo de trabalho estão totalmente automatizadas, 50% exigem supervisão humana e 20% permanecem inteiramente manuais.
Aplicações reais enfrentam complexidade crescente
Esses desafios se manifestam em fluxos empresariais comuns. A validação de pedidos de compra exige navegação inteligente através de múltiplos sistemas para realizar correspondência tripla entre pedidos, recebimentos e faturas, mantendo trilhas de auditoria. A integração de novos funcionários demanda provisionamento coordenado de acesso entre sistemas de gerenciamento de identidade, gestão de relacionamento com clientes (CRM), planejamento de recursos empresariais (ERP) e plataformas de colaboração, com tomadas de decisão baseadas em papéis. Por fim, o processamento de pedidos de comércio eletrônico precisa processar inteligentemente pedidos através de múltiplos sites de varejistas que carecem de acesso nativo a APIs.
Agentes de IA como solução transformadora
Os agentes de inteligência artificial representam um avanço significativo além dessas soluções tradicionais, oferecendo capacidades que navegam inteligentemente por complexidade, adaptam-se a ambientes dinâmicos e reduzem drasticamente a intervenção manual em fluxos de trabalho empresariais.
Arquitetura do fluxo de automação de comércio eletrônico
Esse fluxo de trabalho demonstra como agentes de IA podem automatizar inteligentemente o processamento complexo e multietapas de pedidos através de sites de varejistas diversos que carecem de integração nativa via API, combinando navegação adaptativa do navegador com supervisão humana para tratamento de exceções.
Os seguintes componentes trabalham juntos para permitir processamento de pedidos com alimentação por IA em escala:
Tarefas do ECS Fargate executam um backend Python FastAPI em contêiner com frontend React, fornecendo conexões WebSocket para automação de pedidos em tempo real. As tarefas escalam automaticamente conforme a demanda.
A aplicação integra-se com o Amazon Bedrock e Amazon Nova Act para automação de pedidos com IA.
A Ferramenta AgentCore Browser oferece um ambiente de navegador seguro e isolado para automação web.
Um Agente Principal orquestra o Agente Nova Act e a combinação Strands + Playwright para controle inteligente do navegador.
O fluxo de trabalho de automação de comércio eletrônico representa um desafio empresarial comum onde negócios precisam processar pedidos através de múltiplos sites de varejistas sem acesso nativo a APIs. Esse fluxo demonstra as capacidades completas de automação de navegador com alimentação por IA, desde navegação inicial até tomada de decisão complexa e intervenção com humano no circuito.
A AWS disponibilizou uma amostra de automação de comércio eletrônico com agentes, que foi disponibilizada como código aberto no repositório aws-samples no GitHub.
Detalhes do processo de fluxo de trabalho
Usuários do sistema de gerenciamento de pedidos de comércio eletrônico submetem pedidos de clientes através de uma interface web ou upload de arquivo CSV em lote, incluindo detalhes do produto (URL, tamanho, cor), informações do cliente e endereço de entrega. O sistema atribui níveis de prioridade e enfileira pedidos para processamento.
Quando um pedido é iniciado, o Amazon Bedrock AgentCore Browser cria uma sessão de navegador isolada com conectividade através do Chrome DevTools Protocol (CDP). A Ferramenta AgentCore Browser oferece um navegador seguro baseado em nuvem que permite ao agente de IA (Amazon Nova Act e agente Strands neste caso) interagir com sites. Ela inclui recursos de segurança como isolamento de sessão, observabilidade integrada através de visualização ao vivo, registro de AWS CloudTrail e capacidades de replay de sessão.
O sistema recupera credenciais de varejistas do AWS Secrets Manager e gera uma URL de visualização ao vivo usando transmissão Amazon DCV para monitoramento em tempo real.
Preenchimento de formulários e envio de pedidos
O preenchimento de formulários representa uma capacidade crítica onde o agente detecta inteligentemente e popula vários tipos de campo em diferentes layouts de checkout de varejistas. O agente de IA visita a página do produto, lida com autenticação se necessária e analisa a página para identificar seletores de tamanho, opções de cor e botões de carrinho. Seleciona opções especificadas, adiciona itens ao carrinho e prossegue para checkout, preenchendo informações de entrega com detecção inteligente de campos em diferentes layouts de varejistas. Se produtos estiverem fora de estoque ou indisponíveis, o agente escala para revisão humana com contexto sobre alternativas.
A aplicação de amostra emprega duas abordagens distintas dependendo do método de automação. O Amazon Nova Act usa compreensão visual e estrutura do Modelo de Objeto de Documento (DOM) da página web, permitindo que o agente Nova Act receba instruções em linguagem natural como “preencher endereço de entrega” e identifique automaticamente campos de formulário a partir da captura de tela, adaptando-se a diferentes layouts sem seletores predefinidos.
Em contraste, a combinação Strands + Playwright Model Context Protocol (MCP) usa modelos do Bedrock para analisar a estrutura do Modelo de Objeto de Documento da página, determinar seletores de campo de formulário apropriados, e então o Playwright MCP executa as interações de navegador de baixo nível para popular os campos com dados do cliente. Ambas as abordagens adaptam-se automaticamente a interfaces de checkout diversas de varejistas, eliminando a fragilidade da automação tradicional baseada em seletores.
Supervisão humana e resolução de problemas
Quando o sistema encontra CAPTCHAs ou desafios complexos, o agente pausa a automação e notifica operadores através de WebSocket. Os operadores acessam a visualização ao vivo para ver o estado exato do navegador, resolver o problema manualmente e disparar a retomada. O AgentCore Browser permite a tomada de controle do navegador por humano e passagem de controle de volta para o agente. O agente continua do estado atual sem reiniciar todo o processo.
Observabilidade e escalabilidade
Durante toda a execução, o sistema captura gravações de sessão armazenadas em S3, capturas de tela em etapas críticas e registros de execução detalhados com timestamps. Os operadores monitoram o progresso através de um painel em tempo real que mostra status do pedido, etapa atual e percentual de progresso.
Para cenários de alto volume, o processamento em lote suporta execução paralela de múltiplos pedidos com workers configuráveis (1-10), enfileiramento baseado em prioridade e lógica automática de retry para falhas transitórias.
Conclusão: Um novo paradigma na automação empresarial
A automação de navegador acionada por agentes de IA representa uma mudança fundamental em como empresas abordam a gestão de fluxos de trabalho. Ao combinar tomada de decisão inteligente, navegação adaptativa e capacidades com humano no circuito, as organizações podem ir além da divisão 30-50-20 da automação tradicional rumo a taxas significativamente mais altas de automação em fluxos complexos entre múltiplos sistemas.
O exemplo de automação de pedidos de comércio eletrônico demonstra que agentes de IA não substituem a RPA tradicional — eles habilitam automação de fluxos de trabalho previamente considerados demasiado dinâmicos ou complexos para automação, lidando com interfaces de usuário diversas, tomando decisões contextualizadas e mantendo conformidade completa e auditabilidade.
À medida que empresas enfrentam pressão crescente para melhorar eficiência operacional enquanto gerenciam sistemas legados e integrações complexas, os agentes de IA oferecem um caminho prático adiante. Em vez de investir em reformulações caras de sistemas ou aceitar ineficiências de processos manuais, as organizações podem implantar automação de navegador inteligente que se adapta ao seu cenário de tecnologia existente. O resultado é redução de custos operacionais, tempos de processamento mais rápidos, conformidade melhorada e, mais importante, liberação de profissionais de conhecimento de tarefas repetitivas de entrada de dados e navegação de sistemas — permitindo que se concentrem em atividades de maior valor que geram impacto nos negócios.