Author: Make.com Service User

  • Amazon Bedrock expande modelos Claude da Anthropic para o Oriente Médio com roteamento inteligente entre regiões

    Novos modelos Claude disponíveis no Oriente Médio

    A AWS anunciou a disponibilidade de cinco modelos Claude da Anthropic através do Amazon Bedrock com suporte à inferência distribuída entre regiões para clientes operando no Oriente Médio. Os modelos Claude Opus 4.6, Claude Sonnet 4.6, Claude Opus 4.5, Claude Sonnet 4.5 e Claude Haiku 4.5 agora estão acessíveis nas regiões me-central-1 (Emirados Árabes Unidos) e me-south-1 (Bahrein), beneficiando-se do roteamento inteligente de inferência através da infraestrutura global da AWS.

    Com essa expansão, organizações no Oriente Médio podem escalar suas cargas de trabalho de IA de forma contínua, melhorar a resiliência de suas aplicações e reduzir a complexidade operacional de gerenciar múltiplas regiões manualmente.

    Entendendo a inferência distribuída entre regiões

    O conceito de inferência distribuída entre regiões no Amazon Bedrock funciona através de um mecanismo de roteamento automático e inteligente. Quando uma solicitação é feita através de um perfil de inferência entre regiões, a requisição originária de sua região-fonte é automaticamente direcionada para uma das regiões de destino pré-configuradas no perfil.

    Um aspecto importante dessa abordagem é a segurança dos dados. A transmissão ocorre através da rede global gerenciada pela AWS com criptografia de ponta a ponta. Diferentemente do que alguns poderiam supor, a inferência entre regiões não altera o local onde os dados são armazenados—os dados do cliente não residem na região de destino. Os registros gerenciados pelo cliente (como logs de invocação de modelos), bases de conhecimento e configurações armazenadas permanecem exclusivamente na região-fonte. A resposta criptografada retorna à sua aplicação na região original.

    Capacidades dos modelos Claude disponibilizados

    Cada variante de modelo Claude oferece características distintas para diferentes necessidades:

    Claude Opus 4.6

    Traz capacidades avançadas para tarefas de agentic, projetos complexos de codificação e fluxos de trabalho de nível empresarial que exigem raciocínio profundo e confiabilidade. É a opção mais potente quando se prioriza desempenho e capacidade de análise.

    Claude Sonnet 4.6

    Equilibra inteligência, velocidade e custo-efetividade, sendo ideal para aplicações em produção e tarefas multi-etapas onde é necessário encontrar um bom ponto de equilíbrio entre performance e recursos.

    Claude Haiku 4.5

    Otimizado para respostas de baixa latência, adequado para casos de uso em tempo real como assistentes de IA e geração de conteúdo em alto volume, priorizando velocidade de resposta.

    Ao combinar esses modelos com a inferência distribuída entre regiões, as organizações podem dinamicamente escalar cargas de trabalho de IA entre regiões mantendo desempenho ótimo, selecionando o modelo certo conforme seus requisitos específicos.

    Benefícios da inferência distribuída entre regiões

    Melhor desempenho durante picos de demanda

    Para organizações no Oriente Médio, a inferência distribuída fornece resiliência crítica durante períodos de pico regional—como durante o Ramadã, eventos de compras importantes ou horários comerciais de alto tráfego. O sistema automaticamente roteia requisições para regiões com capacidade disponível na infraestrutura global, garantindo que suas aplicações mantenham performance mesmo durante picos inesperados de tráfego. Esse roteamento acontece de forma transparente e é completamente gerenciado pelo Amazon Bedrock. Para aplicações críticas do negócio que servem clientes pela região do Golfo e mais amplamente na região MENAT, isso significa evitar tempo de inatividade custoso ou degradação de performance que poderia impactar receita e confiança do cliente.

    Transmissão segura de dados

    Os dados transmitidos durante operações entre regiões são gerenciados pelo Amazon Bedrock com criptografia em trânsito entre regiões, ajudando a atender aos requisitos rigorosos de segurança e proteção de dados importantes para organizações no Oriente Médio.

    Estratégia multi-região simplificada

    As organizações não precisam mais arquitetar manualmente implantações complexas em múltiplas regiões. A inferência distribuída entre regiões fornece resiliência de nível empresarial sem a sobrecarga operacional de gerenciar múltiplos endpoints regionais.

    Suporte à transformação digital acelerada

    À medida que organizações do Oriente Médio aceleram iniciativas de transformação digital alinhadas com visões nacionais (como Saudi Vision 2030 e a Estratégia de IA dos Emirados), a inferência distribuída entre regiões proporciona a escalabilidade necessária para apoiar projetos ambiciosos de IA sem limitações de capacidade.

    Monitoramento simplificado

    O Amazon CloudWatch e AWS CloudTrail continuam registrando entradas de log em sua região-fonte do Oriente Médio, fornecendo uma visão centralizada do desempenho de sua aplicação. Essa observabilidade simplificada significa que suas equipes podem monitorar e gerenciar aplicações de IA generativa usando ferramentas AWS familiares, independentemente de onde as requisições são processadas globalmente, tornando conformidade e gerenciamento operacional mais diretos.

    Flexibilidade de cota sob demanda

    A inferência distribuída entre regiões ajuda a remover as limitações impostas pelas cotas de capacidade de regiões individuais. Suas cargas de trabalho podem dinamicamente acessar recursos através da infraestrutura global da AWS, tornando simples manipular aplicações de alto volume e picos súbitos de tráfego comuns na economia digital em rápido crescimento da região.

    Casos de uso práticos

    A disponibilidade dos modelos Claude através de inferência distribuída entre regiões desbloqueia uma ampla gama de aplicações para clientes no Oriente Médio:

    • Copilots corporativos e assistentes de IA que exigem alta disponibilidade e performance consistente
    • Fluxos de trabalho agentic que orquestram raciocínio complexo e uso de ferramentas
    • Ferramentas de produtividade para desenvolvedores focadas em geração, revisão e transformação de código
    • Aplicações de engajamento com clientes que requerem escala elástica
    • Análise avançada de dados e processamento de documentos

    Gerenciamento de cotas

    Para ver as cotas padrão de throughput entre regiões ao usar perfis de inferência global, consulte os valores de requisições de inferência de modelo entre regiões por minuto e tokens de inferência de modelo entre regiões por minuto nas cotas de serviço do Amazon Bedrock. Você pode solicitar, visualizar e gerenciar cotas para o perfil de inferência distribuída através do console de Cotas de Serviço ou usando comandos da Interface de Linha de Comando da AWS (CLI) em sua região-fonte.

    Primeiros passos na prática

    Para começar a usar os modelos Claude Opus 4.6, Claude Sonnet 4.6, Claude Opus 4.5, Claude Sonnet 4.5 ou Claude Haiku 4.5 com inferência distribuída entre regiões (por exemplo, na região me-central-1), execute os seguintes passos:

    Verificar permissões de acesso

    Confirme que seu usuário ou função Gerenciamento de Identidade e Acesso da AWS (IAM) possui as permissões necessárias para invocar modelos do Amazon Bedrock usando um perfil de inferência entre regiões.

    Invocar o modelo através de APIs

    Use as APIs do Amazon Bedrock ou SDKs (Software Development Kits) da AWS:

    import boto3
    import json
    
    bedrock = boto3.client('bedrock-runtime', region_name='me-central-1')
    model_id = "global.anthropic.claude-sonnet-4-6"
    
    response = bedrock.converse(
        messages=[{"role": "user", "content": [{"text": "Explain cloud computing in 2 sentences."}]}],
        modelId=model_id,
    )
    
    print("Response:", response['output']['message']['content'][0]['text'])
    print("Token usage:", response['usage'])
    print("Total tokens:", response['usage']['totalTokens'])

    Monitorar uso e desempenho

    Você pode monitorar uso, performance e custos através do CloudWatch e AWS Cost Explorer para escalar suas aplicações conforme a demanda cresce.

    Considerações finais

    Com o lançamento dos modelos Claude Opus 4.6, Claude Sonnet 4.6, Claude Opus 4.5, Claude Sonnet 4.5 e Claude Haiku 4.5 usando inferência distribuída entre regiões do Amazon Bedrock, clientes no Oriente Médio podem agora construir aplicações de IA generativa altamente escaláveis e resilientes sem a sobrecarga operacional de gerenciar manualmente capacidade de inferência regional. Essa funcionalidade oferece a base infraestrutural para que organizações acelerem inovação e entreguem experiências impactantes potencializadas por IA em toda a região.

    Para aprender mais detalhes técnicos, consulte o guia Primeiros passos com inferência entre regiões no Amazon Bedrock.

    Fonte

    Introducing Amazon Bedrock global cross-Region inference for Anthropic’s Claude models in the Middle East Regions (UAE and Bahrain) (https://aws.amazon.com/blogs/machine-learning/introducing-amazon-bedrock-global-cross-region-inference-for-anthropics-claude-models-in-the-middle-east-regions/)

  • Observabilidade da AWS agora disponível como Kiro Power

    Uma nova abordagem para observabilidade em nuvem

    A AWS anunciou recentemente a integração de sua solução de observabilidade como Kiro Power, ampliando as capacidades oferecidas através da plataforma Kiro. Essa integração representa um avanço significativo para profissionais que trabalham com infraestrutura e aplicações em nuvem, permitindo acelerar investigações de problemas com o apoio de agentes de IA integrados ao ambiente de desenvolvimento.

    Para contextualizar: Kiro Powers é um repositório curado e pré-configurado que reúne servidores de Protocolo de Contexto do Modelo (MCP), arquivos de direcionamento e hooks validados por parceiros Kiro, facilitando o desenvolvimento e implantação de soluções especializadas.

    Estrutura técnica da solução

    Os componentes do AWS Observability Power

    O AWS Observability Power agrupa quatro servidores MCP especializados, cada um projetado para um aspecto diferente da observabilidade:

    • CloudWatch MCP server — responsável por acessar dados de observabilidade
    • Application Signals MCP server — fornece monitoramento de performance de aplicações
    • CloudTrail MCP server — suporta análise de segurança e conformidade
    • AWS Documentation MCP server — oferece acesso a referências contextuais

    Essa arquitetura integrada oferece aos agentes Kiro um contexto abrangente para executar fluxos de trabalho especializados, incluindo resposta a alarmes, detecção de anomalias, rastreamento distribuído, monitoramento de SLO (Acordos de Nível de Serviço) e investigações de segurança.

    Análise automatizada de lacunas de instrumentação

    Além das capacidades principais, o poder inclui um mecanismo de análise automatizada de lacunas que identifica padrões ausentes na instrumentação do código. Isso abrange situações como erros não registrados, identificadores de correlação faltantes ou rastreamento distribuído ausente, fornecendo recomendações acionáveis para melhorias.

    Benefícios práticos para operações

    Redução do tempo de resolução de incidentes

    A solução atende a dois objetivos críticos em operações de TI. Primeiro, ao investigar um alarme ativo, o poder carrega dinamicamente a orientação relevante e sinais operacionais, assegurando que os agentes de IA recebam apenas o contexto necessário para a tarefa de troubleshooting específica. Isso reduz significativamente o tempo de resolução médio (MTTR).

    Melhoria proativa da pilha de observabilidade

    Segundo, a análise automatizada de lacunas permite que equipes identifiquem e resolvam proativamente problemas de instrumentação antes que eles afetem a detecção de incidentes. O poder acompanha oito guias de direcionamento abrangentes cobrindo resposta a incidentes, alertas, monitoramento de performance, auditoria de segurança e análise de lacunas.

    Disponibilidade e instalação

    O AWS Observability Power está disponível para instalação com um clique dentro do Kiro IDE e na página de Kiro Powers, funcional em todas as regiões AWS. Cada servidor MCP subjacente opera conforme o suporte regional do serviço AWS correspondente.

    Desenvolvedores podem agora acelerar o troubleshooting de aplicações distribuídas e infraestrutura diretamente em seu ambiente de desenvolvimento integrado (IDE), transformando minutos que seriam gastos em investigação manual em processos assistidos e guiados.

    Para explorar mais detalhes sobre os servidores MCP de observabilidade da AWS, a documentação técnica está disponível para consulta.

    Fonte

    AWS Observability now available as a Kiro power (https://aws.amazon.com/about-aws/whats-new/2026/02/aws-observability-kiro-power/)

  • AWS Elemental Inference: Inteligência Artificial para Otimizar Conteúdo de Vídeo em Tempo Real

    O que é o AWS Elemental Inference

    A AWS anunciou a disponibilidade geral do Elemental Inference, um serviço totalmente gerenciado de Inteligência Artificial que oferece aos broadcasters e streamers a capacidade de gerar automaticamente conteúdo otimizado para dispositivos móveis e plataformas sociais em tempo real. O diferencial está em sua arquitetura paralela: o processamento de vídeo acontece simultaneamente com a codificação, permitindo que empresas e criadores de conteúdo alcancem audiências em diversos formatos sem necessitar de conhecimento especializado em IA ou equipes dedicadas exclusivamente à produção.

    Processamento de Vídeo Único, Distribuição Múltipla

    Um dos pontos-chave do Elemental Inference é seu modelo de processamento: processa-se o vídeo uma única vez e o otimiza para todos os destinos. Enquanto transmissão principal é codificada, o serviço gera simultaneamente versões verticais para plataformas como TikTok, Instagram Reels, YouTube Shorts e Snapchat. Essa abordagem paralela elimina a necessidade de pipelines separados de produção.

    Para exemplificar: uma emissora de esportes pode gerar automaticamente clips de destaque em formato vertical durante transmissões ao vivo e distribuí-los para redes sociais em tempo real, capturando momentos virais conforme ocorrem, em vez de horas depois.

    Recursos de IA Disponíveis

    O serviço foi lançado com dois recursos principais impulsionados por IA:

    • Recorte de vídeo vertical: transforma automaticamente transmissões em landscape (ao vivo ou sob demanda) em formatos otimizados para dispositivos móveis
    • Análise avançada de metadados: identifica momentos-chave em conteúdo ao vivo para gerar automaticamente clips de destaque

    Ambos os recursos funcionam através de uma aplicação de IA que não requer prompts ou intervenção manual. O sistema adapta o conteúdo automaticamente para cada plataforma, permitindo que broadcasters escalem produção sem adicionar fluxos de trabalho manuais ou contratar mais staff.

    Eficiência Operacional Comprovada

    Durante a fase de testes em beta, grandes empresas de mídia relataram economia de 34% ou superior em fluxos de trabalho de vídeo ao vivo com IA, comparado ao uso de múltiplas soluções pontuais. Esse resultado reforça o valor da integração centralizada versus abordagens fragmentadas.

    Disponibilidade Regional

    O AWS Elemental Inference está disponível nas seguintes regiões da AWS: US East (N. Virginia), US West (Oregon), Asia Pacific (Mumbai) e Europe (Ireland).

    Próximas Etapas

    Para conhecer mais detalhes, a AWS recomenda consultar o AWS News Blog ou explorar a documentação do AWS Elemental Inference.

    Fonte

    Announcing AWS Elemental Inference (https://aws.amazon.com/about-aws/whats-new/2026/02/aws-elemental-inference-generally-avail/)

  • Exportação de Snapshots do RDS para S3 agora disponível no AWS GovCloud

    Exportação de Snapshots RDS para S3 no AWS GovCloud

    A AWS anunciou a disponibilidade do recurso de Exportação de Snapshots do RDS para S3 nas regiões do AWS GovCloud (US). Essa funcionalidade permite que organizações exportem dados de snapshots em formato Apache Parquet, viabilizando cenários de análise de dados, retenção de informações e aplicações de machine learning.

    Capacidades e Características Técnicas

    O recurso funciona de forma abrangente e flexível. Ele suporta todos os tipos de snapshots de banco de dados: snapshots manuais, snapshots de sistema automatizados e snapshots criados via AWS Backup. Uma característica importante é que a exportação ocorre diretamente sobre o snapshot, sem impacto no desempenho da base de dados em operação.

    Formato e Interoperabilidade

    Os dados exportados no formato Apache Parquet podem ser analisados utilizando diversos serviços e ferramentas. Na plataforma AWS, é possível integrar com Amazon Athena, Amazon SageMaker e Amazon Redshift Spectrum. Além disso, a solução é compatível com frameworks de processamento de big data como Apache Spark, oferecendo flexibilidade para diferentes arquiteturas de análise.

    Simplicidade de Uso

    A criação de uma exportação de snapshot é realizada com facilidade através do Console de Gerenciamento do Amazon RDS, ou alternativamente, usando AWS SDK ou AWS CLI para automação e integração em pipelines.

    Mecanismos de Banco de Dados Suportados

    O recurso de exportação para S3 está disponível para os seguintes tipos de bancos de dados:

    • Amazon Aurora PostgreSQL – Compatible Edition
    • Amazon Aurora MySQL
    • Amazon RDS para PostgreSQL
    • Amazon RDS para MySQL
    • Amazon RDS para MariaDB

    Próximos Passos

    Para implementar essa solução em seu ambiente, consulte a documentação do Aurora ou a documentação do Amazon RDS, onde você encontrará instruções detalhadas para começar a utilizar o recurso.

    Fonte

    Amazon RDS Snapshot Export to S3 now available in AWS GovCloud (US) Regions (https://aws.amazon.com/about-aws/whats-new/2026/02/rds-exports-s3-available-gov-cloud/)

  • Amazon Bedrock agora permite execução de ferramentas no servidor com AgentCore Gateway

    O que muda no Amazon Bedrock

    A AWS anunciou um aprimoramento significativo no Amazon Bedrock, seu serviço de modelos de IA em larga escala. Agora, o serviço suporta execução de ferramentas no servidor por meio da integração do Amazon Bedrock AgentCore Gateway com a API Responses. Essa novidade permite que os clientes conectem suas ferramentas do AgentCore Gateway diretamente aos modelos do Amazon Bedrock, possibilitando execução de ferramentas no servidor sem a necessidade de orquestração no lado do cliente.

    Como funciona a integração

    O funcionamento é direto e eficiente. Ao fazer requisições pela API Responses, os clientes podem especificar um ARN (Amazon Resource Name) do AgentCore Gateway como um conector de ferramentas. A partir daí, o Amazon Bedrock realiza automaticamente a descoberta das ferramentas disponíveis no gateway, as apresenta ao modelo durante a inferência e executa as chamadas de ferramentas no servidor quando o modelo as seleciona. Tudo isso acontece dentro de uma única chamada da API.

    Esse fluxo integrado oferece uma vantagem clara: elimina a necessidade de os clientes construírem e manterem loops de orquestração no lado do cliente. O resultado é uma redução significativa na complexidade das aplicações e na latência dos fluxos de trabalho com agentes de IA.

    Segurança e controle

    A implementação mantém o controle total nas mãos dos clientes. O acesso às ferramentas é governado pelas configurações existentes do AgentCore Gateway e pelas permissões do AWS IAM (Gerenciamento de Identidade e Acesso), garantindo que apenas as ferramentas autorizadas possam ser acessadas e executadas.

    Compatibilidade e recursos

    A execução de ferramentas no servidor com AgentCore Gateway está disponível para todos os modelos suportados pela API Responses do Amazon Bedrock. Os clientes definem as ferramentas usando o tipo de conector do servidor MCP com o ARN do gateway, e o Amazon Bedrock gerencia automaticamente a descoberta de ferramentas, a seleção orientada pelo modelo, a execução e a injeção de resultados.

    Um destaque importante: o serviço suporta múltiplas chamadas de ferramentas em um único turno de conversa, e os resultados das ferramentas são transmitidos de volta ao cliente em tempo real.

    Disponibilidade e próximos passos

    Essa capacidade está disponível em caráter geral (GA) em todas as regiões da AWS onde tanto a API Responses do Amazon Bedrock quanto o Amazon Bedrock AgentCore Gateway estão disponíveis. Para começar, recomenda-se consultar a documentação do Amazon Bedrock ou acessar o console do Amazon Bedrock. Informações adicionais sobre o Amazon Bedrock AgentCore Gateway podem ser encontradas na documentação do AgentCore.

    Fonte

    Amazon Bedrock now supports server-side tool execution with AgentCore Gateway (https://aws.amazon.com/about-aws/whats-new/2026/02/amazon-bedrock-server-side-tool-execution-agentcore-gateway/)

  • Construindo um Sistema de Busca Inteligente de Fotos com Visão Computacional, Grafos e IA Generativa

    O Desafio de Organizar Grandes Coleções de Fotos

    Gerenciar acervos fotográficos expressivos apresenta desafios significativos para organizações e indivíduos. As abordagens tradicionais baseiam-se em etiquetagem manual, metadados simples e organização por pastas, estratégias que se tornam impraticáveis quando se lida com milhares de imagens contendo múltiplas pessoas e relacionamentos complexos. A rotulação manual consome tempo considerável, as buscas por metadata simples oferecem resultado limitado, e a estrutura de pastas frequentemente não reflete a forma como as pessoas realmente buscam suas memórias.

    Sistemas de busca fotográfica inteligente resolvem esse problema combinando visão computacional, bancos de dados em grafo e processamento de linguagem natural. Essas soluções capturam não apenas quem e o que aparece nas fotos, mas os relacionamentos e contextos complexos que as tornam significativas, viabilizando consultas em linguagem natural e descoberta semântica genuína.

    Uma Arquitetura Serverless Integrada

    A AWS demonstrou como construir um sistema completo de busca fotográfica utilizando o AWS Cloud Development Kit (AWS CDK), integrando três serviços principais: Amazon Rekognition para detecção de rostos e objetos, Amazon Neptune para mapeamento de relacionamentos, e Amazon Bedrock para legendagem orientada por IA.

    A solução demonstra que integrando as capacidades de banco de dados em grafo do Amazon Neptune com os serviços de IA da AWS, é possível criar uma busca fotográfica em linguagem natural que compreende contexto e relacionamentos. Em vez de simples metadados, a arquitetura oferece descoberta fotográfica verdadeiramente inteligente.

    Componentes Principais da Solução

    A arquitetura serverless articula diversos serviços AWS para criar um sistema contextualmente consciente:

    Fluxo de Processamento

    O sistema segue um fluxo de trabalho racionalizado: imagens são enviadas para buckets S3 com acionadores Lambda automáticos. Fotos de referência na pasta faces/ são processadas para construir modelos de reconhecimento. Novas fotos acionam Amazon Rekognition para detecção facial e etiquetagem de objetos. O Neptune armazena conexões entre pessoas, objetos e contextos. O Amazon Bedrock gera descrições contextuais usando rostos detectados e relacionamentos. O DynamoDB armazena metadados pesquisáveis com recuperação rápida. Consultas em linguagem natural atravessam o grafo Neptune para resultados inteligentes.

    Casos de Uso e Escalabilidade

    A arquitetura serverless escala eficientemente para múltiplos casos de uso: em contextos corporativos para reconhecimento de funcionários e documentação de eventos; no setor de saúde para gestão de fotos compatível com HIPAA com rastreamento de relacionamentos; na educação para organização de fotos de estudantes e corpo docente entre departamentos; em eventos para fotografia profissional com etiquetagem automática e entrega ao cliente.

    A solução beneficia-se diretamente da natureza serverless: você paga apenas pelo que usa, tornando-a economicamente viável tanto para pequenos acervos familiares quanto para arquivos corporativos massivos. O processamento de 1.000 imagens tipicamente custa aproximadamente $15–25 (incluindo detecção facial do Amazon Rekognition, geração de legendas com Amazon Bedrock e execução de funções Lambda), com custos de cluster Neptune na faixa de $100–150 mensais independentemente do volume. Custos de armazenamento permanecem mínimos, inferior a $1 por 1.000 imagens no Amazon S3.

    Capacidades Principais

    Reconhecimento Facial e Etiquetagem Automática

    Com o Amazon Rekognition, é possível identificar automaticamente indivíduos a partir de fotos de referência, sem necessidade de etiquetagem manual. Enviando algumas imagens claras por pessoa, o sistema as reconhece em toda a coleção, independentemente de iluminação ou ângulos. Essa automação reduz o tempo de etiquetagem de semanas para horas, suportando diretórios corporativos, arquivos de conformidade e fluxos de gestão de eventos.

    Busca Consciente de Relacionamentos

    Utilizando Neptune, a solução compreende quem aparece nas fotos e como estão conectados. Consultas em linguagem natural como “gerente da Sarah” ou “Mãe com seus filhos” permitem que o sistema atravesse relacionamentos de múltiplos saltos para retornar imagens relevantes. Essa busca semântica substitui a organização manual por pastas com descoberta intuitiva e contextualmente consciente.

    Compreensão Automática de Objetos e Contexto

    O Amazon Rekognition detecta objetos, cenas e atividades, e o Neptune os conecta a pessoas e relacionamentos. Isso viabiliza consultas complexas como “executivos com veículos corporativos” ou “professores em salas de aula”. A hierarquia de etiquetas é gerada dinamicamente e se adapta a domínios diferentes — como saúde ou educação — sem configuração manual.

    Legendagem Contextual com Amazon Bedrock

    Usando Amazon Bedrock, o sistema cria legendas significativas, conscientes de relacionamentos, como “Sarah e seu gerente discutindo resultados trimestrais” em vez de legendas genéricas. Legendas podem ser ajustadas quanto ao tom (objetivo para conformidade, narrativo para marketing, conciso para resumos executivos), aprimorando tanto a capacidade de busca quanto a comunicação.

    Experiência Web Intuitiva

    A interface web permite que usuários busquem fotos usando linguagem natural, visualizem legendas geradas por IA e ajustem o tom dinamicamente. Consultas como “mãe com crianças” ou “atividades ao ar livre” retornam resultados relevantes e legendados instantaneamente. Essa experiência unificada suporta tanto fluxos de trabalho corporativos quanto coleções pessoais.

    Gerenciamento de Relacionamentos e Hierarquias

    Escalando Relacionamentos em Grafos com Hierarquias de Etiquetas

    O Neptune escala para modelar milhares de relacionamentos e hierarquias de etiquetas em organizações ou conjuntos de dados. Relacionamentos são gerados automaticamente durante o processamento de imagens, viabilizando descoberta semântica rápida enquanto mantém performance e flexibilidade conforme os dados crescem.

    Abordagem Orientada por Configuração

    O grafo de relacionamentos utiliza uma abordagem flexível orientada por configuração através da função initialize_relationship_data(). Esse modelo mitiga a necessidade de codificação fixa e suporta casos de uso ilimitados — você simplesmente define suas pessoas e relacionamentos em um objeto de configuração.

    Um exemplo de estrutura genérica de configuração:

    config = {
        "people": [
            {"name": "alice", "gender": "woman", "role": "mother"},
            {"name": "jane", "gender": "girl", "role": "daughter"}
        ],
        "relationships": [
            {"from": "alice", "to": "jane", "type": "parent_of", "subtype": "mother_of"},
            {"from": "jane", "to": "david", "type": "sibling_of", "bidirectional": True}
        ]
    }
    
    # Generic relationship creation
    for rel in relationships_data:
        g.V().has('name', rel["from"]).addE(rel["type"]).to(
            __.V().has('name', rel["to"])
        ).property('type', rel["subtype"]).next()
    
    # Business example - just change the configuration
    business_config = {
        "people": [{"name": "sarah", "role": "manager"}],
        "relationships": [{"from": "sarah", "to": "john", "type": "manages", "subtype": "manager_of"}]
    }

    Criação Automática de Hierarquias de Etiquetas

    O banco de dados de relacionamentos de etiquetas é criado automaticamente durante o processamento de imagens através da função store_labels_in_neptune():

    # Rekognition provides labels with categories
    response = rekognition.detect_labels(
        Image={'Bytes': image_bytes},
        MaxLabels=20,
        MinConfidence=70
    )
    
    # Extract labels and categories
    for label in response.get('Labels', []):
        label_data = {
            'name': label['Name'],  # e.g., "Car"
            'categories': [cat['Name'] for cat in label.get('Categories', [])]  # e.g., ["Vehicle", "Transportation"]
        }
    
    # Automatic hierarchy creation in Neptune
    for category in categories:
        # Create belongs_to relationship (Car -> Vehicle -> Transportation)
        g.V().has('name', label_name).addE('belongs_to').to(
            __.V().has('name', category_name)
        ).property('type', 'hierarchy').next()
        
        # Create appears_with relationship (Person -> Car)
        g.V().has('name', person_name).addE('appears_with').to(
            __.V().has('name', label_name)
        ).property('confidence', confidence).next()

    Com essas funções, é possível gerenciar coleções fotográficas grandes com consultas de relacionamento complexas, descobrir fotos por contexto semântico e localizar coleções temáticas através de padrões de co-ocorrência de etiquetas.

    Implantação e Pré-requisitos

    Requisitos Técnicos

    Antes de implementar essa solução, certifique-se de ter:

    Estrutura do Projeto

    O código-fonte completo está disponível em repositório GitHub, com instruções detalhadas de setup e implantação no README. O projeto está organizado em diretórios-chave que separam responsabilidades e viabilizam desenvolvimento modular:

    smart-photo-caption-and-search/
    ├── lambda/
    │   ├── face_indexer.py # Indexes reference faces in Rekognition
    │   ├── faces_handler.py # Lists indexed faces via API
    │   ├── image_processor.py # Main processing pipeline
    │   ├── search_handler.py # Handles search queries
    │   ├── style_caption.py # Generates styled captions
    │   ├── relationships_handler_neptune.py # Manages Neptune relationships
    │   ├── label_relationships.py # Queries label hierarchies
    │   └── neptune_search.py # Neptune relationship parsing
    ├── lambda_layer/ # Pillow image processing layer
    ├── neptune_layer/ # Gremlin Python Neptune layer
    ├── ui/
    │   └── demo.html # Web interface with Cognito authentication
    ├── app.py # CDK application entry point
    ├── image_name_cap_stack_neptune.py # Neptune-enabled CDK stack
    └── requirements_neptune.txt # Python dependencies

    Funções Lambda Principais

    A solução utiliza as seguintes funções Lambda-chave:

    • image_processor.py — Processamento central com reconhecimento facial, detecção de etiquetas e geração de legendas enriquecidas por relacionamentos
    • search_handler.py — Processamento de consultas em linguagem natural com travessia de relacionamentos de múltiplos saltos
    • relationships_handler_neptune.py — Gerenciamento de relacionamentos orientado por configuração e conexões em grafo
    • label_relationships.py — Consultas hierárquicas de etiquetas, associações objeto-pessoa e descoberta semântica

    Passos de Implantação

    Para implantar a solução, execute os seguintes passos:

    1. Instale as dependências com: pip install -r requirements_neptune.txt
    2. Para configuração de primeira vez, execute o bootstrap do AWS CDK: cdk bootstrap
    3. Provisione recursos AWS com: cdk deploy
    4. Configure credenciais do pool de usuários Amazon Cognito na interface web
    5. Carregue fotos de referência para estabelecer a linha de base de reconhecimento
    6. Crie relacionamentos familiares de amostra utilizando a API ou interface web

    O sistema gerencia automaticamente reconhecimento facial, detecção de etiquetas, resolução de relacionamentos e geração de legendas orientada por IA através do pipeline serverless, viabilizando consultas em linguagem natural como “mãe da pessoa com carro” alimentadas por travessias em grafo Neptune.

    Segurança e Privacidade

    A solução implementa medidas abrangentes de segurança para proteger dados sensíveis de imagem e reconhecimento facial. O sistema criptografa dados em repouso utilizando criptografia AES-256 com chaves gerenciadas pelo AWS Key Management Service (AWS KMS) e assegura dados em trânsito com TLS 1.2 ou posterior. Funções Neptune e Lambda operam dentro de sub-redes de nuvem privada virtual (VPC), isoladas do acesso direto à internet, e o API Gateway fornece o único endpoint público com políticas CORS e limite de taxa.

    O controle de acesso segue princípios de menor privilégio com políticas do AWS Identity and Access Management (IAM) que concedem apenas permissões mínimas necessárias: funções Lambda podem acessar apenas buckets S3 e tabelas DynamoDB específicas, e o acesso Neptune é restrito a operações autorizadas de banco de dados. Dados de imagem e reconhecimento facial permanecem dentro de sua conta AWS e nunca são compartilhados fora dos serviços AWS.

    Você pode configurar políticas de ciclo de vida do Amazon S3 para gerenciamento automático de retenção de dados, e o AWS CloudTrail fornece logs de auditoria completos de acesso a dados e chamadas de API para monitoramento de conformidade, suportando requisitos GDPR e HIPAA com monitoramento adicional do Amazon GuardDuty para detecção de ameaças.

    Limpeza de Recursos

    Para evitar incorrer em cobranças futuras, execute os seguintes passos para deletar recursos que você criou:

    • Delete imagens do bucket S3: aws s3 rm s3://YOUR_BUCKET_NAME –recursive
    • Delete o cluster Neptune (esse comando também deleta automaticamente as funções Lambda): cdk destroy
    • Remova a coleção de rostos do Amazon Rekognition: aws rekognition delete-collection --collection-id face-collection

    Perspectiva para Profissionais de Nuvem Brasileiros

    Essa arquitetura representa uma abordagem moderna para um problema clássico de gestão de dados visuais. Para times brasileiras de engenharia, o projeto oferece várias lições técnicas: a integração entre serviços especializados (visão, grafos, IA) demonstra como orquestrar capacidades distintas em uma solução coesa; a arquitetura serverless elimina gerenciamento de infraestrutura, permitindo que equipes se concentrem em lógica de negócio; a abordagem orientada por configuração do Neptune facilita adaptação a diferentes domínios sem alterações de código.

    A relevância para o contexto brasileiro inclui casos de uso em áreas como documentação de eventos, gestão de acervos fotográficos institucionais, compliance corporativo com rastreabilidade, e até aplicações de segurança com reconhecimento facial contextualizado. O modelo de precificação serverless torna a solução economicamente acessível para startups e empresas de médio porte que historicamente enfrentavam barreiras de investimento em infraestrutura de ML e grafos.

    Referência de Recursos

    Para aprofundamento técnico, consulte:

    Conclusão

    A demonstração da AWS ilustra como Amazon Rekognition, Amazon Neptune e Amazon Bedrock trabalham em conjunto para viabilizar busca fotográfica inteligente que compreende conteúdo visual e contexto. Construída sobre uma arquitetura totalmente serverless, a solução combina visão computacional, modelagem em grafo e compreensão em linguagem natural para entregar experiências de descoberta escaláveis e humanizadas.

    Ao transformar coleções fotográficas em um grafo de conhecimento de pessoas, objetos e momentos, a arquitetura redefine como usuários interagem com dados visuais — tornando a busca mais semântica, relacional e significativa. Essa abordagem reflete a confiabilidade e robustez de tecnologias de IA e grafos da AWS na viabilização de compreensão fotográfica segura e contextualmente consciente.

    Fonte

    Build an intelligent photo search using Amazon Rekognition, Amazon Neptune, and Amazon Bedrock (https://aws.amazon.com/blogs/machine-learning/build-an-intelligent-photo-search-using-amazon-rekognition-amazon-neptune-and-amazon-bedrock/)

  • AWS IAM Policy Autopilot agora está disponível como um Kiro Power

    Nova integração simplifica a criação de políticas IAM

    A AWS anunciou a disponibilidade do AWS IAM Policy Autopilot como um Kiro Power. Esta ferramenta de análise estática de código aberto foi lançada durante o re:Invent 2025 e agora oferece aos desenvolvedores uma forma mais eficiente de integrar expertise em políticas de segurança ao desenvolvimento de aplicações com IA agentic.

    O que é o AWS IAM Policy Autopilot

    O AWS IAM Policy Autopilot é uma solução que auxilia desenvolvedores na criação rápida de políticas baseline de Controle de Acesso por Identidade e Acesso (IAM — Identity and Access Management) da AWS. Essas políticas podem ser refinadas conforme as aplicações evoluem, eliminando a necessidade de criação manual de políticas IAM — um processo que tradicionalmente consome tempo e requer conhecimento profundo de segurança na nuvem.

    Benefícios da integração como Kiro Power

    A transformação dessa ferramenta em um Kiro Power traz melhorias significativas ao fluxo de trabalho dos desenvolvedores:

    Instalação simplificada

    O grande diferencial é a instalação com um único clique, disponível diretamente pela interface do Kiro IDE e pela interface web. Isso elimina completamente a necessidade de configuração manual do MCP (Model Context Protocol) server, processo que antes era necessário para integrar a ferramenta.

    Integração perfeita com ambientes de desenvolvimento

    O fluxo de trabalho streamlined permite que os desenvolvedores gerem políticas IAM sem abandonar seu ambiente de codificação, integrando-se perfeitamente em ambientes de desenvolvimento assistido por IA. Isso significa velocidade na criação de políticas e produtividade aumentada.

    Casos de uso principais

    A AWS destaca três cenários onde o AWS IAM Policy Autopilot como Kiro Power oferece maior valor:

    • Prototipagem rápida: Para projetos que exigem políticas IAM da AWS em fases iniciais de desenvolvimento
    • Baseline para novos projetos: Criação de políticas iniciais sólidas para novas aplicações da AWS
    • Produtividade em IDE: Geração de políticas diretamente no ambiente de codificação, sem interrupções no fluxo de desenvolvimento

    Próximos passos

    Desenvolvedores interessados em explorar essa ferramenta podem acessar o repositório do AWS IAM Policy Autopilot no GitHub para documentação técnica completa e orientações de implementação. Para informações adicionais sobre Kiro Powers e outras integrações disponíveis, consulte a página de Kiro Powers.

    Fonte

    AWS IAM Policy Autopilot is now available as a Kiro Power (https://aws.amazon.com/about-aws/whats-new/2026/02/aws-iam-policy-autopilot-kiro-power/)

  • Amazon Q Developer ganha artefatos com IA generativa para visualizar recursos e custos

    Novidade no Amazon Q Developer: visualização inteligente de recursos e custos

    A AWS anunciou em fevereiro de 2026 a disponibilidade geral dos artefatos do Amazon Q Developer no Console de Gerenciamento da AWS. Essa funcionalidade representa um passo importante na forma como os clientes interagem com seus ambientes em nuvem, oferecendo uma experiência baseada em inteligência artificial generativa para visualizar dados de forma organizada e intuitiva.

    Os artefatos do Amazon Q permitem que os usuários visualizem dados de recursos em formato tabular e informações de custos em gráficos, tudo através de uma interface conversacional. O lançamento também trouxe melhorias na acessibilidade do serviço, com o ícone do Amazon Q agora posicionado na barra de navegação e o painel de chat movido para o lado esquerdo do console, facilitando o acesso a partir de qualquer ponto do Console de Gerenciamento da AWS.

    Como usar os artefatos do Amazon Q

    Consultando recursos com exemplos práticos

    Os clientes podem acessar os artefatos selecionando o ícone do Amazon Q e fazendo perguntas sobre seus recursos da AWS. Por exemplo, ao questionar “List S3 buckets with tag value production”, o Amazon Q exibe os buckets do S3 que possuem a tag de produção em formato tabular. A partir daí, é possível clicar nos nomes dos buckets para visualizar detalhes completos diretamente no console do S3.

    Analisando custos com visualizações gráficas

    Além de recursos, os usuários podem visualizar informações de custos e faturamento através de gráficos. Quando o usuário digita uma consulta como “Show me RDS costs by instance type over the last 6 months”, o Amazon Q renderiza a resposta utilizando gráficos adequados — como gráficos de barras, linhas, pizzas ou áreas — permitindo uma análise rápida e visual dos gastos com banco de dados.

    Recursos de acessibilidade e produtividade

    O Amazon Q Developer oferece uma biblioteca de prompts de exemplo no painel de chat, permitindo que novos usuários comecem rapidamente sem necessidade de memorizar comandos específicos. Os artefatos são exibidos em um painel dedicado à direita do painel de chat do Amazon Q, mantendo a conversa visível e facilitando o acompanhamento das consultas.

    Para usuários que desejam uma experiência focada, há a opção de expandir o Amazon Q para tela cheia, oferecendo um modo dedicado sem distrações.

    Disponibilidade e próximos passos

    Os artefatos do Amazon Q Developer estão disponíveis em todas as regiões da AWS onde o Amazon Q Developer está presente. Para começar a usar a funcionalidade, é recomendável consultar a documentação do Amazon Q Developer, que contém guias detalhados e exemplos adicionais de uso.

    Fonte

    Amazon announces generative AI-based artifacts in Amazon Q Developer for visualizing resource and cost data (https://aws.amazon.com/about-aws/whats-new/2026/02/generative-ai-based-Amazon-Q-artifacts/)

  • IA Agente com Framework Multi-Modelo: Integrando Hugging Face smolagents na AWS

    Compreendendo a Evolução da IA Agente

    A inteligência artificial evoluiu significativamente. Enquanto os sistemas de conversação tradicionais respondem a perguntas com base em padrões aprendidos, os agentes de IA representam um avanço qualitativo: são capazes de raciocinar complexamente, utilizar ferramentas externas e executar código de forma autônoma para resolver problemas.

    Para que essas soluções funcionem eficientemente em ambientes corporativos, é necessário pensar estrategicamente sobre como implantá-las. Diferentes cenários exigem diferentes abordagens: alguns demandam endpoints gerenciados com capacidade de escalabilidade automática, outros precisam de acesso a modelos de fundação poderosos para raciocínio avançado, e há casos em que é essencial contar com opções de implantação em contêiner para integrar customizações específicas.

    A biblioteca Python smolagents da Hugging Face foi desenvolvida justamente para simplificar essa construção. Ela permite que você crie e execute agentes inteligentes com apenas algumas linhas de código. Ao integrar essa biblioteca com os serviços gerenciados da AWS, torna-se possível implementar soluções sofisticadas que combinam o melhor dos dois mundos.

    A Solução de Saúde como Caso de Uso

    Para ilustrar como essa integração funciona na prática, a arquitetura demonstrada utiliza um agente de IA no setor de saúde. Este agente é capaz de processar consultas médicas complexas, integrar conhecimento clínico especializado e oferecer suporte para decisões clínicas, tudo operando dentro dos padrões rigorosos de segurança e conformidade que o setor demanda.

    Embora o exemplo seja focado em saúde, essa abordagem se aplica a qualquer indústria onde inteligência especializada em domínios específicos e confiabilidade são críticas: serviços financeiros, manufatura, energia e muitos outros setores.

    Arquitetura e Componentes Principais

    A solução integra diversos serviços da AWS de forma coordenada:

    Um servidor de modelo containerizado também faz parte da solução, permitindo implantação self-hosted do BioM-ELECTRA para integração de ferramentas especializadas.

    Design Agnóstico: Flexibilidade de Múltiplos Modelos

    Uma das forças dessa arquitetura é seu design agnóstico em relação a modelos, modalidades e ferramentas. A biblioteca smolagents foi estruturada para orquestrar transparentemente entre diferentes backends sem exigir mudanças no código da aplicação.

    Os três backends da solução implementam compatibilidade com a Hugging Face Messages API, garantindo que os formatos de requisição e resposta sejam consistentes. Isso significa que você pode escolher qual backend usar baseado nas necessidades operacionais específicas:

    • SageMaker AI: Ideal para modelos de domínio especializados em ambientes de produção com auto-scaling gerenciado
    • Amazon Bedrock: Melhor para acesso serverless a modelos de fundação quando você precisa de raciocínio sofisticado
    • Servidor containerizado: Escolha quando você necessita integração com ferramentas customizadas e controle total da implantação

    Inteligência Gerada por Código vs. Abordagens Tradicionais

    Um aspecto técnico importante do smolagents é sua abordagem de CodeAgent. Em vez de gerar sequências JSON complexas para orquestração de passos múltiplos, o CodeAgent do smolagents gera blocos de código Python que podem ser executados diretamente.

    Compare essas duas abordagens:

    Abordagem tradicional (JSON-based):

    {
      "action": "search",
      "parameters": {"query": "drug interactions"},
      "next_action": {
        "action": "filter",
        "parameters": {"criteria": "severity > moderate"}
      }
    }

    Abordagem smolagents (CodeAgent):

    # Search and filter in single code block
    results = search_tool("drug interactions")
    filtered_results = [r for r in results if r.severity > "moderate"]
    final_answer(f"Found {len(filtered_results)} severe interactions: {filtered_results}")

    Essa geração de código reduz a quantidade de chamadas ao modelo de linguagem, simplifica o desenvolvimento do agente e oferece controle total sobre a lógica de execução.

    Configuração Prática: Primeiros Passos

    Para implementar essa solução, você precisa de alguns pré-requisitos:

    A implementação utiliza Python 3.10+, framework smolagents, transformers 4.28.1+, PyTorch 2.0.0+ e boto3.

    Definindo Variáveis de Ambiente

    Antes de iniciar a implantação, é necessário configurar variáveis de ambiente para sua região AWS e nomes de recursos:

    export AWS_REGION=us-west-2
    export SAGEMAKER_ENDPOINT_NAME=healthcare-qa-endpoint-1
    export OPENSEARCH_DOMAIN=healthcare-vector-store
    export OPENSEARCH_INDEX=medical-knowledge
    export BEDROCK_MODEL_ID=anthropic.claude-3-5-sonnet-20241022-v2:0
    export SAGEMAKER_MODEL_ID=sultan/BioM-ELECTRA-Large-SQuAD2
    export CONTAINERIZED_MODEL_ID=sultan/BioM-ELECTRA-Large-SQuAD2

    Você pode verificar se as variáveis foram configuradas corretamente executando:

    echo $AWS_REGION
    echo $SAGEMAKER_ENDPOINT_NAME

    Implantação da Infraestrutura AWS

    A implantação pode ser feita de forma automatizada ou passo a passo, conforme preferência. A abordagem automatizada cria todos os componentes de infraestrutura básicos, incluindo o cluster ECS, roles de IAM e o domínio OpenSearch Service, em aproximadamente 15 a 20 minutos.

    O repositório GitHub completo da implementação fornece toda a base de código necessária para executar a solução.

    Implantando o Endpoint SageMaker AI

    O modelo BioM-ELECTRA-Large-SQuAD2 é implantado no SageMaker AI para processar consultas médicas especializadas. A implantação leva entre 5 e 10 minutos. O endpoint é configurado com MAX_LENGTH=512 e TEMPERATURE=0.1 para otimizar respostas em tarefas de resposta a perguntas.

    Configurando os Múltiplos Backends

    Após ter o SageMaker AI configurado, o próximo passo é ativar o acesso ao Amazon Bedrock para integração com modelos de fundação. O Claude 3.5 Sonnet V2 fica automaticamente disponível em sua conta AWS e pode ser verificado no console do Bedrock sob o catálogo de modelos.

    Posteriormente, a base de conhecimento médica é inicializada com seis medicamentos principais e suas embeddings vetoriais armazenadas no OpenSearch Service. Cada medicamento inclui informações sobre efeitos colaterais, requisitos de monitoramento e classificação farmacológica. O sistema suporta busca por similaridade com filtragem por tipo de conteúdo.

    Servidor de Modelo Containerizado

    Para cenários que exigem implantação self-hosted, um servidor de modelo containerizado é deployado na infraestrutura ECS já criada. Esse servidor usa Docker sandbox para execução segura de código e inclui mecanismos de fallback integrados com a base de dados de conhecimento médico.

    Implementando o Agente de Saúde

    O agente principal é construído usando a classe SampleTripleHealthcareAgent, que demonstra a integração completa do smolagents com os três backends diferentes. O agente inicializa tanto a instância do vector store quanto os três modelos de backend (SageMaker, Bedrock e containerizado), cada um envolvido com o SampleHealthcareCodeAgent para integração com smolagents.

    Os agentes são configurados com max_steps=3 e incluem integração com ferramentas de busca como DuckDuckGo para expandir suas capacidades de pesquisa quando necessário.

    Testando a Solução

    A solução oferece múltiplas formas de interação com o agente de saúde. Uma interface web baseada em Streamlit fornece experiência interativa. Um Jupyter Notebook permite experimentação interativa. E um script Python puro oferece execução via linha de comando.

    O sistema permite que você teste queries médicas específicas em cada um dos três backends. Por exemplo, uma pergunta sobre efeitos colaterais do metformina pode ser roteada para o SageMaker (conhecimento médico especializado), enquanto uma consulta que demande análise complexa de risco cardiovascular entre múltiplos medicamentos seria melhor servida pelo Claude 3.5 Sonnet V2 no Bedrock (raciocínio avançado).

    As respostas incluem contexto vetorial do OpenSearch quando disponível, mostrando resultados de matching com scores de similaridade.

    Considerações de Produção e Observabilidade

    Para implantações em produção, implementar observabilidade é essencial para monitorar performance do agente, rastrear execução completa e verificar confiabilidade. O Amazon Bedrock AgentCore fornece observabilidade com instrumentação automática. Ele captura métricas de sessão, dados de performance, rastreamento de erros e traces completos de execução, incluindo invocações de ferramentas. Você pode consultar mais sobre construir agentes de IA confiáveis com observabilidade do Amazon Bedrock AgentCore.

    Aplicações em Outros Setores

    Embora demonstrado no setor de saúde, essa arquitetura é extensível a diversos setores que demandam inteligência especializada:

    • Serviços Financeiros: Agentes para conformidade regulatória, avaliação de risco e detecção de fraude, mantendo rigorosos requisitos de segurança e auditoria
    • Manufatura e Operações Industriais: Agentes para manutenção preditiva, controle de qualidade e otimização de cadeia de suprimentos, combinando monitoramento de equipamentos com análise complexa
    • Energia e Utilidades: Agentes para operação de redes, conformidade regulatória e gerenciamento de infraestrutura, integrando previsão de demanda especializada com análise ambiental avançada

    Limpeza de Recursos

    Para evitar cobranças futuras, é importante remover os recursos criados após completar os testes. Isso inclui deletar o domínio OpenSearch Service, o cluster ECS, o endpoint SageMaker AI e o servidor de modelo containerizado.

    Conclusão

    A integração entre a biblioteca smolagents da Hugging Face e os serviços gerenciados da AWS oferece uma abordagem poderosa para construir sistemas de IA agente sofisticados. O design agnóstico do smolagents permite orquestração transparente entre SageMaker AI, Amazon Bedrock e servidores containerizados, oferecendo às organizações opções de deployment em vez de abordagens “tamanho único”.

    A arquitetura demonstrada com o caso de uso de saúde ilustra como esses componentes trabalham juntos para oferecer inteligência especializada com controles robustos de segurança e conformidade. Essa mesma abordagem se aplica a setores financeiros, manufatura, energia e outras indústrias onde a confiabilidade e o conhecimento de domínio são críticos.

    As inovações técnicas principais incluem compatibilidade de API entre backends, integração do framework smolagents e deploy containerizado com AWS Fargate, criando uma solução extensível e pronta para produção.

    Fonte

    Agentic AI with multi-model framework using Hugging Face smolagents on AWS (https://aws.amazon.com/blogs/machine-learning/agentic-ai-with-multi-model-framework-using-hugging-face-smolagents-on-aws/)

  • SageMaker AI em 2025: Planos Flexíveis de Treinamento e Melhorias de Custo-Benefício para Inferência

    Transformações no SageMaker AI durante 2025

    O Amazon SageMaker AI experimentou aprimoramentos substanciais em sua infraestrutura fundamental durante 2025, abrangendo quatro pilares estratégicos: capacidade computacional, custo-benefício, observabilidade e usabilidade. Esta série de análises explora em detalhes como essas evoluções beneficiam os times de dados e ciência da computação que trabalham com modelos generativos em escala produtiva.

    Fonte

    Amazon SageMaker AI in 2025, a year in review part 1: Flexible Training Plans and improvements to price performance for inference workloads (https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-ai-in-2025-a-year-in-review-part-1-flexible-training-plans-and-improvements-to-price-performance-for-inference-workloads/)