Blog

  • Amazon CloudWatch Database Insights agora disponível em modo de análise sob demanda no AWS GovCloud (US)

    Expansão do CloudWatch Database Insights para GovCloud

    A AWS anunciou a disponibilidade do CloudWatch Database Insights com análise sob demanda nas regiões AWS GovCloud (US-East) e AWS GovCloud (US-West). Essa expansão permite que administradores de banco de dados e desenvolvedores em ambientes sensíveis à conformidade regulatória aproveitem capacidades avançadas de monitoramento e diagnóstico.

    O que é CloudWatch Database Insights

    O CloudWatch Database Insights é uma solução de monitoramento e diagnóstico que oferece visibilidade abrangente sobre métricas de banco de dados, análise de consultas e padrões de utilização de recursos. A ferramenta utiliza modelos de aprendizado de máquina para identificar gargalos de performance durante o período de tempo selecionado, fornecendo recomendações específicas sobre os próximos passos.

    Transformação no Diagnóstico de Performance

    Historicamente, administradores de banco de dados precisavam realizar análise manual de dados de performance, correlacionar métricas e investigar causas raiz de problemas. Esse processo era demorado e exigia conhecimento profundo sobre banco de dados.

    Com essa funcionalidade, é possível analisar dados de monitoramento de performance de qualquer período com inteligência automatizada. O sistema compara automaticamente o período selecionado contra a baseline de performance normal, identifica anomalias e oferece orientações de remediação específicas. Através de visualizações intuitivas e explicações claras, problemas de performance podem ser identificados rapidamente, com orientação passo a passo para resolução.

    Esse sistema automatizado reduz o tempo médio de diagnóstico de horas para minutos, acelerando significativamente o processo de resolução de problemas.

    Como Começar

    O recurso pode ser ativado através do modo Advanced do CloudWatch Database Insights para bancos de dados Amazon Aurora e Amazon RDS. A ativação é possível utilizando:

    • Console do serviço RDS
    • APIs da AWS
    • AWS SDK
    • AWS CloudFormation

    Para instruções detalhadas sobre implementação, consulte a documentação do Aurora ou a documentação do RDS.

    Fonte

    Amazon CloudWatch Database Insights on-demand analysis now available in AWS Govcloud (US) Regions (https://aws.amazon.com/about-aws/whats-new/2026/03/amazon-cloudwatch-database-insights-on-demand-analysis-in-govcloud/)

  • Operacionalizando IA Agentica Parte 1: Guia para Stakeholders

    Entendendo o Salto da IA Agentica

    IA agentica não é simplesmente um recurso que se ativa. Trata-se de uma transformação fundamental na forma como o trabalho é organizado, quem o executa e como as decisões são tomadas. Muitas empresas aprendem isso da forma mais difícil: lançam pilotos que travam quando encontram processos reais, sistemas legados e requisitos de governança. O ciclo é previsível—casos de uso vagos, protótipos que fracassam diante de dados desorganizados, autonomia avançando mais rápido que os controles, conformidade atrasando o lançamento, e conjuntos de dados insuficientes para decisões autônomas. Por baixo de tudo isso, existe um problema raiz comum: ninguém se pôs de acordo sobre o que significaria sucesso.

    A AWS Generative AI Innovation Center trabalhou com mais de 1.000 clientes para colocar IA em produção, documentando ganhos de produtividade que se somam a milhões de dólares. Equipes multidisciplinares—cientistas de dados, estrategistas e especialistas em aprendizado de máquina—colaboram lado a lado com clientes desde a concepção até a implementação. Cada vez mais, esse trabalho envolve agentes. Este artigo oferece orientações para líderes em todas as camadas organizacionais: Diretores de Tecnologia (CTOs), Diretores de Segurança (CISOs), Diretores de Dados (CDOs) e Chefes de Ciência de Dados/IA, além de proprietários de negócios e responsáveis por conformidade.

    Quando IA agentica funciona bem, não parece software mágico—parece um time bem gerenciado. Cada agente tem um trabalho claro, um supervisor, um plano de ação e uma forma de evoluir continuamente.

    O Desafio Real: Identificando a Lacuna de Valor

    A Pergunta que Importa

    Em reuniões executivas, perguntar “Estamos investindo o suficiente em IA?” geralmente resulta em um “sim” imediato. Mas quando o questionamento muda para “Quais workflows específicos estão materialmente melhores hoje graças aos agentes de IA e como sabemos disso?”, a sala cai em silêncio. Esse silêncio é revelador.

    Entre essas duas respostas não falta uma base de modelos ou um fornecedor inovador. O que falta é um modelo operacional adequado. Onde agentes geram valor visível, três características tendem a estar presentes: o trabalho é definido com precisão; a autonomia tem limites claros; e a melhoria é um hábito, não um projeto de uma única vez.

    O Padrão Repetitivo do Fracasso

    Onde essas características estão ausentes, sintomas similares surgem: provas de conceito impressionantes que nunca saem do laboratório, pilotos que desaparecem silenciosamente após alguns meses, e líderes que deixam de perguntar “O que mais podemos fazer?” para começar a questionar “Por que estamos gastando tanto com isso?”

    O que diferencia sucesso de fracasso em projetos de IA agentica não é uma questão de tecnologia avançada ou investimento maior. É uma questão de execução—definir o trabalho corretamente, estruturar autoridade e controles, e criar ciclos regulares de aprendizado.

    O Trabalho Moldado para Agentes

    Muitas organizações começam perguntando “Onde podemos usar um agente?” Uma pergunta melhor seria “Onde o trabalho já está naturalmente estruturado como um trabalho que um agente poderia fazer?” Na prática, isso significa identificar quatro características específicas.

    Primeiro: Início, Fim e Propósito Claros

    O trabalho precisa ter um ponto de partida bem definido, um fim identificável e um propósito claro. Uma reclamação chega, uma fatura aparece, um ticket de suporte é aberto. O agente consegue reconhecer quando tem informação suficiente para começar, qual é seu objetivo e quando a tarefa está completa ou precisa ser escalada. Isso vai além de um simples gatilho e uma linha de chegada. O agente precisa compreender a intenção subjacente ao trabalho bem o suficiente para lidar com variações razoáveis sem instruções explícitas para cada cenário.

    Se sua equipe não consegue articular o que significa “feito bem” para uma tarefa específica—incluindo como lidar com exceções e casos extremos—o trabalho ainda não está pronto para um agente.

    Segundo: Julgamento Através de Múltiplas Ferramentas

    O agente não segue um roteiro fixo. Ele raciocina sobre que informações precisa, decide quais sistemas consultar, interpreta os resultados e determina a ação correta baseado no contexto. Diferente da automação tradicional, o caminho não é codificado: o agente adapta sua abordagem, lida com variações e sabe quando uma situação está além de sua competência.

    Mas agentes agem através de ferramentas, e essas ferramentas precisam existir antes do agente. Os sistemas precisam ter interfaces bem definidas, seguras e confiáveis que um agente possa chamar para ler dados, escrever atualizações, disparar transações ou enviar comunicações. Se o processo atual é humanos raciocinando em email e planilhas, há tanto trabalho de design de processo quanto trabalho de ferramental a fazer antes de ter um caso de uso viável para agentes.

    Terceiro: Sucesso é Observável e Mensurável

    Alguém de fora da equipe precisa conseguir olhar para o resultado e dizer “Isto está correto” ou “Isto precisa ser corrigido” sem ler mentes. Isso pode significar verificar se um ticket foi resolvido no prazo, se um formulário está completo e consistente, se uma transação se equilibra, ou se um cliente recebeu a resposta que precisava.

    Mas observabilidade vai além de auditar apenas os resultados finais. É necessário ver como o agente chegou à sua resposta: que dados usou, quais ferramentas chamou, quais opções considerou e por que escolheu uma em detrimento de outra. Sem conseguir avaliar o raciocínio, não se consegue melhorar o agente nem defender suas decisões quando algo corre mal.

    Comece com trabalho onde ações são reversíveis ou onde o resultado do agente é uma recomendação que um humano atua. À medida que confiança, controles e avaliação amadurecem, a organização ganha o direito de avançar para trabalho de maior risco onde o agente fecha o loop por conta própria.

    Quarto: Modo Seguro Quando as Coisas Dão Errado

    Os melhores candidatos iniciais para agentes são tarefas onde erros são capturados rapidamente, corrigidos com baixo custo e não criam danos irreversíveis. Se um agente misclassifica um ticket de suporte, ele pode ser roteado novamente. Se redige uma resposta incorreta, um humano pode editar antes do envio. Mas se um agente aprova um pagamento, executa uma negociação ou envia uma comunicação legalmente vinculante, o custo de estar errado muda fundamentalmente.

    Comece com trabalho onde ações são reversíveis ou onde o resultado do agente é uma recomendação que um humano atua. Conforme ganhos em confiança, controles e capacidade de avaliação amadurecem, a organização conquista a autoridade de avançar para trabalho de maior complexidade onde o agente fecha a transação independentemente.

    Quando Esses Ingredientes Se Unem

    Quando essas quatro características estão presentes, existe algo que pode se tornar um trabalho para um agente. Quando faltam, a conversa desliza para trás em rótulos vagos como assistente, copilot ou automação que significam coisas diferentes para cada pessoa na sala. Precisão na linguagem é precisão na execução.

    Três Passos para Esta Semana

    Nomeie o Trabalho, Não o Desejo

    Escolha um workflow em sua organização que tenha um início claro, um fim definido e uma métrica observável de “feito”. Esse é seu primeiro candidato para um agente. Não comece com aspirações—comece com o trabalho que pode ser descrito com precisão hoje.

    Faça a Pergunta Difícil na Sala

    Na próxima reunião de liderança, não pergunte “Estamos investindo o suficiente em IA?” Pergunte “Quais workflows específicos estão materialmente melhores hoje graças aos agentes de IA, e como sabemos disso?” O silêncio que segue é seu mapa do caminho.

    Comece uma Descrição de Cargo

    Antes de qualquer decisão tecnológica, escreva o que o agente faria, quais ferramentas precisaria, o que sucesso parece e o que acontece quando falha. Se não conseguir preencher essa página, não está pronto para construir—e essa é uma informação valiosa.

    Próximos Passos: Orientação por Função

    Saber que IA agentica é um problema de execução é uma coisa. Compreender seu papel específico em resolvê-lo é outro. O artigo promete que, em uma próxima parte, haverá orientação dirigida diretamente aos líderes que precisam fazer isso na prática: o proprietário de linha de negócio que precisa vincular agentes a KPIs, o CTO escolhendo entre dez agentes únicos ou uma plataforma para cem, o CISO que precisa tratar agentes como colegas em vez de código, o CDO que precisa tornar dados chatos do jeito certo, o Chefe de IA para quem avaliação é o produto, e o líder de conformidade que precisa desenhar para auditorias antes que elas aconteçam.

    Parceria e Suporte

    Não é necessário navegar essa jornada sozinho. Seja planejando o primeiro piloto agentico ou dimensionando para uma capacidade corporativa, a AWS Generative AI Innovation Center oferece diálogo fundamentado em workflows específicos, dados e resultados de negócio.

    Fonte

    Operationalizing Agentic AI Part 1: A Stakeholder’s Guide (https://aws.amazon.com/blogs/machine-learning/operationalizing-agentic-ai-part-1-a-stakeholders-guide/)

  • CloudTroop Weekly #004 — 2026-w11





    CloudTroop Weekly #004 — 2026-w11

    12 de março de 2026

    Resumo da Semana

    A semana foi dominada por melhorias que tornam segurança e governança IAM menos dolorosas no dia a dia. O destaque vai para o novo detalhe nas mensagens de acesso negado, que agora apontam diretamente a política bloqueante — fim do jogo de adivinha no troubleshooting. Em paralelo, a AWS avançou na governança de agentes de IA com Bedrock AgentCore Policy e reforçou controles multiparte. No campo de operações, IA começa a aparecer de forma prática: no Beanstalk, no HyperPod e em call centers. A tendência é clara — menos atrito para configurar permissões, mais automação para detectar e corrigir problemas.

    O que muda na prática

    • Erros de 'acesso negado' no IAM agora incluem o ARN da política bloqueante, eliminando a necessidade de vasculhar políticas manualmente durante incidentes.
    • Equipes de segurança podem governar o que agentes de IA acessam via Bedrock AgentCore Policy sem tocar no código da aplicação, separando responsabilidades entre dev e sec de forma concreta.
    • A validação de equipes e aprovadores na Aprovação Multiparte fecha uma lacuna silenciosa de governança: controles que pareciam ativos mas podiam falhar na hora crítica.

    Ações da semana

    • Reproduza um erro de acesso negado em ambiente de teste e verifique se o ARN da política bloqueante já aparece na sua conta — se sim, atualize o runbook de troubleshooting IAM do seu time.
    • Revise os fluxos de Aprovação Multiparte ativos na sua organização e confirme que todas as equipes e aprovadores cadastrados estão válidos antes que um incidente real exija essa validação.

    Top 10 da Semana

    1

    Mensagens de Acesso Negado agora incluem ARN da política bloqueante

    Reduz drasticamente o tempo de diagnóstico de problemas de permissão IAM ao apontar diretamente qual política está negando o acesso.

    Para quem: Desenvolvedores, SREs e administradores de nuvem que lidam diariamente com troubleshooting de permissões AWS.

    IAM, Segurança

    2

    AWS Shield detecta configurações incorretas de rede via Security Hub

    Centraliza alertas de segurança de rede com recomendações automatizadas, reduzindo exposição a ataques por misconfiguration.

    Para quem: Engenheiros de segurança e arquitetos de rede que gerenciam proteção de infraestrutura AWS.

    Segurança, Rede

    3

    Bedrock AgentCore Policy: controle granular de agentes IA sem alterar código

    Permite que equipes de segurança governem o que agentes de IA podem acessar de forma centralizada, separando responsabilidades entre dev e sec.

    Para quem: Arquitetos de segurança e times de plataforma que implantam agentes de IA em produção.

    IA, Segurança

    4

    Aprovação Multiparte AWS agora valida equipes e aprovadores ativos

    Evita falhas silenciosas em fluxos de aprovação críticos, garantindo que controles de governança estejam realmente operacionais antes de serem necessários.

    Para quem: Times de compliance, governança e administradores de contas AWS que usam aprovação multiparte.

    Governança, Segurança

    5

    AWS permite criar roles IAM diretamente no fluxo de cada serviço

    Elimina o atrito de alternar entre consoles para configurar permissões, acelerando provisionamento seguro de serviços.

    Para quem: Desenvolvedores e engenheiros cloud que configuram serviços AWS com frequência no console.

    IAM, Produtividade

    6

    Elastic Beanstalk usa IA para identificar e sugerir correções de ambiente

    Reduz tempo de resolução de incidentes em ambientes Beanstalk ao usar Bedrock para correlacionar logs, eventos e saúde das instâncias automaticamente.

    Para quem: Times de desenvolvimento e operações que ainda utilizam Elastic Beanstalk em produção.

    IA, Operações

    7

    SageMaker Unified Studio sincroniza metadados com Atlan, Collibra e Alation

    Elimina reconciliação manual de catálogos de dados entre plataformas, viabilizando governança de dados consistente em ambientes híbridos.

    Para quem: Engenheiros de dados e times de data governance que operam múltiplas ferramentas de catálogo.

    Dados, Governança

    8

    Pipeline CI/CD multidesenvolvedor para Amazon Lex sem conflitos

    Resolve o gargalo de colaboração em projetos Lex com múltiplos devs, acelerando entrega de assistentes conversacionais empresariais.

    Para quem: Engenheiros de software e DevOps que desenvolvem ou mantêm bots e assistentes com Amazon Lex.

    DevOps, IA Conversacional

    9

    SageMaker HyperPod ganha observabilidade unificada para clusters de treinamento

    Unifica monitoramento de desempenho, saúde e estado Kubernetes em um painel, reduzindo tempo cego durante treinamento de modelos foundation.

    Para quem: Engenheiros de ML e equipes de plataforma que treinam modelos de grande escala no SageMaker HyperPod.

    MLOps, Observabilidade

    10

    Amazon Nova analisa chamadas de call center: sentimento, protocolo e vulnerabilidade

    Demonstra caso de uso prático e de alto ROI para GenAI em operações de atendimento, com arquitetura replicável para outros setores.

    Para quem: Arquitetos de soluções e líderes técnicos de empresas com operações de atendimento ao cliente.

    IA Aplicada, Analytics


  • Como escalabilizar o desenvolvimento do Amazon Lex com pipelines CI/CD multidesenvolvedor

    Transformando o desenvolvimento de IA conversacional

    Conforme as iniciativas de inteligência artificial conversacional evoluem nas organizações, o desenvolvimento de assistentes Amazon Lex torna-se cada vez mais complexo. Quando múltiplos desenvolvedores trabalham simultaneamente na mesma instância compartilhada do Lex, surgem problemas críticos: conflitos de configuração, alterações sobrescritas e ciclos de iteração lentos que comprometem a produtividade.

    Para escalar adequadamente o desenvolvimento de Amazon Lex, é necessário contar com ambientes isolados, controle de versão robusto e pipelines de implantação automatizados. Adotando práticas bem estruturadas de integração contínua e entrega contínua (CI/CD), as organizações conseguem eliminar gargalos no desenvolvimento, acelerar inovação e oferecer experiências conversacionais mais refinadas e confiáveis.

    Arquitetura da solução multidesenvolvedor

    A solução transforma o Amazon Lex de uma ferramenta de desenvolvimento limitada e monodesenvolvedor em uma plataforma de IA conversacional pronta para empresas. Essa abordagem resolve os desafios fundamentais de colaboração que costumam desacelerar projetos de IA conversacional.

    Arquitetura do pipeline CI/CD para Amazon Lex
    Imagem original — fonte: Aws

    O funcionamento envolve o uso de infraestrutura como código (IaC) com o AWS Cloud Development Kit (AWS CDK). Cada desenvolvedor executa cdk deploy para provisionar sua própria instância dedicada de assistente Lex e funções AWS Lambda dentro de uma conta compartilhada da Amazon Web Services (AWS). Esta abordagem elimina os problemas comuns de sobreescrita e permite fluxos de trabalho verdadeiramente paralelos com capacidades completas de controle de versão.

    Os desenvolvedores utilizam lexcli, uma ferramenta customizada de linha de comando, para exportar as configurações do assistente Lex da conta AWS compartilhada para suas estações de trabalho locais. A partir daí, testam e depuram localmente usando lex_emulator, uma ferramenta customizada que oferece testes integrados tanto para configurações do assistente quanto para funções Lambda, com validação em tempo real antes de qualquer implantação na nuvem.

    Quando os desenvolvedores enviam alterações para o controle de versão, o pipeline implanta automaticamente ambientes de teste efêmeros para cada solicitação de mesclagem através do GitLab CI/CD. O pipeline é executado em contêineres Docker, garantindo um ambiente de compilação consistente que assegura o empacotamento confiável de funções Lambda e implantações reproduzíveis. Testes automatizados são executados contra essas pilhas temporárias, e as mesclagens só ocorrem se todos os testes forem bem-sucedidos.

    Fluxo de trabalho do desenvolvedor nas fases de desenvolvimento local, controle de versão e implantação
    Imagem original — fonte: Aws

    As alterações que passam pela validação em ambientes efêmeros são promovidas para ambientes compartilhados (Desenvolvimento, QA e Produção) com portões de aprovação manual entre etapas. Essa estrutura mantém altos padrões de qualidade enquanto acelera o processo de entrega, permitindo que equipes implantem novas funcionalidades e melhorias com confiança.

    Impactos mensuráveis para as organizações

    Ao habilitar fluxos de trabalho de desenvolvimento paralelo, essa solução proporciona ganhos significativos em tempo e eficiência para equipes de IA conversacional. Avaliações internas mostram que equipes conseguem paralelizar grande parte do trabalho de desenvolvimento, gerando ganhos mensuráveis em produtividade. Os resultados variam conforme o tamanho da equipe, escopo do projeto e abordagem de implementação, mas algumas equipes relataram redução significativa nos ciclos de desenvolvimento.

    A aceleração permitiu que equipes entregassem funcionalidades em semanas em vez de meses, melhorando o tempo de chegada ao mercado. As economias de tempo liberam capacidade para que as equipes gerenciem maiores volumes de trabalho dentro dos mesmos ciclos de desenvolvimento, destinando recursos para inovação e aprimoramento da qualidade.

    Casos de sucesso práticos

    O pipeline CI/CD multidesenvolvedor para Amazon Lex apoiou equipes empresariais na melhoria de sua eficiência de desenvolvimento. Uma organização o utilizou para migrar sua plataforma para Amazon Lex, possibilitando colaboração de múltiplos desenvolvedores sem conflitos. Ambientes isolados e capacidades de mesclagem automatizada ajudaram a manter progresso consistente durante esforços de desenvolvimento complexos.

    Uma grande empresa adotou o pipeline como parte de sua estratégia de IA mais ampla. Ao usar funcionalidades de validação e colaboração dentro do processo de CI/CD, suas equipes aprimoraram coordenação e responsabilidade entre ambientes. Esses exemplos ilustram como fluxos de trabalho estruturados contribuem para maior eficiência, migrações mais suaves e redução de retrabalho.

    Começando com a implementação

    O pipeline CI/CD multidesenvolvedor para Amazon Lex está disponível como solução de código aberto através do repositório GitHub. Aplicam-se cobranças padrão de serviços AWS para os recursos implantados.

    Pré-requisitos

    Para seguir este guia, você precisará de:

    Componentes principais

    A framework consiste em vários componentes-chave que trabalham juntos para habilitar desenvolvimento colaborativo: infraestrutura como código com AWS CDK, a ferramenta CLI do Amazon Lex chamada lexcli e a configuração do pipeline CI/CD do GitLab.

    A solução usa AWS CDK para definir componentes de infraestrutura como código, incluindo:

    • Instâncias individuais do Amazon Lex para cada desenvolvedor
    • Funções Lambda para lógica de atendimento
    • Logging e monitoramento via Amazon CloudWatch
    • Buckets de Amazon Simple Storage Service (Amazon S3) para armazenamento de configurações

    Implante o ambiente de cada desenvolvedor usando:

    cdk deploy -c environment=your-username --outputs-file ./cdk-outputs.json

    Esse comando cria um ambiente completo e isolado que espelha a configuração compartilhada mas permite modificações independentes.

    A ferramenta lexcli exporta a configuração do assistente Amazon Lex do console para arquivos JSON sob controle de versão. Ao invocar lexcli export <environment>, ela:

    • Conecta ao seu assistente implantado usando a API Amazon Lex
    • Baixa a configuração completa do assistente como arquivo .zip
    • Extrai e padroniza identificadores para tornar configurações agnósticas de ambiente
    • Formata arquivos JSON para revisão durante solicitações de mesclagem
    • Oferece prompts interativos para exportação seletiva de intents e slots que sofreram alterações

    O arquivo .gitlab-ci.yml orquestra todo o fluxo de trabalho de desenvolvimento:

    • Criação de ambiente efêmero: Cria e destrói automaticamente um ambiente dinâmico temporário para cada solicitação de mesclagem
    • Testes automatizados: Executa testes abrangentes incluindo validação de intents, verificação de slots e benchmarks de desempenho
    • Portões de qualidade: Reforça linting de código e testes automatizados com cobertura mínima de 40%; requer aprovação manual para todas as implantações em ambientes
    • Promoção de ambientes: Habilita progressão controlada de implantações através de dev, staging e produção com aprovação manual em cada etapa

    Guia de implementação passo a passo

    A implementação segue cinco fases: preparação do repositório e GitLab, autenticação AWS, ambiente de desenvolvimento local, fluxo de trabalho de desenvolvimento e execução do pipeline CI/CD.

    Preparação do repositório e GitLab: Clone o repositório de exemplo e crie seu próprio projeto:

    git clone https://gitlab.aws.dev/lex/sample-lex-multi-developer-cicd.git
    cd sample-lex-multi-developer-cicd
    git remote remove origin
    git remote add origin <seu-repositorio>
    git push -u origin main

    Configure as variáveis de CI/CD do GitLab navegando até Configurações, depois CI/CD e Variáveis. Adicione os seguintes valores:

    • AWS_REGION: us-east-1
    • AWS_DEFAULT_REGION: us-east-1
    • Outras variáveis de segredos específicos de seu ambiente

    Configure regras de proteção de branch para proteger sua branch principal. A aplicação correta de fluxo de trabalho previne commits diretos em código de produção.

    Ambiente de desenvolvimento local: Para configurar seu ambiente local, complete as seguintes etapas:

    pip install -r requirements.txt
    cdk deploy -c environment=your-username --outputs-file ./cdk-outputs.json

    Isso cria sua instância de assistente isolada para modificações independentes.

    Fluxo de trabalho de desenvolvimento: Crie uma branch de funcionalidade:

    git checkout -b feature/your-feature-name

    Para fazer modificações ao assistente, acesse seu assistente pessoal no console do Amazon Lex, modifique intents, slots ou configurações conforme necessário, e teste suas alterações diretamente no console. Depois exporte as alterações para código:

    python lexcli.py export your-username

    A ferramenta oferecerá prompts interativos para que você selecione quais alterações exportar. Revise e confirme as alterações:

    git add .
    git commit -m "feat: add new intent for booking flow"
    git push origin feature/your-feature-name

    Execução do pipeline CI/CD: O pipeline executa as seguintes etapas: cria automaticamente um ambiente efêmero para sua branch, executa testes abrangentes contra suas alterações, permite que membros da equipe revisem tanto mudanças de código quanto resultados de testes, mescla após aprovação e implanta automaticamente no desenvolvimento, e utiliza portões de aprovação manual para controlar promoção a QA e produção.

    Próximos passos

    Após implementar este pipeline multidesenvolvedor, considere: expandir seus testes com suites mais abrangentes para validação de intents, aprimorar monitoramento integrando dashboards do Amazon CloudWatch para desempenho do assistente, e explorar IA híbrida combinando Amazon Lex com Amazon Bedrock para capacidades de IA generativa.

    Para mais informações sobre Amazon Lex, consulte o Guia do Desenvolvedor Amazon Lex.

    Conclusão

    A implementação de pipelines CI/CD multidesenvolvedor para Amazon Lex aborda desafios operacionais críticos no desenvolvimento de IA conversacional. Ao habilitar ambientes de desenvolvimento isolados, capacidades de testes locais e fluxos de trabalho de validação automatizados, as equipes conseguem trabalhar em paralelo sem comprometer qualidade, acelerando o tempo de chegada ao mercado para soluções complexas de IA conversacional.

    Você pode começar a implementar essa abordagem hoje mesmo usando o protótipo AWS CDK e a ferramenta CLI do Amazon Lex disponíveis no repositório GitHub. Para organizações que desejam aprimorar ainda mais suas capacidades de IA conversacional, considere explorar a integração do Amazon Lex com Amazon Bedrock para soluções híbridas que combinam gerenciamento de diálogo estruturado e modelos de linguagem de grande escala (LLMs).

    Para orientação na implementação, entre em contato com AWS Professional Services.

    Fonte

    Drive organizational growth with Amazon Lex multi-developer CI/CD pipeline (https://aws.amazon.com/blogs/machine-learning/drive-organizational-growth-with-amazon-lex-multi-developer-ci-cd-pipeline/)

  • Aprovação Multiparte da AWS agora Suporta Validação de Equipes

    O que é a Nova Capacidade de Validação

    A AWS anunciou uma importante adição ao recurso de Aprovação Multiparte (MPA — Multi-Party Approval): agora os administradores podem executar testes de aprovação para verificar se sua equipe está configurada corretamente. Essa funcionalidade permite que os responsáveis pela administração da MPA confirmem que os aprovadores estão ativos e acessíveis antes de depender desse fluxo para operações sensíveis.

    Por Que Isso Importa para Sua Organização

    Equipes de aprovação podem se tornar inativas por diversos motivos: rotatividade de pessoal, configurações incorretas de aprovadores ou simplesmente falta de engajamento. Sem uma forma de validar regularmente a saúde da equipe, sua organização corre o risco de descobrir problemas críticos apenas quando uma aprovação urgente é necessária — e aí é tarde demais.

    Com esse novo recurso, os administradores e equipes de segurança podem avaliar proativamente suas configurações de aprovação. Isso significa identificar problemas antes que eles impactem operações críticas.

    Recursos Principais da Validação

    A funcionalidade de validação base (baselining) oferece várias capacidades importantes:

    • Verificação manual de testes: Permite iniciar sessões de teste de aprovação diretamente pelo console do AWS Organizations
    • Validação de disponibilidade: Confirma que os aprovadores conseguem realmente responder quando necessário
    • Identificação de membros inativos: Detecta membros da equipe que não estão mais participando do fluxo
    • Conformidade interna: Ajuda a manter a equipe alinhada com os requisitos de governança interna

    Casos de Uso Recomendados

    A AWS recomenda usar a validação de equipes em três cenários principais:

    Verificação Regular de Responsividade

    A validação deve ser executada regularmente — a AWS recomenda a cada 90 dias — utilizando o Console de MPA. Esse ciclo garante que sua equipe de aprovação continue funcional e responsiva ao longo do tempo.

    Validação de Novas Configurações

    Quando você implementa uma nova configuração de aprovação, execute testes antes de colocá-la em produção. Isso reduz significativamente o risco de falhas quando aprovações reais forem necessárias.

    Verificações de Saúde Operacional

    Utilize a validação para garantir que os fluxos de aprovação funcionem conforme esperado em momentos críticos. Identificar problemas durante testes é muito mais seguro do que descobri-los durante uma operação sensível real.

    Disponibilidade

    Esse recurso está disponível em todas as regiões comerciais da AWS. Para aprender como implementar testes de validação em seus fluxos de aprovação multiparte, consulte a documentação de aprovação multiparte.

    Fonte

    Multi-party approval now supports approval team baselining (https://aws.amazon.com/about-aws/whats-new/2026/03/multi-party-approval-team-baselining/)

  • Elastic Beanstalk ganha análise de ambientes potenciada por IA

    Uma nova capacidade de diagnóstico automático

    A AWS anunciou uma adição significativa ao Elastic Beanstalk: um recurso de análise de ambientes potenciado por inteligência artificial. Esta funcionalidade foi desenvolvida especificamente para ajudar desenvolvedores e equipes de operações a identificarem rapidamente as causas raiz de problemas e obterem recomendações de soluções quando o ambiente enfenta questões de saúde.

    Como funciona a análise inteligente

    O processo é relativamente direto. Quando um ambiente do Elastic Beanstalk enfrenta problemas, o serviço coleta automaticamente eventos recentes, dados de saúde das instâncias e logs do ambiente. Estes dados são então encaminhados para o Amazon Bedrock para análise inteligente. O objetivo é fornecer recomendações de resolução de problemas personalizadas conforme o estado atual do seu ambiente, reduzindo significativamente o tempo necessário para resolver questões operacionais.

    Acessando a análise de IA

    A funcionalidade é acessível de duas maneiras principais. A primeira é através do console do Elastic Beanstalk: quando o status de saúde do seu ambiente apresenta os estados Warning (Aviso), Degraded (Degradado) ou Severe (Grave), você encontrará um botão de Análise de IA disponível. A segunda forma é programática, utilizando a Interface de Linha de Comando (CLI) da AWS e as operações de API RequestEnvironmentInfo e RetrieveEnvironmentInfo.

    Disponibilidade e recursos suportados

    O recurso de análise de ambiente potenciado por IA está disponível em todas as regiões da AWS onde tanto o Elastic Beanstalk quanto o Amazon Bedrock operam simultaneamente. A AWS fornece documentação detalhada sobre esta funcionalidade, incluindo uma lista completa das versões de plataforma suportadas, disponível em seu guia de desenvolvimento do Elastic Beanstalk.

    Para aprofundar seu conhecimento sobre o Elastic Beanstalk e todas as suas capacidades, consulte a página do produto dedicada ao serviço.

    Fonte

    AWS Elastic Beanstalk now offers AI-powered environment analysis (https://aws.amazon.com/about-aws/whats-new/2026/03/elastic-beanstalk-ai-analysis/)

  • AWS Shield amplia detecção de vulnerabilidades de rede com integração ao Security Hub

    Integração do AWS Shield Network Security Director com o Security Hub

    A AWS anunciou que os achados gerados pelo Network Security Director, que se encontrava em fase de prévia, agora estão disponíveis diretamente no AWS Security Hub. Esta integração representa um avanço significativo na forma como as organizações podem gerenciar e monitorar a segurança de suas redes na nuvem.

    O que é o Network Security Director

    O Network Security Director é um componente do AWS Shield que funciona como uma ferramenta de diagnóstico contínuo para infraestruturas de segurança de rede. Seu propósito principal é identificar quando serviços críticos de proteção estão ausentes ou mal configurados em toda uma organização AWS. Entre os serviços que monitora estão o AWS WAF (Firewall de Aplicações Web), Security Groups de VPC e Network Access Control Lists (ACLs de controle de acesso à rede).

    Capacidades de Análise e Recomendações

    Ao integrar-se ao Security Hub, o Network Security Director oferece uma análise contínua da rede distribuída entre múltiplas contas e unidades organizacionais. Além de identificar problemas, ele fornece recomendações de remediação baseadas nas melhores práticas da AWS. Os achados gerados aparecem agora na seção Inventory (Inventário) do console do Security Hub, facilitando a visualização centralizada.

    Um aspecto importante é como a severidade de cada achado é calculada. A AWS não utiliza apenas a misconfiguration (configuração incorreta) identificada como critério de gravidade. Ao contrário, leva em consideração a topologia de rede do recurso associado ao achado, oferecendo uma avaliação contextualizada e mais precisa dos riscos reais enfrentados pela organização.

    Benefícios para Organizações

    Esta integração simplifica o gerenciamento de segurança de rede ao centralizar os achados em uma única plataforma. Times de segurança podem identificar lacunas em sua postura de proteção sem necessidade de navegar entre múltiplas ferramentas. A abordagem contínua garante que novas misconfigurações ou desvios das melhores práticas sejam detectados rapidamente.

    Fonte

    AWS Shield network security director findings are now available in AWS Security Hub (https://aws.amazon.com/about-aws/whats-new/2026/03/network-security-director-findings/)

  • AWS completa auditoria anual de certificação do Dubai Electronic Security Centre (DESC) em 2026

    Renovação da Certificação DESC 2026

    A Amazon Web Services (AWS) concluiu com sucesso sua auditoria anual de certificação junto ao Dubai Electronic Security Centre (DESC) para continuar operando como provedor de serviços em nuvem (Provedor de Serviços em Nuvem – CSP) Tier 1 na região do Oriente Médio (EAU). Esta certificação reafirma o compromisso contínuo da plataforma em atender aos rigorosos requisitos de segurança e conformidade esperados de provedores de nuvem de alto nível.

    Para clientes governamentais que utilizam a AWS, esta certificação representa uma garantia importante: seus aplicativos podem ser executados com confiança em regiões de nuvem certificadas pelo DESC. A conformidade foi validada de forma independente pela BSI, uma auditoria terceirizada antes da emissão do certificado renovado pelo DESC. O certificado atualizado permanecerá válido por um ano, até 22 de janeiro de 2027.

    Ampliação do Escopo de Serviços Certificados

    Um destaque importante desta certificação é a expansão significativa de serviços incluídos no escopo de conformidade. A AWS adicionou dez novos serviços ao programa, aumentando de 98 para 108 o total de serviços certificados na região do Oriente Médio (EAU) — um crescimento de 10%.

    Os serviços recém-adicionados ao escopo de certificação DESC incluem:

    Acesso à Documentação de Conformidade

    A certificação renovada está disponível através do AWS Artifact, um portal de autoatendimento que fornece acesso sob demanda a relatórios de conformidade da AWS. Usuários podem acessar o AWS Artifact no Console de Gerenciamento da AWS ou consultar a documentação sobre como começar com o AWS Artifact para obter mais detalhes sobre seu funcionamento.

    Estratégia de Expansão Contínua

    Esta expansão reflete a estratégia da AWS de incorporar continuamente novos serviços ao escopo de seus programas de conformidade. O objetivo é ajudar clientes a atender suas necessidades arquiteturais e regulatórias específicas, especialmente em regiões com requisitos rigorosos de segurança.

    Organizações interessadas podem consultar a página de serviços no escopo de conformidade para visualizar a lista completa de serviços certificados. Clientes com dúvidas sobre conformidade DESC podem entrar em contato com sua equipe de conta AWS ou utilizar os canais de suporte disponibilizados.

    Para aprofundar o entendimento sobre todos os programas de conformidade da AWS, consulte a página Programas de Conformidade da AWS. A plataforma permanece aberta a feedback e questões através da página de contato dedicada à conformidade.

    Fonte

    AWS completes the 2026 annual Dubai Electronic Security Centre (DESC) certification audit (https://aws.amazon.com/blogs/security/aws-completes-the-2026-annual-dubai-electronic-security-centre-desc-certification-audit/)

  • Criando Parsers Personalizados para Agents Strands com LLMs no SageMaker AI

    Integrando LLMs Customizados com Strands Agents

    Organizações que adotam modelos de linguagem de grande escala (LLMs) cada vez mais optam por implantá-los em endpoints de tempo real do SageMaker AI, utilizando frameworks de serving de sua preferência como SGLang, vLLM ou TorchServe. Essa abordagem oferece controle mais granular sobre as implantações, oportunidades de otimização de custos e alinhamento com requisitos de conformidade regulatória.

    Contudo, essa flexibilidade introduz um desafio técnico significativo: esses frameworks de serving customizados tipicamente retornam respostas em formatos compatíveis com OpenAI para facilitar suporte amplo em diferentes ambientes. Já o Strands Agents, por sua vez, espera que as respostas dos modelos estejam alinhadas com o formato da Bedrock Messages API. Essa desconexão entre o formato de saída do servidor de modelos e o que Strands espera criar uma lacuna que impede integração perfeita, mesmo quando ambos os sistemas estão tecnicamente funcionais.

    Desde dezembro de 2025, o mecanismo de inferência distribuído Amazon Bedrock Mantle passou a oferecer suporte a formatos de mensagem compatíveis com OpenAI. No entanto, essa compatibilidade não é garantida para todos os modelos hospedados em endpoints de tempo real do SageMaker AI. A plataforma permite hospedar diversos modelos que podem exigir formatos específicos de prompt e resposta que não se conformam aos padrões de API conhecidos.

    A Solução: Parsers Personalizados

    O caminho para resolver essa incompatibilidade é implementar parsers de modelos personalizados que estendem a classe SageMakerAIModel e traduzem o formato de resposta do servidor de modelos para o que Strands espera. Dessa forma, organizações conseguem aproveitar seus frameworks de serving preferidos sem sacrificar a compatibilidade com o SDK do Strands Agents.

    Este artigo demonstra como construir parsers personalizados para Strands agents ao trabalhar com LLMs hospedados no SageMaker que não suportam nativamente o formato da Bedrock Messages API. O exemplo prático envolve implantar Llama 3.1 com SGLang no SageMaker utilizando o gerador de projetos de containers ml-container-creator, seguido pela implementação de um parser customizado para integração com Strands agents.

    Por que o Erro Ocorre

    Quando você implanta modelos usando frameworks de serving customizados como SGLang, vLLM ou TorchServe, eles retornam respostas em seus próprios formatos, frequentemente compatíveis com OpenAI para suporte amplo. Sem um parser personalizado, você encontrará erros como:

    TypeError: 'NoneType' object is not subscriptable

    Isso acontece porque a classe padrão SageMakerAIModel do Strands Agents tenta fazer parsing de respostas assumindo uma estrutura específica que seu endpoint customizado não fornece.

    Arquitetura da Implementação

    A implementação se organiza em três camadas distintas:

    • Camada de Implantação de Modelo: Llama 3.1 sendo servido pelo SGLang no SageMaker, retornando respostas compatíveis com OpenAI
    • Camada de Parser: Classe LlamaModelProvider personalizada que estende SageMakerAIModel para processar o formato de resposta do Llama 3.1
    • Camada de Agent: Agent Strands que utiliza o provider customizado para IA conversacional, fazendo o parsing apropriado da resposta do modelo

    Preparando o Ambiente

    Instalando ml-container-creator

    O primeiro passo envolve construir o container de serving para o modelo. Utiliza-se um projeto open-source que automatiza a criação do container e gera scripts de deployment. O ml-container-creator, um gerador Yeoman de código aberto mantido pela AWS Labs, automatiza a criação de projetos de deployment BYOC (Bring Your Own Container) para o SageMaker. Ele gera os artefatos necessários para construir containers de serving de LLM, incluindo Dockerfiles, configurações CodeBuild e scripts de deployment.

    Para instalar, execute:

    # Instalar Yeoman globalmente
    npm install -g yo
    
    # Clonar e instalar ml-container-creator
    git clone https://github.com/awslabs/ml-container-creator
    cd ml-container-creator
    npm install && npm link
    
    # Verificar instalação
    yo --generators
    # Deve mostrar ml-container-creator

    Gerando o Projeto de Deployment

    Uma vez instalado e vinculado, o comando yo ml-container-creator permite executar o gerador necessário para este exercício:

    # Executar o gerador
    yo ml-container-creator
    
    # Opções de configuração:
    # - Framework: transformers
    # - Model Server: sglang
    # - Model: meta-llama/Llama-3.1-8B-Instruct
    # - Deploy Target: codebuild
    # - Instance Type: ml.g6.12xlarge (GPU)
    # - Region: us-east-1

    O gerador cria uma estrutura de projeto completa:

    <project-directory>/
    ├── Dockerfile # Container com SGLang e dependências
    ├── buildspec.yml # Configuração CodeBuild
    ├── code/
    │   └── serve # Script de inicialização do servidor SGLang
    ├── deploy/
    │   ├── submit_build.sh # Dispara CodeBuild
    │   └── deploy.sh # Faz deploy no SageMaker
    └── test/
        └── test_endpoint.sh # Script de teste do endpoint

    Compilação e Implantação

    Projetos criados pelo ml-container-creator incluem scripts de build e deployment templatizados. Os scripts ./deploy/submit_build.sh e ./deploy/deploy.sh são utilizados para construir a imagem, fazer push para Amazon Elastic Container Registry (ECR) e fazer deploy em um endpoint de tempo real do SageMaker AI.

    cd llama-31-deployment
    
    # Compilar container com CodeBuild (Docker local não necessário)
    ./deploy/submit_build.sh
    
    # Fazer deploy no SageMaker
    ./deploy/deploy.sh arn:aws:iam::ACCOUNT:role/SageMakerExecutionRole

    O processo de implantação funciona da seguinte forma:

    • CodeBuild constrói a imagem Docker com SGLang e Llama 3.1
    • A imagem é enviada para Amazon ECR
    • SageMaker cria um endpoint de tempo real
    • SGLang baixa o modelo do HuggingFace e o carrega na memória da GPU
    • O endpoint atinge o status InService (aproximadamente 10-15 minutos)

    Você pode testar o endpoint usando ./test/test_endpoint.sh ou com uma invocação direta:

    import boto3
    import json
    
    runtime_client = boto3.client('sagemaker-runtime', region_name='us-east-1')
    
    payload = {
        "messages": [
            {"role": "user", "content": "Hello, how are you?"}
        ],
        "max_tokens": 100,
        "temperature": 0.7
    }
    
    response = runtime_client.invoke_endpoint(
        EndpointName='llama-31-deployment-endpoint',
        ContentType='application/json',
        Body=json.dumps(payload)
    )
    
    result = json.loads(response['Body'].read().decode('utf-8'))
    print(result['choices'][0]['message']['content'])

    Compreendendo o Formato de Resposta

    O Llama 3.1 retorna respostas compatíveis com o padrão OpenAI. O Strands, por sua vez, espera que as respostas dos modelos sigam o formato da Bedrock Messages API. Até recentemente, essa era uma desconexão padrão de compatibilidade. Desde dezembro de 2025, o mecanismo de inferência distribuído Amazon Bedrock Mantle passou a oferecer suporte a formatos de mensagem OpenAI.

    Uma resposta típica do Llama 3.1 em formato OpenAI se parece assim:

    {
      "id": "cmpl-abc123",
      "object": "chat.completion",
      "created": 1704067200,
      "model": "meta-llama/Llama-3.1-8B-Instruct",
      "choices": [{
        "index": 0,
        "message": {
          "role": "assistant",
          "content": "I'm doing well, thank you for asking!"
        },
        "finish_reason": "stop"
      }],
      "usage": {
        "prompt_tokens": 23,
        "completion_tokens": 12,
        "total_tokens": 35
      }
    }

    Porém, o suporte ao formato da Messages API não é garantido para todos os modelos hospedados em endpoints de tempo real do SageMaker AI. A plataforma permite hospedar diversos tipos de modelos base em infraestrutura gerenciada com aceleração por GPU, alguns dos quais podem exigir formatos esotéricos de prompt e resposta que não se conformam a APIs padrão. Por exemplo, a classe SageMakerAIModel padrão utiliza o formato legado da Bedrock Messages API e tenta acessar campos que não existem no formato OpenAI Messages padrão, causando falhas do tipo TypeError.

    Implementando um Parser Personalizado

    Parsers de modelos personalizados são um recurso da SDK do Strands Agents que oferece forte compatibilidade e flexibilidade para clientes que constroem agents alimentados por LLMs hospedados no SageMaker AI. A criação de um provider customizado que estende SageMakerAIModel segue este padrão:

    def stream(self, messages: List[Dict[str, Any]], tool_specs: list, system_prompt: Optional[str], **kwargs):
        # Construir mensagens de payload
        payload_messages = []
        if system_prompt:
            payload_messages.append({"role": "system", "content": system_prompt})
        
        # Extrair conteúdo de mensagem do formato Strands
        for msg in messages:
            payload_messages.append({"role": "user", "content": msg['content'][0]['text']})
        
        # Construir payload completo com streaming habilitado
        payload = {
            "messages": payload_messages,
            "max_tokens": kwargs.get('max_tokens', self.max_tokens),
            "temperature": kwargs.get('temperature', self.temperature),
            "top_p": kwargs.get('top_p', self.top_p),
            "stream": True
        }
        
        try:
            # Invocar endpoint SageMaker com streaming
            response = self.runtime_client.invoke_endpoint_with_response_stream(
                EndpointName=self.endpoint_name,
                ContentType='application/json',
                Accept='application/json',
                Body=json.dumps(payload)
            )
            
            # Processar resposta de streaming
            accumulated_content = ""
            for event in response['Body']:
                chunk = event['PayloadPart']['Bytes'].decode('utf-8')
                if not chunk.strip():
                    continue
                
                # Parse de formato SSE: "data: {json}\n"
                for line in chunk.split('\n'):
                    if line.startswith('data: '):
                        try:
                            json_str = line.replace('data: ', '').strip()
                            if not json_str:
                                continue
                            chunk_data = json.loads(json_str)
                            
                            if 'choices' in chunk_data and chunk_data['choices']:
                                delta = chunk_data['choices'][0].get('delta', {})
                                
                                # Renderizar delta de conteúdo em formato Strands
                                if 'content' in delta:
                                    content_chunk = delta['content']
                                    accumulated_content += content_chunk
                                    yield {
                                        "type": "contentBlockDelta",
                                        "delta": {"text": content_chunk},
                                        "contentBlockIndex": 0
                                    }
                                
                                # Verificar conclusão
                                finish_reason = chunk_data['choices'][0].get('finish_reason')
                                if finish_reason:
                                    yield {
                                        "type": "messageStop",
                                        "stopReason": finish_reason
                                    }
                            
                            # Renderizar metadados de uso
                            if 'usage' in chunk_data:
                                yield {
                                    "type": "metadata",
                                    "usage": chunk_data['usage']
                                }
                        except json.JSONDecodeError:
                            continue
        except Exception as e:
            yield {
                "type": "error",
                "error": {
                    "message": f"Endpoint invocation failed: {str(e)}",
                    "type": "EndpointInvocationError"
                }
            }

    O método stream substitui o comportamento padrão de SageMakerAIModel e permite que o agent faça parsing de respostas conforme os requisitos do modelo subjacente. Embora a maioria dos modelos suporte o protocolo OpenAI Messages API, esse recurso permite que usuários avançados aproveitem LLMs altamente especializados no SageMaker AI para alimentar workloads de agents utilizando a SDK do Strands Agents.

    Inicializando Agents com Providers Personalizados

    Uma vez que a lógica personalizada de resposta do modelo é construída, a SDK do Strands Agents simplifica a inicialização de agents com providers de modelos customizados:

    from strands.agent import Agent
    
    # Inicializar provider customizado
    provider = LlamaModelProvider(
        endpoint_name="llama-31-deployment-endpoint",
        region_name="us-east-1",
        max_tokens=1000,
        temperature=0.7
    )
    
    # Criar agent com provider customizado
    agent = Agent(
        name="llama-assistant",
        model=provider,
        system_prompt=(
            "You are a helpful AI assistant powered by Llama 3.1, "
            "deployed on Amazon SageMaker. You provide clear, accurate, "
            "and friendly responses to user questions."
        )
    )
    
    # Testar o agent
    response = agent("What are the key benefits of deploying LLMs on SageMaker?")
    print(response.content)

    Recursos Disponíveis

    A implementação completa deste parser customizado, incluindo um notebook Jupyter com explicações detalhadas e o projeto de deployment gerado pelo ml-container-creator, está disponível no repositório GitHub acompanhador.

    Considerações Finais

    Construir parsers de modelos personalizados para Strands agents oferece aos usuários a oportunidade de aproveitar diferentes deployments de LLM no SageMaker, independentemente do formato de resposta que o modelo retorna. Ao estender SageMakerAIModel e implementar o método stream(), é possível integrar modelos hospedados customizadamente enquanto se mantém a interface limpa do agent oferecida pelo Strands.

    Os principais aprendizados deste artigo são:

    • O ml-container-creator simplifica deployments SageMaker BYOC com código de infraestrutura pronto para produção
    • Parsers personalizados preenchem a lacuna entre os formatos de resposta do servidor de modelos e as expectativas do Strands
    • O método stream() é o ponto crítico de integração para providers customizados

    Fonte

    Building custom model provider for Strands Agents with LLMs hosted on SageMaker AI endpoints (https://aws.amazon.com/blogs/machine-learning/building-custom-model-provider-for-strands-agents-with-llms-hosted-on-sagemaker-ai-endpoints/)

  • Amazon Lightsail agora oferece OpenClaw, um assistente de IA privado e auto-hospedado

    Uma nova opção de assistente de IA privado no Lightsail

    A AWS anunciou a disponibilidade do OpenClaw no Amazon Lightsail, expandindo as opções para quem busca uma solução de assistente de inteligência artificial (IA) privada e auto-hospedada. Este recurso permite que desenvolvedores e empresas brasileiras implantem o OpenClaw diretamente em sua infraestrutura em nuvem de forma simples e segura, sem depender de plataformas públicas ou modelos em nuvem compartilhada.

    Recursos de segurança integrados e pré-configurados

    O grande diferencial do OpenClaw no Lightsail é a segurança fornecida pronta para uso. Cada instância do OpenClaw vem com controles de segurança construídos e já pré-configurados, eliminando a necessidade de ajustes técnicos complexos. A plataforma utiliza sandboxing para isolar cada sessão de agente, aumentando significativamente a postura de segurança da implementação.

    O acesso ao painel do OpenClaw ocorre através de HTTPS (Protocolo Seguro de Transferência de Hipertexto) com um clique, trazendo o dashboard diretamente no navegador sem exigir configuração manual de Certificados TLS (Transport Layer Security). Além disso, a autenticação por pareamento de dispositivos garante que apenas os dispositivos autorizados consigam se conectar ao assistente de IA.

    As configurações são protegidas através de snapshots automáticos contínuos, garantindo que a instalação nunca seja perdida e possa ser recuperada quando necessário.

    Flexibilidade no uso de modelos e integrações

    O Amazon Bedrock funciona como o provedor de modelo padrão para o Lightsail OpenClaw, mas a AWS permite que usuários alternem entre diferentes modelos conforme suas necessidades evoluem. A plataforma também oferece conectividade com aplicativos de mensageria populares, permitindo integração com Slack, Telegram, WhatsApp e Discord, ampliando as formas de interagir com o assistente.

    Disponibilidade e próximos passos

    O Amazon Lightsail está disponível em 15 regiões da AWS ao redor do mundo, incluindo US East (N. Virginia), US West (Oregon), Europe (Frankfurt), Europe (London), Asia Pacific (Tokyo) e Asia Pacific (Jakarta). Essa cobertura geográfica ampla facilita a implantação localizada, importante para reduzir latência e atender requisitos de residência de dados.

    Para começar, usuários podem acessar o console do Lightsail. Detalhes sobre preços do Amazon Lightsail e mais informações técnicas estão disponíveis na documentação de início rápido.

    Fonte

    Amazon Lightsail now offers OpenClaw, a private self-hosted AI assistant (https://aws.amazon.com/about-aws/whats-new/2026/03/amazon-lightsail-openclaw/)