A AWS anunciou a disponibilidade do AWS Glue na região da Ásia-Pacífico (Nova Zelândia), expandindo as opções de infraestrutura para clientes que operam na Oceania. Essa expansão regional permite que organizações processem suas cargas de trabalho de Extração, Transformação e Carregamento de Dados (ETL — Extract, Transform and Load) mais próximas às suas fontes de dados, reduzindo latência e facilitando a conformidade com requisitos de residência de dados.
O Que é o AWS Glue
O AWS Glue é um serviço de integração de dados serverless que simplifica tarefas complexas de preparação e combinação de dados. A plataforma foi desenvolvida para tornar a descoberta de dados, sua preparação e integração processos mais acessíveis e eficientes, reduzindo o tempo entre a concepção e a execução de pipelines de análise.
Interfaces Flexíveis para Diferentes Perfis
Um dos diferenciais do AWS Glue é oferecer duas abordagens complementares para o desenvolvimento de pipelines de dados: uma interface visual, adequada para profissionais que preferem uma abordagem sem código, e interfaces baseadas em código, para times técnicas que demandam maior flexibilidade e controle. Essa combinação permite que equipes com diferentes níveis de experiência trabalhem com integração de dados de forma produtiva.
Benefícios da Expansão Regional
Ao disponibilizar o AWS Glue na Nova Zelândia, a AWS oferece a clientes da região a possibilidade de manter seus dados e processamento em proximidade geográfica com suas operações. Isso é particularmente relevante para organizações que lidam com grandes volumes de dados e necessitam minimizar latência, além daquelas sujeitas a regulamentações que exigem que dados permaneçam em determinadas regiões geográficas.
Próximos Passos
Organizações interessadas em migrar ou iniciar novos projetos de integração de dados na Ásia-Pacífico (Nova Zelândia) podem consultar a página do produto AWS Glue para conhecer melhor suas capacidades. A documentação oficial contém guias detalhados sobre implementação. Para visualizar todas as regiões onde o AWS Glue está disponível, consulte a tabela de regiões AWS.
A Amazon Web Services (AWS) disponibilizou os relatórios de Controles e Conformidade do Sistema e da Organização (SOC) 1, 2 e 3 referentes ao período Fall 2025. Esses relatórios cobrem 185 serviços diferentes ao longo de um período de 12 meses, compreendendo o intervalo de 1º de outubro de 2024 a 30 de setembro de 2025, oferecendo aos clientes um ano completo de garantia de conformidade.
A publicação desses relatórios reafirma o compromisso contínuo da AWS em atender às expectativas cada vez mais rigorosas impostas aos provedores de serviços em nuvem. Para as organizações brasileiras que utilizam plataforma, isso significa ter acesso a documentação técnica que atesta o cumprimento de padrões internacionais de segurança e governança.
Como Acessar os Relatórios
Relatórios SOC 1 e 2
Os relatórios SOC 1 e 2 do Fall 2025 podem ser baixados através do AWS Artifact no AWS Management Console. O AWS Artifact funciona como um portal de autoatendimento que oferece acesso sob demanda aos relatórios de conformidade da AWS. Para aprofundar-se no uso dessa ferramenta, você pode consultar o guia de introdução ao AWS Artifact.
Relatório SOC 3
O relatório SOC 3 encontra-se disponível na página de conformidade SOC da AWS. Diferentemente dos relatórios SOC 1 e 2, que são restritos, o SOC 3 é um relatório público que pode ser compartilhado amplamente dentro de uma organização.
Expansão Contínua de Serviços em Conformidade
A AWS mantém um esforço constante para incorporar novos serviços ao escopo de seus programas de conformidade, facilitando que os clientes atendam aos seus requisitos arquiteturais e regulatórios. É possível consultar a lista atualizada de todos os serviços cobertos pelos relatórios na página de serviços em conformidade.
Suporte e Recursos Adicionais
Clientes da AWS que possuam dúvidas ou feedback relacionados à conformidade SOC podem entrar em contato com seu time de contas AWS. Para explorar mais sobre os programas de conformidade e segurança oferecidos pela plataforma, recomenda-se consultar a seção dedicada aos programas de conformidade da AWS.
A AWS valoriza feedback e questões da comunidade. Dúvidas adicionais podem ser direcionadas à equipe de conformidade através da página de contato.
A AWS anunciou a adição de duas capacidades importantes ao SageMaker Unified Studio: suporte a subscrições entre regiões e acesso baseado em funções IAM (Gerenciamento de Identidade e Acesso). Essas funcionalidades reforçam a proposta da plataforma de facilitar acesso a dados e melhorar a governança entre equipes distribuídas.
Subscrições entre Regiões
O SageMaker Unified Studio agora permite que você se inscreva em tabelas e visões do AWS Glue e Amazon Redshift publicadas em uma região diferente daquela onde seu projeto está localizado. Essa funcionalidade é especialmente valiosa para organizações com infraestrutura distribuída em múltiplas regiões da AWS.
A principal vantagem dessa capacidade é a quebra de silos de dados. Equipes espalhadas geograficamente ou divididas por linha de negócio conseguem acessar ativos de dados curados sem precisar replicar informações manualmente. Isso acelera fluxos de análise e reduz redundância operacional.
Subscrições Baseadas em Funções IAM
A segunda novidade elimina um intermediário importante no fluxo de acesso a dados. Você pode agora descobrir e solicitar acesso a dados através de subscrições baseadas em funções IAM, sem necessidade de um projeto do SageMaker Unified Studio. Isso simplifica o processo removendo uma camada administrativa e permitindo acesso direto aos dados através de papéis (roles) IAM.
Essa abordagem oferece maior flexibilidade: colaboradores conseguem solicitar acesso aos dados que precisam sem depender de estrutura de projeto, tornando o processo mais ágil e alinhado com práticas modernas de governança de identidade.
Como Começar
Para utilizar subscrições entre regiões, você pode acessar o SageMaker Unified Studio diretamente ou usar a Amazon DataZone API, SDK ou AWS CLI (Interface de Linha de Comando). As subscrições baseadas em funções IAM estão disponíveis via Amazon DataZone API e SDK.
Essas atualizações reforçam a abordagem da AWS em facilitar colaboração intra-organizacional mantendo controle granular de acesso. Organizações brasileiras que trabalham com múltiplas equipes em diferentes regiões encontram nessas funcionalidades uma forma de centralizar ativos de dados sem sacrificar autonomia de acesso.
Evolução do Mecanismo SPICE para Análises Avançadas
A AWS anunciou importantes melhorias na plataforma Amazon Quick Suite, especificamente no mecanismo SPICE (Spice on Premise In-Memory Calculation Engine), que agora oferece maior escalabilidade, ingestão acelerada de dados e suporte expandido para diversos tipos de informações. Essas aprimoramentos foram projetados para potencializar cargas de trabalho de análise avançada e impulsionadas por inteligência artificial, permitindo que os clientes trabalhem com conjuntos de dados mais complexos e volumosos.
Principais Melhorias Implementadas
Capacidade de Armazenamento Ampliada
Um dos destaques da atualização é a duplicação do limite de tamanho dos conjuntos de dados SPICE. Utilizando a nova experiência de preparação de dados, os clientes podem agora carregar até 2TB de dados por conjunto, dobrando o limite anterior de 1TB. Essa expansão de capacidade permite trabalhar com volumes de informações significativamente maiores mantendo o desempenho robusto do sistema.
Otimização de Velocidade de Ingestão
Além do aumento de capacidade, a AWS otimizou ainda mais a velocidade de ingestão de dados no SPICE. O mecanismo agora oferece processamento mais acelerado durante o carregamento e atualização de informações, reduzindo substancialmente o tempo necessário para transformar dados brutos em insights acionáveis. Essa melhoria contribui para diminuir a latência entre a disponibilidade dos dados e sua utilização em análises.
Suporte Expandido para Tipos de Dados
O SPICE também recebeu expansões significativas em seu suporte a diferentes tipos de dados. O limite de comprimento de strings aumentou de 2.000 para 64.000 caracteres Unicode, possibilitando o trabalho com textos mais extensos e complexos. Além disso, o intervalo de datas e timestamps suportadas foi estendido, agora cobrindo desde o ano 0001 até os registros contemporâneos, oferecendo maior flexibilidade para análises históricas e multitemporais.
Benefícios para Analíticas Complexas
Conforme os clientes da Quick Suite incorporam cargas de trabalho cada vez mais sofisticadas, ricas em complexidade e orientadas por inteligência artificial ao SPICE, essas melhorias possibilitam cobertura de dados mais abrangente, integração mais veloz de novas fontes de informação e capacidades analíticas mais potentes, sem comprometer a performance geral do sistema.
Disponibilidade e Próximos Passos
O novo limite de tamanho para conjuntos de dados SPICE está disponível nas edições Enterprise do Amazon Quick Sight em todas as regiões suportadas pela plataforma. Para detalhes técnicos adicionais sobre as configurações, limites e melhores práticas, recomenda-se consultar a documentação técnica completa. Para verificar a disponibilidade em sua região específica, consulte a lista de regiões suportadas pelo Amazon Quick Sight.
Recuperação Multimodal para Aplicações de Inteligência Artificial
A AWS anunciou a disponibilidade geral de recuperação multimodal para Amazon Bedrock Knowledge Bases. Esta capacidade adiciona suporte nativo para conteúdo em vídeo e áudio, complementando texto e imagens. Com isso, organizações podem construir aplicações de Geração Aumentada por Recuperação (RAG — Retrieval Augmented Generation) que buscam e recuperam informações em múltiplos formatos dentro de um serviço totalmente gerenciado.
Empresas modernas armazenam informações valiosas em diversos formatos. Documentação de produtos inclui diagramas e capturas de tela, materiais de treinamento contêm vídeos instrucionais, e insights de clientes são capturados em gravações de reuniões. Até agora, desenvolver aplicações de inteligência artificial capazes de buscar efetivamente nestes diferentes tipos de conteúdo exigia infraestrutura customizada complexa e esforço significativo de engenharia.
Anteriormente, o Bedrock Knowledge Bases utilizava modelos de embedding baseados em texto para recuperação. Embora suportasse documentos de texto e imagens, estas últimas precisavam ser processadas usando modelos de fundação ou Bedrock Data Automation para gerar descrições textuais — uma abordagem centrada em texto que perdia contexto visual e impedia capacidades de busca visual. Vídeo e áudio exigiam pipelines customizados de pré-processamento externo.
Agora, com embeddings multimodais, o recuperador suporta nativamente texto, imagens, áudio e vídeo dentro de um único modelo de embedding. Com a recuperação multimodal no Bedrock Knowledge Bases, você pode ingerir, indexar e recuperar informações de texto, imagens, vídeo e áudio usando um fluxo de trabalho unificado. O conteúdo é codificado usando embeddings multimodais que preservam contexto visual e de áudio, permitindo que suas aplicações encontrem informações relevantes entre tipos de mídia. Você pode até fazer buscas usando uma imagem para encontrar conteúdo visualmente similar ou localizar cenas específicas em vídeos.
Dois Caminhos para Processamento Multimodal
Amazon Nova Multimodal Embeddings
Amazon Nova Multimodal Embeddings é o primeiro modelo de embedding unificado que codifica texto, documentos, imagens, vídeo e áudio em um único espaço vetorial compartilhado. O conteúdo é processado nativamente sem conversão para texto. O modelo suporta até 8.172 tokens para texto e 30 segundos para segmentos de vídeo/áudio, trabalha com mais de 200 idiomas e oferece quatro dimensões de embedding (sendo 3.072 a padrão, com opções de 1.024, 384 e 256) para balancear precisão e eficiência.
O Bedrock Knowledge Bases segmenta vídeo e áudio automaticamente em chunks configuráveis (5-30 segundos), com cada segmento sendo incorporado independentemente. Para conteúdo em vídeo, os embeddings Nova capturam elementos visuais — cenas, objetos, movimento e ações — assim como características de áudio como música, sons e ruído ambiente. Para vídeos onde o diálogo falado é importante, você pode usar Bedrock Data Automation para extrair transcrições junto com descrições visuais. Para arquivos de áudio isolados, Nova processa características acústicas como música, sons ambientais e padrões de áudio.
A capacidade cross-modal habilita casos de uso como descrever uma cena visual em texto para recuperar vídeos correspondentes, fazer upload de uma imagem de referência para encontrar produtos similares, ou localizar ações específicas em gravações — tudo sem descrições textuais pré-existentes. Este formato é ideal para catálogos de produtos, busca visual, vídeos de manufatura, filmagens esportivas, câmeras de segurança e cenários onde o conteúdo visual direciona o caso de uso.
Amazon Bedrock Data Automation
Bedrock Data Automation adota uma abordagem diferente, convertendo conteúdo multimídia em representações textuais ricas antes da incorporação. Para imagens, gera descrições detalhadas incluindo objetos, cenas, texto dentro de imagens e relações espaciais. Para vídeo, produz resumos cena a cena, identifica elementos visuais-chave e extrai texto na tela. Para áudio e vídeo com fala, Bedrock Data Automation fornece transcrições precisas com timestamps e identificação do locutor, junto com resumos de segmentos que capturam pontos-chave discutidos.
Uma vez convertido em texto, esse conteúdo é segmentado e incorporado usando modelos de embedding de texto como Amazon Titan Text Embeddings ou Amazon Nova Multimodal Embeddings. Esta abordagem centrada em texto possibilita respostas altamente precisas a perguntas sobre conteúdo falado — quando usuários perguntam sobre declarações específicas feitas em uma reunião ou tópicos discutidos em um podcast, o sistema busca em transcrições precisas em vez de embeddings de áudio. Isto a torna particularmente valiosa para cenários de conformidade onde você precisa de citações exatas e registros verbatim para trilhas de auditoria, análise de reuniões, mineração de chamadas de suporte ao cliente e casos de uso onde você precisa recuperar e verificar informações faladas específicas. Este formato é melhor para reuniões, webinars, entrevistas, podcasts, vídeos de treinamento, chamadas de suporte e cenários que exigem recuperação precisa de declarações ou discussões específicas.
Caso de Uso: Busca Visual de Produtos em E-commerce
Bases de conhecimento multimodal podem ser usadas em aplicações que variam desde experiências de cliente aprimoradas e treinamento de colaboradores até operações de manutenção e análise legal. A busca tradicional em e-commerce depende de consultas em texto, exigindo que clientes articulem o que estão procurando com as palavras-chave corretas. Isto falha quando viram um produto em outro lugar, têm uma foto de algo que gostam ou querem encontrar itens similares aos que aparecem em um vídeo.
Agora, clientes podem buscar seu catálogo de produtos usando descrições textuais, fazer upload de uma imagem de um item que fotografaram ou referenciar uma cena de um vídeo para encontrar produtos correspondentes. O sistema recupera itens visualmente similares comparando a representação incorporada da consulta — seja texto, imagem ou vídeo — contra os embeddings multimodais do seu inventário de produtos.
Para este cenário, Amazon Nova Multimodal Embeddings é a escolha ideal. A descoberta de produtos é fundamentalmente visual — clientes se preocupam com cores, estilos, formas e detalhes visuais. Ao codificar suas imagens e vídeos de produtos no espaço vetorial unificado de Nova, o sistema compara com base em similaridade visual sem depender de descrições em texto que possam perder características visuais sutis.
Configurando uma Base de Conhecimento Multimodal
Pré-requisitos
Antes de começar, certifique-se de que você possui:
Comece abrindo o console Amazon Bedrock e criando uma nova base de conhecimento. Forneça um nome descritivo para sua base de conhecimento e selecione seu tipo de fonte de dados — neste caso, Amazon S3 onde suas imagens e vídeos de produtos estão armazenados.
Passo 2: Conectar a Fonte de Dados
Conecte seu bucket S3 contendo imagens e vídeos de produtos. Para a estratégia de análise, selecione o analisador padrão do Amazon Bedrock. Como você está usando Amazon Nova Multimodal Embeddings, as imagens e vídeos são processados nativamente e incorporados diretamente no espaço vetorial unificado, preservando suas características visuais sem conversão para texto.
Selecione Amazon Nova Multimodal Embeddings como seu modelo de embedding. Este modelo de embedding unificado codifica tanto suas imagens de produtos quanto as consultas de clientes no mesmo espaço vetorial, habilitando recuperação cross-modal onde consultas em texto podem recuperar imagens e consultas com imagens podem encontrar produtos visualmente similares. Para este exemplo, use Amazon S3 Vectors como armazenamento vetorial (você poderia opcionalmente usar outros armazenamentos disponíveis), que fornece armazenamento com custo-efetivo e durável otimizado para conjuntos de dados vetoriais em larga escala mantendo desempenho de consulta em sub-segundo. Você também precisa configurar o destino de armazenamento multimodal especificando um local S3.
Revise suas configurações incluindo detalhes da base de conhecimento, configuração da fonte de dados e seleção do modelo de embedding — usando Amazon Nova Multimodal Embeddings v1 com 3.072 dimensões vetoriais (dimensões maiores fornecem representações mais ricas; você pode usar dimensões menores como 1.024, 384 ou 256 para otimizar armazenamento e custo) — e configuração do armazenamento vetorial. Uma vez que tudo está correto, crie sua base de conhecimento.
Passo 5: Iniciar Ingestão de Dados
Uma vez criada, inicie o processo de sincronização para ingerir seu catálogo de produtos. A base de conhecimento processa cada imagem e vídeo, gera embeddings e os armazena no banco de dados vetorial gerenciado. Monitore o status da sincronização para confirmar que os documentos foram indexados com sucesso.
Com sua base de conhecimento pronta, teste-a usando uma consulta em texto no console. Busque por descrições de produtos como “Uma capa de telefone metálica” para verificar que a recuperação baseada em texto funciona corretamente em seu catálogo.
Agora vem a parte poderosa — busca visual. Faça upload de uma imagem de referência de um produto que você quer encontrar. Por exemplo, imagine que você viu uma capa de telefone em outro site e quer encontrar itens similares em seu catálogo. Simplesmente faça upload da imagem sem prompt de texto adicional. A base de conhecimento multimodal extrai características visuais de sua imagem carregada e recupera produtos visualmente similares de seu catálogo. Como você pode ver nos resultados, o sistema retorna capas de telefone com padrões de design, cores ou características visuais similares. Note os metadados associados a cada segmento. Os campos de timestamp indicam a localização temporal exata deste segmento dentro do vídeo de origem. Ao construir aplicações programaticamente, você pode usar esses timestamps para extrair e exibir o segmento de vídeo específico que correspondeu à consulta, habilitando recursos como “pule para o momento relevante” ou geração de clipes diretamente de seus vídeos de origem.
Agora veja como seria se você tivesse configurado análise Bedrock Data Automation durante a configuração da fonte de dados. Note a seção de transcrição nos detalhes da origem. Para cada segmento de vídeo recuperado, Bedrock Data Automation gera automaticamente uma descrição textual detalhada — neste exemplo, descrevendo o acabamento rose gold metálico do smartphone, iluminação de estúdio e características visuais. Você obtém tanto a correspondência de similaridades visuais dos embeddings multimodais quanto descrições de produtos detalhadas que podem responder perguntas específicas sobre características, cores, materiais e outros atributos visíveis no vídeo.
A recuperação multimodal para Amazon Bedrock Knowledge Bases remove a complexidade de construir aplicações RAG que abrangem texto, imagens, vídeo e áudio. Com suporte nativo para conteúdo em vídeo e áudio, você pode agora construir bases de conhecimento abrangentes que desbloqueiam insights de seus dados corporativos — não apenas documentos de texto.
A escolha entre Amazon Nova Multimodal Embeddings e Bedrock Data Automation oferece flexibilidade para otimizar seu caso de uso específico. O espaço vetorial unificado de Nova habilita recuperação cross-modal para casos de uso orientados visualmente, enquanto a abordagem centrada em texto de Bedrock Data Automation oferece recuperação precisa baseada em transcrição para conteúdo com fala intensa. Ambas as abordagens se integram perfeitamente no mesmo fluxo de trabalho totalmente gerenciado, eliminando a necessidade por pipelines de pré-processamento customizados.
Cargas de trabalho envolvendo inteligência artificial generativa e aprendizado de máquina geram volumes massivos de dados. Para organizações brasileiras e globais, gerenciar esse crescimento exponencial enquanto mantém conformidade regulatória é um desafio complexo e cada vez mais urgente.
Embora o conceito de governança de dados não seja novo, pesquisas recentes revelam uma lacuna preocupante. Um estudo da Gartner com 300 executivos de TI mostrou que apenas 60% das organizações implementaram uma estratégia formal de governança de dados, deixando 40% ainda em fase de planejamento ou incertos por onde começar. Complementando esse cenário, uma pesquisa do MIT CDOIQ de 2024 com 250 diretores de dados revelou que apenas 45% identificam governança de dados como prioridade máxima.
Mesmo que a maioria das empresas reconheça a importância de estratégias de governança de dados, revisões regulares são essenciais para garantir que essas estratégias evoluam conforme as necessidades empresariais mudam, novos requisitos regulatórios surgem e tecnologias emergentes se consolidam.
Uma abordagem prática e automatizada
A Amazon Web Services (AWS) apresenta uma perspectiva estratégica e pragmática para implementar governança de dados, seja você começando do zero ou aprimorando uma estrutura existente. Este guia funciona em duas partes: a primeira (que você está lendo agora) aborda estratégia, framework de classificação e governança de marcação. A segunda parte explora arquitetura técnica e padrões de implementação com exemplos conceituais de código.
A abordagem da AWS se alinha em torno de três benefícios principais de governança de dados:
Classificar dados consistentemente e automatizar controles para melhorar qualidade
Conceder às equipes acesso seguro aos dados que realmente precisam
Monitorar conformidade automaticamente e identificar problemas rapidamente
Se você ainda não possui uma estratégia de governança estruturada, este artigo oferece um panorama dos serviços e ferramentas disponibilizados pela AWS para começar. Se já tem uma estratégia implementada, o conteúdo ajuda a avaliar sua efetividade e entender como a governança evolui com novas tecnologias.
Fundações necessárias antes de começar
Alicerces técnicos
Implementar governança de dados exige uma base técnica robusta. Comece com uma estrutura bem organizada do AWS Organizations para gerenciamento centralizado. Certifique-se de que o AWS CloudTrail e o AWS Config estão habilitados em todas as contas—você vai precisar deles para monitoramento e auditoria. Seu framework de AWS Identity and Access Management (IAM) deve já definir claramente funções e permissões.
Além desses serviços fundamentais, diversos serviços específicos da AWS suportam automação e imposição de controles, que serão explorados detalhadamente ao longo deste guia.
Prontidão organizacional
A implementação bem-sucedida de governança de dados vai além da tecnologia. Requer alinhamento claro e preparação organizacional em múltiplas dimensões:
Defina papéis e responsabilidades. Proprietários de dados classificam dados e aprovam solicitações de acesso. Equipes de plataforma gerenciam infraestrutura AWS e constroem automações, enquanto equipes de segurança estabelecem controles e monitoram conformidade. Equipes de aplicação então implementam esses padrões em seus fluxos diários.
Documente requisitos de conformidade. Liste as regulamentações que sua organização deve seguir—GDPR, PCI-DSS, SOX, HIPAA ou outras. Crie um framework de classificação de dados que se alinhe com riscos empresariais. Documente seus padrões de marcação e convenções de nomenclatura para que todos trabalhem de forma consistente.
Planeje a gestão de mudanças. Obtenha apoio executivo de líderes que entendem por que governança importa. Comece com projetos piloto para demonstrar valor antes de expandir para toda a organização. Invista em treinamento baseado em papéis e mantenha playbooks de governança atualizados. Estabeleça mecanismos de feedback para que equipes reportem problemas e sugiram melhorias.
Indicadores-chave de desempenho para monitorar
Para medir a efetividade de sua implementação de governança de dados, acompanhe as seguintes métricas essenciais:
Conformidade de marcação de recursos: Meta de 95%, medida por regras do AWS Config com monitoramento semanal, focando em recursos críticos e dados sensíveis
Tempo médio de resposta para problemas de conformidade: Menos de 24 horas para questões críticas, rastreado com métricas do CloudWatch e alertas automatizados
Redução de tarefas manuais de governança: Meta de 40% de redução no primeiro ano, medida pela adoção de workflows automatizados
Otimização de custos de armazenamento por classificação: Redução de 15–20% através de camadas inteligentes e políticas de ciclo de vida, monitoradas mensalmente
Fundação: Framework de classificação de dados
A classificação de dados é um passo fundamental na gestão de riscos de cibersegurança e em estratégias de governança. As organizações devem usar classificação de dados para determinar quais salvaguardas são apropriadas com base nos requisitos de proteção de cada categoria de informação.
Impacto Alto: Efeito adverso severo ou catastrófico nas operações, ativos ou indivíduos da organização
Impacto Moderado: Efeito adverso sério nas operações, ativos ou indivíduos da organização
Impacto Baixo: Efeito adverso limitado nas operações, ativos ou indivíduos da organização
Antes de implementar controles, estabelecer um framework claro de classificação é essencial. Esse framework funciona como a espinha dorsal de seus controles de segurança, políticas de acesso e estratégias de automação. Como exemplo prático, considere como uma empresa sujeita ao Padrão de Segurança de Dados da Indústria de Cartões de Pagamento (PCI-DSS) poderia classificar dados:
Nível 1 – Dados mais sensíveis: Registros de transações financeiras, dados PCI de clientes, propriedade intelectual. Controles: Criptografia em repouso e em trânsito, controles de acesso rigorosos, auditoria abrangente
Nível 2 – Dados para uso interno: Documentação interna, informações de negócios proprietárias, código de desenvolvimento. Controles: Criptografia padrão, controle de acesso baseado em papéis
Nível 3 – Dados públicos: Materiais de marketing, documentação pública, comunicados de imprensa. Controles: Verificações de integridade, controle de versão
Estruturando uma estratégia de marcação eficaz
Para auxiliar com classificação de dados e marcação, a AWS oferece o AWS Resource Groups, um serviço que permite organizar recursos AWS em grupos usando critérios que você define como tags. Se sua organização usa múltiplas contas AWS, o AWS Organizations suporta políticas de tags, que padronizam as marcas vinculadas aos recursos da organização.
Uma estratégia de marcação bem-projetada é fundamental para governança automatizada. Tags não apenas organizam recursos, mas também habilitam controles de segurança automatizados, alocação de custos e monitoramento de conformidade. A estratégia a seguir estrutura a automação:
Embora as políticas de tags do AWS Organizations forneçam uma base para marcação consistente, governança abrangente exige mecanismos adicionais de imposição, que serão explorados em detalhes na Parte 2.
Fluxo de trabalho de governança com tags
O processo de governança de tags segue um fluxo estruturado: a AWS valida tags quando você cria recursos. Recursos não conformes acionam remediação automática, enquanto recursos conformes são implantados normalmente. O monitoramento contínuo identifica variações em relação às suas políticas.
AWS CloudTrail: Registra cada chamada de API feita em suas contas AWS, criando um rastro completo de auditoria de quem fez o quê, quando e de onde
AWS Config: Monitora continuamente configurações de recursos e as avalia contra regras que você define. Quando encontra recursos não conformes, os marca para correção manual ou automática
Amazon CloudWatch: Agrega métricas, logs e eventos de todo o AWS para monitoramento em tempo real, dashboards e alertas automatizados em não conformidades
Automação e imposição
Amazon EventBridge: Sistema central de notificações que observa eventos específicos no ambiente AWS (como criação de um bucket S3) e dispara ações em resposta (como executar uma função Lambda para validar tags). Funciona como um mecanismo de automação “se isto acontecer, então faça aquilo”
AWS Lambda: Executa código de governança (validação de tags, controles de segurança, remediação) em resposta a eventos sem necessidade de gerenciar servidores
AWS Systems Manager: Automatiza tarefas operacionais em seus recursos AWS. Na governança, é usado primariamente para corrigir automaticamente recursos não conformes—por exemplo, se o AWS Config detecta um banco de dados não criptografado, o Systems Manager pode executar um script pré-definido para habilitar criptografia sem intervenção manual
Proteção de dados
Amazon Macie: Usa aprendizado de máquina para descobrir, classificar e proteger automaticamente dados sensíveis como informações de identificação pessoal (PII) em seus buckets S3
AWS Key Management Service (AWS KMS): Gerencia chaves de criptografia para proteger dados em repouso, essencial para classificações de dados com alto impacto
Análise e insights
Amazon Athena: Serviço de query serverless que analisa dados no Amazon S3 usando SQL—perfeito para consultar logs do CloudTrail e entender padrões de acesso
Padronização e ML
AWS Service Catalog: Cria catálogos de recursos pré-aprovados e conformes com governança que equipes podem implantar por autoatendimento
Amazon SageMaker: Oferece ferramentas especializadas para governança de operações de aprendizado de máquina, incluindo monitoramento de modelo, documentação e controle de acesso
Próximas etapas
Este primeiro artigo da série em duas partes estabeleceu os elementos fundacionais para implementar governança de dados na AWS, cobrindo frameworks de classificação de dados, estratégias efetivas de marcação e requisitos de alinhamento organizacional. Esses fundamentos servem como blocos construtivos para abordagens de governança escaláveis e automatizadas.
A Parte 2 focará em implementação técnica e padrões arquiteturais, incluindo fundações de monitoramento, controles preventivos e remediação automatizada. A discussão se estende a controles de segurança baseados em tags, automação de monitoramento de conformidade e integração de governança com estratégias de recuperação de desastres. Tópicos adicionais incluem controles de soberania de dados e governança de modelos de aprendizado de máquina com o Amazon SageMaker, suportados por exemplos de implementação da AWS.
Automatizando a Implantação de Agentes de IA com Segurança Empresarial
A AWS anunciou recentemente o Amazon Bedrock AgentCore, um serviço versátil que permite aos desenvolvedores criar e gerenciar agentes de IA de forma integrada, trabalhando com diferentes frameworks e modelos, seja em ambientes hospedados na própria Amazon Bedrock ou em outras infraestruturas. Mais especificamente, o AgentCore Runtime fornece um ambiente de hospedagem seguro, sem servidor e otimizado para implantar e executar agentes de IA ou ferramentas customizadas.
Uma das características principais do AgentCore Runtime é sua flexibilidade de framework. O serviço funciona perfeitamente com plataformas populares como LangGraph, Strands e CrewAI, permitindo que desenvolvedores implantem seus agentes com escalabilidade automática e segurança integrada. O grande diferencial está em como simplifica a complexidade operacional enquanto mantém controles rigorosos de segurança.
Este artigo demonstra como usar um fluxo de trabalho do GitHub Actions para automatizar a implantação de agentes no AgentCore Runtime. Essa abordagem oferece uma solução escalável com controles de segurança em nível empresarial, fornecendo automação completa de integração e entrega contínua (CI/CD). Implementando um pipeline abrangente, é possível habilitar a implantação contínua de agentes seguindo as melhores práticas da AWS, incluindo autenticação com OpenID Connect (OIDC), controles de acesso com privilégio mínimo e separação de ambientes. A solução facilita atualizações eficientes para agentes existentes e integra verificações contínuas de segurança com validações rigorosas de qualidade de código. O resultado é uma estratégia de implantação robusta que minimiza complexidade operacional, aprimora a segurança e acelera o desenvolvimento de agentes de IA em ambientes corporativos.
Capacidades do Amazon Bedrock AgentCore Runtime
O AgentCore Runtime é o serviço ideal para implantações de agentes em produção, apresentando um conjunto robusto de funcionalidades:
Oferece um ambiente independente de framework para executar agentes
Funciona com modelos de linguagem grande (LLMs) como os oferecidos pela Amazon Bedrock e Anthropic Claude
Fornece isolamento de sessão, executando cada sessão do usuário em uma microVM dedicada com recursos isolados de CPU, memória e sistema de arquivos
Suporta tanto interações em tempo real quanto cargas de trabalho de longa duração, com duração até 8 horas
Oferece capacidades integradas de autenticação e observabilidade
Visão Geral da Solução
Foi desenvolvido um pipeline CI/CD abrangente com GitHub Actions que simplifica a implantação de agentes em conformidade com padrões de segurança. O pipeline está disponível como uma solução pronta para uso que se integra perfeitamente aos fluxos de trabalho de desenvolvimento existentes.
A solução compreende os seguintes componentes-chave:
GitHub Actions – Uma ferramenta de orquestração de fluxo de trabalho para hospedar o pipeline
Amazon Inspector – Um serviço da AWS para realizar verificação avançada e contínua de vulnerabilidades em imagens de contêiner
IAM OIDC identity provider (Provedor de identidade OIDC do IAM) – Um serviço de autenticação federada que estabelece confiança entre GitHub e AWS, permitindo que GitHub Actions implante na AWS sem manter segredos e credenciais AWS
O fluxo de dados da arquitetura segue os seguintes passos:
Um desenvolvedor confirma mudanças de código de seu repositório local para o repositório do GitHub. Nesta solução, o GitHub Action é acionado manualmente, mas pode ser automatizado.
O GitHub Action inicia o estágio de build.
O OIDC do GitHub usa tokens para autenticar com a AWS e acessar recursos.
GitHub Actions invoca o comando para construir e enviar a imagem de contêiner do agente para Amazon ECR diretamente do Dockerfile.
AWS Inspector dispara uma verificação de segurança avançada quando a imagem é carregada.
Uma instância do AgentCore Runtime é criada usando a imagem de contêiner.
O agente pode consultar o modelo Amazon Bedrock e invocar ferramentas de acordo com sua configuração.
Pré-requisitos
Antes de usar o pipeline CI/CD seguro para implantar agentes no AgentCore Runtime, verifique se você possui os seguintes pré-requisitos:
A pasta do repositório contém a seguinte estrutura:
bedrock-agentcore-runtime-cicd/
├── .github/
│ └── workflows/
│ └── deploy-agentcore.yml # arquivo contém o conjunto de ações para construir e implantar o agente no AgentCore Runtime
│ └── test-agent.yml # após a implantação, este arquivo é usado para testar agente via manual workflow dispatch
├── agents/
│ ├── strands_agent.py # usa BedrockAgentCoreApp que cria um agente de IA usando o framework Strands com Claude como modelo subjacente
│ ├── requirements.txt # contém dependências
├── scripts
│ ├── create_iam_role.py # função IAM necessária para Bedrock AgentCore Runtime
│ ├── deploy_agent.py # implanta um agente customizado na plataforma AgentCore Runtime da AWS Bedrock
│ └── setup_oidc.py # configuração OIDC para autenticação e autorização do GitHub para acessar conta AWS
│ └── cleanup_ecr.py # mantém 9 imagens recentes no registro ECR, pode ser customizado
│ └── create_guardrail.py # configura guardrail mínimo para filtragem de conteúdo, pode ser customizado conforme necessário
│ └── test_agent.py # contém casos de teste
└── Dockerfile # contém instruções para construir a imagem Docker
└── README.md
Criando o Código do Agente
Crie seu agente com o framework de sua escolha usando o toolkit AgentCore Runtime. O toolkit usa BedrockAgentCoreApp para criar uma aplicação que fornece uma forma padronizada de empacotar código de agente de IA em um contêiner que pode ser executado na infraestrutura gerenciada do AgentCore Runtime. Também usa app.entrypoint, um decorador Python que marca uma função como o ponto de entrada principal. Quando o agente Amazon Bedrock recebe uma solicitação de API recebida, esta função recebe e processa a solicitação do usuário.
Neste exemplo de código de agente, quando alguém chama seu agente Amazon Bedrock usando uma API, o AgentCore Runtime chamará automaticamente a função strands_agent_bedrock(payload). Neste artigo, o arquivo agents/strands_agent.py é usado para criar um agente usando o framework Strands Agents:
"""
This module defines a conversational AI agent that can perform calculations using the Strands framework.
"""
from bedrock_agentcore.runtime import BedrockAgentCoreApp
from strands import Agent
from strands.models import BedrockModel
from strands_tools import calculator
# Initialize the Bedrock AgentCore application
app = BedrockAgentCoreApp()
# Configure the Claude model for the agent with guardrail
model_id = "us.anthropic.claude-sonnet-4-20250514-v1:0"
# Load guardrail ID if available
guardrail_config = None
try:
with open("guardrail_id.txt", "r", encoding="utf-8") as f:
guardrail_id = f.read().strip()
if guardrail_id:
guardrail_config = {
"guardrailIdentifier": guardrail_id,
"guardrailVersion": "1",
}
print(f"Loaded guardrail: {guardrail_id}")
except FileNotFoundError:
print("No guardrail file found - running without guardrail")
model = BedrockModel(model_id=model_id, guardrail=guardrail_config)
# Create the agent with tools and system prompt
agent = Agent(
model=model,
tools=[calculator],
system_prompt="You're a helpful assistant. You can do simple math calculation.",
)
@app.entrypoint
def strands_agent_bedrock(payload):
"""
Main entrypoint for the Bedrock AgentCore Runtime.
This function is called by AWS Bedrock AgentCore when the agent receives a request.
It processes the user input and returns the agent's response.
Args:
payload (dict): Request payload containing user input
Expected format: {"prompt": "user question"}
Returns:
str: The agent's text response to the user's prompt
"""
# Extract the user's prompt from the payload
user_input = payload.get("prompt")
# Process the input through the agent (handles tool selection and model inference)
response = agent(user_input)
# Extract and return the text content from the response
return response.message["content"][0]["text"]
if __name__ == "__main__":
# Run the application locally for testing
# In production, this is handled by Bedrock AgentCore Runtime
app.run()
Configurando Secrets do GitHub
O fluxo de trabalho do GitHub Actions deve acessar recursos em sua conta AWS. Neste artigo, usa-se um provedor de identidade IAM OpenID Connect (OIDC) e funções IAM com políticas IAM para acessar recursos AWS. O OIDC permite que seus fluxos de trabalho GitHub Actions acessem recursos na AWS sem precisar armazenar credenciais AWS como segredos GitHub de longa duração. Essas credenciais são armazenadas como segredos GitHub no repositório GitHub, em Configurações na opção Secrets. Para mais informações, consulte Using secrets in GitHub Actions.
Criando Funções e Políticas IAM
Para executar agentes ou ferramentas no AgentCore Runtime, você precisa de uma função de execução IAM. Para informações sobre como criar uma função IAM, consulte IAM role creation. Neste artigo, criamos a política de confiança e função de execução necessárias para o AgentCore Runtime. Veja IAM Permissions for AgentCore Runtime para mais detalhes.
A seguir está o código da política de confiança do AgentCore Runtime:
O pipeline pode ser acionado alterando código na pasta de agentes ou manualmente usando a opção de workflow dispatch. Isso pode ser alterado de acordo com a estratégia de branching de sua organização. Atualize o código em .github/workflows/deploy-agentcore.yml para alterar esse comportamento de gatilho.
A AWS Bedrock AgentCore implementa versionamento automático para AgentCore Runtime e permite gerenciar diferentes configurações usando endpoints. Endpoints fornecem uma forma de referenciar versões específicas do AgentCore Runtime. Para mais detalhes e código de exemplo, consulte AgentCore Runtime versioning and endpoints.
Limpeza de Recursos
Para evitar incorrer em cobranças futuras, conclua os seguintes passos:
Exclua as imagens do ECR do console Amazon ECR criadas por meio da implantação usando GitHub Actions
Exclua o agente implantado no AgentCore Runtime
Conclusão
Este artigo demonstrou uma abordagem abrangente para usar GitHub Actions visando uma implantação mais segura e escalável de agentes de IA no AgentCore Runtime. A solução oferece um ambiente robusto, automatizado e controlado para aplicações de IA generativa, abordando desafios críticos de implantação empresarial ao automatizar gerenciamento de dependências, implementar verificações contínuas de qualidade de código, realizar verificação abrangente de vulnerabilidades e facilitar processos de implantação consistentes.
Ao abstrair complexidades de infraestrutura, este pipeline ajuda desenvolvedores a concentrar-se na lógica e funcionalidade do agente, enquanto oferece uma abordagem independente de framework que suporta gerenciamento integrado de múltiplos agentes de IA em escala. À medida que os agentes de IA continuam transformando capacidades empresariais, esta solução representa um passo significativo na simplificação do desenvolvimento e gerenciamento operacional de agentes de IA, oferecendo um mecanismo de implantação padronizado, seguro e eficiente para aplicações modernas de IA generativa.
Como próximo passo, você pode usar Amazon Q para aprimorar e customizar inteligentemente seu pipeline de implantação de agentes de IA, transformando seus processos CI/CD com automação avançada e consciente de contexto.
Este artigo complementa a primeira parte sobre governança de dados na AWS, que abordou fundações estratégicas, frameworks de classificação e abordagens de marcação. Agora, veremos como implementar tecnicamente um framework de governança robusto através de padrões arquiteturais bem estabelecidos.
A governança de dados efetiva exige múltiplas camadas de controle trabalhando em conjunto. O processo começa com monitoramento, evolui para controles preventivos, passa por remediação automatizada e culmina em recursos avançados que garantem conformidade em ambientes complexos.
Os quatro pilares da implementação
A AWS apresenta uma abordagem progressiva que permite implementação incremental. Cada nível constrói sobre o anterior, permitindo validação contínua:
Fundação de monitoramento
O primeiro passo consiste em estabelecer uma linha de base sólida. Use AWS Config para rastrear conformidade de marcações em seus recursos, e configure painéis do Amazon CloudWatch para visibilidade em tempo real de sua postura de governança. Essa fundação permite compreender seu estado atual antes de implementar controles de força maior.
Controles preventivos
Depois da visibilidade inicial, implemente aplicação proativa. Implante funções AWS Lambda que validam marcações no momento da criação de recursos. Configure regras do Amazon EventBridge para disparar ações de conformidade em tempo real e estabeleça políticas de controle de serviço (Service Control Policies — SCPs) que criam barreiras de proteção em toda a organização, prevenindo implantação de recursos não conformes.
Remediação automatizada
Reduza intervenção manual configurando documentos de automação do AWS Systems Manager que respondem a violações de conformidade. Implante respostas automatizadas que corrigem problemas comuns como marcações faltantes ou criptografia inadequada. Estabeleça controles de segurança baseados em classificação que aplicam proteções apropriadas automaticamente conforme a sensibilidade dos dados.
Recursos avançados
Estenda o framework com recursos sofisticados. Implante controles de soberania de dados para garantir conformidade regulatória entre regiões, implemente gerenciamento de ciclo de vida inteligente para otimizar custos mantendo conformidade, e estabeleça sistemas abrangentes de monitoramento e relatório que ofereçam visibilidade clara aos stakeholders sobre a efetividade da governança.
Familiaridade com AWS CloudFormation ou Terraform, pois os exemplos usarão CloudFormation
Implementação de controles de marcação
Controles preventivos com funções Lambda
A validação de marcações no momento da criação de recursos previne implantação de recursos não conformes. Funções Lambda disparadas por eventos do AWS CloudTrail verificam marcações antes que recursos sejam criados:
def enforce_resource_tags(event, context):
required_tags = ['DataClassification', 'DataOwner', 'Environment']
# Extract resource details from the event
resource_tags = event['detail']['requestParameters'].get('Tags', {})
# Validate required tags are present
missing_tags = [tag for tag in required_tags if tag not in resource_tags]
if missing_tags:
# Send alert to security team
# Log non-compliance for compliance reporting
raise Exception(f"Missing required tags: {missing_tags}")
return {'status': 'compliant'}
As políticas de marcação do AWS Organizations estabelecem a base para consistência. Essas políticas definem formatos e valores padrão, garantindo consistência entre contas:
O controle de acesso baseado em marcações permite permissões detalhadas usando controle de acesso baseado em atributos (ABAC — Attribute-Based Access Control). Essa abordagem define permissões conforme atributos de recursos em vez de criar políticas IAM individuais:
Enquanto a implementação de governança em uma única conta é direta, a maioria das organizações opera em ambientes multi-conta. Implementar governança consistente em toda a organização exige controles adicionais:
Muitas organizações mantêm frameworks de governança para infraestrutura local. Estender esses frameworks para a AWS exige integração cuidadosa. Use o AWS Service Catalog para criar um portfólio de recursos que se alinhem com seus padrões de governança existentes, mantendo convenções de nomenclatura e controles compatíveis.
Automação de controles de segurança baseada em classificação
Após classificar dados, use essas classificações para automatizar controles de segurança. Use AWS Config para rastrear e validar que recursos estejam devidamente marcados através de regras definidas que avaliam configurações de recursos AWS. Para recursos não conformes, use AWS Systems Manager para automatizar o processo de remediação.
Com marcação adequada, implemente controles de segurança automatizados usando EventBridge e Lambda. Essa combinação cria infraestrutura eficiente em custos e escalável para aplicação de políticas de segurança baseadas em classificação de dados:
Requisitos de soberania e residência de dados ajudam na conformidade com regulações como GDPR. Implemente controles que restrinjam armazenamento e processamento de dados a regiões específicas da AWS:
AWSConfig:
ConfigRule:
Type: AWS::Config::ConfigRule
Properties:
ConfigRuleName: s3-bucket-region-check
Description: Checks if S3 buckets are in allowed regions
Source:
Owner: AWS
SourceIdentifier: S3_BUCKET_REGION
InputParameters:
allowedRegions:
- eu-west-1
- eu-central-1
Combine AWS Config para conformidade de recursos, CloudWatch para métricas e alertas, e Amazon Macie para descoberta de dados sensíveis, criando um framework robusto que detecta e responde automaticamente a questões de conformidade:
Figura 1: Arquitetura de monitoramento de conformidade — Imagem original — fonte: Aws
Essa arquitetura demonstra como os serviços da AWS trabalham em conjunto para monitoramento de conformidade. O AWS Config, CloudTrail e Macie monitoram recursos, o CloudWatch agrega dados de monitoramento, e alertas e painéis oferecem visibilidade em tempo real.
Implementação com CloudFormation
O seguinte template CloudFormation implementa esses controles:
Estratégias modernas de governança frequentemente utilizam data lakes para controle centralizado. A AWS oferece solução abrangente através do Modern Data Architecture Accelerator (MDAA), que permite implantar rapidamente arquiteturas de plataforma de dados com controles de segurança e governança integrados.
Figura 2: Arquitetura de referência do MDAA — Imagem original — fonte: Aws
Compreender e gerenciar padrões de acesso é essencial para governança efetiva. Use CloudTrail e Amazon Athena para analisar padrões de acesso:
SELECT useridentity.arn, eventname, requestparameters.bucketname,
requestparameters.key, COUNT(*) as access_count
FROM cloudtrail_logs
WHERE eventname IN ('GetObject', 'PutObject')
GROUP BY 1, 2, 3, 4
ORDER BY access_count DESC
LIMIT 100;
Essa consulta identifica dados acessados com frequência e padrões incomuns de comportamento, permitindo otimizar camadas de armazenamento, refinar estratégias de recuperação de desastres, identificar riscos de segurança e ajustar políticas de ciclo de vida conforme padrões de uso.
Governança de modelos de aprendizado de máquina
Conforme organizações avançam sua jornada de governança, muitas implantam modelos de machine learning em produção, necessitando frameworks que se estendam a operações de ML. O Amazon SageMaker oferece ferramentas avançadas para manter governança sobre ativos de ML sem impedir inovação.
As ferramentas de governança do SageMaker trabalham juntas fornecendo supervisão completa de ML: o Role Manager oferece controle de acesso detalhado, Model Cards centralizam documentação e linhagem, o Model Dashboard oferece visibilidade em toda a organização, e o Model Monitor automatiza detecção de desvio e controle de qualidade.
# Basic/High-level ML governance setup with role and monitoring
SageMakerRole:
Type: AWS::IAM::Role
Properties:
AssumeRolePolicyDocument:
Statement:
- Effect: Allow
Principal:
Service: sagemaker.amazonaws.com
Action: sts:AssumeRole
ManagedPolicyArns:
- arn:aws:iam::aws:policy/AmazonSageMakerFullAccess
ModelMonitor:
Type: AWS::SageMaker::MonitoringSchedule
Properties:
MonitoringScheduleName: hourly-model-monitor
ScheduleConfig:
ScheduleExpression: 'cron(0 * * * ? *)'
Otimização de custos através de gerenciamento de ciclo de vida automatizado
Governança de dados efetiva não trata apenas de segurança — também gerencia custos. Implemente gerenciamento inteligente de ciclo de vida de dados baseado em classificação e padrões de uso:
Implementação bem-sucedida de governança de dados na AWS exige abordagem estruturada e adesão a melhores práticas:
Comece com escopo focado e expanda gradualmente. Inicie com projeto piloto que aborde casos de uso de alto impacto e baixa complexidade, demonstrando ganhos rápidos enquanto constrói experiência.
Faça automação sua fundação. Aplique serviços como EventBridge para respostas dirigidas por eventos, implemente remediação automatizada e crie capacidades de auto-atendimento que equilibrem eficiência e conformidade.
Mantenha visibilidade e melhoria contínuas. Monitoramento regular, verificações de conformidade e atualizações de framework são essenciais. Use feedback de suas operações para refinar políticas conforme necessidades da organização evoluem.
Desafios comuns a considerar
Resistência inicial de equipes acostumadas a processos manuais
Complexidade ao lidar com sistemas e dados legados
Equilíbrio entre controles de segurança e eficiência operacional
Manutenção de governança consistente em múltiplas contas e regiões AWS
Recursos adicionais
Para mais informações, suporte de implementação e orientação, consulte:
Construir um framework de governança de dados robusto e escalável na AWS que cresça com sua organização enquanto mantém segurança, conformidade e operações de dados eficientes é totalmente viável. O caminho começa com monitoramento fundamental, progride através de controles preventivos, passa por automação de remediação e culmina em recursos avançados que garantem conformidade em ambientes complexos.
Ao seguir essa abordagem progressiva, validando continuamente e permanecendo atento aos desafios potenciais, sua organização pode implementar governança que não apenas atende aos requisitos regulatórios, mas também habilita inovação e otimização de custos.
Novidade: Parâmetros em Templates PySpark no AWS Clean Rooms
A AWS anunciou o suporte a parâmetros em templates de análise PySpark, ampliando as possibilidades de colaboração segura entre organizações e seus parceiros. Com este lançamento, torna-se possível criar um único template PySpark que aceita diferentes valores fornecidos pelo colaborador no momento da execução, eliminando a necessidade de modificar o código do template.
Como Funciona: Fluxo de Parâmetros
O processo segue uma lógica clara: o autor do código prepara um template PySpark com suporte a parâmetros, e após aprovação para execução, quem rodar o job pode enviar os valores diretamente para a tarefa PySpark. Essa abordagem cria um cenário onde o mesmo template reutilizável funciona para múltiplos cenários e análises, sem precisar duplicar ou ajustar manualmente o código para cada situação.
Aplicação Prática: Campanha de Publicidade
Um exemplo tangível é a atuação de empresas de medição no setor de publicidade: com os parâmetros dinâmicos, elas podem inserir períodos de tempo e regiões geográficas diferentes diretamente durante o envio do job. Essa flexibilidade acelera a geração de insights sobre atribuição de campanhas publicitárias, permitindo otimizações de campanha e planejamento de mídia em prazos muito mais curtos.
O Escopo Maior do Clean Rooms
O AWS Clean Rooms oferece a capacidade de criar salas de dados seguras em poucos minutos e colaborar com qualquer empresa na AWS ou Snowflake. Esse ambiente permite gerar insights únicos sobre campanhas publicitárias, decisões de investimento e pesquisa e desenvolvimento, mantendo a privacidade dos dados durante todo o processo colaborativo.
Disponibilidade e Próximos Passos
Para conhecer em quais regiões da AWS o Clean Rooms está disponível, consulte a tabela de regiões oficial. Mais informações sobre como colaborar usando o AWS Clean Rooms estão disponíveis na documentação do serviço.
A AWS anunciou a disponibilidade de três de suas principais soluções de banco de dados serverless no v0 by Vercel: Amazon Aurora PostgreSQL, Amazon Aurora DSQL e Amazon DynamoDB. O v0 é uma ferramenta alimentada por IA que transforma ideias em aplicações web full-stack prontas para produção em minutos.
Com essa integração, desenvolvedores podem descrever o que desejam construir em linguagem natural e o v0 fica responsável por desenvolver a interface do usuário no frontend, a lógica no backend e armazenar os dados da aplicação no banco de dados da AWS que melhor se adequa às necessidades do projeto.
Como Funciona a Experiência de Configuração
O v0 oferece uma experiência de configuração end-to-end onde é possível escolher e configurar recursos de banco de dados em uma nova conta AWS ou conectar a uma conta existente, tudo sem sair da interface do v0. Usuários podem gerenciar seu plano, adicionar informações de pagamento e visualizar detalhes de uso a qualquer momento por meio do portal de configurações da AWS acessível do dashboard da Vercel.
Contas AWS criadas através da Vercel incluem acesso aos três bancos de dados serverless e $100 USD em créditos que podem ser utilizados com qualquer uma das opções de banco de dados por até seis meses.
Vantagens das Soluções Serverless
As opções serverless do Amazon Aurora PostgreSQL, Amazon Aurora DSQL e Amazon DynamoDB não exigem gerenciamento de infraestrutura e reduzem custos ao dimensionar automaticamente para zero quando não estão em uso. Esse modelo é especialmente vantajoso para prototipagem rápida e aplicações em produção orientadas por dados ou IA.
Disponibilidade Geográfica
O recurso está disponível para criação de bancos de dados nas seguintes regiões AWS: US East (N. Virginia), US East (Ohio), US West (Oregon), Europe (Ireland), Europe (Frankfurt), Asia Pacific (Tokyo) e Asia Pacific (Mumbai).
Conclusão
AWS Databases entrega segurança, confiabilidade e performance de preço sem a sobrecarga operacional, seja para prototipagem ou para executar aplicações em produção. A integração com o v0 reduz significativamente a complexidade de configuração inicial, permitindo que equipes de desenvolvimento se concentrem na lógica de negócio em vez de gerenciamento de infraestrutura.