Perguntas frequentes sobre o Amazon Bedrock

Geral

O Amazon Bedrock é um serviço totalmente gerenciado que oferece uma variedade de modelos de base (FMs) líderes do setor, além de um amplo conjunto de funcionalidades necessárias para o desenvolvimento de aplicações com tecnologia de IA generativa, simplificando o desenvolvimento com segurança, privacidade e uso responsável da IA. Com os recursos abrangentes do Amazon Bedrock, você pode experimentar uma variedade dos melhores FMs, personalizá-los de maneira privada com seus dados usando técnicas como ajuste fino e Retrieval-Augmented Generation (RAG) e criar agentes gerenciados que executam tarefas comerciais complexas, desde reservas de viagens e processamento de sinistros de seguros até a criação de campanhas publicitárias e gerenciamento de inventário, tudo sem escrever nenhum código. Como o Amazon Bedrock usa tecnologia sem servidor, você não precisa gerenciar nenhuma infraestrutura e pode integrar e implantar com segurança recursos de IA generativa em suas aplicações usando os serviços da AWS que já conhece.

Há cinco motivos para usar o Amazon Bedrock para criar aplicações de IA generativa.

  • Escolha dos FMs principais: o Amazon Bedrock oferece uma experiência de desenvolvimento fácil de usar para trabalhar com uma ampla gama de FMs de alta performance da Amazon e das principais empresas de IA, como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI e Stability AI. Você pode experimentar rapidamente vários FMs na área de testes e usar uma única API para inferência, qualquer que seja o modelo escolhido. Assim, você tem a flexibilidade de usar FMs de diferentes fornecedores e ficar a par das versões mais recentes do modelo com o mínimo de alterações no código.
  • Fácil personalização do modelo com seus dados: personalize FMs de forma privada com seus próprios dados em uma interface visual sem precisar escrever código. Basta selecionar os conjuntos de dados de treinamento e validação armazenados no Amazon Simple Storage Service (Amazon S3) e, se necessário, ajustar os hiperparâmetros para obter o melhor desempenho possível do modelo.
  • Agentes totalmente gerenciados que invocam APIs dinamicamente para executar tarefas: crie agentes para executar tarefas comerciais complexas, desde reservar viagens e processar pedidos de seguro até criar campanhas publicitárias, preparar declarações de imposto e gerenciar inventários, chamando dinamicamente os sistemas e as APIs de sua empresa. Agentes totalmente gerenciados do Amazon Bedrock ampliam os recursos de raciocínio dos FMs para detalhar tarefas, criar um plano de orquestração e executá-lo.
  • Suporte nativo para RAG para ampliar o poder dos FMs com dados proprietários: com o Amazon Bedrock Knowledge Bases, você pode conectar com segurança os FMs às suas fontes de dados para aumentar a recuperação dentro do serviço gerenciado, ampliando os recursos já poderosos do FM e aprofundando o conhecimento do modelo sobre seu domínio e sua organização.
  • Certificações de segurança e conformidade de dados: o Amazon Bedrock oferece vários recursos para atender aos requisitos de segurança e privacidade. O Amazon Bedrock está no escopo de padrões de conformidade comuns, como o Service and Organization Control (SOC), a Organização Internacional para Padronização (ISO), é elegível para a Health Insurance Portability and Accountability Act (HIPAA), e os clientes podem usar o Amazon Bedrock em conformidade com o Regulamento Geral de Proteção de Dados (RGPD). O Amazon Bedrock tem a certificação CSA Security Trust Assurance and Risk (STAR) de nível 2, que valida o uso de práticas recomendadas e a postura de segurança das ofertas de nuvem AWS. Com o Amazon Bedrock, seu conteúdo não é usado para melhorar os modelos de base e não é compartilhado com outros provedores de modelos. Seus dados no Amazon Bedrock são sempre criptografados em trânsito e em repouso, e, se desejar, você pode usar suas próprias chaves para a criptografia. Você pode usar o AWS PrivateLink com o Amazon Bedrock para estabelecer uma conexão privada entre os FMs e a Amazon Virtual Private Cloud (Amazon VPC) sem expor o tráfego à Internet.

Com a experiência sem servidor do Amazon Bedrock, você pode começar rapidamente. Navegue até o Amazon Bedrock no Console de Gerenciamento da AWS e experimente os FMs no playground. Você também pode criar um agente e testá-lo no console. Depois de identificar seu caso de uso, você pode integrar facilmente os FMs às suas aplicações usando as ferramentas da AWS, sem precisar gerenciar nenhuma infraestrutura.
Link para o curso de introdução ao Amazon Bedrock
Link para o guia do usuário do Amazon Bedrock

O Amazon Bedrock trabalha com o AWS Lambda para invocar ações, o Amazon S3 para dados de treinamento e validação e o Amazon CloudWatch para monitorar métricas.

Você pode começar rapidamente com casos de uso:

  • Crie novos conteúdos originais, como histórias curtas, ensaios, publicações em redes sociais e textos de páginas da Web.
  • Pesquise, encontre e sintetize informações para responder a perguntas com base em um amplo conjunto de dados.
  • Crie imagens realistas e artísticas de vários objetos, ambientes e cenas a partir de instruções de linguagem.
  • Ajude os clientes a encontrar o que estão procurando com recomendações de produtos mais relevantes e contextuais do que a correspondência de palavras.
  • Obtenha um resumo do conteúdo textual, como artigos, postagens de blog, livros e documentos, para conhecer a essência sem precisar ler o conteúdo completo.
  • Forneça sugestão de produtos que correspondam às preferências do cliente e às compras anteriores

Explore mais casos de uso de IA generativa.

O Amazon Bedrock oferece um playground que permite testar vários FMs usando uma interface de bate-papo conversacional. Você pode fornecer um prompt e usar uma interface Web dentro do console para gerar um prompt e usar os modelos pré-treinados para gerar texto ou imagens ou, como alternativa, usar um modelo ajustado e adaptado para o seu caso de uso.

Para obter uma lista das regiões da AWS nas quais o Amazon Bedrock está disponível, consulte Endpoints e cotas do Amazon Bedrock, no Guia de referência do Amazon Bedrock.

É possível ajustar FMs no Amazon Bedrock com facilidade usando dados marcados ou ao usar o recurso de treinamento prévio contínuo para personalizar o modelo usando dados não marcados. Para começar, forneça o conjunto de dados de treinamento e validação, configure hiperparâmetros (epochs, tamanho do lote, taxa de aprendizado, etapas de aquecimento) e envie o trabalho. Em algumas horas, seu modelo ajustado pode ser acessado com a mesma API (InvokeModel).

Sim. Você pode treinar modelos selecionados e publicamente disponíveis e importá-los para o Amazon Bedrock usando o recurso de importação de modelos personalizados. No momento, esse recurso é compatível somente com as arquiteturas Llama 2/3, Mistral e Flan. Para obter informações adicionais, consulte a documentação.

Disponível em versão prévia pública, a inferência com latência otimizada no Amazon Bedrock oferece latência reduzida sem comprometer a precisão. Conforme verificado pela Anthropic, com inferência otimizada para latência no Amazon Bedrock, o Claude 3.5 Haiku é executado de maneira mais rápida na AWS do que em qualquer outro lugar. Além disso, com inferência otimizada para latência no Bedrock, o Llama 3.1 70B e 405B é executado de maneira mais rápida na AWS do que qualquer outro grande provedor de nuvem. Usando chips de IA criados especificamente, como o AWS Trainium2, e otimizações avançadas de software no Amazon Bedrock, os clientes podem acessar mais opções para otimizar sua inferência para um caso de uso específico.

Principais recursos:

  • Reduz os tempos de resposta das interações do modelo de base
  • Mantém a precisão enquanto melhora a velocidade
  • Não requer configuração adicional ou ajuste fino do modelo

Modelos compatíveis: Claude 3.5 Haiku da Anthropic e Llama 3.1 da Meta, modelos 405B e 70B

 

Disponibilidade: a região Leste dos EUA (Ohio) por meio de inferência entre regiões

 

Para começar a usá-la, acesse o console do Amazon Bedrock. Para mais informações, acesse a documentação do Amazon Bedrock.

O acesso à inferência otimizada para latência no Amazon Bedrock não requer nenhuma configuração adicional ou ajuste fino do modelo, permitindo o aprimoramento imediato dos aplicações de IA generativa existentes com tempos de resposta mais rápidos. Você pode ativar o parâmetro “Latência otimizada” ao invocar a API de inferência do Bedrock.

 

Para começar a usá-la, acesse o console do Amazon Bedrock. Para mais informações, acesse a documentação do Amazon Bedrock.

Atendentes

Os Amazon Bedrock Agents são recursos totalmente gerenciados que facilitam aos desenvolvedores a criação de aplicações baseadas em IA generativa que podem concluir tarefas complexas para uma ampla variedade de casos de uso e fornecer respostas atualizadas com base em fontes de conhecimento patenteadas. Em apenas algumas etapas curtas, os Amazon Bedrock Agents dividem automaticamente as tarefas e criam um plano de orquestração, sem qualquer codificação manual. O agente se conecta com segurança aos dados da empresa por meio de uma API, convertendo automaticamente os dados em um formato legível por máquina e aumentando a solicitação com informações relevantes para gerar a resposta mais precisa. Os agentes podem então chamar automaticamente as APIs para atender à solicitação do usuário. Por exemplo, uma empresa de manufatura pode querer desenvolver uma aplicação de IA generativa que automatize o rastreamento de níveis de estoque, dados de vendas e informações da cadeia de suprimentos e possa recomendar quantidades e pontos de reordenamento ideais para maximizar a eficiência. Como recursos totalmente gerenciados, os Amazon Bedrock Agents eliminam a necessidade indiferenciada de gerenciar a integração de sistemas e o provisionamento de infraestrutura, permitindo que os desenvolvedores usem a IA generativa em toda a organização.

Você pode conectar com segurança as FMs às fontes de dados da sua empresa usando o Amazon Bedrock Agents. Com uma base de conhecimento, você pode usar agentes para dar aos FMs do Amazon Bedrock acesso a dados adicionais que ajudam o modelo a gerar respostas mais relevantes, específicas ao contexto e precisas sem treinar continuamente esses FMs. Com base nas informações do usuário, os agentes identificam a base de conhecimento apropriada, recuperam as informações relevantes e adicionam as informações ao prompt de entrada, fornecendo ao modelo mais informações de contexto para gerar uma conclusão.

O Amazon Bedrock Agents pode ajudar você a aumentar a produtividade, melhorar sua experiência de atendimento ao cliente e automatizar fluxos de trabalho (como o processamento de sinistros de seguro).

Com os agentes, os desenvolvedores têm suporte contínuo para monitoramento, criptografia, concessão de permissões de usuário, versionamento e gerenciamento de invocação de API sem a necessidade de escrever um código personalizado. O Amazon Bedrock Agents automatiza a engenharia de prompts e a orquestração das tarefas solicitadas pelo usuário. Os desenvolvedores podem usar o modelo de prompt criado pelo agente como base para refiná-lo ainda mais e garantir uma experiência aprimorada para os usuários. Eles podem atualizar a entrada do usuário, o plano de orquestração e a resposta do FM. Com acesso ao modelo de prompt, os desenvolvedores têm melhor controle sobre a orquestração do agente.

Com agentes totalmente gerenciados, você não precisa se preocupar em provisionar ou gerenciar a infraestrutura e pode levar as aplicações à produção mais rapidamente.

Segurança

Qualquer conteúdo de cliente processado pelo Amazon Bedrock é criptografado e armazenado em repouso na região da AWS na qual você está usando o Amazon Bedrock.

Não. As entradas de usuários e as saídas de modelos não são compartilhadas com outros provedores de modelos.

O Amazon Bedrock oferece vários recursos para dar suporte a requisitos de segurança e privacidade. O Amazon Bedrock está em conformidade com padrões conhecidos de conformidade, como o FedRAMP Moderado, o Controle de Organizações de Serviço (SOC) e as Normas da Organização Internacional de Normalização (ISO). Além disso, ele é elegível para a Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA), e os clientes podem usar o Bedrock em conformidade com o Regulamento Geral de Proteção de Dados (RGPD). O Amazon Bedrock está incluído no escopo dos relatórios SOC 1, 2 e 3, permitindo que os clientes obtenham insights sobre nossos controles de segurança. Demonstramos a conformidade por meio de auditorias abrangentes de terceiros sobre os controles da AWS. O Amazon Bedrock é um dos serviços da AWS em conformidade com as seguintes normas ISO: ISO 9001, ISO 27001, ISO 27017, ISO 27018, ISO 27701, ISO 22301 e ISO 20000. O Amazon Bedrock tem a certificação CSA Security Trust Assurance and Risk (STAR) de nível 2, que valida o uso de práticas recomendadas e a postura de segurança das ofertas de nuvem AWS. Com o Amazon Bedrock, seu conteúdo não é usado para melhorar os modelos de base e não é compartilhado com outros provedores de modelos. Você pode usar o AWS PrivateLink para estabelecer conectividade privada da VPC com o Amazon Bedrock, sem precisar expor os dados ao tráfego da Internet.

 

Não, a AWS e fornecedores terceirizados de modelos não usarão nenhuma entrada ou saída do Amazon Bedrock para treinar o Amazon Titan ou qualquer modelo de terceiros.

SDK

O Amazon Bedrock é compatível com SDKs para serviços de runtime. Os SDKs do iOS e do Android, bem como Java, JS, Python, CLI, .Net, Ruby, PHP, Go e C++, oferecem suporte à entrada de texto e fala.

O streaming é compatível com todos os SDKs.

Cobrança e suporte

Consulte a página de preços do Amazon Bedrock para obter informações atualizadas sobre os preços.

Dependendo do contrato com o AWS Support, o Amazon Bedrock recebe suporte nos planos Developer Support, Business Support e Enterprise Support.

Você pode usar métricas do CloudWatch para rastrear tokens de entrada e saída.

Personalização

Lançamos o pré-treinamento contínuo para os modelos Amazon Titan Text Express e Amazon Titan no Amazon Bedrock. O pré-treinamento contínuo permite que você continue o pré-treinamento em um modelo básico do Amazon Titan usando grandes quantidades de dados não rotulados. Esse tipo de treinamento adaptará o modelo de um corpus de domínio geral para um corpus de domínio mais específico, como médico, jurídico, financeiro, entre outros, mas preservando a maioria dos recursos do modelo de base do Amazon Titan. 

As empresas querem criar modelos para tarefas em um domínio específico. Os modelos de base talvez não sejam treinados no jargão técnico usado nesse domínio específico. Portanto, o ajuste direto do modelo de base exige grandes volumes de registros rotulados e um treinamento muito longo para obter resultados precisos. Para aliviar essa carga, o cliente pode, em vez disso, fornecer grandes volumes de dados não rotulados para um trabalho de pré-treinamento contínuo. Esse trabalho adaptará o modelo de base do Amazon Titan ao novo domínio. Assim, o cliente pode ajustar o modelo personalizado que acabou de ser pré-treinado para tarefas downstream usando registros de treinamento com um número significativamente menor de rótulos e um tempo de treinamento reduzido. 

O pré-treinamento contínuo e o ajuste fino do Amazon Bedrock têm requisitos muito semelhantes. Por esse motivo, estamos optando por criar APIs unificadas e compatíveis com o pré-treinamento contínuo e o ajuste fino. A unificação das APIs reduz a curva de aprendizado e ajudará os clientes a usar recursos padrão, como o Amazon EventBridge para rastrear trabalhos de longa duração, integração com o Amazon S3 para buscar dados de treinamento, tags de recursos e criptografia de modelos. 

O pré-treinamento contínuo ajuda você a adaptar os modelos do Amazon Titan aos dados específicos do domínio, preservando a funcionalidade básica dos modelos do Amazon Titan. Para criar um trabalho de pré-treinamento contínuo, navegue até o console do Amazon Bedrock e clique em “Modelos personalizados”. Navegue até a página do modelo personalizado que tem duas guias: Modelos e Trabalhos de treinamento. Ambas as guias fornecem um menu suspenso “Personalizar modelo” à direita. Selecione “Pré-treinamento contínuo” no menu suspenso para navegar até “Criar trabalho de pré-treinamento contínuo”. Você fornecerá o modelo de origem, o nome, a criptografia do modelo, os dados de entrada, os hiperparâmetros e os dados de saída. Além disso, você pode fornecer tags junto com detalhes sobre perfis do AWS Identity and Access Management (IAM) e políticas de recursos para o trabalho.

Amazon Titan

Exclusiva do Amazon Bedrock, a família de modelos do Amazon Titan incorpora os 25 anos de experiência da Amazon inovando com IA e machine learning em todos os setores da empresa. Os FMs do Amazon Titan oferecem aos clientes uma variedade de opções de modelos de imagem, multimodais e de texto de alta performance, por meio de uma API totalmente gerenciada. Os modelos do Amazon Titan são criados pela AWS e pré-treinados em grandes conjuntos de dados, o que os torna avançados e prontos para uso geral, criados para dar suporte a uma variedade de casos de uso, além de apoiar o uso responsável da IA. Use-os como estão ou personalize-os de forma privada com seus próprios dados. Saiba mais sobre o Amazon Titan.

Para saber mais sobre os dados processados ​​para desenvolver e treinar modelos de base do Amazon Titan, acesse a página Amazon Titan Model Training and Privacy.

Knowledge Bases/RAG

Você pode ingerir conteúdo de várias fontes, incluindo a web, Amazon Simple Storage Service (Amazon S3), o Confluence (versão prévia), o Salesforce (versão prévia) e o SharePoint (versão prévia). Você também pode ingerir dados de streaming ou dados de fontes não compatíveis de forma programática. Você também pode se conectar às suas fontes de dados estruturadas, como o data warehouse do Redshift e o Catálogo de Dados do AWS Glue.

O Amazon Bedrock Knowledge Bases fornece uma linguagem natural gerenciada para SQL para converter a linguagem natural em consultas SQL acionáveis e recuperar dados, permitindo que você crie aplicações usando dados dessas fontes.

Sim, o gerenciamento do contexto da sessão é integrado, permitindo que suas aplicações mantenham o contexto em várias interações, o que é essencial para suportar conversas em vários turnos.

Sim, todas as informações recuperadas incluem citações, melhorando a transparência e minimizando o risco de alucinações nas respostas geradas.

O Amazon Bedrock Knowledge Bases oferece suporte ao processamento de dados multimodal, permitindo que os desenvolvedores criem aplicações de IA generativa que analisam dados visuais e de texto, incluindo imagens, gráficos, diagramas e tabelas. As respostas do modelo podem aproveitar insights de elementos visuais, além do texto, fornecendo respostas mais precisas e contextualmente relevantes. Além disso, a atribuição de fontes para respostas inclui elementos visuais, aumentando a transparência e a confiança nas respostas.

O Amazon Bedrock Knowledge Bases podem processar documentos visualmente ricos em formato PDF, que podem conter imagens, tabelas, gráficos e diagramas. Para dados somente de imagem, o Bedrock Knowledge Bases oferece suporte a formatos de imagem padrão, como JPEG e PNG, permitindo recursos de pesquisa nos quais os usuários podem recuperar imagens relevantes com base em consultas baseadas em texto.

Os clientes têm três opções de análise para o Bedrock Knowledge Bases. Para processamento somente de texto, o analisador Bedrock padrão integrado está disponível sem custo adicional, ideal para casos em que o processamento multimodal de dados não é necessário. Os modelos do Amazon Bedrock Data Automation (BDA) ou de base podem ser usados para analisar dados multimodais. Para mais informações, consulte a documentação do produto

O Amazon Bedrock Knowledge Bases lida com várias complexidades do fluxo de trabalho, como comparação de conteúdo, tratamento de falhas, controle de throughput e criptografia, garantindo que seus dados sejam processados e gerenciados com segurança de acordo com os rigorosos padrões de segurança da AWS.

Avaliação do modelo

A avaliação de modelo no Amazon Bedrock permite avaliar, comparar e selecionar os melhores FMs para seu caso de uso em apenas algumas etapas curtas. O Amazon Bedrock oferece a opção entre avaliação automática e avaliação humana. Você pode usar a avaliação automática com métricas predefinidas, como precisão, robustez e toxicidade. Você pode usar fluxos de trabalho de avaliação humana para métricas subjetivas ou personalizadas, como simpatia, estilo e alinhamento com o tom de voz da marca. Para a avaliação humana, é possível aproveitar seus próprios funcionários ou uma equipe gerenciada pela AWS como revisores. A avaliação do modelo no Amazon Bedrock fornece conjuntos de dados selecionados integrados, ou você pode trazer seus próprios conjuntos de dados.

Você pode analisar uma variedade de métricas predefinidas, como precisão, robustez e toxicidade, usando avaliações automáticas. Também é possível usar fluxos de trabalho de avaliação humana para métricas subjetivas ou personalizadas, como simpatia, relevância, estilo e alinhamento com o tom de voz da marca.

As avaliações automáticas permitem que você reduza rapidamente a lista de FMs disponíveis em relação aos critérios padrão (como precisão, toxicidade e robustez). As avaliações humanas são frequentemente usadas para avaliar critérios mais sutis ou subjetivos que exigem julgamento humano e nos casos para os quais talvez não existam avaliações automáticas (como tom de voz da marca, intenção criativa, simpatia).

Você pode avaliar rapidamente os modelos do Amazon Bedrock para métricas como precisão, robustez e toxicidade, usando conjuntos de dados integrados selecionados ou trazendo conjuntos de dados de prompts próprios. Depois que os conjuntos de dados de prompts são enviados aos modelos do Amazon Bedrock para inferência, as respostas do modelo são pontuadas com algoritmos de avaliação para cada dimensão. O mecanismo de back-end agrega pontuações individuais de resposta rápida em pontuações resumidas e as apresenta por meio de relatórios visuais fáceis de entender.

O Amazon Bedrock permite que você configure fluxos de trabalho de revisão humana em algumas etapas curtas e aproveite os funcionários internos ou use uma equipe especializada gerenciada pela AWS para avaliar modelos. Por meio da interface intuitiva do Amazon Bedrock, as pessoas podem revisar e dar feedback sobre as respostas do modelo clicando nos polegares para cima ou para baixo, avaliando em uma escala de 1 a 5, escolhendo a melhor das várias respostas ou classificando os prompts. Por exemplo, um membro da equipe pode ver como dois modelos respondem ao mesmo prompt e, em seguida, ser solicitado a selecionar o modelo que mostra resultados mais precisos, relevantes ou estilísticos. É possível especificar os critérios de avaliação que são mais importantes para você personalizando as instruções e os botões que aparecerão na interface do usuário de avaliação da equipe. Você também pode fornecer instruções detalhadas com exemplos e o objetivo geral da avaliação do modelo, para que os usuários possam alinhar o trabalho de maneira adequada. Esse método é útil para avaliar critérios subjetivos que exigem julgamento humano ou conhecimentos mais diferenciados no assunto e que não podem ser facilmente julgados por avaliações automáticas.

IA responsável

O Amazon Bedrock Guardrails ajuda você a implementar salvaguardas para suas aplicações de IA generativa com base nos seus casos de uso e políticas de IA responsável. O Guardrails ajuda a controlar a interação entre usuários e (FMs) filtrando conteúdo indesejável e prejudicial e, em breve, ocultará informações de identificação pessoal (PII), aprimorando a segurança e a privacidade do conteúdo nas aplicações de IA generativa. Você pode criar várias barreiras de proteção com diferentes configurações personalizadas para casos de uso específicos. Além disso, com a barreira de proteção, é possível monitorar e analisar continuamente entradas de usuários e respostas de FMs que possam violar políticas definidas pelo cliente.

O Guardrails auxilia você a definir um conjunto de políticas para ajudar a proteger as aplicações de IA generativa. Em uma barreira de proteção, é possível configurar as políticas a seguir.

  • Verificações de fundamentação contextual: ajudam a detectar e filtrar alucinações se as respostas não estiverem fundamentadas (por exemplo, informações factualmente imprecisas ou novas) nas informações de origem e forem irrelevantes para a consulta ou instrução do usuário.
  • Verificações de raciocínio automatizado: ajudam a detectar imprecisões factuais no conteúdo gerado, sugerem correções e explicam por que as respostas são precisas comparando uma representação matemática estruturada do conhecimento chamada de Política de Raciocínio Automatizado.
  • Filtros de conteúdo: ajudam a configurar limites para detectar e filtrar conteúdo de texto nocivo em categorias como ódio, insultos, sexo, violência, má conduta e ataques de prompts. Além disso, os filtros de conteúdo podem detectar e filtrar conteúdo de imagem prejudicial nessas categorias, ajudando a criar aplicações multimodais seguras.
  • Tópicos negados: ajudam a definir um conjunto de tópicos que não são desejáveis no contexto da aplicação. Por exemplo, um assistente de serviços bancários on-line pode ser projetado para evitar consultorias de investimento.
  • Filtros de palavras: ajudam você a definir um conjunto de palavras para bloquear nas entradas de usuário e nas respostas geradas pelo FM.
  • Filtro de informações confidenciais: ajuda você a reagir a informações confidenciais, como um conjunto de PII que pode ser editado em respostas geradas por FM. Com base no caso de uso, o Guardrails também pode ajudá-lo a bloquear a entrada de um usuário se ela contiver PII.

O Amazon Bedrock Guardrails funcionam com uma ampla variedade de modelos, incluindo FMs compatíveis com o Amazon Bedrock, modelos aperfeiçoados e modelos auto-hospedados fora do Amazon Bedrock. As entradas do usuário e as saídas do modelo podem ser avaliadas de forma independente para modelos de terceiros e auto-hospedados usando a API do ApplyGuardrail. O Amazon Bedrock Guardrails também pode ser integrado ao Amazon Bedrock Agents e ao Amazon Bedrock Knowledge Bases para criar aplicações de IA generativa alinhadas às políticas responsáveis de IA

Existem cinco políticas de barreira de proteção, cada uma com diferentes proteções disponíveis para uso

  • Filtros de conteúdo: existem seis categorias disponíveis para uso, nomeadamente, disseminação de ódio, insultos, conteúdo sexual, violência, comportamento impróprio (incluindo atividades criminosas) e ataques de prompt (jailbreak e injeção de prompt). Cada categoria pode ter limites de filtragem ainda mais personalizados, oferecendo opções de baixa, média ou alta agressividade para conteúdo de texto e de imagem.
  • Tópico negado: são tópicos personalizados que o cliente pode definir usando descrições simples em linguagem natural
  • Filtro de informações confidenciais: inclui mais de 30 PIIs disponíveis para uso. Esse filtro pode ser ainda mais personalizado ao adicionar as informações confidenciais do cliente.
  • Filtros de palavras: inclui filtragem de palavrões disponível para uso e pode ser ajustado de forma adicional com palavras personalizadas.
  • As verificações de fundamento contextual: podem ajudar a detectar alucinações em aplicações de conversas, resumos e RAG, em que as informações de origem podem ser usadas como referência para validar a resposta do modelo.

Existem cinco políticas de barreira de proteção, cada uma com diferentes proteções disponíveis para uso

  • Filtros de conteúdo: existem seis categorias disponíveis para uso, nomeadamente, disseminação de ódio, insultos, conteúdo sexual, violência, comportamento impróprio (incluindo atividades criminosas) e ataques de prompt (jailbreak e injeção de prompt). Cada categoria pode ter limites de filtragem ainda mais personalizados, oferecendo opções de baixa, média ou alta agressividade.
  • Tópico negado: são tópicos personalizados que o cliente pode definir usando descrições simples em linguagem natural
  • Filtro de informações confidenciais: inclui mais de 30 PIIs disponíveis para uso. Esse filtro pode ser ainda mais personalizado ao adicionar as informações confidenciais do cliente.
  • Filtros de palavras: inclui filtragem de palavrões disponível para uso e pode ser ajustado de forma adicional com palavras personalizadas.
  • As verificações de fundamento contextual: podem ajudar a detectar alucinações em aplicações de conversas, resumos e RAG, em que as informações de origem podem ser usadas como referência para validar a resposta do modelo.

O modelo de base tem salvaguardas nativas e são as proteções padrão associadas a cada modelo. Essas proteções nativas NÃO fazem parte do Amazon Bedrock Guardrails. O Amazon Bedrock Guardrails é uma camada adicional de proteções personalizadas que podem ser aplicadas opcionalmente pelo cliente com base nos requisitos de suas aplicações e em políticas de IA responsável.


Como parte do Amazon Bedrock Guardrails, o SSN e a detecção de números de telefone fazem parte das mais de 30 PIIs disponíveis no mercado. Consulte a lista completa aqui.

Há um custo separado para usar o Amazon Bedrock Guardrails. Esse custo é aplicável tanto para a entrada quanto para a saída. Os preços estão disponíveis ao final da página disponibilizada aqui. Os preços do suporte de imagens com filtros de conteúdo (atualmente em versão prévia pública) serão anunciados durante a disponibilidade geral (GA).

Há um custo separado para usar o Amazon Bedrock Guardrails. Esse custo é aplicável tanto para a entrada quanto para a saída. Os preços estão disponíveis ao final da página disponibilizada aqui.

Sim, as APIs do Amazon Bedrock Guardrail ajudam os clientes a executar testes automatizados. O uso do “criador de casos de teste” pode ser recomendável antes da implantação de barreiras de proteção na produção. Ainda não existe um criador de casos de teste nativo. Para o monitoramento contínuo do tráfego de produção, as barreiras de proteção ajudam a fornecer registros detalhados de todas as violações para cada entrada e saída. Dessa forma, os clientes podem monitorar, de maneira granular, cada entrada e cada saída da aplicação com tecnologia de IA generativa. Esses logs podem ser armazenados no CloudWatch ou no S3 e podem ser usados ​​para criar painéis personalizados com base nos requisitos dos clientes.

Usando uma política de raciocínio automatizado, as verificações de raciocínio automatizado podem apontar afirmações precisas e imprecisões factuais no conteúdo. Para declarações precisas e imprecisas, a verificação de raciocínio automatizado fornece explicações lógicas e verificáveis para sua saída. A verificação do raciocínio automatizado exige o envolvimento inicial de um especialista do domínio para criar uma política e só oferece suporte a conteúdo que define regras. Por outro lado, as verificações contextuais de fundamentação no Bedrock Guardrails usam técnicas de machine learning para garantir que o conteúdo gerado acompanhe de perto os documentos que foram fornecidos como entrada de uma base de conhecimento, sem exigir nenhum trabalho inicial adicional. Tanto as verificações de raciocínio automatizado quanto a fundamentação de contexto fornecem seus comentários na saída da API do Guardrail. Você pode usar o feedback para atualizar o conteúdo gerado.

Marketplace

O Amazon Bedrock Marketplace oferece aos clientes mais de 100 modelos populares, emergentes ou especializados, além dos FMs sem servidor do Amazon Bedrock, para que os clientes possam criar e otimizar facilmente suas aplicações de IA generativa. No console Amazon Bedrock, os clientes poderão descobrir um amplo catálogo de FMs oferecidos por vários fornecedores. Em seguida, você pode implantar esses modelos em endpoints totalmente gerenciados, onde você pode escolher o número desejado de instâncias e tipos de instância. Depois que os modelos são implantados, eles podem ser acessados por meio da API Invoke do Amazon Bedrock. Para modelos de texto para texto ajustados por chat, os clientes podem usar nossa nova API Converse, uma API unificada que abstrai as diferenças de FMs e permite a troca de modelos com uma única alteração de parâmetro. Quando aplicável, os modelos podem ser usados com o Amazon Bedrock Playground, Agents, Knowledge Bases, Prompt Management, Prompt Flows, Guardrails e Model Evaluation.

Você deve usar o Amazon Bedrock Marketplace para se beneficiar dos modelos avançados que estão surgindo rapidamente à medida que o setor de IA generativa continua inovando. Você pode acessar e implantar rapidamente modelos populares, emergentes e especializados, personalizados para seus requisitos exclusivos, que podem acelerar o tempo de colocação no mercado, melhorar a precisão ou reduzir o custo de seus fluxos de trabalho de IA generativa. Você pode acessar os modelos por meio das APIs unificadas do Bedrock e, se eles forem compatíveis com a API Converse do Bedrock, usá-los de forma nativa com as ferramentas do Bedrock, como Agents, Knowledge Bases e Guardrails. Você pode conectar facilmente o Amazon Bedrock Marketplace aos modelos sem servidor do Amazon Bedrock, tudo em um único lugar.
 

Basta navegar até a página Catálogo de modelos do Amazon Bedrock no console do Bedrock, onde você pode pesquisar listas de modelos do Amazon Bedrock Marketplace junto com os modelos do Amazon Bedrock sem servidor. Depois de selecionar o modelo do Amazon Bedrock Marketplace que você deseja usar, você pode assinar o modelo por meio da página de detalhes do modelo, aceitando o EULA e os preços definidos pelo fornecedor. Depois que a assinatura for concluída, o que normalmente leva alguns minutos, você pode implantar o modelo em um endpoint totalmente gerenciado do SageMaker clicando em Implantar na página de detalhes do modelo ou usando APIs. Na etapa de implantação, você pode selecionar o número desejado de instâncias e tipos de instância para atender à sua workload. Depois que o endpoint estiver configurado, o que normalmente leva de 10 a 15 minutos, você pode começar a fazer chamadas de inferência para o endpoint e usar o modelo nas ferramentas avançadas do Bedrock, desde que o modelo seja compatível com a API Converse da Bedrock.

Modelos com arquiteturas com suporte pela importação de modelos personalizados (Mistral, Mixtral, Flan e Llama2/3/3.1/3.2) podem ser ajustados no SageMaker e disponibilizados no Amazon Bedrock por meio da importação de modelos personalizada. Os modelos que não são têm suporte pela importação de modelos personalizada ainda podem ser ajustados no SageMaker. No entanto, a versão ajustada desses modelos não pode ser usada no Amazon Bedrock.

Data Automation

O que é Bedrock Data Automation? O Amazon Bedrock Data Automation é um recurso do Bedrock desenvolvido pela GenAI que simplifica o desenvolvimento de aplicações de IA generativa e automatiza fluxos de trabalho envolvendo documentos, imagens, áudio e vídeos. Ao aproveitar o Bedrock Data Automation, os desenvolvedores podem reduzir o tempo e o esforço de desenvolvimento, facilitando a criação de processamento inteligente de documentos, análise de mídia e outras soluções de automação multimodais centradas em dados. O Bedrock Data Automation oferece a melhor precisão do setor a um custo menor do que soluções alternativas, além de atributos como base visual com pontuações de confiança para explicabilidade e mitigação integrada de alucinações. Isso garante insights confiáveis e precisos de fontes de dados multimodais não estruturadas. Os clientes podem personalizar de forma fácil a saída do Bedrock Data Automation para gerar insights específicos em formatos consistentes exigidos por seus sistemas e aplicativos. Os desenvolvedores começam a usar o Bedrock Data Automation no console do Amazon Bedrock, onde podem configurar e personalizar a saída usando seus dados de amostra. Em seguida, eles podem integrar a API unificada de inferência multimodal do Bedrock Data Automation em suas aplicações para processar seu conteúdo não estruturado em escala de produção com alta precisão e consistência. O Bedrock Data Automation também está integrado ao Bedrock Knowledge Bases, facilitando aos desenvolvedores a geração de informações significativas a partir de seu conteúdo multimodal não estruturado para fornecer respostas mais relevantes para a geração aumentada via recuperação (RAG).

O Bedrock Data Automation facilita a transformação de dados corporativos não estruturados em formatos de saída específicos da aplicação que podem ser utilizados por aplicações de IA generativa e fluxos de trabalho de ETL. Os clientes não precisam mais gastar tempo e esforço gerenciando e orquestrando vários modelos, engenharias de prompts, implementando barreiras de proteção ou juntando saídas para alinhá-las aos requisitos de refino e distribuição do sistema. O Bedrock Data Automation oferece processamento altamente preciso, consistente e econômico de dados não estruturados. O Bedrock Data Automation foi desenvolvido com a IA responsável em mente, fornecendo aos clientes os principais atributos, como fundamentação visual e pontuações de confiança, que facilitam a integração do Bedrock Data Automation nos fluxos de trabalho corporativos.

Os recursos do Bedrock Data Automation estão disponíveis por meio de uma API totalmente gerenciada que os clientes podem integrar facilmente em suas aplicações. Os clientes não precisam se preocupar em escalar os recursos computacionais subjacentes, selecionar e orquestrar modelos ou gerenciar prompts para FMs.

Um esquema é um atributo que os clientes usam para especificar seus requisitos de saída usando linguagem natural ou um editor de esquemas. Ele inclui uma lista de campos que eles desejam extrair, um formato de dados para cada campo e instruções em linguagem natural para cada campo. Por exemplo, os desenvolvedores podem digitar “Crie um esquema para faturas com os seguintes campos: imposto, data de vencimento, data de recebimento” ou “Confirme se o total da fatura corresponde à soma dos itens de linha”. Eles fazem referência aos esquemas como parte das chamadas de API de inferência para que o sistema retorne as informações no formato descrito no esquema.

Documentos

O Bedrock Data Automation é compatível tanto com a saída padrão quanto com a saída personalizada para documentos.

  • A saída padrão fornecerá extração de texto de documentos e saída generativa, como resumo do documento e legendas para tabelas/figuras/diagramas. A saída é retornada em ordem de leitura e, opcionalmente, pode ser agrupada por elemento de layout, que incluirá cabeçalhos/rodapés/títulos/tabelas/figuras/diagramas. A saída padrão será usada para integração do BDA com o Bedrock Knowledge Bases.
  • A saída personalizada aproveita os esquemas, que especificam os requisitos de saída usando linguagem natural ou um editor de esquema. Os esquemas incluem uma lista de campos a serem extraídos e um formato de dados para cada campo.

O Bedrock Data Automation é compatível com PDF, PNG, JPG, TIFF, no máximo 100 páginas e um tamanho máximo de arquivo de 500 MB por solicitação de API. O BDA suportará uma simultaneidade máxima de 5 pacotes de documentos e throughput de 1 página por segundo por cliente.

Imagens
O Bedrock Data Automation suporta tanto a saída padrão quanto a saída personalizada para imagens.

  • A saída padrão fornecerá resumo, conteúdo explícito detectado, texto detectado e taxonomia do anúncio: IAB para imagens. A saída padrão será usada para integração do BDA com o Bedrock Knowledge Bases.
  • A saída personalizada aproveita os esquemas, que especificam os requisitos de saída usando linguagem natural ou um editor de esquema. Os esquemas incluem uma lista de campos a serem extraídos e um formato de dados para cada campo.

O Bedrock Data Automation será compatível com JPG, PNG, resolução máxima de 4K e tamanho máximo de arquivo de 5 MB por solicitação de API. O BDA será compatível com uma simultaneidade máxima de 100 imagens a 1 imagem por segundo por cliente.

Vídeos

O Bedrock Data Automation é compatível com ambas as saídas padrão para vídeos.

  • A saída padrão fornecerá resumo completo do vídeo, segmentação da cena, resumo da cena, transcrição completa do áudio, identificação do locutor, conteúdo explícito detectado, texto detectado e taxonomia do Interactive Advertising Bureau (IAB) para vídeos. O resumo completo do vídeo é otimizado para conteúdo com diálogos descritivos, como visões gerais de produtos, treinamentos, noticiários e documentários.

O Bedrock Data Automation será compatível com MOV e MKV com H.264, duração máxima de vídeo de 4 horas e tamanho máximo de arquivo de 2 GB por solicitação de API. O BDA será compatível com uma simultaneidade máxima de 25 vídeos a 20 minutos de vídeo por minuto por cliente.

Áudio

O Bedrock Data Automation é compatível com ambas as saídas padrão para áudio.

  • A saída padrão fornecerá resumo, transcrição completa e conteúdo explícito detectado para arquivos de áudio.

O Bedrock Data Automation será compatível com FLAC, M4A, MP3, MP4, Ogg, WebM, WAV, uma duração máxima de áudio de 4 horas e um tamanho máximo de arquivo de 2 GB por solicitação de API. A saída padrão fornecerá resumo, transcrição completa e conteúdo explícito detectado para arquivos de áudio.

Atualmente, o Amazon Bedrock Data Automation está disponível na região Oeste dos EUA (Oregon).

IDE

O Amazon Bedrock IDE (versão prévia) é um ambiente colaborativo controlado integrado ao Amazon SageMaker Unified Studio (versão prévia) que permite aos desenvolvedores criar e iterar rapidamente aplicações de IA generativa usando modelos de base (FMs) de alto desempenho. Ele fornece uma interface intuitiva para experimentar esses modelos, colaborar em projetos e agilizar o acesso a várias ferramentas e recursos do Bedrock, a fim de criar aplicações de IA generativa rapidamente.

Para acessar o Amazon Bedrock IDE no Amazon SageMaker Unified Studio, os desenvolvedores e seus administradores precisarão seguir estas etapas:

  1. Crie um novo domínio no Amazon SageMaker Unified Studio.
  2. Ative o perfil do projeto de desenvolvimento de aplicações de IA generativa.
  3. Acesse o Amazon Bedrock IDE usando as credenciais de autenticação única (SSO) da empresa no Amazon SageMaker Unified Studio.

O Amazon Bedrock IDE, agora integrado ao Amazon SageMaker Unified Studio, se baseia no Amazon Bedrock Studio (versão prévia) com várias melhorias importantes. Ele fornece acesso a modelos avançados de IA de empresas líderes, ferramentas para criar e testar prompts de IA e integração perfeita com o Bedrock Knowledge Bases, Guardrails, Flows e Agents. As equipes podem colaborar em um espaço de trabalho compartilhado para criar aplicações de IA personalizadas de acordo com suas necessidades.

Os novos atributos do Bedrock IDE incluem um hub de modelos para comparação de modelos de IA lado a lado, um playground expandido que oferece suporte a interações de chat, imagem e vídeo e a criação aprimorada do Knowledge Base com crawling da web. Ele introduz a criação de agentes para aplicações de chat mais complexos e simplifica o compartilhamento de aplicativos e prompts de IA nas organizações. O Bedrock IDE também oferece acesso ao código do aplicativo subjacente e a capacidade de exportar aplicativos de chat como modelos do CloudFormation. Ao gerenciar os detalhes da infraestrutura da AWS, ele permite que usuários de vários níveis de habilidade criem aplicações de IA com mais eficiência, tornando-a uma ferramenta mais versátil e poderosa do que sua antecessora.

O Amazon Bedrock IDE permite a colaboração entre equipes ao fornecer um ambiente de desenvolvimento governado dentro do Amazon SageMaker Unified Studio. As equipes podem criar projetos, convidar colegas e criar juntos aplicações de IA generativa. Elas podem receber feedback rápido sobre seus protótipos e compartilhar as aplicações com qualquer pessoa no Amazon SageMaker Unified Studio ou com usuários específicos no domínio. Controles de acesso e atributos de governança robustos permitem que somente membros autorizados acessem recursos do projeto, como dados ou aplicações de IA generativa, apoiando a privacidade e a conformidade dos dados e, assim, promovendo a colaboração e o compartilhamento interfuncionais seguros. Além disso, aplicações de IA generativa podem ser compartilhadas de um construtor para usuários específicos no domínio do Amazon SageMaker Unified Studio ou com indivíduos específicos, permitindo direitos de acesso, controles e governança adequados desses ativos.

A integração do Amazon Bedrock IDE com o Amazon SageMaker Unified Studio representa a iniciativa da AWS de simplificar e agilizar o desenvolvimento de IA generativa. Essa integração cria um ambiente abrangente que elimina as barreiras entre dados, ferramentas e desenvolvedores, permitindo a criação e a implantação eficientes de aplicações de IA generativa.

O ambiente unificado permite uma colaboração perfeita entre desenvolvedores de vários níveis de habilidade ao longo do ciclo de vida do desenvolvimento, desde a preparação de dados até o desenvolvimento de modelos e a criação de aplicações de IA generativa. As equipes podem acessar ferramentas integradas para criação de base de conhecimento, ajuste fino de modelos e desenvolvimento de aplicações de IA generativa de alto desempenho, tudo dentro de uma estrutura segura e governada.

No Amazon SageMaker Unified Studio, os desenvolvedores podem alternar facilmente entre diferentes ferramentas com base em suas necessidades, combinando análises, machine learning e recursos de IA generativa em um único espaço de trabalho. Essa abordagem consolidada reduz a complexidade do desenvolvimento e acelera o tempo de geração de valor para projetos de IA generativa.

Ao trazer o Amazon Bedrock IDE para o Amazon SageMaker Unified Studio, a AWS reduz as barreiras de entrada para o desenvolvimento de IA generativa e, ao mesmo tempo, mantém a segurança e a governança de nível empresarial, permitindo que as organizações inovem de forma mais rápida e eficaz com a IA generativa.
 

Atualmente, o Amazon Bedrock Studio está disponível como um atributo de pré-visualização acessado por meio do Console de Gerenciamento da AWS. Agora, o Amazon Bedrock Studio foi renomeado para Amazon Bedrock IDE e está em versão prévia no Amazon SageMaker Unified Studio e fornece um ambiente dedicado para criar, avaliar e compartilhar aplicações de IA generativa com recursos avançados, como Knowledge Bases, Guardrails, Agents, Flows e ferramentas de engenharia de prompts. Essa integração com o Amazon SageMaker Unified Studio oferece uma experiência de desenvolvimento mais rica em recursos, governada e colaborativa em comparação com a versão prévia anterior no Console de Gerenciamento da AWS.

Todo o Amazon Bedrock Studio faz parte do Amazon SageMaker Unified Studio sob o Amazon Bedrock IDE. O playground de IA generativa, disponível na seção “Descobrir” do Amazon SageMaker Unified Studio, permite que você experimente modelos de base (FMs) e quaisquer aplicações de IA generativa compartilhadas por seus colegas por meio de uma interface conversacional. O Amazon Bedrock IDE, o ambiente completo de aplicações de IA generativa, está localizado na seção “Criar” do Amazon SageMaker Unified Studio e pode ser acessado por meio de projetos.

Sobre quando usar cada oferta:

  • O Amazon Bedrock Studio existente no Console de Gerenciamento da AWS: você pode continuar usando o Amazon Bedrock Studio existente no Console da AWS para projetos em andamento até 28/02/2025. Após essa data, o suporte será encerrado. Você precisará configurar um novo domínio do Amazon SageMaker que inclua o Amazon Bedrock IDE para acessá-lo no ambiente governado do Amazon SageMaker.
  • O playground de IA generativa no Amazon SageMaker Unified Studio (seção Descobrir): use os playgrounds de chat, imagem e vídeo para a experimentação inicial com FMs, testando diferentes modelos e configurações antes de criar aplicações no Amazon Bedrock IDE.
  • O Amazon Bedrock IDE no Amazon SageMaker Unified Studio (seção Criar): utilize o Amazon Bedrock IDE, disponível na seção Criar, para aproveitar os recursos avançados para criar aplicações de IA generativa prontas para produção. Isso inclui governança integrada, colaboração segura, Knowledge Bases, Agents, Flows, Guardrails e ferramentas de engenharia de prompts.

O Amazon Bedrock IDE é um ambiente colaborativo governado focado na criação de aplicações de IA generativa usando modelos de base (FMs). Integrado ao Amazon SageMaker Unified Studio, ele fornece uma interface intuitiva para acessar e experimentar os FMs de alto desempenho do Bedrock, bem como ferramentas para personalização, como Knowledge Bases, Guardrails, Agents e Flows.

No Amazon SageMaker Unified Studio, o Amazon Bedrock IDE se integra perfeitamente aos recursos de análise, machine learning (ML) e inteligência artificial generativa do Amazon SageMaker. Os usuários podem aproveitar os serviços de análise para gerar insights a partir de seus dados, criar modelos de ML usando as ferramentas de treinamento e implantação de IA do Amazon SageMaker e combinar esses componentes com aplicações de IA generativa criados no Amazon Bedrock IDE. Esse ambiente unificado permite o desenvolvimento de ponta a ponta de aplicações orientadas por dados que combinam recursos de análise, ML e IA generativa. Os usuários podem criar e implantar modelos de ML e IA generativa, criar e compartilhar aplicações de IA generativa personalizadas com dados proprietários e personalizações e simplificar a colaboração, tudo dentro do mesmo ambiente governado do Amazon SageMaker Unified Studio
 

Os usuários existentes do Amazon Bedrock Studio que acessaram o serviço por meio do Console de Gerenciamento da AWS não podem migrar diretamente seus projetos para o Amazon SageMaker Unified Studio. Para acessar o Amazon Bedrock IDE no ambiente governado do Amazon SageMaker, os desenvolvedores e seus administradores precisarão criar um novo domínio no Amazon SageMaker Unified Studio, habilitar o perfil do projeto de desenvolvimento de aplicações de IA generativa e acessar o Amazon Bedrock IDE usando as credenciais de autenticação única (SSO) da empresa no Amazon SageMaker Unified Studio.

No entanto, os usuários existentes podem continuar acessando o Amazon Bedrock Studio (versão prévia) por meio do Console de Gerenciamento da AWS até 28/02/2025. Após essa data, será necessário fazer a transição para a nova experiência do Amazon Bedrock IDE no Amazon SageMaker Unified Studio.

O Amazon Bedrock IDE no Amazon SageMaker Unified Studio está sujeito aos limites e cotas de conta definidos para a plataforma e os recursos subjacentes do Amazon Bedrock, como modelos de base (FMs), Knowledge Bases, Agents, Flows e Guardrails.

O Amazon Bedrock IDE não possui custos adicionais, e os usuários pagam apenas pelo uso dos recursos subjacentes que são exigidos pelas aplicações de IA generativa que eles criam. Por exemplo, os clientes pagarão apenas pelo modelo associado pelo Guardrails e Knowledge Base usaram em sua aplicação de IA generativa. Para mais informações, acesse a página de preços do Amazon Bedrock.

O Amazon Bedrock IDE no Amazon SageMaker Unified Studio está vinculado aos mesmos SLAs do Amazon Bedrock. Para mais informações, visite a página do Contrato de Nível de Serviço do Amazon Bedrock.

Para facilitar uma experiência de integração tranquila com o Amazon Bedrock IDE no Amazon SageMaker Unified Studio, você pode encontrar documentação detalhada no Guia do usuário do Amazon Bedrock IDE. Se você tiver alguma dúvida adicional ou precisar de mais ajuda, não hesite em entrar em contato com sua equipe de contas da AWS.