Preguntas frecuentes sobre Amazon Bedrock

Aspectos generales

Amazon Bedrock es un servicio totalmente administrado que ofrece una selección de modelos fundacionales (FM) líderes del sector, junto con un amplio conjunto de capacidades que usted necesita para crear aplicaciones de IA generativas, lo que simplifica el desarrollo con seguridad, privacidad e IA responsable. Con las capacidades integrales de Amazon Bedrock, puede experimentar una variedad de los principales FM, personalizarlos de forma privada con sus datos mediante técnicas como el ajuste y la recuperación de la generación aumentada (RAG), y crear agentes gestionados que ejecuten tareas empresariales complejas, desde la reserva de viajes y el procesamiento de reclamaciones de seguros hasta la creación de campañas publicitarias y la gestión del inventario, todo ello sin necesidad de escribir ningún código. Dado que Amazon Bedrock no tiene servidores, no tiene que administrar ninguna infraestructura y puede integrar e implementar de forma segura capacidades de IA generativa en sus aplicaciones mediante los servicios de AWS que ya conoce.

Existen cinco motivos por los que debería usar Amazon Bedrock para crear aplicaciones de IA generativa.

  • Selección de FM destacados: Amazon Bedrock ofrece una experiencia de desarrollador fácil de usar para trabajar con una amplia gama de FM de alto rendimiento de Amazon y empresas líderes en IA, como AI21 Labs, Anthropic, Cohere, Meta, Mistral AI y Stability AI. Puede experimentar rápidamente con una variedad de máquinas virtuales en el campo de juego y usar una única API para realizar inferencias independientemente de los modelos que elija, lo que le brinda la flexibilidad de usar máquinas virtuales de diferentes proveedores y mantenerse al día con las últimas versiones de los modelos con cambios de código mínimos.
  • Personalización sencilla de los modelos con sus datos: personalice FM con sus propios datos a través de una interfaz visual sin escribir ningún código. Solo tiene que seleccionar los conjuntos de datos de entrenamiento y validación almacenados en Amazon Simple Storage Service (Amazon S3) y, si es necesario, ajustar los hiperparámetros para lograr el mejor rendimiento posible del modelo.
  • Agentes totalmente administrados que pueden invocar API de forma dinámica para ejecutar tareas: cree agentes que ejecuten tareas empresariales complejas, desde la reserva de viajes y el procesamiento de reclamaciones de seguros hasta la creación de campañas publicitarias, la preparación de las declaraciones de impuestos y la gestión de su inventario, mediante llamadas dinámicas a los sistemas y las API de su empresa. Los agentes totalmente gestionados para Amazon Bedrock amplían las capacidades de razonamiento de los FM para desglosar las tareas, crear un plan de orquestación y ejecutarlo.
  • Soporte nativo para RAG a fin de ampliar la potencia de los FM con datos propietarios: con las bases de conocimiento de Amazon Bedrock, puede conectar de forma segura los FM a sus orígenes de datos para aumentar la recuperación (desde el servicio administrado), lo que ampliará las ya potentes capacidades del FM y hará que conozca mejor su dominio y organización específicos.
  • Certificaciones de conformidad y seguridad de los datos: Amazon Bedrock ofrece varias capacidades para cumplir con los requisitos de seguridad y privacidad. Amazon Bedrock cumple con los estándares de conformidad comunes, como el Control de Servicios y Organizaciones (SOC), la Organización Internacional de Normalización (ISO) y la Ley de Portabilidad y Responsabilidad de los Seguros Médicos (HIPAA), y los clientes pueden usar Amazon Bedrock de conformidad con el Reglamento General de Protección de Datos (GDPR). Amazon Bedrock cuenta con la certificación CSA Registro de seguridad, confianza y garantía (STAR) de nivel 2, que valida el uso de las prácticas recomendadas y la postura de seguridad de las ofertas en la nube de AWS. Con Amazon Bedrock, su contenido no se utiliza para mejorar los modelos base ni se comparte con ningún proveedor de modelos. Los datos de Amazon Bedrock están siempre cifrados, tanto en tránsito como en reposo, y usted puede optar por cifrarlos con sus propias claves. Puede usar AWS PrivateLink con Amazon Bedrock para establecer una conectividad privada entre los FM y su Amazon Virtual Private Cloud (Amazon VPC) sin exponer su tráfico a Internet.

Es posible comenzar rápidamente a utilizar la experiencia sin servidor de Amazon Bedrock. Navegue hasta Amazon Bedrock en la consola de administración de AWS y pruebe los FM en el área de juego. También puede crear un agente y probarlo en la consola. Una vez que haya identificado su caso de uso, podrá integrar fácilmente las máquinas virtuales en sus aplicaciones mediante las herramientas de AWS sin tener que gestionar ninguna infraestructura.
Enlace al Curso de introducción a Amazon Bedrock
Enlace a la Guía del usuario de Amazon Bedrock

Amazon Bedrock trabaja con AWS Lambda para invocar acciones, Amazon S3 para los datos de entrenamiento y validación, y Amazon CloudWatch para el seguimiento de las métricas.

Puede empezar a trabajar en los casos de uso rápidamente:

  • Cree nuevo contenido original, como historias cortas, ensayos, publicaciones en redes sociales y textos de páginas web.
  • Busque, encuentre y sintetice información para responder a las preguntas a partir de un gran conjunto de datos.
  • Cree imágenes realistas y artísticas de diversos temas, entornos y escenas a partir de las indicaciones lingüísticas.
  • Ayude a los clientes a encontrar lo que buscan con recomendaciones de productos más pertinentes y contextuales que con la coincidencia de palabras.
  • Obtenga un resumen de contenido de texto, como artículos, publicaciones de blog, libros y documentos, para entender la esencia sin tener que leer todo el contenido.
  • Sugerí productos que se ajusten a las preferencias del comprador y a sus compras anteriores

Explore más casos de uso de IA generativa.

Amazon Bedrock ofrece un área de juego que le permite experimentar con varios FM mediante una interfaz de chat conversacional. Puede proporcionar un mensaje y utilizar una interfaz web dentro de la consola para proporcionar un mensaje y utilizar los modelos previamente entrenados para generar texto o imágenes, o bien utilizar un modelo ajustado que se haya adaptado a su caso de uso.

Para obtener una lista de las regiones de AWS en las que Amazon Bedrock está disponible, consulte Puntos de conexión y cuotas de Amazon Bedrock en la Guía de referencia de Amazon Bedrock.

Puede ajustar fácilmente los FM en Amazon Bedrock con datos etiquetados o mediante la característica de preentrenamiento continuo para personalizar el modelo con datos no etiquetados. Para empezar, proporcione el conjunto de datos de entrenamiento y validación, configure los hiperparámetros (épocas, tamaño del lote, velocidad de aprendizaje, pasos de calentamiento) y envíe el trabajo. En un par de horas, podrá acceder a su modelo ajustado con la misma API (InvokeModel).

Sí, puede entrenar modelos seleccionados disponibles públicamente e importarlos a Amazon Bedrock mediante la característica de importación de modelos personalizados. Actualmente, esta característica solo es compatible con las arquitecturas Llama 2/3, Mistral y Flan. Para obtener más información, consulte la documentación.

Disponible en versión preliminar pública, la inferencia optimizada para la latencia en Amazon Bedrock ofrece una latencia reducida sin comprometer la precisión. Según lo verificado por Anthropic, con la inferencia optimizada para la latencia en Amazon Bedrock, Claude 3.5 Haiku se ejecuta más rápido en AWS que en cualquier otro lugar. Además, con la inferencia optimizada para la latencia en Bedrock, Llama 3.1 70B y 405B se ejecuta más rápido en AWS que en cualquier otro proveedor de nube importante. Cuando utilizan chips de IA diseñados específicamente, como AWS Trainium2 y optimizaciones de software avanzadas en Amazon Bedrock, los clientes pueden acceder a más opciones para optimizar sus inferencias para un caso de uso concreto.

Características principales:

  • Reduce los tiempos de respuesta para las interacciones del modelo básico.
  • Mantiene la precisión a la vez que mejora la velocidad.
  • No requiere configuración adicional ni refinar el modelo.

Modelos compatibles: Claude 3.5 Haiku de Anthropic y Llama 3.1 de Meta, modelos 405B y 70B

 

Disponibilidad: la región este de EE. UU. (Ohio) mediante inferencia interregional

 

Para comenzar, visite la consola de Amazon Bedrock. Para obtener más información, visite la documentación de Amazon Bedrock.

El acceso a la inferencia optimizada para la latencia en Amazon Bedrock no requiere ninguna configuración adicional ni refinar el modelo, lo que permite la mejora inmediata de las aplicaciones de IA generativa existentes con tiempos de respuesta más rápidos. Puede activar el parámetro “Latencia optimizada” mientras invoca la API de inferencia de Bedrock.

 

Para empezar, visite la consola de Amazon Bedrock. Para obtener más información, visite la documentación de Amazon Bedrock.

Agentes

Los agentes de Amazon Bedrock son capacidades totalmente administradas que facilitan a los desarrolladores la creación de aplicaciones basadas en IA generativa que pueden completar tareas complejas para una amplia gama de casos de uso y ofrecer respuestas actualizadas basadas en orígenes de conocimiento propios. En unos pocos pasos, los agentes de Amazon Bedrock desglosan automáticamente las tareas y crean un plan de orquestación, sin necesidad de codificación manual. El agente se conecta de forma segura a los datos de la empresa a través de una API, convierte automáticamente los datos en un formato legible por máquina y aumenta la solicitud con información relevante para generar la respuesta más precisa. A continuación, los agentes llaman de manera automática a las API para cumplir con la solicitud de un usuario. Por ejemplo, una empresa de fabricación podría querer desarrollar una aplicación de IA generativa que automatice el seguimiento de los niveles de inventario, los datos de ventas y la información de la cadena de suministro y que pueda recomendar puntos de pedido y cantidades óptimas para maximizar la eficiencia. Al tratarse de capacidades totalmente administradas, los agentes de Amazon Bedrock eliminan la carga no diferenciada que supone administrar la integración de sistemas y el aprovisionamiento de infraestructuras, lo que permite a los desarrolladores aprovechar al máximo la IA generativa en toda su organización.

Puede conectar de forma segura los FM a los orígenes de datos de su empresa mediante los agentes de Amazon Bedrock. Con una base de conocimientos, puede utilizar agentes para dar a los modelos fundacionales (FM) de Amazon Bedrock acceso a datos que les ayuden a generar respuestas más relevantes, específicas del contexto y precisas sin tener que volver a entrenar continuamente el FM. En función de las entradas del usuario, los agentes identifican la base de conocimientos adecuada, recuperan la información relevante y la agregan a la solicitud de entrada, lo que proporciona al modelo más información contextual para generar una finalización.

Los agentes de Amazon Bedrock pueden ayudarlo a aumentar la productividad, mejorar la experiencia de servicio al cliente y automatizar los flujos de trabajo (como la tramitación de reclamaciones de seguros).

Gracias a los agentes, los desarrolladores tienen un soporte perfecto para la supervisión, el cifrado, los permisos de usuario, el control de versiones y la administración de invocaciones de API sin necesidad de escribir código personalizado. Los agentes de Amazon Bedrock automatizan la ingeniería de peticiones y la orquestación de las tareas solicitadas por los usuarios. Los desarrolladores pueden utilizar la plantilla de solicitudes creada por el agente como referencia para perfeccionarla aún más y mejorar la experiencia del usuario. Pueden actualizar la entrada del usuario, el plan de orquestación y la respuesta del FM. Con el acceso a la plantilla de solicitudes, los desarrolladores tienen un mejor control sobre la orquestación del agente.

Con los agentes completamente administrados, no tiene que preocuparse por el aprovisionamiento o la administración de la infraestructura y puede llevar las aplicaciones a producción con mayor rapidez.

Seguridad

Todo el contenido que se procesa con Amazon Bedrock se cifra y almacena en reposo en la región de AWS en la que está usando el servicio.

No. Las entradas de los usuarios y las salidas de los modelos no se comparten con ningún proveedor de modelos.

Amazon Bedrock ofrece varias capacidades para cumplir con los requisitos de seguridad y privacidad. Amazon Bedrock cumple con los estándares de conformidad comunes, como el FedRAMP Moderate, el Control de Servicios y Organizaciones (SOC), la Organización Internacional de Normalización (ISO) y la Ley de Portabilidad y Responsabilidad de los Seguros Médicos (HIPAA) y los clientes pueden usar Bedrock de conformidad con el Reglamento General de Protección de Datos (GDPR). Amazon Bedrock se incluye en el ámbito de los informes SOC 1, 2 y 3, lo que permite a los clientes obtener información sobre nuestros controles de seguridad. La conformidad se demuestra a través de exhaustivas auditorías de los controles de AWS que llevan a cabo terceros. Amazon Bedrock es ahora uno de los servicios de AWS que cumple con los requisitos de ISO para las normas ISO 9001, ISO 27001, ISO 27017 e ISO 27018, ISO 27701, ISO 22301 e ISO 20000. Amazon Bedrock cuenta con la certificación CSA Registro de seguridad, confianza y garantía (STAR) de nivel 2, que valida el uso de las prácticas recomendadas y la postura de seguridad de las ofertas en la nube de AWS. Con Amazon Bedrock, su contenido no se utiliza para mejorar los modelos base ni se comparte con ningún proveedor de modelos. Puede utilizar AWS PrivateLink para establecer una conectividad privada desde la VPC de Amazon a Amazon Bedrock, sin tener que exponer sus datos al tráfico de Internet.

 

No, AWS y los proveedores de modelos de terceros no utilizarán ninguna entrada o salida de Amazon Bedrock para entrenar a Amazon Titan ni a ningún modelo de terceros.

SDK

Amazon Bedrock admite los SDK para los servicios de versión ejecutable. Los SDK de iOS y Android, así como Java, JS, Python, CLI, .Net, Ruby, PHP, Go y C++, admiten la entrada de texto y voz.

Todos los SDK admiten streaming.

Facturación y soporte

Consulte la página de precios de Amazon Bedrock para ver información actualizada de precios.

Según su contrato de AWS Support, el soporte de Amazon Bedrock se incluye en los planes de Developer Support, Business Support y Enterprise Support.

Puede usar las métricas de CloudWatch para realizar un seguimiento de los tokens de entrada y salida.

Personalización

Lanzamos la formación previa continua para los modelos Amazon Titan Text Express y Amazon Titan en Amazon Bedrock. El entrenamiento previo continuo permite la continuación del entrenamiento previo en un modelo base de Amazon Titan con grandes cantidades de datos sin etiquetar. Este tipo de entrenamiento adaptará el modelo de un corpus de dominio general a un corpus de dominio más específico, como el médico, el del derecho, el de las finanzas, entre otros, al tiempo que preservará la mayoría de las capacidades del modelo base de Amazon Titan. 

Es posible que las empresas deseen crear modelos para tareas en un dominio específico. Es posible que los modelos base no estén entrenados en la jerga técnica utilizada en ese dominio específico. Por lo tanto, ajustar de manera directa el modelo base requerirá grandes cantidades de registros de entrenamiento etiquetados y un entrenamiento de larga duración para obtener resultados precisos. Para aliviar esta carga, el cliente puede, en cambio, proporcionar grandes cantidades de datos sin etiquetar para un trabajo de entrenamiento previo continuo. Este trabajo adaptará el modelo base de Amazon Titan al nuevo dominio. Luego, el cliente puede ajustar el nuevo modelo personalizado previamente entrenado para las tareas posteriores utilizando una cantidad significativamente menor de registros de entrenamiento etiquetados y con una duración de entrenamiento más corta. 

El entrenamiento previo continuo y el ajuste preciso de Amazon Bedrock tienen requisitos muy similares. Por este motivo, optamos por crear API unificadas que admitan tanto el entrenamiento previo continuo como el ajuste fino. La unificación de las API reduce la curva de aprendizaje y ayudará a los clientes a utilizar características estándar, como Amazon EventBridge, para hacer el seguimiento de los trabajos de larga duración, la integración con Amazon S3 para obtener datos de entrenamiento, las etiquetas de recursos y el cifrado de modelos. 

El entrenamiento previo continuo ayuda a adaptar fácilmente los modelos de Amazon Titan a los datos específicos del dominio, a la vez que conserva la funcionalidad básica de los modelos Amazon Titan. Para crear un trabajo de entrenamiento previo continuo, diríjase a la consola de Amazon Bedrock y haga clic en «Modelos personalizados». Accederá a la página de modelos personalizados que tiene dos pestañas: modelos y trabajos de entrenamiento. Ambas pestañas ofrecen el menú desplegable «Personalizar modelo» a la derecha. Seleccione «Capacitación previa continua» en el menú desplegable y navegue hasta «Crear trabajo de capacitación previa continua». Proporcionará el modelo de origen, el nombre, el cifrado del modelo, los datos de entrada, los hiperparámetros y los datos de salida. Además, puede brindar etiquetas junto con detalles sobre los roles de AWS Identity and Access Management (IAM) y las políticas de recursos para el trabajo.

Amazon Titan

Exclusiva de Amazon Bedrock, la familia de modelos Amazon Titan incorpora los 25 años de experiencia de Amazon en la innovación de la IA y el machine learning en toda la empresa. Los modelos fundacionales de Amazon Titan ofrecen a los clientes una gran variedad de opciones de modelos de texto, multimodales y de imágenes de alto rendimiento a través de una API totalmente administrada. Los modelos Amazon Titan son creados por AWS y se los entrena previamente en grandes conjuntos de datos, lo que los convierte en modelos poderosos y de uso general diseñados para respaldar una variedad de casos de uso y, al mismo tiempo, respaldar el uso responsable de la IA. Utilícelos tal como son o personalícelos de forma privada con datos propios. Más información sobre Amazon Titan.

Para obtener más información sobre los datos procesados para desarrollar y entrenar los modelos fundacionales de Amazon Titan, visite la página de entrenamiento y privacidad de los modelos de Amazon Titan.

Bases de conocimiento/RAG

Puede ingerir contenido de varios orígenes, lo que incluye la Web, Amazon Simple Storage Service (Amazon S3), Confluence (versión preliminar), Salesforce (versión preliminar) y SharePoint (versión preliminar). También puede ingerir de forma programática datos de streaming o datos de orígenes no compatibles. También puede conectarse a sus orígenes de datos estructurados, como el almacén de datos de Redshift y el catálogo de datos de AWS Glue.

Las bases de conocimiento de Amazon Bedrock proporcionan un lenguaje natural a SQL administrado para convertir el lenguaje natural en consultas SQL procesables y recuperar datos, lo que le permite crear aplicaciones con datos de estos orígenes.

Sí, la administración del contexto de sesión está integrada, lo que permite que las aplicaciones mantengan el contexto en múltiples interacciones, lo cual es esencial para soportar conversaciones en varios turnos.

Sí, toda la información recuperada incluye citas, lo que mejora la transparencia y minimiza el riesgo de alucinaciones en las respuestas generadas.

Las bases de conocimiento de Amazon Bedrock admiten el procesamiento de datos multimodal, lo que permite a los desarrolladores crear aplicaciones de IA generativa que analizan datos visuales y textuales como imágenes, gráficos, diagramas y tablas. Las respuestas modelo pueden aprovechar la información de los elementos visuales además del texto, proporcionando respuestas más precisas y relevantes desde el punto de vista del contexto. Además, la atribución del origen de las respuestas incluye elementos visuales, lo que mejora la transparencia y la confianza en las respuestas.

Las bases de conocimiento de Amazon Bedrock pueden procesar documentos con gran riqueza visual en formato PDF, que pueden contener imágenes, tablas, gráficos y diagramas. En el caso de los datos que solo contienen imágenes, las bases de conocimiento de Bedrock admiten formatos de imagen estándar como JPEG y PNG, lo que permite buscar capacidades donde los usuarios pueden recuperar imágenes relevantes a partir de consultas basadas en texto.

Los clientes tienen tres opciones de análisis para las bases de conocimiento de Amazon Bedrock. Para el procesamiento de solo texto, el analizador Bedrock predeterminado incorporado está disponible sin costo adicional; es ideal cuando no se requiere el procesamiento de datos multimodal. Amazon Bedrock Data Foundation (BDA) o los modelos fundacionales se pueden usar para analizar datos multimodales. Para obtener más información, consulte la documentación del producto

La base de conocimientos de Amazon Bedrock gestiona diversas complejidades del flujo de trabajo, como la comparación de contenido, la gestión de errores, el control del rendimiento y el cifrado para garantizar que sus datos se procesen y administren de forma segura de acuerdo con los estrictos estándares de seguridad de AWS.

Evaluación de modelos

La evaluación de modelos en Amazon Bedrock permite evaluar, comparar y seleccionar los mejores modelos fundacionales para los casos de uso en simples pasos. Amazon Bedrock ofrece la posibilidad de elegir entre la evaluación automática y la evaluación humana. Puede utilizar la evaluación automática con métricas predefinidas, como la precisión, la solidez y la toxicidad. Para obtener métricas subjetivas o personalizadas, como la amabilidad, el estilo y la alineación con la voz de la marca, puede usar un flujo de trabajo de evaluación humana. Puede utilizar a sus propios empleados o designar a un equipo administrado por AWS como revisores para llevar a cabo la evaluación humana. La evaluación del modelo en Amazon Bedrock ofrece conjuntos de datos seleccionados integrados, aunque puede utilizar propios conjuntos de datos propios.

Puede evaluar una variedad de métricas predefinidas, como la precisión, la solidez y la toxicidad, mediante evaluaciones automáticas. También puede usar los flujos de trabajo de evaluación humana para obtener métricas subjetivas o personalizadas, como la amabilidad, la relevancia, el estilo y la alineación con la voz de la marca.

Las evaluaciones automáticas permiten reducir rápidamente la lista de FM disponibles en función de los criterios estándar (como la precisión, la toxicidad y la solidez). Las evaluaciones basadas en humanos se utilizan a menudo para evaluar los criterios más matizados o subjetivos que requieren el juicio humano y en los que es posible que no existan evaluaciones automáticas (como la voz de la marca, la intención creativa o la amabilidad).

Puede evaluar rápidamente los modelos de Amazon Bedrock para determinar métricas como la precisión, la solidez y la toxicidad al utilizar los conjuntos de datos integrados seleccionados o incorporando sus propios conjuntos de datos de solicitudes. Una vez que los conjuntos de datos de solicitudes se envíen a los modelos de Amazon Bedrock para su inferencia, las respuestas del modelo se califican mediante algoritmos de evaluación para cada dimensión. El motor de backend agrega las puntuaciones a las solicitudes de respuesta individuales en forma de calificaciones resumidas y las presenta mediante informes visuales fáciles de entender.

Amazon Bedrock permite la configuración de los flujos de trabajo de revisión humana en simples pasos y traer a sus empleados o utilizar un equipo de expertos administrado por AWS para evaluar los modelos. Con la interfaz intuitiva de Amazon Bedrock, las personas pueden revisar las respuestas de los modelos y dar su opinión haciendo clic con el pulgar hacia arriba o hacia abajo, calificarlas en una escala del 1 al 5, elegir la mejor de varias respuestas o clasificar las solicitudes. Por ejemplo, se puede dar una demostración a un miembro del equipo de cómo responden dos modelos a la misma solicitud y, a continuación, solicitar que seleccione el modelo que muestre los resultados más precisos, relevantes o estilísticos. Puede especificar los criterios de evaluación al personalizar las instrucciones y los botones para que aparezcan en la evaluación de interfaz de usuario del equipo. También, puede brindar instrucciones detalladas con ejemplos y el objetivo general de la evaluación del modelo, para que los usuarios puedan alinear su trabajo en consecuencia. Este método es útil para evaluar los criterios subjetivos que requieren el juicio humano o una experiencia más matizada en la materia y no pueden juzgarse fácilmente mediante evaluaciones automáticas.

IA responsable

Las barreras de protección de Amazon Bedrock ayudan a implementar medidas de seguridad para las aplicaciones de IA generativas en función de los casos de uso y las políticas de IA responsable. Las barreras de protección ayudan a controlar la interacción entre los usuarios y los modelos fundacionales con el filtrado del contenido no deseado y dañino y próximamente redactará la información de identificación personal (PII), lo que mejorará la seguridad y la privacidad del contenido en las aplicaciones de IA generativa. Puede crear varias barreras de protección con diferentes configuraciones adaptadas a casos de uso específicos. Además, gracias a las barreras de protección se pueden supervisar y analizar continuamente las entradas de los usuarios y las respuestas del modelo fundacional que puedan infringir las políticas definidas por el cliente.

Las barreras de protección ayudan a los clientes definir un conjunto de políticas para ayudar a proteger las aplicaciones de IA generativa. Puede configurar las siguientes políticas en una barrera de protección.

  • Verificaciones de fundamento contextual: ayudan a detectar y filtrar las alucinaciones en caso de que las respuestas no estén fundamentadas (por ejemplo, información imprecisa o nueva) en la información de origen y que sean irrelevantes para la consulta o la instrucción del usuario.
  • Verificaciones de razonamiento automatizado: ayudan a detectar inexactitudes fácticas en el contenido generado, sugieren correcciones y explican por qué las respuestas son precisas comparándolas con una representación matemática estructurada del conocimiento denominada política de razonamiento automatizado.
  • Filtros de contenido: lo ayudan a configurar los umbrales para detectar y filtrar el contenido de texto dañino en todas las categorías, como el odio, los insultos, el sexo, la violencia, la mala conducta y los ataques rápidos. Además, los filtros de contenido pueden detectar y filtrar el contenido de imágenes dañino en estas categorías, lo que ayuda a crear aplicaciones multimodales seguras.
  • Temas denegados: lo ayudan a definir un conjunto de temas indeseables en el contexto de su aplicación. Por ejemplo, se puede diseñar un asistente de banca en línea que se abstenga de brindar asesoramiento sobre inversiones.
  • Filtros de palabras: lo ayudan a definir un conjunto de palabras para bloquear en las entradas de los usuarios y en las respuestas generadas por FM.
  • Filtro de información confidencial: lo ayuda a reaccionar ante la información confidencial, como un conjunto de PII que se puede redactar en las respuestas generadas por FM. Según el caso de uso, las barreras de protección también puede ayudarlo a bloquear la entrada de un usuario si contiene PII.

Las barreras de protección de Amazon Bedrock funcionan con una amplia gama de modelos, incluidos los FM compatibles con Amazon Bedrock, los modelos refinados y los modelos autohospedados fuera de Amazon Bedrock. Las entradas de los usuarios y las salidas del modelo se pueden evaluar de forma independiente para modelos de terceros y autohospedados mediante la API ApplyGuardrail. Las barreras de protección de Amazon Bedrock también se pueden integrar en los agentes y las bases de conocimiento de Amazon Bedrock para crear aplicaciones de IA generativa seguras y protegidas alineadas con políticas de IA responsable

Existen cinco políticas de barreras de protección, cada una con diferentes protecciones listas para usar

  • Filtros de contenido: tiene 6 categorías, estándar (odio, insultos, contenido sexual, violencia, mala conducta [incluida la actividad delictiva]) y de ataque inmediato (fuga e inyección inmediata). Cada categoría puede tener otros umbrales personalizados en términos de agresividad del filtrado: bajo/medio/alto para el contenido de texto y de imagen.
  • Tema denegado: son temas personalizados que los clientes pueden definir mediante una sencilla descripción en lenguaje natural
  • Filtro de información confidencial: vienen con más de 30 PII listas para usar. Se puede personalizar aún más añadiendo información confidencial exclusiva del cliente.
  • Filtros de palabras: viene con un filtro estándar de palabras obscenas y se puede personalizar aún más con palabras personalizadas.
  • Verificaciones contextuales fundamentadas: pueden ayudar a detectar alucinaciones para las aplicaciones de RAG, de resumen y conversacionales, en las cuales la información original se puede usar como una referencia para validar la respuesta del modelo.

Existen cinco políticas de barreras de protección, cada una con diferentes protecciones listas para usar

  • Filtros de contenido: tiene 6 categorías, estándar (odio, insultos, contenido sexual, violencia, mala conducta [incluida la actividad delictiva]) y de ataque inmediato (fuga e inyección inmediata). Cada categoría puede tener otros umbrales personalizados en términos de agresividad del filtrado: bajo/medio/alto.
  • Tema denegado: son temas personalizados que los clientes pueden definir mediante una sencilla descripción en lenguaje natural
  • Filtro de información confidencial: vienen con más de 30 PII listas para usar. Se puede personalizar aún más añadiendo información confidencial exclusiva del cliente.
  • Filtros de palabras: viene con un filtro estándar de palabras obscenas y se puede personalizar aún más con palabras personalizadas.
  • Verificaciones contextuales fundamentadas: pueden ayudar a detectar alucinaciones para las aplicaciones de RAG, de resumen y conversacionales, en las cuales la información original se puede usar como una referencia para validar la respuesta del modelo.

El modelo Foundations tiene protecciones nativas y son las protecciones predeterminadas asociadas a cada modelo. Estas medidas de seguridad nativas NO forman parte de las barreras de protección de Amazon Bedrock. Las barreras de protección de Amazon Bedrock son una capa adicional de protecciones personalizadas que el cliente puede aplicar de forma opcional en función de los requisitos de su aplicación y de las políticas de IA responsable.


Como parte de las barreras de protección de Amazon Bedrock, la detección del número de teléfono y del número de seguro social forma parte de las más de 30 PII disponibles en el mercado. Puede consultar la lista completa aquí.

El uso de las barreras de protección de Amazon Bedrock conlleva un costo aparte. Se puede aplicar tanto a la entrada como a la salida. Consulte los precios al final de la página haciendo clic aquí. Los precios del soporte de imágenes con filtros de contenido (actualmente en versión preliminar pública) se anunciarán durante la disponibilidad general (GA).

El uso de las barreras de protección de Amazon Bedrock conlleva un costo aparte. Se puede aplicar tanto a la entrada como a la salida. Consulte los precios al final de la página haciendo clic aquí.

Sí, las API de la barrera de protección de Amazon Bedrock ayudan a los clientes a realizar pruebas automatizadas. El “generador de casos de prueba” puede ser una opción que desee usar antes de desplegar la barrera de protección en la producción. Todavía no existe un generador de casos de prueba nativo. Para la supervisión continua del tráfico de producción, las barreras de protección ayudan a brindar registros detallados de todas las infracciones para cada entrada y salida, de modo que los clientes pueden supervisar de forma granular todas y cada una de las entradas de datos que entran y salen de su aplicación de IA generativa. Estos registros se pueden almacenar en CloudWatch o S3 y se pueden usar para crear paneles personalizados basados en los requisitos de los clientes.

Al utilizar una política de razonamiento automatizado, las verificaciones de razonamiento automatizado pueden identificar tanto afirmaciones precisas como inexactitudes fácticas en el contenido. Tanto para afirmaciones precisas como inexactas, la verificación de razonamiento automatizado proporciona explicaciones lógicas y verificables para su resultado. La verificación de razonamiento automatizado requiere la participación inicial de un experto en el dominio para crear una política y solo admite el contenido que define las reglas. Por otro lado, las verificaciones de fundamento contextual en las barreras de protección de Bedrock utilizan técnicas de machine learning para garantizar que el contenido generado siga de cerca los documentos que se proporcionaron como entrada desde una base de conocimientos, sin necesidad de ningún trabajo inicial adicional. Tanto las verificaciones de razonamiento automatizado como las de fundamento contextual proporcionan sus comentarios en la salida de la API de la barrera de protección. Puede usar los comentarios para actualizar el contenido generado.

Marketplace

Amazon Bedrock Marketplace ofrece a los clientes más de 100 modelos populares, emergentes o especializados, además de las FM sin servidor de Amazon Bedrock, para que los clientes puedan crear y optimizar fácilmente sus aplicaciones de IA generativa. Dentro de la consola Amazon Bedrock, los clientes podrán descubrir un amplio catálogo de FM que ofrecen varios proveedores. A continuación, puede implementar estos modelos en puntos de enlace totalmente administrados, donde puede elegir la cantidad de instancias y los tipos de instancias que desee. Una vez implementados los modelos, se puede acceder a ellos a través de la API Invoke de Amazon Bedrock. Para los modelos de texto a texto ajustados por chat, los clientes pueden usar nuestra nueva API Converse, una API unificada que abstrae las diferencias de FM y permite cambiar de modelo con un solo cambio de parámetro. Cuando corresponda, los modelos se pueden usar con el área de juegos, los agentes, las bases de conocimiento, la administración de peticiones, los flujos de peticiones, las barreras de protección y la evaluación del modelo de Amazon Bedrock.

Debería utilizar Amazon Bedrock Marketplace para beneficiarse de los poderosos modelos que están surgiendo rápidamente a medida que la industria de la IA generativa continúa innovando. Puede acceder e implementar rápidamente modelos populares, emergentes y especializados adaptados a sus requisitos únicos, lo que puede acelerar el tiempo de comercialización, mejorar la precisión o reducir el costo de sus flujos de trabajo de IA generativa. Puede acceder a los modelos a través de las API unificadas de Bedrock y, si son compatibles con la API Converse de Bedrock, utilizarlos de forma nativa con las herramientas de Bedrock, como agentes, bases de conocimiento y barreras de protección. Puede conectar fácilmente Amazon Bedrock Marketplace a los modelos sin servidor de Amazon Bedrock, todo desde un solo lugar.
 

Simplemente navegue hasta la página del catálogo de modelos de Amazon Bedrock en la consola de Bedrock, donde podrá buscar los listados de modelos de Amazon Bedrock Marketplace junto con los modelos de Amazon Bedrock sin servidor. Una vez que haya seleccionado el modelo de Amazon Bedrock Marketplace que desea utilizar, puede suscribirse al modelo a través de la página de detalles del modelo y aceptar el EULA y los precios establecidos por el proveedor. Una vez completada la suscripción, lo que normalmente demora unos minutos, puede implementar el modelo en un punto de enlace de SageMaker totalmente administrado haciendo clic en Implementar en la página de detalles del modelo o mediante las API. En el paso de implementación, puede seleccionar la cantidad y los tipos de instancias que desee para cumplir con su carga de trabajo. Una vez configurado el punto de enlace, lo que suele tardar entre 10 y 15 minutos, puede empezar a realizar llamadas de inferencia al punto de enlace y utilizar el modelo en las herramientas avanzadas de Bedrock siempre que el modelo sea compatible con la API Converse de Bedrock.

Los modelos con arquitecturas compatibles con la importación de modelos personalizada (Mistral, Mixtral, Flan y Llama2/3/3.1/3.2) se pueden refinar en SageMaker y están disponibles en Amazon Bedrock mediante la importación de modelos personalizada. Los modelos que no son compatibles con la importación de modelos personalizada aún se pueden refinar en SageMaker. Sin embargo, la versión refinada de estos modelos no se puede utilizar en Amazon Bedrock.

Automatización de datos

¿Qué es Bedrock Data Automation? Amazon Bedrock Data Automation es una capacidad de Bedrock basada en IA generativa que agiliza el desarrollo de aplicaciones de IA generativa y automatiza los flujos de trabajo relacionados con documentos, imágenes, audio y videos. Al aprovechar Bedrock Data Automation, los desarrolladores pueden reducir el tiempo y el esfuerzo de desarrollo, lo que facilita la creación inteligente de procesamiento de documentos, análisis de medios y otras soluciones de automatización multimodales centradas en los datos. Bedrock Data Automation ofrece una precisión líder en la industria a un costo menor que las soluciones alternativas, junto con características como la base visual con puntuaciones de confianza para facilitar la explicación y la mitigación integrada de alucinación. Esto garantiza información fiable y precisa a partir de orígenes de datos no estructurados y multimodales. Los clientes pueden personalizar fácilmente la salida de Bedrock Data Automation para generar información específica en los formatos consistentes que requieren sus sistemas y aplicaciones. Los desarrolladores comienzan a usar Bedrock Data Automation en la consola de Amazon Bedrock, donde pueden configurar y personalizar el resultado con sus datos de muestra. A continuación, pueden integrar la API de inferencia multimodal unificada de Bedrock Data Automation en sus aplicaciones para procesar su contenido no estructurado a escala de producción con gran precisión y coherencia. Bedrock Data Automation también se integra con las bases de conocimiento de Bedrock, lo que facilita a los desarrolladores la generación de información significativa a partir de su contenido no estructurado y multimodal para proporcionar respuestas qué más relevantes para la generación aumentada por recuperación (RAG).

Bedrock Data Automation facilita la transformación de datos empresariales no estructurados en formatos de salida específicos de la aplicación que pueden utilizar las aplicaciones de IA generativa y los flujos de trabajo de ETL. Los clientes ya no necesitan dedicar tiempo y esfuerzo a administrar y organizar varios modelos, peticiones de ingeniería, implementar barreras de protección de seguridad o unir las salidas para alinearlas con los requisitos del sistema posterior. Bedrock Data Automation ofrece un procesamiento altamente preciso, consistente y rentable de datos no estructurados. Bedrock Data Automation se crea teniendo en cuenta la IA responsable, lo que proporciona a los clientes características clave, como el fundamento visual y las puntuaciones de confianza, que facilitan la integración de la automatización de datos de Bedrock en los flujos de trabajo empresariales.

Las capacidades de Bedrock Data Automation están disponibles a través de una API totalmente administrada que los clientes pueden integrar fácilmente en sus aplicaciones. Los clientes no tienen que preocuparse por escalar los recursos de computación subyacentes, seleccionar y organizar modelos ni administrar las peticiones de los FM.

Un esquema es una característica que los clientes utilizan para especificar sus requisitos de salida mediante un lenguaje natural o un editor de esquemas. Incluye una lista de los campos que desean extraer, un formato de datos para cada campo e instrucciones en lenguaje natural para cada campo. Por ejemplo, los desarrolladores pueden escribir: “Crear un esquema para las facturas con los siguientes campos: impuestos, fecha de vencimiento, fecha de recepción” o “Confirmar que el total de la factura coincide con la suma de las líneas de pedido”. Hacen referencia a los esquemas como parte de las llamadas a la API de inferencia para que el sistema devuelva la información en el formato descrito en el esquema.

Documentos

Bedrock Data Automation admite tanto la salida estándar como la salida personalizada para documentos.

  • La salida estándar proporcionará la extracción del texto de los documentos y la salida generativa, como el resumen del documento y los títulos de las tablas/figuras/diagramas. La salida se devuelve en orden de lectura y, opcionalmente, se puede agrupar por elemento de diseño, que incluirá encabezados/pies de página/títulos/tablas/figuras/diagramas. La salida estándar se utilizará para la integración de BDA con las bases de conocimiento de Bedrock.
  • La salida personalizada aprovecha los esquemas, que especifican los requisitos de salida mediante lenguaje natural o un editor de esquemas. Los esquemas incluyen una lista de campos para extraer y un formato de datos para cada campo.

Bedrock Data Automation admitirá PDF, PNG, JPG, TIFF, un máximo de 100 páginas y un tamaño máximo de archivo de 500 MB por solicitud de API. BDA admitirá una concurrencia máxima de 5 paquetes de documentos y un rendimiento de 1 página por segundo por cliente.

Imágenes
Bedrock Data Automation admite tanto la salida estándar como la salida personalizada para imágenes.

  • La salida estándar proporcionará un resumen, el contenido explícito y el texto detectados, y la taxonomía de anuncios: IAB para imágenes. La salida estándar se utilizará para la integración de BDA con las bases de conocimiento de Bedrock.
  • La salida personalizada aprovecha los esquemas, que especifican los requisitos de salida mediante lenguaje natural o un editor de esquemas. Los esquemas incluyen una lista de campos para extraer y un formato de datos para cada campo.

Bedrock Data Automation admitirá JPG y PNG, una resolución máxima de 4K y un tamaño máximo de archivo de 5 MB por solicitud de API. BDA admitirá una concurrencia máxima de 100 imágenes a razón de 1 imagen por segundo por cliente.

Videos

Bedrock Data Automation admite ambas salidas estándar para videos.

  • La salida estándar proporcionará un resumen completo del video, la segmentación de la escena, el resumen de la escena, la transcripción completa del audio, la identificación del hablante, el contenido explícito detectado, el texto detectado y la taxonomía de los videos de la Interactive Advertising Bureau (IAB). El resumen completo del video está optimizado para el contenido con diálogos descriptivos, como descripciones generales de productos, capacitaciones, noticieros y documentales.

Bedrock Data Automation admitirá MOV y MKV con H.264, una duración máxima de video de 4 horas y un tamaño máximo de archivo de 2 GB por solicitud de API. BDA admitirá una concurrencia máxima de 25 videos a razón de 20 minutos de video por minuto por cliente.

Audio

Bedrock Data Automation admite ambas salidas estándar de audio.

  • La salida estándar proporcionará un resumen, una transcripción completa y el contenido explícito detectado para los archivos de audio.

Bedrock Data Automation admitirá FLAC, M4A, MP3, MP4, Ogg, WebM, WAV, una duración máxima de audio de 4 horas y un tamaño máximo de archivo de 2 GB por solicitud de API. La salida estándar proporcionará un resumen, una transcripción completa y el contenido explícito detectado para los archivos de audio.

Amazon Bedrock Data Automation está disponible actualmente en la región del oeste de EE. UU. (Oregón).

IDE

Amazon Bedrock IDE (versión preliminar) es un entorno de colaboración gobernado e integrado en Amazon SageMaker Unified Studio (versión preliminar) que permite a los desarrolladores crear e iterar rápidamente aplicaciones de IA generativa mediante modelos fundacionales (FM) de alto rendimiento. Proporciona una interfaz intuitiva para experimentar con estos modelos, colaborar en proyectos y agilizar el acceso a varias herramientas y recursos de Bedrock a fin de crear aplicaciones de IA generativa rápidamente.

Para acceder a Amazon Bedrock IDE en Amazon SageMaker Unified Studio, los desarrolladores y sus administradores deberán seguir estos pasos:

  1. Cree un dominio nuevo en Amazon SageMaker Unified Studio.
  2. Habilite el perfil del proyecto de desarrollo de aplicación de AI generativa.
  3. Acceda a Amazon Bedrock IDE con las credenciales de inicio de sesión único (SSO) de su empresa en Amazon SageMaker Unified Studio.

Amazon Bedrock IDE, ahora integrado en Amazon SageMaker Unified Studio, se basa en Amazon Bedrock Studio (versión preliminar) con varias mejoras clave. Proporciona acceso a modelos avanzados de IA de empresas líderes, herramientas para crear y probar peticiones de IA y una integración perfecta con las bases de conocimiento, barreras de protección, flujos y agentes de Bedrock. Los equipos pueden colaborar en un espacio de trabajo compartido para crear aplicaciones de IA personalizadas que se adapten a sus necesidades.

Las nuevas características de Bedrock IDE incluyen un centro de modelos para comparar modelos de IA en paralelo, un área de juegos ampliada que admite interacciones de chat, imágenes y video y una creación mejorada de bases de conocimiento con rastreo web. Introduce la creación de agentes para aplicaciones de chat más complejas y simplifica el intercambio de aplicaciones y peticiones de IA dentro de las organizaciones. Bedrock IDE también ofrece acceso al código de la aplicación subyacente y la posibilidad de exportar aplicaciones de chat como plantillas de CloudFormation. Al administrar los detalles de la infraestructura de AWS, permite a los usuarios con distintos niveles de habilidad crear aplicaciones de IA de manera más eficiente, lo que la convierte en una herramienta más versátil y potente que su predecesora.

Amazon Bedrock IDE permite la colaboración entre equipos al proporcionar un entorno de desarrollo gobernado dentro de Amazon SageMaker Unified Studio. Los equipos pueden crear proyectos, invitar a colegas y crear juntos aplicaciones de IA generativa de forma colaborativa. Pueden recibir comentarios rápidos sobre sus prototipos y compartir las aplicaciones con cualquier usuario de Amazon SageMaker Unified Studio o con usuarios específicos del dominio. Los sólidos controles de acceso y las características de gobernanza permiten que solo los miembros autorizados accedan a los recursos del proyecto, como los datos o las aplicaciones de IA generativa, lo que respalda la privacidad y el cumplimiento de los datos y, por lo tanto, fomenta la colaboración y el intercambio seguros entre funciones. Además, las aplicaciones de IA generativa se pueden compartir desde un creador con usuarios específicos del dominio de Amazon SageMaker Unified Studio o con personas específicas, lo que permite disponer de los derechos de acceso, los controles y la gobernanza adecuados de dichos activos.

La integración de Amazon Bedrock IDE en Amazon SageMaker Unified Studio representa la decisión de AWS de simplificar y agilizar el desarrollo de IA generativa. Esta integración crea un entorno integral que elimina las barreras entre los datos, las herramientas y los desarrolladores, lo que permite la creación y la implementación eficientes de aplicaciones de IA generativa.

El entorno unificado permite una colaboración fluida entre desarrolladores de distintos niveles de habilidad a lo largo del ciclo de vida del desarrollo, desde la preparación de datos hasta el desarrollo del modelo y la creación de aplicaciones de IA generativa. Los equipos pueden acceder a herramientas integradas para la creación de bases de conocimientos, el refinamiento de modelos y el desarrollo de aplicaciones de IA generativa de alto rendimiento, todo dentro de un marco seguro y gobernado.

En Amazon SageMaker Unified Studio, los desarrolladores pueden cambiar fácilmente entre diferentes herramientas según sus necesidades, combinando capacidades de análisis, machine learning e IA generativa en un único espacio de trabajo. Este enfoque consolidado reduce la complejidad del desarrollo y acelera el tiempo de generación de valor para los proyectos de IA generativa.

Al incorporar Amazon Bedrock IDE a Amazon SageMaker Unified Studio, AWS reduce las barreras de entrada para el desarrollo de la IA generativa y, al mismo tiempo, mantiene la seguridad y la gobernanza de nivel empresarial y, en última instancia, permite a las organizaciones innovar de forma más rápida y eficaz con la IA generativa.
 

Actualmente, Amazon Bedrock Studio está disponible como una característica de versión preliminar a la que se accede a través de la consola de administración de AWS. Ahora, Amazon Bedrock Studio ha pasado a llamarse Amazon Bedrock IDE y se encuentra en versión preliminar en Amazon SageMaker Unified Studio y proporciona un entorno dedicado para crear, evaluar y compartir aplicaciones de IA generativas con capacidades avanzadas como bases de conocimiento, barreras de protección, agentes, flujos y herramientas de ingeniería de peticiones. Esta integración en Amazon SageMaker Unified Studio ofrece una experiencia de desarrollo con más características, gobernada y colaborativa que la versión preliminar anterior en la consola de administración de AWS.

Todo Amazon Bedrock Studio forma parte de Amazon SageMaker Unified Studio en Amazon Bedrock IDE. El área de juegos de IA generativa, disponible en la sección “Descubrir” de Amazon SageMaker Unified Studio, le permite experimentar con modelos fundacionales (FM) y cualquier aplicación de IA generativa que compartan sus colegas a través de una interfaz conversacional. Amazon Bedrock IDE, el entorno de aplicación de IA generativa completo, se encuentra en la sección “Crear” de Amazon SageMaker Unified Studio y se puede acceder a él a través de proyectos.

Sobre cuándo usar cada oferta:

  • Amazon Bedrock Studio existente en la consola de administración de AWS: puede seguir utilizando Amazon Bedrock Studio existente en la consola de AWS para los proyectos en curso hasta el 28 de febrero de 2025, después de lo cual finalizará el soporte. Tendrá que configurar un nuevo dominio de Amazon SageMaker que incluya Amazon Bedrock IDE para acceder a él en el entorno gobernado de Amazon SageMaker.
  • Área de juegos de IA generativa en Amazon SageMaker Unified Studio (sección Descubrir): utilice las áreas de juegos de chat, imágenes y videos para experimentar inicialmente con FM; pruebe diferentes modelos y configuraciones antes de crear aplicaciones en Amazon Bedrock IDE.
  • Amazon Bedrock IDE en Amazon SageMaker Unified Studio (sección Crear): utilice Amazon Bedrock IDE, disponible en la sección Crear, para aprovechar las funciones avanzadas de creación de aplicaciones de IA generativa listas para la producción. Estas incluyen la gobernanza integrada, la colaboración segura, las bases de conocimiento, los agentes, los flujos, las barreras de protección y las herramientas de ingeniería de peticiones.

Amazon Bedrock IDE es un entorno colaborativo gobernado que se centra en la creación de aplicaciones de IA generativa mediante modelos fundacionales (FM). Integrado en Amazon SageMaker Unified Studio, proporciona una interfaz intuitiva para acceder a las FM de alto rendimiento de Bedrock y experimentar con ellas, así como herramientas de personalización como bases de conocimiento, barreras de protección, agentes y flujos.

En Amazon SageMaker Unified Studio, Amazon Bedrock IDE se integra perfectamente con las capacidades de análisis, machine learning (ML) e IA generativa de Amazon SageMaker. Los usuarios pueden aprovechar los servicios de análisis para generar información a partir de sus datos, crear modelos de ML con las herramientas de IA de entrenamiento e implementación de Amazon SageMaker y combinar estos componentes con aplicaciones de IA generativa creadas en Amazon Bedrock IDE. Este entorno unificado permite el desarrollo integral de aplicaciones basadas en datos que combinan capacidades de análisis, ML e IA generativa. Los usuarios pueden crear e implementar modelos de ML e IA generativa, crear y compartir aplicaciones de IA generativa personalizadas con datos y personalizaciones propios y optimizar la colaboración, todo dentro del mismo entorno gobernado de Amazon SageMaker Unified Studio
 

Los usuarios actuales de Amazon Bedrock Studio que han accedido al servicio a través de la consola de administración de AWS no pueden migrar directamente sus proyectos a Amazon SageMaker Unified Studio. Para acceder a Amazon Bedrock IDE en el entorno gobernado de Amazon SageMaker, los desarrolladores y sus administradores deberán crear un nuevo dominio en Amazon SageMaker Unified Studio, habilitar el perfil del proyecto de desarrollo de aplicación de IA generativa y acceder al IDE de Amazon Bedrock con las credenciales de inicio de sesión único (SSO) de su empresa en Amazon SageMaker Unified Studio.

Sin embargo, los usuarios actuales pueden seguir accediendo a Amazon Bedrock Studio (versión preliminar) a través de la consola de administración de AWS hasta el 28 de febrero de 2025. Después de esta fecha, deberán realizar la transición a la nueva experiencia de Amazon Bedrock IDE en Amazon SageMaker Unified Studio.

Amazon Bedrock IDE en Amazon SageMaker Unified Studio está sujeto a los límites de cuenta y las cuotas definidos para la plataforma y los recursos subyacentes de Amazon Bedrock, como los modelos fundacionales (FM), las bases de conocimiento, los agentes, los flujos y las barreras de protección.

Amazon Bedrock IDE no tiene ningún costo adicional y los usuarios solo pagan por el uso de los recursos subyacentes que requieren las aplicaciones de IA generativa que crean. Por ejemplo, los clientes solo pagarán por el modelo, la barrera de protección y la base de conocimientos asociados que hayan utilizado en su aplicación de IA generativa. Para obtener más información, visite la página de precios de Amazon Bedrock.

Amazon Bedrock IDE en Amazon SageMaker Unified Studio está sujeto a los mismos SLA que Amazon Bedrock. Para obtener más información, visite la página del acuerdo de nivel de servicios de Amazon Bedrock.

Para facilitar una experiencia de incorporación fluida con Amazon Bedrock IDE en Amazon SageMaker Unified Studio, puede encontrar documentación detallada en la Guía del usuario de Amazon Bedrock IDE. Si tiene más preguntas o necesita más ayuda, no dude en ponerse en contacto con su equipo de cuentas de AWS.