Meta Llama sur Amazon Bedrock

Édifiez l’avenir de l’IA avec Llama

Présentation de Llama 3.3

Llama 3.3 est un modèle 70B adapté aux instructions contenant uniquement du texte qui offre des performances améliorées par rapport à Llama 3.1 70B et à Llama 3.2 90B lorsqu’il est utilisé pour des applications contenant uniquement du texte. Llama 3.3 70B offre des performances similaires à celles de Llama 3.1 405B, tout en ne nécessitant qu’une fraction des ressources de calcul.

La formation complète de Llama 3.3 70B se traduit par de solides capacités de compréhension et de génération pour diverses tâches. Ce modèle prend en charge une IA conversationnelle à hautes performances conçue pour la création de contenu, les applications d’entreprise et la recherche, offrant des fonctionnalités avancées de compréhension linguistique, notamment la synthèse de texte, la classification, l’analyse des sentiments et la génération de code.

Llama 3.2 90B est le modèle le plus avancé de Meta et est idéal pour les applications d’entreprise. Llama 3.2 est le premier modèle Llama à prendre en charge les tâches de vision, avec une nouvelle architecture de modèle qui intègre des représentations d’encodeurs d’images dans le modèle de langage. Ce modèle excelle en matière de connaissances générales, de génération de textes longs, de traduction multilingue, de codage, de mathématiques et de raisonnement avancé. Il introduit également des fonctionnalités de raisonnement par image, permettant une compréhension sophistiquée des images et un raisonnement visuel. Ce modèle est idéal pour les cas d’utilisation suivants : sous-titrage d’images, récupération de texte d’image, ancrage visuel, réponse visuelle aux questions et raisonnement visuel, et réponse aux questions visuelles concernant des documents.

Llama 3.2 11B convient à la création de contenu, à l’IA conversationnelle, à la compréhension du langage et aux applications d’entreprise nécessitant un raisonnement visuel. Le modèle présente de solides performances en matière de synthèse de texte, d’analyse des sentiments, de génération de code et de suivi des instructions, avec la capacité supplémentaire de raisonner sur des images. Ce modèle est idéal pour les cas d’utilisation suivants : sous-titrage d’images, récupération de texte d’image, ancrage visuel, réponse visuelle aux questions et raisonnement visuel, et réponse aux questions visuelles concernant des documents.

Llama 3.2 3B offre une expérience d’IA plus personnalisée, avec un traitement intégré à l’appareil. Llama 3.2 3B est conçu pour les applications nécessitant une inférence à faible latence et des ressources de calcul limitées. Il excelle dans les tâches de synthèse de texte, de classification et de traduction linguistique. Ce modèle est idéal pour les cas d’utilisation suivants : assistants d’écriture mobiles basés sur l’IA et applications de service client.

Llama 3.2 1B est le modèle le plus léger de la collection de modèles Llama 3.2. Il est parfait pour la récupération et la synthèse pour les appareils de périphérie et les applications mobiles. Il permet des fonctionnalités d’IA intégrées à l’appareil tout en préservant la confidentialité des utilisateurs et en minimisant la latence. Ce modèle est idéal pour les cas d’utilisation suivants : gestion des informations personnelles et recherche de connaissances multilingues.

Avantages

Llama 3.2 offre une expérience d’IA plus personnalisée, avec un traitement intégré à l’appareil. Les modèles Llama 3.2 sont conçus pour être plus efficaces, avec une latence réduite et des performances améliorées, ce qui les rend adaptés à un large éventail d’applications.
La longueur de contexte de 128 000 permet à Llama de capturer des relations encore plus nuancées dans les données.
Les modèles Llama sont entraînés sur 15 milliards de jetons provenant de sources de données publiques en ligne afin de mieux comprendre les subtilités du langage.
Llama 3.2 est multilingue et prend en charge huit langues, dont l’anglais, l’allemand, le français, l’italien, le portugais, l’hindi, l’espagnol et le thaï.
L’API gérée d’Amazon Bedrock facilite plus que jamais l’utilisation des modèles Llama. Les organisations de toutes tailles peuvent accéder à la puissance de Llama sans se soucier de l’infrastructure sous-jacente. Amazon Bedrock étant sans serveur, vous n’avez pas à gérer d’infrastructure et vous pouvez intégrer et déployer en toute sécurité les fonctionnalités d’IA générative de Llama dans vos applications à l’aide des services AWS que vous connaissez déjà. Cela signifie que vous pouvez vous concentrer sur ce que vous faites le mieux : créer vos applications d’IA.

Présentation de Llama

Au cours de la dernière décennie, Meta s’est attachée à mettre des outils entre les mains des développeurs et à favoriser la collaboration et les avancées entre les développeurs, les chercheurs et les organisations. Les modèles Llama sont disponibles dans une gamme de tailles de paramètres, ce qui permet aux développeurs de sélectionner le modèle qui correspond le mieux à leurs besoins et à leur budget d’inférence. Les modèles Llama sur Amazon Bedrock offrent un monde de possibilités, car les développeurs n’ont pas à se soucier de la capacité de mise à l’échelle ou de la gestion de l’infrastructure. Amazon Bedrock est une solution clé en main très simple qui permet aux développeurs de commencer à utiliser Llama.

Cas d'utilisation

Les modèles Llama excellent dans la compréhension des images et le raisonnement visuel, les nuances linguistiques, la compréhension contextuelle et les tâches complexes telles que l’analyse des données visuelles, le sous-titrage des images, la génération de dialogues, la traduction et la génération de dialogues, et peuvent gérer des tâches en plusieurs étapes sans effort. Les autres cas d’utilisation auxquels les modèles Llama conviennent parfaitement incluent le raisonnement et la compréhension visuels sophistiqués, la récupération de texte-image, l’ancrage visuel, la réponse visuelle aux questions, la synthèse et la précision du texte, la classification des textes, l’analyse des sentiments et le raisonnement par nuances, la modélisation du langage, les systèmes de dialogue, la génération de code et le suivi des instructions.

Versions de modèles

Llama 3.3 70B

Modèle 70B paramétré uniquement pour les instructions qui offre des performances améliorées par rapport à Llama 3.1 70B et à Llama 3.2 90B lorsqu’il est utilisé pour des applications n’utilisant que du texte. Le Llama 3.3 70B offre des performances similaires à celles du Llama 3.1 405B, tout en ne nécessitant qu’une fraction des ressources de calcul.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.

Réglage précis pris en charge : non

Cas d’utilisation pris en charge : IA conversationnelle conçue pour la création de contenu, les applications d’entreprise et la recherche, offrant des fonctionnalités avancées de compréhension des langues, notamment la synthèse de texte, la classification, l’analyse des sentiments et la génération de code. Le modèle permet également de tirer parti des résultats du modèle pour améliorer d’autres modèles, notamment la génération de données synthétiques et la distillation.

Llama 3.2 90B

Modèle multimodal qui prend en charge à la fois des entrées et des sorties de texte et d’image. Idéal pour les applications nécessitant une intelligence visuelle sophistiquée, telles que l’analyse d’images, le traitement de documents, les chatbots multimodaux et les systèmes autonomes.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.

Réglage précis pris en charge : non

Cas d’utilisation pris en charge  : compréhension des images, raisonnement visuel et interaction multimodale, permettant des applications avancées telles que le sous-titrage d’images, la récupération d’images et de textes, l’ancrage visuel, la réponse visuelle aux questions et la réponse visuelle aux questions documentées, avec une capacité unique à raisonner et à tirer des conclusions à partir d’entrées visuelles et textuelles.

Lire le blog

Llama 3.2 11B

Modèle multimodal qui prend en charge à la fois des entrées et des sorties de texte et d’image. Idéal pour les applications nécessitant une intelligence visuelle sophistiquée, telles que l’analyse d’images, le traitement de documents et les chatbots multimodaux.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.

Réglage précis pris en charge : non

Cas d’utilisation pris en charge  : compréhension des images, raisonnement visuel et interaction multimodale, permettant des applications avancées telles que le sous-titrage d’images, la récupération de texte d’image, l’ancrage visuel, la réponse visuelle aux questions et la réponse visuelle aux questions des documents.

Lire le blog

Llama 3.2 3B

Modèle léger contenant uniquement du texte conçu pour fournir des résultats très précis et pertinents. Conçu pour les applications nécessitant une inférence à faible latence et des ressources de calcul limitées. Idéal pour les requêtes et la réécriture rapide, les assistants d’écriture mobiles alimentés par l’IA et les applications de service client, en particulier sur les appareils périphériques où son efficacité et sa faible latence permettent une intégration fluide dans diverses applications, notamment les assistants d’écriture mobiles alimentés par l’IA et les chatbots du service client.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.

Réglage précis pris en charge : non

Cas d’utilisation pris en charge  : génération avancée de texte, synthèse, analyse des sentiments, intelligence émotionnelle, compréhension du contexte et raisonnement fondé sur le bon sens.

Lire le blog

Llama 3.2 1B

Modèle léger contenant uniquement du texte conçu pour fournir des réponses rapides et précises. Idéal pour les appareils périphériques et les applications mobiles. Le modèle permet des capacités d’IA intégrées à l’appareil tout en préservant la vie privée de l’utilisateur et en minimisant les temps de latence.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.

Réglage précis pris en charge : non

Cas d’utilisation pris en charge : cas d’utilisation du dialogue multilingue tels que la gestion des informations personnelles, la recherche de connaissances multilingues et les tâches de réécriture.

Lire le blog

Llama 3.1 405B

Idéal pour les applications d’entreprise, la recherche et le développement, la génération de données de synthèse et la distillation de modèles. Grâce à des fonctionnalités d’inférence optimisées pour la latence et disponibles en prévisualisation publique, ce modèle offre des performances et une capacité de mise à l’échelle exceptionnelles. Ainsi, les entreprises peuvent accélérer leurs initiatives en matière d’IA, tout en conservant des résultats de haute qualité dans divers cas d’utilisation.

Nombre maximum de jetons
 : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.

Mise au point prise en charge : bientôt disponible

Cas d’utilisation pris en charge : connaissances générales, génération de textes longs, traduction automatique, compréhension contextuelle améliorée, raisonnement et prise de décision avancés, meilleure gestion de l’ambiguïté et de l’incertitude, créativité et diversité accrues, maniabilité, mathématiques, utilisation d’outils, traduction multilingue et codage.

Lire le blog

Lama 3.1 70B

Idéal pour la création de contenu, l’IA conversationnelle, la compréhension du langage, le développement de la recherche et les applications d’entreprise. Avec de nouvelles fonctionnalités d’inférence optimisées pour la latence et disponibles en prévisualisation publique, ce modèle établit une nouvelle référence en matière de performances pour les solutions d’IA traitant de nombreuses entrées textuelles et permettant aux applications de répondre plus rapidement et de gérer plus efficacement les longues requêtes.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.

Réglage précis pris en charge : oui

Cas d’utilisation pris en charge : résumé de texte, classification de texte, analyse des sentiments et traduction linguistique.

Lire le blog

Lama 3.1 8B

Idéal pour une puissance de calcul et des ressources limitées, des délais d’entraînement plus courts et des appareils périphériques.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.

Réglage précis pris en charge : oui

Cas d’utilisation pris en charge : résumé de texte, classification de texte, analyse des sentiments et traduction linguistique.

Lire le blog

Llama 3 70B

Idéal pour la création de contenu, l'IA conversationnelle, la compréhension du langage, le développement de la recherche et les applications d'entreprise. 

Nombre maximum de jetons : 8 000

Langues : anglais

Réglage précis pris en charge : non

Cas d’utilisation pris en charge : la synthèse et la précision du texte, la classification et la nuance du texte, l’analyse des sentiments et le raisonnement nuancé, la modélisation du langage, les systèmes de dialogue, la génération de code et le suivi des instructions.

Lire le blog

Llama 3 8B

Idéal pour une puissance de calcul et des ressources limitées, des délais d'entraînement plus courts et des appareils périphériques.

Nombre maximum de jetons : 8 000

Langues : anglais

Réglage précis pris en charge : non

Cas d’utilisation pris en charge : la synthèse, la classification des textes, l’analyse des sentiments et la traduction linguistique

Lire le blog

Llama 2 70B

Modèle affiné de la taille de paramètre de 70 M. Il convient aux tâches à plus grande échelle telles que la modélisation de langues, la génération de texte ou des systèmes de dialogue.

Nombre maximum de jetons : 4 000

Langues : anglais

Réglage précis pris en charge : oui

Cas d’utilisation pris en charge : chat de type assistant

Lire le blog

Llama 2 13B

Modèle affiné de la taille de paramètre de 13 M. Il convient aux tâches à petite échelle telles que la classification de textes, l'analyse des sentiments ou la traduction de langues.

Nombre maximum de jetons : 4 000

Langues : anglais

Réglage précis pris en charge : oui

Cas d’utilisation pris en charge : chat de type assistant

Lire le blog

Nomura utilise les modèles Llama de Meta sur Amazon Bedrock pour démocratiser l’IA générative

 

Aniruddh Singh, Executive Director et Enterprise Architect de Nomura, décrit le parcours de l’institution financière visant à démocratiser l’IA générative à l’échelle de l’entreprise en utilisant Amazon Bedrock et les modèles Llama de Meta. Amazon Bedrock fournit un accès essentiel aux principaux modèles de fondation tels que Llama, permettant une intégration fluide. Llama offre des avantages clés à Nomura, notamment une innovation plus rapide, une transparence, des barrières de protection contre les biais et des performances robustes en matière de synthèse de texte, de génération de code, d’analyse des journaux et de traitement des documents. 

TaskUs révolutionne l’expérience client en utilisant les modèles Llama de Meta sur Amazon Bedrock

TaskUs, l’un des principaux fournisseurs de services numériques externalisés et d’expérience client de nouvelle génération destinés aux entreprises les plus innovantes du monde, aide ses clients à représenter, protéger et développer leurs marques. Sa plateforme innovante TaskGPT, alimentée par Amazon Bedrock et les modèles Llama de Meta, permet à ses coéquipiers de fournir un service exceptionnel. TaskUs développe des outils sur TaskGPT qui exploitent Amazon Bedrock et Llama pour la paraphrase, la génération de contenu, la compréhension et la gestion de tâches complexes de manière rentable.