Présentation de Llama 3.3
Llama 3.3 est un modèle 70B adapté aux instructions contenant uniquement du texte qui offre des performances améliorées par rapport à Llama 3.1 70B et à Llama 3.2 90B lorsqu’il est utilisé pour des applications contenant uniquement du texte. Llama 3.3 70B offre des performances similaires à celles de Llama 3.1 405B, tout en ne nécessitant qu’une fraction des ressources de calcul.
Avantages
Présentation de Llama
Au cours de la dernière décennie, Meta s’est attachée à mettre des outils entre les mains des développeurs et à favoriser la collaboration et les avancées entre les développeurs, les chercheurs et les organisations. Les modèles Llama sont disponibles dans une gamme de tailles de paramètres, ce qui permet aux développeurs de sélectionner le modèle qui correspond le mieux à leurs besoins et à leur budget d’inférence. Les modèles Llama sur Amazon Bedrock offrent un monde de possibilités, car les développeurs n’ont pas à se soucier de la capacité de mise à l’échelle ou de la gestion de l’infrastructure. Amazon Bedrock est une solution clé en main très simple qui permet aux développeurs de commencer à utiliser Llama.
Cas d'utilisation
Les modèles Llama excellent dans la compréhension des images et le raisonnement visuel, les nuances linguistiques, la compréhension contextuelle et les tâches complexes telles que l’analyse des données visuelles, le sous-titrage des images, la génération de dialogues, la traduction et la génération de dialogues, et peuvent gérer des tâches en plusieurs étapes sans effort. Les autres cas d’utilisation auxquels les modèles Llama conviennent parfaitement incluent le raisonnement et la compréhension visuels sophistiqués, la récupération de texte-image, l’ancrage visuel, la réponse visuelle aux questions, la synthèse et la précision du texte, la classification des textes, l’analyse des sentiments et le raisonnement par nuances, la modélisation du langage, les systèmes de dialogue, la génération de code et le suivi des instructions.
Versions de modèles
Llama 3.3 70B
Modèle 70B paramétré uniquement pour les instructions qui offre des performances améliorées par rapport à Llama 3.1 70B et à Llama 3.2 90B lorsqu’il est utilisé pour des applications n’utilisant que du texte. Le Llama 3.3 70B offre des performances similaires à celles du Llama 3.1 405B, tout en ne nécessitant qu’une fraction des ressources de calcul.
Nombre maximum de jetons : 128 000
Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.
Réglage précis pris en charge : non
Cas d’utilisation pris en charge : IA conversationnelle conçue pour la création de contenu, les applications d’entreprise et la recherche, offrant des fonctionnalités avancées de compréhension des langues, notamment la synthèse de texte, la classification, l’analyse des sentiments et la génération de code. Le modèle permet également de tirer parti des résultats du modèle pour améliorer d’autres modèles, notamment la génération de données synthétiques et la distillation.
Llama 3.2 90B
Modèle multimodal qui prend en charge à la fois des entrées et des sorties de texte et d’image. Idéal pour les applications nécessitant une intelligence visuelle sophistiquée, telles que l’analyse d’images, le traitement de documents, les chatbots multimodaux et les systèmes autonomes.
Nombre maximum de jetons : 128 000
Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.
Réglage précis pris en charge : non
Cas d’utilisation pris en charge : compréhension des images, raisonnement visuel et interaction multimodale, permettant des applications avancées telles que le sous-titrage d’images, la récupération d’images et de textes, l’ancrage visuel, la réponse visuelle aux questions et la réponse visuelle aux questions documentées, avec une capacité unique à raisonner et à tirer des conclusions à partir d’entrées visuelles et textuelles.
Llama 3.2 11B
Modèle multimodal qui prend en charge à la fois des entrées et des sorties de texte et d’image. Idéal pour les applications nécessitant une intelligence visuelle sophistiquée, telles que l’analyse d’images, le traitement de documents et les chatbots multimodaux.
Nombre maximum de jetons : 128 000
Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.
Réglage précis pris en charge : non
Cas d’utilisation pris en charge : compréhension des images, raisonnement visuel et interaction multimodale, permettant des applications avancées telles que le sous-titrage d’images, la récupération de texte d’image, l’ancrage visuel, la réponse visuelle aux questions et la réponse visuelle aux questions des documents.
Llama 3.2 3B
Modèle léger contenant uniquement du texte conçu pour fournir des résultats très précis et pertinents. Conçu pour les applications nécessitant une inférence à faible latence et des ressources de calcul limitées. Idéal pour les requêtes et la réécriture rapide, les assistants d’écriture mobiles alimentés par l’IA et les applications de service client, en particulier sur les appareils périphériques où son efficacité et sa faible latence permettent une intégration fluide dans diverses applications, notamment les assistants d’écriture mobiles alimentés par l’IA et les chatbots du service client.
Nombre maximum de jetons : 128 000
Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.
Réglage précis pris en charge : non
Cas d’utilisation pris en charge : génération avancée de texte, synthèse, analyse des sentiments, intelligence émotionnelle, compréhension du contexte et raisonnement fondé sur le bon sens.
Llama 3.2 1B
Modèle léger contenant uniquement du texte conçu pour fournir des réponses rapides et précises. Idéal pour les appareils périphériques et les applications mobiles. Le modèle permet des capacités d’IA intégrées à l’appareil tout en préservant la vie privée de l’utilisateur et en minimisant les temps de latence.
Nombre maximum de jetons : 128 000
Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.
Réglage précis pris en charge : non
Cas d’utilisation pris en charge : cas d’utilisation du dialogue multilingue tels que la gestion des informations personnelles, la recherche de connaissances multilingues et les tâches de réécriture.
Llama 3.1 405B
Idéal pour les applications d’entreprise, la recherche et le développement, la génération de données de synthèse et la distillation de modèles. Grâce à des fonctionnalités d’inférence optimisées pour la latence et disponibles en prévisualisation publique, ce modèle offre des performances et une capacité de mise à l’échelle exceptionnelles. Ainsi, les entreprises peuvent accélérer leurs initiatives en matière d’IA, tout en conservant des résultats de haute qualité dans divers cas d’utilisation.
Nombre maximum de jetons : 128 000
Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.
Mise au point prise en charge : bientôt disponible
Cas d’utilisation pris en charge : connaissances générales, génération de textes longs, traduction automatique, compréhension contextuelle améliorée, raisonnement et prise de décision avancés, meilleure gestion de l’ambiguïté et de l’incertitude, créativité et diversité accrues, maniabilité, mathématiques, utilisation d’outils, traduction multilingue et codage.
Lama 3.1 70B
Idéal pour la création de contenu, l’IA conversationnelle, la compréhension du langage, le développement de la recherche et les applications d’entreprise. Avec de nouvelles fonctionnalités d’inférence optimisées pour la latence et disponibles en prévisualisation publique, ce modèle établit une nouvelle référence en matière de performances pour les solutions d’IA traitant de nombreuses entrées textuelles et permettant aux applications de répondre plus rapidement et de gérer plus efficacement les longues requêtes.
Nombre maximum de jetons : 128 000
Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.
Réglage précis pris en charge : oui
Cas d’utilisation pris en charge : résumé de texte, classification de texte, analyse des sentiments et traduction linguistique.
Lama 3.1 8B
Idéal pour une puissance de calcul et des ressources limitées, des délais d’entraînement plus courts et des appareils périphériques.
Nombre maximum de jetons : 128 000
Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï.
Réglage précis pris en charge : oui
Cas d’utilisation pris en charge : résumé de texte, classification de texte, analyse des sentiments et traduction linguistique.
Llama 3 70B
Idéal pour la création de contenu, l'IA conversationnelle, la compréhension du langage, le développement de la recherche et les applications d'entreprise.
Nombre maximum de jetons : 8 000
Langues : anglais
Réglage précis pris en charge : non
Cas d’utilisation pris en charge : la synthèse et la précision du texte, la classification et la nuance du texte, l’analyse des sentiments et le raisonnement nuancé, la modélisation du langage, les systèmes de dialogue, la génération de code et le suivi des instructions.
Llama 3 8B
Idéal pour une puissance de calcul et des ressources limitées, des délais d'entraînement plus courts et des appareils périphériques.
Nombre maximum de jetons : 8 000
Langues : anglais
Réglage précis pris en charge : non
Cas d’utilisation pris en charge : la synthèse, la classification des textes, l’analyse des sentiments et la traduction linguistique
Llama 2 70B
Modèle affiné de la taille de paramètre de 70 M. Il convient aux tâches à plus grande échelle telles que la modélisation de langues, la génération de texte ou des systèmes de dialogue.
Nombre maximum de jetons : 4 000
Langues : anglais
Réglage précis pris en charge : oui
Cas d’utilisation pris en charge : chat de type assistant
Llama 2 13B
Modèle affiné de la taille de paramètre de 13 M. Il convient aux tâches à petite échelle telles que la classification de textes, l'analyse des sentiments ou la traduction de langues.
Nombre maximum de jetons : 4 000
Langues : anglais
Réglage précis pris en charge : oui
Cas d’utilisation pris en charge : chat de type assistant
Nomura utilise les modèles Llama de Meta sur Amazon Bedrock pour démocratiser l’IA générative
Aniruddh Singh, Executive Director et Enterprise Architect de Nomura, décrit le parcours de l’institution financière visant à démocratiser l’IA générative à l’échelle de l’entreprise en utilisant Amazon Bedrock et les modèles Llama de Meta. Amazon Bedrock fournit un accès essentiel aux principaux modèles de fondation tels que Llama, permettant une intégration fluide. Llama offre des avantages clés à Nomura, notamment une innovation plus rapide, une transparence, des barrières de protection contre les biais et des performances robustes en matière de synthèse de texte, de génération de code, d’analyse des journaux et de traitement des documents.
TaskUs révolutionne l’expérience client en utilisant les modèles Llama de Meta sur Amazon Bedrock
TaskUs, l’un des principaux fournisseurs de services numériques externalisés et d’expérience client de nouvelle génération destinés aux entreprises les plus innovantes du monde, aide ses clients à représenter, protéger et développer leurs marques. Sa plateforme innovante TaskGPT, alimentée par Amazon Bedrock et les modèles Llama de Meta, permet à ses coéquipiers de fournir un service exceptionnel. TaskUs développe des outils sur TaskGPT qui exploitent Amazon Bedrock et Llama pour la paraphrase, la génération de contenu, la compréhension et la gestion de tâches complexes de manière rentable.