Llama di Meta su Amazon Bedrock

Costruisci il futuro dell'IA con Llama

Presentazione di Llama 3.3

Llama 3.3 è un modello 70B ottimizzato per le istruzioni di solo testo che offre prestazioni migliorate rispetto a Llama 3.1 70B e a Llama 3.2 90B se utilizzato per applicazioni di solo testo. Llama 3.3 70B offre prestazioni simili a Llama 3.1 405B, pur richiedendo solo una frazione delle risorse computazionali.

L'addestramento completo di Llama 3.3 70B si traduce in una solida capacità di comprensione e generazione in diverse attività. Questo modello supporta l'IA conversazionale ad alte prestazioni progettata per la creazione di contenuti, le applicazioni aziendali e la ricerca, offrendo funzionalità avanzate di comprensione del linguaggio, tra cui riepilogo del testo, classificazione, analisi del sentiment e generazione di codice.

Llama 3.2 90B è il modello più avanzato di Meta ed è ideale per applicazioni di livello aziendale. Llama 3.2 è il primo modello Llama a supportare le attività di visione con una nuova architettura del modello che integra le rappresentazioni del codificatore di immagini nel modello linguistico. Questo modello eccelle nella conoscenza generale, nella generazione di testi lunghi, nella traduzione multilingue, nella programmazione, nella matematica e nel ragionamento avanzato. Inoltre introduce funzionalità di ragionamento sulle immagini, che consentono una comprensione sofisticata delle immagini e un ragionamento visivo. Questo modello è ideale per i seguenti casi d'uso: creazione di didascalie per immagini, recupero dei testi nelle immagini, verifica visiva, risposta visiva alle domande e ragionamento visivo e risposta visiva alle domande sui documenti.

Llama 3.2 11B è adatto per la creazione di contenuti, l'intelligenza artificiale conversazionale, la comprensione del linguaggio e le applicazioni aziendali che richiedono un ragionamento visivo. Il modello dimostra ottime prestazioni nel riepilogo dei testi, nell'analisi del sentiment, nella generazione di codice e nel seguire le istruzioni; inoltre, sa ragionare sulle immagini. Questo modello è ideale per i seguenti casi d'uso: creazione di didascalie per immagini, recupero dei testi nelle immagini, verifica visiva, risposta visiva alle domande e ragionamento visivo e risposta visiva alle domande sui documenti.

Llama 3.2 3B offre un'esperienza AI più personalizzata con elaborazione sul dispositivo. Llama 3.2 3B è progettato per applicazioni che richiedono inferenze a bassa latenza e risorse computazionali limitate. Eccelle nelle attività di riepilogo, classificazione e traduzione linguistica dei testi. Questo modello è ideale per i seguenti casi d'uso: assistenti di scrittura mobili basati sull'intelligenza artificiale e applicazioni per il servizio clienti.

Llama 3.2 1B è il modello più leggero della collezione di modelli Llama 3.2 ed è perfetto per il recupero e il riepilogo per dispositivi edge e applicazioni mobili. Abilita funzionalità di intelligenza artificiale sul dispositivo preservando la privacy degli utenti e riducendo al minimo la latenza. Questo modello è ideale per i seguenti casi d'uso: gestione delle informazioni personali e recupero delle conoscenze multilingue.

Vantaggi

Llama 3.2 offre un'esperienza di intelligenza artificiale più personalizzata con elaborazione su dispositivo. I modelli Llama 3.2 sono progettati per essere più efficienti, con latenza ridotta e prestazioni migliorate, rendendoli adatti a un'ampia gamma di applicazioni.
La lunghezza contestuale di 128.000 consente a Llama di catturare relazioni ancora più sfumate nei dati.
I modelli Llama sono addestrati su 15.000 miliardi di token provenienti da origini dati pubbliche online per comprendere meglio le complessità linguistiche.
Llama 3.2 è multilingue e supporta otto lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese.
L'API gestita di Amazon Bedrock rende l'utilizzo dei modelli Llama più semplice che mai. Le organizzazioni di tutte le dimensioni possono accedere alla potenza di Llama senza preoccuparsi dell'infrastruttura sottostante. Poiché Amazon Bedrock è serverless, non è necessario gestire alcuna infrastruttura, mentre è possibile integrare e implementare in modo sicuro le funzionalità di IA generativa di Llama nelle applicazioni utilizzando i servizi AWS già noti. Ciò significa che è possibile concentrarsi su ciò che si sa fare meglio: creare le proprie applicazioni di intelligenza artificiale.

Informazioni su Llama

Negli ultimi dieci anni, Meta si è concentrata sull'obiettivo di fornire strumenti agli sviluppatori e di promuovere la collaborazione e i progressi tra sviluppatori, ricercatori e organizzazioni. I modelli Llama dispongono di un'ampia gamma di parametri, che consentono agli sviluppatori di scegliere il modello più adatto alle loro esigenze e al loro budget per l'inferenza. I modelli Llama in Amazon Bedrock aprono prospettive infinite, perché gli sviluppatori non devono preoccuparsi della scalabilità o della gestione dell'infrastruttura. Amazon Bedrock è una soluzione molto semplice e pronta all'uso per gli sviluppatori che vogliono iniziare a utilizzare Llama.

Casi d'uso

I modelli Llama eccellono nella comprensione delle immagini e nel ragionamento visivo, nelle sfumature linguistiche, nella comprensione contestuale e in attività complesse come l'analisi dei dati visivi, la creazione di didascalie per le immagini, la generazione di dialoghi, la traduzione e la generazione di dialoghi e sono in grado di gestire attività in più fasi senza sforzo. Altri casi d'uso perfetti per i modelli Llama includono ragionamenti sofisticati e comprensione visiva, recupero di immagini e testo, verifica visiva, risposta visiva alle domande dei documenti, riepilogo e precisione del testo, classificazione del testo, analisi del sentimento e ragionamento delle sfumature, modellazione del linguaggio, sistemi di dialogo, generazione di codice e seguire le istruzioni.

Versioni del modello

Llama 3.3 70B

Modello 70B ottimizzato per le istruzioni di solo testo che offre prestazioni migliorate rispetto a Llama 3.1 70B e a Llama 3.2 90B se utilizzato per applicazioni di solo testo. Llama 3.3 70B offre prestazioni simili a Llama 3.1 405B, pur richiedendo solo una frazione delle risorse computazionali.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, spagnolo e tailandese.

Ottimizzazione supportata: no

Casi d'uso supportati: IA conversazionale ad alte prestazioni progettata per la creazione di contenuti, applicazioni aziendali e ricerca, con funzionalità avanzate di comprensione del linguaggio, tra cui riepilogo del testo, classificazione, analisi del sentiment e generazione di codice. Il modello supporta anche la capacità di sfruttare i risultati del modello per migliorare altri modelli, tra cui la generazione e la distillazione di dati sintetici.

Llama 3.2 90B

Modello multimodale che accetta input e output sia di testo che di immagini. Ideale per applicazioni che richiedono un'intelligenza visiva sofisticata, come analisi delle immagini, elaborazione di documenti, chatbot multimodali e sistemi autonomi.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese.

Ottimizzazione supportata: no

Casi d'uso supportati: comprensione delle immagini, ragionamento visivo e interazione multimodale, capacità di implementazione di applicazioni avanzate come sottotitoli di immagini, recupero immagine-testo, fondamento visivo, risposta visiva alle domande e risposta visiva alle domande dei documenti, con una capacità unica di ragionare e trarre conclusioni da input visivi e testuali.

Leggi il blog

Llama 3.2 11B

Modello multimodale che accetta input e output sia di testo che di immagini. Ideale per applicazioni che richiedono un'intelligenza visiva sofisticata, come analisi delle immagini, elaborazione di documenti e chatbot multimodali.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese.

Ottimizzazione supportata: no

Casi d'uso supportati: comprensione delle immagini, ragionamento visivo e interazione multimodale, capacità di implementazione di applicazioni avanzate come sottotitoli di immagini, recupero di immagini e testo, fondamenti visivi, risposta visiva alle domande e risposta visiva alle domande dei documenti.

Leggi il blog

Llama 3.2 3B

Modello leggero di solo testo pensato per fornire risultati estremamente accurati e pertinenti. Progettato per applicazioni che richiedono inferenze a bassa latenza e risorse computazionali limitate. Ideale per riscritture di query e prompt, assistenti di scrittura mobile basati sull'IA e applicazioni di assistenza clienti, in particolare su dispositivi edge, dove la sua efficienza e la bassa latenza consentono una perfetta integrazione in varie applicazioni, tra cui assistenti di scrittura mobile basati sull'IA e chatbot per il servizio clienti.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese.

Ottimizzazione supportata: no

Casi d'uso supportati: generazione avanzata di testo, riepilogo, analisi del sentimento, intelligenza emotiva, comprensione contestuale e ragionamento basato sul buon senso.

Leggi il blog

Llama 3.2 1B

Modello leggero di solo testo creato per fornire risposte rapide e accurate. Ideale per dispositivi edge e applicazioni mobile. Il modello consente funzionalità di IA integrata nel dispositivo preservando la privacy degli utenti e riducendo al minimo la latenza.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese.

Ottimizzazione supportata: no

Casi d'uso supportati: casi d'uso del dialogo multilingue come la gestione delle informazioni personali, il recupero delle conoscenze multilingue e le attività di riscrittura.

Leggi il blog

Llama 3.1 405B

Ideale per applicazioni di livello aziendale, ricerca e sviluppo, generazione di dati sintetici e distillazione di modelli. Grazie alle funzionalità di inferenza ottimizzate per la latenza disponibili in anteprima pubblica, questo modello offre prestazioni e scalabilità eccezionali, consentendo alle organizzazioni di accelerare le iniziative di IA, senza rinunciare a risultati di alta qualità in diversi casi d'uso.

Numero massimo di token
: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese.

Supporto all'ottimizzazione: disponibile a breve

Casi d'uso supportati: conoscenze generali, generazione di testi lunghi, traduzione automatica, comprensione contestuale potenziata, ragionamento e processo decisionale avanzati, gestione dell'ambiguità e dell'incertezza, aumento della creatività e della diversità, facilità di gestione, calcoli matematici avanzati, uso di strumenti, traduzione multilingue e codifica.

Leggi il blog

Lama 3.1 70B

Ideale per la creazione di contenuti, l'IA conversazionale, la comprensione del linguaggio, lo sviluppo della ricerca e le applicazioni aziendali. Grazie alle nuove funzionalità di inferenza ottimizzate per la latenza disponibili in anteprima pubblica, questo modello stabilisce un nuovo benchmark di prestazioni per le soluzioni di IA che elaborano input testuali estesi, consentendo alle applicazioni di rispondere più rapidamente e di gestire in modo più efficiente le query più lunghe.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese.

Fine-tuning supportato: sì

Casi d'uso supportati: sintesi del testo, classificazione del testo, analisi del sentiment e traduzione linguistica.

Leggi il blog

Lama 3.1 8B

Ideale per potenza e risorse di calcolo limitate, tempi di formazione più rapidi e dispositivi edge.

Numero massimo di token: 128.000

Lingue: inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e tailandese.

Fine-tuning supportato: sì

Casi d'uso supportati: sintesi del testo, classificazione del testo, analisi del sentiment e traduzione linguistica.

Leggi il blog

Lama 3 70B

Ideale per la creazione di contenuti, l'intelligenza artificiale conversazionale, la comprensione del linguaggio, lo sviluppo della ricerca e le applicazioni aziendali. 

Numero massimo di token: 8.000

Lingue: inglese

Ottimizzazione supportata: no

Casi d'uso supportati: sintesi e precisione del testo, classificazione e sfumature del testo, analisi del sentiment e ragionamento delle sfumature, modellazione del linguaggio, sistemi di dialogo, generazione di codice e conseguenti istruzioni.

Leggi il blog

Lama 3 8B

Ideale per potenza e risorse di calcolo limitate, tempi di formazione più rapidi e dispositivi edge.

Numero massimo di token: 8.000

Lingue: inglese

Ottimizzazione supportata: no

Casi d'uso supportati: riepilogo del testo, classificazione del testo, analisi del sentiment e traduzione linguistica

Leggi il blog

Lama 2 70B

Modello ottimizzato nella dimensione dei parametri di 70 B. Adatto per attività su larga scala come la modellazione del linguaggio, la generazione di testo e i sistemi di dialogo.

Numero massimo di token: 4.000

Lingue: inglese

Ottimizzazione supportata: sì

Casi d'uso supportati: chat simile a un assistente

Leggi il blog

Lama 2 13B

Modello ottimizzato nella dimensione dei parametri di 13 B. Adatto per attività su piccola scala come la classificazione dei testi, l'analisi del sentiment e la traduzione linguistica.

Numero massimo di token: 4.000

Lingue: inglese

Ottimizzazione supportata: sì

Casi d'uso supportati: chat simile a un assistente

Leggi il blog

Nomura utilizza i modelli Llama di Meta in Amazon Bedrock per democratizzare l'IA generativa

 

Aniruddh Singh, Executive Director ed Enterprise Architect di Nomura, illustra il percorso intrapreso dall'istituto finanziario per democratizzare l'IA generativa in tutta l'azienda utilizzando Amazon Bedrock e i modelli Llama di Meta. Amazon Bedrock fornisce un accesso determinante ai principali modelli di fondazione come Llama, garantendo una perfetta integrazione. Llama offre a Nomura vantaggi essenziali, tra cui innovazione più rapida, trasparenza, guardrail per i pregiudizi e prestazioni affidabili nella sintesi del testo, nella generazione di codice, nell'analisi dei log e nell'elaborazione dei documenti. 

TaskUs rivoluziona le esperienze dei clienti utilizzando i modelli Llama di Meta in Amazon Bedrock

TaskUs, fornitore leader di servizi digitali esternalizzati e di customer experience di nuova generazione per le aziende più innovative del mondo, aiuta i propri clienti a rappresentare, proteggere e far crescere i loro marchi. La sua innovativa piattaforma TaskGPT, basata su Amazon Bedrock e sui modelli Llama di Meta, consente ai membri del team di fornire un servizio eccezionale. TaskUs crea strumenti su TaskGPT che sfruttano Amazon Bedrock e Llama per parafrasi, generazione di contenuti, comprensione e gestione di attività complesse a costi contenuti.