AWS Inferentia

Erzielen Sie eine hohe Leistung bei niedrigsten Kosten in Amazon EC2 für Deep Learning- und generative KI-Inferenz

Warum Inferentia?

AWS-Inferentia-Chips wurden von AWS so entwickelt, dass sie in Amazon EC2 eine hohe Leistung zu den niedrigsten Kosten für Ihre Inferenzanwendungen von Deep Learning (DL) und generative KI bieten. 

Der AWS-Inferentia-Chip der ersten Generation treibt Inf1-Instances von Amazon Elastic Compute Cloud (Amazon EC2) an, die einen bis zu 2,3-fach höheren Durchsatz und bis zu 70 % niedrigere Kosten pro Inferenz als vergleichbare Amazon-EC2-Instances bieten. Viele Kunden, darunter Finch AI, Sprinklr, Money Forward und Amazon Alexa, haben Inf1-Instances eingeführt und die Leistungs- und Kostenvorteile erkannt.

Der AWS-Inferentia2-Chip bietet einen bis zu 4-mal höheren Durchsatz und eine bis zu 10-mal niedrigere Latenzzeit im Vergleich zu Inferentia. Inferentia2-basierte Amazon-EC2-Inf2-Instances sind für die skalierbare Bereitstellung zunehmend komplexer Modelle wie große Sprachmodelle (LLM) und latenter Diffusionsmodelle optimiert. Inf2-Instances sind die ersten für Inferenzen optimierten Instances in Amazon EC2, die skalierbare verteilte Inferenzen mit Ultra-Hochgeschwindigkeitskonnektivität zwischen Chips unterstützen. Viele Kunden, darunter Leonardo.ai, die Deutsche Telekom und Qualtrics, haben Inf2-Instances für ihre DL- und generativen KI-Anwendungen eingeführt. 

AWS Neuron SDK hilft Entwicklern, Modelle auf den AWS-Inferentia-Chips bereitzustellen (und sie auf AWS-Trainium-Chips zu trainieren). AWS Neuron SDK lässt sich nativ in gängige Frameworks wie PyTorch und TensorFlow integrieren, sodass Sie Ihren bestehenden Code und Workflows weiter nutzen und auf Inferentia-Chips ausführen können.

Vorteile von AWS Inferentia

Jeder Inferentia-Chip der ersten Generation hat vier NeuronCores der ersten Generation, und jede EC2-Inf1-Instance hat bis zu 16 Inferentia-Chips. Jeder Inferentia2-Chip hat zwei NeuronCores der zweiten Generation, und jede EC2-Inf2-Instance hat bis zu 12 Inferentia2-Chips. Jeder Inferentia2-Chip unterstützt bis zu 190 Tera-Gleitkommaoperationen pro Sekunde (TFLOPS) an FP16-Leistung. Die erste Generation von Inferentia verfügt über 8 GB DDR4-Speicher pro Chip und bietet außerdem eine große Menge an On-Chip-Speicher. Inferentia2 bietet 32 GB HBM pro Chip, was den Gesamtspeicher um das Vierfache und die Speicherbandbreite um das Zehnfache gegenüber Inferentia erhöht.

AWS Neuron SDK lässt sich nativ in beliebte ML-Frameworks wie PyTorch und TensorFlow integrieren. Mit AWS Neuron können Sie diese Frameworks nutzen, um DL-Modelle auf beiden AWS-Inferentia-Chips bereitzustellen, und Neuron ist so konzipiert, dass Codeänderungen und die Bindung an anbieterspezifische Lösungen minimiert werden. Neuron hilft Ihnen, Ihre Inferenzanwendungen für natürliche Sprachverarbeitung (NLP)/Verständnis, Sprachübersetzung, Textzusammenfassung, Video- und Bilderzeugung, Spracherkennung, Personalisierung, Betrugserkennung und mehr auf Inferentia-Chips auszuführen.

Inferentia der ersten Generation unterstützt die Datentypen FP16, BF16 und INT8. Inferentia2 bietet zusätzliche Unterstützung für FP32, TF32 und den neuen konfigurierbaren FP8 (cFP8) Datentyp, um Entwicklern mehr Flexibilität zur Optimierung von Leistung und Genauigkeit zu bieten. AWS Neuron übernimmt hochpräzise FP32-Modelle und wandelt sie automatisch in Datentypen mit geringerer Genauigkeit um, wobei Genauigkeit und Leistung optimiert werden. Autocasting verkürzt die Zeit bis zur Markteinführung, da keine Nachschulung mit geringerer Präzision erforderlich ist.

Inferentia2 bietet Hardware-Optimierungen für dynamische Eingabegrößen und benutzerdefinierte, in C++ geschriebene Operatoren. Es unterstützt auch das stochastische Runden, eine Art des wahrscheinlichkeitsbasierten Rundens, das im Vergleich zu herkömmlichen Rundungsmodi eine hohe Leistung und höhere Genauigkeit ermöglicht.

Inf2-Instances bieten eine bis zu 50 % bessere Leistung/Watt im Vergleich zu vergleichbaren Amazon-EC2-Instances, da sie und die zugrundeliegenden Inferentia2-Chips speziell für die Ausführung von DL-Modellen in großem Maßstab entwickelt wurden. Inf2-Instances helfen Ihnen, Ihre Nachhaltigkeitsziele bei der Bereitstellung extrem großer Modelle zu erreichen.

Videos

Ein Blick hinter die Kulissen der generativen KI-Infrastruktur bei Amazon
Einführung in Amazon-EC2-Inf2-Instances, die von AWS Inferentia2 unterstützt werden
Wie vier AWS-Kunden mit AWS Inferentia die ML-Kosten senkten und Innovationen vorantrieben