Warum Trainium?
Bei den AWS-Trainium-Chips handelt es sich um eine Familie von KI-Chips, die speziell von AWS für KI-Training und Inferenz entwickelt wurden, um eine hohe Leistung zu erzielen und gleichzeitig die Kosten zu senken.
Der AWS-Trainium-Chip der ersten Generation unterstützt Trn1-Instances von Amazon Elastic Compute Cloud (Amazon EC2), die bis zu 50 % niedrigere Trainingskosten haben als vergleichbare Amazon-EC2-Instances. Viele Kunden, darunter Databricks, Ricoh, NinjaTech AI und Arcee AI, erkennen die Leistungs- und Kostenvorteile von Trn1-Instances.
Der AWS-Trainium2-Chip bietet bis zu viermal so viel Leistung wie der Trainium der ersten Generation. Trainium2-basierte Amazon-EC2-Trn2-Instances wurden speziell für generative KI entwickelt und sind die leistungsstärksten EC2-Instanzen zum Trainieren und Bereitstellen von Modellen mit Hunderten von Milliarden bis hin zu über Billionen Parametern. Trn2-Instances bieten ein um 30 % bis 40 % besseres Preis-Leistungs-Verhältnis als die aktuelle Generation GPU-basierter EC2 P5e- und P5en-Instances. Trn2-Instances verfügen über 16 Trainium2-Chips, die mit NeuronLink, unserer firmeneigenen Chip-zu-Chip-Verbindung, verbunden sind. Sie können Trn2-Instances verwenden, um die anspruchsvollsten Modelle zu trainieren und bereitzustellen, darunter große Sprachmodelle (LLMs), multimodale Modelle und Diffusionstransformer, um eine breite Palette generativer KI-Anwendungen der nächsten Generation zu erstellen. Trn2-UltraServer, ein völlig neues EC2-Angebot (als Vorversion verfügbar), eignen sich hervorragend für die größten Modelle, die mehr Speicher und Speicherbandbreite benötigen, als eigenständige EC2-Instances bieten können. Das UltraServer-Design verwendet NeuronLink, um 64 Trainium2-Chips über vier Trn2-Instances zu einem Knoten zu verbinden und so neue Funktionen freizuschalten. UltraServer bieten branchenweit führende Reaktionszeiten und ermöglichen so beste Echtzeit-Erlebnisse. Beim Training steigern UltraServer die Geschwindigkeit und Effizienz des Modelltrainings durch eine schnellere kollektive Kommunikation für Modellparallelität im Vergleich zu eigenständigen Instances.
Sie können mit dem Training und der Bereitstellung von Modellen auf Trn2- und Trn1-Instances mit nativer Unterstützung für beliebte Frameworks von Machine Learning wie PyTorch und JAX beginnen.