Trainium を利用すべき理由
AWS Trainium チップは、コストを削減しながら高いパフォーマンスを実現するために、AWS が AI トレーニングと推論専用に構築した AI チップのファミリーです。
第 1 世代の AWS Trainium チップは、Amazon Elastic Compute Cloud (Amazon EC2) Trn1 インスタンスを強化します。これらのインスタンスは、同等の Amazon EC2 インスタンスよりもトレーニングコストを最大 50% 削減できます。データブリックス、リコー、NinjaTech AI、Arcee AI を含む多くのお客様が、Trn1 インスタンスのパフォーマンスとコスト面でのメリットを実感しています。
AWS Trainium2 チップは、第 1 世代トレイニウムの最大 4 倍のパフォーマンスを発揮します。Trainium2 ベースの Amazon EC2 Trn2 インスタンスは、生成 AI 専用に構築されています。これは、数千億から数兆を超えるパラメータを持つモデルのトレーニングとデプロイのための最も強力な EC2 インスタンスです。Trn2 インスタンスは、現世代の GPU ベースの EC2 P5e および P5en インスタンスよりも 30%~40% 優れた料金パフォーマンスを実現します。Trn2 インスタンスには、当社独自のチップ間インターコネクトである NeuronLink で相互接続された 16 個の Trainium2 チップが搭載されています。Trn2 インスタンスを使用して、大規模言語モデル (LLM)、マルチモーダルモデル、拡散トランスフォーマーなどの最も要求の厳しいモデルのトレーニングとデプロイを行い、次世代の幅広い生成 AI アプリケーションセットを構築できます。Trn2 UltraServers は、まったく新しい EC2 製品 (プレビュー版で利用可能) で、スタンドアロン EC2 インスタンスが提供できるよりも多くのメモリとメモリ帯域幅を必要とする大規模モデルに最適です。UltraServer の設計では、NeuronLink を使用して 4 つの Trn2 インスタンスにかけて 64 個の Trainium2 チップを 1 つのノードに接続し、新しい機能を活用できるようにしています。推論に関しては、UltraServers は業界トップクラスの応答時間を実現し、最高のリアルタイム体験を実現するのに役立ちます。トレーニングに関しては、UltraServers はスタンドアロンインスタンスと比較して、モデルの並列処理のための集団通信が高速になるため、モデルトレーニングの速度と効率が向上します。
PyTorch や JAX などの一般的な機械学習 (ML) フレームワークのネイティブサポートを利用して、Trn2 および Trn1 インスタンスでモデルのトレーニングとデプロイを開始できます。