Nvidia
NVIDIAは、次世代のAmpereアーキテクチャに基づくPCIe4.0互換GPUであるA100を正式に発売しました。 NVIDIAは、より低い250W TDPプロファイルを備えていますが、PCIe 4.0 Ampere A100 GPUがフル400WA100 HGX GPUのパフォーマンスの最大90%を提供できることを約束します。成長を続けるAmpereA100GPUファミリーの3番目のバリエーションであるA100PCIeは、人工知能(AI)、データサイエンス、およびスーパーコンピューティングクラスターを実行するサーバーを対象としています。
NVIDIAは、A100GPUのPCI-Express4.0バリアントを発表しました。 GPUは、7nmAmpereマイクロアーキテクチャに基づいています。さらに、同社は、Asus、Dell、Cisco、Lenovoなどの主要なサーバーメーカーからいくつかのA100搭載システムも発表しました。 250W A100 PCIe 4.0GPUアクセラレータは完全な400WTDPバリアントと非常によく似ており、NVIDIAは、TDPプロファイルが大幅に低下しているにもかかわらず、ほぼ同じパフォーマンスを約束しています。
同じ400WA100 HGXGPU構成で250WのPCIe4.0フォームファクターのNVIDIAA100 Ampere GPU:
NVIDIAは、PCIe 4.0 A100 PCIeGPUアクセラレータを発表しました。 Ampere GPUは、単一のA100 PCIe GPUから、合計600 GB / sの相互接続帯域幅を提供する12のNVLINKチャネルを介して同時に2つのカードを使用するサーバーに至るまで、さまざまな産業ユースケースで利用できます。 250W TDP A100 PCIe GPUアクセラレータは、400W A100 HGX GPUと比較した場合、コア構成に関してあまり変化しません。
今年のISCDigitalでは、 @nvidia そのA100を取り巻く発表をしました #GPU 、および新しい #AI のためのプラットフォーム #supercomputing 、 #NVIDIA MellanoxUFMCyber-AIプラットフォーム。詳細はこちら!☺️ #TechNews @NVIDIADC @NVIDIAAI @mellanoxtech #AI #月曜日の朝 https://t.co/YXrFGlTYJ0
— storageReview.com(@storagereview) 2020年6月22日
GA100 GPUは、108個のSMユニットに配置された6912個のCUDAコア、432個のTensorコア、および1.55 TB / s(1.6 TB /に四捨五入)の同じメモリ帯域幅を提供する40GBのHBM2メモリを備えた400WA100HGXバリアントの仕様を備えています。 s)。ただし、GPUパッケージを PCIe4.0標準 TDPを大幅に削減するという独自の欠点がありました。これは、ワークロードに基づいて10〜50%のパフォーマンスペナルティを意味すると報告されています。さらに、A100GPUの250WTDPバリアントは、持続的な負荷よりも短いバーストに適しています。
PCIe4.0フォームファクターパフォーマンスのNVIDIAA100 Ampere GPU:
TDPプロファイルが大幅に減少したため、カードは、より少ないTDP入力を補うためにより低いクロックを備えていると想定できます。ただし、NVIDIAがリリースしたパフォーマンスメトリックは、400W TDPバリアントに非常に近いため、本当に驚くべきものです。 FP64のパフォーマンスは引き続き9.7 / 19.5 TFLOP、FP32のパフォーマンスは19.5 / 156/312 TFLOP(スパース)、FP16のパフォーマンスは312/624 TFLOP(スパース)、INT8は624/1248 TOP(Sparsity)と評価されています。スパース性)。
[PR] GIGABYTEがNVIDIAA100PCIeを搭載したGシリーズサーバーの幅広いポートフォリオを発表 https://t.co/Jxjrjzpl0F pic.twitter.com/Lr5KNvhx09
— TechPowerUp(@TechPowerUp) 2020年6月22日
簡単な計算によると、NVIDIAは、AmpereベースのPCIe 4.0 250W A100 GPUが、トップサーバーアプリケーションでA100 HGXカード(400W)のパフォーマンスの90%を提供できることを保証しています。新しいバリアントが上記のタスクを完了するのにかかる時間が短いため、これは正当化されます。ただし、数値は短い間隔でのみ有効である必要があります。持続的なGPU機能を必要とする複雑な状況では、250W PCIe 4.0 GPUは、400W A100 HGX GPUのパフォーマンスを最大90%から最大50%まで提供できます。
Supermicroは、新しいGPUシステムを完全にサポートすることで、業界をリードするGPUシステムのポートフォリオを拡大します @NVIDIA ダース以上のシステム上のA100PCI-EGPU。
もっと詳しく知る: https://t.co/K8g41s7sKv #NVIDIA #Supermicro #A100 #AI #HPC #GPU @NVIDIADC pic.twitter.com/9og6gfdrlw
— Supermicro(@Supermicro_SMCI) 2020年6月22日
Ampereマイクロアーキテクチャは確かに新しいA100に利益をもたらします。 NVIDIAは、Voltaベースの前任者よりも少なくとも20倍のパフォーマンス向上を約束します。 PCIe 4.0 A100 GPUは、マルチインスタンスGPU技術を備えています。つまり、1つのA100を最大7つの個別のGPUに分割して、さまざまなコンピューティングタスクを処理できます。これによりセグメンテーションが強化されますが、第3世代のNVLinkがあり、複数のGPUを1つの巨大なGPUに結合できます。
タグ nvidia