これまでに構築された最大のプロセッサは1.2兆個のトランジスタを搭載し、トップエンドのIntelおよびAMDCPUとGPUを後回しにします

ハードウェア / これまでに構築された最大のプロセッサは1.2兆個のトランジスタを搭載し、トップエンドのIntelおよびAMDCPUとGPUを後回しにします 読んだ3分

CerebrasSystemsプロセッサソース-HPCGuru



ある会社は、IntelやAMDがこれまでに製造したものをはるかに超える、これまでで最大の処理チップを作成することに成功しました。シリコンウェーハ上に非常識な1.2兆個のトランジスタを搭載したこのプロセッサは、これまでに製造された中で群を抜いて最大の半導体チップです。プロセッサの背後にある会社は、人工知能(AI)を強化するためにチップを専用にすることを計画しています。

新しい人工知能会社CerebrasSystemsによって製造されたCerebrasWafer Scale Engineは、これまでに製造された最大の半導体チップです。中央処理装置またはCPUには1.2兆個のトランジスタがあり、これはシリコンチップの中で最も基本的で不可欠なオンオフ電子スイッチです。 Advanced Micro Devicesプロセッサによって最近製造されたプロセッサには、320億個のトランジスタがあります。言うまでもなく、Cerebras Wafer Scale Engineのトランジスタ数は、トップエンドのAMDやIntelのCPUやGPUをはるかに上回っています。



Cerebras Wafer Scale Engineは、これまでに製造された中で最大のシングルチッププロセッサです。

Cerebras WSEは、46,225平方ミリメートルの巨大なシリコンウェーハで、400,000のAI最適化、キャッシュなし、オーバーヘッドなしのコンピューティングコアと、メモリの唯一のレベルとして18ギガバイトのローカル分散型超高速SRAMメモリを搭載しています階層。比較すると、最大のNVIDIA GPUは815平方ミリメートルを測定し、211億個のトランジスタを搭載しています。簡単な計算で、CerebrasWSEはハイエンドのNVIDIAGPUよりも56.7倍大きいことがわかります。



CerebrasWSEのメモリ帯域幅は1秒あたり9ペタバイトです。言い換えれば、世界最大のプロセッサは、3,000倍の高速オンチップメモリ​​と10,000倍のメモリ帯域幅を誇っています。プロセッサのコアは、きめ細かいオールハードウェアのオンチップメッシュ接続通信ネットワークでリンクされています。簡素化されたアーキテクチャと巨大なダイサイズ、および超高帯域幅により、プロセッサは毎秒100ペタビットの総帯域幅を提供できます。簡単に言えば、Cerebras WSEの多数のコア、より多くのローカルメモリ、および低遅延、高帯域幅のファブリックにより、人工知能タスクを大幅に高速化するための理想的なプロセッサになります。

IntelとAMDがこのようなカスタム設計の巨大なCPUとGPUを製造していないのはなぜですか?

Intel、AMD、および 他のほとんどのシリコンチップメーカー まったく異なる従来のアプローチを採用します。一般的に利用可能な強力なGPUおよびCPUは、実際には12インチのシリコンウェーハ上に作成されたチップのコレクションであり、チップ工場でバッチで処理されます。一方、Cerebras WSEは、単一のウェーハ上で相互接続された単一のチップです。簡単に言えば、最大のプロセッサ上の1.2兆個のトランジスタはすべて、単一の巨大なシリコンチップとして真に連携しています。



IntelやAMDのような企業がそのようなめちゃくちゃ大きなシリコンウェーハに投資しないのはかなり単純な理由があります。単一のシリコンウェーハにはいくつかの不純物が含まれているため、カスケード効果が発生し、最終的には障害が発生する可能性があります。チップメーカーは同じことをよく知っており、それに応じてプロセッサを構築しています。したがって、確実に機能するシリコンチップに関するシリコンウェーハの真の歩留まりは非常に低い。言い換えれば、シリコンウェーハのチップが1つしかない場合、不純物や故障の可能性は非常に高くなります。

興味深いことに、他の企業は実行可能な解決策を見つけていませんが、Cerebrasはそのチップを冗長になるように設計したと報告されています。簡単に言えば、1つの不純物でチップ全体が無効になるわけではない、とCerebrasSystemsを共同設立してCEOを務めるAndrewFeldman氏は述べています。 「「 AI作業のためにゼロから設計されたCerebrasWSEには、レチクル間の接続、歩留まり、電力供給、パッケージング。 AI作業のパフォーマンスを最適化するために、すべてのアーキテクチャ上の決定が行われました。その結果、Cerebras WSEは、ワークロードに応じて、消費電力とスペースのごく一部で、既存のソリューションの数百倍または数千倍のパフォーマンスを提供します。」

AIタスクは引き続きより大きなチップを要求します:

新しいプロセッサは、AIタスクを処理するようにカスタム構築されています。これは主に、チップが大きいほど情報をより迅速に処理し、より短い時間で回答を生成できるためです。ほとんどのテクノロジー企業は、今日のAIの根本的な制限は、モデルのトレーニングに時間がかかりすぎることであると主張しています。したがって、少数の技術リーダーは、より少ないデータセットに依存するようにAIアルゴリズムを最適化しようとしています。ただし、優れたAIは、データセットが大きいほど明らかに良くなります。 CPUサイズを増やすことでトレーニング時間を短縮することは、結果として得られるAIの品質を損なうことなく、処理を向上させ、トレーニング時間を短縮する1つの方法です。

Cerebras WSEに導入されたプロセッサ間通信ファブリックも、他に類を見ないものです。低遅延、高帯域幅の2Dメッシュは、WSE上の400,000コアすべてを、合計100ペタビット/秒の帯域幅でリンクします。さらに、プロセッサのコアはスパース線形代数コア(SLAC)であり、ニューラルネットワークの計算プリミティブ用に最適化されています。どちらの側面も、AIタスクのチップをはるかに先取りしています。したがって、ゲーマーがPC用に最大かつ最も強力なCPUまたはGPUを購入できる可能性はほとんどありません。

タグ amd インテル