史上最大のAIチップ

   
★AIDB会員限定Discordを開設いたしました! ログインの上、マイページをご覧ください。

★企業と人材のマッチングサービスを準備中です。アンケートのご協力をお願いいたします!↓

シリコンの強力なスラブは、それらのちっぽけなGPUに対応する準備ができている

Max Smolaks(寄稿者)

アメリカのスタートアップCerebras Systemsは、人工知能のワークロード用の大規模なプロセッサである最初の製品をステルスのままにしていた。

Wafer Scale Engine(WSE)は8.5 x 8.5インチの中に400,000コアを搭載し、すべてディープラーニング用に最適化され、18GBのオンチップメモリ​​を搭載している。


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

「深層学習には、大規模で成長し続ける独自の計算要件がある。そして、それは基本的に他の仕事のために設計されたレガシーマシンにマッチしていない」

 Cerebrasの製品管理ディレクターを務める博士アンディ・ホックは述べた。

「その結果、今日のAIはアプリケーションやアイデアではなく、コンピューティングの可用性に制約されている。単一の新しい仮説のテスト、つまり新しいモデルのトレーニングには、数日、数週間、または数か月かかることもあり、計算時間は数十万ドルにもなる。これは革新への大きな障害だ。」

本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。







■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






業界/カテゴリー

PAGE TOP