AppleがM1チップを開発したように、NVIDIAがArmベースの独自CPU「Grace」を発表しました。同社初のデータセンター向けCPUで、AIスーパーコンピューティングや自然言語処理など、大規模なデータ処理を対象としています。
NVIDIAによると、「Grace」を搭載したシステムは、x86ベースの「DGX」システムと比較して、1兆個のパラメーターを持つ自然言語処理(NLP)モデルの学習を約10倍速でこなします。
このパフォーマンス向上を支えるのが、NVIDIA独自の「NVLink」インターコネクト技術です。同技術の適用により、Grace CPUとNVIDA製GPU間で900GB/sのスループットを実現し、これは現在の主要なサーバーの約30倍の速度だとNVIDIAは説明しています。また、LPDDR5xメモリの採用により、Graceシステムのエネルギー効率は10倍に向上、DDR4 RAMの2倍の帯域幅を実現しています。
この「Grace」は、スイス国立スーパーコンピューティングセンター(CSCS)と、米国のロスアラモス国立研究所に採用予定。両施設とも2023年に「Grace」を搭載したシステムを立ち上げ予定で、その頃には他の顧客にも「Grace」を採用したシステムが広がる見通しです。
NVIDIAはこのほか、Amazon Web Servies(AWS)との提携も発表。NVIDIA GPUをAWSのArmベースのCPU「Graviton2」と組み合わせると発表しました。このNVIDIA GPUを搭載したAWSインスタンスは、Androidゲームをネイティブに実行できるだけでなく、モバイル機器にゲームをストリーミングしたり、レンダリングやエンコードを高速化できるといいます。
加えて、NVIDIAはArmベースのHPC(ハイパフォーマンス・コンピューティング)用の開発者キットも発表。同キットには、Armのサーバー向けCPUである「ARM Neoverse」を80コア、NVIDIA A100 GPUを2基、ネットワークやセキュリティの高度化、ストレージを高速化する「NVIDIA BlueField-2 DPU」を搭載しています。
エネルギー効率の高いArmアーキテクチャは、膨大な電力を消費するデータセンターと相性が良いとされています。コンシューマーPC分野におけるApple M1の登場に続き、データセンター向けにもArmベースの製品が拡充されたことは、x86アーキテクチャを主力とするインテルの新たな脅威と言えそうです。
(Source:NVIDIA。Engadget日本版より転載)
関連記事
・Armが次世代プロセッサーアーキテクチャ「Arm9」を発表
・NVIDIAとハーバード大がゲノム解析を短時間低コストでこなすAIツールキット「AtacWorks」開発
・英国の市場規制当局がNVIDIAのArm買収に関し意見募集、ソフトバンクから買収成立なるか
・Armの買収に伴ってNVIDIAが医学研究に特化したUKスーパーコンピュータの開発を発表
・NVIDIAがイタリアの大学コンソーシアムが主導する欧州発の世界最速AIスパコン「Leonardo」にGPUを供給へ
・クボタが農業機械のスマート化に向けNVIDIAと協業、適切な農作業の判断と適時実行を行う完全無人農機を目指す
・メルセデス・ベンツとNVIDIAのタッグが「ソフトウェアを中心に据えた」自動車を2024年に市場投入
・NVIDIAがAmpereアーキテクチャのデータセンター用GPUを出荷、タンパク質モデリングなどAI学習の性能が20倍に
カテゴリー:ハードウェア
タグ:Amazon Web Services / AWS(製品・サービス)、Arm(企業)、自然言語処理 / NLP(用語)、GTC / GPU Technology Conference、GPU(用語)、NVIDIA(企業)
- Original:https://jp.techcrunch.com/2021/04/13/nvidia-arm-grace/
- Source:TechCrunch Japan
- Author:Engadget Japanese