顧客のワークロードのパフォーマンスを上げるためにカスタムチップに頼る企業が増えているが、Amazonもその例外ではない。同社は2019年に、機械学習の推論学習を高速化するためにInferentiaチップを導入した。その後、同社は2020年に機械学習のモデルの学習専用である第2のTrainiumチップをローンチした。そして本日、AWSはこれまでの流れの続きとして、最新の機械学習チップ「Trn1」を発表した。
関連記事
・AWSがカスタム推論チップのInferentiaを発表
・AWSが機械学習トレーニング用の新カスタムチップTrainiumを発表
初めてAWS re:Inventのキーノートを担当するAdam Selipsky(アダム・セリプスキー)氏は米国時間11月30日、最新のチップに関する発表を行った。
「Trainiumからパワーをもらっている新しいチップ、Trm1を発表できることに、私はワクワクしています。Trm1はクラウドでディープラーニングモデルをトレーニングするための最高のコストパフォーマンスと、EC2での最速のパフォーマンスを提供してくれるでしょう」とセリプスキー氏は語った。
続けて「Trn1はEC2のインスタンスとしては初めて、最大で毎秒800ギガバイトの帯域を提供します。そのため、大規模なマルチノード分散型トレーニングのユースケースには絶対に最適です」という。これは画像認識、自然言語処理、不正検知、予測などのユースケースに有効なはずだとのことだ。
さらに、これらのチップをネットワーク化して「ウルトラクラスター」とすることで、より強力なパフォーマンスを発揮することができる。
「これらを一緒にネットワーク化して、何万もの訓練アクセラレーターがペタバイト規模のネットワーキングへ相互接続した状態を、私たちは『ウルトラクラスター』と呼んでいます。そうしたウルトラクラスターの訓練を、強力な機械学習スーパーコンピューターが行い、パラメータが何兆個もあるような複雑な深層学習のモデルでも快速で訓練できます」とセリプスキー氏はいう。
セリプスキー氏によると、同社はSAPなどと協力して、この新しい処理能力の利用を追究していく計画だとのことだ。
画像クレジット:Ron Miller
[原文へ]
(文:Ron Miller、翻訳:Hiroshi Iwatani)
- Original:https://jp.techcrunch.com/2021/12/01/2021-11-30-aws-introduces-new-trn1-chips-to-speed-up-training-of-machine-learning-models/
- Source:TechCrunch Japan
- Author:Ron Miller,Hiroshi Iwatani
Amazonベストセラー
Now loading...