MLPerf Inference v5.1が発表!新しいベンチマークと過去最多の参加者数に注目

注目の最新AIニュース速報
  • MLCommonsがMLPerf Inference v5.1の結果を発表
  • NvidiaがBlackwell Ultraアーキテクチャで先頭に立つ
  • AMDが新ハードウェアと作業負荷を披露
  • HPEがProLiantおよびHPE Crayシステムで強力な結果を報告
  • 新たな推論言語モデルのベンチマークも追加

MLCommonsは、AIモデルの速度をさまざまな作業負荷で測定するためのベンチマークスイート「MLPerf Inference v5.1」の結果を発表した。今回のサイクルでは、27の申請者が記録を更新し、DeepSeek-R1に基づく推論ベンチマーク、Whisper Large v3に基づく音声からテキストへのベンチマーク、Llama 3.1 8B基盤の小型LLMベンチマークが新たに導入された。MLPerfの責任者David Kanterは、結果が90,000件の大台に達したと述べた。

NvidiaはBlackwell Ultraアーキテクチャを用い、推論領域でトップの成績を収めた。新たに発表されたBlackwell Ultraは、DeepSeek-R1推論ベンチマークで45%向上したスループットを記録し、オフラインおよびサーバーシナリオでのトークン処理速度も大幅に改善された。Nvidiaは、Blackwell Ultraの性能向上の背景には、1.5倍のNVFP4 AIコンピュートと2倍のアテンションレイヤー加速があると説明している。

AMDは、新しいInstinct MI355X GPUを用いて、新しい作業負荷を披露した。Llama 2-70Bテストでは、FP4精度で強力な結果を示し、MI325Xに比べ2.7倍のトークン処理能力を達成した。また、AMDはモデル効率技術も強調し、計算要件を下げながら正確性を維持する手法を採用した。

Hewlett Packard Enterprise(HPE)は、ProLiantおよびHPE Crayシステムにおいて14の第一位の結果を報告した。DL380a Gen12は、DLRM推奨作業負荷で最高のランキングを獲得した。HPE Cray XD670は、複数のシナリオで優れた結果を示した。

MLPerf Inference v5.1において初めての推論言語モデルのベンチマークも追加された。これは、新たなモデルタイプの業界標準を示すもので、今後の進展が期待される。

icon image

ねえ、これってさ、NvidiaのBlackwell Ultraがすごく速くなったってことだけど、どういう仕組みでそんなに性能上がるんだろう?

それと、AMDの新しいGPUもいい結果出してるけど、みんな何でそんなに競争してるの?メリットって何なの?

NvidiaのBlackwell Ultraは、
1.5倍のAIコンピュート能力と
2倍のアテンションレイヤーの加速で、
推論速度が向上しています。

AMDのGPUも、効率性を重視し、
競争は技術革新につながるからです。
新しい技術が進むことで、
より優れたAIの開発が期待されますよ。
この結果は、私たちの生活にも影響を与えるんです。

icon image
icon image

最近、MLCommonsが発表した「MLPerf Inference v5.1」の結果は、
AI推論技術の最新の動向がわかる素晴らしい指標です。

NvidiaのBlackwell Ultraは、
1.5倍のAIコンピュートと2倍のアテンションレイヤー加速で
推論速度を向上させています。

AMDも新しいInstinct MI355X GPUで
強力なトークン処理能力を発揮しました。

HPEはProLiantとCrayシステムで多数のトップ成績を報告し、
競争によって技術革新が促進されています。

新たに追加された推論言語モデルのベンチマークは
業界標準の進展を示唆していますので、
これからの動向に注目が集まりますね。

タイトルとURLをコピーしました