現在の AIブームの火付け役でもあり、主役の1人でもあるエヌビディア。他社の追随を許さない高性能な半導体を製造していく事で自社の地位は不動のものとなり、エヌビディアの半導体がなければ何も出来ないと言われるぐらいに生成AIなどにとっては必須の製品となっています。

ゴールドラッシュのスコップなどに例えられる事が多いよね



もはやエヌビディアは AIのインフラともいえるよね
そんなエヌビディアの半導体にも、様々な製品があり、また米国とハイテク産業の覇権を争っている中国に対しては規制などもあって従来の製品よりも性能を落とした中国専用半導体なども出荷しています。エヌビディアの半導体である「H100」や「B200」、「H20」などの商品名の名前を聞いた事がある人も多いと思いますが、それぞれどの程度の性能なのか簡単に確認してみようと思います。
ちなみに、「学習(トレーニング)」と「推論」の違いは、前回のブログ記事を参照してくださいね。
まずは、各製品を簡単に比較すると、このようになります。
GPU名称 | 主な用途 | 学習適正 | 推論適正 |
---|---|---|---|
H100 | 学習中心 | 〇 | 〇 |
H200 | 学習中心 | ◎ | 〇 |
B200 | 両方対応 | ◎ | ◎ |
H800(中国向け) | 学習中心(制限あり) | △ | △ |
H20(中国向け) | 推論中心 | × | 〇 |
「H100(Hopper世代)」
世界中の AI学習(トレーニング)で標準的に使われている半導体。推論については一応可能ではあるがオーバースペック気味である。性能的には、FP8で最大約1979TFLOPs、80GB/96GB HBM3、超高帯域、となっています。
「H200(Hopper強化版)」
H100以上の学習性能を持っており、推論も可能となっている。性能的には、H100よりもHBM容量・帯域が強化されており、141GB HBM3e、4.8TB/s、となっている。
「B200(Blackwell世代)」
最新の次世代AIトレーニングGPU。AI学習と推論の両方ともに高水準で使用できるスペック。今後の主力となる製品。性能的には、FP4/FP8対応で演算効率大幅向上、192GB HBM3e、8TB/s超帯域、となっている。
「H800 (中国向け制限版)」
中国向けの開発された半導体で、H100の演算ユニット数や通信帯域を削減している。これにより、学習(トレーニング)に制限が掛かっており、大規模学習に弱い。推論については使用は可能となっている。中国への規制に対応して作られた半導体。
「H20(中国向け制限版)」
中国向けに開発された半導体で、現在米国や中国などの規制問題でよく話題にあがる半導体。H800と比較すると推論に特化したようなタイプで、学習には力不足だが推論性能はH100以上の数値もある。性能的には、H100よりはFP性能を削減しており、96GB HBM3、4.0TB/s帯域、となっている。中国での推論サーバー需要に対応して作られた半導体。
こうやって比較してみると、エヌビディアの半導体で、よく話題にあがってっくる中国向けに性能を落としている「H20」は推論に特化した半導体だったりと、エヌビディアの半導体の中でも学習や推論に向き不向きがあり、学習が得意な半導体、推論が得意な半導体、両方が行ける最新の半導体と色々と分かれているんだね。
コメント