2025年版 NVIDIA GPU まとめ

2025年版 NVIDIA GPU まとめ
Photo by Lucas Kepner / Unsplash

最新のGPU一覧をまとめました

関連エントリー:https://blog.qualiteg.com/nvidia-gpu-capability-level/

SM_100 (Blackwell)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
NVIDIA B100 16,896基 最大192GB 2024年発表 PCIe Gen6: 256GB/s パッシブ -
NVIDIA B200 33,792基 (16,896 × 2) 最大192GB 2024年発表 PCIe Gen6: 256GB/s パッシブ -
NVIDIA GB200 Grace Blackwell Superchip 67,584基 (33,792 × 2) 最大384GB 2024年発表 - パッシブ -

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce RTX 5090 21,760基 32GB GDDR7 2025年 PCIe Gen5 2スロット (内排気) -
GeForce RTX 5080 10,752基 16GB GDDR7 2025年 PCIe Gen5 2スロット (内排気) -

SM_90 (Hopper)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
NVIDIA H100 16,896基 (SXM5版) 80GB HBM3 2022年 PCIe 5.0 x16 パッシブクーラー SXM5版は最大700W程度 (PCIe版はTDP 350W程度)
NVIDIA H100 NVL - 188GB HBM3 2023年頃 PCIe Gen5 128GB/s パッシブ -
NVIDIA H200 - 141GB HBM3e 2023年発表 PCIe Gen5 128GB/s パッシブ -
NVIDIA GH200 Grace Hopper Superchip - 96GB HBM3/144GB HBM3e 2023年頃 - パッシブ/水冷 -

SM_89 (Ada Lovelace)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
NVIDIA L4 7,424基 24GB GDDR6 2023年初頭 PCIe 4.0 x16 パッシブ TDP 72W
NVIDIA L40 18,176基 48GB GDDR6 ECC 2022年後半 PCIe 4.0 x16 パッシブクーラー 300W (最大320W設定可とも)
NVIDIA L40S 18,176基 48GB GDDR6 ECC 2023年頃 PCIe 4.0 x16 パッシブ 最大300〜320W相当?
RTX 6000 Ada Generation 18,176基 48GB GDDR6 ECC 2022年末 PCIe 4.0 x16 ブロワーファン(外排気) TDP 300W
RTX 5000 Ada 12,800基 32GB GDDR6 ECC 2023-2024年 PCIe 4.0 x16 アクティブ(外排気) TDP 250W
RTX 4500 Ada 7,680基 24GB GDDR6 ECC 2023-2024年 PCIe 4.0 x16 アクティブ(外排気) TDP 210W
RTX 4000 Ada 6,144基 20GB GDDR6 ECC 2023-2024年 PCIe 4.0 x16 アクティブ(シングルスロット) TDP 130W
RTX 2000 Ada 2,816基 16GB GDDR6 ECC 2023-2024年 PCIe 4.0 x16 アクティブ TDP 70W

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce RTX 4090 16,384基 24GB GDDR6X 2022年10月 PCIe 4.0 x16 デュアル軸ファン(内排気) TDP 450W
GeForce RTX 4080 9,728基 16GB GDDR6X 2022年11月 PCIe 4.0 x16 デュアル軸ファン(内排気) TDP 320W
GeForce RTX 4070 Ti 7,680基 12GB GDDR6X 2023年1月 PCIe 4.0 x16 デュアル軸ファン(内排気) TDP 285W
GeForce RTX 4070 5,888基 12GB GDDR6X 2023年4月 PCIe 4.0 x16 デュアル軸ファン(内排気) TDP 200W
GeForce RTX 4060 Ti 4,352基 8GB/16GB GDDR6 2023年5月/7月 PCIe 4.0 x8 デュアル軸ファン(内排気) TDP 160W
GeForce RTX 4060 3,072基 8GB GDDR6 2023年6月 PCIe 4.0 x8 デュアル軸ファン(内排気) TDP 115W
GeForce RTX 4050 - 6GB GDDR6 公式発表前 - - -

SM_86 / SM_87 (Ampere)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
NVIDIA A100 6,912基 40GB/80GB HBM2(e) 2020年 PCIe 4.0 x16 パッシブ SXM4 400W, PCIe版 250W
NVIDIA A100X - 80GB HBM2e 2021-2022年 PCIe Gen4 パッシブ -
NVIDIA A30 3,584基 24GB HBM2 2021年 PCIe 4.0 x16 パッシブ (2スロット) TDP 165W
NVIDIA A30X - 24GB HBM2e 2021-2022年 PCIe Gen4 パッシブ -
NVIDIA A40 10,752基 48GB GDDR6 ECC 2020-2021年頃 PCIe 4.0 x16 ブロワーファン/パッシブ 300W
NVIDIA A10 9,216基 24GB GDDR6 2021年 PCIe 4.0 x16 パッシブ/ブロワー(外排気) 150W
NVIDIA A16 (GPUあたり)1,280基 x4 64GB GDDR6 (16GB x4) 2021年 PCIe 4.0 x16 パッシブ (マルチGPU基板) 250W
NVIDIA A2 Tensor Core 1,280基 16GB GDDR6 2021年 PCIe 4.0 x8 パッシブ小型 60W
NVIDIA A800 40GB (中国向け) 6,912基 40GB HBM2 2022年頃 PCIe 4.0 x16 パッシブ 250W(推定、A100 40GB相当)
NVIDIA RTX A6000 10,752基 48GB GDDR6 ECC 2020-2021年頃 PCIe 4.0 x16 アクティブ 300W
NVIDIA RTX A5500 10,240基 24GB GDDR6 2021-2022年 PCIe 4.0 x16 アクティブ 230W
NVIDIA RTX A4500 7,168基 20GB GDDR6 2021-2022年 PCIe 4.0 x16 アクティブ 200W
NVIDIA RTX A4000 6,144基 16GB GDDR6 ECC 2021年 PCIe 4.0 x16 単一ブロワーファン (外排気) 140W
NVIDIA RTX A2000 3,328基 12GB GDDR6 2021年 PCIe 4.0 x16 アクティブ(小型) 70W

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce RTX 3090 10,496基 24GB GDDR6X 2020年9月 PCIe 4.0 x16 2ファン (内排気) TDP 350W
GeForce RTX 3080 8,704基 10GB/12GB GDDR6X 2020年9月/2022年1月 PCIe 4.0 x16 2ファン (内排気) TDP 320W(12GB版350W)
GeForce RTX 3070 5,888基 8GB GDDR6 2020年10月 PCIe 4.0 x16 2ファン (内排気) TDP 220W
GeForce RTX 3060 3,584基 12GB GDDR6 2021年2月 PCIe 4.0 x16 2ファン (内排気) TDP 170W
GeForce RTX 3050 2,560基 8GB GDDR6 2022年1月 PCIe 4.0 x8 2ファン (内排気) TDP 130W

SM_75 (Turing)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
Quadro RTX 8000 4,608基 48GB GDDR6 2018年末頃 PCIe 3.0 x16 ブロワーファン (外排気) TDP 295W
Quadro RTX 6000 4,608基 24GB GDDR6 2018年末頃 PCIe 3.0 x16 ブロワーファン (外排気) TDP 250W
Quadro RTX 5000 3,072基 16GB GDDR6 2019年 PCIe 3.0 x16 ブロワーファン (外排気) TDP 265W
Quadro RTX 4000 2,304基 8GB GDDR6 2018年末頃 PCIe 3.0 x16 シングルファン(軸流式) TDP 160W
T4 2,560基 16GB GDDR6 2018年 PCIe 3.0 x16 パッシブ (ハーフハイト) 70W

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce RTX 2080 Ti 4,352基 11GB GDDR6 2018年9月 PCIe 3.0 x16 デュアルファン (内排気) TDP 250W
GeForce RTX 2070 2,304基 8GB GDDR6 2018年10月 PCIe 3.0 x16 デュアルファン (内排気) TDP 175W
GeForce GTX 1660 Ti 1,536基 6GB GDDR6 2019年2月 PCIe 3.0 x16 (FEなし、AIBのみ) TDP 120W

SM_70 / SM_72 (Volta)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
Tesla V100 5,120基 16GB/32GB HBM2 2017年 PCIe 3.0 x16 パッシブ (サーバー向け) SXM2 300W, PCIe版 250W
Quadro GV100 5,120基 32GB HBM2 2018年 PCIe 3.0 x16 ブロワーファン(外排気) 250W
Titan V 5,120基 12GB HBM2 2017年 PCIe 3.0 x16 ブロワー(外排気) 250W
Xavier NX (SoC) 384基 8GB LPDDR4x 2019-2020年頃 - (SoC) - (組込み向け) 10〜15W (最大15Wモード)

SM_60 / SM_61 / SM_62 (Pascal)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
Tesla P100 3,584基 12GB/16GB HBM2 2016年 PCIe 3.0 x16 パッシブ (サーバー向け) SXM2 300W, PCIe版250W
Quadro GP100 3,584基 16GB HBM2 2017年 PCIe 3.0 x16 ブロワーファン(外排気) 235W

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce GTX 1080 2,560基 8GB GDDR5X 2016年5月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 180W
GeForce GTX 1070 1,920基 8GB GDDR5 2016年6月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 150W
GeForce GTX 1060 (6GB) 1,280基 (6GB版) / 1,152基 (3GB) 3GB/6GB GDDR5 2016年7-8月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 120W (6GB版)
GeForce GTX 1050 640基 2GB/3GB GDDR5 2016年10月 PCIe 3.0 x16 (FEなし、AIB各社) 75W〜 TDP 75W前後
GeForce GTX 1030 384基 2GB GDDR5 2017年5月 PCIe 3.0 x4/x8 超小型ファン/ファンレス TDP 30W
GeForce GT 1010 256基 2GB GDDR5 2021-2022年頃 PCIe 3.0 x4? (OEM向け) -
Titan Xp 3,840基 12GB GDDR5X 2017年4月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 250W

SM_50 / SM_52 / SM_53 (Maxwell)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
Tesla M40 3,072基 (GM200) 12GB GDDR5 2015年 PCIe 3.0 x16 パッシブ (サーバー用) 250W
Tesla M60 (Dual) (1GPU)2,048基 x2 合計16GB (8GB x2) 2015年 PCIe 3.0 x16 パッシブ (2GPU基板) 300W
Tesla M4 1,024基 (GM206) 4GB GDDR5 2016年 PCIe 3.0 x8 パッシブ (LowProfile) 50W〜75W (構成により)
Quadro M6000 3,072基 (GM200) 12GB/24GB GDDR5 2015年 PCIe 3.0 x16 ブロワーファン(外排気) 250W

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce GTX 980 Ti 2,816基 6GB GDDR5 2015年6月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 250W
GeForce GTX Titan X (初代Maxwell) 3,072基 12GB GDDR5 2015年3月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 250W
GeForce GTX 980 2,048基 4GB GDDR5 2014年9月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 165W
GeForce GTX 970 1,664基 4GB GDDR5(3.5+0.5GB) 2014年9月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 145W

SM_35 / SM_37 (Kepler)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
Tesla K40 2,880基 (GK110B) 12GB GDDR5 2013年 PCIe 3.0 x16 パッシブ (サーバー向け) TDP 235W
Tesla K80 (1GPUあたり)2,496基 x2 (GK210) 合計24GB(12GB x2) GDDR5 2014年 PCIe 3.0 x16 パッシブ (デュアルGPU基板) 300W

SM_20 (Fermi)

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GTX 480 (GF100) 480基 1.5GB GDDR5 2010年 PCIe 2.0 x16 ブロワーファン(外排気) TDP 250W
GTX 460 (GF104) 336基 768MB/1GB 2010年 PCIe 2.0 x16 ブロワーファン(外排気) TDP 150W〜160W
GTX 580 (GF110) 512基 1.5GB 2011年 PCIe 2.0 x16 ブロワーファン(外排気) TDP 244W
GT 630 (Fermi版) 96基 (GF108) 1-2GB 2012年 PCIe 2.0 x16 小型/ファンレスなど TDP 65W前後 (OEM向け)

Read more

システムとcondaのC++標準ライブラリ(libstdc++)のバージョン違い問題による事象と対処法解説

システムとcondaのC++標準ライブラリ(libstdc++)のバージョン違い問題による事象と対処法解説

こんにちは! 先日、dlibをつかったPythonアプリケーション(conda環境で動作する)作っていたところ、以下のようなエラーに遭遇しました。 ImportError: /home/mlu/anaconda3/envs/example_env/bin/../lib/libstdc++.so.6: version `GLIBCXX_3.4.32' not found (required by /home/mlu/anaconda3/envs/example_env/lib/python3.10/site-packages/_dlib_pybind11.cpython-310-x86_64-linux-gnu.so) 「dlib_pybind11モジュールがGLIBCXX_3.4.32を要求してるけど、みつからない!」という感じのエラーですね。

By Qualiteg プロダクト開発部
LLM推論基盤プロビジョニング講座 第2回 LLMサービスのリクエスト数を見積もる

LLM推論基盤プロビジョニング講座 第2回 LLMサービスのリクエスト数を見積もる

こんにちは! 今回はLLM推論基盤プロビジョニング講座 第2回です! STEP2 LLMサービスへのリクエスト数見積もり それでは、早速、LLM推論基盤プロビジョニングの第2ステップである「リクエスト数見積もり」の重要性と方法を解説いたします。 LLMサービスを構築する際に必要となるGPUノード数を適切に見積もるためには、まずサービスに対して想定されるリクエスト数を正確に予測する必要があります。 リクエスト数見積もりの基本的な考え方 LLMサービスへの想定リクエスト数から必要なGPUノード数を算出するプロセスは、サービス設計において非常に重要です。過小評価すればサービス品質が低下し、過大評価すれば無駄なコストが発生します。このバランスを適切に取るための基礎となるのがリクエスト数の見積もりです。 想定リクエスト数の諸元 リクエスト数を見積もるための5つの重要な要素(諸元)をみてみましょう。 1. DAU(Daily Active Users): 1日あたりの実際にサービスを利用するユーザー数です。これはサービスの規模を示す最も基本的な指標となります。 2. 1日

By Qualiteg コンサルティング
Zoom会議で肩が踊る?自動フレーミング映像安定化とAIによる性能向上の可能性

Zoom会議で肩が踊る?自動フレーミング映像安定化とAIによる性能向上の可能性

こんにちは! 本日は、自動フレーミング映像の安定化に関するアルゴリズム・ノウハウを解説いたします 第1章 問題の背景と目的 バストアップ映像を撮影する際、特にオンラインミーティングやYouTubeなどのトーク映像では、人物がうなずく、首を振るなどの自然な動作をした際に「首まわりや肩がフレーム内で上下に移動してしまう」という現象がしばしば起こります。これは、多くの場合カメラや撮影ソフトウェアが人物の「目や顔を画面中央に保とう」とする自動フレーミング機能の働きに起因します。 撮影対象の人物が頭を下げた際に、映像のフレーム全体が相対的に上方向へシフトし、その結果、本来動いていないはずの肩の部分が映像内で持ち上がっているように見えてしまう現象です。 本稿では、この問題を撮影後の後処理(ポストプロセッシング)のみを用いて、高速、高い精度かつロバストに解決する手法をご紹介します。 前半では、従来のCV(コンピュータービジョン)の手法を使い高速に処理する方法をご紹介します。後半では、AIを使用してより安定性の高い性能を実現する方法について考察します。 第2章 古典手法による肩の上下

By Qualiteg 研究部
LLM推論基盤プロビジョニング講座 第1回 基本概念と推論速度

LLM推論基盤プロビジョニング講座 第1回 基本概念と推論速度

こんにちは! 本日は LLMサービスの自社構築する際の推論基盤プロビジョニング、GPUプロビジョニングについて数回にわけて解説いたします。 はじめに LLMの進化に伴い、ChatGPTやClaudeといったパブリックなLLMの活用は企業においても急速に広がってきました。しかし先進的な企業はこれらの汎用LLMに加えて、「領域特化型」「ドメイン特化型」といった専用LLMの構築へと歩みを進めています。こうした動きの背景には、企業固有の専門知識への対応力強化と情報セキュリティの確保という二つの重要なニーズがあります。 一般的なパブリックLLMでは対応できない企業固有の専門知識や機密情報の取り扱いが必要なケースが増えているため、自社LLMの構築や自社サーバーでの運用を検討する企業が急増しています。特に金融、医療、製造、法務といった専門性の高い領域では、業界特化型の独自LLMが競争優位性をもたらすと認識されています。 しかし、業界特化型のLLMを自社で運用することは簡単ではありません。自社運用を決断した場合、まず最初に取り組むべきは適切な推論環境の整備です。オンプレミス環境を構築するに

By Qualiteg コンサルティング