2025年版 NVIDIA GPU まとめ

2025年版 NVIDIA GPU まとめ
Photo by Lucas Kepner / Unsplash

最新のGPU一覧をまとめました

関連エントリー:https://blog.qualiteg.com/nvidia-gpu-capability-level/

SM_120 (Balckwell)

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce RTX 5090 21,760基 32GB GDDR7 2025年 PCIe Gen5 2スロット (内排気) -
GeForce RTX 5080 10,752基 16GB GDDR7 2025年 PCIe Gen5 2スロット (内排気) -
GeForce RTX 5070 -基 12GB GDDR7 2025年 PCIe Gen5 2スロット (内排気) -
GeForce RTX 5060 -基 8GB/16GB GDDR7 2025年 PCIe Gen5 2スロット (内排気) -

SM_100 (Blackwell)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
NVIDIA B100 16,896基 最大192GB 2024年発表 PCIe Gen6: 256GB/s パッシブ -
NVIDIA B200 33,792基 (16,896 × 2) 最大192GB 2024年発表 PCIe Gen6: 256GB/s パッシブ -
NVIDIA GB200 Grace Blackwell Superchip 67,584基 (33,792 × 2) 最大384GB 2024年発表 - パッシブ -

SM_90 (Hopper)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
NVIDIA H100 16,896基 (SXM5版) 80GB HBM3 2022年 PCIe 5.0 x16 パッシブクーラー SXM5版は最大700W程度 (PCIe版はTDP 350W程度)
NVIDIA H100 NVL - 188GB HBM3 2023年頃 PCIe Gen5 128GB/s パッシブ -
NVIDIA H200 - 141GB HBM3e 2023年発表 PCIe Gen5 128GB/s パッシブ -
NVIDIA GH200 Grace Hopper Superchip - 96GB HBM3/144GB HBM3e 2023年頃 - パッシブ/水冷 -

SM_89 (Ada Lovelace)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
NVIDIA L4 7,424基 24GB GDDR6 2023年初頭 PCIe 4.0 x16 パッシブ TDP 72W
NVIDIA L40 18,176基 48GB GDDR6 ECC 2022年後半 PCIe 4.0 x16 パッシブクーラー 300W (最大320W設定可とも)
NVIDIA L40S 18,176基 48GB GDDR6 ECC 2023年頃 PCIe 4.0 x16 パッシブ 最大300〜320W相当?
RTX 6000 Ada Generation 18,176基 48GB GDDR6 ECC 2022年末 PCIe 4.0 x16 ブロワーファン(外排気) TDP 300W
RTX 5000 Ada 12,800基 32GB GDDR6 ECC 2023-2024年 PCIe 4.0 x16 アクティブ(外排気) TDP 250W
RTX 4500 Ada 7,680基 24GB GDDR6 ECC 2023-2024年 PCIe 4.0 x16 アクティブ(外排気) TDP 210W
RTX 4000 Ada 6,144基 20GB GDDR6 ECC 2023-2024年 PCIe 4.0 x16 アクティブ(シングルスロット) TDP 130W
RTX 2000 Ada 2,816基 16GB GDDR6 ECC 2023-2024年 PCIe 4.0 x16 アクティブ TDP 70W

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce RTX 4090 16,384基 24GB GDDR6X 2022年10月 PCIe 4.0 x16 デュアル軸ファン(内排気) TDP 450W
GeForce RTX 4080 9,728基 16GB GDDR6X 2022年11月 PCIe 4.0 x16 デュアル軸ファン(内排気) TDP 320W
GeForce RTX 4070 Ti 7,680基 12GB GDDR6X 2023年1月 PCIe 4.0 x16 デュアル軸ファン(内排気) TDP 285W
GeForce RTX 4070 5,888基 12GB GDDR6X 2023年4月 PCIe 4.0 x16 デュアル軸ファン(内排気) TDP 200W
GeForce RTX 4060 Ti 4,352基 8GB/16GB GDDR6 2023年5月/7月 PCIe 4.0 x8 デュアル軸ファン(内排気) TDP 160W
GeForce RTX 4060 3,072基 8GB GDDR6 2023年6月 PCIe 4.0 x8 デュアル軸ファン(内排気) TDP 115W
GeForce RTX 4050 - 6GB GDDR6 公式発表前 - - -

SM_86 / SM_87 (Ampere)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
NVIDIA A100 6,912基 40GB/80GB HBM2(e) 2020年 PCIe 4.0 x16 パッシブ SXM4 400W, PCIe版 250W
NVIDIA A100X - 80GB HBM2e 2021-2022年 PCIe Gen4 パッシブ -
NVIDIA A30 3,584基 24GB HBM2 2021年 PCIe 4.0 x16 パッシブ (2スロット) TDP 165W
NVIDIA A30X - 24GB HBM2e 2021-2022年 PCIe Gen4 パッシブ -
NVIDIA A40 10,752基 48GB GDDR6 ECC 2020-2021年頃 PCIe 4.0 x16 ブロワーファン/パッシブ 300W
NVIDIA A10 9,216基 24GB GDDR6 2021年 PCIe 4.0 x16 パッシブ/ブロワー(外排気) 150W
NVIDIA A16 (GPUあたり)1,280基 x4 64GB GDDR6 (16GB x4) 2021年 PCIe 4.0 x16 パッシブ (マルチGPU基板) 250W
NVIDIA A2 Tensor Core 1,280基 16GB GDDR6 2021年 PCIe 4.0 x8 パッシブ小型 60W
NVIDIA A800 40GB (中国向け) 6,912基 40GB HBM2 2022年頃 PCIe 4.0 x16 パッシブ 250W(推定、A100 40GB相当)
NVIDIA RTX A6000 10,752基 48GB GDDR6 ECC 2020-2021年頃 PCIe 4.0 x16 アクティブ 300W
NVIDIA RTX A5500 10,240基 24GB GDDR6 2021-2022年 PCIe 4.0 x16 アクティブ 230W
NVIDIA RTX A4500 7,168基 20GB GDDR6 2021-2022年 PCIe 4.0 x16 アクティブ 200W
NVIDIA RTX A4000 6,144基 16GB GDDR6 ECC 2021年 PCIe 4.0 x16 単一ブロワーファン (外排気) 140W
NVIDIA RTX A2000 3,328基 12GB GDDR6 2021年 PCIe 4.0 x16 アクティブ(小型) 70W

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce RTX 3090 10,496基 24GB GDDR6X 2020年9月 PCIe 4.0 x16 2ファン (内排気) TDP 350W
GeForce RTX 3080 8,704基 10GB/12GB GDDR6X 2020年9月/2022年1月 PCIe 4.0 x16 2ファン (内排気) TDP 320W(12GB版350W)
GeForce RTX 3070 5,888基 8GB GDDR6 2020年10月 PCIe 4.0 x16 2ファン (内排気) TDP 220W
GeForce RTX 3060 3,584基 12GB GDDR6 2021年2月 PCIe 4.0 x16 2ファン (内排気) TDP 170W
GeForce RTX 3050 2,560基 8GB GDDR6 2022年1月 PCIe 4.0 x8 2ファン (内排気) TDP 130W

SM_75 (Turing)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
Quadro RTX 8000 4,608基 48GB GDDR6 2018年末頃 PCIe 3.0 x16 ブロワーファン (外排気) TDP 295W
Quadro RTX 6000 4,608基 24GB GDDR6 2018年末頃 PCIe 3.0 x16 ブロワーファン (外排気) TDP 250W
Quadro RTX 5000 3,072基 16GB GDDR6 2019年 PCIe 3.0 x16 ブロワーファン (外排気) TDP 265W
Quadro RTX 4000 2,304基 8GB GDDR6 2018年末頃 PCIe 3.0 x16 シングルファン(軸流式) TDP 160W
T4 2,560基 16GB GDDR6 2018年 PCIe 3.0 x16 パッシブ (ハーフハイト) 70W

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce RTX 2080 Ti 4,352基 11GB GDDR6 2018年9月 PCIe 3.0 x16 デュアルファン (内排気) TDP 250W
GeForce RTX 2070 2,304基 8GB GDDR6 2018年10月 PCIe 3.0 x16 デュアルファン (内排気) TDP 175W
GeForce GTX 1660 Ti 1,536基 6GB GDDR6 2019年2月 PCIe 3.0 x16 (FEなし、AIBのみ) TDP 120W

SM_70 / SM_72 (Volta)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
Tesla V100 5,120基 16GB/32GB HBM2 2017年 PCIe 3.0 x16 パッシブ (サーバー向け) SXM2 300W, PCIe版 250W
Quadro GV100 5,120基 32GB HBM2 2018年 PCIe 3.0 x16 ブロワーファン(外排気) 250W
Titan V 5,120基 12GB HBM2 2017年 PCIe 3.0 x16 ブロワー(外排気) 250W
Xavier NX (SoC) 384基 8GB LPDDR4x 2019-2020年頃 - (SoC) - (組込み向け) 10〜15W (最大15Wモード)

SM_60 / SM_61 / SM_62 (Pascal)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
Tesla P100 3,584基 12GB/16GB HBM2 2016年 PCIe 3.0 x16 パッシブ (サーバー向け) SXM2 300W, PCIe版250W
Quadro GP100 3,584基 16GB HBM2 2017年 PCIe 3.0 x16 ブロワーファン(外排気) 235W

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce GTX 1080 2,560基 8GB GDDR5X 2016年5月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 180W
GeForce GTX 1070 1,920基 8GB GDDR5 2016年6月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 150W
GeForce GTX 1060 (6GB) 1,280基 (6GB版) / 1,152基 (3GB) 3GB/6GB GDDR5 2016年7-8月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 120W (6GB版)
GeForce GTX 1050 640基 2GB/3GB GDDR5 2016年10月 PCIe 3.0 x16 (FEなし、AIB各社) 75W〜 TDP 75W前後
GeForce GTX 1030 384基 2GB GDDR5 2017年5月 PCIe 3.0 x4/x8 超小型ファン/ファンレス TDP 30W
GeForce GT 1010 256基 2GB GDDR5 2021-2022年頃 PCIe 3.0 x4? (OEM向け) -
Titan Xp 3,840基 12GB GDDR5X 2017年4月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 250W

SM_50 / SM_52 / SM_53 (Maxwell)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
Tesla M40 3,072基 (GM200) 12GB GDDR5 2015年 PCIe 3.0 x16 パッシブ (サーバー用) 250W
Tesla M60 (Dual) (1GPU)2,048基 x2 合計16GB (8GB x2) 2015年 PCIe 3.0 x16 パッシブ (2GPU基板) 300W
Tesla M4 1,024基 (GM206) 4GB GDDR5 2016年 PCIe 3.0 x8 パッシブ (LowProfile) 50W〜75W (構成により)
Quadro M6000 3,072基 (GM200) 12GB/24GB GDDR5 2015年 PCIe 3.0 x16 ブロワーファン(外排気) 250W

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GeForce GTX 980 Ti 2,816基 6GB GDDR5 2015年6月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 250W
GeForce GTX Titan X (初代Maxwell) 3,072基 12GB GDDR5 2015年3月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 250W
GeForce GTX 980 2,048基 4GB GDDR5 2014年9月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 165W
GeForce GTX 970 1,664基 4GB GDDR5(3.5+0.5GB) 2014年9月 PCIe 3.0 x16 ブロワーファン(外排気) TDP 145W

SM_35 / SM_37 (Kepler)

データセンター/プロ向け

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
Tesla K40 2,880基 (GK110B) 12GB GDDR5 2013年 PCIe 3.0 x16 パッシブ (サーバー向け) TDP 235W
Tesla K80 (1GPUあたり)2,496基 x2 (GK210) 合計24GB(12GB x2) GDDR5 2014年 PCIe 3.0 x16 パッシブ (デュアルGPU基板) 300W

SM_20 (Fermi)

GeForce

製品名 CUDAコア数 VRAM 発売年 PCIeバージョン 冷却方式 消費電力(最大/TDP)
GTX 480 (GF100) 480基 1.5GB GDDR5 2010年 PCIe 2.0 x16 ブロワーファン(外排気) TDP 250W
GTX 460 (GF104) 336基 768MB/1GB 2010年 PCIe 2.0 x16 ブロワーファン(外排気) TDP 150W〜160W
GTX 580 (GF110) 512基 1.5GB 2011年 PCIe 2.0 x16 ブロワーファン(外排気) TDP 244W
GT 630 (Fermi版) 96基 (GF108) 1-2GB 2012年 PCIe 2.0 x16 小型/ファンレスなど TDP 65W前後 (OEM向け)

Read more

企業セキュリティはなぜ複雑になったのか? 〜AD+Proxyの時代から現代のクラウド対応まで〜

企業セキュリティはなぜ複雑になったのか? 〜AD+Proxyの時代から現代のクラウド対応まで〜

こんにちは! ChatGPTやClaudeといった生成AIサービスが業務に浸透し始めた今、 「AIに機密情報を送ってしまうリスク」 が新たなセキュリティ課題として浮上しています。 この課題に向き合う中で、私たちは改めて「企業のセキュリティアーキテクチャはどう変遷してきたのか」を振り返る機会がありました。 すると、ある疑問が浮かんできます。 「なんでこんなに複雑になってるんだっけ?」 企業のセキュリティ担当者なら、一度は思ったことがあるのではないでしょうか。 アルファベット3〜4文字の製品が乱立し、それぞれが微妙に重複した機能を持ち、設定は複雑化し、コストは膨らみ続けています。 当社ではAIセキュリティ関連プロダクトをご提供しておりますが、AI時代のセキュリティを考える上でも、この歴史を理解することは重要ではないかと考えました。 本記事では、企業ネットワークセキュリティの変遷を振り返りながら、「なぜこうなったのか」を整理してみたいと思います。 第1章:観測点を集約できた時代 ― オンプレAD + Proxy(〜2010年代前半) 統制しやすかったモデル かつ

By Qualiteg コンサルティング, Qualiteg AIセキュリティチーム
【IT温故知新】WS-* の栄光と黄昏:エンタープライズITはいかにして「実装」に敗北したか

【IT温故知新】WS-* の栄光と黄昏:エンタープライズITはいかにして「実装」に敗北したか

こんにちは。 —— 2003年のSOAから、2026年のAIへ —— この記事は、過去の技術動向を振り返り、そこから学べる教訓について考察してみたものです。 歴史は常に、後から見れば明らかなことが、当時は見えなかったという教訓を与えてくれます。 そして、今私たちが「正しい」と信じていることもまた、20年後には違う評価を受けているかもしれません。 だからこそ、振り返ることには意味があるとおもいます。同じ轍を踏まないために。 はじめに:20年前の熱狂を覚えていますか 2000年代初頭。 私はSOA(サービス指向アーキテクチャ)に本気で取り組んでいました。 当時、SOAは「次世代のエンタープライズアーキテクチャ」として、業界全体が熱狂していました。 カンファレンスに行けば満員御礼、ベンダーのブースには人だかり、書店にも関連の書籍がちらほらと。 SOAP、SOAP with attachments、JAX-RPC、WS-Security、WS-ReliableMessaging、WS-AtomicTransaction... 仕様書の山と格闘する日々でした。 あれから

By Qualiteg コンサルティング
DockerビルドでPythonをソースからビルドするとGCCがSegmentation faultする話

DockerビルドでPythonをソースからビルドするとGCCがSegmentation faultする話

こんにちは!Qualitegプロダクト開発部です! 本日は Docker環境でPythonをソースからビルドした際に発生した、GCCの内部コンパイラエラー(Segmentation fault) について共有します。 一見すると「リソース不足」や「Docker特有の問題」に見えますが、実際には PGO(Profile Guided Optimization)とLTO(Link Time Optimization)を同時に有効にした場合に、GCC自身がクラッシュするケースでした。 ただ、今回はDockerによって問題が隠れやすいという点もきづいたので、あえてDockerを織り交ぜた構成でのPythonソースビルドとGCCクラッシュについて実際に発生した題材をもとに共有させていただこうとおもいます 同様の構成でビルドしている方の参考になれば幸いです TL;DR * Docker内でPythonを --enable-optimizations --with-lto 付きでソースビルドすると GCCが internal compiler error(Segmentati

By Qualiteg プロダクト開発部
サブスクビジネス完全攻略 第2回~「解約率5%」が1年後に半分の顧客を消す恐怖と、それを防ぐ科学

サブスクビジネス完全攻略 第2回~「解約率5%」が1年後に半分の顧客を消す恐怖と、それを防ぐ科学

こんにちは! Qualitegコンサルティングです! 前回の第1回では、サブスクリプションビジネスの基本構造と、LTV・ユニットエコノミクスという革命的な考え方を解説しました。「LTV > 3 × CAC」という黄金律、覚えていますか? サブスクビジネス完全攻略 第1回~『アープがさぁ...』『チャーンがさぁ...』にもう困らない完全ガイドなぜサブスクリプションモデルが世界を変えているのか、でもAI台頭でSaaSは終わってしまうの? こんにちは! Qualitegコンサルティングです! 新規事業戦略コンサルタントとして日々クライアントと向き合う中で、ここ最近特に増えているのがSaaSビジネスに関する相談です。興味深いのは、その背景にある動機の多様性です。純粋に収益モデルを改善したい企業もあれば、 「SaaS化を通じて、うちもデジタルネイティブ企業として見られたい」 という願望を持つ伝統的な大企業も少なくありません。 SaaSという言葉が日本のビジネスシーンに本格的に浸透し始めたのは2010年代前半。それから約15年が経ち、今やSaaSは「先進的な企業の証」のように扱われています。

By Qualiteg コンサルティング