GPUサーバーの最適容量計算: キューイング理論と実践的モデル

GPUサーバーの最適容量計算: キューイング理論と実践的モデル

こんにちは!

当社では、AIを使用した動画変換や動画生成サービスを展開しておりますが、このようなサービスは推論過程(つまり、動画生成をするときの計算処理)でもGPUに高負荷の計算を行わせる必要があります。

その為、GPUが動画を生成している過程ではユーザーは生成結果を待つことになります。特に画像や動画生成には膨大な計算処理が発生するため、待ち時間も長くなり、従来のSAASのように一瞬で応答という体験は難しく、長ければ数十秒~数分、数十分と待ち時間が発生する場合があります。

このようなサーバーシステムを設計する際、「1つのサーバーで、いや、1つのGPUで何人のユーザーをサポートできるのか?」という問いは常に重要です。

特に、同時に1件しか処理できない変換サーバーなど、制約のあるシステムでは正確な容量計算が不可欠です。

本記事では、キューイング理論に基づいてこのような変換サーバーの最適ユーザー数を計算する方法を解説いたします。また、実用的な計算ツールもご紹介します。

問題設定

では、シンプルな問題設定をしてみましょう

  • 同時に1件の変換しか処理できないサーバーがある
  • 1件の変換に平均5分かかる
  • ユーザーは不規則にサービスにアクセスする
  • ピーク時間にはアクセスが集中する

この状況で、快適なサービスを提供するには1台のサーバーで何人のユーザーまでサポートすべきでしょうか?

キューイング理論の基礎

この問題はキューイング理論(待ち行列理論)で解くことができます。

キューイング理論は、限られたリソースに対する需要が重なった場合の待ち行列の振る舞いを数学的に分析する理論です。

サーバーが1台で、到着がポアソン分布、サービス時間が指数分布に従うと仮定すると、これはM/M/1モデルと呼ばれるシステムになります。

計算モデルの導出

まず、基本的なパラメータを定義しましょう

  • t_p: 処理時間(分/件)
    変換サーバーが1件の処理リクエストを完了するのにかかる平均時間です。例えば、ファイル変換ならファイルの読み込み、処理、出力までの全工程を含みます。この値が小さいほど、サーバーの処理能力は高くなります。例:5分/件
  • μ (mu): サービス率(件/時間)= 60分 ÷ t_p
    1時間あたりに処理できる最大リクエスト数を表します。1時間(60分)を1件あたりの処理時間(t_p)で割ることで算出されます。例えば処理時間が5分なら、μ = 60分 ÷ 5分 = 12件/時間となります。これはサーバーの理論上の最大処理能力です。
  • ρ (rho): 目標システム利用率
    サーバーの稼働率の目標値で、0〜1の値をとります。キューイング理論によれば、安定した運用のためには0.7〜0.8程度に設定することが推奨されます。ρが1に近づくと待ち行列が急速に増加し、ユーザー体験が悪化します。例:0.8(80%の稼働率)
  • P_c: ピーク係数
    平均的なアクセス時間帯と比較して、最も混雑する時間帯のアクセス数の比率です。例えば、P_c = 2.5は、ピーク時のアクセス量が平均の2.5倍になることを意味します。この値は過去のアクセスログから算出するか、類似システムの実績から見積もります。
  • H: 稼働時間(時間/日)
    システムが1日に稼働している時間の合計です。24時間365日稼働のシステムなら24時間、業務時間内のみ利用可能なシステムなら、例えば8-20時の12時間などとなります。
  • P_a: アクセス確率(1日あたりの利用確率)
    登録ユーザー1人が1日のうちにシステムを利用する確率です。例えば、P_a = 0.3は、各ユーザーが30%の確率で1日にシステムを利用することを意味します。全ユーザーが毎日利用するシステムならP_a = 1となります。
  • F: 1ユーザーあたりの1日の変換回数
    ユーザーがシステムを利用する日に、平均して実行する変換処理の回数です。例えば、F = 2は、システムを利用する日には平均して2回の変換処理を行うことを意味します。ユーザーの利用パターンによって変わる値です。

キューイング理論によれば、システムが安定するためには利用率ρが1未満である必要があります。実際には、待ち時間を合理的な範囲に抑えるために、ρ = 0.7〜0.8程度に設定することが推奨されます。

計算手順

1台のサーバーでサポート可能な総ユーザー数

N = R ÷ r_u

1ユーザーあたりの1日の平均リクエスト数

r_u = P_a × F

1日の総処理可能リクエスト数

R = λ_a × H

ピーク時も安定稼働させるための平均到着率

λ_a = λ_s ÷ P_c

安定稼働時の平均到着率

λ_s = ρ × μ

サービス率の計算

μ = 60 ÷ t_p

これらをまとめると、最終計算式は以下になりますね!

N = (ρ × μ × H) ÷ (P_a × F × P_c)

この式に基づいて、サーバー1台でサポートできる最適ユーザー数を計算できます。

さて、自分で計算するのも面倒なので、ツールをご準備いたしました♪

最適ユーザー数計算ツール

以下のツールを使って、サーバーの最適ユーザー数を簡単に計算できます。各パラメータを調整すると、サポート可能なユーザー数がリアルタイムで更新されます。

GPUサーバーにぶるさがるユーザー数計算ツール

最大ユーザーサポート数計算ツール

同時に1件のみ処理できるGPU変換サーバーの最大ユーザーサポート数を計算します

分/件
1件の変換処理にかかる時間
0 〜 1
安定稼働のための目標稼働率(推奨: 0.7〜0.8)
最も混雑する時間帯の平均アクセス倍率
時間/日
システムが1日に稼働している総時間
0 〜 1
1人のユーザーが1日にシステムを利用する確率
回/日
利用する日の平均変換処理回数

実際の運用上の考慮事項

上記ツールは理解促進のためシンプルな条件設定と計算モデルを使用しておりますが、実際のシステム運用では以下のような追加要素も考慮する必要があります

1. ピーク時間の分析

実際のアクセスパターンを収集・分析することで、より正確なピーク係数を把握できます。例えば、システムログを分析して時間帯別のアクセス分布を作成し、平均値との比率を求めることでピーク係数を算出できます。

2. 処理時間のばらつき

実際の処理時間は一定ではなく、変動します。変換内容によって処理時間が大きく異なる場合は、平均処理時間だけでなく、最大処理時間や処理時間の分散も考慮することが重要です。

3. アクセス確率の見直し

ユーザーのアクセス頻度は時間帯や曜日、季節、サービスのバズり度合いによっても変化します。長期的なデータ収集を通じて、より正確なアクセス確率を見積もることで、計算精度を向上させることができます。

4. ユーザー体験の考慮

サーバー容量を計算する際、技術的な限界だけでなく、ユーザー体験も重要です。例えば、待ち時間が長くなりすぎないよう、余裕を持った設計が必要です。目標システム利用率を0.7程度に設定するのはこのためです。

パラメータの自動最適化:機械学習の活用

上記の考慮事項をベースに、実際のサービス運用データを活用して継続的に最適化していくことが理想的です。

さてさて、最適化といえば、当社も得意な機械学習の出番です。

データ収集とモニタリング

最適な容量計算のために、以下のようなデータを継続的に収集します

  • アクセスログ: 時間帯別、曜日別、季節別のアクセスパターン
  • 処理時間ログ: 各変換処理の実行時間と処理内容の関係
  • 待ち時間データ: ユーザーがキューに入ってから処理開始までの待機時間
  • ユーザー行動データ: キャンセル率、リトライ率、利用頻度など

機械学習によるパラメータ最適化

収集したデータを基に、以下のパラメータを機械学習モデルで自動的に更新・最適化できます

  1. ピーク係数の動的予測
    • 時系列分析(ARIMA, Prophet)を用いて、曜日や季節に応じた将来のピーク係数を予測します
      ・ARIMAは、Auto-Regressive Integrated Moving Average(自己回帰和分移動平均)の略で、時系列データの予測に広く使われる統計モデルです。
      ・Prophetは、Facebookが開発した時系列予測ツールで、大規模なデータに対しても効率的に予測を行えます。
    • 特別なイベントやプロモーション時、意図しないバズりなど異常値(スパイク)検出と自動調整
  2. 処理時間の予測モデル
    • 変換内容の特徴(動画種類、ファイルサイズなど)から処理時間を予測する回帰モデル
    • ユーザー別、コンテンツ別などの軸での処理時間傾向の学習
  3. アクセス確率の個別化
    • ユーザーのセグメンテーションによる細分化されたアクセス確率モデル
    • ユーザーの行動履歴に基づいた予測モデルの構築
  4. 最適システム利用率の自動調整
    • ユーザー満足度と処理効率のバランスを最適化するための強化学習
    • ユーザーのフィードバックデータを活用した利用率の調整

実装アプローチ

あとは機械学習ベースの最適化システムの実装とおなじです。データパイプラインをつくって、各種ログデータを効率的に集約していきます。
ログデータから週次でトレーニングにいれて、上記変数を予測します。予測された変数をもとに1台のGPUサーバーでさばけるユーザー数をより精度高く見積もり、サーバの増強戦略を検討します。ユーザー増加に追いつくようにサーバーを増強していくイメージですね。

こうした変数は実際にサービスを運用していかないとわからないので、本ブログのように最初は経験値をもとに設定しています。

まとめ

変換サーバーの容量計算は、単純に「1時間に何件処理できるか」という計算だけでは不十分で、ユーザーの行動パターン、ピーク時の集中度、システムの安定性などを総合的に考慮する必要があります。

本記事でご紹介した計算モデルは、キューイング理論に基づく1つの実践的なアプローチですが、あり、多くの長時間処理GPUサーバーシステムの容量計画に応用できるとおもいますが、あくまで理論的な見積もりであるため実際のシステム容量を決定する際は、実測データに基づく調整や、パフォーマンステストを併用するのが良いようにおもいます。

Read more

PyTorch 2.6 のセキュリティ: モデルチェックポイントロードの安全対策

PyTorch 2.6 のセキュリティ: モデルチェックポイントロードの安全対策

こんにちは! 今日は、魅力的なPyTorchチェックポイントが配られているからと言って無邪気に使っちゃうと、超ヤバイよ、というお話になります。 みなさまモデルチェックポイントをロードする際のセキュリティリスクについて考えたことはありますでしょうか。実はモデルの重みファイルだとばかり思っていたチェックポイントが、思わぬセキュリティホールになる可能性があります。 本記事では、PyTorchのtorch.load関数の安全性と、モデルチェックポイントを適切に扱うための実践的なガイドラインを紹介します。 モデルチェックポイントの隠れた危険性 PyTorchのtorch.load関数は非常に便利な一方で、セキュリティ上の重大なリスクを含んでいます。 その理由は、 * チェックポイント単なるパラメータだけではないよ! チェックポイントファイルには、モデルの重み(weights)だけでなく、クラスや関数など任意のPythonコードを含めることが可能です。 * 実行可能なコードが入ってるよ! これは、チェックポイントが単なる「データファイル」ではなく、Pytho

By Qualiteg プロダクト開発部
[AI新規事業創出]Qualitegオリジナル、アイデア評価、事業アイデア選定方法

[AI新規事業創出]Qualitegオリジナル、アイデア評価、事業アイデア選定方法

Qualiteg blogを訪問してくださった皆様、こんにちは。Micheleです。AIを活用した新規事業やマーケティングを手がけている私には、クライアントからよく寄せられる質問があります。AIを用いた事業展開を検討されている方々が共通して直面するであろう課題に対して、このブログを通じて私なりの解答をご提供したいと思います。 AIを活用した事業アイデア評価と選定方法 | Qualitegオリジナルアプローチ 新規事業の立ち上げは、アイデアの創出から始まりますが、その後の評価と選定プロセスこそが成功の鍵を握ります。Qualitegでは、AIを積極的に活用した独自の評価・選定メソッドを開発し、より客観的かつ多角的な視点でビジネスアイデアを検証しています。今回は、私たちの実践的なアプローチをご紹介します。 AIを活用したアイデア評価の基本フレームワーク 当社のアイデア評価プロセスは、以下の2段階で構成しております。 1. 多次元評価マトリックスによる定量分析 まず、出てきたアイデアについて、ChatGPTなどの大規模言語モデル(LLM)を活用し、以下の8つの評価軸でアイデア

By Join us, Michele on Qualiteg's adventure to innovation
Windows Terminal で「無効な "icon" を持つプロファイルが見つかりました。既定では、そのプロファイルにアイコンはありません。」が出たときの対処法

Windows Terminal で「無効な "icon" を持つプロファイルが見つかりました。既定では、そのプロファイルにアイコンはありません。」が出たときの対処法

何度か、WSL にいろんなバージョンのLinux を入れたり消したりしたときに遭遇した現象です ユーザー設定の読み込み中にエラーが発生しました 無効な "icon" を持つプロファイルが見つかりました。既定では、そのプロファイルにアイコンはありません。"icon" を設定するときは、値が画像への有効なファイルパスとなっていることをご確認ください。 が発生するときの原因と対象法のレポートです 原因 使われなくなったゾンビ・プロファイルがWindows Terminal (のキャッシュ)に残り続ける 対処法 このメッセージを解消するには、いったん、プロファイルをリセットする必要がありました。 ※既存プロファイル設定が消える場合があるので留意すること Step1 Windows Terminal を落とす Windows Terminal をいったんすべて落とす Step2 settings.json を消す エクスプローラーで settings.json のあるフォルダに移動しファイルを削除する %LOCALAPPDATA%\Packages\Micros

By Qualiteg プロダクト開発部
本番運用におけるPyTorch+CUDAサーバーでの「Unknown Error」問題とその対策

本番運用におけるPyTorch+CUDAサーバーでの「Unknown Error」問題とその対策

こんにちは!Qualitegプロダクト開発部です。 今日は、GPUをつかった商用サービスにて悩ましい、テストは全部通るけど、長時間運用をしていると急に起こる「CUDA error: unknown error」についての内容です。 これ、出会うと残念な気持ちになりますが、けっこうGPU商用サービス界隈では「あるある」なんです。 原因を真面目に探るには CUDAバージョン、PyTorchバージョンの調合具合、実際のアプリケーションコードまですべてソースまで追う必要があるのですが、多くの場合、運用でカバーします。 なぜなら仮に1つ原因をみつけて対処できたとしても、CUDAバージョンはしょっちゅうあがりますし、PyTorchもそれに追従して頻繁に更新されます。さらにやっかいなことに、1日、2日、いや1週間くらいは安定的に動作しているようにみえて、数週間後にとつぜんエラーが出るといった具合なので、修正確認の難易度が高いんです。 そこで本日は「開発環境や実験環境」ではなく「本番環境」で発生しがちなこのCUDA Unknown Error について問題の原因と実践的な対策につい

By Qualiteg プロダクト開発部