chatstream.net のクエリパラメータ仕様

chatstream.net のクエリパラメータ仕様

chatstream.net は(株)Qualiteg が運用するサービスで、世界中で公開されている最新のLLMをいちはやく体験することができます。

特定の LLM を開いてじっくりチャットをしたり、複数のLLM を開いて協調的につかってみたり、LLM同士で出力を比較させたり、LLMのもつポテンシャルを感じていただけるようになっています。

たとえば、PCブラウザでURLを開くと、4つのLLMを同時に開いて、同時にチャットを行うことができます。このようにお好みに応じてチャットを制御することができるのがURLパラメータです。

https://chatstream.net/?ws_name=chat_app&mult=1&ontp=1&isync=1&model_id=llama_3_elyza_jp_8b&model_id=openai_gpt_3_5_175b&model_id=anthropic_claude3_0_haiku&model_id=google_gemini1_5_flash

URLパラメータ

chatstream.net の動作はURLパラメータである程度制御することが可能です。

URLパラメータとは https://chatstream.net の後に ? を付与して例えば https://chatstream.net?model_id=openai_gpt_4o_mini のように ? につづいて キー=値 のようなクエリ文字列を指定することで chatstream.net のお好みに応じて制御することができます。

パラメータ一覧

【ws_name】
自動で選択状態にしたいワーキングセット名を指定します。

ws_name="chat_app"

ワーキングセットは、PC画面では左端(スマホでは下端)に表示されるボタンで切り替えることのできる作業単位です。現在は "chat_app","chat_app_en" を指定することができます。

【mult】
multi_topic_mode をあらわすクエリパラメータです。

mult=1

mult=1 を指定すると、マルチトピックモードとなり、PCで使用するときに、複数のLLMチャットを同時に開くことのできるモードになります。

(例)
mult=1 マルチトピックモード
mult=0 シングルトピックモード
mult無指定 デフォルト設定またはユーザーの記録

【ontp】
open_new_topic をあらわすクエリパラメータです。

新規トピックとして開きます。

ontp=1

(例)
ontp=1 自動的に新しいトピックを開く
ontp=0 (デフォルトに従う)
ontp無指定(デフォルト動作に従う)

【model_id】
自動的に開きたいmodel_idを指定します。
複数指定すると複数開くことができます

model_id=openai_gpt_4o_mini&model_id=rakuten__rakuten_ai_7b_chat

model_id 一覧(※一部モデルは法人版のみで有効)

モデル名 モデル表示名 model_id
llama3.1 Meta-Llama-3.1-8B meta_llama_3_1_8b_instruct
node(chatstream.net用mistral_nemo) Mistral-Nemo-Instruct-2407 mistral_nemo_instruct_2407
node:0(default) calm3-22b-chat calm3_22b_chat
node(chatstream.net用elyza8B) Llama-3-ELYZA-JP-8B llama_3_elyza_jp_8b
node:0(default) RakutenAI-7B-chat rakuten__rakuten_ai_7b_chat
node(chatstream.net用GPT4o_mini) OpenAI GPT-4o mini openai_gpt_4o_mini
node(chatstream.net用GPT3.5_newtech) OpenAI GPT-3.5 openai_gpt_3_5_175b
node(chatstream.net用Claude3Haiku) Anthropic Claude3-Haiku anthropic_claude3_0_haiku
node(chatstream.net用Gemini1.5Flash) Google Gemini1.5 Flash google_gemini1_5_flash
Anthropic Claude 3.5 Sonnet Anthropic Claude 3.5 Sonnet anthropic_claude_3_5_sonnet
Google Gemini1.5 Pro Google Gemini1.5 Pro google_gemini1_5_pro
OpenAI gpt-4o OpenAI GPT4o openai_gpt4o

・確実に複数 開きたいときは、 mult=1 を明示的に指定してください。
・確実に自動的に開きたいときは ontp=1 を明示的に指定してください。


【isync】
input_sync をあらわすクエリパラメータです。

複数のLLMへの入力を同期させることができます

isync=1


isync=1 入力同期が有効
isync=0 入力同期はしない
isync無指定 デフォルトの設定に従う

【noip】
noip は no_iphone をあらわすクエリーです。

iPhone専用の描画モードを無効にします

Read more

LLM推論基盤プロビジョニング講座 第3回 使用モデルの推論時消費メモリ見積もり

LLM推論基盤プロビジョニング講座 第3回 使用モデルの推論時消費メモリ見積もり

こんにちは!前回はLLMサービスへのリクエスト数見積もりについて解説しました。今回は7ステッププロセスの3番目、「使用モデルの推論時消費メモリ見積もり」について詳しく掘り下げていきます。 GPUメモリがリクエスト処理能力を決定する LLMサービス構築において、GPUが同時に処理できるリクエスト数はGPUメモリの消費量によって制約されます。 つまり、利用可能なGPUメモリがどれだけあるかによって、同時に何件のリクエストを処理できるかがほぼ決まります。 では、その具体例として、Llama3 8B(80億パラメータ)モデルをNVIDIA RTX A5000(24GB)にロードするケースを考えてみましょう。 このGPUには24GBのGPUメモリがありますが、すべてをリクエスト処理に使えるわけではありません。最初にモデル自体が一定量のメモリを消費し、残りの領域で実際のリクエスト処理を行います。 GPUメモリ消費の二大要素 GPUの消費メモリ量は主に以下の2つの要素によって決まります 1. モデルのフットプリント LLMをGPUに読み込んだときに最初に消費されるメモリ

By Qualiteg コンサルティング
システムとcondaのC++標準ライブラリ(libstdc++)のバージョン違い問題による事象と対処法解説

システムとcondaのC++標準ライブラリ(libstdc++)のバージョン違い問題による事象と対処法解説

こんにちは! 先日、dlibをつかったPythonアプリケーション(conda環境で動作する)作っていたところ、以下のようなエラーに遭遇しました。 ImportError: /home/mlu/anaconda3/envs/example_env/bin/../lib/libstdc++.so.6: version `GLIBCXX_3.4.32' not found (required by /home/mlu/anaconda3/envs/example_env/lib/python3.10/site-packages/_dlib_pybind11.cpython-310-x86_64-linux-gnu.so) 「dlib_pybind11モジュールがGLIBCXX_3.4.32を要求してるけど、みつからない!」という感じのエラーですね。

By Qualiteg プロダクト開発部
LLM推論基盤プロビジョニング講座 第2回 LLMサービスのリクエスト数を見積もる

LLM推論基盤プロビジョニング講座 第2回 LLMサービスのリクエスト数を見積もる

こんにちは! 今回はLLM推論基盤プロビジョニング講座 第2回です! STEP2 LLMサービスへのリクエスト数見積もり それでは、早速、LLM推論基盤プロビジョニングの第2ステップである「リクエスト数見積もり」の重要性と方法を解説いたします。 LLMサービスを構築する際に必要となるGPUノード数を適切に見積もるためには、まずサービスに対して想定されるリクエスト数を正確に予測する必要があります。 リクエスト数見積もりの基本的な考え方 LLMサービスへの想定リクエスト数から必要なGPUノード数を算出するプロセスは、サービス設計において非常に重要です。過小評価すればサービス品質が低下し、過大評価すれば無駄なコストが発生します。このバランスを適切に取るための基礎となるのがリクエスト数の見積もりです。 想定リクエスト数の諸元 リクエスト数を見積もるための5つの重要な要素(諸元)をみてみましょう。 1. DAU(Daily Active Users): 1日あたりの実際にサービスを利用するユーザー数です。これはサービスの規模を示す最も基本的な指標となります。 2. 1日

By Qualiteg コンサルティング
Zoom会議で肩が踊る?自動フレーミング映像安定化とAIによる性能向上の可能性

Zoom会議で肩が踊る?自動フレーミング映像安定化とAIによる性能向上の可能性

こんにちは! 本日は、自動フレーミング映像の安定化に関するアルゴリズム・ノウハウを解説いたします 第1章 問題の背景と目的 バストアップ映像を撮影する際、特にオンラインミーティングやYouTubeなどのトーク映像では、人物がうなずく、首を振るなどの自然な動作をした際に「首まわりや肩がフレーム内で上下に移動してしまう」という現象がしばしば起こります。これは、多くの場合カメラや撮影ソフトウェアが人物の「目や顔を画面中央に保とう」とする自動フレーミング機能の働きに起因します。 撮影対象の人物が頭を下げた際に、映像のフレーム全体が相対的に上方向へシフトし、その結果、本来動いていないはずの肩の部分が映像内で持ち上がっているように見えてしまう現象です。 本稿では、この問題を撮影後の後処理(ポストプロセッシング)のみを用いて、高速、高い精度かつロバストに解決する手法をご紹介します。 前半では、従来のCV(コンピュータービジョン)の手法を使い高速に処理する方法をご紹介します。後半では、AIを使用してより安定性の高い性能を実現する方法について考察します。 第2章 古典手法による肩の上下

By Qualiteg 研究部