chatstream.net のクエリパラメータ仕様

chatstream.net のクエリパラメータ仕様

chatstream.net は(株)Qualiteg が運用するサービスで、世界中で公開されている最新のLLMをいちはやく体験することができます。

特定の LLM を開いてじっくりチャットをしたり、複数のLLM を開いて協調的につかってみたり、LLM同士で出力を比較させたり、LLMのもつポテンシャルを感じていただけるようになっています。

たとえば、PCブラウザでURLを開くと、4つのLLMを同時に開いて、同時にチャットを行うことができます。このようにお好みに応じてチャットを制御することができるのがURLパラメータです。

https://chatstream.net/?ws_name=chat_app&mult=1&ontp=1&isync=1&model_id=llama_3_elyza_jp_8b&model_id=openai_gpt_3_5_175b&model_id=anthropic_claude3_0_haiku&model_id=google_gemini1_5_flash

URLパラメータ

chatstream.net の動作はURLパラメータである程度制御することが可能です。

URLパラメータとは https://chatstream.net の後に ? を付与して例えば https://chatstream.net?model_id=openai_gpt_4o_mini のように ? につづいて キー=値 のようなクエリ文字列を指定することで chatstream.net のお好みに応じて制御することができます。

パラメータ一覧

【ws_name】
自動で選択状態にしたいワーキングセット名を指定します。

ws_name="chat_app"

ワーキングセットは、PC画面では左端(スマホでは下端)に表示されるボタンで切り替えることのできる作業単位です。現在は "chat_app","chat_app_en" を指定することができます。

【mult】
multi_topic_mode をあらわすクエリパラメータです。

mult=1

mult=1 を指定すると、マルチトピックモードとなり、PCで使用するときに、複数のLLMチャットを同時に開くことのできるモードになります。

(例)
mult=1 マルチトピックモード
mult=0 シングルトピックモード
mult無指定 デフォルト設定またはユーザーの記録

【ontp】
open_new_topic をあらわすクエリパラメータです。

新規トピックとして開きます。

ontp=1

(例)
ontp=1 自動的に新しいトピックを開く
ontp=0 (デフォルトに従う)
ontp無指定(デフォルト動作に従う)

【model_id】
自動的に開きたいmodel_idを指定します。
複数指定すると複数開くことができます

model_id=openai_gpt_4o_mini&model_id=rakuten__rakuten_ai_7b_chat

model_id 一覧(※一部モデルは法人版のみで有効)

モデル名 モデル表示名 model_id
llama3.1 Meta-Llama-3.1-8B meta_llama_3_1_8b_instruct
node(chatstream.net用mistral_nemo) Mistral-Nemo-Instruct-2407 mistral_nemo_instruct_2407
node:0(default) calm3-22b-chat calm3_22b_chat
node(chatstream.net用elyza8B) Llama-3-ELYZA-JP-8B llama_3_elyza_jp_8b
node:0(default) RakutenAI-7B-chat rakuten__rakuten_ai_7b_chat
node(chatstream.net用GPT4o_mini) OpenAI GPT-4o mini openai_gpt_4o_mini
node(chatstream.net用GPT3.5_newtech) OpenAI GPT-3.5 openai_gpt_3_5_175b
node(chatstream.net用Claude3Haiku) Anthropic Claude3-Haiku anthropic_claude3_0_haiku
node(chatstream.net用Gemini1.5Flash) Google Gemini1.5 Flash google_gemini1_5_flash
Anthropic Claude 3.5 Sonnet Anthropic Claude 3.5 Sonnet anthropic_claude_3_5_sonnet
Google Gemini1.5 Pro Google Gemini1.5 Pro google_gemini1_5_pro
OpenAI gpt-4o OpenAI GPT4o openai_gpt4o

・確実に複数 開きたいときは、 mult=1 を明示的に指定してください。
・確実に自動的に開きたいときは ontp=1 を明示的に指定してください。


【isync】
input_sync をあらわすクエリパラメータです。

複数のLLMへの入力を同期させることができます

isync=1


isync=1 入力同期が有効
isync=0 入力同期はしない
isync無指定 デフォルトの設定に従う

【noip】
noip は no_iphone をあらわすクエリーです。

iPhone専用の描画モードを無効にします

Read more

LLM推論基盤プロビジョニング講座 第5回 GPUノード構成から負荷試験までの実践プロセス

LLM推論基盤プロビジョニング講座 第5回 GPUノード構成から負荷試験までの実践プロセス

こんにちは!これまでのLLM推論基盤プロビジョニング講座では、推論速度の定義、リクエスト数見積もり、メモリ消費量計算、推論エンジン選定について詳しく解説してきました。 今回は、残りのステップである「GPUノード構成見積もり」「負荷試験」「トレードオフ検討」について一気に解説し、最後に実際のサーバー構成例をご紹介します。 STEP5:GPUノード構成見積もり GPUメモリから考える同時リクエスト処理能力 LLMサービスを構築する際、どのGPUを何台選ぶかは非常に重要な決断です。今回はLlama 8Bモデルを例に、GPUメモリ容量と同時リクエスト処理能力の関係を見ていきましょう。 GPUメモリの使われ方を理解する ここは復習となりますが、 LLM推論においてGPUメモリは主に2つの用途で消費されます 1. モデル重みデータ: LLMモデル自体を格納するためのメモリ 2. KVキャッシュ: ユーザーとの対話コンテキストを保持するための一時メモリ Llama 8Bを16ビット精度で実行する場合、モデル重みデータは約16GBのメモリを占めます。これは固定的なメモリ消

By Qualiteg コンサルティング
発話音声からリアルなリップシンクを生成する技術 第2回:AIを使ったドリフト補正

発話音声からリアルなリップシンクを生成する技術 第2回:AIを使ったドリフト補正

こんにちは! 前回の記事では、当社のMotionVoxで使用している「リップシンク」技術について、wav2vecを用いた音声特徴量抽出の仕組みを解説しました。音声から正確な口の動きを予測するための基礎技術について理解いただけたかと思います。 今回は、その続編として、リップシンク制作における重要な技術的課題である「累積ドリフト」に焦点を当てます。wav2vecで高精度な音素認識ができても、実際の動画制作では複数の音声セグメントを時系列に配置する際、わずかなタイミング誤差が蓄積して最終的に大きなずれとなる現象が発生します。 本記事では、この累積ドリフトのメカニズムと、機械学習を活用した最新の補正技術について、実際の測定データを交えながら詳しく解説していきます。前回のwav2vecによる特徴抽出と今回のドリフト補正技術を組み合わせることで、MotionVoxがどのように高品質なリップシンクを実現しているのか、その全体像が見えてくるはずです。 累積ドリフトとは何か 基本概念 累積ドリフトとは、個々の音声セグメントが持つ微小なタイミング誤差が、時間の経過とともに蓄積していく現象で

By Qualiteg 研究部
AIエージェント時代の新たな番人「ガーディアンエージェント」とは?

AIエージェント時代の新たな番人「ガーディアンエージェント」とは?

こんにちは!今日は先日ガートナーが発表したガーディアンエージェントについて解説します ガートナーの公式定義 ハイプカーブで有名なガートナーは2025年6月に、ガーディアンエージェントに関する見解を発表しました。ガーディアン・エージェントとは、AIとの安全で信頼できるやりとりを支援するために設計されたAIベースのテクノロジです。 ざっくりいうと、 「AIエージェントが来るよ」と予言したガートナー社は、次は、「ガーディアンエージェントが来るよ」と予言しました。なぜガーディアンエージェントが来るのでしょうか?本稿では、そのあたりを考察していきたいと思います。 なぜ今、AIの「監視役」が必要なのか 2025年、私たちは本格的なAIエージェント時代の入り口に立っています。AIが単なるツールから、自律的に判断し行動する「エージェント」へと進化する中で、新たな課題が浮上しています。 従来のAIとエージェント型AIの違い さて、ガーディアンエージェントが必要になる理由として、生成AI(以後AIと呼びます)の急速な進化があげられます。従来のAIとエージェント型AIの違いを思い出

By Qualiteg コンサルティング
LLM推論基盤プロビジョニング講座 第4回 推論エンジンの選定

LLM推論基盤プロビジョニング講座 第4回 推論エンジンの選定

こんにちは!前回までの講座では、LLMサービス構築に必要なリクエスト数の見積もりや、使用モデルの推論時消費メモリ計算について詳しく解説してきました。今回は7ステッププロセスの4番目、「推論エンジンの選定」について詳しく掘り下げていきます。 推論エンジンとは何か 推論エンジンとは、GPU上でLLMモデルの推論計算(テキスト生成)を効率的に行うために設計された専用のソフトウェアプログラムです。一般的なディープラーニングフレームワーク(PyTorch、TensorFlowなど)でも推論は可能ですが、実運用環境では専用の推論エンジンを使用することで、大幅なパフォーマンス向上とリソース効率化が期待できます。 推論エンジンは単なる実行環境ではなく、様々な最適化技術を実装しています。特定のモデルアーキテクチャに特化した最適化機能を実装したものや、推論速度の高速化に特化したもの、前回解説したKVキャッシュのメモリ効率化機能を備えたものなど、それぞれ特徴が異なります。そのため、自社で採用したLLMモデルや運用環境、要件に合致した推論エンジンを選定することが重要です。 推論エンジン選定のアプロ

By Qualiteg コンサルティング