chatstream.net のクエリパラメータ仕様

chatstream.net のクエリパラメータ仕様

chatstream.net は(株)Qualiteg が運用するサービスで、世界中で公開されている最新のLLMをいちはやく体験することができます。

特定の LLM を開いてじっくりチャットをしたり、複数のLLM を開いて協調的につかってみたり、LLM同士で出力を比較させたり、LLMのもつポテンシャルを感じていただけるようになっています。

たとえば、PCブラウザでURLを開くと、4つのLLMを同時に開いて、同時にチャットを行うことができます。このようにお好みに応じてチャットを制御することができるのがURLパラメータです。

https://chatstream.net/?ws_name=chat_app&mult=1&ontp=1&isync=1&model_id=llama_3_elyza_jp_8b&model_id=openai_gpt_3_5_175b&model_id=anthropic_claude3_0_haiku&model_id=google_gemini1_5_flash

URLパラメータ

chatstream.net の動作はURLパラメータである程度制御することが可能です。

URLパラメータとは https://chatstream.net の後に ? を付与して例えば https://chatstream.net?model_id=openai_gpt_4o_mini のように ? につづいて キー=値 のようなクエリ文字列を指定することで chatstream.net のお好みに応じて制御することができます。

パラメータ一覧

【ws_name】
自動で選択状態にしたいワーキングセット名を指定します。

ws_name="chat_app"

ワーキングセットは、PC画面では左端(スマホでは下端)に表示されるボタンで切り替えることのできる作業単位です。現在は "chat_app","chat_app_en" を指定することができます。

【mult】
multi_topic_mode をあらわすクエリパラメータです。

mult=1

mult=1 を指定すると、マルチトピックモードとなり、PCで使用するときに、複数のLLMチャットを同時に開くことのできるモードになります。

(例)
mult=1 マルチトピックモード
mult=0 シングルトピックモード
mult無指定 デフォルト設定またはユーザーの記録

【ontp】
open_new_topic をあらわすクエリパラメータです。

新規トピックとして開きます。

ontp=1

(例)
ontp=1 自動的に新しいトピックを開く
ontp=0 (デフォルトに従う)
ontp無指定(デフォルト動作に従う)

【model_id】
自動的に開きたいmodel_idを指定します。
複数指定すると複数開くことができます

model_id=openai_gpt_4o_mini&model_id=rakuten__rakuten_ai_7b_chat

model_id 一覧(※一部モデルは法人版のみで有効)

モデル名 モデル表示名 model_id
llama3.1 Meta-Llama-3.1-8B meta_llama_3_1_8b_instruct
node(chatstream.net用mistral_nemo) Mistral-Nemo-Instruct-2407 mistral_nemo_instruct_2407
node:0(default) calm3-22b-chat calm3_22b_chat
node(chatstream.net用elyza8B) Llama-3-ELYZA-JP-8B llama_3_elyza_jp_8b
node:0(default) RakutenAI-7B-chat rakuten__rakuten_ai_7b_chat
node(chatstream.net用GPT4o_mini) OpenAI GPT-4o mini openai_gpt_4o_mini
node(chatstream.net用GPT3.5_newtech) OpenAI GPT-3.5 openai_gpt_3_5_175b
node(chatstream.net用Claude3Haiku) Anthropic Claude3-Haiku anthropic_claude3_0_haiku
node(chatstream.net用Gemini1.5Flash) Google Gemini1.5 Flash google_gemini1_5_flash
Anthropic Claude 3.5 Sonnet Anthropic Claude 3.5 Sonnet anthropic_claude_3_5_sonnet
Google Gemini1.5 Pro Google Gemini1.5 Pro google_gemini1_5_pro
OpenAI gpt-4o OpenAI GPT4o openai_gpt4o

・確実に複数 開きたいときは、 mult=1 を明示的に指定してください。
・確実に自動的に開きたいときは ontp=1 を明示的に指定してください。


【isync】
input_sync をあらわすクエリパラメータです。

複数のLLMへの入力を同期させることができます

isync=1


isync=1 入力同期が有効
isync=0 入力同期はしない
isync無指定 デフォルトの設定に従う

【noip】
noip は no_iphone をあらわすクエリーです。

iPhone専用の描画モードを無効にします

Read more

大企業のAIセキュリティを支える基盤技術 - 今こそ理解するActive Directory 第2回 ドメイン環境の構築

大企業のAIセキュリティを支える基盤技術 - 今こそ理解するActive Directory 第2回 ドメイン環境の構築

こんにちは、今回はシリーズ第2回ドメイン環境の構築 - 検証環境の構築手順について解説いたします! 連載の構成 第1章:基本概念の理解 - Active DirectoryとKerberos/NTLM認証の基礎 【★今回です★】第2章:ドメイン環境の構築 - 検証環境の構築手順 第3章:クライアントとサーバーのドメイン参加 - ドメイン参加の詳細手順 第4章:プロキシサーバーと統合Windows認証 第5章:ブラウザ設定と認証 - 各ブラウザでの設定方法 第6章:トラブルシューティング - よくある問題と解決方法 第7章:セキュリティとベストプラクティス - 本番環境での考慮事項 第8章:実践的な構成例 - AIセキュリティツールとの統合事例 第2章:ドメイン環境の構築 2.1 ドメイン名の設計 2.1.1 ドメイン名の命名規則 Active Directoryを構築する際、

By Qualiteg コンサルティング
AIがよく間違える「クロージャ問題」の本質と対策

AIがよく間違える「クロージャ問題」の本質と対策

こんにちは! 本日は「クロージャ問題」に関する話題となります。 Pythonでループ内に関数を定義したことはありますか? もしあるなら、あれれ?な挙動に遭遇したことがあるかもしれません。 本稿では、Pythonプログラマーなら一度は経験する「クロージャ問題」について、初心者にもわかりやすく解説してみたいとおもいます クロージャとは何か? そもそも ”クロージャ” とは何でしょうか。 クロージャ(closure)とは、関数が自分の定義されたスコープの変数を覚えて持ち運ぶ仕組み のことです。 もう少し分解すると、次の2つがポイントとなります 1. 内側の関数が、外側の関数の変数を使える 2. 外側の関数が終了しても、その変数は生き続ける 普通の関数とクロージャ―を使った関数を比較してみましょう 普通の関数との比較 まずは普通の関数から、 def add(x, y): return x + y print(add(3, 5)) # 8 print(add(3, 7)

By Qualiteg プロダクト開発部
フリーランスHub様にQualiteg Blogをご紹介いただきました

フリーランスHub様にQualiteg Blogをご紹介いただきました

この度、フリーランス向け案件検索サービス「フリーランスHub」様の特集記事「トレンドをキャッチアップ!AIに関する情報が得られるメディア・ブログまとめ」にて、弊社が運営する「Qualiteg Blog」をご紹介いただきました。 掲載記事について フリーランスHub様の記事では、AI技術の最前線で活躍するエンジニアや開発者の方々に向けて、価値ある情報源となるメディア・ブログが厳選して紹介されています。 その中で、Qualiteg Blogを「AI技術の専門知識を実践的なビジネス活用につなげる貴重な情報源」として取り上げていただきました。 特に以下の点を評価いただいております * 実践的なビジネス活用事例の提供 AI新規事業創出や事業選定方法など、経営者やビジネスリーダーが直面する課題への具体的な解決策 * 技術的な深掘りコンテンツ リップシンク技術など、実際のサービスで使用されている技術の開発現場目線での詳細な解説 * 多様な情報発信 代表執筆記事、AIトピックス、講演会動画など、幅広いフォーマットでの情報提供 今後も価値ある情報発

By Qualiteg ニュース
PyTorchの重いCUDA処理を非同期化したらメモリリークした話と、その解決策

PyTorchの重いCUDA処理を非同期化したらメモリリークした話と、その解決策

こんにちは!Qualitegプロダクト開発部です! 今回は同期メソッドを非同期メソッド(async)化しただけなのに、思わぬメモリリーク※に見舞われたお話です。 深層学習モデルを使った動画処理システムを開発していた時のことです。 「処理の進捗をリアルタイムでWebSocketで通知したい」という要件があり、「単にasync/awaitを使えばいいだけでしょ?」と軽く考えていたら、思わぬ落とし穴にはまりました。 プロ仕様のGPUを使っていたにも関わらず、メモリ不足でクラッシュしてしまいました。 この記事では、その原因と解決策、そして学んだ教訓を詳しく共有したいと思います。同じような問題に直面している方の参考になれば幸いです。 ※ 厳密には「メモリリーク」ではなく「メモリの解放遅延」ですが、 実用上の影響は同じなので、この記事では便宜上「メモリリーク」と表現します。 背景:なぜ進捗通知は非同期である必要があるのか モダンなWebアプリケーションの要求 最近のWebアプリケーション開発では、ユーザー体験を向上させるため、長時間かかる処理の進捗をリアルタイムで表示することが

By Qualiteg プロダクト開発部