[ChatStream] 入出力プロンプトの予期せぬ変更に備え revision は固定する

[ChatStream] 入出力プロンプトの予期せぬ変更に備え revision は固定する

こんにちは。(株) Qualiteg プロダクト開発部です。

GW中に、microsoft/Phi-3-mini-128k-instruct の tokenizer.json が変更になり、プロンプトのパースに失敗し、チャットのストリーミングができなくなる問題が発生しました。

実際には以下の変更がありました

https://huggingface.co/microsoft/Phi-3-mini-128k-instruct/commit/8a362e755d2faf8cec2bf98850ce2216023d178a

もともと、Miscrosoft さんが書いていた記事にあるプロンプトフォーマットと実際のモデルのプロンプトフォーマットが異なっていたため、当社では、実際のモデルにあわせるヒューリスティックな対応をしておりましたが、モデル(\w tokenizer) 側がもとの仕様に近い形に修正してきた模様です。

これによって、当初動作していたプロンプト変換器が動作しなくなるという現象が発生しました。

LLM は「スピードが命!」なので、トークナイザー含め完全にテストされた状態では出てこないのは given condition ですが、モデルがアップデートされるためにプロンプト変換エラーが発生しないよう、 プロダクトでAuto クラスをつかったモデル・トークナイザーの読み込みをするときには revision 付き呼出しをし、その上で、モデルの最新版がでたときに、しっかりテストを回すという運用が好ましいとおもいます。

リビジョン付き呼出しの例

MODEL_REVISION = "8a362e755d2faf8cec2bf98850ce2216023d178a"
model = AutoModelForCausalLM.from_pretrained(
    "microsoft/Phi-3-mini-128k-instruct",
    device_map="cuda",
    torch_dtype="auto",
    trust_remote_code=True,
    revision=MODEL_REVISION,
)
tokenizer = AutoTokenizer.from_pretrained(model_path, revision=MODEL_REVISION)

(リビジョンは コミットID、タグ名 など指定可能)

Read more

GPUメモリ最適化の深層:初回と最終バッチの特殊性を踏まえた効率的なAI画像処理

GPUメモリ最適化の深層:初回と最終バッチの特殊性を踏まえた効率的なAI画像処理

はじめに こんにちは!Qualitegプロダクト開発部です。 当社では、LLMテクノロジーをベースとしたAIキャラクター、AIヒューマンの研究開発を行っています。そんな中、表情、仕草のように「人間らしさ」をもったバーチャルヒューマンを再現するときには画像生成、画像編集といったAIを活用した画像処理が必要となります。 人と対話するAIヒューマンやバーチャルヒューマンはタイムリーに表情や仕草を生成する必要があるため、複数の画像をフレーム連結してつくるモーション(シンプルにいうと動画)を短時間に生成する必要があります。 このようなとき、AIトレーニングやシンプルな推論とは異なり、いかにGPUの能力を引き出してやるか「GPUの使いこなし術」がミソとなります。 GPUの使いこなし術というと、以前のブログにも連続バッチやダイナミックバッチについてLLM推論のコンテクストで語りましたが、本日は画像処理におけるGPUメモリ最適化、とくに、推論時バッチにおける「初回と最終回」のお作法という少しマニアックな話題について語ってみようとおもいます。 画像処理とGPU GPUを用いた画像

By Qualiteg プロダクト開発部
Qualitegセレクション:アイディア深堀編③RoundRobinの活用術

Qualitegセレクション:アイディア深堀編③RoundRobinの活用術

Qualiteg blogを訪問してくださった皆様、こんにちは。Micheleです。AIを活用した新規事業やマーケティングを手がけている私には、クライアントからよく寄せられる質問があります。AIを用いた事業展開を検討されている方々が共通して直面するであろう課題に対して、このブログを通じて私なりの解答をご提供したいと思います。 Qualitegセレクション、アイディア深堀編もいよいよ第3弾!今回は、複数人でアイディアを発散・深堀する際に効果的な RoundRobin(ラウンドロビン) という手法をご紹介します。ブレインストーミングに行き詰まった時や、多様な視点を取り入れたい時にぜひ活用してみてください。 RoundRobinとは? RoundRobinとは、様々な場面で用いられますが、大抵の場合において「持ち回り」、つまり「何かの役割・出番をたくさんの物事・人員で交替しあう」というような意味で使うことが多いです。 ここでは、参加者全員が順番にアイディアを出し、それを記録していく手法をRoundRobinと呼んでいます。順番に意見を述べることで、発言力の差による偏りをなくし、全

By Join us, Michele on Qualiteg's adventure to innovation
PyTorchバージョンとNVIDIA GPU Compute Capability Level サポート

PyTorchバージョンとNVIDIA GPU Compute Capability Level サポート

古いPyTorchコード資産を持っている会社は、昔のコードが最新のPyTorchで動かない!最新のGPUで動かない!ということに遭遇することが多いのでしょうか。 今回は、PyTorchバージョン、対応GPU Capability Level 、対応CUDAバージョンについてまとめてみます。 PyTorchがサポートするGPUの Compute Capability PyTorch バージョン サポートされる Compute Capability (SM) レベル 1.0.0 - 1.3.1 SM_35, SM_37, SM_50, SM_60, SM_61, SM_70 1.4.0 - 1.7.1 SM_37, SM_50,

By Qualiteg プロダクト開発部
Qualitegセレクション:アイディア深堀編②6W2Hの活用術

Qualitegセレクション:アイディア深堀編②6W2Hの活用術

Qualiteg blogを訪問してくださった皆様、こんにちは。Micheleです。AIを活用した新規事業やマーケティングを手がけている私には、クライアントからよく寄せられる質問があります。AIを用いた事業展開を検討されている方々が共通して直面するであろう課題に対して、このブログを通じて私なりの解答をご提供したいと思います。 本日のテーマは6W2H Qualitegセレクションは、ユーザーエクスペリエンス(UX)向上のためのヒントやツールを紹介するシリーズです。今回は、アイディアをより具体的に、実行可能なレベルまで深堀りする手法として、6W2Hの活用術をご紹介します。 優れたUXを実現するには、ユーザーのニーズを深く理解し、それを満たすサービスやプロダクトを提供することが不可欠です。そのためには、アイディア段階で徹底的に検討し、実現可能性や課題を明確にする必要があります。 今回は、アイディアを深堀りする際に非常に役立つツール「6W2H」について詳しくご紹介します。 6W2Hとは? 6W2Hは、問題解決や状況分析のための強力なフレームワークです。以下の8つの質問から構成さ

By Join us, Michele on Qualiteg's adventure to innovation