[AI数理]対数関数の微分法・前編

[AI数理]対数関数の微分法・前編

おはようございます!(株) Qualiteg 研究部です。

本日から2回にわたって対数関数について学んでいきましょう。
正確にいうと、対数関数の微分法を学びます。

対数関数って何だっけ?

まず、対数関数というのは、「ある数 \( x \) が別の数 \( b \) を何回かけると \( x \) になるか」を調べる方法です。例えば、\( b \) が 2 で \( x \) が 8 の場合、2 を 3 回かけると 8 になります。この場合、数学的には「\( b \) の \( x \) に対する対数」と言います。

これを数式で表すと、次のようになります:

$$
\log_b(x) = y
$$

ここで \( b \) は底(てい)、\( x \) は真数、\( y \) は \( b \) を何回かけたら \( x \) になるかを表す数です。例えば、\( b = 2 \) と \( x = 8 \) の場合、\( y = 3 \) となります。なぜなら、2 を 3 回かけると 8 になるからです。

$$
\log_2(8) = 3
$$

対数関数は「逆」の関数と考えることもできます。つまり、乗算(かけ算)の逆が除算(わり算)であるように、累乗(たとえば 2 の 3 乗は 8)の逆が対数関数です。

なぜ対数関数は重要か?

まず、「なぜ、対数関数を学ぶ必要があるか」を説明します。

対数関数は、機械学習の分類問題での代表的な損失関数である 交差エントロピー関数の式に登場します。

多値分類用の交差エントロピー関数

$$
\ - \frac{1}{N} \sum_{i}^{N} \sum_{k}^{K} t_{ik} \log y_{ik} \tag{1}
$$

二値分類用の交差エントロピー関数

$$
\ - \frac{1}{N} \sum_{i}^{N} \lbrack t_{i} \log y_{i} + (1- t_{i}) \log (1- y_{i}) \rbrack \tag{2}
$$

ニューラルネットワークの学習では損失関数を最小化するように学習していきますが、損失関数が小さくなる方向(勾配)を求めるため損失関数の微分を求めます。

このように交差エントロピー関数は対数関数を含む関数となっているため、対数関数の微分が必要になります。

本シリーズは、 対数関数の微分法 をマスターすることが目的です。対数関数の微分を理解するために、まず対数関数の基礎をマスターし、それを使って対数関数の微分を学習していきます。

1. 対数関数 \(log\) とは

さて、再度、こんどは数式ベースで対数関数について説明いたしますね。

$$
y = \log_a x
$$

\(a\) を何乗すると \(x\) になるか を求めるのが 対数「 \(\log\) 」です。これを \(a\) を底とする対数関数といいます。

\(y=\log_a x\) のとき \(a^{y} = x\) となります。

また \(y=\log_a x\) は \(y=a^{x}\) の逆関数となります。

\(y=\log_2 x\) で \(x=8\) とすると、 \(y=\log_2 8\) ・・・ \(2\) を何乗すると \(8\) になるかを求めることになるので、答えは \(y=3\) となります。

いかがでしたでしょうか。

思い出してみると(または、今学んでみた感想として)案外とっつきやすやすくないでしょうか。

それでは、また次回お会いしましょう!


navigation

Read more

【ChatStream】大容量のLLMの推論に必要なGPUサーバー構成

【ChatStream】大容量のLLMの推論に必要なGPUサーバー構成

大容量のLLM(大規模言語モデル)の推論に必要なGPUサーバー構成とChatStreamとの連携について詳しく動画で解説しています。 特に、Llama3-70Bモデルを例に、そのメモリ要件(140GBのGPUメモリ)と、この要件を満たすために必要なGPUサーバーおよびGPUクラスターの構成について、取り扱いやすい NVIDIA RTX A6000 GPUを使用した例について説明します。 また、モデル並列化技術(テンソル並列化、パイプライン並列化、データ並列化)とその推論エンジンの選択についても触れ、実際に複数のGPUサーバーを使ったクラスター構成がどのように推論処理を効率的に行うかを示します。 最後に、ChatStreamのLLMノードとは何か、そしてそれをどのようにスケーリングして大量の同時リクエストに対応するかについても解説します。こ の動画は、高性能を必要とするLLMのデプロイメントと運用に興味がある方に特に有益です。

By Join us, Michele on Qualiteg's adventure to innovation
ChatStream🄬でLlama-3-Elyza-JP-8B を動かす

ChatStream🄬でLlama-3-Elyza-JP-8B を動かす

こんにちは、本日は Llama-3-Elyza-JP-8B を使ってみました。 昨日 2024年6月26日に発表(https://prtimes.jp/main/html/rd/p/000000046.000047565.html)された Llama-3-Elyza-JP-8B は 70B 版では「GPT-4」を上回る性能の日本語LLMといわれています。 今回、当社でも Playground 環境に Llama-3-Elyza-JP-8B を搭載して試してみましたのでご紹介します。 70B(700億パラメータ)版は GPT-4 を上回るとのことですので、8B(80億パラメータ)版はGPT-3.5 と比較してみることにいたしました。 (性能比較は https://note.com/elyza/n/n360b6084fdbd の記事に詳しく書いてあります。) AWQ量子化版を使用してみる 今回は、A4000

By Qualiteg プロダクト開発部
AttributeError: module 'torch._dynamo' has no attribute 'mark_static_address' が発生したときの対処法

AttributeError: module 'torch._dynamo' has no attribute 'mark_static_address' が発生したときの対処法

以下のようなエラーが出た場合の対処法 File "/venv/Lib/site-packages/torch/utils/_contextlib.py", line 115, in decorate_context return func(*args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^ File "/venv/Lib/site-packages/transformers/generation/utils.py", line 1744, in generate model_kwargs["past_key_values"] = self._get_cache( ^^^^^^^^^^^^^^^^ File "/venv/Lib/site-packages/transformers/

By Qualiteg プロダクト開発部
[AI新規事業創出]Qualitegセレクション:アイディア創造編①Qualiteg式オンラインブレストの活用術

[AI新規事業創出]Qualitegセレクション:アイディア創造編①Qualiteg式オンラインブレストの活用術

Qualiteg blogを訪問してくださった皆様、こんにちは。Micheleです。AIを活用した新規事業やマーケティングを手がけている私には、クライアントからよく寄せられる質問があります。AIを用いた事業展開を検討されている方々が共通して直面するであろう課題に対して、このブログを通じて私なりの解答をご提供したいと思います。 今日は私のお気に入りのブレスト方法である「Qualiteg式オンラインブレスト」の活用術についてお話ししたいと思います。 場所を変えて気分を変えても良いアイディアは生まれない!? よく、「金曜日は1日ブレストしよう!」という上司の掛け声とともに、いつもと違う雰囲気なら良いアイディアも出るかもしれないといってホテルの会議室などを予約されて1日缶詰でブレストしたが、期待する結果が出なかったとおっしゃるクライアントが非常に多いです。 ブレインストーミングは複数の参加者が自由にアイデアを出し合うことで、新しい発想や解決策を見つける手法です。 批判や評価を一時的に排除し、量を重視して多くのアイデアを集めることが目的です。1950年代に広告業界で生まれたこの手法は

By Join us, Michele on Qualiteg's adventure to innovation