[AI数理]対数関数の微分法・前編
おはようございます!(株) Qualiteg 研究部です。
本日から2回にわたって対数関数について学んでいきましょう。
正確にいうと、対数関数の微分法を学びます。
対数関数って何だっけ?
まず、対数関数というのは、「ある数 \( x \) が別の数 \( b \) を何回かけると \( x \) になるか」を調べる方法です。例えば、\( b \) が 2 で \( x \) が 8 の場合、2 を 3 回かけると 8 になります。この場合、数学的には「\( b \) の \( x \) に対する対数」と言います。
これを数式で表すと、次のようになります:
$$
\log_b(x) = y
$$
ここで \( b \) は底(てい)、\( x \) は真数、\( y \) は \( b \) を何回かけたら \( x \) になるかを表す数です。例えば、\( b = 2 \) と \( x = 8 \) の場合、\( y = 3 \) となります。なぜなら、2 を 3 回かけると 8 になるからです。
$$
\log_2(8) = 3
$$
対数関数は「逆」の関数と考えることもできます。つまり、乗算(かけ算)の逆が除算(わり算)であるように、累乗(たとえば 2 の 3 乗は 8)の逆が対数関数です。
なぜ対数関数は重要か?
まず、「なぜ、対数関数を学ぶ必要があるか」を説明します。
対数関数は、機械学習の分類問題での代表的な損失関数である 交差エントロピー関数の式に登場します。
多値分類用の交差エントロピー関数
$$
\ - \frac{1}{N} \sum_{i}^{N} \sum_{k}^{K} t_{ik} \log y_{ik} \tag{1}
$$
二値分類用の交差エントロピー関数
$$
\ - \frac{1}{N} \sum_{i}^{N} \lbrack t_{i} \log y_{i} + (1- t_{i}) \log (1- y_{i}) \rbrack \tag{2}
$$
ニューラルネットワークの学習では損失関数を最小化するように学習していきますが、損失関数が小さくなる方向(勾配)を求めるため損失関数の微分を求めます。
このように交差エントロピー関数は対数関数を含む関数となっているため、対数関数の微分が必要になります。
本シリーズは、 対数関数の微分法 をマスターすることが目的です。対数関数の微分を理解するために、まず対数関数の基礎をマスターし、それを使って対数関数の微分を学習していきます。
1. 対数関数 \(log\) とは
さて、再度、こんどは数式ベースで対数関数について説明いたしますね。
$$
y = \log_a x
$$
\(a\) を何乗すると \(x\) になるか を求めるのが 対数「 \(\log\) 」です。これを \(a\) を底とする対数関数といいます。
\(y=\log_a x\) のとき \(a^{y} = x\) となります。
また \(y=\log_a x\) は \(y=a^{x}\) の逆関数となります。
例
\(y=\log_2 x\) で \(x=8\) とすると、 \(y=\log_2 8\) ・・・ \(2\) を何乗すると \(8\) になるかを求めることになるので、答えは \(y=3\) となります。
いかがでしたでしょうか。
思い出してみると(または、今学んでみた感想として)案外とっつきやすやすくないでしょうか。
それでは、また次回お会いしましょう!
navigation