[AI数理]徹底的に交差エントロピー(3)

[AI数理]徹底的に交差エントロピー(3)

おはようございます!(株) Qualiteg 研究部です。

今回は、尤度関数から交差エントロピーを導いていきたいとおもいます!

4章 尤度関数から交差エントロピーを導く

さて、今までは 20回ぶんサイコロを投げて、起こった事象(出た目が1なのか、2なのか、・・・、6なのか) を数えた結果を以下の表のようにまとめました。

では、こんどは、1回ぶんサイコロを投げたときどうのようになるかみてみます。

1回サイコロをなげた結果が 1の目 だった場合は、以下のように書くことができます。
(でた目のところに✔マークをいれただけです)

さて、?だと計算にもっていきづらいので、出た目のところを \(1\) にして、出なかった目は \(0\) と置き換えることにします。

( \(1\) が記載されている目は その目にとっては 頻度 = 確率 = \(1\) と考え、 \(0\) が記載されている目は、その試行では出なかったので、 頻度 = 確率 = \(0\) と考えると理解しやすいかもしれません。)

すると、結果 列は以下のように \(1\) と \(0\) であらわすことができます。

さらに、さきほどまでの表にも書いていたように 結果 列を、ふたたび、 事象が起こる頻度 として \(t\) で表現すると、以下のようになります。

これを再度、対数尤度関数の式で表記すると

$$
\log L=\sum_{k=1}^{6} t_{k} \log y_{k} \tag{4.1}
$$

はい、この 式 \((4.1)\) これは 式 \((3.6)\) とまったく同じです。ただし、裏にある設定は、 1回だけの試行についての対数尤度関数(※) のように解釈できる点が 式 \((3.6)\) と異なる点です。

1回だけの試行についての対数尤度関数 というと、かえってやっかいですが、よくかんがえてみると、尤度というのはそもそも複数の確率の積になっているため、1回の試行についてのだけに着目したときの対数尤度関数は 尤度 というよりも 指数つきで表現された確率に対数をとっただけのもので実質、ただの 確率 です。では、なぜこのようなまどろっこしい解釈をわざわざするかというと、後半にでてくる 交差エントロピー の式への呼び水とするためです。

では、「1の目が出る」という事象が起こった 1回だけの試行について、 式 \((3.7)\) を実際に計算してみましょう。

$$
\begin{aligned}
\log L= &t_{1} \log y_{1} + t_{2} \log y_{2} + t_{3} \log y_{3} + t_{4} \log y_{4} + t_{5} \log y_{5} + t_{6} \log y_{6} &
\
= &1 \cdot \log y_{1} + 0 \cdot \log y_{2} + 0 \cdot \log y_{3} + 0 \cdot \log y_{4} + 0 \cdot \log y_{5} + 0 \cdot \log y_{6}
\end{aligned}
$$

頻度 \(t\) は 1つだけ \(1\) で、あとは \(0\) になるので、このようにシンプルな計算となりますね。

今回はサイコロだったので 6個の事象 が対象でしたが、これを \(K\) 個の事象というふうに一般化すると

$$
\log L=\sum_{k=1}^{K} t_{k} \log y_{k} \tag{4.2}
$$

のように書くことができます。

この式 \((4.2)\) は 1件あたりの対数尤度関数、もうすこし統計学的な言い方をすれば 1つの標本データ あたりの 対数尤度関数 となります。

対数尤度関数は大きくなるほど、確からしいパラメータ \(y_{k}\) を持つことになりますが、 Deep Learning 等の機械学習では損失関数が 小さくなるように 学習させていきますので、式 \((4.2)\) にマイナスをつけた式 \((4.3)\) のことを 交差エントロピー関数 と呼びます。

交差エントロピー関数(標本データ1件ぶんバージョン)

$$
\ - \log L=\sum_{k=1}^{K} t_{k} \log y_{k} \tag{4.3}
$$

これで交差エントロピー関数を導くことができました。

めでたしめでたし👏

え? ちがう?

伏線の回収忘れ?

「サイコロの各目の確率 \(y\) の話はどうなった?」

「対数尤度関数の導関数が \(0\) になる点をみつけて、サイコロの各目がでる確率求めないの?]

「対数尤度関数の微分して \(0\) になった点は極大または極小であって、最大ではないでしょう?」

「いやいや、待て、尤度関数に対数つけたのは、微分しやすくなるからでしょう。対数尤度関数は微分しないわけ?」

はい、おっしゃるとおりですね、この点については、「補足」にて別途説明いたします。

といいますのも、サイコロの各目がでる確率は最尤推定の手法にて求められますが、本シリーズは「交差エントロピー関数」を導き出す部分が主眼なので、「交差エントロピー」がうっすら見えてきた今、サイコロの目の確率推定トピックは少しあとまわしにさせていただき、もうすこし交差エントロピーを掘り下げてみたいとおもいますので、おつきあいくださいませ!

それでは、また次回お会いしましょう!


参考文献
https://blog.qualiteg.com/books/


navigation

Read more

大企業のAIセキュリティを支える基盤技術 - 今こそ理解するActive Directory 第2回 ドメイン環境の構築

大企業のAIセキュリティを支える基盤技術 - 今こそ理解するActive Directory 第2回 ドメイン環境の構築

こんにちは、今回はシリーズ第2回ドメイン環境の構築 - 検証環境の構築手順について解説いたします! 連載の構成 第1章:基本概念の理解 - Active DirectoryとKerberos/NTLM認証の基礎 【★今回です★】第2章:ドメイン環境の構築 - 検証環境の構築手順 第3章:クライアントとサーバーのドメイン参加 - ドメイン参加の詳細手順 第4章:プロキシサーバーと統合Windows認証 第5章:ブラウザ設定と認証 - 各ブラウザでの設定方法 第6章:トラブルシューティング - よくある問題と解決方法 第7章:セキュリティとベストプラクティス - 本番環境での考慮事項 第8章:実践的な構成例 - AIセキュリティツールとの統合事例 第2章:ドメイン環境の構築 2.1 ドメイン名の設計 2.1.1 ドメイン名の命名規則 Active Directoryを構築する際、

By Qualiteg コンサルティング
AIがよく間違える「クロージャ問題」の本質と対策

AIがよく間違える「クロージャ問題」の本質と対策

こんにちは! 本日は「クロージャ問題」に関する話題となります。 Pythonでループ内に関数を定義したことはありますか? もしあるなら、あれれ?な挙動に遭遇したことがあるかもしれません。 本稿では、Pythonプログラマーなら一度は経験する「クロージャ問題」について、初心者にもわかりやすく解説してみたいとおもいます クロージャとは何か? そもそも ”クロージャ” とは何でしょうか。 クロージャ(closure)とは、関数が自分の定義されたスコープの変数を覚えて持ち運ぶ仕組み のことです。 もう少し分解すると、次の2つがポイントとなります 1. 内側の関数が、外側の関数の変数を使える 2. 外側の関数が終了しても、その変数は生き続ける 普通の関数とクロージャ―を使った関数を比較してみましょう 普通の関数との比較 まずは普通の関数から、 def add(x, y): return x + y print(add(3, 5)) # 8 print(add(3, 7)

By Qualiteg プロダクト開発部
フリーランスHub様にQualiteg Blogをご紹介いただきました

フリーランスHub様にQualiteg Blogをご紹介いただきました

この度、フリーランス向け案件検索サービス「フリーランスHub」様の特集記事「トレンドをキャッチアップ!AIに関する情報が得られるメディア・ブログまとめ」にて、弊社が運営する「Qualiteg Blog」をご紹介いただきました。 掲載記事について フリーランスHub様の記事では、AI技術の最前線で活躍するエンジニアや開発者の方々に向けて、価値ある情報源となるメディア・ブログが厳選して紹介されています。 その中で、Qualiteg Blogを「AI技術の専門知識を実践的なビジネス活用につなげる貴重な情報源」として取り上げていただきました。 特に以下の点を評価いただいております * 実践的なビジネス活用事例の提供 AI新規事業創出や事業選定方法など、経営者やビジネスリーダーが直面する課題への具体的な解決策 * 技術的な深掘りコンテンツ リップシンク技術など、実際のサービスで使用されている技術の開発現場目線での詳細な解説 * 多様な情報発信 代表執筆記事、AIトピックス、講演会動画など、幅広いフォーマットでの情報提供 今後も価値ある情報発

By Qualiteg ニュース
PyTorchの重いCUDA処理を非同期化したらメモリリークした話と、その解決策

PyTorchの重いCUDA処理を非同期化したらメモリリークした話と、その解決策

こんにちは!Qualitegプロダクト開発部です! 今回は同期メソッドを非同期メソッド(async)化しただけなのに、思わぬメモリリーク※に見舞われたお話です。 深層学習モデルを使った動画処理システムを開発していた時のことです。 「処理の進捗をリアルタイムでWebSocketで通知したい」という要件があり、「単にasync/awaitを使えばいいだけでしょ?」と軽く考えていたら、思わぬ落とし穴にはまりました。 プロ仕様のGPUを使っていたにも関わらず、メモリ不足でクラッシュしてしまいました。 この記事では、その原因と解決策、そして学んだ教訓を詳しく共有したいと思います。同じような問題に直面している方の参考になれば幸いです。 ※ 厳密には「メモリリーク」ではなく「メモリの解放遅延」ですが、 実用上の影響は同じなので、この記事では便宜上「メモリリーク」と表現します。 背景:なぜ進捗通知は非同期である必要があるのか モダンなWebアプリケーションの要求 最近のWebアプリケーション開発では、ユーザー体験を向上させるため、長時間かかる処理の進捗をリアルタイムで表示することが

By Qualiteg プロダクト開発部