[AI数理]対数関数の微分法・前編

[AI数理]対数関数の微分法・前編

おはようございます!(株) Qualiteg 研究部です。

本日から2回にわたって対数関数について学んでいきましょう。
正確にいうと、対数関数の微分法を学びます。

対数関数って何だっけ?

まず、対数関数というのは、「ある数 \( x \) が別の数 \( b \) を何回かけると \( x \) になるか」を調べる方法です。例えば、\( b \) が 2 で \( x \) が 8 の場合、2 を 3 回かけると 8 になります。この場合、数学的には「\( b \) の \( x \) に対する対数」と言います。

これを数式で表すと、次のようになります:

$$
\log_b(x) = y
$$

ここで \( b \) は底(てい)、\( x \) は真数、\( y \) は \( b \) を何回かけたら \( x \) になるかを表す数です。例えば、\( b = 2 \) と \( x = 8 \) の場合、\( y = 3 \) となります。なぜなら、2 を 3 回かけると 8 になるからです。

$$
\log_2(8) = 3
$$

対数関数は「逆」の関数と考えることもできます。つまり、乗算(かけ算)の逆が除算(わり算)であるように、累乗(たとえば 2 の 3 乗は 8)の逆が対数関数です。

なぜ対数関数は重要か?

まず、「なぜ、対数関数を学ぶ必要があるか」を説明します。

対数関数は、機械学習の分類問題での代表的な損失関数である 交差エントロピー関数の式に登場します。

多値分類用の交差エントロピー関数

$$
\ - \frac{1}{N} \sum_{i}^{N} \sum_{k}^{K} t_{ik} \log y_{ik} \tag{1}
$$

二値分類用の交差エントロピー関数

$$
\ - \frac{1}{N} \sum_{i}^{N} \lbrack t_{i} \log y_{i} + (1- t_{i}) \log (1- y_{i}) \rbrack \tag{2}
$$

ニューラルネットワークの学習では損失関数を最小化するように学習していきますが、損失関数が小さくなる方向(勾配)を求めるため損失関数の微分を求めます。

このように交差エントロピー関数は対数関数を含む関数となっているため、対数関数の微分が必要になります。

本シリーズは、 対数関数の微分法 をマスターすることが目的です。対数関数の微分を理解するために、まず対数関数の基礎をマスターし、それを使って対数関数の微分を学習していきます。

1. 対数関数 \(log\) とは

さて、再度、こんどは数式ベースで対数関数について説明いたしますね。

$$
y = \log_a x
$$

\(a\) を何乗すると \(x\) になるか を求めるのが 対数「 \(\log\) 」です。これを \(a\) を底とする対数関数といいます。

\(y=\log_a x\) のとき \(a^{y} = x\) となります。

また \(y=\log_a x\) は \(y=a^{x}\) の逆関数となります。

\(y=\log_2 x\) で \(x=8\) とすると、 \(y=\log_2 8\) ・・・ \(2\) を何乗すると \(8\) になるかを求めることになるので、答えは \(y=3\) となります。

いかがでしたでしょうか。

思い出してみると(または、今学んでみた感想として)案外とっつきやすやすくないでしょうか。

それでは、また次回お会いしましょう!


navigation

Read more

日本語対応 LLMランキング2026 ~ベンチマーク分析レポート~(3月6日版)

日本語対応 LLMランキング2026 ~ベンチマーク分析レポート~(3月6日版)

はじめに 本レポートは、Nejumi Leaderboard 4のベンチマークデータ(2026/3/6版)に基づいて、日本語対応LLMの性能を総合的に分析したものです。 前回は 2025/12/18 版の分析レポート を公開しましたが、約3か月でまたもや大きな変動がありました! (定期的に最新LLMランキングを更新してまいります。当社のX(旧Twitter)をフォローいただくことで更新情報を受け取り可能です) Nejumi Leaderboard 4は、日本語タスクにおけるLLMの性能を多角的に評価する信頼性の高いベンチマークとして知られています。 本分析では、商用APIモデルとオープンモデルの両方を対象に、それぞれの特徴や傾向を詳しく見ていきます。 オープンソースモデルについて Weightがオープンなモデルは場合によっては「オープンソースモデル」、「OSSモデル」と呼ばれますが、モデルによっては「オープンソース」と呼ぶには不十分な場合があるため本稿では、「オープンソースモデル」ではなく「オープンモデル」と表現しています。 ベンチマーク分析について 本レポートは

By Qualiteg コンサルティング, Qualiteg プロダクト開発部
日経トレンディ 2026年4月号に Bestllam の広告を掲載しました

日経トレンディ 2026年4月号に Bestllam の広告を掲載しました

こんにちは! このたび、日経トレンディ 2026年4月号(2026年3月4日発売、雑誌)に、当社のエンタープライズ向け統合型AIプラットフォーム「Bestllam」を掲載しました。 日経トレンディ(雑誌)は全国の書店・コンビニエンスストアにてお買い求めいただけますので、お手に取った際はぜひご覧くださいませ。 Bestllam とは? Bestllam は、「チャットで指示するだけ。仕事が終わっている。」をコンセプトに開発した、エンタープライズ向けの統合型AIプラットフォームです。 主な特長 20種類以上のLLMを、契約一本で OpenAI GPT、Anthropic Claude、Google Gemini をはじめ、DeepSeek、Qwen、Llama など商用・オープンソース合わせて20種類以上のLLMを1つの契約で利用できます。各プロバイダと個別に契約を結ぶ手間が不要になります。 6つのLLMに同時質問して、最適な答えを選択 同じ質問を複数のLLMに一括投げかけ、回答を比較・検討できます。各モデルの得意・不得意を活かすことで、重要な意思決定や精度が求められる業

By Qualiteg ビジネス開発本部 | マーケティング部
AIプラットフォーマーの垂直統合と、残された戦略オプション

AIプラットフォーマーの垂直統合と、残された戦略オプション

こんにちは! Qualitegコンサルティングチームです! 2026年現在、LLMの最大のユースケースの一つはコーディングだと考えています。実際、Menlo Venturesの調査でもコーディングはエンタープライズAI活用の代表的ユースケースとして位置づけられています。 そして、それにきづいたAIプラットフォーマー各社は自前のAIコーディングツールを次々と発表し人気を博しています。 逆にいえば、そのユースケースを早期に発見しプロダクト化してきた"コーディングSaaS"の開発企業は「胴元」であるAIプラットフォーマーが自分たちのSaaS領域に進出してきているわけで気が気でないでしょう。 ということで、本日はAIプラットフォーマーによる垂直統合と、私たちの取りうる戦略オプションについて考えてみたいと思います。 さて、2025年は、AIコーディングエージェント市場の勢力図が決定的に書き換えられた年でした。 Anthropicの「Claude Code」は2025年2月のリサーチプレビューから始まり、わずか半年で年換算ランレート(ARR)10億ドルに到達。 2026年初頭のア

By Qualiteg コンサルティング
KVキャッシュのオフロード戦略とGQAの実践的理解

KVキャッシュのオフロード戦略とGQAの実践的理解

こんにちは! LLM推論基盤プロビジョニング講座、今回は番外編をお届けします! 第3回「使用モデルの推論時消費メモリ見積もり」では、GPUメモリ消費の二大要素としてモデルのフットプリントとKVキャッシュを紹介し、1トークンあたりのKVキャッシュサイズの計算方法を解説しました。 また第4回「推論エンジンの選定」ではvLLMやDeepSpeedなど各推論エンジンの特性を比較し、第5回では量子化や並列化による最適化戦略を解説してきました。 しかし、実はKVキャッシュにはまだまだ掘り下げるべきトピックがあります。 * KVキャッシュをGPUのVRAMからCPU RAMやディスクにオフロードしたらどうなるのか? どのくらい遅くなるのか? * HuggingFace TransformersとvLLMでは、KVキャッシュの管理方針がなぜ根本的に異なるのか? * そもそもKVキャッシュが大きくなる原因であるアテンション構造を変えてしまう GQA(Grouped-Query Attention)とは何か? 第5回で紹介した量子化とは別の軸で、KVキャッシュを劇的に小さくする技術です。

By Qualiteg プロダクト開発部, Qualiteg コンサルティング