AI時代のデータ漏洩防止の要諦とテクノロジー:第1回 AI DLPとPROXY

AI時代のデータ漏洩防止の要諦とテクノロジー:第1回 AI DLPとPROXY

こんにちは!本日はAI時代のデータ漏洩防止について、とくにその通信技術面に焦点をあてつつ、AIセキュリティにどのように取り組んでいくべきか、解説いたします。

1. はじめに

生成AIの急速な普及により、企業のデータガバナンスは新たな局面を迎えています。ChatGPTやClaudeといった大規模言語モデル(LLM)は、業務効率を飛躍的に向上させる一方で、意図しない機密情報の漏洩という深刻なリスクをもたらしています。

従業員が何気なく入力した顧客情報や営業秘密が、AIサービスの学習データとして使用される可能性があることを、多くの組織はまだ十分に認識していません。従来のDLP(Data Loss Prevention)ソリューションは、メールやファイル転送を監視することには長けていましたが、リアルタイムで行われるWebベースのAIチャットやAIエージェントとの対話で発生しうる新しい脅威には対応できていないのが現状です。

本記事では、AI時代のデータ漏洩防止において中核となる技術、特にHTTPS通信のインターセプトとその限界について、技術的な観点から詳しく解説します。プロキシサーバーの動作原理から証明書ピンニングという防御機構まで、企業のセキュリティ担当者が直面する現実的な課題を技術的観点から明らかにしていきます。

2. HTTPSトラフィックインターセプトの基礎

現代のWeb通信のほぼ全てが暗号化されている今、企業がAIサービスへの(情報漏洩につながるかもしれない危なっかしい)データ送信を監視するためには、暗号化された通信の中身を見る必要があります。

しかし、HTTPSは本来、第三者による盗聴を防ぐために設計されたプロトコルです。この矛盾をどのように解決するのでしょうか。

SSL/TLSプロトコルは、クライアントとサーバー間で安全な通信チャネルを確立します。この過程では、サーバーが提示する証明書をクライアントが検証し、信頼できる認証局(CA)によって署名されていることを確認します。暗号化が完了すると、通信内容は第三者には解読不可能な形で送受信されます。

企業環境において、この暗号化通信を監視するためには、プロキシサーバーが「中間者」として振る舞う必要があります。これは本来、セキュリティ上の脅威として知られる「中間者攻撃(MITM)」と同じ原理を、正当な目的で使用することになります。このアプローチには技術的にも倫理的にも非常に慎重な配慮が必要となります。

自分が行っている通信を監視されて気持ちのいい人はいません。

私自身、一個人として考えれば、自分のメールやチャットが誰かに見られているかもしれないと思うと、決して心地よいものではありません。これは、プライバシーを大切にする人間として、ごく自然な感情だと思います。

しかし、私たちが企業で働くとき、そこには個人とは異なる責任が生じます。

企業は、お客様から大切な個人情報をお預かりしています。氏名、住所、電話番号といった基本的な情報から、購買履歴、健康情報、金融情報まで、その範囲は多岐にわたります。また、長年の研究開発の成果、営業戦略、新製品の設計図など、企業の競争力の源泉となる機密情報も日々扱っています。

もし、これらの情報が不用意に、あるいは悪意を持って外部に流出したらどうなるでしょうか。個人情報の漏洩は、お客様に多大なご迷惑をおかけし、時には実害を与えてしまいます。企業機密の流出は、競争優位性の喪失、株価の暴落、場合によっては企業の存続さえ危うくします。そして何より、長年かけて築いてきた信頼を一瞬で失うことになります。

だからこそ、企業には従業員の業務上の通信を適切に監視し、情報漏洩のリスクを防ぐ責任があるのです。これは従業員を信頼していないということではありません。むしろ、従業員が意図せずに起こしてしまうかもしれないミスから守り、安心して業務に専念できる環境を作るためのものです。

3. エンタープライズプロキシの2つの動作モード

さて、ではHTTPSでやりとりされるデータ監視についてプロキシサーバーというツールに焦点をあててみていきまそう。

企業で使用されるプロキシサーバーには、大きく分けて2つの動作モードが存在します。それぞれのモードは異なる目的と制約を持ち、AI通信の監視においても重要な違いをもたらします。

3.1 トンネリングモード(CONNECTメソッド)

トンネリングモードでは、プロキシサーバーは文字通り「トンネル」として機能します。クライアントがCONNECTメソッドを使用してプロキシに接続を要求すると、プロキシは目的のサーバーへの接続を確立し、その後は両者の間でやり取りされる暗号化データをそのまま転送します。

このモードの動作を具体的に見てみましょう。クライアントは最初に以下のようなリクエストを送信します:

CONNECT api.openai.com:443 HTTP/1.1
Host: api.openai.com:443

プロキシがこのリクエストを受け取ると、api.openai.comのポート443(HTTPS)への接続を確立し、成功すると「200 Connection Established」というレスポンスを返します。この時点以降、プロキシは暗号化されたデータをそのまま転送するだけで、その内容を解読することはありません。

このモードの最大の利点は、エンドツーエンドの暗号化が保たれることです。プロキシはデータの中身を見ることができないため、プライバシーが保護されます。しかし、これは同時に最大の欠点でもあります。企業がAIサービスへの機密情報送信を監視したい場合、このモードでは全く監視ができないのです。

3.2 SSL/TLSインターセプトモード

SSL/TLSインターセプトモードは、プロキシが積極的に通信に介入し、暗号化を一度解除して内容を検査する方式です。このモードでは、プロキシは2つの独立したSSL/TLS接続を確立します。一つはクライアントとプロキシ間、もう一つはプロキシとサーバー間です。

動作の流れを詳しく見ていきましょう。クライアントがHTTPSサイトにアクセスしようとすると、実際にはプロキシがそのサイトになりすまして応答します。プロキシは、企業が管理する中間CA証明書を使用して、オンザフライでサーバー証明書を生成します。クライアントはこの証明書を受け取りますが、事前に信頼されたCAとして登録されているため、警告なく接続が確立されます。

一方、プロキシは本物のサーバーに対して別の接続を確立し、正規の証明書を使用して通信します。この二重の接続により、プロキシは両方向の通信を復号化し、平文として内容を検査できるようになります。検査が完了すると、データは再び暗号化されて転送されます。

このモードを実装する際の技術的な考慮事項は多岐にわたります。証明書の動的生成、セッション管理、パフォーマンスの最適化など、単純な転送に比べて遥かに複雑な処理が必要となります。

4. 中間CA証明書による信頼チェーンの構築

SSL/TLSインターセプトを実現するための鍵となるのが、中間CA証明書の適切な管理です。この仕組みを理解するには、まず証明書の信頼チェーンについて詳しく見ていく必要があります。

通常のWebサイトの証明書は、信頼されたルート認証局(Root CA)によって直接、または中間認証局を経由して署名されています。ブラウザやOSには、信頼できるルートCAのリストがあらかじめ組み込まれており、証明書の検証時にはこのチェーンを辿って信頼性を確認します。

企業環境でSSL/TLSインターセプトを行う場合、企業は独自の中間CA証明書を作成し、これを全ての管理下にあるデバイスに配布する必要があります。この証明書は、通常「エンタープライズCA」や「プライベートCA」と呼ばれ、組織内でのみ有効です。

証明書の配布は、Windowsドメイン環境であればグループポリシーを使用して自動化できます。管理者は、証明書をActive Directoryに登録し、コンピューターの起動時やユーザーのログイン時に自動的にインストールされるよう設定します。macOSやLinuxの場合は、MDM(Mobile Device Management)ソリューションやConfiguration Profileを使用して配布することが一般的です。

重要なのは、この中間CA証明書の秘密鍵を厳重に管理することです。もし秘密鍵が漏洩した場合、攻撃者は正規のプロキシになりすまして通信を傍受できる可能性があります。そのため、ハードウェアセキュリティモジュール(HSM)を使用して鍵を保護することが推奨されています。

5. AI-DLP実装における現実的な課題

AI時代のDLP実装において、わたしたち技術者が直面する課題は従来のDLPとは質的に異なります。どんな課題があるでしょうか。

5.1 監視可能なケース

現在の技術で確実に監視できるケースから見ていきましょう。

テクニカルに最も監視しやすいのは、Webブラウザ経由でのAI利用です。ChromeやEdge、Firefoxなどの一般的なブラウザは、OSの証明書ストアを使用するため、適切に設定された企業プロキシを経由しても問題なく動作します。

企業が管理するアプリケーションも同様に監視可能です。例えば、企業が独自に開発したAIクライアントアプリケーションや、企業向けにカスタマイズされたアプリケーションであれば、プロキシ設定を適切に行うことで監視下に置くことができます。

APIゲートウェイ経由のアクセスも効果的な監視方法の一つです。企業が独自のAPIゲートウェイを設置し、全てのAI APIアクセスをこのゲートウェイ経由に限定することで、完全な監視と制御が可能になります。この方法は技術的にクリーンで、ピンニングの問題も回避できますが、あまり一般的ではありません。

5.2 監視困難なケース

一方で、現在の技術では監視が困難または不可能なケースも存在します。証明書ピンニングつまり、ハードコードされたCA、証明書しか信頼しないよう実装したアプリケーションは、その最たる例です。これらのアプリケーションは設計上、中間者の存在を許容しないため、企業プロキシとは根本的に相容れません。また、SSLトンネリングを利用したVPNや個人デバイス経由のアクセスも監視の盲点となりがちです。従業員が個人のスマートフォンでモバイルデータ通信を使用してAIサービスにアクセスする場合、企業のネットワーク監視は全く機能しません。BYOD(Bring Your Own Device)が普及する中、この問題はますます深刻になっています。

またProxyを経由せずともネットワークが外部に開放されているような場合や社内LAN以外に、社外と直接接続できる回線が準備されていたり、WebSocketやgRPCといった、HTTP/HTTPS以外のプロトコルを使用する通信も監視が困難です。

6. プロキシアーキテクチャの実装パターン

企業環境でプロキシを導入する際には、ネットワークアーキテクチャ全体を考慮した設計が必要です。主要な実装パターンとその特徴を詳しく見ていきましょう。

6.1 透過型プロキシ

透過型プロキシは、クライアントに特別な設定を必要としない実装方式です。ネットワーク機器(ルーターやファイアウォール)のレベルで、HTTPSトラフィックを強制的にプロキシサーバーにリダイレクトします。

この方式の最大の利点は、ユーザーの設定ミスや意図的な回避を防げることです。ユーザーはプロキシの存在を意識することなく、通常通りインターネットを利用できます。しかし、実装は複雑で、ネットワーク構成の変更が必要となります。

技術的には、ポリシーベースルーティング(PBR)やWeb Cache Communication Protocol(WCCP)を使用して実装されることが多く、ネットワークエンジニアの高度なスキルが要求されます。また、SSL/TLSインターセプトを行う場合は、証明書エラーへの対処も必要となります。

6.2 明示的プロキシ

明示的プロキシは、クライアントが明確にプロキシサーバーの存在を認識し、設定する方式です。ブラウザやOSのネットワーク設定で、プロキシサーバーのアドレスとポートを指定します。

設定の自動化のために、多くの企業ではProxy Auto-Configuration(PAC)ファイルやWeb Proxy Auto-Discovery(WPAD)プロトコルを使用します。これらの技術により、ユーザーの手動設定を最小限に抑えつつ、柔軟なプロキシ制御が可能になります。

WPADによる自動構成の仕組み

WPADは特に興味深い技術で、社員が何も設定しなくても、ブラウザが自動的に適切なプロキシ設定を見つけ出します。その動作を詳しく見てみましょう。

社員がブラウザを起動し、「自動的にプロキシを検出する」が有効になっている場合、ブラウザはまずDHCPサーバーに問い合わせを行います。DHCPオプション252として、WPADファイルのURLが提供されていれば、それを使用します。DHCPで情報が取得できない場合、ブラウザはDNSを使用して検出を試みます。

DNS検出では、ブラウザは自身のドメイン名を基に、段階的にWPADサーバーを探します。例えば、社員のPCが「pc01.sales.tokyo.qualiteg.com」というホスト名を持つ場合、以下の順序で検索が行われます:

  1. wpad.sales.tokyo.qualiteg.com
  2. wpad.tokyo.qualiteg.com
  3. wpad.qualiteg.com

いずれかの段階でWPADサーバーが見つかると、ブラウザはそのサーバーから「wpad.dat」ファイル(実質的にはPACファイル)をダウンロードします。このファイルにはJavaScriptで記述されたプロキシ選択ロジックが含まれており、アクセス先のURLに応じて適切なプロキシサーバーを選択します。

例えば、AI監視を考慮したwpad.datファイルは以下のような内容になるでしょう

function FindProxyForURL(url, host) {
    // 社内サイトは直接接続
    if (isInNet(host, "10.0.0.0", "255.0.0.0")) {
        return "DIRECT";
    }
    
    // AIサービスは専用の監視プロキシ経由
    if (dnsDomainIs(host, ".xxx_ai.com") || 
        dnsDomainIs(host, ".ai_xxx_chat.com")) {
        return "PROXY ai-proxy.qualiteg.com:8080";
    }
    
    // その他の外部サイトは通常プロキシ経由
    return "PROXY proxy.qualiteg.com:3128";
}

グループポリシーとの統合

Active Directory環境では、WPADとグループポリシーを組み合わせることで、より確実な自動構成が可能です。グループポリシーでは、WPADの自動検出を有効にすることも、明示的にPACファイルのURLを指定することもできます。多くの企業では、両方を設定することで冗長性を確保しています。

ただし、WPADにはいくつかの注意点があります。まず、セキュリティの観点から、Windows 10/11ではWPADに関する制限が強化されており、HTTPSでの配信が推奨されています。また、wpad.datファイルは正しいMIMEタイプ(application/x-ns-proxy-autoconfig)で配信する必要があり、単なるテキストファイルとして配信すると動作しません。

明示的プロキシの利点は、実装がシンプルで、既存のネットワーク構成への影響が少ないことです。また、認証との統合も容易で、ユーザーごとのアクセス制御やログ記録が可能です。一方で、ユーザーが設定を変更したり、プロキシを迂回したりする可能性があるという課題もあります。

まとめ

本記事では、AI時代のデータ漏洩防止における技術的な側面、特にHTTPSインターセプトの仕組みとその限界に焦点を当てて解説してきました。

プロキシサーバーによるSSL/TLS通信の復号化、中間CA証明書を使った信頼チェーンの構築、CONNECTメソッドによるトンネリングとSSL/TLSインターセプトの違い、そして証明書ピンニングという技術的な制約まで、企業がWeb通信を監視する際の技術的な基礎を詳しく見てきました。

実は、これらのプロキシ技術やHTTPSインターセプトは、既存のDLP製品でも広く採用されている一般的な手法です。メール監視、ファイル転送の制御、Webアクセスの監査など、従来型のデータ漏洩防止においても、これらの技術は中核的な役割を果たしてきました。

しかし、本記事で明らかになったように、AI時代においてはこれらの「従来型の監視技術」だけでは不十分です。証明書ピンニングによる制約、個人デバイス経由のアクセス、新しいプロトコルへの対応など、技術的な限界は依然として存在します。

次回予告:従来型DLPからAI-DLPへの進化

今回は、既存のDLP製品でも使われているHTTPSインターセプトという「基礎技術」に焦点を当てました。これは重要な土台ですが、AI時代のデータ漏洩防止を考える上では、これは出発点に過ぎません。

次回は、「なぜ従来型のDLPではAI時代に対応できないのか」そして「AI-DLPとして何を新たに考慮すべきなのか」という、より本質的な課題に焦点を当てます:

1. AI特有のデータ漏洩リスクとは何か

  • 定型的なパターン(クレジットカード番号等)では捕捉できない自然言語での機密情報流出
  • コンテキストに依存する機密性の判定(同じ情報でも文脈により機密度が変わる)
  • プロンプトインジェクションなど、AI固有の新しい脅威

2. リアルタイム性と文脈理解の必要性

  • 従来のバッチ処理的なDLPから、対話型AIに対応したリアルタイム処理への転換
  • 単純なキーワードマッチングを超えた、意味理解に基づく検出
  • 会話の流れを考慮した動的なリスク判定

3. 双方向監査という新しいパラダイム

  • アウトバウンド(送信データ)だけでなく、インバウンド(AI応答)の監視の重要性
  • AIが生成する情報の信頼性と適切性の検証
  • ハルシネーションや不適切な応答の検出と制御

4. AI-DLP固有の実装課題

  • 従来型DLPとは異なる性能要件(ミリ秒単位の応答速度)
  • 階層型処理による効率性と精度のバランス
  • AIを使ってAIを監視するという新しいアプローチ

今回解説したプロキシ技術は、いわば「通信を見る」ための基礎技術でした。次回は、「見えた通信をAI時代においてどう判断し、どう制御すべきか」という、AI-DLP固有の課題に深く踏み込んでいきます。

従来型DLPの延長線上ではなく、AI時代に真に必要とされる新しいデータ保護のあり方について、技術と運用の両面から考察します。

次回をお楽しみに!

Read more

LLM推論基盤プロビジョニング講座 第5回 GPUノード構成から負荷試験までの実践プロセス

LLM推論基盤プロビジョニング講座 第5回 GPUノード構成から負荷試験までの実践プロセス

こんにちは!これまでのLLM推論基盤プロビジョニング講座では、推論速度の定義、リクエスト数見積もり、メモリ消費量計算、推論エンジン選定について詳しく解説してきました。 今回は、残りのステップである「GPUノード構成見積もり」「負荷試験」「トレードオフ検討」について一気に解説し、最後に実際のサーバー構成例をご紹介します。 STEP5:GPUノード構成見積もり GPUメモリから考える同時リクエスト処理能力 LLMサービスを構築する際、どのGPUを何台選ぶかは非常に重要な決断です。今回はLlama 8Bモデルを例に、GPUメモリ容量と同時リクエスト処理能力の関係を見ていきましょう。 GPUメモリの使われ方を理解する ここは復習となりますが、 LLM推論においてGPUメモリは主に2つの用途で消費されます 1. モデル重みデータ: LLMモデル自体を格納するためのメモリ 2. KVキャッシュ: ユーザーとの対話コンテキストを保持するための一時メモリ Llama 8Bを16ビット精度で実行する場合、モデル重みデータは約16GBのメモリを占めます。これは固定的なメモリ消

By Qualiteg コンサルティング
発話音声からリアルなリップシンクを生成する技術 第2回:AIを使ったドリフト補正

発話音声からリアルなリップシンクを生成する技術 第2回:AIを使ったドリフト補正

こんにちは! 前回の記事では、当社のMotionVoxで使用している「リップシンク」技術について、wav2vecを用いた音声特徴量抽出の仕組みを解説しました。音声から正確な口の動きを予測するための基礎技術について理解いただけたかと思います。 今回は、その続編として、リップシンク制作における重要な技術的課題である「累積ドリフト」に焦点を当てます。wav2vecで高精度な音素認識ができても、実際の動画制作では複数の音声セグメントを時系列に配置する際、わずかなタイミング誤差が蓄積して最終的に大きなずれとなる現象が発生します。 本記事では、この累積ドリフトのメカニズムと、機械学習を活用した最新の補正技術について、実際の測定データを交えながら詳しく解説していきます。前回のwav2vecによる特徴抽出と今回のドリフト補正技術を組み合わせることで、MotionVoxがどのように高品質なリップシンクを実現しているのか、その全体像が見えてくるはずです。 累積ドリフトとは何か 基本概念 累積ドリフトとは、個々の音声セグメントが持つ微小なタイミング誤差が、時間の経過とともに蓄積していく現象で

By Qualiteg 研究部
AIエージェント時代の新たな番人「ガーディアンエージェント」とは?

AIエージェント時代の新たな番人「ガーディアンエージェント」とは?

こんにちは!今日は先日ガートナーが発表したガーディアンエージェントについて解説します ガートナーの公式定義 ハイプカーブで有名なガートナーは2025年6月に、ガーディアンエージェントに関する見解を発表しました。ガーディアン・エージェントとは、AIとの安全で信頼できるやりとりを支援するために設計されたAIベースのテクノロジです。 ざっくりいうと、 「AIエージェントが来るよ」と予言したガートナー社は、次は、「ガーディアンエージェントが来るよ」と予言しました。なぜガーディアンエージェントが来るのでしょうか?本稿では、そのあたりを考察していきたいと思います。 なぜ今、AIの「監視役」が必要なのか 2025年、私たちは本格的なAIエージェント時代の入り口に立っています。AIが単なるツールから、自律的に判断し行動する「エージェント」へと進化する中で、新たな課題が浮上しています。 従来のAIとエージェント型AIの違い さて、ガーディアンエージェントが必要になる理由として、生成AI(以後AIと呼びます)の急速な進化があげられます。従来のAIとエージェント型AIの違いを思い出

By Qualiteg コンサルティング
LLM推論基盤プロビジョニング講座 第4回 推論エンジンの選定

LLM推論基盤プロビジョニング講座 第4回 推論エンジンの選定

こんにちは!前回までの講座では、LLMサービス構築に必要なリクエスト数の見積もりや、使用モデルの推論時消費メモリ計算について詳しく解説してきました。今回は7ステッププロセスの4番目、「推論エンジンの選定」について詳しく掘り下げていきます。 推論エンジンとは何か 推論エンジンとは、GPU上でLLMモデルの推論計算(テキスト生成)を効率的に行うために設計された専用のソフトウェアプログラムです。一般的なディープラーニングフレームワーク(PyTorch、TensorFlowなど)でも推論は可能ですが、実運用環境では専用の推論エンジンを使用することで、大幅なパフォーマンス向上とリソース効率化が期待できます。 推論エンジンは単なる実行環境ではなく、様々な最適化技術を実装しています。特定のモデルアーキテクチャに特化した最適化機能を実装したものや、推論速度の高速化に特化したもの、前回解説したKVキャッシュのメモリ効率化機能を備えたものなど、それぞれ特徴が異なります。そのため、自社で採用したLLMモデルや運用環境、要件に合致した推論エンジンを選定することが重要です。 推論エンジン選定のアプロ

By Qualiteg コンサルティング