コーディングエージェントの現状と未来への展望 【第2回】主要ツール比較と構造的課題

コーディングエージェントの現状と未来への展望 【第2回】主要ツール比較と構造的課題

こんにちは!

今回は、コーディングエージェントシリーズ第2回です!

前回の第1回では、2025年12月時点で百花繚乱状態にあるAIコーディングエージェントの全体像を俯瞰しました。

AIコーディングエージェント20選!現状と未来への展望 【第1回】全体像と基礎
こんにちは! 今回は、20種類以上あるまさに百花繚乱なAIコーディングツールを一挙に紹介&解説していきたいとおもいます! AIをつかったコーディングはもはや常識となり、日々目まぐるしく新しいツールが登場しています。当社でも自社開発のAIコーディングツールをふくめ複数のツールを活用してソフトウェア開発をすすめていますが、次々とナイスなツールがでてきて興奮しつつも、正直キャッチアップが追いつかない…!という状況です。 「結局どれを使えばいいの?」「Claude CodeとCursorって何が違うの?」「オープンソースでも使えるやつあるの?」——そんな疑問を持っている方も多いのではないでしょうか。 そこで本シリーズでは、2025年12月時点でのAIコーディングツールを徹底的に整理してみました。商用サービスからオープンソースまで、20以上のツールを比較しながら、それぞれの特徴や使いどころ、そして現時点での限界についても現場視点をいれながら正直にお伝えしていければとおもいます ※「AIコーディングツール」は「コーディングエージェント」といったほうが今風なので記事内ではコーディングエー


商用サービスからオープンソースまで20以上のツールを紹介し、それらを「CLIベース」「IDE統合型」「AI特化IDE型」「自律型」の4つのカテゴリに分類しました。

また、コーディングエージェントの本質が「LLM+ツール層」のオーケストレーションシステムであること、つまりLLM自体はコード生成と判断のみを担い、実際のファイル保存やコマンド送信はエージェントフレームワーク側が行うという基本アーキテクチャについても解説しました。

さて、今回は、「実際に使い込むと見えてくる課題」にフォーカスします。

正直なところ、どのツールも「すごい!」と感じる瞬間がある一方で、しばらく使っていると「あれ?」と思う場面に遭遇します。

セッションが長くなると急に性能が落ちたり、昨日教えたはずのことを今日は忘れていたり、ベンチマークで高スコアだったはずなのに自社コードではうまくいかなかったり……。

これらは単なる「まだ発展途上だから」では片付けられない、構造的な課題です。

本稿では、まずCLIベースエージェントの代表格であるClaude Code、Codex CLI、Aiderを詳細に比較したうえで、現在のコーディングエージェントが共通して抱える3つの根本的な問題

——コンテキストウィンドウの限界セッション間の記憶喪失ベンチマークと実世界のギャップ——

について、具体的な数値とともに掘り下げていきます。

シリーズ構成(再掲)

テーマ 内容
第1回 全体像と基礎 コーディングエージェントの定義、2025年のツール全体像、4つのカテゴリ分類
第2回 主要ツール比較と構造的課題 Claude Code・Codex CLI・Aider等の詳細比較、コンテキスト限界、記憶喪失、ベンチマーク問題
第3回 Amplifierと未来展望 Microsoft Amplifierの設計思想、旧版vs新版、永続的記憶の実現方法、今後の論点

2-1. CLIベースエージェントの詳細比較

第1回で全体像を概観しましたが、ここからはCLIベースのコーディングエージェントについて、より詳細に比較していきます。

2-1-1. Claude Code

AnthropicのClaude Codeは、2025年2月に正式リリースされたターミナルベースのコーディングエージェントです。Claude 3.5 SonnetやOpus 4.1といった高性能モデルを活用し、最大200,000トークンのコンテキストウィンドウを持ちます。SWE-bench Verifiedで72.7%という高いスコアを記録しており、複雑なコードベースの理解と修正において優れた性能を発揮します。

Claude Codeの特徴は「開発者主導」のアプローチにあります。対話的なCLIを通じて開発者と協調しながら作業を進め、破壊的な操作の前には必ず承認を求めます。プロジェクトのコンテキストを保持するためのCLAUDE.mdファイルシステムを採用しており、チーム全体でコーディング規約や設計方針を共有できます。

2-1-2. OpenAI Codex CLI

OpenAIのCodex CLIは、2025年4月にオープンソースとしてリリースされました。Apache 2.0ライセンスで公開されており、コミュニティからの貢献を受け入れています。GPT-5やo3といった最新モデルを活用し、SWE-bench Verifiedで69.1%のスコアを達成しています。

Codex CLIの特筆すべき特徴は、マルチモーダル入力への対応です。スクリーンショットやUI図を入力として受け取り、それに基づいてコードを生成できます。また、サンドボックス環境での安全な動作オプションや、Full Autoモードによる高い自律性も提供しています。

2-1-3. Aider

Aiderは、オープンソースのペアプログラミングツールとして高い評価を得ています。ターミナルベースでありながら、Gitとの深い統合により、変更の追跡とロールバックが容易です。複数のLLMプロバイダー(Anthropic、OpenAI、ローカルモデル等)に対応しており、モデルの切り替えが柔軟に行えます。

Aiderの強みは、自動コミット機能と差分表示にあります。コード変更を自動的にGitコミットとして記録し、変更前後の差分を視覚的に確認できます。また、複数ファイルにまたがる変更を一貫して管理できる点も、実務での利用に適しています。

2-1-4. 比較表

項目 Claude Code Codex CLI Aider
開発元 Anthropic OpenAI OSS (Paul Gauthier)
ライセンス 商用 Apache 2.0 Apache 2.0
コンテキスト 200K tokens 可変 モデル依存
SWE-bench 72.7% 69.1% モデル依存
LLM対応 Claude専用 OpenAI専用 複数対応
Git統合 あり あり ◎ 深い統合
マルチモーダル 限定的 ◎ 対応 モデル依存
料金 API従量 API従量 API従量

2-2. コンテキストウィンドウの限界

さて、ここからは第1回と同様にClaude Codeを例にとって、課題整理をしていきたいとおもいます。ほかのコーディングエージェントでもだいたい似たような課題がありますので、適宜読み替えていただければとおもいます。

2-2-1. 問題の本質

現在のコーディングエージェントは、すべてコンテキストウィンドウという根本的な制約を抱えています。Claude Codeは200,000トークンの大きなウィンドウを持ちますが、複雑なタスクではこれでも足りません。

この問題をグラフにしたのが乗ずです。

上部のグラフは、横軸に「ツール呼出回数」、縦軸に「トークン消費量(累積)」をとっています。

見ていただくと分かる通り、消費量は直線的ではなく、回数を重ねるごとに加速度的に増加(右肩上がり)しています。右側のイラストの人物のように、LLMも膨大なデータ量に圧倒されていきます。

2-2-2. 具体的な数値

GitHub Issue #2545で報告されている内容によると、Claude Codeでは約50回のツール使用で200Kトークンの限界に達するケースが多いとされています。

わずか50回程度のやり取りで、累積消費量は100K(10万)トークン付近に達します。ここが最初の大きな「壁」です。各ツール呼び出しで1,000から10,000トークンを消費し、それが累積していくためです。

LLMでは、会話の一貫性を保つために、過去のやり取り(履歴)をすべてコンテキストとして毎回読み込み直します。つまり、新しいやり取りが増えるたびに、「過去の全履歴 + 新しい入力 + 新しい出力」を処理する必要があるため、消費量は雪だるま式(二次関数的)に増えていってしまいます。

つまり、セッションが進むにつれて、過去の会話履歴、ファイル内容、コマンドの出力などが蓄積され、各リクエストのサイズが膨らんでいきます。

その後、コンテキストウィンドウの容量が残り少なくなると(最後の20%)、LLMの性能劣化が始まります。そして80回に達する頃には、トークン上限である200Kトークンの限界に到達し、それ以上の情報を正しく処理できなくなってしまいます。

2-2-3. コンテキスト圧縮の試み

この問題に対処するため、様々なアプローチが試みられています。Anthropicは2025年5月に「コンテキスト管理機能」を発表し、自動要約やスマートな情報選択を導入しました。たとえば、claude-memというコミュニティプラグインは、AIがAI自身の作業を圧縮するというアプローチを採用しています。1,000から10,000トークンのツール出力を約500トークンのセマンティック観察に圧縮し、約50回のツール使用限界を約1,000回(20倍)に拡張することを目指しています。ただし、観察生成に60から90秒の遅延が発生するというトレードオフがあります。

長ったらしくなった履歴を、要約することでトークン数を圧縮しようというこころみですが、要約されたことにより実装上重要なポイントが欠落するがあります。


2-3. セッション間の記憶喪失

2-3-1. 「毎日ゼロから」問題

Claude Codeの最も大きな課題は、セッションをまたいだ記憶の保持ができないことです。


セッションが終わると、次のセッションでは、Claude Codeにとっては

「初見」

になるため、またゼロからいろいろと説明する必要があります。

ここが人間との違いで、毎日昨日のことを全部わすれるエンジニアみたいな感じです。ただし、飲み込みがめっちゃはやい為、毎日ゼロから教えてもなんとかなるというわけではあります。

2-3-2. CLAUDE.mdの限界

さて、こうした課題に対処するため、CLAUDE.mdファイルによる永続的な記憶システムは導入されていますが、これはあくまでMarkdownファイルを手動で管理する仕組みであり、会話から自動的に学習するものではありません。また、CLAUDE.mdファイルの内容もコンテキストウィンドウを消費するため、詳細な情報を記録すればするほど、実際の作業に使える容量が減少するというジレンマがあります。


2-4. ベンチマークと実世界のギャップ

2-4-1. SWE-benchの限界

SWE-benchは、コーディングエージェントの性能を測定するための標準的なベンチマークとして広く使用されています。しかし、このベンチマークには重大な限界があります。

2-4-2. SWE-bench Proの衝撃

Scale AIが2025年に発表したSWE-bench Proでは、従来のSWE-bench Verifiedで70%以上のスコアを達成していたモデルが、23%程度まで性能が低下することが報告されています。この原因として、データ汚染(学習データにベンチマークのコードが含まれている可能性)と、オープンソースリポジトリへの過剰適応が挙げられています。

2-4-3. プライベートコードでの性能低下

特に興味深いのは、プライベートな商用コードベースを使用した評価では、さらに性能が低下する点です。Claude Opus 4.1は22.7%から17.8%へ、GPT-5は23.1%から14.9%へと低下しました。これは、現在のコーディングエージェントが見たことのないコードベースに対しては、期待されるほどの汎化性能を持っていないことがわかります


2-5. Claude Codeの4つの構造的問題(まとめ)

ここまでの分析を踏まえ、Claude Codeが抱える構造的問題を整理しておきます

問題 内容 影響
記憶喪失 セッションをまたぐと全て忘れる 毎回ゼロから説明が必要
コンテキスト溢れ 約50回のツール使用で限界 長時間作業が困難
単一エージェント 設計もデバッグも全て1人 専門性が薄い
単線試行錯誤 並行して試せない 効率が悪い

これらは現在のアーキテクチャに起因する構造的な問題であり、モデルの性能向上だけでは解決が難しい課題です。

本質的には、もっとセッションあたりの記憶量、つまりコンテクストサイズを20万トークンよりも大きくすることですが、それがAI提供側としてもなかなか簡単では無く、長期的な技術革新が必要だったりします。あと単に技術だけでなく、コンテクストサイズを大きくすると、提供側のリソース増強なども必要となり、コストバランスも見極めないといけないため難易度が高いです。現状、Anthropic社のClaudeは20万トークン。Google社のGemini 3 は 100万トークンです。コンテクストサイズが大きいほど、こうしたコーディングタスクでは有利になりますが、たとえ100万トークンあっても大規模な開発ではまったく足りておらず、コンテクストサイズの増大が見込めない前提で、どんな工夫ができるのか、を考えるのが短期的には重要なテーマとなります。

(それでも2022年に出たChatGPTをはじめ、黎明期のLLMは3万トークンくらいしかコンテクストサイズが無かったことを考えると着実に進化しています。)


第2回まとめ

本稿では、主要なCLIベースエージェントの比較。Claude Codeを例にとって現在のコーディングエージェントが抱える構造的な課題を分析しました。

ポイント

  • Claude Code、Codex CLI、Aiderはそれぞれ異なるアプローチを持つ
  • コンテキストウィンドウは約50回のツール使用で限界に達する(O(N²)増加)
  • セッション間の記憶喪失は、CLAUDE.mdでも根本解決にならない
  • SWE-bench Verifiedの70%は、実世界では20%台に低下する
  • これらは構造的問題であり、モデル性能向上だけでは解決困難
  • コンテクストサイズを増大できるのが良いが短期的には期待できない

次回予告:第3回「Amplifierと未来展望」

最終回となる第3回では、MicrosoftのAmplifierがこれらの課題にどう取り組んでいるかを詳細に解説します。

  • Amplifierの設計思想:専門エージェント、Knowledge Graph、マイクロカーネル
  • 旧版(Claude Code寄生型)vs 新版(独立フレームワーク型)の違い
  • 料金モデルの大きな変化:Maxプラン定額から従量課金へ
  • 永続的記憶の3つのアプローチ:ファイルベース、RAG、Knowledge Graph
  • 今後の論点:コンテキスト限界後の世界、マルチエージェント協調

特に、旧版では月額$100-200のMaxプランに収まっていた利用が、新版では月額$500-1,200超にもなりうるという料金問題について詳しく解説します。

それでは、次回またお会いしましょう!

Read more

【IT温故知新】WS-* の栄光と黄昏:エンタープライズITはいかにして「実装」に敗北したか

【IT温故知新】WS-* の栄光と黄昏:エンタープライズITはいかにして「実装」に敗北したか

こんにちは。 —— 2003年のSOAから、2026年のAIへ —— この記事は、過去の技術動向を振り返り、そこから学べる教訓について考察してみたものです。 歴史は常に、後から見れば明らかなことが、当時は見えなかったという教訓を与えてくれます。 そして、今私たちが「正しい」と信じていることもまた、20年後には違う評価を受けているかもしれません。 だからこそ、振り返ることには意味があるとおもいます。同じ轍を踏まないために。 はじめに:20年前の熱狂を覚えていますか 2000年代初頭。 私はSOA(サービス指向アーキテクチャ)に本気で取り組んでいました。 当時、SOAは「次世代のエンタープライズアーキテクチャ」として、業界全体が熱狂していました。 カンファレンスに行けば満員御礼、ベンダーのブースには人だかり、書店にも関連の書籍がちらほらと。 SOAP、SOAP with attachments、JAX-RPC、WS-Security、WS-ReliableMessaging、WS-AtomicTransaction... 仕様書の山と格闘する日々でした。 あれから

By Qualiteg コンサルティング
DockerビルドでPythonをソースからビルドするとGCCがSegmentation faultする話

DockerビルドでPythonをソースからビルドするとGCCがSegmentation faultする話

こんにちは!Qualitegプロダクト開発部です! 本日は Docker環境でPythonをソースからビルドした際に発生した、GCCの内部コンパイラエラー(Segmentation fault) について共有します。 一見すると「リソース不足」や「Docker特有の問題」に見えますが、実際には PGO(Profile Guided Optimization)とLTO(Link Time Optimization)を同時に有効にした場合に、GCC自身がクラッシュするケースでした。 ただ、今回はDockerによって問題が隠れやすいという点もきづいたので、あえてDockerを織り交ぜた構成でのPythonソースビルドとGCCクラッシュについて実際に発生した題材をもとに共有させていただこうとおもいます 同様の構成でビルドしている方の参考になれば幸いです TL;DR * Docker内でPythonを --enable-optimizations --with-lto 付きでソースビルドすると GCCが internal compiler error(Segmentati

By Qualiteg プロダクト開発部
サブスクビジネス完全攻略 第2回~「解約率5%」が1年後に半分の顧客を消す恐怖と、それを防ぐ科学

サブスクビジネス完全攻略 第2回~「解約率5%」が1年後に半分の顧客を消す恐怖と、それを防ぐ科学

こんにちは! Qualitegコンサルティングです! 前回の第1回では、サブスクリプションビジネスの基本構造と、LTV・ユニットエコノミクスという革命的な考え方を解説しました。「LTV > 3 × CAC」という黄金律、覚えていますか? サブスクビジネス完全攻略 第1回~『アープがさぁ...』『チャーンがさぁ...』にもう困らない完全ガイドなぜサブスクリプションモデルが世界を変えているのか、でもAI台頭でSaaSは終わってしまうの? こんにちは! Qualitegコンサルティングです! 新規事業戦略コンサルタントとして日々クライアントと向き合う中で、ここ最近特に増えているのがSaaSビジネスに関する相談です。興味深いのは、その背景にある動機の多様性です。純粋に収益モデルを改善したい企業もあれば、 「SaaS化を通じて、うちもデジタルネイティブ企業として見られたい」 という願望を持つ伝統的な大企業も少なくありません。 SaaSという言葉が日本のビジネスシーンに本格的に浸透し始めたのは2010年代前半。それから約15年が経ち、今やSaaSは「先進的な企業の証」のように扱われています。

By Qualiteg コンサルティング
Google GenAI SDK のストリーミングでマルチターン画像編集🍌が不安定になる問題と対処法

Google GenAI SDK のストリーミングでマルチターン画像編集🍌が不安定になる問題と対処法

こんにちは! Gemini 3 Pro Image (Nano banana Pro)を使ったマルチターン画像編集機能を実装していたところ、動いたり動かなかったりするという厄介な問題に遭遇しました。 本記事では、この問題の現象、原因調査の過程、そして解決策を共有します。 問題の現象 実行環境 Google GenAI SDKライブラリ(pip): google-genai 1.56.0 期待する動作 1. ユーザー: 「かわいい子猫の画像を生成して」 2. Gemini: 子猫の画像を生成 3. ユーザー: 「この子にメガネをかけて」 4. Gemini: 同じ子猫にメガネをかけた画像を生成 実際に起きた現象 1. ユーザー: 「かわいい子猫の画像を生成して」 2. Gemini: 茶色の子猫の画像を生成 3. ユーザー: 「この子にメガネをかけて」 4. Gemini: メガネをかけた女の子の画像を生成

By Qualiteg プロダクト開発部