[AI新規事業創出]Qualiteg流、顧客課題仮説探索インタビューをベースにした顧客課題設定とは

新規事業開発のコンサルティングにおいて、多くの方がすぐにアイディア出しを行いたがる傾向にあります。実際は顧客の課題を把握し、ファクトに基づいたアプローチが質の高い企画につながります。このプロセスには顧客のニーズの再確認、インサイトの抽出、そして「How Might We」というフレームワークを用いた課題の発散が含まれます。

[AI新規事業創出]Qualiteg流、顧客課題仮説探索インタビューをベースにした顧客課題設定とは

Qualiteg blogを訪問してくださった皆様、こんにちは。Micheleです。AIを活用した新規事業やマーケティングを手がけている私には、クライアントからよく寄せられる質問があります。AIを用いた事業展開を検討されている方々が共通して直面するであろう課題に対して、このブログを通じて私なりの解答をご提供したいと思います。


新規事業開発のコンサルティングさせていただいている中で、皆さんやはり、アイディア出しをすぐにやりたいと焦っておられる方が多いです。

しかし、そのアイディアを出すために、顧客が何を課題としているか、ファクトをもとに考えていく必要があります。

本日は、顧客の課題をどのように考え、選定していくか、そして本取組で着目し、解決すべき課題を仮説をどうやって検討するべきかという手法についてお話させていただきたいと思います。

まずは、問いの確認を実施する

初めに検討すべき項目は「問いの確認」です。アイディア出しの前に、調査などで発見した問題やニーズの再確認をしましょう。

ここでは、顧客インサイトの抽出方法について解説します。

man holding his chin facing laptop computer

電気自転車レンタルサービスを例に考えてみましょう。

例えば、

電気自転車をレンタルしたいと思って借りてみたが、充電された電気量が少なかった

というファクトがあったとしましょう。

そのファクトから顧客のインサイト(=こういう状態だったらいいのになと思う状態や、不安材料などの心の声)を想像して書いていきます。

この場合

もっと電気があったら、1回のレンタルで目的地まで行けるのになあ
途中で電気がなくなったら、自転車が重くなって動かなくなるのではないのだろうか

このようなユーザーの心の声が聞こえてくると思います。それらをユーザーの「問い」であると認識しましょう。

株式会社Qualitegの Innovation-Crossは、イノベーション共創の全プロセスをカバーする総合支援プログラムです。企業の現状分析に基づく精緻な戦略立案から、実行計画の策定、オープンイノベーションやパートナー開拓の実践、そして成果の評価・改善まで、革新創出の全工程を一貫してサポート。

アイデアワークショップ、ハッカソン企画、AI技術活用など、多彩なサービスメニューを通じて、「自社だけでは実現困難」な革新を、外部との協業によって確実に実現します。戦略と実行の両面で豊富な経験を持つ専門コンサルタントが、御社のイノベーション創出を総合的に支援し、社内外の知恵を融合させた新たな価値創造へと導きます。共創イノベーションのワンストップ・ソリューションを、ぜひご活用ください。

次は問いの発散をしてみましょう

ここではHow Might Weというデザインシンキングの問いを定義するフレームワークを活用します。

「How Might We」を日本語に訳すと「どのようにして私たちは〜できるか」となります。しかし、直訳だとなかなかイメージがわかないので、Qualitegでは以下のようなフレームワークとして活用しています。

どうしたら、我々は 「誰」 の為に、「何」を実現してその課題を解決や改善をすることができるだろうか。

このフレームワークに当てはめて「問いの発散」をしてみましょう。

「どうしたら我々は、いつも自社サービスを使ってくださっているユーザー向けに、遠くの目的地までレンタル電動自転車を使ってもらうことができるのだろうか。」
「どうしたら我々は、初めて自社サービスを使いたいと思ってくださる顧客向けに、途中で電気がなくなったら自転車が重くなって動かなくなるのではないかという不安を取り除くことができるのだろうか」

このような形で、顧客インタビューの結果などのファクトをもとに、顧客の課題を出すことができます。

ここがポイントですが、このフェーズでは課題の良し悪しは判断する必要はなく、たくさん課題を抽出することを目的としております。次のフェーズでその課題のうちどの課題を選び、自社の解決策としていくべきかを考えていきましょう。


コラムを最後までお読みいただき、誠にありがとうございます。私たちQualitegは、AI技術や新規事業の企画方法に関する研修およびコンサルティングを提供しております。もしご興味をお持ちいただけた場合、また具体的なご要望がございましたら、どうぞお気軽にこちらのお問い合わせフォームまでご連絡くださいませ。

また、新規事業創出のステップを体得したいという方にご好評のワークショップも実施しております。それぞれの担当者の方が役員目線で事業を考えるという点にフォーカスしたトレーニング内容となっており、企画担当者の方だけではなく、カウンターパートのエンジニア、デザイナー、マーケターの方にもご受講いただけるコンテンツとなっております。

皆様からのお問い合わせを心よりお待ちしております。次回のコラムも、ぜひご期待くださいね。


navigation

Read more

日本語対応 LLMランキング2026 ~ベンチマーク分析レポート~(3月6日版)

日本語対応 LLMランキング2026 ~ベンチマーク分析レポート~(3月6日版)

はじめに 本レポートは、Nejumi Leaderboard 4のベンチマークデータ(2026/3/6版)に基づいて、日本語対応LLMの性能を総合的に分析したものです。 前回は 2025/12/18 版の分析レポート を公開しましたが、約3か月でまたもや大きな変動がありました! (定期的に最新LLMランキングを更新してまいります。当社のX(旧Twitter)をフォローいただくことで更新情報を受け取り可能です) Nejumi Leaderboard 4は、日本語タスクにおけるLLMの性能を多角的に評価する信頼性の高いベンチマークとして知られています。 本分析では、商用APIモデルとオープンモデルの両方を対象に、それぞれの特徴や傾向を詳しく見ていきます。 オープンソースモデルについて Weightがオープンなモデルは場合によっては「オープンソースモデル」、「OSSモデル」と呼ばれますが、モデルによっては「オープンソース」と呼ぶには不十分な場合があるため本稿では、「オープンソースモデル」ではなく「オープンモデル」と表現しています。 ベンチマーク分析について 本レポートは

By Qualiteg コンサルティング, Qualiteg プロダクト開発部
日経トレンディ 2026年4月号に Bestllam の広告を掲載しました

日経トレンディ 2026年4月号に Bestllam の広告を掲載しました

こんにちは! このたび、日経トレンディ 2026年4月号(2026年3月4日発売、雑誌)に、当社のエンタープライズ向け統合型AIプラットフォーム「Bestllam」を掲載しました。 日経トレンディ(雑誌)は全国の書店・コンビニエンスストアにてお買い求めいただけますので、お手に取った際はぜひご覧くださいませ。 Bestllam とは? Bestllam は、「チャットで指示するだけ。仕事が終わっている。」をコンセプトに開発した、エンタープライズ向けの統合型AIプラットフォームです。 主な特長 20種類以上のLLMを、契約一本で OpenAI GPT、Anthropic Claude、Google Gemini をはじめ、DeepSeek、Qwen、Llama など商用・オープンソース合わせて20種類以上のLLMを1つの契約で利用できます。各プロバイダと個別に契約を結ぶ手間が不要になります。 6つのLLMに同時質問して、最適な答えを選択 同じ質問を複数のLLMに一括投げかけ、回答を比較・検討できます。各モデルの得意・不得意を活かすことで、重要な意思決定や精度が求められる業

By Qualiteg ビジネス開発本部 | マーケティング部
AIプラットフォーマーの垂直統合と、残された戦略オプション

AIプラットフォーマーの垂直統合と、残された戦略オプション

こんにちは! Qualitegコンサルティングチームです! 2026年現在、LLMの最大のユースケースの一つはコーディングだと考えています。実際、Menlo Venturesの調査でもコーディングはエンタープライズAI活用の代表的ユースケースとして位置づけられています。 そして、それにきづいたAIプラットフォーマー各社は自前のAIコーディングツールを次々と発表し人気を博しています。 逆にいえば、そのユースケースを早期に発見しプロダクト化してきた"コーディングSaaS"の開発企業は「胴元」であるAIプラットフォーマーが自分たちのSaaS領域に進出してきているわけで気が気でないでしょう。 ということで、本日はAIプラットフォーマーによる垂直統合と、私たちの取りうる戦略オプションについて考えてみたいと思います。 さて、2025年は、AIコーディングエージェント市場の勢力図が決定的に書き換えられた年でした。 Anthropicの「Claude Code」は2025年2月のリサーチプレビューから始まり、わずか半年で年換算ランレート(ARR)10億ドルに到達。 2026年初頭のア

By Qualiteg コンサルティング
KVキャッシュのオフロード戦略とGQAの実践的理解

KVキャッシュのオフロード戦略とGQAの実践的理解

こんにちは! LLM推論基盤プロビジョニング講座、今回は番外編をお届けします! 第3回「使用モデルの推論時消費メモリ見積もり」では、GPUメモリ消費の二大要素としてモデルのフットプリントとKVキャッシュを紹介し、1トークンあたりのKVキャッシュサイズの計算方法を解説しました。 また第4回「推論エンジンの選定」ではvLLMやDeepSpeedなど各推論エンジンの特性を比較し、第5回では量子化や並列化による最適化戦略を解説してきました。 しかし、実はKVキャッシュにはまだまだ掘り下げるべきトピックがあります。 * KVキャッシュをGPUのVRAMからCPU RAMやディスクにオフロードしたらどうなるのか? どのくらい遅くなるのか? * HuggingFace TransformersとvLLMでは、KVキャッシュの管理方針がなぜ根本的に異なるのか? * そもそもKVキャッシュが大きくなる原因であるアテンション構造を変えてしまう GQA(Grouped-Query Attention)とは何か? 第5回で紹介した量子化とは別の軸で、KVキャッシュを劇的に小さくする技術です。

By Qualiteg プロダクト開発部, Qualiteg コンサルティング