[AI新規事業創出]Qualitegが考える、仮説探索、顧客理解のための調査設計と準備方法

アイディア創出の事前準備として、ターゲットユーザーの課題を明らかにし、解決策を提案する方法を解説します。課題探索の目的と目標を定義し、競合の利用者からヒアリングします。また、調査手法と対象ユーザーの選定を明確にし、実際のインタビューでは深い洞察を得るために詳細な質問を繰り返します。

[AI新規事業創出]Qualitegが考える、仮説探索、顧客理解のための調査設計と準備方法

Qualiteg blogを訪問してくださった皆様、こんにちは。Micheleです。AIを活用した新規事業やマーケティングを手がけている私には、クライアントからよく寄せられる質問があります。AIを用いた事業展開を検討されている方々が共通して直面するであろう課題に対して、このブログを通じて私なりの解答をご提供したいと思います。


アイディア創出のための事前準備として、ターゲットユーザーの抱えている課題を明らかにして、その解決策を提案する方法についてご説明します。そのターゲットユーザーの課題は何かを明らかにするためにどのような調査をするべきかということについて今日は解説していきたいと思います。

ユーザーの課題探索調査のための目的と目標の明確化

まず初めに行うことは、ユーザーの課題探索調査の目的と目標の明確化です。どのような情報を収集したいのか、調査から何を得たいのかを明確に定義します。この段階で、具体的な研究質問を設定し、調査の範囲と焦点を決定します。

具体的には競合のサービス利用者の課題を聞いて、自社のサービス案とするのであれば、その競合サービスを現在利用していて、支払金額が高い人や、サービスを利用するのをやめた人をヒアリング対象にします。

woman in white long sleeve shirt sitting on red couch

このように、本調査によってどのような結果を得たいか、そのデータを使って何をしたいかというのをこの段階で明確化しましょう。

また、調査手法がインタビュー形式なのか、オンラインアンケート形式なのか、何人くらいにどのような項目を聞くのかもこのタイミングでクリアにしておく必要があります。

これらは、自身の調査目的を明らかにするだけではなくて、調査費用の社内決裁のための事前共有情報としても使えるので、面倒くさがらずにここで一度整理することをお勧めいたします。

対象ユーザーの選定とリクルー

調査の目的ゴールが決まれば次は、対象ユーザーの選定になります。よく調査を楽にするために、部署の人に声をかけてヒアリング対象にしたりするケースが多いですが、Qualitegでは身近な人をヒアリング対象にすることはおすすめせず、調査会社を使うことをお勧めいたします。

不確実性の高い環境下で企業が生き残るには、複数の未来への選択肢を持つことが重要です。株式会社Qualitegの Innovation-Crossは、企業の未来への選択肢を共創によって広げるプログラム。現状分析をもとに、オープンイノベーションやパートナー開拓を通じて「自社だけでは思いつかない」多様な可能性を発掘します。

アイデアワークショップ、ハッカソン企画、最先端AI技術の活用など、多彩なアプローチで社内外の知恵を融合させ、従来の延長線上にない革新的な選択肢を創出。経験豊富な専門コンサルタントが、御社の強みを活かしながら外部との協業による新たな道筋を描き、変化の激しい時代における戦略的柔軟性と競争優位性を高めます。未来への複数の扉を開く—それが私たちの役割です。

理由は明確で、ターゲットユーザーではない、似通った人に声をかけて、お世辞のいいねを言ってもらうことで、本来の目的である、顧客の課題をヒアリングすることができなくなってしまう恐れがあるからです。

このフェーズでは調査対象となるユーザー層を特定し、それらのユーザーがどのように製品やサービスを使用しているかを理解することが必要ですので、現在考えている、競合サービス課題仮説についてヒアリングするため、競合サービスの利用者を調査会社経由でスクリーニングしてもらい、ヒアリングすることをお勧めします。

person writing on white paper

調査対象人数の考え方とインタビュー時間

インタビューをする場合、多くの声を聴きたいのでグループインタビューをしたいというクライアント企業が多いのですが、Qualitegでのおすすめは「デプスインタビュー」となります。調査時間のおすすめは一人当たり60分~90分程度が適正でしょう。人数としては最低3名、できれば5名~7名くらいの方にヒアリングをすることをお勧めしています。

競合のサービスを利用し始めたきっかけ、利用している中で満足しているポイントや不満に思っている点を聞くのがインタビューの目的ですが、その中で機械的にこちらが質問したい内容をどんどん聞いて、Yes,Noで答えてもらうようでは、インタビュー調査をする意味がないのです。

A group of friends at a coffee shop

全ての項目において、なぜなぜ5回のように、Whyの質問を繰り返し、ユーザーがなぜその判断に至ったのか、その時の環境や心理的状況までしっかり掘り下げて聞く必要があります。そのため、最初の20分はアイスブレイクとして使い、信頼感を得て、いろいろ気軽に話してもらえる環境を整えてから、いろいろ聞いていくことで、自身が期待していたような、「真のユーザーの課題」をヒアリングすることができます。

そのため、しっかりした話をするのに30分では難しく、最低60分、できれば90分くらいの時間をかけて探索インタビューを実施することをお勧めしています。


コラムを最後までお読みいただき、誠にありがとうございます。私たちQualitegは、AI技術や新規事業の企画方法に関する研修およびコンサルティングを提供しております。もしご興味をお持ちいただけた場合、また具体的なご要望がございましたら、どうぞお気軽にこちらのお問い合わせフォームまでご連絡くださいませ。

また、新規事業創出のステップを体得したいという方にご好評のワークショップも実施しております。それぞれの担当者の方が役員目線で事業を考えるという点にフォーカスしたトレーニング内容となっており、企画担当者の方だけではなく、カウンターパートのエンジニア、デザイナー、マーケターの方にもご受講いただけるコンテンツとなっております。

皆様からのお問い合わせを心よりお待ちしております。次回のコラムも、ぜひご期待くださいね。


navigation

Read more

LLM推論基盤プロビジョニング講座 第3回 使用モデルの推論時消費メモリ見積もり

LLM推論基盤プロビジョニング講座 第3回 使用モデルの推論時消費メモリ見積もり

こんにちは!前回はLLMサービスへのリクエスト数見積もりについて解説しました。今回は7ステッププロセスの3番目、「使用モデルの推論時消費メモリ見積もり」について詳しく掘り下げていきます。 GPUメモリがリクエスト処理能力を決定する LLMサービス構築において、GPUが同時に処理できるリクエスト数はGPUメモリの消費量によって制約されます。 つまり、利用可能なGPUメモリがどれだけあるかによって、同時に何件のリクエストを処理できるかがほぼ決まります。 では、その具体例として、Llama3 8B(80億パラメータ)モデルをNVIDIA RTX A5000(24GB)にロードするケースを考えてみましょう。 このGPUには24GBのGPUメモリがありますが、すべてをリクエスト処理に使えるわけではありません。最初にモデル自体が一定量のメモリを消費し、残りの領域で実際のリクエスト処理を行います。 GPUメモリ消費の二大要素 GPUの消費メモリ量は主に以下の2つの要素によって決まります 1. モデルのフットプリント LLMをGPUに読み込んだときに最初に消費されるメモリ

By Qualiteg コンサルティング
システムとcondaのC++標準ライブラリ(libstdc++)のバージョン違い問題による事象と対処法解説

システムとcondaのC++標準ライブラリ(libstdc++)のバージョン違い問題による事象と対処法解説

こんにちは! 先日、dlibをつかったPythonアプリケーション(conda環境で動作する)作っていたところ、以下のようなエラーに遭遇しました。 ImportError: /home/mlu/anaconda3/envs/example_env/bin/../lib/libstdc++.so.6: version `GLIBCXX_3.4.32' not found (required by /home/mlu/anaconda3/envs/example_env/lib/python3.10/site-packages/_dlib_pybind11.cpython-310-x86_64-linux-gnu.so) 「dlib_pybind11モジュールがGLIBCXX_3.4.32を要求してるけど、みつからない!」という感じのエラーですね。

By Qualiteg プロダクト開発部
LLM推論基盤プロビジョニング講座 第2回 LLMサービスのリクエスト数を見積もる

LLM推論基盤プロビジョニング講座 第2回 LLMサービスのリクエスト数を見積もる

こんにちは! 今回はLLM推論基盤プロビジョニング講座 第2回です! STEP2 LLMサービスへのリクエスト数見積もり それでは、早速、LLM推論基盤プロビジョニングの第2ステップである「リクエスト数見積もり」の重要性と方法を解説いたします。 LLMサービスを構築する際に必要となるGPUノード数を適切に見積もるためには、まずサービスに対して想定されるリクエスト数を正確に予測する必要があります。 リクエスト数見積もりの基本的な考え方 LLMサービスへの想定リクエスト数から必要なGPUノード数を算出するプロセスは、サービス設計において非常に重要です。過小評価すればサービス品質が低下し、過大評価すれば無駄なコストが発生します。このバランスを適切に取るための基礎となるのがリクエスト数の見積もりです。 想定リクエスト数の諸元 リクエスト数を見積もるための5つの重要な要素(諸元)をみてみましょう。 1. DAU(Daily Active Users): 1日あたりの実際にサービスを利用するユーザー数です。これはサービスの規模を示す最も基本的な指標となります。 2. 1日

By Qualiteg コンサルティング
Zoom会議で肩が踊る?自動フレーミング映像安定化とAIによる性能向上の可能性

Zoom会議で肩が踊る?自動フレーミング映像安定化とAIによる性能向上の可能性

こんにちは! 本日は、自動フレーミング映像の安定化に関するアルゴリズム・ノウハウを解説いたします 第1章 問題の背景と目的 バストアップ映像を撮影する際、特にオンラインミーティングやYouTubeなどのトーク映像では、人物がうなずく、首を振るなどの自然な動作をした際に「首まわりや肩がフレーム内で上下に移動してしまう」という現象がしばしば起こります。これは、多くの場合カメラや撮影ソフトウェアが人物の「目や顔を画面中央に保とう」とする自動フレーミング機能の働きに起因します。 撮影対象の人物が頭を下げた際に、映像のフレーム全体が相対的に上方向へシフトし、その結果、本来動いていないはずの肩の部分が映像内で持ち上がっているように見えてしまう現象です。 本稿では、この問題を撮影後の後処理(ポストプロセッシング)のみを用いて、高速、高い精度かつロバストに解決する手法をご紹介します。 前半では、従来のCV(コンピュータービジョン)の手法を使い高速に処理する方法をご紹介します。後半では、AIを使用してより安定性の高い性能を実現する方法について考察します。 第2章 古典手法による肩の上下

By Qualiteg 研究部