[AI新規事業創出] Qualitegが考える、アイディア創造で発散が必要な理由

新規事業のアイディア創出時には、部署内だけでなく、多様な職種や背景を持つ社内の関係者全員を巻き込むことが推奨されます。これにより、多角的な視点が確保され、実現可能性の高いアイディアが生まれやすくなります。また、プロジェクト初期からの協働はチーム間のコミュニケーションを強化し、各自が専門性を活かしたアイディア提供により、より具体的で効果的な解決策へと繋がるためです。

[AI新規事業創出] Qualitegが考える、アイディア創造で発散が必要な理由

Qualiteg blogを訪問してくださった皆様、こんにちは。Micheleです。AIを活用した新規事業やマーケティングを手がけている私には、クライアントからよく寄せられる質問があります。AIを用いた事業展開を検討されている方々が共通して直面するであろう課題に対して、このブログを通じて私なりの解答をご提供したいと思います。


部署内で「新規事業を考えよう!」となったとき、皆さんはどのように、進めてらっしゃいますか?

各自が持ち寄ったアイディアを話すが、無意識のうちに?上司に忖度してしまって、よいと思ってなくても「いいね」と言ってしまう。。。
アイディアマンの人がいて、自分はそういうのが苦手だから、任せている。。。

なんていうお声も、新規事業コンサルティングをさせていただいておりますとよく聞きますが、これは 本当にもったいない ことです。

アイディア創出の過程で「発散的思考」を取り入れることの重要性は、2000年代後半以降からでしょうか、デザインシンキングが広まりだした頃から徐々に馴染んできました。海外ではイノベーションを目指す多くの企業で認知されていますが、日本企業ではどうでしょうか。

皆さん、取り入れていらっしゃいますか?

私たちAI企業のQualitegでは、 創造的な発想が次世代のテクノロジーや豊かな生活を形作る核心部分 だと考えています。

本日は、なぜ発散思考がアイディア創造においてなぜ不可欠なのかを、その理由とともに解説させていただきますね。

多様な視点からのアイディア創出

発散的思考の最大の利点は、従来の枠を超えた多様な視点からアイディアを引き出せることだと私たちは考えています。

特にAIの技術進化は複雑で、異なる角度からのアプローチが新たな解決策を生み出すことも多いという実感を持っている、ということもありますが、Diversity環境を作る、具体的には 性別、職業、年齢、国籍などが異なる人々でだいたい8人くらい集まってアイディア創出をすることをお勧め致します。

アイディア創造のフェーズでは、以下にアイディアを発散させ、多方面のアイディアを大量に出せるか、が勝負になります。そのため、 他のメンバーのアイディアに良い意味で「ワルノリ」してでも、他の人のアイディアに乗っかって、遠慮せずにアイディアをバンバン出しましょう♪

このステップを通過することで、チームメンバー同士がノーリスクで自由に思考を巡らせることができ、予期せぬ組み合わせやアイディアが浮かび上がるベースとなります。

株式会社Qualitegの Innovation-Crossは、多様な業界での革新創出を支援してきた実績を持つ共創プログラムです。大手製造業の新製品開発から、不動産ディベロッパーのデジタルトランスフォーメーション、サービス業の顧客体験革新まで、数多くの成功事例を創出。その経験と知見をもとに、御社の革新創出を強力に支援します。

企業の現状分析から戦略策定、実行支援まで一貫したアプローチで、「自社だけでは実現困難」なイノベーションを外部との協業で実現。アイデアワークショップ、ハッカソン企画、AI技術活用など、検証済みの手法で確実な成果を生み出します。実績が証明する、確かな革新力を御社のイノベーション創出に。

多国籍チームを組成するのが難しいケースでは?

会社によっては、年齢、多国籍など異なる人を集めるのが難しいケースも多いと思います。そのような場合にアドバイスさせていただいているのが、全く異なる部門や本部の方とチームを組むことです。

正直、同じ部門のいつも触れ合う人と話した方が、同じテイストのアイディアが出て「心地良い雰囲気」になるというのは理解できます。

ただ、ここでは「よい雰囲気を味わう」のが目的ではなく、 あらゆる角度から見た多くのアイディアを出すことが目的 ですので、例えば、

  • B2Bセールスの方
  • ソフトウェアエンジニアの方
  • コールセンターの方
  • プロダクトデザイナーの方
  • B2Cマーケの方
  • 法務部の方
  • 部署の秘書庶務さん

という形で、異なる製品・サービスを違う部署で担当している方で集まっていただくのも、Diversityが生まれるケースが多く、最初に少し疑心暗鬼なクライアント企業ほど、ワーク後の皆様の新鮮味や満足度も非常に高いので、Qualitegでは推奨させていただいております。

assorted notepads

サービス開発のためのコミュニケーションや協働意欲の強化も

発散的思考は、チームメンバーがそれぞれお互いのアイディアを共有し、相手のアイディアに乗ったり、引き算してみたり、相互に影響を与え合います。

このようなオープンな環境は、協働を促進し、多様なバックグラウンドを持つ人々が共に働く中で新しいアイディアが生まれやすくなるというメリットもあります。

また、よくある企業のケースでは、企画担当だけで企画して、社内エンジニアに開発してもらうケースがありますが、私たちはアイディア出しの段階から関係者全員巻き込んでアイディア創出をすることをお勧めします。

理由は、多様な視点を入れてアイディアを出したいというのももちろんあるのですが、 各自が自分の業務で培った専門性をもってアイディアを出してくれるので、実現可能性についての評価を同時にできる ケースもあります。

また、プロジェクトの初期段階から関係者を巻き込むことで、 透明性を担保 し、目標に対する理解と共感を深める ことができるので、 部門間の障壁を低減することも可能です。

何より、プロジェクト推進、サービス企画、その後世の中にリリースした後も初期のアイディア創出に参加してくれた人々は、 仲間となり、伝道師となり、応援し続けてくれる ことでしょう。

早期段階での社内の仲間づくり という観点からもこれらのアプローチはお勧めできます。


コラムを最後までお読みいただき、誠にありがとうございます。私たちQualitegは、AI技術や新規事業の企画方法に関する研修およびコンサルティングを提供しております。もしご興味をお持ちいただけた場合、また具体的なご要望がございましたら、どうぞお気軽にこちらのお問い合わせフォームまでご連絡くださいませ。

また、新規事業創出のステップを体得したいという方にご好評のワークショップも実施しております。それぞれの担当者の方が役員目線で事業を考えるという点にフォーカスしたトレーニング内容となっており、企画担当者の方だけではなく、カウンターパートのエンジニア、デザイナー、マーケターの方にもご受講いただけるコンテンツとなっております。

皆様からのお問い合わせを心よりお待ちしております。次回のコラムも、ぜひご期待くださいね。


navigation

Read more

LLM推論基盤プロビジョニング講座 第3回 使用モデルの推論時消費メモリ見積もり

LLM推論基盤プロビジョニング講座 第3回 使用モデルの推論時消費メモリ見積もり

こんにちは!前回はLLMサービスへのリクエスト数見積もりについて解説しました。今回は7ステッププロセスの3番目、「使用モデルの推論時消費メモリ見積もり」について詳しく掘り下げていきます。 GPUメモリがリクエスト処理能力を決定する LLMサービス構築において、GPUが同時に処理できるリクエスト数はGPUメモリの消費量によって制約されます。 つまり、利用可能なGPUメモリがどれだけあるかによって、同時に何件のリクエストを処理できるかがほぼ決まります。 では、その具体例として、Llama3 8B(80億パラメータ)モデルをNVIDIA RTX A5000(24GB)にロードするケースを考えてみましょう。 このGPUには24GBのGPUメモリがありますが、すべてをリクエスト処理に使えるわけではありません。最初にモデル自体が一定量のメモリを消費し、残りの領域で実際のリクエスト処理を行います。 GPUメモリ消費の二大要素 GPUの消費メモリ量は主に以下の2つの要素によって決まります 1. モデルのフットプリント LLMをGPUに読み込んだときに最初に消費されるメモリ

By Qualiteg コンサルティング
システムとcondaのC++標準ライブラリ(libstdc++)のバージョン違い問題による事象と対処法解説

システムとcondaのC++標準ライブラリ(libstdc++)のバージョン違い問題による事象と対処法解説

こんにちは! 先日、dlibをつかったPythonアプリケーション(conda環境で動作する)作っていたところ、以下のようなエラーに遭遇しました。 ImportError: /home/mlu/anaconda3/envs/example_env/bin/../lib/libstdc++.so.6: version `GLIBCXX_3.4.32' not found (required by /home/mlu/anaconda3/envs/example_env/lib/python3.10/site-packages/_dlib_pybind11.cpython-310-x86_64-linux-gnu.so) 「dlib_pybind11モジュールがGLIBCXX_3.4.32を要求してるけど、みつからない!」という感じのエラーですね。

By Qualiteg プロダクト開発部
LLM推論基盤プロビジョニング講座 第2回 LLMサービスのリクエスト数を見積もる

LLM推論基盤プロビジョニング講座 第2回 LLMサービスのリクエスト数を見積もる

こんにちは! 今回はLLM推論基盤プロビジョニング講座 第2回です! STEP2 LLMサービスへのリクエスト数見積もり それでは、早速、LLM推論基盤プロビジョニングの第2ステップである「リクエスト数見積もり」の重要性と方法を解説いたします。 LLMサービスを構築する際に必要となるGPUノード数を適切に見積もるためには、まずサービスに対して想定されるリクエスト数を正確に予測する必要があります。 リクエスト数見積もりの基本的な考え方 LLMサービスへの想定リクエスト数から必要なGPUノード数を算出するプロセスは、サービス設計において非常に重要です。過小評価すればサービス品質が低下し、過大評価すれば無駄なコストが発生します。このバランスを適切に取るための基礎となるのがリクエスト数の見積もりです。 想定リクエスト数の諸元 リクエスト数を見積もるための5つの重要な要素(諸元)をみてみましょう。 1. DAU(Daily Active Users): 1日あたりの実際にサービスを利用するユーザー数です。これはサービスの規模を示す最も基本的な指標となります。 2. 1日

By Qualiteg コンサルティング
Zoom会議で肩が踊る?自動フレーミング映像安定化とAIによる性能向上の可能性

Zoom会議で肩が踊る?自動フレーミング映像安定化とAIによる性能向上の可能性

こんにちは! 本日は、自動フレーミング映像の安定化に関するアルゴリズム・ノウハウを解説いたします 第1章 問題の背景と目的 バストアップ映像を撮影する際、特にオンラインミーティングやYouTubeなどのトーク映像では、人物がうなずく、首を振るなどの自然な動作をした際に「首まわりや肩がフレーム内で上下に移動してしまう」という現象がしばしば起こります。これは、多くの場合カメラや撮影ソフトウェアが人物の「目や顔を画面中央に保とう」とする自動フレーミング機能の働きに起因します。 撮影対象の人物が頭を下げた際に、映像のフレーム全体が相対的に上方向へシフトし、その結果、本来動いていないはずの肩の部分が映像内で持ち上がっているように見えてしまう現象です。 本稿では、この問題を撮影後の後処理(ポストプロセッシング)のみを用いて、高速、高い精度かつロバストに解決する手法をご紹介します。 前半では、従来のCV(コンピュータービジョン)の手法を使い高速に処理する方法をご紹介します。後半では、AIを使用してより安定性の高い性能を実現する方法について考察します。 第2章 古典手法による肩の上下

By Qualiteg 研究部