[AI新規事業創出]LLMとは?

MicheleがAI活用のビジネスやマーケティングについて質問に答えるブログを紹介。大規模言語モデル(LLM)について説明し、ChatGPTを例に挙げてLLMのビジネス活用事例や技術的な側面を解説。さらに、専用パソコンや日本語対応モデルも紹介しています。

[AI新規事業創出]LLMとは?

Qualiteg blogを訪問してくださった皆様、こんにちは。Micheleです。AIを活用した新規事業やマーケティングを手がけている私には、クライアントからよく寄せられる質問があります。AIを用いた事業展開を検討されている方々が共通して直面するであろう課題に対して、このブログを通じて私なりの解答をご提供したいと思います。


LLMとは大規模言語モデル

LLM(Large Language Model、大規模言語モデル)とは、人間の言葉を理解し、それに基づいてテキストを生成する人工知能技術の一つです。この技術は、インターネット上の大量のテキストデータを学習して、様々な言語タスクをこなすことができるモデルを構築するものです。

ChatGPTもLLMを活用した生成AI

2022年に米国で開発されたOpenAI社のChatGPTはLLM(大規模言語モデルと呼ばれる言語生成AI)技術を活用し人間のアシスタントとして様々なタスクを代行したり、弁護士試験や医師国家試験に合格したりするなど既に平均的な人間の能力を超えていると言われており現在も秒進分歩で進化をつづけています。

ChatGPTはFortune 500企業の過半数でビジネス活用されているなど欧米中心に大きなビジネスインパクトを与えており、これに刺激され世界中で同様のLLMを作る動きが活発化されております。

LLMはコンピューターに例えるならCPU部分

LLMとは、人間のように質問に気の利いた回答をしたり、指示に従って文章を生みだしたりすることのできるAI技術で、昨今話題のChatGPTのコア技術としても使用されています。LLMはパソコンに例えるのであれば頭脳部分をつかさどるCPUに相当します。

イノベーションには常にリスクが伴います。株式会社Qualitegの Innovation-Crossは、そのリスクを最小化しながら成果を最大化する共創支援プログラム。現状分析を通じてリスク要因を可視化し、「自社だけでは管理困難」なリスクに対する戦略を策定します。アイデアワークショップや小規模な実証実験を通じて低コストで学習と検証を重ね、オープンイノベーションやパートナー開拓でリスクと投資を分散した革新創出を推進。

最先端AI技術の活用支援も含め、経験豊富な専門コンサルタントが、失敗のコストを抑えながら成功の可能性を高める共創プロセスを設計します。安全に挑戦し、確実に革新する—この両立を実現するのが、私たちのアプローチです。

CPUだけでパソコンは動く?

CPUのみではパソコンが使えないのと同様、LLMだけではユーザーが使える状態にはなりません。パソコンでは、キーボード、マウスといった入力装置、ディスプレイ、スピーカーなどの出力装置、メモリやHDDといった記憶装置、それらとCPUをつなぐマザーボードなど様々なパーツが協調して動作します。

LLMを動作させるにも、入出力や協調のための高度な仕組みが必要です。さらに、多くのユーザーが使用するためのセキュリティや堅牢性も兼ね備えることが求められます。このようにLLMを活用するには様々なソフトウェアとそれらを統合するプラットフォーム技術が必要であり、当社は商用サービス向け、LLMプラットフォーム ChatStream®(チャットストリーム)を開発・提供しています。

5.日本語対応の大規模言語モデル(例)

- matsuo-lab/weblab-10b-instruction-sft
- cyberagent/open-calm-7b
- cyberagent/open-calm-3b
- rinna/japanese-gpt-neox-3.6b-instruction-sft-v2
- rinna/bilingual-gpt-neox-4b-instruction-sft
- rinna/japanese-gpt-neox-3.6b-instruction-sft
- rinna/japanese-gpt-neox-3.6b-instruction-ppo
- stabilityai/japanese-stablelm-instruct-alpha-7b
- line-corporation/japanese-large-lm-3.6b-instruction-sft
- stockmark/gpt-neox-japanese-1.4b

6.英語対応の大規模言語モデル(例)

- meta-llama/Llama-2-7b-chat
- openlm-research/open_llama_3b_v2
- openlm-research/open_llama_7b_v2
- openlm-research/open_llama_3b
- togethercomputer/RedPajama-INCITE-Chat-3B-v1
- togethercomputer/RedPajama-INCITE-7B-Chat
- mosaicml/mpt-7b-chat
- databricks/dolly-v2-7b
- databricks/dolly-v2-3b

7.生成AI専用パソコンのご案内

当社では、プロ用GPUを搭載した、プロフェッショナル向けLLM(大規模言語モデル)専用パソコンのハイコストパフォーマンスモデル Qualiteg IntegrityPro-11600を販売中です。

必要なソフトウェアはあらかじめプリインストールされているため、電源をいれたらすぐに対話チャットWebアプリでLLMを試すことができます。もうAI実行に必要なPCパーツ構成や煩わしいソフトウェアインストールに悩まず、必要な作業にご集中いただけます。


コラムを最後までお読みいただき、誠にありがとうございます。私たちQualitegは、AI技術や新規事業の企画方法に関する研修およびコンサルティングを提供しております。もしご興味をお持ちいただけた場合、また具体的なご要望がございましたら、どうぞお気軽にこちらのお問い合わせフォームまでご連絡くださいませ。

また、新規事業創出のステップを体得したいという方にご好評のワークショップも実施しております。それぞれの担当者の方が役員目線で事業を考えるという点にフォーカスしたトレーニング内容となっており、企画担当者の方だけではなく、カウンターパートのエンジニア、デザイナー、マーケターの方にもご受講いただけるコンテンツとなっております。

皆様からのお問い合わせを心よりお待ちしております。次回のコラムも、ぜひご期待くださいね。


navigation

Read more

Node.jsで大容量ファイルを扱う:AIモデルのような大きなデータ保存はストリーム処理使いましょう

Node.jsで大容量ファイルを扱う:AIモデルのような大きなデータ保存はストリーム処理使いましょう

こんにちは!今日はAIシステムのフロントサーバーとしてもよく使用するNode.jsについてのお話です。 AIモデルの普及に伴い、大容量のデータファイルを扱う機会が急増しています。LLMなどのモデルファイルやトレーニングデータセットは数GB、場合によっては数十、数百GBにも達することがあります。 一方、Node.jsはWebアプリケーションのフロントサーバーとして広く採用されており、データマネジメントやPythonで書かれたAIバックエンドとの橋渡し役としてもかなりお役立ちな存在です。 本記事では、Node.js v20LTSで5GB程度のファイルを処理しようとして遭遇した問題と、その解決方法について解説します。 Node.jsのバッファサイズ制限の変遷 Node.jsのバッファサイズ制限は、バージョンによって大きく変化してきました Node.jsバージョン サポート終了日 バッファサイズ上限 備考 Node.js 0.12.x 2016年12月31日 ~1GB 初期のバッファサイズ制限(smalloc.kMaxLength使用) Node.js 4.

By Qualiteg プロダクト開発部
AGI時代に向けたプログラマーの未来:役割変化とキャリア戦略

AGI時代に向けたプログラマーの未来:役割変化とキャリア戦略

はじめに 私がはじめてコードを書いたのは1989年です。 当時NECのPC88というパソコンを中古でかってもらい N-88 Basic というBASIC言語のコードをみようみまねで書いて動かしたあの日から何年経つのでしょうか。 当時、電波新聞社のマイコンBASICマガジンという雑誌があり、ベーマガにはいろんなパソコン向けのプログラムコードが掲載されていました。 そんなわけでもう35年以上趣味や仕事でプログラミングに従事していますが、開発環境、情報流通の仕組みには革命といっていいほどの変化、進化がおこりました。 しかしながら、そんな中でも、あくまでコードを書くのは「私」という生身の人間でした。 そうしたある種の古き良き時代は、いよいよ本格的に終わりを告げようとしています。 2023年ごろからのLLM技術の飛躍的進歩により、プログラミング業界は大きな転換期を迎えています。 特に、OpenAI o3,o1やClaude 3.5、Gemini2.0などの大規模言語モデル(LLM)の進化や、その先にある将来的な汎用人工知能(AGI)の出現は、プログラマーやAIエンジニアの役割に根

By Tomonori Misawa / CEO
PythonとWSL開発のトラブルシューティング: PyCharmとCondaの環境不一致問題

PythonとWSL開発のトラブルシューティング: PyCharmとCondaの環境不一致問題

こんにちは! 今回は、WSL上のConda環境をPyCharmから利用する際に発生した「同じ環境なのにパッケージリストが一致しない」という問題に遭遇したため、その原因と対策について書いてみたいとおもいます 問題の状況 開発の流れは以下のようなものでした 1. WSL環境でConda仮想環境を作成 2. その環境をPyCharmのプロジェクトインタプリタとして設定 3. 開発を進める中で奇妙な現象に気づく 具体的には、次のような不一致が発生していました * PyCharmのプロジェクト設定で表示されるpipパッケージのリスト * WSLでConda環境をアクティベートした後にpip listコマンドで表示されるパッケージのリスト これらが一致せず、「WSL側のシェルから直接インストールしたパッケージがPyCharmで認識されない」という問題が生じていました。 この手の問題でよくある原因は、PyCharm側がWSL側の更新を得るのに少し時間がかかったり、 Indexing が遅れているなどなのですが、今回はそれが原因ではありませんでした。 危険な「静かな

By Qualiteg プロダクト開発部
人気ゲーム「ヒット&ブロー」で学ぶ情報理論

人気ゲーム「ヒット&ブロー」で学ぶ情報理論

こんにちは! Qualiteg研究部です! 今日はAIにおいても非常に重要な情報理論について、Nintendo Switchの人気ゲーム「世界のアソビ大全51」にも収録されている「ヒット&ブロー」というゲームを題材に解説いたします! はじめに 論理的思考力を鍛える定番パズルゲームとして長年親しまれている「ヒット&ブロー」(海外では「Mastermind」として知られています)。 このゲームは一見シンプルながらも、その攻略には深い論理的アプローチが必要とされております。 本稿では、このゲームについて情報理論という数学的概念を用いてゲームの素性を分析する方法について掘り下げてみたいとおもいます。 さらに、この情報理論が現代の人工知能(AI)技術においてどのように活用されているかについても触れていきます。 ヒット&ブローのルール説明 ヒット&ブローは、相手が秘密に設定した色や数字の組み合わせを推測するゲームです。日本では主に数字を使った「数当てゲーム」として親しまれていますが、本記事では色を使ったバージョン(マスターマインド)に焦点を当てます。 Nintendo Sw

By Qualiteg 研究部