[自作日記10] マザーボードにCPU、メモリ、SSDを装着する

[自作日記10] マザーボードにCPU、メモリ、SSDを装着する

マザーボードまわりをセットアップしていきます

1.マザーボード 開封の儀

今回購入したマザーボードは 【ASRock Z690 Steel Legend WiFi 6E/D5】です。

早速開封していきましょう!
箱をあけると、ケーブル類とマニュアル類が上段の小箱にはいっています。

つぎに、中箱をあけます。

おーマザーボードが見えてきました

美しい!

ワクワクしてきました~

写真左側中央部は LGA 1700 ソケットにカバーがかかった状態です。ここにCPUを設置します。

また LGA 1700 ソケットの上側にはメモリモジュールを挿入する DDR5 のメモリスロット4つがみえます。

そして水平中央付近に SSD を設置する M.2 スロットがあります。(写真ではヒートシンクがありますが、その下にスロットがあります)

そこからやや右側にグラボを挿す PCI Express x16 スロットがあります。

ざっとこんな感じで主要部品を設置していきましょう。

2.マザーボードの配線図はあらかじめ印刷しておくと便利

付属のマニュアルに配線図がついているのですが、可能であれば、マザーボードのピン配置などが掲載された配線図は拡大コピーしたりして1枚の紙に印刷しておくと組み立ての時便利です。

マニュアルのページをめくっておくよりも1枚の紙に印刷して手元に置いておいた方が便利、というわけです。

3.マザーボードにCPUを装着

早速、組み立て作業です!

どのパーツもとても繊細なので、静電気防止機能+滑り止め機能のある手袋をつけて作業します。

それでは、CPUを開梱します。

CPUは インテル12世代Coreシリーズの Intel Core i7 12700 です。

CPU本体とリテールファンが付属しています

マザーボードを箱からとりだし、やわらかい絶縁マットの上に置きます。



LGA-1700 スロットには最初カバーがかかっているため、ストッパーを外します

ストッパーを押しずらしてはずして、カバーを取り外します

先ほど開梱したCPUを保護ケースから取り出します

開いている LGA 1700 スロットにCPUを設置します。切り欠きを確認して、向きを間違えないように、設置したらストッパーを再び閉じます

ちなみに、CPUファンはまだ装着しません。

なぜなら、ファンは大きいので先に装着してしまうと、メモリ等の装着の際にジャマになるためです。

4.メモリの装着

次にメモリを装着していきます。

この4つ並んでいるのがメモリスロットでここに1枚ずつメモリを挿入します

まず最初に、ロックレバーを開いておきます

メモリモジュールをパッケージから取り出しましょう。今日使っているメモリは Crucial デスクトップ用 DDR5 32G x 2です。

そこに、メモリモジュールを挿し込みます。
方向を間違えないようにきをつけます。

もし軽く押してみて抵抗があるようなら、向きをみましょう。

反対にしてみても抵抗がある場合、規格が違うことも疑います。

たとえば マザーボードが DDR5 のメモリモジュールを求めているのに DDR4 のメモリモジュールを買ってしまった場合など、DDR4は物理的に挿し込めないようになっていますので、無理に力を入れて挿そうとするとマザーボードやメモリが壊れてしまうので気を付けましょう。

今回は、何も考えずに1番スロットと2番スロットに挿してしまいましたが、どこに挿すのがよいのかはマザーボードのマニュアルを確認する必要があります。

2枚のメモリモジュールを挿す場合、多くのマザーボードでは、1番スロットと3番スロット または 2番スロットと4番スロットのように1スロットとばして挿すとメモリ読み書きの効率が良いとマニュアルに書いてあります。

4.SSDの装着

次にSSDを装着していきます。開梱すると、このようなSSDが出てきます。

今回買ったSSDはSAMSUNG 980 PRO 2T M.2 NVMeでヒートシンクつきのモデルです。

M.2 用のSSDにはヒートシンクつきと、ヒートシンク無しのものがありますが、今回のマザーボード 【ASRock Z690 Steel Legend WiFi 6E/D5】 には M.2 Armor という評判の良いM.2 用のヒートシンクが標準で用意されています。

今回はヒートシンクつきのSSD を購入したので、マザーボード標準搭載のヒートシンクはドライバーでネジをはずして取りはずすことにします。

マザーボードの標準のデザインが気に入っている人はヒートシンク無しのSSDを購入するのもありですね。

このとおり、標準装備されていた M.2 用ヒートシンクをはずすと、M.2スロットが姿をあらわします。

M.2 スロットに SSD を挿して、

これで SSD の装着が完了です

5.CPUファンの装着

CPUファンを取り付けましょう。

今回とりつけるのは、CPUに付属している「リテールファン」です。

CPUのまわりにある4つの穴に、ファンのピンが入るように把持し、

ピン先が穴にふれたら、ピンの上部をカチっとなるまで押し入れます。

次に、CPUファンの電源コネクタをマザーボードの CPU FAN 用ジャンパー差します。マザーボード上に CPU FAN1 と書いてありますね

次回は、マザーボードをケースに設定してからの組み立て作業を行っていきたいと思います!


navigation

Read more

AIエージェント時代の新たな番人「ガーディアンエージェント」とは?

AIエージェント時代の新たな番人「ガーディアンエージェント」とは?

こんにちは!今日は先日ガートナーが発表したガーディアンエージェントについて解説します ガートナーの公式定義 ハイプカーブで有名なガートナーは2025年6月に、ガーディアンエージェントに関する見解を発表しました。ガーディアン・エージェントとは、AIとの安全で信頼できるやりとりを支援するために設計されたAIベースのテクノロジです。 ざっくりいうと、 「AIエージェントが来るよ」と予言したガートナー社は、次は、「ガーディアンエージェントが来るよ」と予言しました。なぜガーディアンエージェントが来るのでしょうか?本稿では、そのあたりを考察していきたいと思います。 なぜ今、AIの「監視役」が必要なのか 2025年、私たちは本格的なAIエージェント時代の入り口に立っています。AIが単なるツールから、自律的に判断し行動する「エージェント」へと進化する中で、新たな課題が浮上しています。 従来のAIとエージェント型AIの違い さて、ガーディアンエージェントが必要になる理由として、生成AI(以後AIと呼びます)の急速な進化があげられます。従来のAIとエージェント型AIの違いを思い出

By Qualiteg コンサルティング
LLM推論基盤プロビジョニング講座 第4回 推論エンジンの選定

LLM推論基盤プロビジョニング講座 第4回 推論エンジンの選定

こんにちは!前回までの講座では、LLMサービス構築に必要なリクエスト数の見積もりや、使用モデルの推論時消費メモリ計算について詳しく解説してきました。今回は7ステッププロセスの4番目、「推論エンジンの選定」について詳しく掘り下げていきます。 推論エンジンとは何か 推論エンジンとは、GPU上でLLMモデルの推論計算(テキスト生成)を効率的に行うために設計された専用のソフトウェアプログラムです。一般的なディープラーニングフレームワーク(PyTorch、TensorFlowなど)でも推論は可能ですが、実運用環境では専用の推論エンジンを使用することで、大幅なパフォーマンス向上とリソース効率化が期待できます。 推論エンジンは単なる実行環境ではなく、様々な最適化技術を実装しています。特定のモデルアーキテクチャに特化した最適化機能を実装したものや、推論速度の高速化に特化したもの、前回解説したKVキャッシュのメモリ効率化機能を備えたものなど、それぞれ特徴が異なります。そのため、自社で採用したLLMモデルや運用環境、要件に合致した推論エンジンを選定することが重要です。 推論エンジン選定のアプロ

By Qualiteg コンサルティング
発話音声からリアルなリップシンクを生成する技術 第1回:音素とwav2vec

発話音声からリアルなリップシンクを生成する技術 第1回:音素とwav2vec

こんにちは! 今日は当社のMotionVox でも実際に使っている「リップシンク」技術について総合的に解説してみたいとおもいます。 音声に合わせて自然な口の動きを生成するリップシンク技術は、AIアバターや3Dアニメーション制作においても重要な技術です。 本記事では、最新のディープラーニング技術を活用したリップシンク学習の基礎から実装まで、技術的な観点から詳しく解説します。 1. リップシンク学習の基礎概念 1.1 問題設定 リップシンク学習とは、音声データから対応する口の動きを予測する回帰問題ととらえることができます f: 音声特徴量(t) → 口の動きパラメータ(t) この問題のコアは 音韻(音の特徴)と視素(視覚的な口の形)の対応関係を学習する ことにあります。 1.2 音韻-視素マッピングの複雑性 ただし! 人間の発話における音と口の形の関係は、単純な1対1マッピングではないんです。 同じ音でも文脈で変化 「あ」の発音でも: - 「か」の後の「あ」→ 口がやや狭めから開く - 「ん」の後の「あ」→ 口が閉じた状態から大きく開く 調音結合

By Qualiteg 研究部, Qualiteg コンサルティング
LLM推論基盤プロビジョニング講座 第3回 使用モデルの推論時消費メモリ見積もり

LLM推論基盤プロビジョニング講座 第3回 使用モデルの推論時消費メモリ見積もり

こんにちは!前回はLLMサービスへのリクエスト数見積もりについて解説しました。今回は7ステッププロセスの3番目、「使用モデルの推論時消費メモリ見積もり」について詳しく掘り下げていきます。 GPUメモリがリクエスト処理能力を決定する LLMサービス構築において、GPUが同時に処理できるリクエスト数はGPUメモリの消費量によって制約されます。 つまり、利用可能なGPUメモリがどれだけあるかによって、同時に何件のリクエストを処理できるかがほぼ決まります。 では、その具体例として、Llama3 8B(80億パラメータ)モデルをNVIDIA RTX A5000(24GB)にロードするケースを考えてみましょう。 このGPUには24GBのGPUメモリがありますが、すべてをリクエスト処理に使えるわけではありません。最初にモデル自体が一定量のメモリを消費し、残りの領域で実際のリクエスト処理を行います。 GPUメモリ消費の二大要素 GPUの消費メモリ量は主に以下の2つの要素によって決まります 1. モデルのフットプリント LLMをGPUに読み込んだときに最初に消費されるメモリ

By Qualiteg コンサルティング