さとまたwiki
🖥️ ハードウェア研究

自作サーバー
購入ガイド 2026

NASとローカルLLM推論の両立を目指す
価格帯別・用途別の完全構成ガイド

2026年2月17日 作成 | Claude Opus 4.6 によるリサーチ

注意: 価格は2026年2月時点の日本国内市場の参考価格です。DDR5メモリ・GPUは価格高騰中のため、購入時は最新価格をご確認ください。

🏠 なぜ自作サーバーなのか

クラウドに依存しない、自分だけのインフラを構築する意義

2026年現在、ローカルLLMの性能は急速に進化し、自宅サーバーで実用的なAI推論が可能になりました。 同時にNASとしてデータを安全に保管し、24時間稼働のホームラボを構築する需要が高まっています。 本ガイドでは「NAS + LLM推論」を1台で実現するための、価格帯別の最適構成をリサーチしてまとめました。

💾

NAS(ネットワーク接続ストレージ)

  • - ファイル共有・バックアップ
  • - メディアサーバー(Plex/Jellyfin)
  • - Docker コンテナホスティング
  • - 写真・動画の自動バックアップ
🤖

ローカルLLM推論

  • - Ollama / vLLM / llama.cpp
  • - 7B〜70Bパラメータモデルの実行
  • - プライバシー完全保護
  • - API制限なし・月額コスト0円

📊 LLMモデルサイズとVRAM要件

モデルパラメータ数ごとに必要なGPU VRAMの目安(Q4量子化時)

モデルパラメータ数必要VRAM (Q4)必要VRAM (FP16)推奨GPU
Phi-3 Mini / Gemma 2B2〜4B~3GB~8GBRTX 3060 12GB
Llama 3.1 8B / Mistral 7B7〜8B~6GB~16GBRTX 3060 12GB / RTX 4060 Ti
Llama 3.1 13B / CodeLlama 13B13B~10GB~26GBRTX 5060 Ti 16GB / RTX 3090
Mixtral 8x7B / Qwen2 32B32〜47B~20GB~64GBRTX 3090 24GB / RTX 5080
Llama 3.1 70B / DeepSeek V370B~40GB~140GBRTX 3090 x2 / RTX 5090

⚖️ クラウド vs 自作サーバー

☁️ クラウド(API利用)

  • + 初期投資不要
  • + 最新モデルにすぐアクセス
  • + メンテ不要
  • - 月額$20〜$200+
  • - データがクラウドに送信される
  • - API制限あり

🏠 自作サーバー

  • + ランニングコスト=電気代のみ
  • + 完全なプライバシー
  • + 無制限のAPI呼び出し
  • + NASと併用可能
  • - 初期投資が必要
  • - 自分でメンテナンス

💰 価格帯別おすすめ構成

5万円以下〜100万円まで、予算に合わせた最適構成を提案

5万円以下 NAS専用・省電力構成

エントリーNASサーバー

Intel N100ベースの超省電力NAS。24時間稼働でも電気代は月200〜300円程度。ファイル共有・バックアップに最適。LLM推論は不可。

ハードウェア構成

CPUIntel N100(4コア / TDP 6W)
MBASRock N100DC-ITX(約¥18,000)
RAMDDR4 8GB SO-DIMM(約¥3,000)
起動M.2 NVMe 256GB(約¥4,000)
HDD既存HDDを流用 or 4TB x1(約¥10,000)
ケースJonsbo N2(約¥16,000)
電源DC電源アダプタ付属 or picoPSU

スペック概要

消費電力10〜15W
電気代/月約¥200〜300
NAS性能十分
LLM推論不可
合計費用約¥35,000〜50,000
代替案: CWWK/Topton製N100マザー(AliExpress約¥15,000)でさらにコスト削減可能
10万円クラス NAS + 小型LLM入門

NAS兼ライトLLMサーバー

NASとして十分な性能を確保しつつ、7B〜8Bクラスの小型LLMを動作可能。中古GPU活用がカギ。

ハードウェア構成

CPUAMD Ryzen 5 5600(約¥15,000)
MBB550 Micro-ATX(約¥10,000)
RAMDDR4 32GB (16GBx2)(約¥8,000)
GPU中古 RTX 3060 12GB(約¥20,000)
起動NVMe 500GB(約¥5,000)
HDD4TB HDD x2(約¥20,000)
ケースFractal Design Pop Mini(約¥10,000)
電源550W 80+ Bronze(約¥6,000)

スペック概要

消費電力50〜120W
電気代/月約¥1,000〜2,000
NAS性能良好
LLM推論7B〜8Bモデル
VRAM12GB GDDR6
合計費用約¥94,000
Llama 3.1 8B / Mistral 7B / Gemma 9B が快適に動作。Ollamaで簡単セットアップ。
20万円クラス NAS + 本格LLM推論 コスパ最強

バランス型NAS + LLMサーバー

NASとLLM推論を本格的に両立できるスイートスポット。中古RTX 3090(24GB VRAM)の活用が最強コスパ。13B〜34Bモデルが快適動作。

推奨 A 中古 RTX 3090 構成(VRAM重視)
CPUAMD Ryzen 7 5700X(約¥20,000)
MBB550 ATX(約¥12,000)
RAMDDR4 64GB (32GBx2)(約¥16,000)
GPU中古 RTX 3090 24GB(約¥70,000〜100,000)
起動NVMe 1TB(約¥8,000)
HDD8TB HDD x2(約¥30,000)
ケースFractal Design Define 7(約¥18,000)
電源850W 80+ Gold(約¥14,000)
消費電力100〜350W
電気代/月約¥2,000〜5,000
NAS性能優秀
LLM推論13B〜34B
VRAM24GB GDDR6X
合計費用約¥190,000
24GB VRAMで34Bモデルまで対応。メルカリ/ヤフオクで¥70,000〜入手可能。コスパ最強の選択肢。
推奨 B 新品 RTX 5060 Ti 16GB 構成(省電力・新品保証重視)
CPUAMD Ryzen 5 7600(約¥28,000)
MBB650 Micro-ATX(約¥15,000)
RAMDDR5 32GB (16GBx2)(約¥16,000)
GPURTX 5060 Ti 16GB(約¥80,000〜90,000)
起動NVMe 1TB(約¥8,000)
HDD4TB HDD x2(約¥20,000)
ケースFractal Design Pop(約¥10,000)
電源750W 80+ Gold(約¥12,000)
消費電力80〜200W
LLM推論7B〜13B
VRAM16GB GDDR7
合計費用約¥189,000
GDDR7搭載の最新世代。帯域896GB/sで推論速度に優れるが、VRAMは16GBのためモデルサイズ制限あり。
50万円クラス 大容量NAS + 大型LLM

ハイエンド NAS + LLMワークステーション

70Bクラスの大型LLMを実行可能。マルチGPU構成でプロフェッショナルレベルの推論性能を実現。

ハードウェア構成

CPUAMD Ryzen 9 7900X(約¥50,000)
MBX670E ATX(約¥30,000)
RAMDDR5 128GB (32GBx4)(約¥60,000)
GPU中古 RTX 3090 24GB x2(約¥140,000〜200,000)
起動NVMe 2TB(約¥15,000)
HDD8TB HDD x4 (RAID)(約¥60,000)
ケースFractal Design Define 7 XL(約¥25,000)
電源1200W 80+ Platinum(約¥28,000)

スペック概要

消費電力200〜700W
電気代/月約¥4,000〜10,000
NAS容量最大32TB (RAID5)
LLM推論70Bモデル対応
総VRAM48GB(24GB x2)
合計費用約¥410,000〜470,000
マルチGPU時はvLLMのTensor Parallelismが最も高速。Llama 3.1 70B (Q4)が実用的に動作。
100万円クラス プロフェッショナル・サーバー

エンタープライズ級 NAS + AIワークステーション

Threadripper/Xeonクラスの本格サーバーCPUにECCメモリ、RTX 5090または複数GPUで最大級のLLMを実行。10GbEネットワーク対応の大容量NAS。

ハードウェア構成

CPUAMD Threadripper 7960X(約¥200,000)
MBTRX50 ワークステーション(約¥80,000)
RAMDDR5 ECC 256GB(約¥200,000)
GPURTX 5090 32GB(約¥350,000〜400,000)
起動NVMe 4TB(約¥30,000)
HDD16TB HDD x4 (RAID)(約¥120,000)
ケースFractal Design Define 7 XL(約¥25,000)
電源1600W 80+ Titanium(約¥45,000)
NIC10GbE カード(約¥15,000)

スペック概要

消費電力300〜900W
電気代/月約¥6,000〜15,000
NAS容量最大48TB (RAID5)
LLM推論70B+ FP16も可
VRAM32GB GDDR7
PCIeレーン128レーン
合計費用約¥900,000〜1,000,000
Threadripperの128 PCIeレーンでマルチGPU拡張も容易。将来的にGPU追加で更なるスケールが可能。

価格帯別スペック比較

項目~5万~10万~20万~50万~100万
NASOK良好優秀高性能最高
LLMモデル-7B13B〜34B70B70B+
VRAM-12GB16〜24GB48GB32GB+
電気代/月¥300¥1,500¥3,000¥7,000¥10,000
消費電力15W100W200W500W600W

💾 NAS用途別ガイド

用途に応じたNASの構成とストレージ設計

自作NAS vs 既製品NAS比較

🔧 自作NAS

  • + GPUを追加してLLMと兼用可能
  • + パーツ交換・拡張が自由
  • + Proxmox等で仮想化環境も構築
  • + 同価格帯でより高性能
  • - セットアップに知識が必要
  • - ソフトウェア設定が手動

📦 既製品NAS(Synology/QNAP)

  • + DSM/QTSのGUIが直感的
  • + スマホアプリ連携が充実
  • + メーカーサポートあり
  • - GPU非搭載(LLM不可)
  • - 拡張性に制限
  • - 同性能で割高
参考価格: Synology DS224+ 約¥43,000(2ベイ)/ DS423+ 約¥76,000(4ベイ)

RAID構成ガイド

初心者向け

RAID 1(ミラーリング)

2台のHDDに同一データを書き込み。1台故障してもデータ安全。容量効率50%。2ベイNASに最適。

バランス型

RAID 5(パリティ分散)

3台以上で運用。1台故障に耐性。容量効率 (N-1)/N。4ベイ以上のNASに推奨。読み込み速度も向上。

高信頼性

RAID 6 / RAIDZ2

4台以上で運用。2台同時故障に耐性。容量効率 (N-2)/N。大容量NASやエンタープライズ向け。

NAS用HDD推奨モデル(2026年2月時点)

モデル容量回転数参考価格特徴
WD Red Plus4TB5400rpm約¥10,000NAS定番・CMR・静音
Seagate IronWolf8TB7200rpm約¥18,000高耐久・振動センサー
WD Red Pro16TB7200rpm約¥40,000高負荷対応・5年保証
Seagate Exos X1818TB7200rpm約¥45,000エンタープライズ・高耐久

🤖 ローカルLLM推論ガイド

自宅サーバーでLLMを動かすために必要な知識

最重要: VRAMが全てを決める

LLM推論において最も重要なのはGPUのVRAM(ビデオメモリ)容量です。 モデルの重みをVRAMに完全にロードできれば高速推論が可能。 VRAMに収まらない場合はCPU/RAMにオフロードされ、速度が10〜50倍低下します。

12〜16GB
入門レベル
7B〜13Bモデル
日常会話・コード補助
24GB
スイートスポット
13B〜34Bモデル
高品質な回答
48GB+
プロフェッショナル
70Bモデル
GPT-4級の性能

量子化(Quantization)とは

モデルの重みデータを圧縮してVRAM使用量を削減する技術。品質と速度のトレードオフ。

FP16
無圧縮(16bit浮動小数点)
最高品質・VRAM消費最大。モデルサイズ = パラメータ数 x 2 bytes
Q8
8bit量子化
品質ほぼ無劣化。VRAM約50%削減。精度を求めるならこれ
Q4
4bit量子化(推奨)
品質と速度のベストバランス。VRAM約75%削減。多くの用途で十分
Q2
2bit量子化
最小VRAM。品質低下あり。VRAM不足時の最終手段

マルチGPU構成のポイント

Tensor Parallelism(TP)

モデルの各レイヤーを複数GPUに分割。GPU間通信が高速なNVLink対応が理想だが、 PCIe 4.0でも実用的に動作する。vLLMとExLlamaV2がTPに対応。

推奨: 同一モデルのGPUを揃えること(例: RTX 3090 x2)

Pipeline Parallelism / Layer Offload

モデルのレイヤーを順番にGPUに割り当て。Ollamaとllama.cppはこの方式。 異なるGPU混在でもOK。VRAMに入りきらないレイヤーはCPU/RAMにオフロード可能。

参考: VRAM 8GB x3枚で30Bモデルの実行実績あり

用途別LLM推奨構成

💬

チャットボット・日常会話

推奨: 7B〜8Bモデル / VRAM 12GB / Ollama + Open WebUI

💻

コーディングアシスタント

推奨: CodeLlama 13B〜34B / VRAM 24GB / Continue.dev連携

📄

文書要約・翻訳

推奨: 13B以上 / コンテキスト長を重視 / RAG構成が効果的

🏢

社内API・複数人同時利用

推奨: 70Bモデル / VRAM 48GB+ / vLLMでバッチ処理最適化

🎮 GPU比較ガイド(2026年2月時点)

LLM推論に最適なGPUを価格・性能・VRAM容量で比較

GPUVRAMメモリ帯域TDP参考価格コスパ
RTX 3060 12GB(中古)12GB GDDR6360 GB/s170W¥20,000〜最高
RTX 3090 24GB(中古)24GB GDDR6X936 GB/s350W¥70,000〜100,000BEST
RTX 5060 Ti 16GB(新品)16GB GDDR7896 GB/s150W¥80,000〜90,000良好
RTX 5070 Ti 16GB(新品)16GB GDDR7896 GB/s300W¥140,000〜普通
RTX 5080 16GB(新品)16GB GDDR7960 GB/s360W¥180,000〜普通
RTX 5090 32GB(新品)32GB GDDR71792 GB/s575W¥350,000〜400,000低い

GPU選びの鉄則

1.
VRAMを最優先で選ぶ

CUDA性能よりVRAM容量の方がLLM推論では圧倒的に重要。RTX 5080 (16GB) よりRTX 3090 (24GB) の方がLLM用途では有利。

2.
中古RTX 3090が最強コスパ

24GB VRAMが¥70,000〜で手に入る。新品の同価格帯GPUは16GBまで。メルカリ・ヤフオクで多数出品中。

3.
新品が欲しいならRTX 5060 Ti 16GB

GDDR7の高帯域(896 GB/s)で推論速度は優秀。省電力(150W)で24時間稼働に向く。ただしVRAMは16GBまで。

4.
マルチGPUは同一モデルで揃える

vLLMのTensor Parallelismは同一GPUが前提。異種GPUならOllamaのLayer Offloadで対応可能。

2026年2月 GPU市場の状況

  • - RTX 50シリーズは品薄が続き、特にRTX 5060 Ti 16GBは一時生産停止の噂あり
  • - RTX 40シリーズ(4070 Ti等)は新品市場からほぼ消滅
  • - DDR5メモリは2025年比で2〜3倍の価格高騰中
  • - 中古RTX 3090は相場が安定しており、LLM用として根強い人気

🖥️ ソフトウェアガイド

NAS OS・LLM推論エンジン・仮想化プラットフォームの比較

サーバーOS比較

🟢

Proxmox VE

推奨

Debian系の仮想化プラットフォーム。VM + LXCコンテナでNASもLLMも1台で管理。GPU パススルー対応。

  • + NAS/LLMを別VMで分離運用可能
  • + Web UIで管理が簡単
  • + GPU パススルー対応
  • + スナップショット・バックアップ
  • - 学習コストがやや高い
🐧

Ubuntu Server

最もシンプルな選択肢。Docker Composeで全てコンテナ管理。NVIDIA Driverのセットアップが容易。

  • + セットアップが簡単
  • + NVIDIA公式ドライバ対応
  • + Docker/Composeで管理
  • + 情報が豊富
  • - NAS機能は自分で構築
📦

TrueNAS Scale

ZFSベースの本格NAS OS(Linux版)。NASとしては最強だが、GPU推論との併用はやや複雑。

  • + ZFSで最高のデータ保護
  • + SMB/NFS/iSCSI標準対応
  • + Web UIが充実
  • - GPU関連の設定が限定的
  • - カスタマイズ性が低い
🔓

Unraid

NAS + VM + Dockerを統合管理。GPUパススルーにも対応。コミュニティプラグインが豊富。有料。

  • + NAS/VM/Dockerが統合Web UI
  • + GPU パススルー対応
  • + Community Appsが便利
  • - 有料($59〜$129)
  • - パリティ再構築が遅い

LLM推論エンジン比較

Ollama

初心者推奨

最も簡単にLLMを動かせるツール。Dockerのようにモデルをpullして即実行。 シングルGPUなら最適解。Open WebUIと組み合わせてChatGPTライクなUIも構築可能。

ollama run llama3.1:8b で即実行

vLLM

パフォーマンス最強

マルチGPU性能が最高。PagedAttentionでメモリ効率50%以上改善。 バッチ処理でスループットが2〜4倍。本番環境向け。

Tensor Parallelism対応。複数人同時利用のAPIサーバーに最適。

llama.cpp

柔軟性最高

CPU/GPU混合推論の王者。VRAMが足りない場合にCPUにレイヤーをオフロード可能。 GGUFフォーマット対応で量子化モデルが豊富。

VRAM不足でもCPU RAM活用で大型モデルを動作可能(速度は低下)。

Claude推奨ソフトウェアスタック

OS Proxmox VE 8.x(NAS VM + LLM VM で分離運用)
NAS TrueNAS Scale(Proxmox上のVM) or OpenMediaVault
LLM Ollama + Open WebUI(Docker Compose / GPU パススルー)
メディア Jellyfin(動画/音楽ストリーミング)
写真 Immich(Googleフォト代替・AI顔認識付き)
監視 Grafana + Prometheus(サーバー状態モニタリング)

🏆 Claude Opus 4.6 の推奨構成

2026年2月17日時点のリサーチに基づく、Claudeの最終推奨

🥇

最強コスパ構成:20万円クラス

NAS + LLM推論を両立するベストバランス

推奨構成(合計: 約¥190,000)

CPUAMD Ryzen 7 5700X¥20,000
MBB550 ATX (ASUS TUF等)¥12,000
RAMDDR4 64GB (32GBx2)¥16,000
GPU中古 RTX 3090 24GB¥80,000
SSDNVMe 1TB (起動+キャッシュ)¥8,000
HDDWD Red Plus 8TB x2¥30,000
ケースFractal Design Define 7¥18,000
電源850W 80+ Gold¥14,000
この構成を推す理由
  • 1. 中古RTX 3090の24GB VRAMは、同価格帯で唯一の大容量VRAM選択肢
  • 2. 13B〜34Bモデル(Q4)が完全にVRAMに収まる=高速推論
  • 3. AM4プラットフォームは枯れて安定・パーツが安い
  • 4. DDR4 64GBで十分なシステムメモリ(LLMオフロードも可能)
  • 5. 16TB NAS(RAID 1)でデータ保護も万全
  • 6. Define 7は静音性と拡張性のバランスが優秀
推奨ソフトウェア
  • OS: Proxmox VE 8.x or Ubuntu Server 24.04
  • LLM: Ollama + Open WebUI
  • NAS: OpenMediaVault or Samba直接設定
  • 監視: Grafana + node_exporter

用途別の推奨

💾

NAS専用(LLM不要)の場合

推奨予算: ¥35,000〜50,000

Intel N100ベースが最適解。消費電力10〜15Wで電気代は月300円以下。 ファイル共有・バックアップ・メディアサーバーに十分。Jonsbo N2ケースで最大5ベイ搭載可能。 Synology DS224+(約¥43,000)も手軽な代替案。

🤖

LLM推論専用(NAS不要)の場合

推奨予算: ¥100,000〜200,000

中古RTX 3090に全予算を集中。残りは最小限のCPU/RAM/SSDで構成。 HDDは不要。NVMe 1TBの起動ドライブのみで十分。

🚀

将来の拡張を見越す場合

推奨予算: ¥300,000〜500,000

AM5プラットフォーム (Ryzen 7 7700X + B650E) で構築。DDR5 64GBスタートで後から128GBに増設可能。 GPU は中古 RTX 3090 x1 からスタートし、将来2枚目を追加してマルチGPU化。 電源は最初から1000W以上を選んでおくのがポイント。

購入時のアドバイス

中古GPUの買い方

  • - メルカリ・ヤフオクで「RTX 3090」検索
  • - 相場: ¥70,000〜100,000(2026年2月)
  • - マイニング落ちは避ける(発熱で劣化リスク)
  • - じゃんぱら・PC工房の中古保証付きが安心

パーツ購入先

  • - Amazon.co.jp(新品パーツ全般)
  • - ツクモ・ドスパラ(専門店の安心感)
  • - AliExpress(N100マザー等の中華パーツ)
  • - 価格.comで最安値チェック必須
🎯

Claudeからのまとめ

2026年現在、NAS + LLM推論の最強コスパは「20万円クラス+中古RTX 3090」です。 24GB VRAMは他の追随を許さないアドバンテージ。 まずはOllamaで7B〜13Bモデルから始めて、慣れたら34Bモデルに挑戦してみてください。 自作サーバーは一度構築すれば、クラウドAPI代が毎月ゼロ円になる最高の投資です。

データソース: 価格.com, Amazon.co.jp, NVIDIA, AMD, Intel 各公式サイト

Claude Opus 4.6作成