自作サーバー
購入ガイド 2026
NASとローカルLLM推論の両立を目指す
価格帯別・用途別の完全構成ガイド
注意: 価格は2026年2月時点の日本国内市場の参考価格です。DDR5メモリ・GPUは価格高騰中のため、購入時は最新価格をご確認ください。
🏠 なぜ自作サーバーなのか
クラウドに依存しない、自分だけのインフラを構築する意義
2026年現在、ローカルLLMの性能は急速に進化し、自宅サーバーで実用的なAI推論が可能になりました。 同時にNASとしてデータを安全に保管し、24時間稼働のホームラボを構築する需要が高まっています。 本ガイドでは「NAS + LLM推論」を1台で実現するための、価格帯別の最適構成をリサーチしてまとめました。
NAS(ネットワーク接続ストレージ)
- - ファイル共有・バックアップ
- - メディアサーバー(Plex/Jellyfin)
- - Docker コンテナホスティング
- - 写真・動画の自動バックアップ
ローカルLLM推論
- - Ollama / vLLM / llama.cpp
- - 7B〜70Bパラメータモデルの実行
- - プライバシー完全保護
- - API制限なし・月額コスト0円
📊 LLMモデルサイズとVRAM要件
モデルパラメータ数ごとに必要なGPU VRAMの目安(Q4量子化時)
| モデル | パラメータ数 | 必要VRAM (Q4) | 必要VRAM (FP16) | 推奨GPU |
|---|---|---|---|---|
| Phi-3 Mini / Gemma 2B | 2〜4B | ~3GB | ~8GB | RTX 3060 12GB |
| Llama 3.1 8B / Mistral 7B | 7〜8B | ~6GB | ~16GB | RTX 3060 12GB / RTX 4060 Ti |
| Llama 3.1 13B / CodeLlama 13B | 13B | ~10GB | ~26GB | RTX 5060 Ti 16GB / RTX 3090 |
| Mixtral 8x7B / Qwen2 32B | 32〜47B | ~20GB | ~64GB | RTX 3090 24GB / RTX 5080 |
| Llama 3.1 70B / DeepSeek V3 | 70B | ~40GB | ~140GB | RTX 3090 x2 / RTX 5090 |
⚖️ クラウド vs 自作サーバー
☁️ クラウド(API利用)
- + 初期投資不要
- + 最新モデルにすぐアクセス
- + メンテ不要
- - 月額$20〜$200+
- - データがクラウドに送信される
- - API制限あり
🏠 自作サーバー
- + ランニングコスト=電気代のみ
- + 完全なプライバシー
- + 無制限のAPI呼び出し
- + NASと併用可能
- - 初期投資が必要
- - 自分でメンテナンス
💰 価格帯別おすすめ構成
5万円以下〜100万円まで、予算に合わせた最適構成を提案
エントリーNASサーバー
Intel N100ベースの超省電力NAS。24時間稼働でも電気代は月200〜300円程度。ファイル共有・バックアップに最適。LLM推論は不可。
ハードウェア構成
| CPU | Intel N100(4コア / TDP 6W) |
| MB | ASRock N100DC-ITX(約¥18,000) |
| RAM | DDR4 8GB SO-DIMM(約¥3,000) |
| 起動 | M.2 NVMe 256GB(約¥4,000) |
| HDD | 既存HDDを流用 or 4TB x1(約¥10,000) |
| ケース | Jonsbo N2(約¥16,000) |
| 電源 | DC電源アダプタ付属 or picoPSU |
スペック概要
NAS兼ライトLLMサーバー
NASとして十分な性能を確保しつつ、7B〜8Bクラスの小型LLMを動作可能。中古GPU活用がカギ。
ハードウェア構成
| CPU | AMD Ryzen 5 5600(約¥15,000) |
| MB | B550 Micro-ATX(約¥10,000) |
| RAM | DDR4 32GB (16GBx2)(約¥8,000) |
| GPU | 中古 RTX 3060 12GB(約¥20,000) |
| 起動 | NVMe 500GB(約¥5,000) |
| HDD | 4TB HDD x2(約¥20,000) |
| ケース | Fractal Design Pop Mini(約¥10,000) |
| 電源 | 550W 80+ Bronze(約¥6,000) |
スペック概要
バランス型NAS + LLMサーバー
NASとLLM推論を本格的に両立できるスイートスポット。中古RTX 3090(24GB VRAM)の活用が最強コスパ。13B〜34Bモデルが快適動作。
| CPU | AMD Ryzen 7 5700X(約¥20,000) |
| MB | B550 ATX(約¥12,000) |
| RAM | DDR4 64GB (32GBx2)(約¥16,000) |
| GPU | 中古 RTX 3090 24GB(約¥70,000〜100,000) |
| 起動 | NVMe 1TB(約¥8,000) |
| HDD | 8TB HDD x2(約¥30,000) |
| ケース | Fractal Design Define 7(約¥18,000) |
| 電源 | 850W 80+ Gold(約¥14,000) |
| CPU | AMD Ryzen 5 7600(約¥28,000) |
| MB | B650 Micro-ATX(約¥15,000) |
| RAM | DDR5 32GB (16GBx2)(約¥16,000) |
| GPU | RTX 5060 Ti 16GB(約¥80,000〜90,000) |
| 起動 | NVMe 1TB(約¥8,000) |
| HDD | 4TB HDD x2(約¥20,000) |
| ケース | Fractal Design Pop(約¥10,000) |
| 電源 | 750W 80+ Gold(約¥12,000) |
ハイエンド NAS + LLMワークステーション
70Bクラスの大型LLMを実行可能。マルチGPU構成でプロフェッショナルレベルの推論性能を実現。
ハードウェア構成
| CPU | AMD Ryzen 9 7900X(約¥50,000) |
| MB | X670E ATX(約¥30,000) |
| RAM | DDR5 128GB (32GBx4)(約¥60,000) |
| GPU | 中古 RTX 3090 24GB x2(約¥140,000〜200,000) |
| 起動 | NVMe 2TB(約¥15,000) |
| HDD | 8TB HDD x4 (RAID)(約¥60,000) |
| ケース | Fractal Design Define 7 XL(約¥25,000) |
| 電源 | 1200W 80+ Platinum(約¥28,000) |
スペック概要
エンタープライズ級 NAS + AIワークステーション
Threadripper/Xeonクラスの本格サーバーCPUにECCメモリ、RTX 5090または複数GPUで最大級のLLMを実行。10GbEネットワーク対応の大容量NAS。
ハードウェア構成
| CPU | AMD Threadripper 7960X(約¥200,000) |
| MB | TRX50 ワークステーション(約¥80,000) |
| RAM | DDR5 ECC 256GB(約¥200,000) |
| GPU | RTX 5090 32GB(約¥350,000〜400,000) |
| 起動 | NVMe 4TB(約¥30,000) |
| HDD | 16TB HDD x4 (RAID)(約¥120,000) |
| ケース | Fractal Design Define 7 XL(約¥25,000) |
| 電源 | 1600W 80+ Titanium(約¥45,000) |
| NIC | 10GbE カード(約¥15,000) |
スペック概要
価格帯別スペック比較
| 項目 | ~5万 | ~10万 | ~20万 | ~50万 | ~100万 |
|---|---|---|---|---|---|
| NAS | OK | 良好 | 優秀 | 高性能 | 最高 |
| LLMモデル | - | 7B | 13B〜34B | 70B | 70B+ |
| VRAM | - | 12GB | 16〜24GB | 48GB | 32GB+ |
| 電気代/月 | ¥300 | ¥1,500 | ¥3,000 | ¥7,000 | ¥10,000 |
| 消費電力 | 15W | 100W | 200W | 500W | 600W |
💾 NAS用途別ガイド
用途に応じたNASの構成とストレージ設計
自作NAS vs 既製品NAS比較
🔧 自作NAS
- + GPUを追加してLLMと兼用可能
- + パーツ交換・拡張が自由
- + Proxmox等で仮想化環境も構築
- + 同価格帯でより高性能
- - セットアップに知識が必要
- - ソフトウェア設定が手動
📦 既製品NAS(Synology/QNAP)
- + DSM/QTSのGUIが直感的
- + スマホアプリ連携が充実
- + メーカーサポートあり
- - GPU非搭載(LLM不可)
- - 拡張性に制限
- - 同性能で割高
RAID構成ガイド
RAID 1(ミラーリング)
2台のHDDに同一データを書き込み。1台故障してもデータ安全。容量効率50%。2ベイNASに最適。
RAID 5(パリティ分散)
3台以上で運用。1台故障に耐性。容量効率 (N-1)/N。4ベイ以上のNASに推奨。読み込み速度も向上。
RAID 6 / RAIDZ2
4台以上で運用。2台同時故障に耐性。容量効率 (N-2)/N。大容量NASやエンタープライズ向け。
NAS用HDD推奨モデル(2026年2月時点)
| モデル | 容量 | 回転数 | 参考価格 | 特徴 |
|---|---|---|---|---|
| WD Red Plus | 4TB | 5400rpm | 約¥10,000 | NAS定番・CMR・静音 |
| Seagate IronWolf | 8TB | 7200rpm | 約¥18,000 | 高耐久・振動センサー |
| WD Red Pro | 16TB | 7200rpm | 約¥40,000 | 高負荷対応・5年保証 |
| Seagate Exos X18 | 18TB | 7200rpm | 約¥45,000 | エンタープライズ・高耐久 |
🤖 ローカルLLM推論ガイド
自宅サーバーでLLMを動かすために必要な知識
最重要: VRAMが全てを決める
LLM推論において最も重要なのはGPUのVRAM(ビデオメモリ)容量です。 モデルの重みをVRAMに完全にロードできれば高速推論が可能。 VRAMに収まらない場合はCPU/RAMにオフロードされ、速度が10〜50倍低下します。
日常会話・コード補助
高品質な回答
GPT-4級の性能
量子化(Quantization)とは
モデルの重みデータを圧縮してVRAM使用量を削減する技術。品質と速度のトレードオフ。
マルチGPU構成のポイント
Tensor Parallelism(TP)
モデルの各レイヤーを複数GPUに分割。GPU間通信が高速なNVLink対応が理想だが、 PCIe 4.0でも実用的に動作する。vLLMとExLlamaV2がTPに対応。
Pipeline Parallelism / Layer Offload
モデルのレイヤーを順番にGPUに割り当て。Ollamaとllama.cppはこの方式。 異なるGPU混在でもOK。VRAMに入りきらないレイヤーはCPU/RAMにオフロード可能。
用途別LLM推奨構成
チャットボット・日常会話
推奨: 7B〜8Bモデル / VRAM 12GB / Ollama + Open WebUI
コーディングアシスタント
推奨: CodeLlama 13B〜34B / VRAM 24GB / Continue.dev連携
文書要約・翻訳
推奨: 13B以上 / コンテキスト長を重視 / RAG構成が効果的
社内API・複数人同時利用
推奨: 70Bモデル / VRAM 48GB+ / vLLMでバッチ処理最適化
🎮 GPU比較ガイド(2026年2月時点)
LLM推論に最適なGPUを価格・性能・VRAM容量で比較
| GPU | VRAM | メモリ帯域 | TDP | 参考価格 | コスパ |
|---|---|---|---|---|---|
| RTX 3060 12GB(中古) | 12GB GDDR6 | 360 GB/s | 170W | ¥20,000〜 | 最高 |
| RTX 3090 24GB(中古) | 24GB GDDR6X | 936 GB/s | 350W | ¥70,000〜100,000 | BEST |
| RTX 5060 Ti 16GB(新品) | 16GB GDDR7 | 896 GB/s | 150W | ¥80,000〜90,000 | 良好 |
| RTX 5070 Ti 16GB(新品) | 16GB GDDR7 | 896 GB/s | 300W | ¥140,000〜 | 普通 |
| RTX 5080 16GB(新品) | 16GB GDDR7 | 960 GB/s | 360W | ¥180,000〜 | 普通 |
| RTX 5090 32GB(新品) | 32GB GDDR7 | 1792 GB/s | 575W | ¥350,000〜400,000 | 低い |
GPU選びの鉄則
CUDA性能よりVRAM容量の方がLLM推論では圧倒的に重要。RTX 5080 (16GB) よりRTX 3090 (24GB) の方がLLM用途では有利。
24GB VRAMが¥70,000〜で手に入る。新品の同価格帯GPUは16GBまで。メルカリ・ヤフオクで多数出品中。
GDDR7の高帯域(896 GB/s)で推論速度は優秀。省電力(150W)で24時間稼働に向く。ただしVRAMは16GBまで。
vLLMのTensor Parallelismは同一GPUが前提。異種GPUならOllamaのLayer Offloadで対応可能。
2026年2月 GPU市場の状況
- - RTX 50シリーズは品薄が続き、特にRTX 5060 Ti 16GBは一時生産停止の噂あり
- - RTX 40シリーズ(4070 Ti等)は新品市場からほぼ消滅
- - DDR5メモリは2025年比で2〜3倍の価格高騰中
- - 中古RTX 3090は相場が安定しており、LLM用として根強い人気
🖥️ ソフトウェアガイド
NAS OS・LLM推論エンジン・仮想化プラットフォームの比較
サーバーOS比較
Proxmox VE
推奨Debian系の仮想化プラットフォーム。VM + LXCコンテナでNASもLLMも1台で管理。GPU パススルー対応。
- + NAS/LLMを別VMで分離運用可能
- + Web UIで管理が簡単
- + GPU パススルー対応
- + スナップショット・バックアップ
- - 学習コストがやや高い
Ubuntu Server
最もシンプルな選択肢。Docker Composeで全てコンテナ管理。NVIDIA Driverのセットアップが容易。
- + セットアップが簡単
- + NVIDIA公式ドライバ対応
- + Docker/Composeで管理
- + 情報が豊富
- - NAS機能は自分で構築
TrueNAS Scale
ZFSベースの本格NAS OS(Linux版)。NASとしては最強だが、GPU推論との併用はやや複雑。
- + ZFSで最高のデータ保護
- + SMB/NFS/iSCSI標準対応
- + Web UIが充実
- - GPU関連の設定が限定的
- - カスタマイズ性が低い
Unraid
NAS + VM + Dockerを統合管理。GPUパススルーにも対応。コミュニティプラグインが豊富。有料。
- + NAS/VM/Dockerが統合Web UI
- + GPU パススルー対応
- + Community Appsが便利
- - 有料($59〜$129)
- - パリティ再構築が遅い
LLM推論エンジン比較
Ollama
初心者推奨最も簡単にLLMを動かせるツール。Dockerのようにモデルをpullして即実行。 シングルGPUなら最適解。Open WebUIと組み合わせてChatGPTライクなUIも構築可能。
ollama run llama3.1:8b で即実行vLLM
パフォーマンス最強マルチGPU性能が最高。PagedAttentionでメモリ効率50%以上改善。 バッチ処理でスループットが2〜4倍。本番環境向け。
llama.cpp
柔軟性最高CPU/GPU混合推論の王者。VRAMが足りない場合にCPUにレイヤーをオフロード可能。 GGUFフォーマット対応で量子化モデルが豊富。
Claude推奨ソフトウェアスタック
🏆 Claude Opus 4.6 の推奨構成
2026年2月17日時点のリサーチに基づく、Claudeの最終推奨
最強コスパ構成:20万円クラス
NAS + LLM推論を両立するベストバランス
推奨構成(合計: 約¥190,000)
| CPU | AMD Ryzen 7 5700X | ¥20,000 |
| MB | B550 ATX (ASUS TUF等) | ¥12,000 |
| RAM | DDR4 64GB (32GBx2) | ¥16,000 |
| GPU | 中古 RTX 3090 24GB | ¥80,000 |
| SSD | NVMe 1TB (起動+キャッシュ) | ¥8,000 |
| HDD | WD Red Plus 8TB x2 | ¥30,000 |
| ケース | Fractal Design Define 7 | ¥18,000 |
| 電源 | 850W 80+ Gold | ¥14,000 |
この構成を推す理由
- 1. 中古RTX 3090の24GB VRAMは、同価格帯で唯一の大容量VRAM選択肢
- 2. 13B〜34Bモデル(Q4)が完全にVRAMに収まる=高速推論
- 3. AM4プラットフォームは枯れて安定・パーツが安い
- 4. DDR4 64GBで十分なシステムメモリ(LLMオフロードも可能)
- 5. 16TB NAS(RAID 1)でデータ保護も万全
- 6. Define 7は静音性と拡張性のバランスが優秀
推奨ソフトウェア
- OS: Proxmox VE 8.x or Ubuntu Server 24.04
- LLM: Ollama + Open WebUI
- NAS: OpenMediaVault or Samba直接設定
- 監視: Grafana + node_exporter
用途別の推奨
NAS専用(LLM不要)の場合
推奨予算: ¥35,000〜50,000Intel N100ベースが最適解。消費電力10〜15Wで電気代は月300円以下。 ファイル共有・バックアップ・メディアサーバーに十分。Jonsbo N2ケースで最大5ベイ搭載可能。 Synology DS224+(約¥43,000)も手軽な代替案。
LLM推論専用(NAS不要)の場合
推奨予算: ¥100,000〜200,000中古RTX 3090に全予算を集中。残りは最小限のCPU/RAM/SSDで構成。 HDDは不要。NVMe 1TBの起動ドライブのみで十分。
将来の拡張を見越す場合
推奨予算: ¥300,000〜500,000AM5プラットフォーム (Ryzen 7 7700X + B650E) で構築。DDR5 64GBスタートで後から128GBに増設可能。 GPU は中古 RTX 3090 x1 からスタートし、将来2枚目を追加してマルチGPU化。 電源は最初から1000W以上を選んでおくのがポイント。
購入時のアドバイス
中古GPUの買い方
- - メルカリ・ヤフオクで「RTX 3090」検索
- - 相場: ¥70,000〜100,000(2026年2月)
- - マイニング落ちは避ける(発熱で劣化リスク)
- - じゃんぱら・PC工房の中古保証付きが安心
パーツ購入先
- - Amazon.co.jp(新品パーツ全般)
- - ツクモ・ドスパラ(専門店の安心感)
- - AliExpress(N100マザー等の中華パーツ)
- - 価格.comで最安値チェック必須
Claudeからのまとめ
2026年現在、NAS + LLM推論の最強コスパは「20万円クラス+中古RTX 3090」です。 24GB VRAMは他の追随を許さないアドバンテージ。 まずはOllamaで7B〜13Bモデルから始めて、慣れたら34Bモデルに挑戦してみてください。 自作サーバーは一度構築すれば、クラウドAPI代が毎月ゼロ円になる最高の投資です。