OpenClawとローカルLLMの関係 — なぜMacが選ばれるのか
OpenClawはローカル環境で動作するAIエージェントフレームワークです。ChatGPTなどのクラウドAPIに依存せず、自分のマシン上でLLM(大規模言語モデル)を動かすことで、プライバシーの保護・低コスト・低レイテンシを同時に実現できます。
そのOpenClawを快適に動かすにあたって、現在最も多く選ばれているのがApple Silicon搭載のMac miniおよびMac Studioです。その理由は、Apple SiliconのUnified Memory(統合メモリ)アーキテクチャにあります。
従来のPC(Intel/AMD + Nvidia GPU構成)では、CPUメモリとGPUメモリは物理的に分離しており、LLMの推論にはGPUメモリ(VRAM)が用いられます。NvidiaのRTX 4090でもVRAMは24GBが上限のため、70Bクラスのモデルは量子化しても動作させるのが困難でした。
一方、Apple SiliconはCPUとGPUが同一のメモリプールを共有します。Mac Studio M2 Ultraなら最大192GBのUnified Memoryを搭載でき、量子化なしの70Bモデルすら余裕で動作します。さらに消費電力はNvidia GPU搭載機の数分の一で済み、ファンノイズも最小限です。これがエンジニアがMacを選ぶ最大の理由です。
推奨スペック一覧表 — モデルサイズ別に必要なチップ・メモリ・ストレージ
以下の表は、Ollama / LM Studio / OpenClawで動かすモデルサイズごとの推奨スペックをまとめたものです。「最低」は動作するが遅い構成、「推奨」は実用的な速度が出る構成です。
| モデルサイズ | 代表モデル | 最低メモリ | 推奨メモリ | 推奨チップ | 最低ストレージ |
|---|---|---|---|---|---|
| 3B〜7B | Gemma 3、Qwen2.5-7B、Mistral-7B | 8GB | 16GB | M1 / M2 | 256GB |
| 13B | Llama-3.1-13B、Phi-4 | 16GB | 24GB | M2 / M2 Pro | 512GB |
| 30B〜34B | Llama-3-70B-Q4、Qwen2.5-32B | 32GB | 48GB | M2 Pro / M1 Max | 512GB |
| 70B | Llama-3.1-70B、Qwen2.5-72B | 64GB | 96GB以上 | M2 Max / M2 Ultra | 1TB以上 |
| 405B+ | Llama-3.1-405B | 128GB | 192GB | M2 Ultra / M4 Max | 2TB以上 |
OpenClawは複数のモデルを並列で呼び出すマルチエージェント構成が得意です。そのため、単一モデルの動作に必要なメモリよりも多めに確保しておくと快適に使えます。
チップ別の実測パフォーマンス — M1 vs M2 vs M4のトークン生成速度比較
ローカルLLMの実用性を左右するのは「1秒あたりに生成できるトークン数(tokens/sec)」です。人間が読めるスピードは約15〜20トークン/秒と言われており、これを下回ると体感的にストレスを感じます。以下はLlama-3.1-8B(Q4_K_M量子化)を用いた場合の実測値の目安です。
| チップ | メモリ帯域幅 | 8B Q4_K_M (tokens/sec) | 70B Q4_K_M (tokens/sec) |
|---|---|---|---|
| M1 | 68.25 GB/s | 約28 | 動作不可(メモリ不足) |
| M1 Pro | 200 GB/s | 約55 | 動作不可(メモリ不足) |
| M1 Max | 400 GB/s | 約95 | 約8(64GB時) |
| M2 | 100 GB/s | 約38 | 動作不可(メモリ不足) |
| M2 Pro | 200 GB/s | 約62 | 動作不可(32GBメモリ上限) |
| M2 Max | 400 GB/s | 約110 | 約12(96GB時) |
| M2 Ultra | 800 GB/s | 約180 | 約22(192GB時) |
| M4 | 120 GB/s | 約55 | 動作不可(メモリ不足) |
| M4 Pro | 273 GB/s | 約90 | 約10(64GB時) |
| M4 Max | 546 GB/s | 約160 | 約20(128GB時) |
重要なのはチップの世代よりもメモリ帯域幅です。M2より新しいM4でも、Pro/Max/Ultraグレードでないベースモデルは帯域幅が低いため、LLM推論速度はM1 Maxに劣ることもあります。
メモリの重要性 — Unified Memoryの仕組みとGPUメモリとの関係
ローカルLLMの推論速度を決定する最大の要素は「メモリ帯域幅」です。モデルの重みデータはメモリに展開され、推論のたびにこのデータが読み出されます。帯域幅が広いほど速く読み出せるため、トークン生成速度が上がります。
Apple SiliconのUnified Memoryは、CPUとGPUが同じメモリ空間を使うため、システムのRAMがそのままGPUのVRAMとして機能します。つまり「メモリ64GB」のMacは、VRAMが64GBのGPUに相当する能力を持ちます。これはNvidiaの最高級GPU(RTX 4090のVRAM 24GB)を大きく上回ります。
Ollamaは搭載メモリの量を自動認識し、可能な限り大きなモデルをGPUで処理しようとします。メモリが不足した場合はCPUで処理されますが、この場合速度は数分の1以下に低下します。快適なAIエージェント体験のためには最低でも32GB、できれば64GB以上を強く推奨します。
ストレージの考え方 — モデルサイズの目安と外付けSSDという選択肢
ローカルLLMを使うにあたって、ストレージの容量も重要な検討事項です。各モデルのサイズ目安は以下の通りです。
- 7B Q4量子化:約4〜5GB
- 13B Q4量子化:約8GB
- 34B Q4量子化:約20GB
- 70B Q4量子化:約40GB
- 70B Q8量子化:約75GB
- 405B Q4量子化:約230GB
複数のモデルを試しながら使いたい場合、内蔵SSD256GBではすぐに不足します。最低でも512GB、できれば1TB以上を選ぶか、外付けSSDを活用することをお勧めします。
Mac miniとMac StudioはThunderbolt 4ポートを装備しており、高速な外付けSSDを接続することで内蔵と遜色ない速度が得られます。OllamaのモデルディレクトリをシンボリックリンクでSSD上に移す方法も一般的です。詳しくは外付けSSD選び方ガイドをご覧ください。
予算別おすすめ構成 — 5万円台から30万円以上まで
中古市場での実勢価格(2026年2月現在)をもとに、予算別のおすすめ構成を紹介します。
5万〜8万円台:Mac mini M1(8GB / 256GB)
エントリーレベルの構成です。7Bクラスのモデル(Gemma 3、Mistral-7B)を動かすことができます。8GBはOllamaの動作に必要な最低ラインのため、複数のモデルの切り替えには少しもたつきを感じる場面があります。AIを初めて試してみたい方や、まず体験してみたい方に向いています。
10万〜15万円台:Mac mini M2(16GB / 512GB)または Mac mini M1 Pro(16GB)
実用的なローカルAI環境の入門ラインです。13Bクラスのモデルが実用速度で動作し、OpenClawのマルチエージェント構成でも複数タスクを並列処理できます。日常的にAIを活用したいエンジニアにとって、コスパに優れた選択肢です。
20万〜25万円台:Mac Studio M1 Max(32GB / 512GB)
このレンジになると30Bクラスのモデルが快適に動作します。M1 Maxの400GB/sメモリ帯域幅により、8Bモデルは毎秒約95トークンという実用的な速度が出ます。本格的なAI開発やOpenClawの本番運用を検討している方に最適な構成です。
30万円以上:Mac Studio M2 Ultra(64〜192GB)
70Bクラスのモデルを量子化なしで動かせる、現状最強のローカルAI環境です。M2 Ultraの800GB/sメモリ帯域幅は圧倒的で、70Bモデルでも毎秒20トークン以上を実現します。複数モデルの並列運用や、長期にわたるAIサーバー用途に最適です。
Mac ClawでAI用Macを探すメリット
Mac Clawは、AI環境構築に特化したMac専門のCtoCマーケットプレイスです。一般的なフリマサイトと異なり、以下のメリットがあります。
- スペック記載が充実:チップ、メモリ、ストレージが検索可能。AI用途に必要な情報がひとめでわかります。
- AI用途のユーザーが集まる:OpenClawやOllamaを使いたいエンジニア同士のマーケット。値引き交渉より適正価格での取引が多い傾向にあります。
- 高メモリ機の価値を正しく評価:64GB以上のモデルは一般フリマで安く買い叩かれがちですが、AI特化市場では適正価格で取引されます。
- 安心の手数料8%のみ:買い取り業者よりも高く売れ、購入者には業者価格より安く買えるシンプルな構造です。
まずは商品一覧から、お目当てのスペックのMacを探してみてください。