Usage Preset
近い使い方を選ぶと、リクエスト数・トークン量が一括で入ります。
Cloud Model
比較対象のクラウドLLM。多くの人が使うモデルを選んでください。
Hardware
ローカルで動かす想定ハードウェア。ラジオをクリックで選択、詳細はカスタム欄で上書き可。
Verdict
—
Scenario A
クラウドLLM継続
¥0/月
入力 + 出力トークン × 単価
Scenario B
ローカルLLM(機体購入)
¥0/月 換算
減価償却 + 電気代
Beyond the Numbers
金額では測れない6つの視点。どちらの側を選ぶかは、これらの重みづけ次第。
Scenario B
The Case for Local
01
プライバシー
機密データ・クライアント案件・社内ソースコードはクラウドに流せない場面が多い。オンプレ完結は、設計上の必然になることがある。
02
レイテンシ
ネットワーク遅延ゼロで、安定して数十 tok/s。Agent連鎖やIDE補完のような「連打する」用途で体感差が大きい。
03
オフライン対応
出張先・機内・回線の細い場所でも動く。ネットに依存しない開発環境という保険。
Scenario A
The Case for Cloud
01
モデル品質
Claude Opus/Sonnet や GPT-4o は、ローカル 70B Q4 よりコーディング・推論で明確に上。「同じタスク」ではない場面が多い。
02
最新モデル追従
新モデルが出るたびに即座に使える。ローカルは再ダウンロード・量子化・検証の手間が毎回発生する。
03
メンテナンス不要
llama.cpp / ollama のアップデート、CUDA ドライバ、モデル切替──これらすべてをベンダーが肩代わりしてくれる。
Note
上記は「どちらか一方」の話ではありません。実務では機密は Local、推論が必要な複雑タスクは Cloudという使い分けが現実解。ルーティング前提で設計すると、両方の長所が取れます。
注記 ハードウェア価格は2025年の標準構成参考値。クラウド料金は各社公開価格(2025年度、US標準レート)。電気代は家庭用30円/kWhを既定。稼働時間 = 本体がモデルロード・推論中の時間(アイドルは考慮外)。機会費用・売却残価・故障リスクは未計上。
判断は「今の使用量」ではなく、「1年後の使用量」で。
LLMの使い方は急に増える傾向があります。3ヶ月前は月500円のAPIだったのに、Agentを組み始めたら月2万円、なんてのは普通。ペイバックは「これから使う量」で計算すべき。
クラウド側の詳細な料金試算は → LLM API料金シミュレータ で。