※本サイトはPRリンクを含みます

ローカルLLMを動かすPC選び:NPUとGPUの役割と選定のポイント

AI
この記事の結論
  • 性能・速度を最優先するなら → 高性能GPU。特にVRAM(ビデオメモリ)容量がAIの性能を直接左右します。
  • 省電力・手軽さを重視するなら → NPU。ノートPCでの利用に適していますが、現状では性能が限定的です。
  • 結論: 本格的なAI利用にはGPU搭載PC、お試しや特定用途にはNPU搭載PCがおすすめです。

PCでAIを動かすという選択

AIを仕事や趣味に活用する場面が当たり前になってきました。ChatGPTのような大規模言語モデル(LLM)は、今や日常生活に深く浸透しています。これらのAIをクラウドサービス経由で利用するだけでなく、自分のPC上で直接動かす「ローカルLLM」という選択肢も一部で興味を集めているようです(たぶん)。

ローカルLLMには、プライバシーの保護、インターネット接続に依存しない、モデルのカスタマイズ性といったメリットがあります。ただし、その恩恵を最大限に享受するためにはAI処理に適したPCハードウェアを選ぶことが不可欠になります。

AI処理を担うのは、主にGPU(Graphics Processing Unit)と最近登場したNPU(Neural Processing Unit)の2種類のプロセッサです。本記事では、それぞれの特性と得意分野、ローカルLLMを快適に利用するためのPC選びを解説します。

NPUとGPUの役割

AI、特に大規模言語モデル(LLM)の処理には膨大な計算能力が求められます。この複雑な計算を効率的に行うために使用されるのがNPUとGPUという二つの主要なプロセッサ。それぞれの役割と特性は以下のようになります。

1-1. GPU:並列処理の要

GPUは元々、3Dグラフィックスの描画を高速化するために開発されました。その設計思想は、非常に多くの単純な計算を並行して処理する「並列処理」に特化している点にあります。この特性が、AI、特にディープラーニングの分野で驚くべき相性を示すことになりました。ディープラーニングの計算は大量のデータに対して同じ種類の計算を何度も繰り返すため、GPUの並列処理能力がまさに最適だったようです。

LLMにおいては、GPUはまさに中核を担います。数億から数千億ものパラメータを持つ大規模なAIモデルをゼロから構築する**「学習(トレーニング)」フェーズでは、膨大な計算リソースが必要となり、高性能なGPUが不可欠です。また、学習済みのモデルを使って質問に答えたり文章を生成したりする「推論(インファレンス)」**フェーズにおいても、その高速な並列処理能力によってスムーズで迅速な応答を実現します。現在、Ollamaなどの主要なローカルLLMツールはその多くがGPUに最適化されており、高性能なGPUを搭載したPCがローカルLLM環境のスタンダードとなっています。

1-2. NPU:AI推論に特化した効率的なプロセッサ

NPUは、AI処理の中でも特に「ニューラルネットワークの計算」に特化して設計された新しいプロセッサです。CPUやGPUが汎用的な計算をこなすのに対し、NPUはAI特有の計算パターンを効率的に実行することに主眼を置いています。

LLMの文脈においてNPUの最も重要な役割は、学習済みのAIモデルを使った「推論」を、極めて低い消費電力で実行できる点です。例えば、PCのカメラを使ったリアルタイムな背景ぼかしやノイズキャンセリング、音声コマンド認識、さらにはWindows CopilotのようなOSレベルのAIアシスタント機能の高速化などに貢献します。

NPUの登場は「AI PC」という新しいPCの概念を推進しています。これは、AI機能をクラウドに依存せず、PC本体で完結させる「エッジAI」の強化を意味し、プライバシー保護の強化やインターネット接続に左右されない安定したAI体験を提供します。ただし、NPUはその得意分野がAI推論に限定されるため、GPUのような大規模なモデル学習や汎用的な並列計算には向きません。

ローカルLLMにおけるNPUとGPUの性能比較と活用例

ローカルLLMを動かす際にNPUとGPUのどちらを選ぶべきかは、目的や重視するパフォーマンスによって大きく異なります。ここでは、それぞれのプロセッサがLLM処理においてどのような違いを見せるのか、具体的な項目で比較してみます。

2-1. 計算性能と実行速度:モデルサイズと応答速度における違い

ローカルLLMを快適に利用できるかどうかは、主にPCの「計算性能」と「実行速度」に左右されます。この点において、現状ではGPUが圧倒的な優位性を持っています。

GPUの強み

GPUは非常に多くの並列計算コアと広大なメモリ帯域幅を備えており、これがLLMの性能に直結します。特に、Llama 7B(70億パラメータ)以上の比較的大規模なLLMモデルを動かす場合にGPUはその本領を発揮します。モデルのパラメータが多ければ多いほど、必要な計算量とメモリ(VRAM)量が増大しますが、GPUはこれを高速に処理できます。結果として、GPUは「トークン生成速度」(1秒間に生成できる単語や文字の量)において、NPUよりもはるかに速いパフォーマンスを提供します。例えば、GPUなら数秒で長文を生成できるようなシーンでも、NPUでは数十秒以上かかる、あるいはメモリ不足で動作しない、といった体感の違いが生じることがあります。

現状のNPUの限界

NPUは低消費電力に特化しているため、GPUのような絶対的な計算能力は持ち合わせていません。現在のNPUは、より小規模なAIモデルや、特定の軽量な推論タスクに適しています。LLMのような巨大なモデルをNPU単独で高速に動かすことは、現在の技術レベルでは非常に困難です。NPUはあくまでCPUやGPUを補完する役割として、特定のAIタスクをオフロードし、システム全体の効率を高めることを目的としています。

2-2. 消費電力と動作環境:モバイルとデスクトップそれぞれの適性

PCのどこで、どのようにローカルLLMを使いたいかによって、NPUとGPUのどちらが適しているかが変わってきます。

GPUの場合

高性能なGPUは、その強力な計算能力と引き換えに大量の電力を消費し、それに見合った発熱を伴います。そのため、GPUを搭載したデスクトップPCは、安定した電源供給と強力な冷却システムが必須となります。冷却ファンの動作音も大きくなる傾向があり、静かな環境を求めるユーザーには不向きな場合もあります。ノートPCに搭載されるモバイル向けGPUも進化していますが、バッテリー駆動での長時間の高負荷LLM稼働は、バッテリーの消耗が激しく、現実的ではありません。主にAC電源に接続して使うことが前提となります。

NPUの場合

NPUの最大の利点は、AI処理を極めて低い消費電力で実行できる点です。これにより、ノートPCやその他のポータブルデバイスで、バッテリー駆動時間を気にすることなくAI機能を利用することが可能になります。発熱もGPUに比べて格段に少ないため、ファンレス設計のPCや、静音性の高い環境での利用に適しています。場所を選ばずにローカルLLMの「軽い推論」を試したい、あるいはバッテリー駆動時間を優先したいユーザーにとって、NPU搭載PCは魅力的な選択肢となります。

2-3. ソフトウェア対応とエコシステム:現在のサポート状況と将来の展望

ローカルLLMを動かすためには、ハードウェアだけでなく、それを動かすためのソフトウェア環境も重要です。

GPUの場合

Ollamaをはじめとする主要なローカルLLMツールは、GPU向けに最適化されています。そのため、GPUがあれば、ほとんどのローカルLLMモデルを特別な設定なしにスムーズに動かすことが可能です。膨大な開発者コミュニティと豊富な学習リソースも、GPU環境の大きな強みです。

NPUの場合

NPUは比較的新しい技術であるため、そのソフトウェアエコシステムはまだ発展途上です。IntelのOpenVINOやAMDのRyzen AI Software Platformなど、各ベンダーがSDKを提供していますが、これらを直接利用してLLMを動かすには専門知識が必要となる場合があります。Ollamaのような汎用的なツールが、NPUを直接かつ効率的にサポートする機能は、現時点では限定的です。多くの場合、NPUは特定の最適化されたモデル形式(例:ONNX形式など)に変換された場合に最も性能を発揮しますが、ユーザー側での準備が必要になることがあります。ただし「AI PC」の普及に伴い、今後数年のうちにNPU向けのLLM最適化や、Ollamaなどのツールのサポートが格段に進むであろうことも予想されます。

2-4. メモリ容量の重要性:VRAMとシステムメモリがLLMの動作に与える影響

ローカルLLMを動かす上で、GPUのVRAM(ビデオメモリ)とPCのシステムメモリ(RAM)の容量は非常に重要な要素です。

VRAM(GPUメモリ)の重要性

LLMのモデルデータは非常に大きく、推論を実行する際には、そのモデルデータ全体がVRAMにロードされる必要があります。例えば、70億パラメータのモデルは約7GB程度のVRAMを必要とします。より大きなモデル(例:13B、70Bモデル)では、さらに多くのVRAMが必要となり、モデルの量子化(精度を落としてVRAM使用量を減らす技術)を用いても、最低12GB、できれば16GB、24GBといった大容量のVRAMが推奨されます。VRAMが不足すると、モデルがロードできなかったり、極端に処理速度が低下したり、そもそも動作しなかったりします。

システムメモリ(RAM)の重要性

システムメモリは、LLMの推論処理そのものよりも、OSやその他のアプリケーション、そしてLLMの推論時に一時的に発生するデータなどを保持するために必要です。たとえVRAMが十分でも、システムメモリが不足していると、PC全体の動作が不安定になったり、LLMの応答性が低下したりする可能性があります。最低でも16GB、快適な環境を求めるなら32GB以上のシステムメモリが強く推奨されます。GPUのVRAMとシステムメモリの両方が、ローカルLLMの安定した動作と性能に大きく寄与することになります。

PC選び:ローカルLLMに最適な構成

ドスパラはゲーミングPCからクリエイター向けPCまで幅広いラインナップを展開しています。NPUとGPUそれぞれの特性を踏まえ、ローカルLLM活用に合ったPC選びのポイントを解説します。

3-1. 高性能なローカルLLM環境:GPUを重視したPC構成

「とにかく高速で大規模なLLMを動かしたい」「本格的にAI開発や試用をしたい」という方には、高性能なGPUを搭載したPCが必須です。特に、NVIDIAのGeForce RTXシリーズやAMDのRadeon RXシリーズの最新世代は、その強力な並列計算能力と大容量VRAMで、ローカルLLMの性能を最大限に引き出します。

確認すべき主要パーツと推奨ポイント

GPUの選定基準と推奨VRAM容量: これが最も重要です。

NVIDIAの場合:
GeForce RTX 4070以上、VRAM 12GB以上を強く推奨します。より大規模なモデルや将来性を考慮するなら、RTX 4080 (16GB)、RTX 4090 (24GB) といった選択肢も検討すべきです。

AMDの場合:
Radeon RX 7900 XT (20GB) や RX 7900 XTX (24GB) など、高VRAMモデルが有効です。

CPUの選択:
GPUの性能を最大限に引き出すためには、CPUも一定以上の性能が必要です。Intel Core i7/i9やAMD Ryzen 7/9など、最新世代の高性能CPUを選びましょう。

システムメモリ(RAM)の推奨容量:
GPUのVRAMが十分でも、システムメモリが不足するとボトルネックになることがあります。最低でも16GB、できれば32GB以上を搭載することで、OSや他のアプリケーションとの競合を避け、安定した動作が期待できます。

ストレージの種類と容量:
LLMモデルはある程度大きなファイルサイズ(数GB~数十GB)を持つため、高速なNVMe SSDを選び、モデルを複数保存することを考慮して1TB以上の容量を選ぶことをお勧めします。

ドスパラのGALLERIAシリーズは高性能なゲーミングGPUを搭載しているため、ローカルLLMの実行にも非常に適しています。特にGPUの種類とVRAM容量に注目して選びましょう。

3-2. 省電力・手軽にAI:NPU搭載PCの選び方

「消費電力を抑えて手軽にLLMの推論を試したい」「外出先でもAIを活用したい」という方には、NPUを内蔵したCPUを搭載したPCが適しています。これらのPCは、「AI PC」として各社からリリースされており、CPU、GPU、NPUが連携してAI処理を効率的に実行します。

確認すべき主要パーツと推奨ポイント

Intel Core Ultraプロセッサー(NPU内蔵)搭載モデル:
Intelが「Intel AI Boost」と呼ぶNPUを内蔵しており、低消費電力でのAI処理に貢献します。

AMD Ryzen AIプロセッサー搭載モデル:
AMDもNPUを統合したRyzen AIプロセッサーを提供しており、同様に効率的なAI推論が可能です。

システムメモリ(RAM)の推奨容量:
NPUを活用する場合でも、LLMのモデルサイズやOS、その他のアプリケーションが要求するメモリは変わりません。快適な動作のためには、最低16GB以上、できれば32GB以上が推奨されます。

統合GPUの性能:
NPU単独では大規模なLLMの推論には限界があるため、搭載されている統合GPU(Intel Arc Graphicsなど)の性能も確認しておくと良いでしょう。NPUがAIタスクの一部をオフロードし、統合GPUが残りのAI計算を担うことで、システム全体のバランスが取れます。

ドスパラのTHIRDWAVEシリーズや一部のGALLERIAノートPCなどでNPUを搭載したモデルが展開されています。バッテリー駆動時間や静音性を重視しつつ、ローカルLLMの基本的な推論を試したい場合に検討してみましょう。ただし、現時点では大規模なLLMの高速動作には限界があることを理解しておく必要があります。

AI活用のためのPC選び

ローカルLLMを動かすPC選びは、NPUとGPU、それぞれの特性と得意分野を理解することで目的に合ったベターな一台を見つけることができます。

高速なパフォーマンスと大規模モデルの実行を優先するなら十分なVRAMを持つ高性能なGPUを搭載したPC。

低消費電力で手軽にAIを試したい、またはモバイルでの利用を重視するならNPUを搭載したPC。

ぜひとも最適なPCを見つけてみてください。

スポンサーリンク
ドスパラWeb
AIPCの選び方