MENU
Language

【Windows対応】OllamaでローカルLLMを起動してみよう!インストール手順と実行方法を解説

目次

Ollamaとは?

Ollama(オラマ)は、ChatGPTのような大規模言語モデル(LLM)をローカル環境で実行できるツールです。
セキュリティやプライバシーを重視する企業や個人にとって、インターネット接続不要で利用できるAIチャット基盤として注目されています。

Ollama インストール手順(Windows / macOS / Linux対応)

Ollama公式サイトからインストーラーを入手

  • サイト:Ollama公式サイト
    URL:https://ollama.com
  • 「Download」または「Get started」をクリックして、インストーラーを取得します。

インストールの実行

  • インストーラーを起動し、案内に沿って進めるだけで導入可能です。
  • 特別な設定は不要で、完了後すぐに利用を開始できます。

ターミナル(コマンドライン)を起動

  • Windows:PowerShell または コマンドプロンプト
  • macOS:ターミナル

Ollama で使用するモデルの保存先を指定する
Windowsで OLLAMA_MODELS を追加する手順(GUI編)

モデルは自動的にインターネットからダウンロードされ、ローカル環境に保存されます。
デフォルトのダウンロード先ディレクトリは以下の通りです:

ダウンロード先のパス(既定値)

macOS / Linux

~/.ollama/models

Windows(WSL2環境含む)

%USERPROFILE%\.ollama\models

例:

C:\Users\<あなたのユーザー名>\.ollama\models

オプション:モデルの保存先を指定する

OLLAMA_MODELSユーザーが明示的に指定することで有効になる 環境変数です。

この変数を設定しない場合、Ollama は既定の保存パス~/.ollama/models など)を使用します。

環境変数設定画面を開く

  1. スタートメニューで検索
    環境変数 または システム環境変数 と入力
    → 「環境変数を編集」または「システム環境変数の編集」をクリック
  2. システムのプロパティ画面が開いたら
    → 下部の「環境変数(N)…」をクリック

ユーザー環境変数に追加

  1. 上側の「ユーザー環境変数」の欄で、「新規(N)…」をクリック
  2. 以下を入力: 項目入力内容
    (例)変数名OLLAMA_MODELS変数値C:\models(←任意の保存先フォルダ)
  3. 「OK」をクリックして閉じる

通常は「ユーザー環境変数」に設定するのが安全ですが、必要に応じて、システム環境変数に設定することもできます(管理者権限が必要です)。

システム環境変数に設定するケースの例:
・複数ユーザーで同じモデル保存先を共用したい
・Ollamaをサービスとして運用したい
・管理者権限でしかOllamaを使わない

関連システムの再起動

コマンドプロンプト・PowerShell・Ollamaなど関連システムは再起動します

正しく設定されているか確認する

PowerShellでのコマンド

$env:OLLAMA_MODELS

コマンドプロンプト(cmd.exe)でのコマンド

echo %OLLAMA_MODELS%

設定したパス(例:C:\models)が表示されれば成功です。

注意点

  • 任意のフォルダ C:\models は事前に作成しておく必要があります。
  • この設定をすると、今後 Ollama のモデルはこのパス以下に保存されます。

Ollama で使用するモデル(AI本体)をダウンロードする

任意のモデルを実行する(初回時に自動ダウンロード)

ollama run モデル名

モデルの選び方

用途・性能・PCスペック・サイズのバランスで検討しましょう。以下に分かりやすく整理しました。

視点内容
用途何をさせたいか?雑談、翻訳、コード生成、画像理解など
モデル性能精度・応答品質をどれくらい求めるか?推論スピード重視 or 精度重視
PC性能GPUやRAM、ストレージ容量は十分か?GPU 8GB未満の場合は小型モデルを推奨

利用可能な主なモデル例


Ollamaで利用可能なモデル一覧
https://ollama.com/search
他にも様々なモデルがあるため、用途や性能に適したモデルを選択してください。

モデル名実行コマンド例サイズ
*モデルバリエーションにより異なる
特徴
deepseek-r1ollama run deepseek-r11GB~400GBDeepSeek-R1 は、O3 や Gemini 2.5 Pro などの主要なモデルに近いパフォーマンスを備えたオープン推論モデル。
gemma3ollama run gemma31GB~17GBGemmaは、Googleが提供する軽量モデルファミリーです。Gemma 3モデルはマルチモーダル(テキストと画像の処理)で、128KBのコンテキストウィンドウを備え、140以上の言語をサポートしています。
qwen3ollama run qwen3500MB~150GBQwen3 は、Qwen シリーズの最新世代の大規模言語モデルであり、包括的な高密度モデルと専門家混合 (MoE) モデルを提供
devstralollama run devstral14GBDevstral: コーディングエージェントのためのオープンソースモデル
llama4ollama run llama467GB~245GBMeta の最新のマルチモーダル モデル コレクション。
llama3.3ollama run llama3.343GB70Bモデル。Llama 3.1 405Bモデルと同等のパフォーマンスを提供。
llama3.2ollama run llama3.21.3GB~2.0GB1B および 3B モデルで小型化されています。
llama3.1ollama run llama3.14.9GB~243GB8B、70B、405B のパラメータ サイズで利用可能。
llama3ollama run llama34.7GB高性能なオープン利用可能なLLM
mistralollama run mistral4GBMistral AI がリリースしたモデル
軽量で高速な応答性能
phi4ollama run phi49.1GBMicrosoftの軽量指向モデル
参考:ollama https://ollama.com/search

モデルのダウンロードと実行サンプル

ollama run llama3

Send a message のエリアにメッセージを入力すると、AIの返答が表示されます。

>>> あなたについて日本語で説明してください
私はLLaMAという名前のAIアシスタントです。私はMeta AIによって開発された巨大な言語モデルであり、人間と話すことができま
す。我々の主要な機能は、情報を提供し、質問に回答することです。また、自然発達的な会話にも対応します。

私は膨大なデータセット(インターネット、書籍など)で訓練されました。この訓練により、私は人間のような応答を生成するこ
とができます。我々の能力には以下のようなものがあります。

* 幅広いトピックに関する質問に回答
* 促子やトピックに基づいてテキストを生成
* 語言を翻訳する
* 長文を短縮したサマリーを生成
* 創作のアイデアや提案を提供

私は常に学習し、改善しています。私は完璧ではありませんが、私はお手伝いできるように設計されています!

利用の継続

一度モデルをダウンロードすれば、次回以降は高速に起動できます:

ollama run モデル名

また、ダウンロード済みのモデルは以下で確認可能です:

ollama list

主なOllama CLI コマンド一覧

コマンド用途
ollama利用可能なサブコマンドの一覧を表示ollama
ollama --versionインストール済みバージョンの確認ollama --version
ollama helpヘルプを確認ollama help
ollama listローカルに保存済みのモデル一覧を表示ollama list
ollama pull <モデル名>モデルをダウンロード(run 時にも自動取得される)ollama pull モデル名
ollama run <モデル名>モデル起動 + 対話セッションollama run モデル名
ollama ps起動中のモデル(プロセス)一覧を表示ollama ps
ollama stop <モデル名>指定したモデルの実行を停止(ps で確認後)ollama stop モデル名
ollama show <モデル名>モデルの詳細(量子化形式、ライセンス、パラメータ等)を表示ollama show モデル名
ollama rm <モデル名>ローカルからモデルを削除ollama rm モデル名
ollama cp <元> <コピー名>モデルをコピー(別名で保存)ollama cp モデル名 モデル名-copy
ollama create <名前> -f <Modelfile>Modelfile を使ってカスタムモデルを作成ollama create mymodel -f Modelfile
ollama serveOllama サーバーを起動。API連携やREST利用時に使用ollama serve

ビジネス利用における利点

項目内容
オフライン利用インターネット接続不要で社内限定利用が可能
セキュリティ外部送信なしで、機密情報の取り扱いも安全
導入の容易さ数ステップで実行環境を構築でき、IT部門による展開も容易
柔軟なモデル選定複数モデルを切り替えて業務ニーズに最適化可能

補足情報

  • OllamaはバックエンドでDockerやWSL2を自動的に活用しますが、ユーザーがそれを意識する必要はありません。
  • 「コマンド操作に不安がある場合」や「Web UIで操作したい場合」は、Open WebUIとの連携も可能です。
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

AIアーティスト | エンジニア | ライター | 最新のAI技術やトレンド、注目のモデル解説、そして実践に役立つ豊富なリソースまで、幅広い内容を記事にしています。フォローしてねヾ(^^)ノ

コメント

コメントする

目次