目次
Ollamaとは?
Ollama(オラマ)は、ChatGPTのような大規模言語モデル(LLM)をローカル環境で実行できるツールです。
セキュリティやプライバシーを重視する企業や個人にとって、インターネット接続不要で利用できるAIチャット基盤として注目されています。
Ollama インストール手順(Windows / macOS / Linux対応)
Ollama公式サイトからインストーラーを入手
- サイト:Ollama公式サイト
URL:https://ollama.com - 「Download」または「Get started」をクリックして、インストーラーを取得します。


インストールの実行
- インストーラーを起動し、案内に沿って進めるだけで導入可能です。
- 特別な設定は不要で、完了後すぐに利用を開始できます。

ターミナル(コマンドライン)を起動
- Windows:PowerShell または コマンドプロンプト
- macOS:ターミナル
Ollama で使用するモデルの保存先を指定する
Windowsで OLLAMA_MODELS を追加する手順(GUI編)
モデルは自動的にインターネットからダウンロードされ、ローカル環境に保存されます。
デフォルトのダウンロード先ディレクトリは以下の通りです:
ダウンロード先のパス(既定値)
macOS / Linux
~/.ollama/models
Windows(WSL2環境含む)
%USERPROFILE%\.ollama\models
例:
C:\Users\<あなたのユーザー名>\.ollama\models
オプション:モデルの保存先を指定する
OLLAMA_MODELS
は ユーザーが明示的に指定することで有効になる 環境変数です。
この変数を設定しない場合、Ollama は既定の保存パス(~/.ollama/models
など)を使用します。
環境変数設定画面を開く
- スタートメニューで検索
環境変数
またはシステム環境変数
と入力
→ 「環境変数を編集」または「システム環境変数の編集」をクリック - システムのプロパティ画面が開いたら
→ 下部の「環境変数(N)…」をクリック
ユーザー環境変数に追加
- 上側の「ユーザー環境変数」の欄で、「新規(N)…」をクリック
- 以下を入力: 項目入力内容
(例)変数名OLLAMA_MODELS
変数値C:\models
(←任意の保存先フォルダ) - 「OK」をクリックして閉じる

関連システムの再起動
コマンドプロンプト・PowerShell・Ollamaなど関連システムは再起動します
正しく設定されているか確認する
PowerShellでのコマンド
$env:OLLAMA_MODELS
コマンドプロンプト(cmd.exe)でのコマンド
echo %OLLAMA_MODELS%
設定したパス(例:C:\models
)が表示されれば成功です。
注意点
- 任意のフォルダ
C:\models
は事前に作成しておく必要があります。 - この設定をすると、今後 Ollama のモデルはこのパス以下に保存されます。
Ollama で使用するモデル(AI本体)をダウンロードする
任意のモデルを実行する(初回時に自動ダウンロード)
ollama run モデル名
モデルの選び方
用途・性能・PCスペック・サイズのバランスで検討しましょう。以下に分かりやすく整理しました。
視点 | 内容 | 例 |
---|---|---|
用途 | 何をさせたいか? | 雑談、翻訳、コード生成、画像理解など |
モデル性能 | 精度・応答品質をどれくらい求めるか? | 推論スピード重視 or 精度重視 |
PC性能 | GPUやRAM、ストレージ容量は十分か? | GPU 8GB未満の場合は小型モデルを推奨 |
利用可能な主なモデル例
Ollamaで利用可能なモデル一覧
https://ollama.com/search
他にも様々なモデルがあるため、用途や性能に適したモデルを選択してください。
モデル名 | 実行コマンド例 | サイズ *モデルバリエーションにより異なる | 特徴 |
---|---|---|---|
deepseek-r1 | ollama run deepseek-r1 | 1GB~400GB | DeepSeek-R1 は、O3 や Gemini 2.5 Pro などの主要なモデルに近いパフォーマンスを備えたオープン推論モデル。 |
gemma3 | ollama run gemma3 | 1GB~17GB | Gemmaは、Googleが提供する軽量モデルファミリーです。Gemma 3モデルはマルチモーダル(テキストと画像の処理)で、128KBのコンテキストウィンドウを備え、140以上の言語をサポートしています。 |
qwen3 | ollama run qwen3 | 500MB~150GB | Qwen3 は、Qwen シリーズの最新世代の大規模言語モデルであり、包括的な高密度モデルと専門家混合 (MoE) モデルを提供 |
devstral | ollama run devstral | 14GB | Devstral: コーディングエージェントのためのオープンソースモデル |
llama4 | ollama run llama4 | 67GB~245GB | Meta の最新のマルチモーダル モデル コレクション。 |
llama3.3 | ollama run llama3.3 | 43GB | 70Bモデル。Llama 3.1 405Bモデルと同等のパフォーマンスを提供。 |
llama3.2 | ollama run llama3.2 | 1.3GB~2.0GB | 1B および 3B モデルで小型化されています。 |
llama3.1 | ollama run llama3.1 | 4.9GB~243GB | 8B、70B、405B のパラメータ サイズで利用可能。 |
llama3 | ollama run llama3 | 4.7GB | 高性能なオープン利用可能なLLM |
mistral | ollama run mistral | 4GB | Mistral AI がリリースしたモデル 軽量で高速な応答性能 |
phi4 | ollama run phi4 | 9.1GB | Microsoftの軽量指向モデル |
モデルのダウンロードと実行サンプル
ollama run llama3

Send a message のエリアにメッセージを入力すると、AIの返答が表示されます。
>>> あなたについて日本語で説明してください
私はLLaMAという名前のAIアシスタントです。私はMeta AIによって開発された巨大な言語モデルであり、人間と話すことができま
す。我々の主要な機能は、情報を提供し、質問に回答することです。また、自然発達的な会話にも対応します。
私は膨大なデータセット(インターネット、書籍など)で訓練されました。この訓練により、私は人間のような応答を生成するこ
とができます。我々の能力には以下のようなものがあります。
* 幅広いトピックに関する質問に回答
* 促子やトピックに基づいてテキストを生成
* 語言を翻訳する
* 長文を短縮したサマリーを生成
* 創作のアイデアや提案を提供
私は常に学習し、改善しています。私は完璧ではありませんが、私はお手伝いできるように設計されています!
利用の継続
一度モデルをダウンロードすれば、次回以降は高速に起動できます:
ollama run モデル名
また、ダウンロード済みのモデルは以下で確認可能です:
ollama list
主なOllama CLI コマンド一覧
コマンド | 用途 | 例 |
---|---|---|
ollama | 利用可能なサブコマンドの一覧を表示 | ollama |
ollama --version | インストール済みバージョンの確認 | ollama --version |
ollama help | ヘルプを確認 | ollama help |
ollama list | ローカルに保存済みのモデル一覧を表示 | ollama list |
ollama pull <モデル名> | モデルをダウンロード(run 時にも自動取得される) | ollama pull モデル名 |
ollama run <モデル名> | モデル起動 + 対話セッション | ollama run モデル名 |
ollama ps | 起動中のモデル(プロセス)一覧を表示 | ollama ps |
ollama stop <モデル名> | 指定したモデルの実行を停止(ps で確認後) | ollama stop モデル名 |
ollama show <モデル名> | モデルの詳細(量子化形式、ライセンス、パラメータ等)を表示 | ollama show モデル名 |
ollama rm <モデル名> | ローカルからモデルを削除 | ollama rm モデル名 |
ollama cp <元> <コピー名> | モデルをコピー(別名で保存) | ollama cp モデル名 モデル名-copy |
ollama create <名前> -f <Modelfile> | Modelfile を使ってカスタムモデルを作成 | ollama create mymodel -f Modelfile |
ollama serve | Ollama サーバーを起動。API連携やREST利用時に使用 | ollama serve |
ビジネス利用における利点
項目 | 内容 |
---|---|
オフライン利用 | インターネット接続不要で社内限定利用が可能 |
セキュリティ | 外部送信なしで、機密情報の取り扱いも安全 |
導入の容易さ | 数ステップで実行環境を構築でき、IT部門による展開も容易 |
柔軟なモデル選定 | 複数モデルを切り替えて業務ニーズに最適化可能 |
補足情報
- OllamaはバックエンドでDockerやWSL2を自動的に活用しますが、ユーザーがそれを意識する必要はありません。
- 「コマンド操作に不安がある場合」や「Web UIで操作したい場合」は、Open WebUIとの連携も可能です。
コメント