以下に、Jan を使ってローカルLLM(大規模言語モデル)を実行する方法を、解説します。
目次
Janとは?
Janは、完全オフラインでも動作するオープンソースのLLM実行環境です。GUI操作が中心で、技術的な知識がなくても、ChatGPTのようなAIチャットをローカルで楽しめます。
Janのインストール手順(Windows / Mac / Linux)
1. 【公式サイトからダウンロード】
- サイト: Jan公式サイト
- 上記URLにアクセス
- 自分のOSに合ったインストーラーをクリック(Windows/macOS/Linux)

2. 【インストーラーを起動してインストール】
- ダウンロードされたファイル(例:
jan-xxx.exe
)をダブルクリックしてインストール - 指示に従ってインストールを完了
ローカルLLMの実行手順
3. 【Janを起動】
- Janアプリを起動すると、デフォルト画面が表示されます。
4. 【モデルのダウンロード】
左のメニューから「Hub」を選択

利用したいモデルを検索します。
今回はローカルLLMを実行するため、「On-device」を選択して、Mistralと入力します。バージョンが候補に表示されるので、今回は「mistral-nemo」を選択します。
参考:MistralのLLM一覧はこちら
あわせて読みたい


Benchmarks | Mistral AI Large Language Models
LLM (Large Language Model) benchmarks are standardized tests or datasets used to evaluate the performance of large language models. These benchmarks help resear…


表示されたモデルの右側にある「Download」ボタンをクリック
5. 【チャットを開始】
- 左の「Thread」から新しいスレッドを作成
- チャットウィンドウにプロンプトを入力
- 右側にAIが生成した応答が表示されます

Janを実行するための推奨環境
- MacOS : 13以上
- ウィンドウズ:
- Windows 10以降
- GPU サポートを有効にするには:
- CUDA Toolkit 11.7 以降を搭載した Nvidia GPU
- Nvidia ドライバー 470.63.01 以上
- リナックス:
- glibc 2.27 以上( で確認
ldd --version
) - gcc 11、g++ 11、cpp 11以上。
- GPU サポートを有効にするには:
- CUDA Toolkit 11.7 以降を搭載した Nvidia GPU
- Nvidia ドライバー 470.63.01 以上
- glibc 2.27 以上( で確認
出典:Jan Github : https://github.com/menloresearch/jan?tab=readme-ov-file#readme
モデル形式(GGUF形式)
Janは Hugging Face 等で配布されている GGUF形式の量子化モデル を使います。これはローカル実行に最適化された形式で、軽量&高速動作が可能です。
注意点
- Janは一部、クラウドAI( chatGPT・Claude・Geminiなど)との連携も可能ですが、これは別途APIキーが必要です。API連携の場合は有料となる場合があります。
公式ドキュメント
Jan公式サイト
https://jan.ai
Jan GitHubリポジトリ
https://github.com/menloresearch/jan
Windowsインストールガイド
https://jan.ai/docs/desktop/windows
Linuxインストールガイド
https://jan.ai/docs/desktop/linux
コメント