2025年6月– date –
-
【Windows対応】Open WebUIでローカルLLMを使ってみよう!(Docker+Ollama)インストール手順と実行方法を解説
Open WebUIは、ローカルで動かすLLM(例:LLaMA、Mistral、Gemmaなど)と接続して、ChatGPTのような対話型UIを提供するオープンソースのフロントエンドツールです。以下に初心者向けに使い方をステップバイステップで説明します。 前提:Open WebUIの概要 ... -
【Windows対応】OllamaでローカルLLMを起動してみよう!インストール手順と実行方法を解説
Ollamaとは? Ollama(オラマ)は、ChatGPTのような大規模言語モデル(LLM)をローカル環境で実行できるツールです。セキュリティやプライバシーを重視する企業や個人にとって、インターネット接続不要で利用できるAIチャット基盤として注目されています。... -
「Docker Desktop for Windows」をインストールする手順 (Windows版)
Dockerのインストーラーをダウンロード ダウンロードページ : Docker Desktop for Windows – Docker公式サイトhttps://www.docker.com/products/docker-desktop/ ご自身の環境にあったものをダウンロードします。 WindowsPCでRTX 50シリーズ のPCの場合「A... -
【2025年最新版】ローカルLLMツール完全比較|おすすめ7選|Open WebUI・text-generation-webui・Ollama・LM Studio・koboldcpp・GPT4All・llama.cpp
ユーザーが関心を持たれているローカルLLM系ツールについて、用途別・特徴別に比較表を作成しました。 ローカルLLMツール比較(2025年6月版) 項目 / ツール名llama.cppGPT4AllkoboldcppLM StudioOllamatext-generation-webuiOpen WebUI主用途C++ベースの... -
nvidia-smiとは?NVIDIA製GPUの状態を確認・管理するためのコマンドラインツール
nvidia-smi(NVIDIA System Management Interface)とは、NVIDIA製GPUの状態を確認・管理するためのコマンドラインツールです。主にLinuxやWindows環境で使われ、GPUの利用状況や温度、メモリ使用量などをリアルタイムで把握できます。 nvidia-smi 基本概... -
(Windows版)NVIDIAのドライバとCUDA Toolkitがインストール方法
Windows環境における NVIDIA ドライバと CUDA Toolkit のインストール方法を、解説します。 インストール対象 ソフトウェア目的NVIDIA GPU DriverGPUをWindowsで正常に動作させるための基本ドライバCUDA ToolkitGPUを使った開発(例:AI・ディープラーニン...
1