MENU
Language

[Soporte de Windows] ¡Comienza tu LLM local con Ollama! Explicación de las instrucciones de instalación y las instrucciones de ejecución

目次

¿Qué es Ollama?

Ollama es una herramienta que le permite ejecutar grandes modelos de lenguaje (LLM) como ChatGPT en su entorno local.
Para las empresas y las personas que valoran la seguridad y la privacidad, está llamando la atención como una plataforma de chat de IA que se puede usar sin conexión a Internet.

Instrucciones de instalación de Ollama (compatible con Windows/macOS/Linux)

Obtenga el instalador del sitio web oficial de Ollama

  • Sitio web: Sitio web oficial de Ollama
    URL:https://ollama.com
  • Haga clic en «Descargar» o «Comenzar» para obtener el instalador.

Realización de la instalación

  • Puede instalarlo simplemente iniciando el instalador y siguiendo las instrucciones.
  • No se requieren configuraciones especiales y puede comenzar a usarlo inmediatamente después de completarlo.

Iniciar terminal (línea de comandos)

  • Windows: PowerShell o símbolo del sistema
  • macOS: Terminal

Especificar dónde guardar el modelo que se utilizará en Ollama
Pasos para agregar OLLAMA_MODELS en Windows (GUI)

El modelo se descarga automáticamente de Internet y se almacena en el entorno local.
El directorio de descarga predeterminado es:

Descargar ruta de destino (predeterminado)

macOS / Linux

~/.ollama/models

Windows (incluido el entorno WSL2)

%USERPROFILE%\.ollama\models

Ejemplo:

C:\Users\<あなたのユーザー名>\.ollama\models

Opcional: Especifique dónde guardar el modelo

OLLAMA_MODELS es una variable de entorno habilitada por el usuario que especifica explícitamente .

Si no establece esta variable, Ollama utilizará la ruta de guardado predeterminada (~/.ollama/models por ejemplo).

Abra la pantalla de configuración de variables de entorno

  1. Buscar en el menú Inicio
    環境変数システム環境変数 o entra
    → Haga clic en Editar variable de entorno o Editar variable de entorno del sistema
  2. Cuando se abre la pantalla Propiedades del sistema,
    → En la parte inferior, haga clic en Variable de entorno (N)…» Clic

Agregar a variables de entorno de usuario

  1. En la columna «Variable de entorno de usuario» en la parte superior, seleccione «Nuevo (N)…» Clic
  2. Introduzca lo siguiente: Entrada de campo
    (por ejemplo, nombreOLLAMA_MODELS de variable, valorC:\models de variable ← cualquier carpeta de destino)
  3. Haga clic en Aceptar para cerrar

Por lo general, es seguro configurarlo en «Variable de entorno de usuario», pero si lo desea, puede configurarlo en una variable de entorno del sistema (requiere privilegios de administrador).

Ejemplo de configuración de una variable de entorno del sistema:
・Quiero compartir el mismo destino de modelo con varios usuarios.
・Quiero operar Ollama como servicio
・Usar Ollama solo con privilegios de administrador

Reinicie el sistema correspondiente

El símbolo del sistema, PowerShell, Ollama y otros sistemas relacionados se reiniciarán

Asegúrate de que esté configurado correctamente

Comandos en PowerShell

$env:OLLAMA_MODELS

Comandos en el símbolo del sistema (cmd.exe)

echo %OLLAMA_MODELS%

Si se muestra la ruta establecida (por ejemplo, ),C:\models se realiza correctamente.

Notas

  • Todas las C:\models carpetas deben crearse con antelación.
  • Con esta configuración, los futuros modelos de Ollama se guardarán debajo de esta ruta.

Descarga el modelo (IA propiamente dicha) para usar en Ollama

Ejecute cualquier modelo (descarga automática la primera vez)

ollama run モデル名

Cómo elegir un modelo

Consideremos el equilibrio entre uso, rendimiento, especificaciones de PC y tamaño. Lo he organizado de una manera fácil de entender a continuación.

punto de vistasustanciaejemplo
uso¿Qué quieres que hagan?Chatear, traducir, generación de código, comprensión de imágenes, etc.
Rendimiento del modelo¿Cuánta precisión y calidad de respuesta quiere?Centrarse en la velocidad o precisión de la inferencia
Rendimiento de PC¿Tiene suficiente GPU, RAM y espacio de almacenamiento?Si la GPU es inferior a 8 GB, se recomienda un modelo más pequeño.

Ejemplos de los principales modelos disponibles


Modelos disponibles en Ollama
https://ollama.com/search
Hay muchos otros modelos disponibles, así que elija el que se adapte a su aplicación y rendimiento.

Nombre del modeloEjemplo de comando de ejecucióntamaño
*Varía según la variante del modelo
característica
búsqueda profunda-r1ollama run deepseek-r11GB ~ 400GBDeepSeek-R1 es un modelo de inferencia abierto con un rendimiento cercano a modelos líderes como O3 y Gemini 2.5 Pro.
gemma3ollama run gemma31GB ~ 17GBGemma es una familia de modelos ligeros ofrecidos por Google. El modelo Gemma 3 es multimodal (procesamiento de texto e imagen), tiene una ventana de contexto de 128 KB y admite más de 140 idiomas.
qwen3ollama run qwen3500 MB ~ 150 GBQwen3 es la última generación de modelos de lenguaje grandes de la serie Qwen, que proporciona modelos completos de alta densidad y expertos mixtos (MoE)
devstralollama run devstral14GBDevstral: un modelo de código abierto para agentes de codificación
llama4ollama run llama467 GB ~ 245 GBLa última colección de modelos multimodales de Meta.
llama3.3ollama run llama3.343 GBModelo 70B. Ofrece el mismo rendimiento que el modelo Llama 3.1 405B.
llama3.2ollama run llama3.21,3 GB ~ 2,0 GBEstá miniaturizado en los modelos 1B y 3B.
llama3.1ollama run llama3.14,9 GB ~ 243 GBDisponible en tamaños de parámetros 8B, 70B y 405B.
llama3ollama run llama34,7 GBLLM de alto rendimiento y disponibilidad abierta
mistralollama run mistral4GBModelos publicados por Mistral AI
Rendimiento ligero y de respuesta rápida
phi4ollama run phi49,1 GBEl modelo orientado a la ligereza de Microsoft
Referencia: ollama https://ollama.com/search

Ejemplo de descarga y ejecución de modelos

ollama run llama3

Ingrese un anime en Enviar un mensaje y aparecerá la respuesta de la IA.

>>> あなたについて日本語で説明してください
私はLLaMAという名前のAIアシスタントです。私はMeta AIによって開発された巨大な言語モデルであり、人間と話すことができま
す。我々の主要な機能は、情報を提供し、質問に回答することです。また、自然発達的な会話にも対応します。

私は膨大なデータセット(インターネット、書籍など)で訓練されました。この訓練により、私は人間のような応答を生成するこ
とができます。我々の能力には以下のようなものがあります。

* 幅広いトピックに関する質問に回答
* 促子やトピックに基づいてテキストを生成
* 語言を翻訳する
* 長文を短縮したサマリーを生成
* 創作のアイデアや提案を提供

私は常に学習し、改善しています。私は完璧ではありませんが、私はお手伝いできるように設計されています!

Uso continuado

Una vez que descargue el modelo, puede iniciarlo más rápido la próxima vez:

ollama run モデル名

También puede consultar los modelos descargados a continuación:

ollama list

Lista de los principales comandos de la CLI de Ollama

mandarusoejemplo
ollamaVer una lista de subcomandos disponiblesollama
ollama --versionVerifique la versión instaladaollama --version
ollama helpObtener ayudaollama help
ollama listVer una lista de modelos guardados localmenteollama list
ollama pull <モデル名>Descargar el modelo (también recuperado automáticamente en ejecución)ollama pull モデル名
ollama run <モデル名>Lanzamiento del modelo + Sesión de interacciónollama run モデル名
ollama psVer la lista de modelos (procesos) que se están iniciandoollama ps
ollama stop <モデル名>Deje de ejecutar el modelo especificado (ps después de confirmar con )ollama stop モデル名
ollama show <モデル名>Ver detalles del modelo (formato de cuantificación, licencia, parámetros, etc.)ollama show モデル名
ollama rm <モデル名>Eliminar un modelo de localollama rm モデル名
ollama cp <元> <コピー名>Copiar el modelo (guardarlo como alias)ollama cp モデル名 モデル名-copy
ollama create <名前> -f <Modelfile>Crear un modelo personalizado mediante un archivo de modeloollama create mymodel -f Modelfile
ollama serveInicie el servidor Ollama. Se utiliza cuando se utiliza la integración de API o RESTollama serve

Beneficios para uso comercial

artículosustancia
Uso sin conexiónNo se requiere conexión a Internet, limitado al uso interno
seguridadManejo seguro de información confidencial sin transmisión externa
Facilidad de introducciónEl entorno de ejecución se puede configurar en unos pocos pasos y es fácil de implementar para TI
Selección flexible de modelosCambie entre varios modelos para optimizar las necesidades de su negocio

Información complementaria

  • Ollama aprovecha automáticamente Docker y WSL2 en el backend, pero los usuarios no necesitan ser conscientes de ello.
  • Si le preocupa el funcionamiento de los comandos o desea operar con la interfaz de usuario web, también puede vincular con Open WebUI.
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

AIアーティスト | エンジニア | ライター | 最新のAI技術やトレンド、注目のモデル解説、そして実践に役立つ豊富なリソースまで、幅広い内容を記事にしています。フォローしてねヾ(^^)ノ

コメント

コメントする

目次