¿Qué es Ollama?
Ollama es una herramienta que le permite ejecutar grandes modelos de lenguaje (LLM) como ChatGPT en su entorno local.
Para las empresas y las personas que valoran la seguridad y la privacidad, está llamando la atención como una plataforma de chat de IA que se puede usar sin conexión a Internet.
Instrucciones de instalación de Ollama (compatible con Windows/macOS/Linux)
Obtenga el instalador del sitio web oficial de Ollama
- Sitio web: Sitio web oficial de Ollama
URL:https://ollama.com - Haga clic en «Descargar» o «Comenzar» para obtener el instalador.


Realización de la instalación
- Puede instalarlo simplemente iniciando el instalador y siguiendo las instrucciones.
- No se requieren configuraciones especiales y puede comenzar a usarlo inmediatamente después de completarlo.

Iniciar terminal (línea de comandos)
- Windows: PowerShell o símbolo del sistema
- macOS: Terminal
Especificar dónde guardar el modelo que se utilizará en Ollama
Pasos para agregar OLLAMA_MODELS en Windows (GUI)
El modelo se descarga automáticamente de Internet y se almacena en el entorno local.
El directorio de descarga predeterminado es:
Descargar ruta de destino (predeterminado)
macOS / Linux
~/.ollama/modelsWindows (incluido el entorno WSL2)
%USERPROFILE%\.ollama\modelsEjemplo:
C:\Users\<あなたのユーザー名>\.ollama\modelsOpcional: Especifique dónde guardar el modelo
OLLAMA_MODELS es una variable de entorno habilitada por el usuario que especifica explícitamente .
Si no establece esta variable, Ollama utilizará la ruta de guardado predeterminada (~/.ollama/models por ejemplo).
Abra la pantalla de configuración de variables de entorno
- Buscar en el menú Inicio
環境変数システム環境変数o entra
→ Haga clic en Editar variable de entorno o Editar variable de entorno del sistema - Cuando se abre la pantalla Propiedades del sistema,
→ En la parte inferior, haga clic en Variable de entorno (N)…» Clic
Agregar a variables de entorno de usuario
- En la columna «Variable de entorno de usuario» en la parte superior, seleccione «Nuevo (N)…» Clic
- Introduzca lo siguiente: Entrada de campo
(por ejemplo, nombreOLLAMA_MODELSde variable, valorC:\modelsde variable ← cualquier carpeta de destino) - Haga clic en Aceptar para cerrar

Reinicie el sistema correspondiente
El símbolo del sistema, PowerShell, Ollama y otros sistemas relacionados se reiniciarán
Asegúrate de que esté configurado correctamente
Comandos en PowerShell
$env:OLLAMA_MODELSComandos en el símbolo del sistema (cmd.exe)
echo %OLLAMA_MODELS% Si se muestra la ruta establecida (por ejemplo, ),C:\models se realiza correctamente.
Notas
- Todas las
C:\modelscarpetas deben crearse con antelación. - Con esta configuración, los futuros modelos de Ollama se guardarán debajo de esta ruta.
Descarga el modelo (IA propiamente dicha) para usar en Ollama
Ejecute cualquier modelo (descarga automática la primera vez)
ollama run モデル名Cómo elegir un modelo
Consideremos el equilibrio entre uso, rendimiento, especificaciones de PC y tamaño. Lo he organizado de una manera fácil de entender a continuación.
| punto de vista | sustancia | ejemplo |
|---|---|---|
| uso | ¿Qué quieres que hagan? | Chatear, traducir, generación de código, comprensión de imágenes, etc. |
| Rendimiento del modelo | ¿Cuánta precisión y calidad de respuesta quiere? | Centrarse en la velocidad o precisión de la inferencia |
| Rendimiento de PC | ¿Tiene suficiente GPU, RAM y espacio de almacenamiento? | Si la GPU es inferior a 8 GB, se recomienda un modelo más pequeño. |
Ejemplos de los principales modelos disponibles
Modelos disponibles en Ollama
https://ollama.com/search
Hay muchos otros modelos disponibles, así que elija el que se adapte a su aplicación y rendimiento.
| Nombre del modelo | Ejemplo de comando de ejecución | tamaño *Varía según la variante del modelo | característica |
|---|---|---|---|
| búsqueda profunda-r1 | ollama run deepseek-r1 | 1GB ~ 400GB | DeepSeek-R1 es un modelo de inferencia abierto con un rendimiento cercano a modelos líderes como O3 y Gemini 2.5 Pro. |
| gemma3 | ollama run gemma3 | 1GB ~ 17GB | Gemma es una familia de modelos ligeros ofrecidos por Google. El modelo Gemma 3 es multimodal (procesamiento de texto e imagen), tiene una ventana de contexto de 128 KB y admite más de 140 idiomas. |
| qwen3 | ollama run qwen3 | 500 MB ~ 150 GB | Qwen3 es la última generación de modelos de lenguaje grandes de la serie Qwen, que proporciona modelos completos de alta densidad y expertos mixtos (MoE) |
| devstral | ollama run devstral | 14GB | Devstral: un modelo de código abierto para agentes de codificación |
| llama4 | ollama run llama4 | 67 GB ~ 245 GB | La última colección de modelos multimodales de Meta. |
| llama3.3 | ollama run llama3.3 | 43 GB | Modelo 70B. Ofrece el mismo rendimiento que el modelo Llama 3.1 405B. |
| llama3.2 | ollama run llama3.2 | 1,3 GB ~ 2,0 GB | Está miniaturizado en los modelos 1B y 3B. |
| llama3.1 | ollama run llama3.1 | 4,9 GB ~ 243 GB | Disponible en tamaños de parámetros 8B, 70B y 405B. |
| llama3 | ollama run llama3 | 4,7 GB | LLM de alto rendimiento y disponibilidad abierta |
| mistral | ollama run mistral | 4GB | Modelos publicados por Mistral AI Rendimiento ligero y de respuesta rápida |
| phi4 | ollama run phi4 | 9,1 GB | El modelo orientado a la ligereza de Microsoft |
Ejemplo de descarga y ejecución de modelos
ollama run llama3
Ingrese un anime en Enviar un mensaje y aparecerá la respuesta de la IA.
>>> あなたについて日本語で説明してください
私はLLaMAという名前のAIアシスタントです。私はMeta AIによって開発された巨大な言語モデルであり、人間と話すことができま
す。我々の主要な機能は、情報を提供し、質問に回答することです。また、自然発達的な会話にも対応します。
私は膨大なデータセット(インターネット、書籍など)で訓練されました。この訓練により、私は人間のような応答を生成するこ
とができます。我々の能力には以下のようなものがあります。
* 幅広いトピックに関する質問に回答
* 促子やトピックに基づいてテキストを生成
* 語言を翻訳する
* 長文を短縮したサマリーを生成
* 創作のアイデアや提案を提供
私は常に学習し、改善しています。私は完璧ではありませんが、私はお手伝いできるように設計されています!Uso continuado
Una vez que descargue el modelo, puede iniciarlo más rápido la próxima vez:
ollama run モデル名También puede consultar los modelos descargados a continuación:
ollama listLista de los principales comandos de la CLI de Ollama
| mandar | uso | ejemplo |
|---|---|---|
ollama | Ver una lista de subcomandos disponibles | ollama |
ollama --version | Verifique la versión instalada | ollama --version |
ollama help | Obtener ayuda | ollama help |
ollama list | Ver una lista de modelos guardados localmente | ollama list |
ollama pull <モデル名> | Descargar el modelo (también recuperado automáticamente en ejecución) | ollama pull モデル名 |
ollama run <モデル名> | Lanzamiento del modelo + Sesión de interacción | ollama run モデル名 |
ollama ps | Ver la lista de modelos (procesos) que se están iniciando | ollama ps |
ollama stop <モデル名> | Deje de ejecutar el modelo especificado (ps después de confirmar con ) | ollama stop モデル名 |
ollama show <モデル名> | Ver detalles del modelo (formato de cuantificación, licencia, parámetros, etc.) | ollama show モデル名 |
ollama rm <モデル名> | Eliminar un modelo de local | ollama rm モデル名 |
ollama cp <元> <コピー名> | Copiar el modelo (guardarlo como alias) | ollama cp モデル名 モデル名-copy |
ollama create <名前> -f <Modelfile> | Crear un modelo personalizado mediante un archivo de modelo | ollama create mymodel -f Modelfile |
ollama serve | Inicie el servidor Ollama. Se utiliza cuando se utiliza la integración de API o REST | ollama serve |
Beneficios para uso comercial
| artículo | sustancia |
|---|---|
| Uso sin conexión | No se requiere conexión a Internet, limitado al uso interno |
| seguridad | Manejo seguro de información confidencial sin transmisión externa |
| Facilidad de introducción | El entorno de ejecución se puede configurar en unos pocos pasos y es fácil de implementar para TI |
| Selección flexible de modelos | Cambie entre varios modelos para optimizar las necesidades de su negocio |
Información complementaria
- Ollama aprovecha automáticamente Docker y WSL2 en el backend, pero los usuarios no necesitan ser conscientes de ello.
- Si le preocupa el funcionamiento de los comandos o desea operar con la interfaz de usuario web, también puede vincular con Open WebUI.
コメント