Github: https://github.com/ollama/ollama

Models: https://ollama.com/search

Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源工具。无需深入了解复杂的底层技术,就能轻松地加载、运行和交互各种LLM模型。

Linux 安装

https://github.com/ollama/ollama/blob/main/docs/linux.md

一键安装

curl -fsSL https://ollama.com/install.sh | sh

查看版本:

#/usr/local/bin/ollama
ollama -v

Docker

https://hub.docker.com/r/ollama/ollama

#运行 llama3
docker exec -it ollama ollama run llama3

快速运行

#运行 deepseek-r1:7b
ollama run deepseek-r1:7b

#拉取模型
ollama pull deepseek-r1:14b

更改模型下载路径

Ollama 模型的模型存储目录:

Linux: /usr/share/ollama/.ollama/models
#Windows: C:Users<username>.ollamamodels
#macOS: ~/.ollama/models 

创建路径:

sudo mkdir /path/to/ollama/models

sudo ln -s /path/to/ollama/models /usr/share/ollama/.ollama/models

设置用户组和权限:

sudo chown -R root:root /path/to/ollama/models
sudo chmod -R 775 /path/to/ollama/models

设置 ollama.service:

sudo vim /etc/systemd/system/ollama.service

编辑内容如:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/usr/local/cuda-12.2/bin"
Environment="OLLAMA_MODELS=/path/to/ollama/models" ##

[Install]
WantedBy=default.target

重启ollama服务:

sudo systemctl daemon-reload
sudo systemctl restart ollama.service
sudo systemctl status ollama

运行自定义模型

https://github.com/ollama/ollama/blob/main/docs/import.md

Ollama 支持的自定义模型有:

指定参数运行

启动:

#启动服务
ollama serve

#新开一个 Shell 窗口来运行模型
./ollama run deepseek-r1:r7

Ollama Serve 命令提供的环境变量:

• OLLAMA_DEBUG 显示其他调试信息(例如 OLLAMA_DEBUG=1)
• OLLAMA_HOST ollama 服务器的 IP 地址(默认 127.0.0.1:11434)
• OLLAMA_KEEP_ALIVE 模型在内存中保持加载状态的持续时间(默认“5 分钟”)
• OLLAMA_MAX_LOADED_MODELS 每个 GPU 加载的最大模型数量
• OLLAMA_MAX_QUEUE 排队请求的最大数量
• OLLAMA_MODELS 模型目录的路径
• OLLAMA_NUM_PARALLEL 并行请求的最大数量
• OLLAMA_NOPRUNE 启动时不修剪模型 blob
• OLLAMA_ORIGINS 允许来源的逗号分隔列表
• OLLAMA_TMPDIR 临时文件的位置
• OLLAMA_FLASH_ATTENTION 启用闪存注意
• OLLAMA_LLM_LIBRARY 设置 LLM 库以绕过自动检测

如,设定端口:

OLLAMA_HOST=127.0.0.1:11435 ollama serve

设定模型路径:

OLLAMA_MODELS="/path/to/ollama/models" ollama serve
Last modification:February 4th, 2025 at 09:48 pm