Github: https://github.com/ollama/ollama
Models: https://ollama.com/search
Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源工具。无需深入了解复杂的底层技术,就能轻松地加载、运行和交互各种LLM模型。
Linux 安装
一键安装
curl -fsSL https://ollama.com/install.sh | sh
查看版本:
#/usr/local/bin/ollama
ollama -v
Docker
#运行 llama3
docker exec -it ollama ollama run llama3
快速运行
#运行 deepseek-r1:7b
ollama run deepseek-r1:7b
#拉取模型
ollama pull deepseek-r1:14b
更改模型下载路径
Ollama 模型的模型存储目录:
Linux: /usr/share/ollama/.ollama/models
#Windows: C:Users<username>.ollamamodels
#macOS: ~/.ollama/models
创建路径:
sudo mkdir /path/to/ollama/models
sudo ln -s /path/to/ollama/models /usr/share/ollama/.ollama/models
设置用户组和权限:
sudo chown -R root:root /path/to/ollama/models
sudo chmod -R 775 /path/to/ollama/models
设置 ollama.service:
sudo vim /etc/systemd/system/ollama.service
编辑内容如:
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/usr/local/cuda-12.2/bin"
Environment="OLLAMA_MODELS=/path/to/ollama/models" ##
[Install]
WantedBy=default.target
重启ollama服务:
sudo systemctl daemon-reload
sudo systemctl restart ollama.service
sudo systemctl status ollama
运行自定义模型
Ollama 支持的自定义模型有:
指定参数运行
启动:
#启动服务
ollama serve
#新开一个 Shell 窗口来运行模型
./ollama run deepseek-r1:r7
Ollama Serve 命令提供的环境变量:
• OLLAMA_DEBUG 显示其他调试信息(例如 OLLAMA_DEBUG=1)
• OLLAMA_HOST ollama 服务器的 IP 地址(默认 127.0.0.1:11434)
• OLLAMA_KEEP_ALIVE 模型在内存中保持加载状态的持续时间(默认“5 分钟”)
• OLLAMA_MAX_LOADED_MODELS 每个 GPU 加载的最大模型数量
• OLLAMA_MAX_QUEUE 排队请求的最大数量
• OLLAMA_MODELS 模型目录的路径
• OLLAMA_NUM_PARALLEL 并行请求的最大数量
• OLLAMA_NOPRUNE 启动时不修剪模型 blob
• OLLAMA_ORIGINS 允许来源的逗号分隔列表
• OLLAMA_TMPDIR 临时文件的位置
• OLLAMA_FLASH_ATTENTION 启用闪存注意
• OLLAMA_LLM_LIBRARY 设置 LLM 库以绕过自动检测
如,设定端口:
OLLAMA_HOST=127.0.0.1:11435 ollama serve
设定模型路径:
OLLAMA_MODELS="/path/to/ollama/models" ollama serve