Ollama+Docker配置
安装ollama
1 |
|
[!IMPORTANT]
如需 GPU 支持,根据你的显卡类型选择安装:
- NVIDIA:安装 ollama-cuda
- AMD:安装 ollama-rocm
启用/启动服务
1 |
|
安装模型
[!TIP]
正常安装模型是ollama run gemma3:270m
推荐手动安装避免中途网络问题,首先创建模型存放文件夹
1 |
|
[!IMPORTANT]
Ai对话模型推荐在这里下载:https://huggingface.co/
在网站搜索模型名称即可,例如:LLaMA、Qwen、Seed等等
将下载好的gguf后缀模型文件重命名为哈希值
获取哈希值
1 |
|
创建Modelfile文件夹
1 |
|
创建Modelfile文件
1 |
|
添加如下代码
1 |
|
创建模型运行
[!IMPORTANT]
Nous-Hermes-2-Mistral-7B-DPO.Q8_0:模型名字即可
Modelfile:刚刚创建的Modelfile文件
1 |
|
运行ollama查看模型
1 |
|
Docker从安装到代理
安装docker包
1 |
|
启用docker.service服务
1 |
|
也可以使用docker.socket将会在第一次启动Docker时启动,使用后者可以减少开机启动时间
如果你想以普通用户身份运行docker的话,添加你自己到 docker 用户组
1 |
|
将用户从组中移除
1 |
|
重启服务
1 |
|
1 |
|
查看当前配置
1 |
|
配置代理
在执行docker pull时,是由守护进程dockerd来执行。因此代理需要配在dockerd的环境中。而这个环境则是受systemd所管控
1 |
|
1 |
|
[!IMPORTANT]
键入如下配置
HTTP_PROXY或HTTPS_PROXY 分别用于代理访问 socks5请求(也可以是http或https请求,根据自己代理为准),如果想某个 IP或域名不走代理则配置到 NO_PROXY中
socks5://127.0.0.1:1080/必须是免密代理
1 |
|
最后重启docker
1 |
|
1 |
|
安装openwebui
1 |
|
Open WebUI 设置
1 |
|
Ollama+Docker配置
http://huishao.net/2025/08/24/Ollama配置使用/