个人电脑 服务器 快速部署深度求索DeepSeek-R1本地大模型

个人电脑 服务器 快速部署深度求索DeepSeek-R1本地大模型

王忘杰
2025-02-05 / 0 评论 / 169 阅读 / 正在检测是否收录...

一、项目链接
ollama
https://ollama.com/
1Panel
https://1panel.cn/
深度求索DeepSeek-R1
https://www.deepseek.com/
DeepSeek-R1蒸馏模型
https://ollama.com/library/deepseek-r1
Anolis OS 8
https://openanolis.cn/anolisos

二、windows个人电脑本地使用DeepSeek-R1本地大模型
下载ollama windows客户端
https://ollama.com/download
https://github.com/ollama/ollama/releases
安装
QQ截图20250205193548.jpg
运行DeepSeek-R1-蒸馏-Qwen-1.5B

ollama run deepseek-r1:1.5b

我的GTX4060显卡,可以运行DeepSeek-R1-Distill-Llama-8B蒸馏模型,为了演示快速我使用1.5b模型,大小仅为1.1G
完整量化模型为ollama run deepseek-r1:671b 404G,跟openai-o1掰手腕的正是他,量化模型与显存几乎1:1,如果运行671b 404G,那么显存也要在671G以上,我的GTX4060仅有8G,所以能使用8b 4.9G模型
QQ截图20250205194112.jpg

进行对话
终端输入ollama run deepseek-r1:1.5b直接进行对话
QQ截图20250205194259.jpg

正确安装显卡驱动的情况下,默认调用显卡
QQ截图20250205194631.jpg
退出

>>> /?
Available Commands:
  /set            Set session variables
  /show           Show model information
  /load <model>   Load a session or model
  /save <model>   Save your current session
  /clear          Clear session context
  /bye            Exit
  /?, /help       Help for a command
  /? shortcuts    Help for keyboard shortcuts

Use """ to begin a multi-line message.

>>> /bye

默认ollama开机启动,可以通过任务管理器关闭
QQ截图20250205195023.jpg

三、服务器使用1panel面板快速部署DeepSeek-R1本地大模型
使用龙蜥anolis8系统,部署docker

yum install -y yum-utils
#阿里云加速源
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum install docker-ce docker-ce-cli containerd.io
systemctl enable --now docker

部署1panel面板

curl -sSL https://resource.fit2cloud.com/1panel/package/quick_start.sh -o quick_start.sh && sh quick_start.sh

docker镜像 2月5日可用,配置到1panel面板中
https://docker.xuanyuan.me

安装MaxKB和Ollama
应用端口默认不允许外部访问,注意勾选 允许端口外部访问会放开防火墙端口
QQ截图20250205195758.jpg

查看Ollama接口密钥,容器日志
企业微信截图_20250206110443.jpg
企业微信截图_20250206110506.jpg

配置MaxKB
登录默认账户密码

username:admin
password:MaxKB@123..

配置deepseek-r1:1.5b
添加ollama模型
企业微信截图_20250206110703.jpg

添加
企业微信截图_20250206110910.jpg

自动下载,等待下载完成即可配置使用
企业微信截图_20250206110922.jpg

体验大模型
企业微信截图_20250206111758.jpg
企业微信截图_20250206111822.jpg
进行对话
企业微信截图_20250206111918.jpg

MaxKB更多功能可查看MaxKB文档自行体验

四、windows ollama给外部用
为当前windows系统添加环境变量:电脑-属性-高级系统设置-环境变量
变量:OLLAMA_HOST,值:0.0.0.0:11434
同时加载5个模型
变量: OLLAMA_NUM_PARALLEL,值:5
变量: OLLAMA_MAX_LOADED_MODELS,值:5
模型位置
OLLAMA_MODELS,值:E:\ollamaimagers
模型在内存中驻留24小时
OLLAMA_KEEP_ALIVE,值:24h
重启电脑

防火墙根据情况开放
访问地址为 http://IP:11434

五、N卡安装CUDA
ollama显卡支持列表 https://ollama.readthedocs.io/gpu/ 不在列表中的ollama无法调用GPU

命令行输入nvidia-smi
根据显示的CUDA Version安装对应的CUDA Toolkit Archive
https://developer.nvidia.com/cuda-toolkit-archive
如CUDA Version12.8则下载CUDA Toolkit 12.8.0 (January 2025)

1

评论

博主关闭了所有页面的评论