栏目分类
白嫖deepseek本地部署教程,转发+收藏送deepseek使用技巧
发布日期:2025-03-07 16:47    点击次数:145
最近一年文章更新基本没有什么收益,今天开始每篇文章后面会给大家挂几个小游戏,大家看完文章记得玩两把再退出去,感谢!同时文中也有一些视频广告,大家也帮忙点开看看,看看即可,不必深度参与。

 

💬

本教程所用到的软件包+deepseek使用技巧资源包获取方式: 

 

一、部署Ollama(多平台选择安装)

Ollama 支持 Linux/macOS/Windows,需根据系统选择安装方式。 

1. Linux 系统部署

适用系统:Ubuntu/Debian/CentOS 等  

步骤: 

一键安装:

curl -fsSL https://ollama.com/install.sh | sh

权限配置(避免 sudo 运行):

sudo usermod -aG ollama $USER  # 将当前用户加入ollama组newgrp ollama                  # 刷新用户组

启动服务:

systemctl start ollama         # 启动服务systemctl enable ollama        # 开机自启

验证安装:

ollama --version               # 输出版本号即成功
2. macOS 系统部署

步骤: 

一键安装:

curl -fsSL https://ollama.com/install.sh | sh

启动服务:

ollama serve                   # 前台运行(调试用)

或通过 Launchd 后台服务:

brew services start ollama  # 通过Homebrew管理

 

3. Windows 系统部署

前置要求:  

Windows 10/11 64位

已安装 WSL2(推荐Ubuntu发行版)

 

步骤: 

下载安装包:Ollama Windows Installer

下载后进行双击安装

验证安装:

ollama list                    # 查看已安装模型

图片

 

💬如何配置远程 Ollama 服务?

默认情况下,Ollama 服务仅在本地运行,不对外提供服务。要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量: 

如果 Ollama 作为 systemd 服务运行,应使用 systemctl 设置环境变量: 

调用 systemctl edit ollama.service 编辑 systemd 服务配置。这将打开一个编辑器。

在 [Service] 部分下为每个环境变量添加一行 Environment:

[Service]Environment="OLLAMA_HOST=0.0.0.0"Environment="OLLAMA_ORIGINS=*"

重新加载 systemd 并重启 Ollama:

systemctl daemon-reloadsystemctl restart ollama
二、拉取并运行DeepSeek模型

官方模型库参考:Ollama DeepSeek-R1 页面 

图片

1. 拉取模型
ollama pull deepseek-r1          # 官方推荐模型名称

模型规格选项(按需选择):

ollama pull deepseek-r1:7b     # 7B参数基础版ollama pull deepseek-r1:33b    # 33B参数进阶版(需更高显存)

图片

2. 运行模型
ollama run deepseek-r1

验证交互: 

>>> 你好,请用中文回答你好!我是DeepSeek-R1,很高兴为您提供帮助!

 

三、不同硬件场景配置说明

根据硬件资源选择运行模式: 

场景1:纯CPU运行

适用情况:无独立显卡或显存不足  

配置优化: 

限制线程数(避免资源耗尽):

OLLAMA_NUM_THREADS=4 ollama run deepseek-r1  # 限制4线程

使用量化模型(减少内存占用):

ollama pull deepseek-r1:7b-q4_0             # 4-bit量化版

内存要求:

7B模型:至少8GB空闲内存

33B模型:至少32GB空闲内存

 

场景2:CPU+GPU混合运行

适用情况:有NVIDIA显卡(需CUDA支持)  

配置步骤: 

安装驱动:

安装 NVIDIA驱动 和 CUDA Toolkit 12.x

启用GPU加速:

ollama run deepseek-r1 --gpu              # 强制使用GPU

显存要求:

7B模型:至少6GB显存

33B模型:至少20GB显存

性能监控:

nvidia-smi               # 查看GPU利用率

 

四、AI问答应用接入本地大模型方式1:部署MaxKB并接入Ollama

图片

1. 通过Docker部署MaxKB
docker run -d \  --name=maxkb \  -p 8080:8080 \  -v ~/maxkb_data:/var/lib/postgresql/data \  1panel/maxkb:latest

访问 http://localhost:8080,默认账号密码 admin/MaxKB@123..

 

2. 配置Ollama模型接入

进入MaxKB控制台:模型管理 > 添加模型

填写参数:

模型类型:Ollama

模型名称:DeepSeek-r1

Base URL:http://ollama主机ip:11434(Docker内访问宿主机)

模型名称:deepseek-r1(与Ollama拉取的模型名一致)

图片

3. 创建应用并测试问答功能

图片

图片

方式2:本地安装chatBox AI并接入本地大模型1、下载安装包

访问 GitHub Releases 页面:ChatBox Releases!ChatBox Releases页面

选择 Windows 版本:

2、安装 ChatBox

运行安装程序:

双击下载的 .exe 文件,按提示完成安装。

3、基础配置3.1. 连接 本地模型

确保 Ollama 服务已运行。

在 ChatBox 设置中选择 **ollama api**,填写:

API Endpoint: http://localhost:11434

API Key: 留空

Model Name: deepseek-r1(与 Ollama 模型名称一致)

图片

图片

3.2 可以自定义界面

图片

3.3 验证使用

图片

 

五、常用的故障排查方法1. Ollama服务无法启动

日志查看:

journalctl -u ollama -f   # Linux

端口冲突:修改Ollama端口:

OLLAMA_HOST=0.0.0.0:11435 ollama serve  # 指定新端口

 

2. 模型加载失败

重新初始化:

ollama rm deepseek-r1 && ollama pull deepseek-r1

 

3. MaxKB连接超时

检查网络:

curl http://ollama-ip:11434  # 确认Ollama API可达

跨域问题:在Ollama启动时添加:

OLLAMA_ORIGINS="*" ollama serve

 

 

六、性能优化建议场景推荐配置CPU模式使用GPU模式启用七、AI服务器性能监控

我使用zabbix+grafana对服务器做了资源使用情况的监控,因为我的服务器没有GPU,全部使用CPU去跑,当我运行大模型的时候,可以看到服务器资源站哟比较高(目前我测试用的的Deepseek-r1:7b) 

图片

图片

图片

 

最近一年文章更新基本没有什么收益,今天开始每篇文章后面会给大家挂几个小游戏,大家看完文章记得玩两把再退出去,感谢!同时文中也有一些视频广告,大家也帮忙点开看看,看看即可,不必深度参与。 本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。