无忧启动论坛

 找回密码
 注册
搜索
系统gho:最纯净好用系统下载站投放广告、加入VIP会员,请联系 微信:wuyouceo
查看: 8516|回复: 138
打印 上一主题 下一主题

五分钟搞定Deepseek本地化部署,轻松拿捏不求人!

    [复制链接]
跳转到指定楼层
1#
发表于 2025-2-5 16:17:58 | 只看该作者 |只看大图 回帖奖励 |正序浏览 |阅读模式
本帖最后由 天风 于 2025-2-10 09:41 编辑


可以免费使用的DeepSeek链接网页版:

今年春节给人最大的惊喜不是春晚而是Deepseek智能AI模型的开源,以及对漂亮国的打击!
那么DP官方服务器经常被攻击导致无法运行,那么作为一个经常需要文字工作的牛马就很迫切需要一个本地化的deepseek,其实并不像官方所说的那样需要配置高端性能的电脑和显卡才能工作,今天一上班就从可行性上分析并测试,顺利安装成功并调试完成,输出作品的速度还能够忍受,1000字的文稿形成速度大约需要2分钟。
下面为大家简要说一下整个部署过程:
首先需要准备两个小软件,如果想要在本地运行 DeepSeek 需要用到 Ollama和Chatbox 这俩工具,大家可以到官网搜索下载,为了提高下载速度大家可以从网盘下载,我已经上传好了


Ollama 安装完成后需要打开电脑的 CMD ,也就是命令提示符,只需要在电脑下方的搜索框中输入 cmd 即可打开。
打开后在命令提示符窗口中输入 ollama help 并按回车键,这个操作是为了验证这个软件是否安装成功,如果没有报错的话则表示这个软件安装成功。
这时需要退出软件,修改一下此软件的系统环境变量,以便于下一步下载大模型数据,在系统高级设置中,新建环境变量,OLLAMA_MODELS,把变量值设置为你自己的路径,这里暂定为E:\Ollama\models
回到 https://ollama.com/网址中,在网页上方搜索框中输入 Deepseek-r1,点击 Deepseek-r1 后会进入详情界面,里面有多个参数规模可供选择,从 1.5b 到 671b 都有。需注意的是,这里我们需要根据自己电脑的硬件配置来选择模型大小,下面是一个模型大小配置参考表格,大家可根据自己的电脑配置来自行选择,当然了,部署的本地模型越大,使用的深度求索效果就越好。选择好模型规模后,复制右边的一个命令。命令复制完成后回到命令提示符窗口,将刚刚复制的命令粘贴到命令提示符窗口中并按回车键即可下载模型。
我电脑16G内存,选用了8b模型:ollama run deepseek-r1:8b
下载完成后, 就可以直接在命令行界面进行聊天对话,如果对这个界面并不满意,那么我们可以进行下一步的工作,安装chatbox,按提示选择本地模型,选择ollama-api,其他选择默认,保存,退出chatbox并重新启动,大功告成,可以使用了!

评分

参与人数 10无忧币 +47 收起 理由
新空气 + 5 很给力!
clonecd + 5 很给力!
helloman + 5 依葫芦画瓢成功!
wuxin9712 + 5
my366 + 5 很给力!
qaz10533 + 5 强烈建议论坛新划个AI研究的版块,可以谈论.
易广白 + 5 很给力!
zyrlj5025 + 2 很给力!
likeyouli + 5 很给力!
445112826 + 5 赞一个!

查看全部评分

139#
发表于 3 天前 | 只看该作者
感谢大佬的分享
回复

使用道具 举报

138#
发表于 3 天前 | 只看该作者
感谢分享
回复

使用道具 举报

137#
发表于 2025-3-13 08:52:39 | 只看该作者
感谢分享
回复

使用道具 举报

136#
发表于 2025-3-13 08:16:15 | 只看该作者
非常实用!感谢提供!
回复

使用道具 举报

135#
发表于 2025-3-13 08:14:14 | 只看该作者
8b比官方网页满血版如何?
回复

使用道具 举报

134#
发表于 2025-3-13 07:58:02 | 只看该作者
支持分享    拥抱AI
回复

使用道具 举报

133#
发表于 2025-3-13 05:40:11 | 只看该作者
谢谢分享。。。。。。。
回复

使用道具 举报

132#
发表于 2025-3-12 20:30:21 | 只看该作者
6666666666666666666666666
回复

使用道具 举报

131#
发表于 2025-3-12 16:40:21 | 只看该作者
感谢分享
回复

使用道具 举报

130#
发表于 2025-2-18 17:00:59 | 只看该作者
在线的现在用着也还行了
回复

使用道具 举报

129#
发表于 2025-2-16 07:47:31 来自手机 | 只看该作者
plutoshen 发表于 2025-2-5 16:36
数据量太大了

知道吗,cuda runner 占差不多1G,你显卡不支持 cuda 12 就把 cuda 12 runner 删了,省500M
回复

使用道具 举报

128#
发表于 2025-2-16 07:36:48 | 只看该作者
感谢分享
回复

使用道具 举报

127#
发表于 2025-2-16 07:15:26 | 只看该作者
连接 Ollama API 失败。这通常是由于配置错误或 Ollama API 账户问题。请检查您的设置并验证您的 Ollama API 账户状态。
回复

使用道具 举报

126#
发表于 2025-2-14 20:46:52 | 只看该作者
plutoshen 发表于 2025-2-14 20:15
我32G内存,最高装的32b,再大就卡得不行了。

9600kf+32g,试了下本地化,特别卡。这还是冬天。没有12代以上cpu的性能还是别试了。
回复

使用道具 举报

125#
发表于 2025-2-14 20:15:04 | 只看该作者
felixatvan 发表于 2025-2-6 02:48
我曾试着在Linux下安装r1:8b,机器内存是8G,最后两步失败。在我的这件案例里,内存是关键的。

我32G内存,最高装的32b,再大就卡得不行了。

点评

9600kf+32g,试了下本地化,特别卡。这还是冬天。没有12代以上cpu的性能还是别试了。  详情 回复 发表于 2025-2-14 20:46
回复

使用道具 举报

124#
发表于 2025-2-11 09:15:14 | 只看该作者
下载好的数据是在那里?我想移动到非C盘
回复

使用道具 举报

123#
发表于 2025-2-10 16:32:25 来自手机 | 只看该作者
有没有傻瓜式一键配置完成
回复

使用道具 举报

122#
发表于 2025-2-10 16:23:00 | 只看该作者
感谢分享
回复

使用道具 举报

121#
发表于 2025-2-10 09:31:59 | 只看该作者

感谢分享,
回复

使用道具 举报

120#
发表于 2025-2-8 22:49:17 | 只看该作者
这个太大了
回复

使用道具 举报

119#
发表于 2025-2-8 22:10:14 | 只看该作者
感谢楼主分享
回复

使用道具 举报

118#
发表于 2025-2-8 17:13:12 | 只看该作者
谢谢楼主分享!
回复

使用道具 举报

117#
发表于 2025-2-8 14:15:05 | 只看该作者
谢谢分享!
回复

使用道具 举报

116#
发表于 2025-2-8 12:20:01 | 只看该作者
hkl7366 发表于 2025-2-8 11:28
楼主,请问您这配置本地安装后,能提供给局域网内大约多少人使用?

我一个人使用。
回复

使用道具 举报

115#
发表于 2025-2-8 11:40:05 | 只看该作者
感谢分享,准备试试
回复

使用道具 举报

114#
发表于 2025-2-8 11:32:10 | 只看该作者
刚刚想用deepseek询问一个生活中的常识,结果告诉我服务器繁忙,请稍后再试。(再牛的算法也架不住中国人多啊),所以搭本地服务局域网内共享使用一直是我的理想配置。
回复

使用道具 举报

113#
发表于 2025-2-8 11:28:39 | 只看该作者
15126222223 发表于 2025-2-7 10:55
我的内存海盗船32G,cpu为i5(14代),显卡为英伟达 4080Pro的,硬盘用三星 990Pro(2T和4T各一块)

楼主,请问您这配置本地安装后,能提供给局域网内大约多少人使用?

点评

我一个人使用。  详情 回复 发表于 2025-2-8 12:20
回复

使用道具 举报

112#
发表于 2025-2-8 11:27:37 | 只看该作者
这个R1是满血的吗
回复

使用道具 举报

111#
发表于 2025-2-8 11:01:38 | 只看该作者
我就在线用
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|捐助支持|无忧启动 ( 闽ICP备05002490号-1 )

闽公网安备 35020302032614号

GMT+8, 2025-4-4 02:43

Powered by Discuz! X3.3

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表