主题:有烧deepseek的吗?
正序浏览
主题图片汇总
主题内检索
浏览:9652 回帖:220
游客没有回帖权限
泡菜
泡网分: 23.225
主题: 68
帖子: 3267
注册: 2007年3月
臭手 发表于 2025-02-02 16:49
和什么豆包文心之类的差不多,网页和app都可以玩儿,可下载app玩儿、也可以不下载就在网页上玩儿,都行。
个人感觉貌似还不如豆包,没法举实例但是感觉上略微欠点意思。感觉上它自己还没在商业化这块儿下太大功夫,目前可能还只是个不错的原理架构,或者干脆叫原...

我感觉和“文心一言”、“豆包”之类的不是一代产品,好多了。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
河南省
泡菜
泡网分: 23.225
主题: 68
帖子: 3267
注册: 2007年3月
这回真的感觉虎躯一震,真的不错。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
河南省
泡菜
泡网分: 5.625
主题: 183
帖子: 5470
注册: 2016年8月
zgychn 发表于 2025-02-10 22:46
折腾了10天,在一台台式机和一台笔记本以及一台macbook装了deepseek r1,最多只能跑14b。
台式机是hp的暗影精灵3060显卡,16g内存,i5-12400f的处理器,跑14b首字出现约15秒左右,后面5~10token/秒。32g跑...
嗯,这个早就猜到了,个人电脑不用尝试,否则也不会那么火爆,背后是需要大型硬件支撑的。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
泡菜
泡网分: 0.841
主题: 21
帖子: 792
注册: 2010年10月
benniewang 发表于 2025-02-11 02:18
算了不折腾了。还是用网络版的chatgpt吧,关于网络版的ds我最大的担心是个人信息的泄露。

正解。可以跑起来与能打是两码事。

边缘部署推理模型的最终出路极可能是便宜的推理专用LPU出来。效率和隐私能满足大众市场。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
子版版主
泡网分: 94.257
主题: 1031
帖子: 25979
注册: 2003年10月
内容贡献勋章
benniewang 发表于 2025-02-11 02:18
算了不折腾了。还是用网络版的chatgpt吧,关于网络版的ds我最大的担心是个人信息的泄露。

你这个需求最适合自己部署一个私有的大语言模型了。否则3990x + 256g也浪费了。
如果觉得那个麻烦。就直接搞Ollama,安装Ollama后,命令行里执行Ollama run DeepSeek-R1:70B即可,在3990x上表现应该也很好。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
资深泡菜
泡网分: 46.887
主题: 170
帖子: 9704
注册: 2002年1月
duoduobear 发表于 2025-02-11 01:13
试试这个 https://forum.xitek.com/thread-1988035-findpost-89773191.html#p_89773191

算了不折腾了。还是用网络版的chatgpt吧,关于网络版的ds我最大的担心是个人信息的泄露。
(0)
(1)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
子版版主
泡网分: 94.257
主题: 1031
帖子: 25979
注册: 2003年10月
内容贡献勋章
benniewang 发表于 2025-02-10 10:39
3990x + 256g内存可以跑么?

试试这个 https://forum.xitek.com/thread-1988035-findpost-89773191.html#p_89773191
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
泡菜
泡网分: 0.18
主题: 12
帖子: 121
注册: 2024年9月
如果本地部署不把超级对不齐解除,真还不如云上跑,还不能折腾软硬件。

(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
泡菜
泡网分: 0.845
主题: 5
帖子: 352
注册: 2012年1月
折腾了10天,在一台台式机和一台笔记本以及一台macbook装了deepseek r1,最多只能跑14b。
台式机是hp的暗影精灵3060显卡,16g内存,i5-12400f的处理器,跑14b首字出现约15秒左右,后面5~10token/秒。32g跑不起来,一小时出不来首字。
win笔记本是华硕的ai本,amd h370处理器,16g内存,跑14b首字出现约20秒左右,后面5~10token/秒。
macbook m2处理器,16g内存,跑14b首字出现约25秒左右,后面3~10token/秒。32g跑不起来,一小时出不来首字。
都是Ollama+cherry studio/openweb ui/dify/anything/maxkb配置,做的本地知识库。

使用下来14b完全不能胜任!
我的数据库里是上市公司年报,用/dify/anything/maxkb量化文件后,让其查找某个公司某年的每股收益,基本上查不到,不是说在年报里查不到,是根本找不到相应的年报。开始怀疑是我提问不准确,就用年报里面的文字来提问,结果还是不行,就怀疑量化模型问题,但是三个软件不能量化模型都不行,这又就让我怀疑deepseek r1 7b版本不行,就都升级为14b,还不行,就升级32b,结果跑不了。
后来装了cherry studio,开始运行14b也不行,后来接到硅基流动里面的deepseek-r1满血版,这下可以了,我这才知道14b以下版本可能是模型根本不懂你的话,或是不懂搜索到的量化文件。
/dify连接的硅基流动没有r1版本,不知道行不行。anything连接到r1版本,还是向傻瓜一样,不知道什么问题,不过他家功能多。maxkb连不上硅基流动,不知道行不行。

最后的结论是聊聊天就用网页版或app就行了,目前想做个人知识库,可能最少要32b版本,或是充值用联网满血版最好。
发布自 iOS客户端
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
泡菜
泡网分: 0.104
主题: 0
帖子: 63
注册: 2024年3月
stephvagabond 发表于 2025-02-10 10:46
个人电脑部署deepseek都放弃吧。用现在差不多最好的家用电脑nvidia 4090显卡,也只能跑32b的deepseek,和全血的deespeek 671b差距太大。
顺便,最推的AI笔记本/平板/手机也都是智商税。可以打的都是把问题推到后端,由...
目前阶段,感觉个人电脑部署没啥意义,费劲半天弄出来的东西,可能就是个半成品,
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
泡菜
泡网分: 2.211
主题: 5
帖子: 2104
注册: 2020年5月
老乞丐88 发表于 2025-02-10 16:22
你能给推荐一下,如果运行deepseek的话,最低的配置是啥样?

只需要 8G 内存,就能跑 1.5b 模型了,说胡话也是 deepseek

联想P720工作站,双志强 6133 + 512G 内存,闲鱼大概一万就够了,这个保证能说人话
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
泡菜
泡网分: 6.371
主题: 40
帖子: 2884
注册: 2021年5月
年内主力装备
NIKON D850
stephvagabond 发表于 2025-02-10 10:46
个人电脑部署deepseek都放弃吧。用现在差不多最好的家用电脑nvidia 4090显卡,也只能跑32b的deepseek,和全血的deespeek 671b差距太大。
顺便,最推的AI笔记本/平板/手机也都是智商税。可以打的都是把问题推到后端,由...

你能给推荐一下,如果运行deepseek的话,最低的配置是啥样?
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
山东省
泡菜
泡网分: 1.581
主题: 82
帖子: 1200
注册: 2020年10月
stephvagabond 发表于 2025-02-10 10:46
个人电脑部署deepseek都放弃吧。用现在差不多最好的家用电脑nvidia 4090显卡,也只能跑32b的deepseek,和全血的deespeek 671b差距太大。
顺便,最推的AI笔记本/平板/手机也都是智商税。可以打的都是把问题推到后端,由...

的确ds的本地部署太耗资源,大多数人的电脑都32b都跑不起来。
网上有人推荐苹果m4 pro芯片,只是内存要配大一点。
看评测相当不错,居然能勉强跑70b。惊艳!

登录后可直接显示原图

我准备等新一代的Mac studio
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
重庆
泡菜
泡网分: 0.656
主题: 16
帖子: 527
注册: 2022年2月
一晴方觉夏深 发表于 2025-02-09 23:23
肯定的,从14b升级到32b就是DeepSeek-R1的一个全新的安装。
我的理解是如果用AnythingLLM或LM Studio在本地建立的知识库模型,是脱离了DeepSeek的模型,由AnythingLLM或LM Studio来进行训练和管理。...

是的。但是不同结构与参数的模型相当于不同的智商的人类,模型升级就要升级模型的结构与参数
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
泡菜
泡网分: 0.656
主题: 16
帖子: 527
注册: 2022年2月
stephvagabond 发表于 2025-02-10 10:46
个人电脑部署deepseek都放弃吧。用现在差不多最好的家用电脑nvidia 4090显卡,也只能跑32b的deepseek,和全血的deespeek 671b差距太大。
顺便,最推的AI笔记本/平板/手机也都是智商税。可以打的都是把问题推到后端,由...

家用笔记本电脑:
7b:nvidia rtx2050
14b:nvidia rtx3060
本地可以完美运行。
这里有满血版本地运行的配置:[转]用 2000 美元 EPYC 服务器本地跑起 Deepseek R1 671b 大模型-首席AI分享圈
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
泡菜
泡网分: 0.174
主题: 14
帖子: 363
注册: 2004年10月
个人电脑部署deepseek都放弃吧。用现在差不多最好的家用电脑nvidia 4090显卡,也只能跑32b的deepseek,和全血的deespeek 671b差距太大。

顺便,最推的AI笔记本/平板/手机也都是智商税。可以打的都是把问题推到后端,由后端进行处理的。话说,推后端和你前端有毛关系?另外,就是不打游戏的话,8G(12G) RAM/128G(256FLASH 也足够用了。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
陕西省
资深泡菜
泡网分: 46.887
主题: 170
帖子: 9704
注册: 2002年1月
3990x + 256g内存可以跑么?
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
泡菜
泡网分: 5.625
主题: 183
帖子: 5470
注册: 2016年8月
本地部署对硬件要求很高,放弃了。

登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
子版版主
泡网分: 94.257
主题: 1031
帖子: 25979
注册: 2003年10月
内容贡献勋章
washu 发表于 2025-02-09 09:23
好吧我这里果然是穷山僻壤,没人玩这个 今天早上看终于下好了,问了个小问题,内存 14G+,奇怪的是显存也爆掉了 --- 这玩意不是只用 CPU 和主内存的么

我看到网上有人展示更快的Ollama下载速度,地点是在北京。北京联通2000M宽带,下载峰值300MB/s,平均270MB/s,

登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
泡菜
泡网分: 1.581
主题: 82
帖子: 1200
注册: 2020年10月
rivalvive 发表于 2025-02-09 22:50
ds开源的是v3  14b只是开源权重 不同参数的模型不能进行简单的升级 更换模型需要重新蒸馏 个人电脑要实现模型升级 瓶颈在硬件的投入

肯定的,从14b升级到32b就是DeepSeek-R1的一个全新的安装。

我的理解是如果用AnythingLLM或LM Studio在本地建立的知识库模型,是脱离了DeepSeek的模型,由AnythingLLM或LM Studio来进行训练和管理。从14b升级到32b可以继续使用原有训练成熟的模型。 不知道对不对?

(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
重庆
泡菜
泡网分: 0.656
主题: 16
帖子: 527
注册: 2022年2月
一晴方觉夏深 发表于 2025-02-09 15:35
我已经从ollama下载deepseek-R1 的模型完成了本地部署并运行正常,也安装了chatbox实现了UI界面对R1的访问。
现在我想建立自己的模型,并进行知识投喂、训练。似乎这方面的软件比较多,该选哪个比较好呢?请给一些建议吧。
另外,我希望...

ds开源的是v3  14b只是开源权重 不同参数的模型不能进行简单的升级 更换模型需要重新蒸馏 个人电脑要实现模型升级 瓶颈在硬件的投入
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
泡菜
泡网分: 1.581
主题: 82
帖子: 1200
注册: 2020年10月
couldiy 发表于 2025-02-09 21:25
搭车问一下,我也想这样部署,而且愿意付费请人帮我解除它的超级对不齐,有人想试试吗?


超级对不齐是啥意思?
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
重庆
泡菜
泡网分: 0.18
主题: 12
帖子: 121
注册: 2024年9月
一晴方觉夏深 发表于 2025-02-09 15:35
我已经从ollama下载deepseek-R1 的模型完成了本地部署并运行正常,也安装了chatbox实现了UI界面对R1的访问。
现在我想建立自己的模型,并进行知识投喂、训练。似乎这方面的软件比较多,该选哪个比较好呢?请给一些建议吧。
另外,我希望...


搭车问一下,我也想这样部署,而且愿意付费请人帮我解除它的超级对不齐,有人想试试吗?
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
泡菜
泡网分: 1.581
主题: 82
帖子: 1200
注册: 2020年10月
washu 发表于 2025-02-07 18:27
有可能
我在隔壁帖子看到可以用诸如 Chatbox 等工具给 Ollama 喂 pdf,准备试试 --- DSR1 官网那个动不动就装死,实在是玩不动 不过我的电脑不知道跑步跑得起 14b,还在 pulling 模型...


可以通过Chatbox给Ollama喂pdf文档? 图片呢?

(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
重庆
泡菜
泡网分: 31.036
主题: 60
帖子: 486
注册: 2002年3月
wangjianshu95 发表于 2025-02-03 13:26
初次接触,感觉很爽,

两阙词写得很阔以嘛
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
北京
泡菜
泡网分: 1.581
主题: 82
帖子: 1200
注册: 2020年10月
大爱河南 发表于 2025-02-07 09:29
dp称不上ai吧,总体是全互联网搜索和归总,相当于针对一个问题,个人百度一下后在归集总结。但个人会加入自己的看法,而dp没有。
用了两次,问询了一些问题,得不到自己想要的。但可能成为生产力,好比写文章等。

不论怎么缩写都不可能是dp,显然ds是不二之选
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
重庆
泡菜
泡网分: 19.143
主题: 205
帖子: 5732
注册: 2008年9月
年内主力装备
HUAWEI Pura 70 Ultra
在手机上试玩了一下用DeepSeek+剪映生成短视频故事,有点意思。收费功能不用,只用免费的
单帧输出

登录后可直接显示原图

登录后可直接显示原图

登录后可直接显示原图

wangjianshu95 编辑于 2025-02-09 16:10
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
江苏省
泡菜
泡网分: 1.581
主题: 82
帖子: 1200
注册: 2020年10月
我已经从ollama下载deepseek-R1 的模型完成了本地部署并运行正常,也安装了chatbox实现了UI界面对R1的访问。

现在我想建立自己的模型,并进行知识投喂、训练。似乎这方面的软件比较多,该选哪个比较好呢?请给一些建议吧。
另外,我希望自己建立的模型是独立于Deepseek以外,便于自建模型的移植——因为我目前的用的是低版本14b,要考虑以后电脑更换性能提升,deepseek也要升级到32b甚至是70b。也就是要考虑自建模型伴随deepseek模型的升级进行移植。 这个应该可以实现吧?

(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
重庆
泡菜
泡网分: 1.581
主题: 82
帖子: 1200
注册: 2020年10月
CarrodRen 发表于 2025-02-04 10:34
有点想试试~这类模型是不是可以自己喂数据,例如拍的相片,然后让它帮忙整理图片?删除重复的、模糊的,标识人名这些?


只能识别txt、pdf、doc之类的文本型文档。多媒体看不懂的哦,我都希望它帮我看视频学习知识呢!
可惜现在AI还太稚嫩
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
重庆
泡菜
泡网分: 57.199
主题: 84
帖子: 18726
注册: 2006年3月
内容贡献勋章
duoduobear 发表于 2025-02-08 16:05
14B需要11GB内存,70B需要45GB内存。

跑了一下 14b,没有使用 -gpu 关键字让它在 GPU 中运行(P2000 应该也跑不了),那它是不是应该只用 CPU 和系统内存?

但现在是,它先吃掉我 5G 显存,然后吃掉 12G 系统内存,然后 CPU 负荷大约 50%(据说默认是这样),GPU 负荷不高但也在跑

登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广西
回复主题: 有烧deepseek的吗?
功能受限
游客无回复权限,请登录后再试