主题:DeepSeek开源了
正序浏览
主题图片汇总
主题内检索
浏览:17277 回帖:624
游客没有回帖权限
老坛泡菜
泡网分: 64.317
主题: 1174
帖子: 81141
注册: 2003年6月
内容贡献勋章
年内主力装备
★ iPhone 15 Pro Max
★ Canon PowerShot SX60 HS
华南金牌671B Q4模型的算力和性能如何?分享华南金牌适配 DeepSeek 671B Q4 模型的硬件配置,能在一定程度上实现该模型的运行,其算力和性能表现如下:
推理速度:使用华南金牌相关配置,如华南金牌 X10 X99 双路主板、E52686V4 处理器等总计 7280 元的配置,稳定输出速度可达 4 - 5tokens/s 。
其他类似配置的设备,也能实现 3.5 - 4.25TPS(每秒令牌数)的推理速度。不过,如果内存等硬件资源不足,推理速度会大幅下降,如 256G 内存运行 404G 的 Q4 模型时,速度仅 1.83tokens/s。
计算精度:DeepSeek 671B Q4 模型属于量化满血版(INT8/Q4 精度),是通过降低计算精度来压缩显存需求。虽然这种方式能让单机成本大幅降低,但可能导致关键数据丢失。有企业采购该量化版本后发现,显存需求虽降低,但任务错误率飙升 30% 。
硬件需求与适配 :运行该模型对硬件有一定要求,如至少需要 382GB 内存等。华南金牌的这套配置针对 3080 20G 显卡容量不足的问题,需借助特定代码和修改源码文件等操作进行部署,即便如此,仍可能出现随机爆显存的情况 。
应用场景表现:在处理长文本和复杂数学计算任务时,若硬件资源不匹配,表现欠佳,不仅速度慢,还可能无法正确回答完题目。但在满足硬件条件下,基于 671B 参数量级,该模型支持复杂逻辑推理与长文本深度交互,相较于蒸馏版模型,具备更强的性能和更全的功能 。
总的来说,华南金牌相关硬件配置可实现 DeepSeek 671B Q4 模型的本地运行,但受硬件性能和模型量化等因素影响,在推理速度、计算精度和任务处理能力上有一定局限性。

---------
有企业买?搞开发肯定不行,拿来测测大模型需要什么电脑还行,回头做一般开发用或不上满血版就是~。
开山鼻祖 编辑于 2025-03-12 23:43
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
老坛泡菜
泡网分: 64.317
主题: 1174
帖子: 81141
注册: 2003年6月
内容贡献勋章
年内主力装备
★ iPhone 15 Pro Max
★ Canon PowerShot SX60 HS
我几乎不看哔哩哔哩那些主的视频,他们的主机拼多多都有卖的,某宝也有,我当初某宝买的,最初是单u,后来觉得可以试下双u就又买个板但只要了一个u,把之前单u板u卸下来构成双u,开始总不能工作,后来问了卖家搞好了。但开机依然有时开时不能开的问题,估计是双u板造成,最后还是单u工作,这下好了,之前那个单u板机子又不行了,现在躺平~.

图是双u板,目前只有一个u,开机还是不正常(要几次拔电~),最终能开,现在做照片备份机了。
登录后可直接显示原图


登录后可直接显示原图

开山鼻祖 编辑于 2025-03-12 23:27
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
老坛泡菜
泡网分: 64.317
主题: 1174
帖子: 81141
注册: 2003年6月
内容贡献勋章
年内主力装备
★ iPhone 15 Pro Max
★ Canon PowerShot SX60 HS
duoduobear 发表于 2025-03-12 12:55
7280元 4通道512GB DDR4 2400内存,3080显卡 20GB显存,671B KTransformers 跑到 4 Token/s
Up主总结的当前最佳性价比解决方案
价格和配置确实很不错。可惜KTransformers 目前好像不支持...

前几年配过一个华南板双u主机,现在当照片服务器了。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
泡菜
泡网分: 2.307
主题: 5
帖子: 2187
注册: 2020年5月
bird3000 发表于 2025-03-12 13:35
就是一个大内存,通用性很差,有现成的硬件玩玩可以,也只能玩玩,4T/s,使用体验不会好。性价比首先要有性能。

4T/s,仅是体验不好而已,已经比人脑强多了
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
陈年泡菜
泡网分: 60.991
主题: 54
帖子: 5655
注册: 2000年6月
duoduobear 发表于 2025-03-12 12:55
7280元 4通道512GB DDR4 2400内存,3080显卡 20GB显存,671B KTransformers 跑到 4 Token/s
Up主总结的当前最佳性价比解决方案
价格和配置确实很不错。可惜KTransformers 目前好像不支持...

就是一个大内存,通用性很差,有现成的硬件玩玩可以,也只能玩玩,4T/s,使用体验不会好。性价比首先要有性能。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
浙江省
陈年泡菜
泡网分: 60.991
主题: 54
帖子: 5655
注册: 2000年6月
duoduobear 发表于 2025-03-12 12:55
7280元 4通道512GB DDR4 2400内存,3080显卡 20GB显存,671B KTransformers 跑到 4 Token/s
Up主总结的当前最佳性价比解决方案
价格和配置确实很不错。可惜KTransformers 目前好像不支持...
自己的电脑不会为了跑deep seek专门去插512G内存,还是2400M的低速内存,估计CPU也不会很好,跑图片AI估计够呛,就是一个大内存,通用性极差,有现成的硬件部署一下玩玩可以,反正4T/s,也只能玩玩,谈不上性价比,性价比首先是要有性能。
这个机器如果跑32B及以下的模型可能比一些高配的笔记本都差。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
浙江省
子版版主
泡网分: 94.589
主题: 1040
帖子: 26253
注册: 2003年10月
内容贡献勋章
7280元 4通道512GB DDR4 2400内存,3080显卡 20GB显存,671B KTransformers 跑到 4 Token/s
Up主总结的当前最佳性价比解决方案

不合规的嵌入视频代码,可能会导致页面异常跳转,不予解析

https://www.bilibili.com/video/BV1Q29JYDELP/?spm_id_from=333.1007.tianma.4-2-12.click&vd_source=0eacb33452b6d488777e4d609a848778


价格和配置确实很不错。可惜KTransformers 目前好像不支持Windows。

(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
泡菜
泡网分: 18.263
主题: 11
帖子: 15149
注册: 2012年6月
通义灵码接入了QWQ,但是钉钉AI助手还没有,但是 AI助手可以选择的模型挺多的。。。

估计也是日后的一个收费点吧。。

登录后可直接显示原图

登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
山东省
泡菜
泡网分: 18.263
主题: 11
帖子: 15149
注册: 2012年6月
闲聊状态 发表于 2025-03-07 21:35
这个没注意。。。 这个可以用钉钉,自己造一个ai助手,然后可以指定

这linux钉钉功能真是少了不少。。。连最近WIN下主推的AI助理都不支持啊......

在这里建助手的时候可以选各种阿里的模型或者deepseek
登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
山东省
陈年泡菜
泡网分: 51.722
主题: 156
帖子: 34514
注册: 2008年8月
内容贡献勋章
年内主力装备
GFX100S
LEICA M (Typ 262)
★ NIKON Z 7_2
duoduobear 发表于 2025-03-07 14:31
我装了Q4精度的QWQ,对比DeepSeek-R1:32b,它们显示的模型信息完全一样。是不是说数据都是一样的,只是推理模型不一样?这种情况下,如何评估哪一个推理能力更强或者性能更好?

模型架构是架构,内容是内容
都是1.5升的瓶子,里面装的饮料未必一个味儿
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
北京
泡菜
泡网分: 18.263
主题: 11
帖子: 15149
注册: 2012年6月
zyz1993 发表于 2025-03-07 12:52
这个QwQ有没有手机云端版的?

这个没注意。。。 这个可以用钉钉,自己造一个ai助手,然后可以指定
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
山东省
子版版主
泡网分: 94.589
主题: 1040
帖子: 26253
注册: 2003年10月
内容贡献勋章
bird3000 发表于 2025-03-06 17:29
《望湖慢.钱塘秋思》 西湖潋滟,三秋桂子,凋零半委平堤。 画舫苔侵,风帘香冷,寒烟淡抹城池。 暮云合璧西。记吴山醉墨,曾写乌衣。 十二阑干,玉箫吹彻月痕低。
垂杨犹系当时。纵湖光似酒,难浣相思。 柳浪闻莺,长桥望断,星霜暗换归期。 雁字过空漪。但芦花...

>>> 根据后面的词写一首对应的词做“和”,《望湖慢.钱塘秋思》 西湖潋滟,三秋桂子,凋零半委平堤。 画舫苔侵
... ,风帘香冷,寒烟淡抹城池。 暮云合璧西。记吴山醉墨,曾写乌衣。 十二阑干,玉箫吹彻月痕低。
... 垂杨犹系当时。纵湖光似酒,难浣相思。 柳浪闻莺,长桥望断,星霜暗换归期。 雁字过空漪。但芦花数点,飘
... 入苔矶。 独倚孤篷人老,波上旧鸥知?

<think>
好的,用户让我根据《望湖慢·钱塘秋思》写一首对应的“和词”。首先我需要先理解原作的意境、主题以及结构
,这样才能确保和词在风格和内容上与之呼应。

首先看题目是《望湖慢》,属于慢词,可能比较长,但用户提供的例子看起来像是一个片段。原词描绘了钱塘(
杭州)秋天的景色,充满了萧瑟、离别的氛围。比如“西湖潋滟”“三秋桂子”这些意象都是典型的江南秋景,“凋
零半委平堤”说明桂花已经凋落了一半,铺满堤岸,给人一种凄凉的感觉。

接下来是结构分析:“画舫苔侵,风帘香冷,寒烟淡抹城池。”这里用了很多视觉和触觉的描写,船上的青苔、寒
冷的气息和薄雾笼罩的城市,进一步渲染了秋日的清冷。下阕提到“吴山醉墨”“乌衣”,可能指※※人物或典故,
比如东晋时期的乌衣巷,暗示时间的流逝或对过去的怀念。

然后看用户的需求是写一首对应的和词。我需要确保在主题、意象、情感上与原作一致,同时保持韵律结构相同
。要注意押韵和平仄是否协调,不过可能用户更在意意境和用词的匹配。

首先确定押韵。原词末尾的字:堤(ti)、池(chi)、衣(yi)、低(di),然后是时(shi)、思(si)、期
(qi)、漪(yi)、矶(ji)、知(zhi)。看起来可能有多个韵脚,但需要确认具体押的是哪个韵部。不过作
为和词,或许可以沿用类似的韵脚。

接下来考虑意象的选择:西湖、秋景、桂子、画舫、寒烟、暮云、吴山等元素都是原作的关键词,我需要在和词
中使用类似或相关的自然景观,并延续那种萧瑟、怀念的情感基调。比如“垂杨犹系当时”中的柳树象征离别,
“湖光似酒”比喻美景如醇酒却无法消解思念。

然后构思结构:上阕可能继续描绘秋景,下阕转入情感表达。要注意对仗工整,比如原词的“画舫苔侵,风帘香
冷”是两个四字短语并列,和词也需要类似的结构。

在用词方面,可以考虑使用相似的词汇,如“暮云”、“寒烟”、“孤篷”等,同时加入一些新的元素但保持整体氛围
。比如“星霜暗换归期”中的时间流逝感,可以在和词中体现为对远方或过去的怀念。

可能需要注意避免重复原句,而是用不同的表达方式来呼应主题。例如原词有“玉箫吹彻月痕低”,可以考虑使用
其他乐器如笛声、琴音,或者自然声音如流水声来替代,同时保持意境的统一。

最后检查韵律是否合适,确保每句的字数和结构与原作对应。比如原词上阕七句,下阕六句(加上结尾),可能
需要调整句子长度以匹配。

现在尝试创作:
《望湖慢·钱塘秋思》的和词可以这样构思:
上阕继续描绘西湖秋色,加入新的意象如残荷、孤雁等,强化萧瑟感。例如:

孤鸿掠影,暮雨潇潇,寒沙没尽汀洲。败叶浮萍,烟波浩渺,离人独倚高楼。往事逐水流。叹西泠旧事,犹记
兰舟。远岫苍茫,数声芦管晚风收。


下阕转向情感表达,用更强烈的思念和孤独感:

故园千里悠悠。纵江南景好,难解新愁。断桥残雪,长亭古道,年华暗换春秋。雁字寄无由。但凭栏远望,霜
鬓盈头。唯有清江明月,依旧伴孤舟。


这样既保持了原词的秋思主题,又通过新的意象如“孤鸿”、“芦管”、“断桥残雪”等丰富画面,同时押韵和结构上
尽量与原作协调。
</think>

《望湖慢·钱塘秋思》和词:

**《望湖慢·钱塘暮色》**
寒汀雁字,一川烟雨,苍茫暗锁重矶。败叶浮萍,残荷擎露,西风又卷罗衣。冷月浸琉璃。看吴山褪黛,空对涟
漪。往事如潮,玉笙吹断旧时题。


凭栏谁问归期?纵湖光似酒,难醉愁眉。柳老章台,苔侵石径,星霜暗换芳姿。渔火隔云帷。但芦花飞雪,飘入
斜晖。独听寒潮声里,天地共清凄。

---
### **创作思路与注解:**
1. **意象呼应**
   - 原词“西湖潋滟”对应“寒汀雁字”,以秋日暮色中的湖景强化萧瑟感;“三秋桂子凋零”化为“败叶浮萍、残荷擎露”,延续衰败的植物意象。
   - “画舫苔侵”转为“柳老章台,苔侵石径”,通过古道与青苔暗示时光流逝,呼应原作对※※感的追忆。
2. **情感深化**
   - 原词“难浣相思”的无奈,在和词中以“纵湖光似酒,难醉愁眉”强化,用“醉”字隐喻借景消愁却无解的矛盾。
   - “独听寒潮声里,天地共清凄”收尾,将孤寂感从个人推向宇宙苍茫,与原句“波上旧鸥知”的疏阔形成情感共鸣。
3. **韵律协调**
   - 韵脚沿用“矶、漪、题、期、眉、姿、帷、晖、凄”,均押平声韵(依《词林正韵》),与原作的低回婉转相和。
   - 结构上保留上下阕对仗句式,如“败叶浮萍,残荷擎露”对“柳老章台,苔侵石径”,呼应原词工整的意象排布。
4. **时空交错**
   - 引入“吴山褪黛”的暮色与“渔火隔云帷”的夜景,拓展原作的时间维度;以“天地共清凄”收束,将钱塘秋思升华为永恒的苍茫之境,暗合张炎《高阳台》“当年燕子知何处”的时空感怀。
---
### **词句注解:**
- **寒汀雁字**:化用李清照“雁字回时,月满西楼”,以雁阵喻漂泊与离思。
- **冷月浸琉璃**:以“琉璃”喻湖面如镜,反衬月光的清冷孤寂。
- **章台柳老**:借刘禹锡《杨柳枝》典故,暗指旧地重游或物是人非之叹。
- **天地共清凄**:化用杜甫“星垂平野阔”的壮景入愁思,以大空间反衬小我孤独。
---
此和词在继承原作秋思基调的基础上,通过意象叠加与时空延展,将离愁转化为更辽远的宇宙苍茫感,既呼应了《望湖慢》的婉约格调,又赋予主题新的哲思维度。
total duration:       11m51.2441771s
load duration:        9.8242426s
prompt eval count:    1327 token(s)
prompt eval duration: 6.554s
prompt eval rate:     202.47 tokens/s
eval count:           1670 token(s)
eval duration:        11m34.424s
eval rate:            2.40 tokens/s
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
MM7
资深泡菜
泡网分: 39.761
主题: 68
帖子: 3260
注册: 2002年8月
duoduobear 发表于 2025-03-07 14:31
我装了Q4精度的QWQ,对比DeepSeek-R1:32b,它们显示的模型信息完全一样。是不是说数据都是一样的,支持推理模型不一样?这种情况下,如何评估哪一个推理能力更强或者性能更好?
不一样,QWQ是最新开源的模型,DeepSeek-R1:32b是在老的qianwen2基础上蒸馏的,数据肯定不一样,QWQ性能要强
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
子版版主
泡网分: 94.589
主题: 1040
帖子: 26253
注册: 2003年10月
内容贡献勋章
MM7 发表于 2025-03-06 19:45
偶部署的是INT8,8位精度的
ollama show qwq:32b-q8_0  Model    architecture        qwen2    parameters          32.8B    context length  ...

我装了Q4精度的QWQ,对比DeepSeek-R1:32b,它们显示的模型信息完全一样。是不是说数据都是一样的,只是推理模型不一样?这种情况下,如何评估哪一个推理能力更强或者性能更好?

登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
资深泡菜
泡网分: 16.628
主题: 20
帖子: 20268
注册: 2008年8月
年内主力装备
★ ILCE-7RM3
★ LIO-AN00
闲聊状态 发表于 2025-03-06 15:19
多谢
这个网站做的比原来那个千问的好多了  
这个QwQ有没有手机云端版的?
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
北京
MM7
资深泡菜
泡网分: 39.761
主题: 68
帖子: 3260
注册: 2002年8月
偶部署的是INT8,8位精度的
ollama show qwq:32b-q8_0  Model    architecture        qwen2    parameters          32.8B    context length      131072    embedding length    5120    quantization        Q8_0
  Parameters    stop           "<|im_start|>"    stop           "<|im_end|>"    temperature    0.6
  License    Apache License    Version 2.0, January 2004
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
陈年泡菜
泡网分: 60.991
主题: 54
帖子: 5655
注册: 2000年6月
我在测试32B模型个人数据库的调用,20篇文档,检索效果不错,不过不知道为什么每次结果都有点不同。
这个模型在我的96G内存,24G 3090上速度很好,30~40T/s。
bird3000 编辑于 2025-03-06 19:39
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
浙江省
陈年泡菜
泡网分: 60.991
主题: 54
帖子: 5655
注册: 2000年6月
MM7 发表于 2025-03-06 18:01
我测试了,有点言过其实了,解数学题明显不如DS-R1-671B,但比其他各版本蒸馏的DS要好

不过32B这个参数确实牛逼,门槛大大降低了。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
浙江省
MM7
资深泡菜
泡网分: 39.761
主题: 68
帖子: 3260
注册: 2002年8月
bird3000 发表于 2025-03-06 13:56
晚上去PC上部署一个看看,据说达到deepseek 满血版的效果。

我测试了,有点言过其实了,解数学题明显不如DS-R1-671B,但比其他各版本蒸馏的DS要好
MM7 编辑于 2025-03-06 18:02
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
陈年泡菜
泡网分: 60.991
主题: 54
帖子: 5655
注册: 2000年6月
《望湖慢·钱塘秋思》 西湖潋滟,三秋桂子,凋零半委平堤。 画舫苔侵,风帘香冷,寒烟淡抹城池。 暮云合璧西。记吴山醉墨,曾写乌衣。 十二阑干,玉箫吹彻月痕低。
垂杨犹系当时。纵湖光似酒,难浣相思。 柳浪闻莺,长桥望断,星霜暗换归期。 雁字过空漪。但芦花数点,飘入苔矶。 独倚孤篷人老,波上旧鸥知?
注:此词依柳永善写都市风物之笔,融杭州秋景于婉约之中。“画舫苔侵”“寒烟淡抹”暗含繁华稍歇之叹,“垂杨犹系当时”转抒羁旅情怀。结句“独倚孤篷人老”,以清空之语收束,余惆怅于水天之间,得耆卿“杨柳岸晓风残月”之遗韵。
有deepseek满血版的效果吗?!
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
浙江省
泡菜
泡网分: 18.263
主题: 11
帖子: 15149
注册: 2012年6月
arondes 发表于 2025-03-06 10:39
https://chat.qwen.ai/ 上面可以测试MAX版

多谢

这个网站做的比原来那个千问的好多了  

登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
山东省
陈年泡菜
泡网分: 60.991
主题: 54
帖子: 5655
注册: 2000年6月
ddtx 发表于 2025-03-06 11:20
QWQ32B确实不错,我在不同的模型上问过一个偏门问题:如何设计一个VLF波段(音频)无线电接收机。只有QWQ32给出了最合理的方案,对天线-传输-放大-滤波-声卡-和软件各个环节给出的建议都是合理的。说偏门是因为没有人对VLF接收机感兴趣,资料有限...

晚上去PC上部署一个看看,据说达到deepseek 满血版的效果。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
浙江省
泡菜
泡网分: 26.597
主题: 17
帖子: 1923
注册: 2003年12月
QWQ32B确实不错,我在不同的模型上问过一个偏门问题:如何设计一个VLF波段(音频)无线电接收机。只有QWQ32给出了最合理的方案,对天线-传输-放大-滤波-声卡-和软件各个环节给出的建议都是合理的。说偏门是因为没有人对VLF接收机感兴趣,资料有限,但可以靠简单的基本知识推论出合理的结果。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
云南省
陈年泡菜
泡网分: 51.722
主题: 156
帖子: 34514
注册: 2008年8月
内容贡献勋章
年内主力装备
GFX100S
LEICA M (Typ 262)
★ NIKON Z 7_2
闲聊状态 发表于 2025-03-06 09:23
这世界变化真的快

https://chat.qwen.ai/ 上面可以测试MAX版
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
北京
泡菜
泡网分: 9.71
主题: 0
帖子: 691
注册: 2007年4月
闲聊状态 发表于 2025-03-06 09:23
这世界变化真的快...

有没有人比较一下,这个RL法的32B推理模型,和DS那个蒸馏法的32B推理模型哪个效果好?
他们训练成本相差巨大。
发布自 iOS客户端
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
北京
陈年泡菜
泡网分: 51.722
主题: 156
帖子: 34514
注册: 2008年8月
内容贡献勋章
年内主力装备
GFX100S
LEICA M (Typ 262)
★ NIKON Z 7_2
一晴方觉夏深 发表于 2025-03-05 18:04
请教一下,为啥我这个知识库失败了?
---------------
管理平台用的是ollama,模型用的是deepseek-r1:32b。安装了AnythinLLM,聊天模式用的是“查询”,温度=0.2
不知道为什么,我投喂的知识AnythinLLM...

AnythinLLM 我也测试了 不好用 不如page assist
另外 投喂的文档建议你先整理一下 很简单 你直接找个大模型 上传附件 要求他“请把这个文档整理为适合RAG的格式”
嵌入模型可以用bge m3,不要用deepseek
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
北京
泡菜
泡网分: 18.263
主题: 11
帖子: 15149
注册: 2012年6月
这世界变化真的快

登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
山东省
陈年泡菜
泡网分: 60.991
主题: 54
帖子: 5655
注册: 2000年6月
一晴方觉夏深 发表于 2025-03-05 21:37
请教一下,为啥我这个知识库失败了?
---------------
管理平台用的是ollama,模型用的是deepseek-r1:32b。安装了AnythinLLM,聊天模式用的是“查询”,温度=0.2
不知道为什么,我投喂的知识AnythinLLM...
试试page assite ,我觉得更简单,几十个文件的知识库也还准确,当然和用的模型也有关系。anything 设置麻烦。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
浙江省
泡菜
泡网分: 18.263
主题: 11
帖子: 15149
注册: 2012年6月
Readme

QwQ is the reasoning model of the Qwen series. Compared with conventional instruction-tuned models, QwQ, which is capable of thinking and reasoning, can achieve significantly enhanced performance in downstream tasks, especially hard problems. QwQ-32B is the medium-sized reasoning model, which is capable of achieving competitive performance against state-of-the-art reasoning models, e.g., DeepSeek-R1, o1-mini.

Future Work
This marks Qwen’s initial step in scaling Reinforcement Learning (RL) to enhance reasoning capabilities. Through this journey, we have not only witnessed the immense potential of scaled RL but also recognized the untapped possibilities within pretrained language models. As we work towards developing the next generation of Qwen, we are confident that combining stronger foundation models with RL powered by scaled computational resources will propel us closer to achieving Artificial General Intelligence (AGI). Additionally, we are actively exploring the integration of agents with RL to enable long-horizon reasoning, aiming to unlock greater intelligence with inference time scaling.

以下是机翻:

QwQ 是通义千问系列的推理模型。与传统的指令微调模型相比,具备思考和推理能力的 QwQ 在下游任务(尤其是复杂问题)中展现出显著提升的性能。QwQ-32B 作为中等规模的推理模型,其性能可与当前最先进的推理模型(如 DeepSeek-R1、o1-mini)相媲美。

未来工作
这是通义千问在扩展强化学习(RL)以增强推理能力的初步尝试。通过这一过程,我们不仅见证了规模化 RL 的巨大潜力,也认识到预训练语言模型中尚未开发的可能性。在开发下一代通义千问的过程中,我们相信结合更强的基础模型与依托规模化算力的 RL,将推动我们更接近实现人工通用智能(AGI)。此外,我们正积极探索将智能体与 RL 结合以实现长周期推理,旨在通过推理时扩展解锁更高层次的智能。

48G显存就能愉快的玩耍啊!!!!20G显存就能上桌玩玩啊!!!!!
64G的M4的含金量还在提升

NVIDIA AMD 这俩吃相太难看  ,32G显卡 瞬间不香了

登录后可直接显示原图


登录后可直接显示原图

闲聊状态 编辑于 2025-03-06 05:58
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
山东省
子版版主
泡网分: 94.589
主题: 1040
帖子: 26253
注册: 2003年10月
内容贡献勋章
一晴方觉夏深 发表于 2025-03-05 21:37
请教一下,为啥我这个知识库失败了?
---------------
管理平台用的是ollama,模型用的是deepseek-r1:32b。安装了AnythinLLM,聊天模式用的是“查询”,温度=0.2
不知道为什么,我投喂的知识AnythinLLM...

Windows里用记事本把txt文件打开,然后另存为一个新文件,编码选择为UTF-8。再试试。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
回复主题: DeepSeek开源了
功能受限
游客无回复权限,请登录后再试