主题:DeepSeek开源了
正序浏览
主题图片汇总
主题内检索
浏览:17278 回帖:624
游客没有回帖权限
陈年泡菜
泡网分: 36.389
主题: 89
帖子: 9099
注册: 2003年1月
bird3000 发表于 2025-02-27 09:18
现在还是好玩而已,当AI变成搜索引擎用的时候才是刚需。按现在的模型的规模,算力远远不够。
我现在就把KIMI,DEEPSEEK当作搜索引擎用,虽然不能完全替代BAIDU,但有效信息高。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
山东省
泡菜
泡网分: 18.263
主题: 11
帖子: 15149
注册: 2012年6月
duoduobear 发表于 2025-02-26 16:45
感谢指导。我今天试了微软的Markitdown,2个中文pdf都遇到这个的错误:UnicodeEncodeError: 'gbk' codec can't encode character '\xa9' in position 139: illega...

如果不牵扯OCR类,那么还可以试试libreoffice ,这个可以把doc ppt转为 txt docx html等

命令要用 soffice.exe

pdf 转不了。。。

大模型给出的命令都是错的。。。 如果需要自己找找吧。。。。

要将 PDF 文档通过 LibreOffice 在后台转换为 Markdown(MD)格式文件,并处理其中的图片类内容,可以按照以下步骤进行分析和实现:

1. PDF 转 MD 的基本流程
LibreOffice 本身并不直接支持将 PDF 文件转换为 Markdown 格式。不过,可以通过结合其他工具来实现这一目标。以下是可能的实现方式:

步骤 1:使用 LibreOffice 将 PDF 转换为中间格式(如 DOCX 或 HTML)
LibreOffice 支持将 PDF 文件转换为其他文档格式,例如 DOCX 或 HTML。这一步可以通过命令行工具 unoconv 或直接调用 LibreOffice 的命令行接口完成 8。
示例命令:
bash
复制
1
libreoffice --headless --convert-to html input.pdf
步骤 2:将中间格式(HTML 或 DOCX)转换为 Markdown
使用专门的工具(如 Pandoc)将 HTML 或 DOCX 文件进一步转换为 Markdown 格式。Pandoc 是一个强大的文档转换工具,能够很好地处理 HTML 和 DOCX 到 Markdown 的转换 10。
示例命令:
bash
复制
1
pandoc -f html -t markdown -o output.md input.html
2. 处理 PDF 中的图片类内容
PDF 文件中的图片内容在转换过程中需要特别处理,以确保它们能够正确嵌入到 Markdown 文件中。

方法 1:提取图片并嵌入 Markdown
如果 PDF 文件包含图片,可以先使用工具(如 PDFBox)将 PDF 中的图片提取出来 2。然后,在生成的 Markdown 文件中,通过 Markdown 的图片语法(![](image_path))引用这些图片。
示例流程:
使用 PDFBox 提取 PDF 中的所有图片:
bash
复制
1
java -jar pdfbox-app-2.0.12.jar ExtractImages input.pdf
将提取的图片保存到指定目录,并在 Markdown 文件中引用这些图片。
方法 2:通过 HTML 中间格式保留图片
如果将 PDF 转换为 HTML 格式,HTML 文件通常会保留图片内容(作为 <img> 标签)。在后续使用 Pandoc 将 HTML 转换为 Markdown 时,Pandoc 会自动将图片路径嵌入到 Markdown 文件中。
3. 完整脚本示例
以下是一个完整的脚本示例,展示如何将 PDF 转换为 Markdown 并处理图片内容:

bash
复制
1
2
3
4
5
6
7
8
9
10
# Step 1: 使用 LibreOffice 将 PDF 转换为 HTML
libreoffice --headless --convert-to html input.pdf

# Step 2: 使用 PDFBox 提取 PDF 中的图片
java -jar pdfbox-app-2.0.12.jar ExtractImages input.pdf

# Step 3: 使用 Pandoc 将 HTML 转换为 Markdown
pandoc -f html -t markdown -o output.md input.html

# Step 4: 手动检查并调整 Markdown 文件中的图片路径
4. 注意事项
图片质量 :PDF 中的图片在提取后可能会有质量损失,建议根据需求调整 PDFBox 的参数。
复杂布局 :如果 PDF 包含复杂的表格或排版,转换后的 Markdown 文件可能需要手动调整。
依赖工具 :确保系统中已安装 LibreOffice、PDFBox 和 Pandoc 等工具。

闲聊状态 编辑于 2025-02-28 09:31
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
山东省
泡菜
泡网分: 2.307
主题: 5
帖子: 2187
注册: 2020年5月
duoduobear 发表于 2025-02-26 16:45
感谢指导。我今天试了微软的Markitdown,2个中文pdf都遇到这个的错误:UnicodeEncodeError: 'gbk' codec can't encode character '\xa9' in position 139: illega...

除了微软的 Markitdown (从PDF转MD)外,还可以试试国产的 MinerU
微软还有一个纯粹从图片或抓屏中以OCR方式提取内容的 OmniParser

我纯搬砖,没试过(二号机下线了,三号机青黄不接呢)
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
印度
陈年泡菜
泡网分: 60.991
主题: 54
帖子: 5655
注册: 2000年6月
现在还是好玩而已,当AI变成搜索引擎用的时候才是刚需。按现在的模型的规模,算力远远不够。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
浙江省
泡菜
泡网分: 9.71
主题: 0
帖子: 691
注册: 2007年4月
咱们还在扣扣搜搜瞎捣鼓的时候,人家已经开始割韭菜了
发布自 iOS客户端
登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
北京
子版版主
泡网分: 94.589
主题: 1040
帖子: 26253
注册: 2003年10月
内容贡献勋章
Trompette 发表于 2025-02-26 12:10
这个功能很有用,大家探讨
主流方案都是 "PDF 解析提取文本" 结合 "基于 LLM 的 OCR"
直接二进制文件丢给管道是不行的
在关键字 "convert PDF to markdown" 下面,我搜到的结果
微软开源方案:MarkItDow...

感谢指导。我今天试了微软的Markitdown,2个中文pdf都遇到这个的错误:UnicodeEncodeError: 'gbk' codec can't encode character '\xa9' in position 139: illegal multibyte sequence
看来这个项目处理中文还不够完美。

补充,发现不仅是中文pdf,英文pdf有同样问题。

不过,这里的解决方案似乎有效
https://github_com/microsoft/markitdown/issues/285

>chcp 65001
Active code page: 65001
>set PYTHONIOENCODING=utf-8
>markitdown my_document.pdf > my_document.md

举一反三,ollama deepseek-r1不识别中文会不会也可以这样解决?我得也去试试
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
泡菜
泡网分: 2.307
主题: 5
帖子: 2187
注册: 2020年5月
duoduobear 发表于 2025-02-26 06:25
我遇到一个字符编码问题。当导入一些文件给ollama deepseek-r1时,我发现它只能识别utf-8编码的txt中文文件。包含中文的pdf和ansi格式的中文txt文件都不能识别出中文字符。但英文pdf是可以识别的。
无论是直接用管道传递的方式...

这个功能很有用,大家探讨
主流方案都是 "PDF 解析提取文本" 结合 "基于 LLM 的 OCR"
直接二进制文件丢给管道是不行的

在关键字 "convert PDF to markdown" 下面,我搜到的结果

微软开源方案:MarkItDown
Github 开源方案:也有不少

https://blog_csdn_net/weixin_40425640/article/details/140765933
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
泡菜
泡网分: 57.262
主题: 84
帖子: 18778
注册: 2006年3月
内容贡献勋章
duoduobear 发表于 2025-02-26 09:27
扎心了。
...


记得好些年前斯坦福大学搞了个阿罗哈家务机器人,结果还是没实用化 大语言模型反而遍地开花,这是否说明相比于劳动,艺术的门槛更低 这和上世纪的科幻小说背道而驰,上世纪开始一些艺术工作者开始创作机器人取代人类社会的科幻小说,而千篇一律的是,这些机器人什么都干得了还比人干得更好,唯独没有艺术创作能力。

燃鹅今天的大语言模型告诉我们,实际上机器人/Ai 在能自主劳动之前,先实现了艺术创作

btw. 或许问题的根源在于大语言模型不是艺术家创造出来的而是一帮不懂艺术的理工男弄出来的吧
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广西
子版版主
泡网分: 94.589
主题: 1040
帖子: 26253
注册: 2003年10月
内容贡献勋章
扎心了。
登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
老坛泡菜
泡网分: 34.505
主题: 35
帖子: 3462
注册: 2003年7月
duoduobear 发表于 2025-02-26 06:25
我遇到一个字符编码问题。当导入一些文件给ollama deepseek-r1时,我发现它只能识别utf-8编码的txt中文文件。包含中文的pdf和ansi格式的中文txt文件都不能识别出中文字符。但英文pdf是可以识别的。
无论是直接用管道传递的方式...

这样的pdf放到其他模型能行吗?比如notebooklm?
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
子版版主
泡网分: 94.589
主题: 1040
帖子: 26253
注册: 2003年10月
内容贡献勋章
我遇到一个字符编码问题。当导入一些文件给ollama deepseek-r1时,我发现它只能识别utf-8编码的txt中文文件。包含中文的pdf和ansi格式的中文txt文件都不能识别出中文字符。但英文pdf是可以识别的。

无论是直接用管道传递的方式,还是使用ollama 嵌入式模型做中间层,都是相同的结果。
如果都是txt,我现在可以尽量转成UTF-8格式。但pdf就麻烦了。而且大量文件都做这些处理也很麻烦。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
MM7
资深泡菜
泡网分: 39.761
主题: 68
帖子: 3260
注册: 2002年8月
在100B以内的模型中,只有QWEN-72B-Q8bit量化版答对了“老虎不吃草”的问题
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
老坛泡菜
泡网分: 30.962
主题: 31
帖子: 2005
注册: 2003年10月
如果是本机运行是否这个更加合适?
MiniCPM-o
github_com/OpenBMB/MiniCPM-o/blob/main/README_zh.md

关键是体积很小,多模态也只需要18G的显存,如果是纯视觉就17G
int4量化的版本只需要8G显存

(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
泡菜
泡网分: 2.307
主题: 5
帖子: 2187
注册: 2020年5月
duoduobear 发表于 2025-02-24 03:12
采用多张低阶但显存中等的显卡如何?比如2060 12GB (显存带宽336GB/s),3060 12GB(显存带宽360GB/s),新卡好像2500元左右。2张卡可以达到4090的显存量。 用2张卡也不需要高阶主板。整体成本低不少。
还有4060 T...


ChK 发表于 2025-02-24 12:33
如果是为了要显存,还不如买2080TI 22G的二手卡。
其实自己部署模型要达到实用的程度,不能卡着模型本身的大小来计算显存,因为推理窗口也要吃掉一大块显存,如果要跑72B的模型,可能用两块P40更合算,因为48G显存,比两块2080TI 44G多了...


非常同意

只有模型能全部放入显存时,堆低阶显卡才有用
如果显存放不下,有部分放内存,堆低阶显卡有用,加速效果不明显
如果模型大部分都要靠内存,堆高阶显卡也没有用,除非是 MoE 且有 KTransformer 这种针对性的优化

除了模型要内存外,上下文长度也要足够内存,个人经验要把模型内存 x1.5 ~ x2 才放心
64G内存 + 16G显卡的主流配置,适合的模型有 14bQ8, 32bQ4,Q8, 70bQ4
16G内存 + 6G显卡的入门配置,适合的模型有 3bQ8, 7bQ4,Q8, 14bQ4
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
上海
MM7
资深泡菜
泡网分: 39.761
主题: 68
帖子: 3260
注册: 2002年8月
MM7 发表于 2025-02-24 18:46
今天下载了Qwen2.5-72B-Instruct的q8量化版本。q8表示量化精度为8位,属于最高精度量化,能在保持较高模型性能的同时,减少存储和计算需求,提高推理效率。
登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
MM7
资深泡菜
泡网分: 39.761
主题: 68
帖子: 3260
注册: 2002年8月
今天下载了Qwen2.5-72B-Instruct的q8量化版本。q8表示量化精度为8位,属于最高精度量化,能在保持较高模型性能的同时,减少存储和计算需求,提高推理效率。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
资深泡菜
泡网分: 32.675
主题: 130
帖子: 7265
注册: 2004年11月
ChK 发表于 2025-02-24 15:54
没有,就是从ollama下的那个模型...

ktransformer有可能跑到4~5t/s
发布自 安卓客户端
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
福建省
ChK
陈年泡菜
泡网分: 51.819
主题: 21
帖子: 12828
注册: 2003年1月
虚化 发表于 2025-02-24 14:47
你的CPU+GPU跑的时候用了ktransformer吗?...

没有,就是从ollama下的那个模型
发布自 安卓客户端
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
北京
资深泡菜
泡网分: 32.675
主题: 130
帖子: 7265
注册: 2004年11月
ChK 发表于 2025-02-24 12:33
如果是为了要显存,还不如买2080TI 22G的二手卡。
其实自己部署模型要达到实用的程度,不能卡着模型本身的大小来计算显存,因为推理窗口也要吃掉一大块显存,如果要跑72B的模型,可能用两块P40更合算,因为48G显存,比两块2080TI 44G多了...
你的CPU+GPU跑的时候用了ktransformer吗?
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
福建省
MM7
资深泡菜
泡网分: 39.761
主题: 68
帖子: 3260
注册: 2002年8月
ChK 发表于 2025-02-24 12:33
如果是为了要显存,还不如买2080TI 22G的二手卡。
其实自己部署模型要达到实用的程度,不能卡着模型本身的大小来计算显存,因为推理窗口也要吃掉一大块显存,如果要跑72B的模型,可能用两块P40更合算,因为48G显存,比两块2080TI 44G多了...

那是因为显存的读写速度比内存快几个数量级
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
ChK
陈年泡菜
泡网分: 51.819
主题: 21
帖子: 12828
注册: 2003年1月
duoduobear 发表于 2025-02-24 03:12
采用多张低阶但显存中等的显卡如何?比如2060 12GB (显存带宽336GB/s),3060 12GB(显存带宽360GB/s),新卡好像2500元左右。2张卡可以达到4090的显存量。 用2张卡也不需要高阶主板。整体成本低不少。
还有4060 T...
如果是为了要显存,还不如买2080TI 22G的二手卡。
其实自己部署模型要达到实用的程度,不能卡着模型本身的大小来计算显存,因为推理窗口也要吃掉一大块显存,如果要跑72B的模型,可能用两块P40更合算,因为48G显存,比两块2080TI 44G多了不少。
如果是用CPU与GPU混合计算,那么显存多点少点可能关系真的不大了,这时内存和CPU的速度更重要。我测试过以下几种组合:
OLLAMA在WIN系统下跑1.58B Deepseek 模型,一块2080 加 128G内存(速度3333MT/秒),推理时不需要交换硬盘数据,AMD 3950 的CPU能到 2.7T/S 的速度,AMD 5600 则只能到1.4T/S 左右;在5600的机器上插了两片P40 和一片2080,这时内存需求降到80多GB,但速度也只有2.0T/S 左右,可见只要有CPU参与,显卡的性能就发挥不出来,而且,无论是多少核 的CPU的,大约都只跑到50%的负载。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
北京
MM7
资深泡菜
泡网分: 39.761
主题: 68
帖子: 3260
注册: 2002年8月
bird3000 发表于 2025-02-24 09:39
跑起来速度怎么样?

可以,比32B慢一点,比671的1.58b快多了,因为全部在显存与内存中跑,不像1.58b还要占用SSD
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
陈年泡菜
泡网分: 60.991
主题: 54
帖子: 5655
注册: 2000年6月
MM7 发表于 2025-02-24 07:54
偶现在就在用海力士的新m die ddr5芯片,单颗3GB,双面48GB一条,超频能力强悍,偶超到6400.QWEN2.5-72B是阿里最新开源的,比R1蒸馏的32B与70B好

跑起来速度怎么样?
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
浙江省
MM7
资深泡菜
泡网分: 39.761
主题: 68
帖子: 3260
注册: 2002年8月
Qwen2.5-72B 是阿里云通义千问发布的新一代开源大语言模型中的旗舰版本,具有以下特点:
技术参数模型架构:采用带有 RoPE、SwiGLU、RMS Norm 和 Attention QKV Bias 的 Transformer 架构。参数量:727 亿。层数:80 层。注意力头数:Q 为 64,KV 为 8。上下文长度:131,072 个 token。性能优势任务处理能力强:在处理复杂任务时表现卓越,如生成高质量文本、进行深度对话交流等,能快速理解用户意图,给出准确、连贯的回答或建议。专业领域表现优:在编程代码辅助编写、科研论文撰写等专业领域能为专业人士提供强大助力。在代码生成与调试、数学推理方面能力出色,在 MMLU-Rudex 基准(考察通用知识)、MBPP 基准(考察代码能力)和 Math 基准(考察数学能力)的得分较高。运行效率良好:通过采用 GQA(分组查询注意力)机制等先进技术,在保持高性能的同时减少计算资源消耗,提高推理速度并降低显存占用。长文本处理出色:更大的参数量使其可以更好地捕捉长文本中的细微差别,记住更多信息片段,提供连贯一致的服务体验,可生成长达 8k tokens 的长文本。应用场景内容创作领域:可用于创作小说、诗歌、剧本等各种文学作品,也能协助撰写新闻报道、文案策划等,为创作者提供灵感和思路,提高创作效率。智能客服领域:能够快速准确地理解用户咨询的问题,提供详细、准确的解答,还可以根据用户的问题自动转接给合适的人工客服,提高客服效率和质量。教育培训领域:可以作为智能辅导工具,为学生提供个性化的学习辅导,解答学生的问题,帮助学生理解知识点,还能根据学生的学习情况制定学习计划和教学方案。智能编程领域:辅助程序员进行代码编写、调试和优化,提供代码示例、解决编程问题,还能进行代码审查和质量评估,提高编程效率和代码质量。科研创新领域:协助科研人员进行文献调研、数据分析、论文撰写等工作,帮助科研人员快速获取相关领域的知识和研究成果,提高科研效率和创新能力。
MM7 编辑于 2025-02-24 08:04
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
MM7
资深泡菜
泡网分: 39.761
主题: 68
帖子: 3260
注册: 2002年8月
ddtx 发表于 2025-02-23 23:56
还是四通道以上的HEDT才有希望,目前最大容量的单面条是24G,双面条是48G,两通道机器最大192G,只有海力士的m die ddr5芯片可以做出这种容量,单颗3GB,是目前唯一一种用EUV生产的内存芯片(10nm),其他几家内存厂都还在用DUV(...

偶现在就在用海力士的新m die ddr5芯片,单颗3GB,双面48GB一条,超频能力强悍,偶超到6400.QWEN2.5-72B是阿里最新开源的,比R1蒸馏的32B与70B好
登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
广东省
子版版主
泡网分: 94.589
主题: 1040
帖子: 26253
注册: 2003年10月
内容贡献勋章
Trompette 发表于 2025-02-22 22:43
我试一个2万内可能跑6Tps的方案
CPU EPYC 7532 二代 32核64线 (准新 900元)
主板 技嘉 MZ31 (拆机 1650元)
内存 镁光 DDR4 3200 64G 16条 共1T (460x16 = 7360元)
到此用掉1万...

采用多张低阶但显存中等的显卡如何?比如2060 12GB (显存带宽336GB/s),3060 12GB(显存带宽360GB/s),新卡好像2500元左右。2张卡可以达到4090的显存量。 用2张卡也不需要高阶主板。整体成本低不少。
还有4060 Ti 16GB(显存带宽288GB/s)带宽低显存大点,4070 12GB (显存带宽504GB/s)带宽高显存少点,可以搞很多种组合。
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
美国
泡菜
泡网分: 26.597
主题: 17
帖子: 1923
注册: 2003年12月
虚化 发表于 2025-02-23 22:18
看测试项目差别很大,分数似乎没有可比性
本地部署基本上都是Q4量化,所以很想知道Q4量化的671b跟32b、70b的分数区别
b站视频里有671b动态量化1.58b~4b的评分,其中q1.73分数是个甜点,占用内存165g,可以跑在最大支持192g的...
还是四通道以上的HEDT才有希望,目前最大容量的单面条是24G,双面条是48G,两通道机器最大192G,只有海力士的m die ddr5芯片可以做出这种容量,单颗3GB,是目前唯一一种用EUV生产的内存芯片(10nm),其他几家内存厂都还在用DUV(12-16nm),单颗2GB,未来一两年内买到更高容量内存不容易。

还有,试了一下老外做的那个32b的V3蒸馏版不错,比Qwen原版好,说明DS经过强化学习后的V3数据优于Qwen的,等于不用看推理过程直接給答案的R1,希望尽快出个72b的版本
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
云南省
资深泡菜
泡网分: 32.675
主题: 130
帖子: 7265
注册: 2004年11月
ddtx 发表于 2025-02-23 21:18
量化后精度下降,前面那个跑蒸馏模型MMLU Pro分数的没有提是几位量化的,下面是另一人跑的几大模型,粗略看是85分vs65分的差别吧。

看测试项目差别很大,分数似乎没有可比性

本地部署基本上都是Q4量化,所以很想知道Q4量化的671b跟32b、70b的分数区别

b站视频里有671b动态量化1.58b~4b的评分,其中q1.73分数是个甜点,占用内存165g,可以跑在最大支持192g的家用台式机

登录后可直接显示原图

虚化 编辑于 2025-02-23 22:19
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
福建省
泡菜
泡网分: 26.597
主题: 17
帖子: 1923
注册: 2003年12月
虚化 发表于 2025-02-23 20:09
有没有671bQ1.58~Q4的对比?

量化后精度下降,前面那个跑蒸馏模型MMLU Pro分数的没有提是几位量化的,下面是另一人跑的几大模型,粗略看是85分vs65分的差别吧。

登录后可直接显示原图
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
云南省
资深泡菜
泡网分: 32.675
主题: 130
帖子: 7265
注册: 2004年11月
ddtx 发表于 2025-02-23 11:00
不满血的话,用32B的,差距不大,省去大量折腾

有没有671bQ1.58~Q4的对比?
(0)
(0)
只看该作者
不看该作者
加入黑名单
举报
返回顶部
个人图文集
个人作品集
福建省
回复主题: DeepSeek开源了
功能受限
游客无回复权限,请登录后再试