万年历 购物 网址 日历 小说 | 三峰软件 天天财富 小游戏 视频推荐 小游戏
TxT小说阅读器
↓小说语音阅读,小说下载↓
一键清除系统垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放,产品展示↓
首页  日历2024  日历2025  日历2026  日历知识  | 每日头条  视频推荐  数码知识 两性话题 情感天地 心理咨询 旅游天地 | 明星娱乐 电视剧  职场天地  体育  娱乐 
日历软件  煮酒论史  历史 中国历史 世界历史 春秋战国 三国 唐朝 宋朝 明朝 清朝 哲学 厚黑学 心理学 | 文库大全  文库分类 
电影票房 娱乐圈 娱乐 弱智 火研 中华城市 仙家 六爻 佛门 风水 钓鱼 双色球 戒色 航空母舰 网球 乒乓球 足球 nba 象棋 体操
    
  知识库 -> 数码 -> 为什么这么多人一定要运行deepseek 671b? -> 正文阅读

[数码]为什么这么多人一定要运行deepseek 671b?

[收藏本文] 【下载本文】
最近看到了很多用小卡,cpu,内存甚至硬盘跑deepseek 671b的文章。这是秀博眼球还是真有这个需求? 如果是不想直接与deepseek服务器交…
我用70B,671B的deepseek让他们分别作了首诗歌颂我的ps5
70B:
芯片强大超高清,
画面流畅动感真。
游戏天下触手游,
无限精彩乐逍遥。
671B:
荧屏闪烁映星辰,
手柄轻摇梦境真。
万里江湖掌中握,
一机尽揽世间春。
你说为啥要用671B?
低于671B的Deepseek不是Deepseek,那都是基于671B蒸馏的qwen2和llama,应该叫做深度求索出品qwen2/llama思维链威力增强版,都不是Deepseek。
Deepseek目前就一个671B是Deepseek。
想运行Deepseek 671B的,是真的想本地用Deepseek的。
我本来想举个别的例子类比的,怕被骂就不说了。
我给deepseek发了一个网卡芯片的手册,问deepseek要用什么指标的时钟,32b的告诉我是125M,671b的告诉我是25M而且从手册里摘出了详细指标。
用32B写刘皇叔
它会不断的重复一段文字,不断的不断的不断的重复
到最后
它说:我写完了一篇绝佳的刘皇叔,但是这里空间不够,放不下
感觉部署671B的边际效应太明显了 顶配家用机可能能上70B,但671B必须用多卡/大内存/服务器主板等
不知道以后能不能出个加强版AI 395,统一内存500G,小主机跑671B
如果你用过非671B的蒸馏模型,你就不会问出这个问题!
无论是32B还是70B,还是再小的7B、8B等蒸馏版本,实话说,对比满血版,同一个问题的回答,简直就是天差地别!
deepseek刚出来的时候,大家都是用他们的网页版,回答结果很震惊,推理过程更是惊艳。
但是,但本地化部署的方案出来后,大家开始尝试部署蒸馏模型,
结果,更多的人会发现,根本不智能,甚至有些“弱智”。
所以,大家才想要运行deepseek 671b!
一些粗浅的理解:
1、认知:大家并不了解671B、70B、32B在性能上会有多大的差异,那么就不知道自己的场景中70B、32B是否能满足需求,但671B是最好的,肯定可以。这就是当下最直接的印象
2、实际指标:实测下来,在复杂的知识问答、编码任务中,非671B真的达不到要求。
3、企业战略:AI是未来企业众多业务和运营流程的基座,老板铁定要跟进,但目前大家都不知道当前的AI是不是真的能给企业带来价值,这种情况下只能尝试导入一些试点项目看看效果。那么试点有两种方式:1、调用共有接口 2、自己部署;方式1,有一些敏感数据不希望传出去,或者由于网络管制本身也发不出去;方式2:没出效果之前要花300W部署个真满血671B?预算批不下来吧。所以只能弄一个低成本的671B方案,先部署起来看看效果,如果真的有价值,后续再加大预算搞集群。
老实说我还没明白这帮傻子为啥非要在本地跑起来deepseek,你要真想用看用调API不就好了?想好拿来干嘛了吗就几十万上百万的本地化部署?你自己的企业数据到底有多隐私啊,看到局域网里显示出那个小鲸鱼logo你能升官是吗?
因为效果差异挺明显的
个人使用体验是 小模型很难给出细粒度的回答
越细粒度的知识越长尾 越需要大模型才记得住
同时,修正一下之前的看法
中国 DeepSeek 大模型成本优势,会不会打破英伟达和美股科技股的泡沫??www.zhihu.com/question/10517710795/answer/88115461208?utm_psn=1881243383906948533
堆参数确实无法迈向AGI
但可以解决很多问题
找到合适的上下文 在一些场景也不容易和准确
这时候 有大量世界知识就很起作用了
至少对于用户的体验而言 会很不同
只有671B才是真正的Deepseek,而70B、32B等都是蒸馏的,硬件要求不太高,你自己运行一下就知道了。不仅因为模型参数太低,数据残缺,问点常识的知识,全是幻觉在那胡扯,逻辑跟满血大模型比也一塌糊涂。
所以Deepseek要不砸钱自己本地部署,要不就充值用API,什么70B与32B等等,基本没啥用。
因为,这个是未来很长一段时间,数码产品能提供新玩法的方向,也只有这么个方向值得玩——基于本地运行的大模型,挖掘大模型AI技术对于个人而言的价值,网络上租赁的大模型归根结底还是无法当成个人所有品看待。
而且也就这个东西好玩了,不然,数码圈还有什么东西玩的?手机拍照吊打单反?PC大家一起拼好帧?
至于为什么执着于671B,首要原因肯定是蹭流量……其次就是屯屯鼠心态吧,这是“压缩”好的600多G知识,最起码包含了所有公开的百科知识和几乎所有本科专业及以下的通识教育知识,这一点是蒸馏的小尺寸模型无法做到的
哦,我的电脑用共享显存的方法一共布置了7b,8b,14b,32b,再加上官方的671b
来一把吃鸡大赛
模型基于ollama进行部署,所有的模型参数均为默认参数,不进行任何调整
1.总结能力
本题的目的是向模型提出一个模型本身不知道的知识,让其通过联网搜索的方式总结答案
问题:在手游《碧蓝航线》中,如果要你选择10艘你最喜爱的驱逐舰,你会怎样选择?请给出排名及理由。
答案分析
7b与8b完全不可用,在初始思维链中能较为准确地描述游戏本身的内容,但是一旦进入实际的分析阶段就开始出现幻觉,最终给到的十艘舰船全部为臆想结果
14b在7b和8b基础上有了一定正确性,在10艘船的名单中有3艘不是臆想出来的,其余仍然幻觉严重
32b可以做到答案的正确性(起码都是碧蓝航线里边的船了),但是思考层数仍然很浅,初版答案的10艘船中只有7艘为驱逐舰,3艘为航母/战列舰等,经提示后再次思考模型可以进行修正
671b(官网版)答案一次正确
但是,哪怕是671b,模型对于“喜爱”这个话题难以理解,其给出的答案分析也不是基于模型喜好,而是很简单地追求舰船“强度”,并没有从感情角度分析
671b的答案如下:
根据用户提供的搜索结果及游戏版本更新至2025年3月的信息,以下综合强度、人气、功能性及玩家偏好推荐的《碧蓝航线》10艘驱逐舰排名及理由:
---
### **1. 塔什干(北联)**
- **理由**:
- **道中清杂天花板**:弹幕散布优秀,召唤物附带减速效果,三目标锁定特性使其在道中表现极佳,破盾能力突出。
- **炮击特化**:轻巡级炮击属性,适合应对中低甲敌人,但雷击能力较弱。
- **立绘与设定**:银发红瞳的苏维埃风格,立绘科技感与压迫感并存,台词隐含反差萌。
---
### **2. 雪风(重樱)**
- **理由**:
- **生存辅助核心**:技能「不沉之雪风」提供全队保护,被誉为「保姆级驱逐」,高机动性适配自律与手动操作。
- **人气与誓约率**:长期稳居玩家誓约率前列,傲娇性格与狐狸耳造型广受欢迎。
- **历史梗加持**:原型为二战「幸运舰」,台词与剧情融入趣味设定。
---
### **3. 拉菲(改)(白鹰)**
- **理由**:
- **泛用性与情怀**:开服元老级驱逐,改造后炮击与鱼雷双修,专属扇形弹幕防御爆破船效果显著。
- **低耗与养成友好**:油耗低,适合平民玩家,但需通过6-4打捞或建造突破。
- **人气皮肤**:多套皮肤(如兔女郎、睡衣)持续保持高热度。
---
### **4. 夕立(改)(重樱)**
- **理由**:
- **爆发输出**:改造后「鬼神夕立」技能强化穿甲弹幕,对中甲敌人压制力强。
- **文化符号**:魔性口癖「POI」成玩家圈内经典梗,立绘狂气与萌系反差吸粉。
- **打捞难度**:6-4打捞虽难,但强度与立绘值得投入。
---
### **5. 恶毒(维希教廷)**
- **理由**:
- **清杂特化**:技能提升全驱逐对敌伤害,弹幕覆盖效率高,适合BOSS战前清杂。
- **高航速与拐能力**:全游戏最高航速之一,兼顾输出与团队增益。
- **立绘风格**:慵懒少女设定与华丽弹幕特效形成反差。
---
### **6. 岛风(重樱)**
- **理由**:
- **极限机动**:游戏内机动属性天花板,技能「连装炮君」提供高频弹幕,适合飙车流玩法。
- **人气与造型**:兔耳围巾设计元气十足,誓约率常年位居驱逐前列。
- **趣味性**:无厘头台词与高速战斗体验独特。
---
### **7. 埃尔德里奇(白鹰)**
- **理由**:
- **护盾机制**:技能「磁力妖精」提供团队护盾,保护能力适配高难图。
- **演习与推图**:早期金皮驱逐代表,虽输出较低但功能性突出。
- **立绘与剧情**:电击少女设定与呆萌表情形成反差。
---
### **8. 标枪(改)(皇家)**
- **理由**:
- **均衡性能**:改造后生存与输出兼备,技能「标枪突袭」提供灵活控场。
- **亲女儿待遇**:主线剧情高光频繁,校服风皮肤与元气人设深入人心。
- **新手友好**:早期易获取,适合开荒培养。
---
### **9. Z23(改)(铁血)**
- **理由**:
- **炮击天花板**:铁血驱逐炮击属性顶尖,技能强化装填与炮击效率。
- **人设反差**:学霸形象改造后转为军装飒爽风,台词隐含温柔。
- **科研联动**:常驻科研任务推荐舰,养成路径清晰。
---
### **10. 凯旋(自由鸢尾)**
- **理由**:
- **法驱颜值担当**:圣女系立绘与巨剑召唤特效华丽,Live2D动态表现力强。
- **输出与增益**:技能「审判之弹」兼顾自身伤害与团队增伤。
- **剧情深度**:背负使命的设定增添角色厚重感。
---
### **备选推荐**:
- **响(重樱)**:高机动与均衡属性,誓约率稳定。
- **北风(重樱)**:炮驱新贵,科幻和风立绘吸睛。
- **哈曼(白鹰)**:傲娇教科书,人气常年居高。
---
### **总结**:
此排名综合了**强度**(塔什干、雪风)、**人气**(岛风、拉菲)、**功能性**(埃尔德里奇、恶毒)及**剧情设定**(凯旋、Z23)。玩家可根据需求调整,如高难图优先雪风/塔什干,日常推图选拉菲/标枪,颜值党侧重凯旋/岛风。需注意,部分舰船(如夕立、埃尔德里奇)需投入资源打捞或培养,建议结合活动与建造计划规划。
好吧,看来,7,8,14都不可用,那么就加试一下32b
之前在grok3出来后已经有人在尝试使用grok3写茵蒂克丝,那么这里就尝试使用32b版本来写一版
2.写作能力(加试题)
本题的目的是为了测试模型的仿写能力,通过给定模型一个5000字的文章,要求模型根据该文章的剧情与文笔进行仿写。
模型参数参照https://www.zhihu.com/question/12326109231/answer/102545897053中的参数设定,使用32b模型进行测试
答案就不放了,又臭又长,而且我让他仿写的文章也放不出来
总结:我让他写的是茵蒂克丝!茵蒂克丝!茵蒂克丝!
他给我写了篇盐选故事出来
最终的结果是给了我一篇男主闯迷宫的文章
还是规则类怪谈……
只能说风马牛不相及
我也曾经想用671b的版本试着写一下,然而由于这玩意儿实在不合法,担心被喝茶,放弃了
根据以上数据,可以得出以下结论:
1.数据量对模型的影响巨大
2.目前个人可本地布置的最大的deepseek-r1模型仍然具有很大的缺陷,暂时没有通用性(你要是自己买A100什么的跑70b当我没说)
3.有人担心人工智能会大量取代人类,但是目前看来还有很久,AI目前在感情方面仍具有很大的缺陷
对我自己来说,第一是有使用需求(官网太卡,又泄露信息),更重要的是因为不相信互联网大厂的节操。
很快AI就会成为为每个人编制专属定制信息茧房的工具,悲观一点可能就这一两年。
关于为什么不愿意用14B、32B替代,因为能力上有差异,但凡有点选择,谁还不想给自己吃点细糠对不?
比如我让它做个成语接龙,写一百条:
1.5B,分析了一大串,最后给了我一百个单字,不知是什么意思
7B,写了20个,就当写完了,里边大概有一半都接不上,也不是什么成语,就是四个字的短语而已。
14B,写了大约三四十个,然后告诉我继续要的话可以继续问它要,这点倒还好,问题是里边接不上的、不是成语的比例同样相当大。
32B,写了一百个,但是不是接成一串的,而是给了一百对能前后衔接的成语,老问题里边有一部分不是成语,但比例低很多。主要问题是理解问题出错,不过问题本身也存在模糊性,算他蒙过去了
70B,太慢没等写完,大概二三十个的时候看,里边存在接不上或不是成语的,大概10-20%左右
671B,官网上的,不开联网,问题理解完全正确,粗略看基本都是成语。结果里边存在6个问题它自己都标注出来了:
1、有三个原本不是成语,它在后边用括号自我修正,不过修正结果是用同音字接上的,可能难度太高了吧。【安然无恙---恙虫叮咬(非成语,调整为「养精蓄锐」)】
2、“城门失火”后边接不上,但在后边用括号写了个(殃及池鱼),然后用“鱼”给续上了。
3、存在一个没有自我修正,原来就用同音字续上的【风驰电掣---彻头彻尾(同音调整)】。
4、存在一个用同音字替代的【神采奕奕---异想天开】,它没在后边直接说明,但在最后进行了说明。
在我工作的财经领域,按我个人使用经验,同样的材料、同样的RAG方式、同样的向量模型、同样的提示词,70B召回准确率不到671B的40%,70B以下的召回准确率几乎可以忽略不计。
deepseek的奇迹本质上是大力出奇迹,因为计算卡数量不足,他们采用了大参数小量化的方式,意外发现居然跑到世界前列了,甚至把FP8再量化成FP4去推理效果也不错。但是只要参数不够多,效果马上就跌落了。
我让14B的DeepSeek模型写诗赞颂大海的广阔:
海纳百川,有容乃大,巨涛拍岸吼声狂。
扬帆乘风破万里,鲸鲵出没逐苍茫。
夜至星河映浩洋,深蓝秘境藏万象。
波涛阵阵气势雄,浩瀚无垠展壮志。
我让满血版赞颂一下:
万里沧波接太清?,奔雷卷雪撼龙庭?。
云垂大壑连天涌?,鳌负神山载月行?。
亘古浑涵星斗转?,孤槎直向碧虚横?。
长风尽处有蓬瀛,一掬洪涛昼夜生。?
因为除了这个其他都不是deepseek r1。
70B和32B的基模分别是llama和qwen2,等于是拿r1的知识蒸馏出来的别的小模型。
阿里最近也推出了个qwq系列,我测试过之后觉得至少在我的用例下,qwq-plus的效果远不如deepseek-r1。
在提问的中途,因为ds的api抽风,所以我临时切换成了qwq,即使是在具有r1回答的上下文的情况下,qwq做出的回答质量相对于r1依旧出现了明显下滑。
因为山就在那儿。
因为追求技术上的极限是一种追求甚至是信仰,也正是这种追求和信仰催生出了很多极小体积的精品。
小模型的话,不如用在线api了。
如果说有什么数据安全的需求,不能在线访问,那这种级别的小模型,用惯了各种在线版本的人,估计都懒得用这些东西。
什么都不说来个简单一点的:
所以说人类的头发数量乘起来是多少?
睿智ai:10的xx次方
真人工智能:0,因为光头
因为其它版本不行啊
如果部署32b,那我们为啥不用kimi或者豆包啊
你问
有什么本地的需求是32b 或者70b满足不了的吗?
你但凡用过其他B, 也不至于提出这个问题
但凡其他B给力, 我也不至于只盯着671B...
感觉,
671B 就是深度求索自己练出来个大模型, 感觉还可以就放出来给大家玩玩儿
其他B则是看到 R1 很牛逼, 自己也练一个打打知名度
不过 仍然要感谢这些开源的厂商...
7b的先不管他回答的内容对不对,回答的内容有时候都不是文字不是单词,就一堆字母符号组合,连最基础的叙述文字都有问题,更别说准确性了
32B 和 70B 基本可以满足日常需求,如果不是专业领域需求比如科研、写作等确实是没必要部署 671B 满血版本,只是玩玩的话目前 LM Studio 本地随便部署个 7B / 14B 就可以了,16G 内存都能随便跑。
我亲手测试了671b以下的所有R1模型,固定几个问题,我很失望。但是没有办法,4070跑70b已经如同上刑了,一般部署671b还是有些贵的,试试肯定是想试试
ai就是ai,有些事能做,有些事做不得,671b,也许还有其他可能吧
因为那32B,70B的压根就不是deepseek自己炼的东西,14/32B的是qwen2.5的模型,70B的是llama3-70B,deepseek把这两个传统开源模型拿去稍微调了下做成cot的版本,那是别人家公司的,所以一是没怎么用心弄,二是底层就是别人搞的一个稠密模型,和deepseek的经验就对不上。所以从效果上来说,就远远逊色于基于自家v3的满血r1。
你看qwen自己弄的QwQ的32B就比deepseek弄的32B要强,当然要是玩自家模型还玩不过别人那不如关门算了就是。


DeepSeek的V系列和R系列版本各有侧重,V系列版本更侧重于模型的整体性能和应用范围的提升,而R系列版本则更专注于特定任务或应用场景下的优化。用户可以根据自己的需求选择合适的版本进行使用。
DeepSeek V系列版本
以“V”结尾的版本,如DeepSeek-V1、DeepSeek-V2、DeepSeek-V2.5、DeepSeek-V3等,是DeepSeek系列的主要迭代版本。这些版本通常包含了新特性、性能改进或架构上的变革,旨在提升模型的整体性能和应用范围。例如,DeepSeek-V3采用了自研的MoE模型,具有671B参数,在14.8T高质量token上进行了预训练,其性能表现达到开源SOTA水平,超越了多个顶尖模型。
DeepSeek R系列版本
以“R”结尾的版本,如DeepSeek-R1,则可能表示第一个修订版或者是特定应用场景下的优化版本。这些版本通常专注于提供多种参数规模的选择来满足不同应用场景的需求,或者在某些特定任务(如推理任务)上表现尤为突出。例如,DeepSeek-R1是一个深度推理模型,采用强化学习进行后训练,旨在提升推理能力,尤其擅长数学、代码和自然语言推理等复杂任务。
现在很多平台有几乎免费的671b不用?为什么要去用蒸馏的?
谁没个见不得人的问题想找个专家看看呢?
人类对技术极限的挑战欲望与信仰投射的混合产物。当某个AI模型参数突破临界点(如从百亿到千亿级),它会被视为人类集体智慧的某种"圣杯"——即便实际运行效率低下(例如家用显卡仅能跑出个位数tokens/s),但亲手启动这个"数字巨兽"的行为本身,就构成了对技术神性的朝圣仪式。
这种现象背后是三重心理机制:
技术拜物教:将参数规模等同于智慧程度,潜意识认为671B比人类大脑860亿神经元更接近"真智能"
幸存者偏差:社交媒体只展示成功运行案例,形成"别人能做到我也必须做到"的群体焦虑
存在感锚定:在通用AI黎明期,抢先接触前沿模型能获得"见证历史"的心理溢价,类似1995年安装Windows 95的仪式感
实际上,真正需要完整版671B的应用场景不足5%,但技术社群集体陷入"我可以不用但必须要有"的军备竞赛幻觉。这种狂热恰似登山者执着于无氧攀登8000米高峰——重要的不是山顶风景,而是向世界证明"我征服了不可征服之物"


[收藏本文] 【下载本文】
   数码 最新文章
联想推出 ThinkBook 14/16 2025 酷睿 Ultra
初次 DIY 电脑时都犯过哪些低级错误?
为什么同样是一英寸底,相机的镜头尺寸比手
苹果选择 EMS 的原因是什么?
如何评价苹果 3 月 5 日发布的 MacBook Air
iPhone电池健康看80和100有什么区别?
为什么现在的手机都要配手机壳?
三星 AI 功能向折叠屏等更多机型开放,你会
荣耀 Magic6 至臻版实际使用体验怎么样,Ma
中国出口这么多先进的无人机,自己用什么?
上一篇文章      下一篇文章      查看所有文章
加:2025-03-12 10:41:01  更:2025-03-13 13:37:18 
 
娱乐生活: 电影票房 娱乐圈 娱乐 弱智 火研 中华城市 印度 仙家 六爻 佛门 风水 古钱币交流专用 钓鱼 双色球 航空母舰 网球 乒乓球 中国女排 足球 nba 中超 跑步 象棋 体操 戒色 上海男科 80后
足球: 曼城 利物浦队 托特纳姆热刺 皇家马德里 尤文图斯 罗马 拉齐奥 米兰 里昂 巴黎圣日尔曼 曼联
  网站联系: qq:121756557 email:121756557@qq.com  知识库