关于DeepSeek你关心的答案都在这了DpSk人工智能

  DeepSeek     |      2025-03-13 19:47

  DeepSeek是一款基于AI技术的智能搜索引擎,结合深度学习与自然语言处理,提供精准、高效的搜索体验。探索DeepSeek,感受未来智能搜索的无限可能!很多年以后,当你回想起2025的蛇年春节,你会想起在高铁上、在飞机场、在前往景点的路上,很多人都在谈论或使用一个叫

  很多人家里的老人在这个春节第一次问孩子,啥是AI?很多人在DeepSeek的热点分析中,第一次了解了世界AI领域的竞争格局。很多人第一次体会到了基于推理的大模型带来的震撼。

  别误会,今天我们可不是要强行上价值。前面这两句话,是模仿《百年孤独》的开头写的,估计也是很多人在这个春节的线日,国内的AI初创公司深度求索推出了大模型

  两天就震撼了整个AI界。在之后的两周里,AI界“满城尽带DeepSeek”。英伟达、华为云、天翼云、亚马逊、微软Azure,还有阿里云、百度智能云、腾讯云、京东云,等等,都宣布接入DeepSeek R1。那么,

  它后续的影响有哪些?以及那些被DeepSeek热度掩盖的,同样至关重要的事情又是什么?

  过去几天,得到App几位关注AI领域的老师,《精英日课》的主理人万维钢老师、《科技参考》的主理人卓克老师,以及《AI学习圈》的主理人,得到联合创始人快刀青衣老师,都做了深入的分析。

  同时,我们得到自己早在去年5月就开始使用DeepSeek,从得到App内的学习助手,再到我们的新产品Get笔记,DeepSeek每个版本的更新,快刀青衣老师都要带着技术团队做评测。

  接下来,我们就结合几位老师的观察,以及我们自己过去9个月积累的使用体验,来说说关于DeepSeek人们最关心的几个问题。

  比如昨天我们讲到电影产业,我分别问了几个大模型关于电影产业的问题,其中DeepSeek在深度思考模式下的回答确实是最好的,而且在一些逻辑细节上要远超其他产品。而且在回答之前,它还会逐字分析你提出的问题,确保准确理解,再给出回答。

  据说在过去两周里,全世界的AI实验室都在研读这篇论文。从16个月之前,DeepSeek就在开源社区(GitHub)持续提交自己的每一个版本,而且全部都是MIT协议,这是开源社区中对使用者要求最低的协议。你只要声明版权,就可以随意使用,可以用于学术,也可以用于商业,即使拿走之后自己改造,改造过的版本不再开源也行。

  而且这是一个中国AI初创公司做的。之前一直号称非营利,把开放共享挂在嘴边的OpenAI,从来都没有做到这种程度的开源。英伟达资深研究员Jim Fan对DeepSeek的评价是,我们生活的这个时间线上,是一家非美国公司,在延续OpenAI最初的、真正开放的前沿研究,赋能所有人。这最有趣的结局居然成真了。

  之前市面上还有人质疑,说DeepSeek R1是抄袭GPT,是从GPT蒸馏出来的。所谓蒸馏,就相当于压缩。比如张三是开快餐店的,但又不会炒菜,他就从李四开的大饭店里买回菜,然后分装成盒饭再去卖,这就属于张三蒸馏了李四。

  但对于这个质疑,开源社区(GitHub)上的所有开发者早就有共识,DeepSeek不是抄袭,不是蒸馏。毕竟,人家之前的每一步都已经公开。而且所有的功能和自己公布的代码全都能对得上。现在已经有几十家规模不同的公司,用DeepSeek公开的信息,复现了R1大模型。

  很多人说DeepSeek摆脱了对GPU的依赖,英伟达的股价都被DeepSeek搞垮了。这个说法其实不是很准确,咱们后面展开说。但回到成本,DeepSeek确实把成本打下来了。

  从参数上看,R1是一个比较小的大模型,总共有6710亿个参数,而且一次推理调用的参数只有370亿个。什么概念?GPT-4的参数有1.76万亿个。

  至于DeepSeek的具体成本,他们自己并没有公开过。目前市面上对R1成本最详细的分析,来自研究机构SemiAnalysis出具的报告。

  假如以这个H100为基准,假设H100的算力是100,那么A100的算力大概是50,H800的算力是60,H20的算力是15,后面这些算力较低的计算卡,都是美国芯片禁令的结果,在这里就不多说了。

  从资金上看,外界盛传R1的成本只有600万美元,这其实不太准确。600万美元只是模型的预训练费用。确切说,是DeepSeek R1的上一版,DeepSeekV3的预训练费用,这笔钱是600万美元。

  但是,DeepSeek并不是租用算力做的模型,而是自己买计算卡,自己搭建服务器。目前DeepSeek大概有150名员工,还会定期从北大、浙大招募人才,有潜力的候选人年薪能达到900多万元。而且

  2023年5月,DeepSeek从幻方拆分出来,全面专注于AI业务。这期间,前前后后购买GPU的总花费是7亿美元,搭建服务器等各类系统的费用大概9亿美元,再加上期间的运营成本等等。根据SemiAnalysis的估算,总费用应该在26亿美元。

  当然,这26亿美元买入的硬件后续还会持续使用,它并不是针对R1的成本,而是这家公司多年之后的总成本。

  换句线确实很厉害,但外界传闻的,一个金融公司,本来没想专门做AI,只是顺手不小心做出了个R1,这个说法多少有点夸张了。这背后哪有什么网络爽文式的故事?

  而回到R1,仅仅是这600万美元的训练成本,也已经比市面上的同类模型低了一个数量级。比如,Meta去年7月发布的Llama 3.1大模型,训练费用是6000万美元,这在当年已经算是很便宜的大模型了,但它的训练成本依然是R1的10倍。

  关于R1的性价比,再说个更直观的例子,就是我们得到研发的新产品Get笔记。这个产品是去年6月推出的。

  其中有一个环节是润色,假如使用GPT-4o,那么每天在润色环节上的花费大概是2000美元,而假如用当时DeepSeek的V2,也就是R1的前一个版本V3的再前一个版本,那么每天的花费能降低到120美元。一年算下来,能节省450万人民币。也许对于很多产品来说,因为更换这个模型,公司就能从亏损企业变成盈利企业。

  DeepSeek公开的论文中给出的答案是,没有人为干预的强化学习。也就是,

  在这个过程中,涌现出了解题方法。关于其中的技术细节,卓克老师有一份很详细的解读,感兴趣可以在得到App里搜索卓克老师的专栏《科技参考4》去查看。

  不需要几十万张算力卡,也能做出厉害的大模型。目前包括OpenAI在内的几个科技巨头,都在用R1的核心技术微调自己的模型,大家都想把算力的消耗降下来。但是,这也许并不意味着英伟达就不行了。英伟达的股价确实出现了暴跌,在1月27日跌去了5900亿美元,创下了美股历史上单日最大市值下跌纪录。但问题是,英伟达的股价之前在AI概念的追捧下也许就已经严重虚高,这时稍微有点风吹草动,哪怕是黄仁勋得流感,都可能被庄家利用,当成暴跌的信号。

  事实上,抛开股价不谈,英伟达的核心产品,H100算力卡的价格在R1推出后,是在持续上涨的,而之前H100的价格一度低迷。

  这就好比淘金,你突然告诉所有人,挖金子的难度和成本其实没有那么高,这个信号放出去,你觉得买铲子的人会变多还是变少?出海的成本越低,大航海时代来得越猛。

  根据快刀青衣老师的观察,R1目前要解决的挑战之一,是技术工程化的问题。说白了,就是让这个技术在面对全世界的需求时,依然表现得足够稳。现在R1的接口服务还不够稳定,假如访问的用户太多,可能就会出现卡顿和超时。

  下面这张图,是DeepSeek R1过去90天的运行情况。你可以明显看到,

  API服务,你大概可以理解成更专业的需求,要么来自公司机构,要么是对AI使用相对深度的个人。而相应的,网页对话服务的情况相对稳定,也许是DeepSeek把更多的精力用来保证C端普通用户的体验。

  注意,在这里,再强调一句,尽管R1面对一些挑战,但借用万维钢老师的话说,它依然是独树一帜的重量级存在。

  就在前几天,OpenAI毫无预兆地发布了Deep Research功能,也许等DeepSeek的热度褪去一些,你就能看到很多关于它的报道。在搜索研究方面,Deep Research展现出了巨大的优势,它甚至能在整合信息的基础上,生成自己的研究思路。

  你可以把这个产品当成一个信号,依然不能低估算力的价值,也不能低估竞争者的野心。

  今年AI领域的进展,将更加值得期待。因此在这里,也再一次向你推荐快刀青衣老师主理的