DeAI搜索引擎epSeek三个月改变全球四大云厂走了三年的路

  DeepSeek     |      2025-03-14 09:01

  DeepSeek是一款基于AI技术的智能搜索引擎,结合深度学习与自然语言处理,提供精准、高效的搜索体验。探索DeepSeek,感受未来智能搜索的无限可能!

DeAI搜索引擎epSeek三个月改变全球四大云厂走了三年的路

  DeepSeek、Manus过去三个月带来的狂潮,正改变全球AI产业过去三年既定路线。变局当前,亚马逊、微软、谷歌、阿里姿势各不相同

  这三个月,中国大模型创业公司DeepSeek、中国AI应用创业公司Manus引爆了市场情绪。

  DeepSeek论文称,“用2048张英伟达H800芯片和558万美元训练成本”训练出了DeepSeek-V3。这款模型和美国明星AI创业公司OpenAI旗下主力模型GPT-4o性能接近。

  Manus利用Muti-Agent (多代理) 策略,制造出了一款AI原生应用。演示资料中,Manus可以独立思考、计划并执行复杂任务。Muti-Agent被认为是2025年AI应用发展方向。

  DeepSeek、Manus这两家公司不乏争议。市场对DeepSeek披露的算力规模、训练成本有所质疑。Manus则被认为是“套壳”产品,缺乏真正的核心竞争壁垒。

  无论如何,DeepSeek、Manus都是大模型浪潮三年的里程碑。它们这三个月带来的狂潮意味着,拥有云业务大型的科技公司(如亚马逊、微软、谷歌、阿里等)未来三年的既定路径将被改变。

  过去三年,大模型竞争焦点是用万卡、十万卡训练高性能模型。但近一年,“Scaling law” (规模定律,模型性能由算力、模型、数据规模决定) 放缓。成倍的算力只能让模型性能提升10%-20%。但得益于芯片、模型、算法优化,推理算力成本正以每年十倍的速度下降。

  AI应用消耗的是推理算力,受益者仍然是云厂商。过去三年,AI应用落地主要障碍是推理算力成本偏高。随着推理算力下降,钉钉、飞书、WPS、美图秀秀这些老应用近三个月在加快叠加新的AI能力,Manus这类AI Agnet (代理) 为代表的原生AI应用也迅速爆发。

  AI应用爆发,算力消耗增长,变局正在来临。那么,全球四大云厂商——亚马逊、微软、谷歌、阿里,是如何面对这场狂潮的?

  云是大模型的基础设施,也是大模型最终受益者。随浪而跃,几大云厂过去三个月正在争相吃下DeepSeek带来的早期市场红利。

  亚马逊云科技、阿里云、微软Azure、谷歌云等云厂商先后迅速接入DeepSeek。云厂商上架DeepSeek不难。DeepSeek-V3/R1是开源的,任何人都能下载、部署、使用。客户使用时会消耗算力、数据,带动其他基础云产品 (计算、存储、网络、数据库等) 销售。

  今年2月,多家国际、中国云厂商的一线销售透露,DeepSeek走红后,大量客户在询问,DeepSeek何时能上架。DeepSeek近一个月快速带来了算力消耗和收入增长。

  DeepSeek带来了市场红利,但一些云厂商面对DeepSeek情绪复杂——犹豫、被动、摇摆的心态始终存在。根源是,它们始终面临一个问题——要如何面对第三方模型?

  接入第三方大模型,会和自研模型直接竞争。一位中国云厂商销售坦言,大部分云厂商,原本最希望销售自家旗舰模型。过去,DeepSeek等第三方产品无法得到官方推荐。销售人员通常会对客户说,自家模型表现最好。然而,自家模型公开测评得分与DeepSeek-R1差距很大。如今面对客户质疑,一线销售很难回答这个问题。

  “丢了面子,得了里子”,另一位中国云厂商销售的判断是,接入DeepSeek,既是被动防守,也是为了争取更多订单。他认为,“先吃下DeepSeek带来的市场红利,总比自家模型丢掉市场份额要好”。

  亚马逊没有太多纠结,它的动作迅速且坚决。它是全球率先接入DeepSeek的云厂商。亚马逊还在后续两个月不断为客户提供使用DeepSeek的完整工具链。

  2月24日,亚马逊云科技Marketplace中国区上线硅基流动 (一家部署了DeepSeek V3/R1的平台服务商) ,中国用户可借此使用DeepSeek。

  3月11日,亚马逊在Amazon Bedrock平台上架DeepSeek-R1。这是中国市场首款上架Bedrock的大模型。目前,亚马逊云科技是首个提供全托管版本并正式商用的海外云厂商。

  入选Bedrock门槛并不低。亚马逊会评估全球范围内的大模型,严格筛选并最终上架。目前Bedrock只有十家模型厂商的产品,其中包括明星AI创业公司Anthropic旗下的Claude 3.7系列、Meta旗下的Llama 3系列。

  我们了解到,亚马逊云科技2024年曾试图寻找适合上架Bedrock的中国大模型,但无疾而终。DeepSeek-R1技术领先,性能出众。亚马逊的客户,如丰田、思科等对它很感兴趣,这是它最终上架Bedrock的重要原因。

  亚马逊CEO安迪贾西 (Andy Jassy) 在2024年报电话会介绍,DeepSeek训练技术令人印象深刻。它使用了强化学习技术,这比监督微调更有意思。

  “上架”Bedrock,比“接入”更近一步。客户可以通过全托管、无服务器方式使用。这种体验如同一方产品,可以得到官方推荐和更多客户资源倾斜。1月30日至今,亚马逊云科技已有数千名客户使用Amazon Bedrock的自定义模型导入功能部署了DeepSeek-R1。

  为什么要向第三方模型开放自己的资源?因为,在真实业务场景中,企业往往会用多模型。

  每款模型都有擅长的领域,如文字、代码、图像。一位出海智能营销公司技术人士直言,他们公司业务中部署了十余款模型,包括阿里千问系列、Anthropic的Claude系列、谷歌Gemini系列、DeepSeek系列等。Claude承担英语和小语种营销文案任务,千问负责中文营销文案任务,Gemini被用于营销图片、视频生成。DeepSeek目前还在测试阶段。

  选定了模型的专业领域,还要面对“不可能三角”——在成本、速度、性能三者之间权衡,最终找到适合自身业务的模型。

  面对这些真实需求,亚马逊云科技的做法是,“Choice Matters” (选择大于一切) 。安迪贾西曾对此解释,要给开发者自主选择的权利。使用模型时,拥有多种选择至关重要,因为“永远不会出现一种工具在某个领域一统天下的情况”。

  创新往往来自边缘。一位亚马逊云科技人士的观点是,DeepSeek脱颖而出,说明顶尖AI模型不一定来自大家都期待的大公司,它可能来自任何人。亚马逊不会押注单一赢家,而是提供开放平台。只要模型足够好,就立刻上架Bedrock,为客户提供多种选择。

  云厂商简单接入DeepSeek是不够的。不同云平台的DeepSeek,体验差距很大。因为,模型要经过适配、开发,最终才能使用。工具链是否完善,决定了DeepSeek是否好用。

  以DeepSeek-R1为例,它并非完美。上述出海智能营销公司技术人士提到,DeepSeek-R1参数规模到了史无前例的6710亿。这导致在测试中表现不稳定,还带来了高并发等问题,这些都需要反复调试。

  DeepSeek-R1创造力、想象力出众。随之而来的是,模型幻觉 (大模型生成不符合事实的内容) 率偏高。AI创业公司Vectara用幻觉评估模型计算称,DeepSeek-R1幻觉率为14.3%。这是大部分头部模型厂商两年前的水平。

  如何让DeepSeek更好用?Bedrock提供了完整的工具集,如Agent、知识库、提示词管理、Guardrails (安全防护) 等功能。这可以让模型性能更强、更简单易用。

  怎样控制DeepSeek-R1的幻觉?Bedrock的Guardrails功能可以提供防护栏,阻止85%的有害内容,并借助自动推理检查防止模型幻觉带来的事实错误。

  DeepSeek给科技公司带来了一轮红利,同时也带来了压力。反思的声音在一些企业内部诞生——为何DeepSeek没有最先出现在算力、资金、人才看似都更丰富的大厂?

  一种解释是,大厂很难像DeepSeek集中精力做纯粹的技术研究。大厂需要商业化,面对未经验证的技术路线,不敢轻易投入资源。技术负责人也不敢拿公司资源、团队前途去赌更激进的技术路线。

  过去三年,一些科技云厂商人士原本认为,大模型只是几个大厂的游戏,创业公司很难出头。DeepSeek横空出世后,大厂技术团队面对它的心态很矛盾——一方面认为要学习借鉴它的技术特性;另一方面也不服输,认为它还不够好,自己家能够拿出更好的模型。

  落后者迅速追赶,阿里在春节期间发布了对标DeepSeek-V3的Qwen2.5-Max。领先者观望后立刻反制,微软和OpenAI拿出了性能更强的o3-mini和GPT-4.5。亚马逊则考虑,如何用好现有的模型,让它们在客户业务场景中发挥最大潜力。

  DeepSeek-R1诞生后,直接逼迫大厂要迅速拿出更好的模型。大厂并非没有技术储备。随后不到一个月,阿里、谷歌等厂商均跟进推出了对标DeepSeek的产品。

  “几个大厂不紧不慢地赛跑。现在,赛道上突然横一匹黑马”,一位中国科技公司大模型领头人形容,这三个月DeepSeek-R1正在倒逼他们重拾紧迫感。他的团队对DeepSeek-R1迅速参考借鉴后,在2月末上线了自研的推理模型。他承认,这款模型是“赶鸭子上架”,整个训练周期不到两周,甚至没有经过反复测试就上线了。

  微软和AI创业公司OpenAI相对从容。微软和它投资的OpenAI依旧手握优势。OpenAI的GPT系列仍保持3个至6个月性能领先。因此,面对DeepSeek,OpenAI动作并不多。

  今年1月发布的DeepSeek-R1,性能接近OpenAI去年9月发布的GPT-o1。今年2月,OpenAI发布了迭代后的GPT-o3-mini,这款模型的性能领先优势很大。

  不过,OpenAI被诟病的并不是模型性能,而是态度和价格——它的模型闭源,不提供推理思维链,定价也过高。奥尔特曼今年1月末曾称,DeepSeek能以低价算力提供这样的服务令人惊讶。他表示推迟了部分产品的发布。然而,今年3月GPT-4.5发布后,外界再次质疑它价格太贵且缺乏诚意。

  一些技术人士认为,DeepSeek为行业带来了贡献,但要客观看待——V3/R1性能并非断崖式领先,它们仍然存在短板,它距离落地还有一段距离。

  一位中国大模型创业公司人士评价,字节豆包、阿里通义的大语言模型和DeepSeek-R1相差只有1个-3个月。DeepSeek拥有一定的成本/性能优势,但随时可能会被复制、追赶或超越。对客户来说,DeepSeek是偏科生,目前只有语言模型 (只能输入/输出文字) ,没有图像、音频、视频等多模态模型。比如,工业制造中图像、视觉模型是刚需。

  “DeepSeek-R1想进入客户业务场景,必须挤掉已经部署的模型,但这非常难”,上述出海智能营销公司技术人士直言,他们现在无法做这个决定。因为DeepSeek-R1吞吐效率偏低、幻觉率偏高。这会影响客户口碑。

  和很多模型厂商追求更强的模型性能、更高的评测跑分不同,亚马逊更关注模型实际业务表现:如响应速度、吞吐效率、安全可靠。

  一位科技公司算法负责人的观点是,基准测试、评测跑分、语言表达华丽不能完全代表模型实际能力。“高分低能”是常见现象,因为模型厂商可以通过刷基准测试题库的方式取得高分。一些模型纸面性能很强,但企业实际使用时,受制于响应速度、吞吐效率等问题,难以扛住业务洪流。越是深入业务,“好模型”的标准就变得越多维。

  一位亚马逊云科技中国区管理层2024年12月曾表示,安迪贾西一直坚持“Practical AI” (实用/可用的人工智能) 这个观念。这也是亚马逊做大模型的逻辑。亚马逊没有一个研究院性质的组织,而是把AI能力分散在各个业务线。目的是让自家模型经过业务检验,实现“eat your own dog food” (使用自家生产的产品) 。

  Anthropic 2月末推出Claude 3.7 Sonnet系列推理模型。Claude系列不能只看评测跑分,它的工程、代码能力一直远超其他模型。一位测试过多款模型的一线工程师认为,DeepSeek擅长风格化表达,对大众用户来说,这很惊艳。但对工程师来说,代码准确率更重要,Claude表现更稳定、靠谱。

  目前,Nova系列主打卖点是,便宜、好用、安全,以及多模态。上述亚马逊云科技中国区一线销售人员表示,Nova已有大量客户。它和Claude系列错位布局,Claude定位高端,Nova价格更低。

  亚马逊发布过一份《Amazon Nova系列模型:技术报告与模型卡片》的论文。这份论文和OpenAI、DeepSeek的技术论调技术优势不同,它更强调实际业务场景的测试。

  上述论文内容显示,Nova的启动速度、吞吐效率、响应时间表现均位居前列。Nova在软件工程、财务分析等职业专业测试中,同样表现出众。为保障信息安全,亚马逊聘请了包括德勤等多家外部机构,组成专家团队定期进行“红队演习”。他们会针对300多类违禁、攻击内容进行对抗测试,以此提升Nova的安全能力。

  这三个月,算力需求的未来走势一度引发争论。根据DeepSeek披露的信息,似乎不需要万枚、十万枚高端AI芯片,也能做出效果不错、成本低廉的模型。

  这在三个月前引发了市场担忧。投资者一度以为,这会戳破泡沫,减少算力需求。受此影响,1月27日英伟达股价下跌约17%,市值蒸发近6000亿美元,创下美国股市历史上最大单日市值跌幅纪录。

  乐观预期很快又占据主流。主流判断是,单位算力成本下降反而会激发更多需求。AI应用将因此爆发,进而加大算力消耗量。

  2月后,中美四家大型科技公司 (亚马逊、微软、谷歌、阿里) 均公布了2025年资本支出计划——它们并未减少算力投资,反而在加码算力投入。

  科技公司算力投资,会在资本支出中体现。科技公司每年至少60%以上的资本支出被用于投资算力,如采购芯片、服务器、存储和网络设备、租赁土地、建设数据中心。

  2024年,四家科技公司资本支出均达到历史顶点(详见 《DeepSeek将拉低算力总需求?美国科技四巨头今年算力投资不减》 )。2025年,四家科技公司资本支出仍将高速增长。

  目前,资本支出计划规模最大的是亚马逊。安迪贾西甚至在2024年报电话会中向投资者保证这笔支出值得,称这是“千载难逢的商业机会。”

  最新财报电线亿美元资本支出,增速接近30%,主要用于云业务。微软计划2025财年 (2024年7月初-2025年6月末) 资本支出800亿美元,2025年资本支出将环比增加。谷歌计划在2025年投入750亿美元资本支出,增速将超过40%。阿里宣布,未来三年将投入超过3800亿元 (约合535亿美元,以美元和人民币汇率1:7.1计算) ,用于云和AI硬件基础设施,总额超过去十年总和。

  对不同公司来说,巨额资本支出带来的压力不尽相同。资本支出率可以侧面反映问题。

  科技公司巨额资本支出采购芯片、服务器等算力设备后,会转化为固定资产。这些固定资产折旧摊销时长一般为五年,计入每年的折旧摊销成本,影响未来五年的净利润。

  资本支出率越低,理论上带来的财务压力越小。亚马逊、微软、谷歌、阿里2024年资本支出率分别是12.2%、28.9%、15.0%、7.4%。目前,亚马逊资本支出率偏低,它的资本支出对未来几年的利润影响有限,算力投资是可持续的。微软明显偏高,这对利润影响相对更大,它不可能长期维持高强度的算力投资。

  为什么即使面临种种不确定因素,亚马逊、微软、谷歌、阿里仍要加大算力投入?

  其一,它们“钱袋子”仍是富余的,净利润、现金流能支撑短期高强度算力投资。

  其二,短期砸钱买算力对利润影响不大,还能通过延长部分服务器、网络设备使用时长调节利润。

  其三,过去两年的巨额投资产生了实际回报,“云+AI”收入、利润在增长。这进一步刺激了算力投资。

  多位中国科技公司战略规划人士今年2月告诉我们,加大投资才能在竞争中拥有更高胜率。科技公司不能让净利润、现金流躺在账面,必须投资未来。多买算力,有浪费的可能。但如果不投,一定会错失未来。

  上述中国科技公司算法负责人透露,他所在公司综合考虑算力资源储备、市场未来用量、模型成本下降等因素判断,2027年每天推理算力的消耗量将增长100倍以上。因此,拉到十年长周期看,算力需求不会减少,只会螺旋上升。

  既然未来1年-2年必须加大算力投资。那么,要如何更经济、高效地投资算力?亚马逊的做法是,自研芯片,且自研芯片采购比例比其他公司更高。

  目前亚马逊全球新增算力的一半以上都是基于Arm架构Graviton系列芯片,数量已超过x86系列芯片 (主要生产企业包括英特尔、AMD) 。未来AI训练/推理自研芯片的采购比例也将提升。

  一位芯片技术人士的观点是,自研芯片采购量足够大,成本足够低时,可以摊薄研发成本,进而得到更有性价比的算力。这也是亚马逊的优势所在。