网赌如何破解

AI算力支出超140亿,DeepSeek遭遇美国OpenAI全新o3-mini模型反击
网赌如何破解
栏目分类
你的位置:网赌如何破解 > 新闻动态 >
AI算力支出超140亿,DeepSeek遭遇美国OpenAI全新o3-mini模型反击
发布日期:2025-02-02 21:29    点击次数:109

(图片来源:钛媒体 AGI 编辑林志佳拍摄)

中国 AI 模型 DeepSeek 引发的全球讨论热潮持续近半个月,美国 OpenAI 公司终于发布新模型对此进行"反击"。

北京时间 2 月 1 日凌晨,OpenAI CEO 奥尔特曼(Sam Altman)在 2 周前预告后,今天在 ChatGPT 和 API 服务中推出 AI 推理模型 o3-mini,性能响应速度比 o1-mini 提升 24%,答案准确性也有所提高。

目前 ChatGPT 免费用户首次可以体验一个有限速率的 o3-mini 版本,速率限制与现有的 GPT-4o 限制类似;Plus 用户可选择 o3-mini-high 更高智能版本;每月支付 200 美元的 Pro 用户可无限使用 o3-mini 和 o3-mini-high;API 层面,o3-mini 输入 1.10 美元 / 百万 token、输出 4.40 美元 / 百万 token,价格比 o1-mini 便宜 63%,比满血版 o1 便宜 93%,但仍是 GPT-4o mini 的 7 倍左右。

OpenAI 表示,o3-mini 的发布是在追求高效能智能技术道路上的又一重要里程碑。通过优化科学(Science)、技术(Technology)、工程(Engineering)和数学(Mathematics)领域的推理能力,同时保持较低的成本,让高质量 AI 技术变得更加平易近人。

事实上,过去一周内,DeepSeek R1 和 V3 两款开源 AI 模型都颠覆世界对于"尺度定律"(Scaling Law)的看法,其模型的优异表现以及不及 OpenAI 近 1/20 的算力成本令 OpenAI 内部震动,而且让华尔街开始质疑 AI 公司是否需要在算力成本投入大量资金实现 AGI 模型迭代,英伟达股价一夜暴跌 17%,损失近 6000 亿美元市值。

然而,据 SemiAnalysis,与外界认为 DeepSeek 公司拥有 5 万张 H100 GPU 计算卡看法不同,该机构认为,DeepSeek 堆积了 6 万张英伟达 GPU 卡,其中包括 1 万张 H100、1 万张 H100、1 万张"特供版" H800、3 万张"特供版" H20,算力资本支出的总体拥有成本(TCO)超过 140 亿元,达 19.96 亿美元(约合人民币 143.45 亿美元)。其中,CapEx 总服务器资本支出 12.81 亿元、运营成本 7.15 亿美元。

要知道,英伟达过去一年内才生产 100 万张"特供版" GPU 卡。

最新消息是,OpenAI 正在进行新一轮 400 亿美元的融资,软银将领投,公司价值高达 3000 亿美金(约合人民币 2.16 万亿元),对此 OpenAI 并未置评。

而在 o3mini 正式推出之时,奥特曼今晨在回答网友问题时,罕见承认 OpenAI 过去在开源方面一直站在"历史错误的一边"。他表示,"我个人认为,我们在这里站在了历史的错误一边,需要找出一个不同的开源策略。OpenAI 中并非所有人都认同这一观点,这也不是我们当前的最高优先事项。"这意味着,OpenAI 正在考虑开源。

那么,随着 DeepSeek 好评如潮,OpenAI 这个昔日 AI 霸主如何对战?140 亿(算力)VS 2.16 万亿(公司价值),一场围绕中国、美国两家有实力的 AI 公司战争已经打响。

模型转向后训练和算法,300 万美金的 AI 能力也能超 GPT

回顾过去 4 年," DeepSeek 缔造者"梁文锋带领 200 多人的团队围绕 AI 大模型进行深入研发。

由于 DeepSeek 背后的幻方量化是国内少数拥有数百亿管理规模的量化私募基金机构,既不缺钱又不融资,甚至 DeepSeek 没有准备做 To B/To C 商业化,手里的万卡算力也没有做云计算生意。

人才层面,DeepSeek 目前约有不到 200 名研发人员,并且只从中国招聘人才,不看重过往资历,高度关注能力和求知欲,据称为研发人员提供最高超过 130 万美元的年薪,远超中国其他科技大厂,以及"大模型六小虎"这类 AI 创业公司。

简单来说,梁文锋认为的 DeepSeek,就是好奇心驱使,不需要靠大模型赚钱,只为推动 AGI(通用人工智能)。因此,基于梁文锋对于高端算力限制的需求,DeepSeek 不断堆砌数万张英伟达 AI 算力卡。

SemiAnalysis 称,即便考虑到出口管制因素,DeepSeek 和幻方在 GPU 上的投资也超过 5 亿美元。

从结果上来看,这种"降本增效"的效果是很好的:DeepSeek V3 模型整个训练在 2048 块英伟达 H800 GPU 集群上完成,仅花费 57 天、共计约 557.6 万美元,不到其他顶尖模型训练成本的十分之一;最新的开源多模态模型 Janus-Pro-7B 用 256 张英伟达 A100 GPU 卡训练了 14 天,最少的 10 亿参数模型用 128 张英伟达 A100 训练 7 天,成本仅数千美金。

这种低成本转化模型能力和应用落地,与所谓的"杰文斯悖论"(Jevons Paradox)现象有些类似。

"杰文斯悖论"是由英国经济学家威廉 · 斯坦利 · 杰文斯(William Stanley Jevons)在 1865 年发现的重要现象:蒸汽机效率的提高并非减少了,而是导致了对煤炭需求的持续增长,这是因为高效的蒸汽机逐渐进入了社会生产的每一个角落。

因此,相较于 OpenAI GPT-4 这类大语言模型(LLM),无论是 GPT-o1、o3 系列,还是 DeepSeek R1,核心就是用更低的成本实现更高的(推理)模型性能和更多的智能思维能力。而计算能力越强,推理模型就可以思考更多步骤,从而提高得出正确答案的可能性,在这其中,算力软件优化成为关键要素。

清华大学计算机系长聘教授、高性能计算研究所所长、清程极智首席科学家翟季冬表示,DeepSeek 在 MoE 架构算法、系统软件层次做了很多创新,它给我们的启示,更多在于如何在有限的算力情况下,通过算法和软件的协同创新,充分挖掘硬件的极致性能,对中国未来发展 AI 产业至关重要。

翟季冬认为,在预训练模型完成后,还有一个很重要的阶段就是后训练(post training)。以 OpenAI o1/o3 为代表的后训练技术,为整个训练过程带来了新的挑战。而后训练包括生成阶段、推理阶段和微调阶段,每个阶段的负载特点都不同,最优的并行策略也会不同,不能简单地追求每个阶段的局部最优,因为阶段之间的切换也会产生开销。我们要从整个 pipeline(管道)的角度来考虑优化策略。后训练还面临着负载不均衡的问题,需要探索如何有效重叠不同阶段以提高资源利用率。

如今,o3 mini 和 DeepSeek R1 都使用大量监督微调 ( SFT ) 、强化学习 ( RL ) 、合成数据以及稀疏化 MoE 等能力。

苹果公司研究团队和麻省理工学院的合作者 Harshay Shah 近期共同发表的《参数与 FLOPs:混合专家语言模型最优稀疏度的缩放定律》显示,包括 DeepSeek 和其他最近创新在内,稀疏性是这类模型发展的关键要素,证明 DeepSeek 通过关闭越来越多的网络部分,在计算能力较低的情况下达到相同或更好的结果,因为重要的是模型的稀疏性,它能找到 AI 模型和可用计算之间的最佳匹配。

很显然,有效使用有限的计算能力,将模型发展的关键要素。

AI 独角兽零一万物创始人兼 CEO 李开复曾表示,现在一个模型训练只用了 2000 张 GPU,训练周期仅一个半月,成本只有 300 多万美元,是马斯克的 xAI 成本的 1%、2%。

整体来说,正如 SemiAnalysis 所讲,到目前为止,这种"降本增效"模式的结果是,每年算法的进步速度快 4 倍,这意味着每过一年,实现相同功能所需的计算量就会减少 4 倍。整体来说,成本随时间变化,算法的改进和优化使成本降低了 10 倍,而能力提高了数倍。

Anthropic 首席执行官 Dario Amodei 认为,算法的进步速度更快,可以带来 10 倍的改进。就 GPT-3 质量的推理定价而言,成本已下降了 1200 倍。

OpenAI 准备开源?完整版 o3 最快几周内上线

事实上,大模型推理成本的下降是一个必然趋势。OpenAI 在发布 o3 mini 时表示,其团队降低了 token 价格。自推出 GPT-4 以来,每个 token 的价格降低了 95%,但同时保持了顶级的推理能力。

"是的,我们在讨论。我个人认为我们在某些方面可能站错了历史的一边,需要找出不同的开源策略;并不是所有来自 OpenAI 的人都持有这种观点,这也不是我们当前的最高优先事项。"

这是奥尔特曼首次正面承认 OpenAI 的闭源"是一个错误"。在 DeepSeek 热潮刺激下,奥尔特曼终于打算把推理 o1,或基座 GPT 模型进行开源,在一定程度上,这将是一个突破性事件。

今晨发布的 o3-mini 模型,主要包括高、中、低三个版本,没有思考技术——奥尔特曼称将很快上线。

OpenAI 表示,o3-mini 模型擅长科学、数学和编码,测试人员在 56% 的时间里更喜欢 o3-mini 的回答,并观察到在困难的现实问题上重大错误减少了 39%。在中等推理努力下,o3-mini 在一些最具挑战性的推理和智力评估(包括 AIME 和 GPQA)上的表现与 o1 相当。因此,与 o1-mini 相比,o3-mini 的答案更准确、更清晰,推理能力更强。

根据 OpenAI 发布关于 o3-mini 研究论文显示,OpenAI o3-mini 已在各种数据集上进行了预训练,其中包括多种公开数据,以及内部开发的定制数据集,因此,OpenAI o3-mini 在某些基准上的表现与最先进的⽔平相当。通过计划允许用户使⽤ ChatGPT o3-mini 搜索互联⽹并汇总结果,OpenAI 希望 o3-mini 成为⼀个有⽤且安全的模型。

幻觉方面,OpenAI 有透露,o3-mini PersonQA 幻觉率(越低越好)低至 14.8%,比 4o 的 52% 幻觉率大大降低,但 PersonQA 准确率却没有特别"缩水"。o3-mini 整体表现与 OpenAI o1-mini ⽐较相似,但在模糊性问题的准确性、明确问题的准确性上均略有下降。

OpenAI API 研究主管 Michelle Pokrass 表示:"我们发现 o3-mini 与美国托管的 Deepseek 版本相比具有竞争力。我们认为对于这种级别的智能来说,这是一个真正实惠的选择。"

谈及 DeepSeek,奥尔特曼在 Reddit 回答中表示,"这是一个非常好的模型!我们将生产出更好的模型,但领先优势将比前几年有所减弱。"

那么,OpenAI 会计划提高 plus 会员的价格吗?奥尔特曼回应称:"实际上我想随着时间的推移减少它。"

对于完整版 o3 模型发布时间,奥尔特曼一如既往开始画饼:"我猜会是几周以上,几个月以下。"

关于很多人都关心的 GPT-5,奥尔特曼表示还没有时间表,但会有一些即将发布如高级语音模式的更新。

"是的,高级语音模式的更新即将到来!我认为我们会称之为 GPT-5 而不是 GPT-5o。(GPT-5)还没有时间表。"奥尔特曼称。

当前,DeepSeek 正面临美国政企等各方面的调查承压。其中,微软和 OpenAI 都已开始调查 DeepSeek 是否采用其模型数据;美国总统特朗普警告称,DeepSeek 为美国科技行业敲响了警钟,需要对美国 AI 开放、持续限制对华 AI 半导体出口;而美国商务部、美国议员都纷纷要求调查 DeepSeek,以及持续限制半导体出口管制。

Dario Amodei 近期发文表示,DeepSeek 最新模型在特定基准测试中已逼近美国顶尖水平,基于此,他坦承,DeepSeek 的突破正在倒逼美国重新评估技术封锁政策的有效性,"我认为 DeepSeek 的进展反而令出口管制政策显得比一周前更具存在意义上的重要性。"在 Dario 看来,美国要在 AI 发展中保持领先地位,力所能及的情况下,美国不应将技术优势拱手让给中国。

在大众看来,对 DeepSeek,中美的反应最好都适度冷却。对中国来说,要在庆祝和自豪的同时警惕危机,防止媒体和社会的"捧杀";对美国而言,要客观理性看待 DeepSeek 的成功,用实际行动进行竞争,无论是 OpenAI o3-mini,还是阿里通义新模型,都证明了这一点。

DeepSeek 对于中国来说无疑是重大的新年礼物,如今只有 +86 手机号才能注册,这将对美国来说产生"壁垒"。

无论中美两国如何博弈,但过去一周的舆论场,已经对中美下一阶段 AI 竞争产生了深远影响。

中欧国际工商学院决策科学与管理信息系统教授谭寅亮对钛媒体 AGI 表示,对于 DeepSeek 这样的产品来说,其成功更多依赖于高效的算力调度和模型优化能力,而非单纯堆积硬件资源。因此,出口管制等外部限制可能影响行业发展速度,但并不一定会阻碍本土大模型的长期竞争力和全球化扩张。

" DeepSeek 的成功表明,中国企业在 AI 应用层面和用户体验上具有强大的创新能力,尤其是在产品快速迭代和市场化方面更具优势。这为中国在全球 AI 竞争中提供了重要的信心,特别是在 C 端市场表现上,中国团队对用户需求的深刻理解起到了关键作用。但从技术底层来看,美国在基座模型和前沿研究上的持续领先仍是重要支撑,整体竞争格局依然呈现‘底层技术美国强、应用场景中国快’的局面。DeepSeek 的崛起进一步推动了这种竞争的动态化发展。"谭寅亮表示。

(本文首发于钛媒体 App,作者|林志佳,编辑|胡润峰)



  • 上一篇:ST天喻(300205.SZ):目前没有跨境支付业务
  • 下一篇:没有了