文章来源:08ai导航网发布时间:2025-08-21 09:54:44
一度狂跌的英伟达股价,又被Grok-3盘活了?20万块GPU训出的模型超越DeepSeek和OpenAI,证明Scaling Law还在继续增长!Ai2研究者大佬直言:Grok-3,就是DeepSeek给美国AI企业压力的又一力证。
马斯克的Grok-3,又给英伟达续命了?
用了20万张GPU训练的Grok-3,一下子让市场重新找回对英伟达的信心——「力大砖飞」依然有效!
现在,英伟达的股价已经重新回到DeepSeek-R1发布前的水平。
AI大佬们议论说,Grok-3证明——Scaling Law的神话并未终结。
在算力提升10倍的情况下,Scaling Law仍在呈线性增长。既然能通过扩大预训练规模,成功打造一个性能顶尖的非推理模型,就说明尽管预训练代价高昂,但仍有很大发展空间。
LLM要发展往下发展,还要继续囤GPU、堆算力吗?Grok 3的发布,让很多人又不确定了。
无论事实如何,最重要的是,市场和投资人的信心回来了。
在这道题中,两个模型需要分析马斯克关于AI安全的最近50篇文字,确定关键主题,并与LeCun发表的法语帖子进行对比。
结果是Grok-3完胜,它有效确定了关键主题和对比的位置;而DeepSeek败在了多语言解析和上下文分析这一步。
这一题的任务是,「根据Prater博士在X上关于量子比特扩展的帖子,生成一张FLUX风格的量子计算机设计图。」
最终,Grok-3基于提取的数据,创建出了对应的图像;而DeepSeek-V3由于不是多模态模型,因此没能给出结果。
使用BeautifulSoup编写一个Python脚本,从EDGAR抓取SEC文件,并包含针对速率限制的错误处理。
最终,Grok-3提供了一个结构化脚本,还使用了速率限制处理;而DeepSeek花了248秒来思考问题,但并未执行。
「用莎士比亚风格的十四行诗,以五步抑扬格解释区块链共识机制。」
这道题,是DeepSeek-V3胜利了。它用完美无瑕的结构化押韵,模仿了莎士比亚的风格;而Grok-3则被难倒了。
在剩下的道德挑战、争议话题处理、内容合规等方面,双方都打成平手。
最终,Grok-3以4:3的比分胜出。
在DeepSeek和Grok带来的竞争压力下,加上国内外环境的变化,这些传统的领先实验室将不得不加快产品发布节奏。
此前模型发布延迟的很大一部分原因是「安全测试」,但具体有多少是因为安全测试,多少是出于成本收益考虑(以及法务审查等大公司特有的问题),我们并不清楚。
对于这些公司来说,拥有「最智能模型」的品牌和文化极为重要,但维持绝对领先的技术优势往往会带来难以承受的财务压力。
竞争的加剧和监管的减少,让普通用户能在更短的时间内获得更强大的AI。
实践反复证明,拥有最强模型至关重要。而吸引新用户的唯一方法,就是展示模型在某些能力或行为上与众不同。
在当前技术快速发展的背景下,要想最大限度地发挥影响力,最有效的方式就是尽可能缩短从训练到部署的时间。
如今,DeepSeek和xAI证明了,即使是在技术实力和资源配置上稍处劣势,也能够在竞争中脱颖而出,超越OpenAI、Anthropic等刻意按兵不动、选择不发布最新模型的公司。
从技术层面来看,Grok-3无疑非常庞大。虽然没有具体的细节,但可以合理推测,Scaling仍然有助于提升性能(但可能在成本方面并非如此)。
xAI的方法以及放出的消息一直是,尽快启动最大的计算集群。在获得更多细节之前,最简单的解释是,Scaling Law依然有效。但也有可能,Grok的表现更多来自于其他技术,而不仅仅是单纯的Scaling。
Nathan Lambert认为,Grok-3是Scaling Law的又一次胜利:
Grok 3凭借规模优势超越现有模型的情况,让人回想起Nemotron 340B超越Llama 3 70B的时刻。当时Nemotron虽然成为了开源模型中的佼佼者,但由于其性能提升相对于成本投入来说性价比不高,市场接受度一直较低。
总的来说,尽管Grok-3在技术上取得了重大突破,但这并不意味着在模型高效训练领域的竞争格局发生了实质性改变。
xAI显然正在追赶OpenAI、Anthropic,尤其是谷歌。但现有的各项指标都表明,在模型训练效率方面,这些研究机构仍然处于领先地位。
值得高兴的是,这种竞争态势迫使这些机构将重点放在提升模型的绝对智能水平上,而不是仅仅继续优化其性价比。
如果AI模型,以及整个行业都在加速发展,那么重要的是思考它们加速发展的方向是什么。
现在用来评估领先模型的大多数方法,并不具有代表性。在许多情况下,它们实际上与正常生活完全脱节。
解决像AIM之类的竞赛数学问题或所谓的「Google Proof」问题有什么价值?或许时间会给出证明,但对于普通用户来说,其用处肯定有限。
在ChatBotArena评测中的微小进步仅仅表明了系统稳定性的略微提升。这种稳健性会随着时间的推移而累积,但远不能说明该模型在绝对意义上更智能。
事实上,从研究界最新的评估方法来看,测试标准似乎更注重难度而非实用性。
随着模型变得愈发强大,研究人员自然会寻找更具挑战性的任务来测试它们,但这反而使得追踪技术进展和相关交流变得更加困难。
各大公司都有众多未公开的内部评估指标。提高这方面的透明度,将有助于更好地理解什么才是真正有意义的进展。
目前,在缺乏这些指标的情况下,用户只能通过模型与产品的整合程度来判断其发展。虽然这种协同确实能带来极具价值的工作方式,但以此衡量AI进展的方式终究是间接的。
回顾2024年,虽然表面上看似进展有限,但实际上却有着不少有实质性的突破,只是最终仅有很少一些交付给了用户。
直到年底才等来了o1,其他模型要么被认为「规模过大无法部署」,要么缺乏必要的紧迫性。
正是DeepSeek带来了鲶鱼效应,给这些公司带来了紧迫感,让2025年成为智能进入用户手中的一年。
底层技术的进展速度将继续保持高速。此前预测的所谓AI发展「瓶颈」并未出现。
相关攻略 更多
最新资讯 更多
英伟达一夜回血!马斯克狂烧30亿GPU给老黄续命,10倍算力创ScalingLaw神话
更新时间:2025-08-21
年入1.34亿,AI包工头成硅谷最慷慨老板
更新时间:2025-08-21
DeepSeekPC在淘宝火了,低配高价套路多,我劝你别买
更新时间:2025-08-21
与AI协作2000小时后:发现人类对大模型能力的挖掘,还不足10%
更新时间:2025-08-21
Grok3第一个破圈的场景,居然是写小黄文。
更新时间:2025-08-21
第一批DeepSeek开发者,已经开始逃离了
更新时间:2025-08-21
网游植入AI大模型,赔本赚吆喝?
更新时间:2025-08-21
DeepSeek春风吹开工业AI迷雾
更新时间:2025-08-21
DeepSeek引爆国产适配的前夜,「硅基流动」已完成亿元融资|智涌首发
更新时间:2025-08-21
MatChatAIAgent助力打造具有国际影响力的材料科学知识服务平台
更新时间:2025-08-21