首页 > AI教程资讯

TML 成立7个月首发声:揪出大模型随机元凶,开源方案终结 LLM 推理乱象

文章来源:08ai导航网发布时间:2025-10-14 15:29:12

用AI检查同一份合同,两次给出的风险提示可能不同;

向智能客服咨询同样问题,得到的答案可能不一致。

这种随机性是AI行业长期存在的技术痛点。

OpenAI前CTOMiraMurati创办的ThinkingMachinesLab(简称TML),正针对这一问题开展研究,其最新进展或为AI可靠性提升提供解决方案。

ThinkingMachinesLab:未出产品已获资本关注

2025年2月,MiraMurati离开OpenAI四个月后,正式成立ThinkingMachinesLab。

该公司成立七个月,未发布任何产品,已完成20亿美元种子轮融资,估值达120亿美元。

领投方为硅谷风投a16z,英伟达、AMD、思科等科技企业参与投资。

TML团队共30人,三分之二来自OpenAI,包括OpenAI联合创始人JohnSchulman、前研究副总裁BarretZoph,二人均为ChatGPT核心技术开发者。

AI安全专家AndrewTulloch拒绝扎克伯格15亿美元回聘邀请,选择加入TML。

Murati创办TML的思路,与她在OpenAI期间的思考一致。

推动ChatGPT面向公众开放时,她发现AI技术越强,越需要解决可靠性问题。

Murati在一次采访中表示,当前AI的输出结果存在不可控性。

TML的使命不是追求更强模型,而是填补AI能力与人类需求间的差距。

AI随机性的核心成因:批次处理引发计算差异

9月11日,TML在研究博客Connectionism发布首篇文章,明确AI随机性的成因。

此前部分观点认为,AI对同问题输出不同答案是因“随机种子”设置差异,但TML研究显示,核心原因是“批次处理”技术细节。

更为关键的发现是,并行计算策略的变化,才是导致输出不确定的根本原因。

简单来说,当服务器处理大家的AI请求时,会把不同用户的需求打成大小不一的“包裹”进行处理。

而不同的批量大小、序列长度,还有KV缓存状态,会影响GPU内核的选择策略,进而改变计算执行顺序。

再加上计算机算小数的时候,类似(a+b)+c和a+(b+c)这样的计算,结果可能会有细微差别。

这些小差别在AI的神经网络里会像滚雪球一样越积越大,最后就导致同一个问题,AI给出的答案却不一样。

TML的解决方案:批次不变内核实现结果稳定

为了攻克这个难题,TML团队拿出了“批次不变内核”这个创新方案。

简单来说,这个方案规定,不管处理的数据量大小、怎么分组,AI系统里的关键计算部分,都得按照同样的步骤算出一样的结果。

针对AI模型中特别重要的RMSNorm、矩阵乘法、注意力机制这三个模块,团队也设计了专门的优化办法,就是为了让AI不管遇到多少数据,计算流程都能保持稳定。

光有方案还不够,团队用有2350亿参数的Qwen3-235B-A22B-Instruct-2507模型做了严格测试。

以前的AI系统,同样的问题每次算出来的答案都不太一样,测1000次能得到80种不同结果。

但用了batch-invariant方案后,只要输入的内容一样,AI每次输出的答案就完全相同,这在大语言模型发展史上尚属首次。

刚开始,新方案让AI计算速度慢了将近一半,但经过优化后,现在这点性能损耗已经在可接受范围了。

这项技术突破对关键行业的实际价值尤为显著。

在医疗诊断场景下,AI辅助系统若对同一患者的CT影像产生前后矛盾的分析结论,极易干扰临床医生的诊疗决策;

金融风控领域同样面临挑战,AI模型对相同贷款申请的评估结果波动,不仅可能引发风险误判,更可能触及合规红线。

TML研发的新技术,就像给高风险行业的AI上了一把“安全锁”,让它们用起来更靠谱、更让人放心。

不同行业的突破点:让AI决策不再“玄学”

Murati目前带领的团队研究方向,和大部分AI企业不太一样。

在其他公司都在努力扩大模型规模,思考如何让AI能生成更多东西的时候,TML反其道行之,研究怎样才能让AI的表现更稳定,让大众能理解它是怎么“思考”的。

这其实和Murati在OpenAI的工作经历有关,

作为人工智能领域的从业者,她既了解大模型的强大之处,也明白技术失控的风险后果。

团队的研究博客取名"Connectionism"(联结主义)颇有深意,这是1980年代研究神经网络与生物大脑相似性的AI子领域名称。

Murati想通过这些基础研究,把AI的“底细”摸清楚,让大家不再觉得AI像个神秘莫测的“黑匣子”。

目前,TML还没有公布具体的商业化计划,但金融和医疗行业已经表现出浓厚兴趣。

让机器思维具备可预测性,虽不涉及AI能力边界的突破,但对AI技术安全融入社会至关重要。

Murati表示,行业不需要AI输出不可控的结果,而是需要AI输出稳定可靠。