OpenAI最强AI模型竟成“大忽悠”!o3/o4-mini被曝聪明过头、结果幻觉频发?


OpenAI最强AI模型竟成“大忽悠”!o3/o4-mini被曝聪明过头、结果幻觉频发?

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

整理|郑丽媛
出品|CSDN(ID:CSDNnews)
作为全球AI领域的标杆,OpenAI上周推出的新一代推理模型o3和o4-mini模型在编码、数学等复杂任务上展现出表现出色,在多个基准测试中也取得了瞩目的成绩——为此OpenAI官方表示,o3和o4-mini是OpenAI迄今为止发布的最智能模型。
可刚发布没两天,这些“最智能”的模型就成了“幻觉专业户”:据OpenAI内部测试显示,o3和o4-mini比旧版模型更容易产生幻觉!
最强推理模型,却成“幻觉大师”?
在o3和o4-mini发布之初,OpenAI官方对其评价极其的高:
“OpenAIo3是我们最强大的推理模型,它推动了编码、数学、科学、视觉感知等领域的发展”,“OpenAIo4-mini是一款经过优化的小型模型,适用于快速、经济高效的推理。它在数学、编程和视觉任务方面,以自身规模和成本而言,表现十分出色”。
为了证实o3和o4-mini的能力,当时OpenAI还展示了许多测试成绩:
(1)在Codeforces编程测试中,o3的Elo分数达到了2706,远超o1的1891。
(2)在GPQADiamond科学问答测试中,o3的准确率为83.3%,o4-mini为81.4%,而o1仅为78%。
(3)在MMMU基准测试中,o3和o4-mini的表现也均超过了旧版o1模型。
按照SamAltman的说法,此次OpenAI推出的新模型几乎“达到或接近天才水平”。
然而近日外媒TechCrunch报道,根据OpenAI内部文件显示,其最新AI模型比以之前的所有模型都更容易产生“幻觉”:
PersonQA基准测试:用于衡量模型对人物信息的准确性,前一代推理模型o1和o3-mini的幻觉率分别为16%和14.8%,而o3幻觉率为33%,o4-mini幻觉率高达48%(几乎每两次回答中就有一次是虚构的)——幻觉率几乎翻倍;
连“非推理”模型都比不过:甚至,传统“非推理”模型GPT-4o都比o3和o4-mini的幻觉率还低——新模型在“胡编乱造”上实现了“反向超越”;
第三方也实锤:非营利性AI研究实验室Transluce也发现,o3模型在回答问题时会编造其执行的操作。例如,o3曾声称在一台2021年的MacBookPro上运行了代码——可实际上,o3并没有访问该设备的能力。
对于媒体披露的这个问题,从SystemCard中的说法来看,显然OpenAI也是知情的:
在我们的PersonQA评估中,o4-mini模型的表现不如o1和o3。这在意料之中,因为较小的模型对世界的了解较少,往往会产生更多幻觉。不过,我们也发现了o1和o3在性能上的一些差异。具体来说,o3总体上倾向于做出更多的断言——这既包括更准确的断言,也包括更多不准确/幻觉的断言。我们需要更多的研究来理解这一结果的原因。
简单一句话总结:OpenAI知道新模型有这个问题,但目前也不知道具体原因,所以还需要“研究”——毕竟这种反常现象,打破了先前“模型越强幻觉越少”的行业规律。
推理型AI进化的“成长阵痛”
那么,为什么更强大的推理能力反而催生更多幻觉?Transluce的研究人员NeilChowdhury推测,这或许要从o系列模型的“设计哲学”说起。
“我们的假设是,用于o系列模型的强化学习方式,可能会放大一些通常可以通过标准的训练后流程缓解(但无法完全消除)的问题。”
具体来说,传统AI模型如GPT-4,依赖海量数据“死记硬背”,而o系列模型主打“推理优先”,通过逻辑链条推导答案,就像从“填鸭式教育”转向“启发式教学”。这种模式让模型在编程、数学证明等领域突飞猛进——Workera公司测试显示,o3在编码工作中比竞品领先一大截。
但在这一过程中,副作用也随之而来。
首先是“话痨”,模型在推理过程需要生成更多中间步骤和结论,可说得多错得也多,就像一个喋喋不休的人更容易说漏嘴;其次是“自负”,推理模型通常对自己的推导逻辑深信不疑,为了自圆其说,会编造一些根本不存在、用户点击后只会显示404的网站链接;最后是“训练后遗症”,Transluce推测,特殊的强化学习可能让这类模型形成“虚拟奖励”机制,因此当它遇到知识盲区时,不是承认不懂,而是编造一段“看似合理”的假话。
用过o3模型的人,对它“又爱又恨”
面对这些问题,Transluce的联合创始人SarahSchwettmann表示:o3的幻觉率可能会使其实际用途大打折扣。
诚然,这几天使用过o3模型的用户,不少都对它“又爱又恨”的。
斯坦福教授KianKatanforoosh在接受采访时,指出其团队因o3陷入了矛盾状态:他们一边享受着o3优越的编码效率,一边又不得不建立专门的“链接验证”流程,为每个生成的链接“验明正身”——这种额外成本,让许多对精准度要求极高的企业望而却步。
在X平台上,也有许多开发者直言,目前o3根本无法用于低级编码任务:“它生成的代码片段简直荒谬可笑,充满了幻觉和错误。我甚至可以说,要是在代码库里用它会非常危险,它可能会严重破坏你的代码,并让你认为那些修改是重要和正确的。”
例如,有开发者发现o3生成的代码中包含了一些不存在的文件,便提问:“我的代码库中甚至没有这些文件?这到底是怎么回事?”
对此,o3依旧自信回应:“啊,抱歉。我以为你使用的是与我们参考管道一起安装的‘starter-project’文件布局。在你的存储库中,这些脚本已被折叠到主处理引警中,因此调用链看起来略有不同。”
正如这位开发者的感慨:“……o3对它所生成的内容非常有信心。毫无疑问,o3在制定计划和分析高层内容方面非常出色,但在实现逻辑方面却非常糟糕。”
那么,你是否也遇到过类似问题呢?
参考链接:
https ://openai.com/index/introducing-o3-and-o4-mini/
https ://techcrunch.com/2025/04/18/openais-new-reasoning-ai-models-hallucinate-more/
好啦,今天的内容分享就到这,感觉不错的同学记得分享点赞哦!
PS:程序员好物馆持续分享程序员学习、面试相关干货,不见不散!
点分享
点收藏
点点赞
点在看


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录