苹果再轰 AI 推理能力,GitHub 大佬怒怼:这不是推理能力的真实面貌!

最近,苹果公司发布了一篇引发热议的论文,指出当前的) 在推理方面存在重大缺陷。这一观点迅速在社交媒体上引起热议,尤其是 GitHub 的高级软件工程师 SeanGoedecke 对此提出了强烈反对。他认为,苹果的结论过于片面,并不能全面反映推理模型的能力。

苹果的论文指出,在解决数学和编程等基准测试时,LLM 的表现并不可靠。苹果研究团队采用了汉诺塔这一经典的人工谜题,分析了推理模型在不同复杂度下的表现。研究发现,模型在面对简单谜题时表现较好,而在复杂度较高的任务中,推理模型往往选择放弃,不再继续推理。

例如,在处理十盘汉诺塔问题时,模型会觉得手动列出每一步几乎不可能,因此选择寻找 「捷径」,但最终却未能得出正确答案。这一发现表明,推理模型在某些情况下并非没有能力,而是意识到问题过于复杂而选择放弃。

不过,SeanGoedecke 对此表示质疑,他认为汉诺塔并不是测试推理能力的最佳例子,模型的复杂性阈值也可能并非固定。此外,他还提到,推理模型的设计初衷是为了处理推理任务,而不是执行数千次重复性步骤。用汉诺塔测试推理能力,就像在说:「如果某个模型不能写出复杂的诗歌,那它就不具备语言能力」,这并不公平。

虽然苹果的研究揭示了 LLM 在推理方面的一些局限,但这并不意味着这些模型完全没有推理能力。真正的挑战在于如何更好地设计和评估这些模型,以发掘它们的潜力。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

小红书重磅出击!全新开源大模型 「dots.llm1」 震撼登场,参数量达 1420 亿!

2025-6-11 1:21:01

AI 资讯

全新豆包·视频生成模型明日发布 支持无缝多镜头叙事等功能

2025-6-11 1:21:35

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索