研究人员揭示大模型并非真正推理,只是在 \"找关系\"
作者
2025-05-30
12次阅读
人工智能

亚利桑那州立大学研究小组在arXiv发表论文,指出大型语言模型(如ChatGPT)不会真正思考或推理,只是寻找数据相关性,并非理解因果关系。虽模型给出答案前有看似合理中间过程,但并非推理,将其拟人化会致公众误解。研究还提及一些推理模型,其输出无真正推理过程,用户若将中间输入视作推理,会对模型问题解决能力产生误导性信心。该研究提醒在依赖AI时代,需谨慎看待技术能力,未来AI研究或朝更具解释性方向发展。此外,还推荐了包括人工智能能耗、AI检测预测前列腺癌患者获益情况等多条相关AI新闻。