研究发现:主流 AI 聊天机器人传播虚假信息的概率较去年翻倍

作者
2025-09-16
5次阅读
人工智能
文章详情

根据 Newsguard 的研究,截至今年8月,十大生成式AI工具在处理实时新闻时,有35%的情况会传播虚假信息,相较于去年的18%大幅增加。这一增长与AI聊天机器人引入实时网络搜索功能有关。此功能使其回答问题的拒绝率从31%降至0%,但也让AI接入了充满虚假信息的网络生态系统,导致它们重复传播这些错误信息。各AI模型的具体表现如下:* Inflection:表现最差,传播虚假信息概率为56.67%。* Perplexity:出错率为46.67%,相比一年前100%揭穿虚假信息的表现,下滑显著。* ChatGPTmeta 的AI模型:比例为40%。* Copilot(微软必应聊天)和 Mistral:均为36.67%。* ClaudeGemini:表现最佳,错误率分别为10%和16.67%。引入网络搜索功能本意是解决内容过时问题,却带来了从不可靠来源获取信息的新问题。OpenAI 承认,语言模型会产生“幻觉内容”,因为其工作原理是预测“最可能出现的下一个词”,而非追求“事实真相”。该公司正研发新技术以提示不确定性,但要从根本上解决问题,需要AI能真正理解真实与虚假。