AI集体“翻车”?马斯克的伪百科正悄悄入侵你的聊天机器人
当AI开始“引用”伪百科
如果你最近问ChatGPT“特斯拉的创始人是谁”,它可能会一本正经地告诉你答案来自一个叫Grokipedia的网站。别急着点头——这个网站根本不是正经的维基百科,而是埃隆·马斯克去年10月推出的AI生成版“伪百科全书”。更让人细思极恐的是,ChatGPT并不是唯一中招的AI。
数据不会说谎:伪百科正在悄悄渗透
SEO公司Ahrefs的市场策略主管格伦·阿尔索普最近做了个有趣的实验:在1360万次ChatGPT提问中,竟然有超过26.3万条回答引用了Grokipedia,涉及约9.5万个页面。相比之下,正经的英文维基百科被引用了290万次。“虽然差距还很大,但考虑到Grokipedia才上线几个月,这个数据已经相当惊人了,”阿尔索普说。
营销平台Profound的研究员萨尔塔杰·拉杰帕尔从另一个角度证实了这一趋势:每天ChatGPT的所有引用中,有0.01%到0.02%来自Grokipedia——比例虽小,但从去年11月中旬开始就稳步增长。Semrush的AI可见度工具包也监测到,从12月起,Grokipedia在谷歌AI答案中的出现频率明显上升。
谁在“吃”伪百科的“饲料”?
目前看来,ChatGPT是Grokipedia最大的“粉丝”:
- 谷歌Gemini:在950万次提问中引用了8600次
- 微软Copilot:1400万次提问中引用了7700次
- 谷歌AI Overviews:1.2亿次提问中引用了567次
- Perplexity:1400万次提问中引用了2次
有趣的是,Gemini和Perplexity的引用量比上个月测试时大幅下降——难道AI们开始“学乖”了?不过,社交媒体上已经有不少用户报告说,Anthropic的Claude也开始引用Grokipedia了。
伪百科都用在哪些“奇怪”的地方?
分析公司BrightEdge的CEO吉姆·余发现了一个规律:AI们引用Grokipedia时,大多是在回答那些冷门、晦涩或高度具体的事实性问题。比如“19世纪某位不知名发明家的生平”或者“某种罕见化学物质的特性”。
但不同AI对待Grokipedia的态度截然不同:
谷歌AI Overviews比较“谨慎”,通常把Grokipedia作为补充参考资料,和其他来源一起出现;而ChatGPT就“大方”多了,经常把Grokipedia放在回答的第一位引用源——这相当于给了它“头等舱”待遇。
为什么这是个“大问题”?
你可能觉得:“不就是个冷门知识网站吗?有什么大不了的?”但专家们已经拉响了警报。
维基百科之所以可信,是因为它有一套透明的人工编辑流程和社区监督机制。而Grokipedia完全是AI生成的——这意味着:
- 准确性无法保证:AI可能会把错误信息包装得“像模像样”
- 偏见可能被放大:如果训练数据有倾向性,输出内容也会带偏见
- 缺乏纠错机制:没有人工审核,错误可能一直存在
更微妙的是,当马斯克这样有强烈个人观点和商业利益的人控制着一个“知识源”,而AI又把这个源当作权威引用时,我们实际上是在让AI“学习”某个人的世界观——这已经超出了技术问题,进入了伦理和社会的范畴。
AI的“知识食谱”需要更多“质检员”
目前,Grokipedia在整个AI引用池中占比还很小,但趋势值得警惕。这暴露了当前大语言模型的一个根本性问题:它们太容易把“看起来像知识”的东西当作真知识。
对于普通用户来说,这意味着:
- 不要100%相信AI给出的“事实”——特别是那些听起来很冷门的信息
- 学会追问来源:如果AI说“根据Grokipedia”,你最好去查查其他可靠来源
- 意识到AI也有“信息食谱”——它们吃什么数据,就输出什么观点
对于AI公司来说,这敲响了警钟:仅仅追求回答的“流畅度”和“覆盖面”是不够的,还需要建立更严格的信息源审核机制。毕竟,当AI开始集体“引用”伪百科时,我们离《黑客帝国》里那句“欢迎来到真实的荒漠”可能就不远了。
下次你的聊天机器人给你一个“冷知识”时,不妨多问一句:“哥们儿,你这数据是从哪个‘菜市场’进的货啊?”