当然,就你帖子里提到的例子而言,情况还稍微复杂一点。
百度百科现在很多页面用了 LLM 编辑,比如「芸」是一级字很明显是 LLM 幻觉出来的,实际上是二级字。很多页面充斥着 AI 编辑。所以与其说 AI 在过滤错误信息,不如说 AI 在主动制造很多错误信息,而且还堂而皇之地进入了百科网站。
所以只要 LLM 联网搜索了,而且觉得百度百科是可信的参考资料,它就可能会告诉你这个结果。哪怕人也有可能会不小心取信 misinformation,不是么?
实际上我们更希望 LLM 可以智能一点,去查通规字表,给出权威的答案。只是目前面向消费者的 AI app 还做不到这一点,得自己搞 agent 。