科技媒體 theregister 昨日(5 月 28 日)發布博文,報道稱以 Perplexity 為代表的 AI 搜索工具雖然表現要優于谷歌等傳統搜索引擎,但在不斷地版本更迭后,搜索結果質量不升反降,AI 模型崩潰(model collapse)現象正在顯現。
該媒體指出以 Perplexity 為代表的 AI 搜索工具曾被視為傳統搜索引擎的強力替代品,其搜索結果一度比谷歌更精準。
不過近期不少用戶發現,AI 搜索反饋的硬數據(如市場份額或財務數據等),并未來自權威的美國證券交易委員會(SEC)要求的 10-K 年度報告,常常引用不可靠來源。用戶若不明確指定數據來源,得到的結果往往令人費解。
IT之家援引博文介紹,這種問題并非 Perplexity 獨有,主流 AI 搜索機器人均存在類似“可疑”結果的現象。
該媒體認為 AI 搜索質量下降的根源,在于“模型崩潰”(model collapse),即 AI 系統因依賴自身輸出訓練,導致準確性、多樣性和可靠性逐步喪失。錯誤累積、稀有數據(tail data)丟失以及反饋循環是三大主因。
錯誤累積讓每一代模型繼承并放大前代的缺陷;稀有數據丟失使罕見事件和概念逐漸模糊;反饋循環則強化狹窄模式,輸出重復或偏見內容。
為提升 AI 表現,檢索增強生成(RAG)技術被廣泛應用,讓大型語言模型(LLMs)從外部數據庫提取信息,減少“幻覺”(hallucination)現象。
然而,彭博社研究發現,即便采用 RAG,包括 GPT-4o、Claude-3.5-Sonnet 等 11 個領先模型在處理 5000 多個有害提示時,仍會輸出錯誤結果。更糟糕的是,RAG 增加了泄露客戶隱私數據、生成誤導性市場分析及偏見投資建議的風險。
AI 模型崩潰的后果正在加速顯現。用戶和企業為追求效率,傾向于依賴 AI 生成內容,而非投入人力創作高質量內容。從學生作業到偽造科研論文,甚至虛構小說,AI 的“垃圾輸入、垃圾輸出”(Garbage In / Garbage Out,GIGO)現象無處不在。