作者|宋思杭
編輯|苗正卿
頭圖|視覺中國
近日,一則消息在網絡上引發熱議。有媒體稱,"DeepSeek 就 AI 模型違規關聯王一博與‘李愛慶腐敗案’,作出道歉。" 該媒體還表示,"DeepSeek 方面表示,因內容審核疏漏,平臺在回答用戶查詢時,引用未經證實的網絡謠言,將王一博案與首創集團原董事長李愛慶案件進行不當關聯,對其名譽造成侵害,DeepSeek 已永久撤回相關失實信息,并援引北京市第三中級人民法院(2025)京 03 刑終 174 號刑事判決書明確。"
然而,經虎嗅多方核查發現,DeepSeek 官方微信公眾號、官方網站、官方 X 賬號(前 Twitter)等所有官方社交媒體平臺,均未公開發表過任何道歉聲明。虎嗅進一步檢索所有有關 "DeepSeek 就違規關聯王一博與李愛慶腐敗案道歉 " 的新聞報道,發現沒有任何一則新聞明確指出 DeepSeek 的道歉渠道,也未出現相關道歉聲明的截圖。
事情的戲劇性不止于此。該事件的詭異之處在于,全網幾乎都認定 DeepSeek 進行了道歉。大量自媒體、網絡新媒體乃至傳統媒體,都在第一時間跟進報道了這條不實消息。
不僅如此,虎嗅向市面上的所有 AI 大模型詢問該事件,得到的回答竟出奇一致:均表示 DeepSeek 的確就 " 違規關聯王一博與‘李愛慶腐敗案’ " 進行了道歉,并引用了上述不實新聞鏈接。
該事件本屬于社會新聞、娛樂新聞等層面,但筆者作為長期跟蹤科技類新聞的從業者,站在筆者的角度來看,此事背后折射出的,遠不止新聞報道核查不嚴的問題,更暴露出當下 AI 大模型比 " 幻覺問題 " 更為嚴峻的困境 —— AI 通過援引假新聞生成新的假新聞。(虎嗅注:人們常說的 AI 大模型幻覺問題,是指 AI 在無事實依據的情況下所生成的不符合事實、甚至不符合邏輯的假消息)
簡單來說,隨著近兩年 AI 大模型的迅猛發展,早期普遍存在的 " 幻覺問題 " 確實有所緩解。這主要得益于 AI 大模型增加了聯網搜索和推理等能力,這意味著大模型在生成用戶回答時,可以根據網絡上的公開信息,通過推理的方式,來生成相應的 AI 回答。
然而,癥結在于,當網絡上充斥著海量虛假信息時,連人類都難以迅速辨別其真偽,AI 對此則更缺乏有效的信息核查能力。因此,在引用網絡信息時,便造成了典型的 "Rubbish in, Rubbish out"(垃圾進,垃圾出)效應。
以筆者個人經驗而言,在日常寫作工作中,AI 并不能真正替代人類撰稿。甚至有時,當新聞工作者借助 AI 輔助寫作時,反而會降低工作效率。因為大部分時間仍需用于查證 AI 生成信息的真偽,即便 AI 援引了某個新聞網頁,證明并非 " 幻覺 ",卻仍需再次核實該新聞網頁所提及內容的真實性。對此,筆者在與多數新聞從業者交流時,大家普遍認為," 用 AI 生成稿件的效率比自己動手寫更低。"
回到該事件,對于 AI 帶來的警示作用是,AI 應該如何在真假難辨的網絡世界里辨別真偽,從而進一步提升 AI 生成準確率。因為只有當 AI 提高了生成回答的準確率,才能真正被投入到實際的生產工作當中。舉個例子,這也是為什么,在大部分企業應用大模型時,當中重要的一步是給大模型喂企業專有的知識庫,這樣在員工向企業定制的大模型提問時,才不會生成錯誤答案。
當然,對于人類的警示作用,可能就在于,當人類自身都在 " 生成 " 假消息時,AI 就更無法給出準確答案了。