應對AI胡編亂造 OpenAI稱找到解決“幻覺”方法

如今,人工智能(AI)的普及帶來了各種問題,例如編造虛假信息和信口開河等。近期,ChatGPT的開發商OpenAI發佈了一份研究論文,提出瞭解決AI“幻覺”的新方法。所謂AI幻覺是指聊天機器人使用捏造的信息作出回應的現象。

聊天機器人如ChatGPT或谷歌的“巴德”(Bard)會完全虛構信息,表現得好像他們在陳述事實。舉個例子,在谷歌於2月發佈的巴德宣傳視頻中,這個聊天機器人對詹姆斯·韋伯太空望遠鏡作出了不真實的陳述。最近,ChatGPT在紐約聯邦法院的一份文件中引用了“虛假”案例,涉案的紐約律師可能面臨制裁。

OpenAI的研究人員在報告中指出:“即使是最先進的模型也容易生成謊言,在不確定的情況下,它們會傾向於捏造事實。這些幻覺在需要多步驟推理的領域尤爲嚴重,因爲一個邏輯錯誤足以破壞更大的解決方案。”

爲了應對AI幻覺,OpenAI提出了一種新的潛在策略:訓練AI模型在推理的每個正確步驟上給予自我獎勵,而不僅僅在推理出正確的最終結論時纔給予獎勵。研究人員稱這種方法爲“過程監督”,與“結果監督”相對應。這種策略可能培養出更具可解釋性的AI,因爲它鼓勵模型按照更接近人類思考方式進行推理。

OpenAI數學論文生成器(mathgen)研究員卡爾·科布(Karl Cobbe)在接受採訪時表示:“檢測和減輕模型的邏輯錯誤或幻覺是構建一致性通用人工智能(AI)的關鍵步驟。”他指出,雖然過程監督方法並非OpenAI發明,但該公司正在推動其發展。他說:“這項研究的動機是解決幻覺問題,使模型在解決具有挑戰性推理問題方面能力更強。”

科布還提到,OpenAI已經發布了一個帶有80萬個人類標註的數據集,用於訓練研究論文中提到的模型。

更多遊戲資訊請關註:電玩幫遊戲資訊專區

電玩幫圖文攻略 www.vgover.com