《AI 前哨》北京時間 6 月 1 日消息,ChatGPT 開發(fā)商 OpenAI 周三發(fā)布了一份研究論文,闡述了如何解決人工智能 (AI)“幻覺”的新方法。AI 幻覺指的是聊天機器人用編造的信息進行回應。
ChatGPT 或谷歌“巴德”(Bard) 這樣的聊天機器人會完全捏造信息,表現得好像他們在滔滔不絕地講事實,這就是 AI 幻覺。舉個例子:在谷歌 2 月份為巴德拍攝的宣傳視頻中,這個聊天機器人對詹姆斯 韋伯太空望遠鏡做出了不真實的陳述。最近,ChatGPT 在紐約聯邦法院的一份文件中引用了“虛假”案例,涉案的紐約律師可能面臨制裁。
OpenAI 研究人員在報告中稱:“即使是最先進的模型也容易生成謊言,它們在不確定的時刻會表現出捏造事實的傾向。這些幻覺在需要多步驟推理的領域尤其是個問題,因為一個邏輯錯誤就足以破壞一個更大的解決方案!
為了對抗 AI 幻覺,OpenAI 找到了一種潛在新策略:訓練 AI 模型在推理出答案的每個正確步驟上給予自我獎勵,而不僅僅是等到推理出正確的最終結論時才給予獎勵。研究人員表示,這種方法被稱為“過程監(jiān)督”,與之相反的是“結果監(jiān)督”,這可能會訓練出更好的可解釋 AI,因為這種策略鼓勵模型按照更類似人類的“思考”方式進行推理。
“檢測和減輕一個模型的邏輯錯誤或幻覺,是構建一致性通用人工智能 (AI) 的關鍵步驟!監(jiān)penAI 數學論文生成器 (mathgen) 研究員卡爾 科布 (Karl Cobbe) 在接受采訪時表示。他指出,盡管 OpenAI 并非發(fā)明了過程監(jiān)督方法,但該公司正在推動其發(fā)展!斑@項研究的動機是解決幻覺問題,以使模型在解決具有挑戰(zhàn)性的推理問題方面能力更強!
科布說,OpenAI 已經發(fā)布了一個附帶的數據集,其中包含 80 萬個人類標注,它們用于訓練研究論文中提到的模型。鳳凰網科技《AI 前哨》對此將持續(xù)關注。