由 Amaka Nwaokocha 通過 CoinTelegraph.com 撰寫,
OpenAI 旨在通過增強數學技能來減少 ChatGPT 中的 AI 幻覺,因為過程監督顯示出提高準確性的希望……
5 月 31 日,OpenAI 宣布努力增強 ChatGPT 的數學問題解決能力,旨在減少 人工智能 (AI) 幻覺。 OpenAI 強調減輕幻覺是開發一致 AI 的關鍵一步。
3 月,最新版本的 ChatGPT——ChatGPT-4——的推出進一步推動人工智能成為主流。 然而,生成式人工智能聊天機器人長期以來一直在努力解決事實的準確性問題,偶爾會生成虛假信息,通常被稱為“幻覺”。 減少這些 AI 幻覺的努力是 宣布 通過 OpenAI 網站上的帖子。
AI 幻覺是指人工智能係統產生事實上不正確的輸出、誤導性或不受現實世界數據支持的情況。 這些幻覺可以以各種形式表現出來,例如生成虛假信息、編造不存在的事件或人物,或提供有關某些主題的不准確細節。
開放人工智能 實施 研究檢查兩種反饋的有效性: “結果監督”和“過程監督”。 結果監督涉及基於最終結果的反饋,而過程監督為思想鏈中的每個步驟提供輸入。 OpenAI 使用數學問題評估這些模型,生成多個解決方案並根據每個反饋模型選擇排名最高的解決方案。
經過全面分析,研究團隊發現過程監督產生了卓越的性能,因為它鼓勵模型遵守人類批准的過程。 相比之下,結果監督證明更難以持續審查。
OpenAI 認識到過程監督的影響超出了數學範圍,需要進一步調查以了解其在不同領域的影響。 它表達了這樣一種可能性,即如果觀察到的結果在更廣泛的背景下成立,與結果監督相比,過程監督可以提供績效和一致性的有利組合。 為便於研究,公司公開發布了完整的過程監管數據集,誠邀相關領域的探索和研究。
儘管 OpenAI 沒有提供明確的實例來促使其對幻覺進行調查,但最近發生的兩起事件說明了現實生活中的問題。
在最近的一起事件中,Mata 訴 Avianca 航空公司案中的律師 Steven Schwartz 承認 依靠聊天機器人作為研究資源。 然而,事實證明,ChatGPT 提供的信息完全是捏造的,突出了眼前的問題。
OpenAI 的 ChatGPT 並不是人工智能係統遇到幻覺的唯一例子。 在一個 示範 3 月份,微軟的 Bing AI 聊天機器人檢查了其聊天機器人技術的收益報告,並為 Gap 和 Lululemon 等公司生成了不准確的數據。