近來ChatGPT等聊天機械人因其能夠解答用戶疑問和協助工作的能力,受到了全球的熱烈追捧。不過,由人工智能所生產出來的答案中也存在著一些錯誤信息,這種現象被稱為「幻覺」。為了對抗這種問題,ChatGPT的開發商OpenAI週三(31日)宣布,他們正採用一種新方法以減少人工智能的「幻覺」。

值得一提的是,去年OpenAI推出了由 GPT-3 和 GPT-4 驅動的聊天機器人ChatGPT,該機器人的推出加速了生成AI的發展,並在短短兩個月內吸引了超過一億活躍用戶,也成為了增長最快的應用程序之一。而微軟(MSFT)也曾向OpenAI投資超過130億美元,使得這家初創公司的價值已達到約290億美元。

不過,像是ChatGPT或是Google的Bard等人工智能,有時也會完全捏造信息,表現得好像它們在講事實。例如,在Google自己二月份的Bard宣傳視頻中,這個聊天機器人對韋伯太空望遠鏡提出了不實的主張。最近,ChatGPT在紐約的聯邦法院文件中引用了「虛假」案例,參與其中的紐約律師可能面臨制裁。

據CNBC報道,OpenAI在論文中提出新策略對抗AI幻覺問題。研究人員表示,未來將會在訓練AI模型期間加以監督,當AI在每個步驟推理正確時,便會給予獎勵,而不是僅僅等到推理出正確的最終結論時才給予獎勵。研究人員稱,這種方法被稱為「過程監督」,而不是「結果監督」,因為該策略鼓勵模型遵循類似人類的思維方法去解決問題,相信這能更有效地訓練AI。

OpenAI研究人員在報告中寫道,「即使是最先進的模型也容易產生虛假信息,它們表現出在通上不確定的時刻編造事實的傾向。這些幻覺在需要多步推理的領域尤其成問題,因為一個邏輯錯誤就足以破壞更大的解決方案。」因此,OpenAI的新方法能夠減少AI聊天機械人產生的錯誤信息,也讓人們更加放心地使用這些智能應用。