DeepSeek更新模型:R1小升級大飛躍,R2還有多遠?
DeepSeek更新模型:R1小升級大飛躍,媲美OpenAI和谷歌頂尖模型,R2還有多遠?
查看詳情IT之家 8 月 17 日消息,盡管 ChatGPT 已經推出了新的 GPT-5 模型,但其仍然存在出錯的可能性。OpenAI 的一位高級高管本周再次強調了這一點。OpenAI ChatGPT 負責人尼克?特利(Nick Turley)在接受 The Verge 的 Decoder 播客采訪時指出:“在可靠性方面,可靠和完全可靠之間存在很大的不連續性。”他進一步解釋道:“除非我們能夠證明在所有領域,而不僅僅是某些領域,ChatGPT 比人類專家更可靠,否則我們會繼續建議你仔細核對答案。”
特利稱:“我認為人們會繼續將 ChatGPT 作為第二種參考意見,而不一定將其作為主要事實來源。”
然而問題在于,人們很容易就直接接受聊天機器人的回答,但生成式人工智能工具(不僅僅是 ChatGPT)往往有“幻覺”問題,即編造信息。這是因為它們主要是基于訓練數據中的信息來預測查詢的答案,而沒有對事實的明確理解。
據IT之家了解,盡管 AI 在猜測方面表現不錯,但歸根結底,它們仍然只是在猜測。特利承認,當與傳統搜索引擎或公司內部特定數據等能夠更好地掌握事實的工具結合使用時,該工具表現最佳。他說道:“我仍然堅信,毫無疑問,正確的產品是將大型語言模型與事實真相相結合,這也是我們將搜索功能引入 ChatGPT 的原因,我認為這帶來了巨大的改變。”
特利表示,GPT-5 在減少“幻覺”方面取得了“巨大進步”,但距離完美仍有很長的路要走。他說道:“我相信我們最終會解決‘幻覺’問題,但我也相信我們不會在未來一個季度內解決這個問題。”