炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!
日前,蘋果研究團隊發佈了一項新研究,對當前大語言模型(LLMs)的能力提出了質疑。研究指出,儘管LLMs引入了複雜的自我反思機制,但仍存在根本性限制,無法在超過一定複雜度閾值的問題中表現出可泛化的推理能力。研究發現,LLMs在不同複雜度問題中的表現存在明顯分界:在低複雜度問題中標準LLMs表現優於邏輯推理模型(LRMs),在中等複雜度問題中LRMs佔優,而在高複雜度問題中兩者均表現失敗。此外,LLMs在執行精確計算方面也有侷限性,甚至在簡單問題上也會出現“過度思考”的低效行爲。紐約大學教授Gary Marcus認爲,LLMs無法替代精心設計的傳統算法,且通往通用人工智能(AGI)的道路並不現實。蘋果的這項研究進一步證實了LLMs在結構性問題上的不可靠性,例如在解決漢諾塔問題時表現不佳,即使直接給出標準算法,模型也無法正確執行。這表明,儘管LLMs在某些領域有其用途,但它們並非通往真正智能的萬能鑰匙。
海量資訊、精準解讀,盡在新浪財經APP