專題:財經年會2026:預測與戰略暨2025全球財富管理論壇

《財經》年會2026:預測與戰略暨2025全球財富管理論壇於2025年12月18-20日在北京舉行。清華大學蘇世民書院院長、人工智能國際治理研究院院長薛瀾,與美國四大國家學院院士、神經科學和人工智能領域奠基者特倫斯・謝諾夫斯基教授展開對話。
談到當前大語言模型與人類智能的關鍵區別時特倫斯・謝諾夫斯基表示,智能內涵豐富且維度多元,人類智能、人工智能、軍事智能等雖有相似性,但差異巨大。大語言模型在知識儲備維度優勢顯著,但其缺乏人類大腦默認模式網絡的持續活動,無法自主規劃與記憶。談及AI是否可能產生自我意識,他表示難以精準預測,但強調意識並非人類獨有,黑猩猩等物種雖無複雜語言能力,仍具備一定自我認知,這為AI意識研究提供了參照。
對於生物科學與人工智能的協同發展,特倫斯・謝諾夫斯基認為這是剛開啓的新領域。當前人工智能架構雖更接近人類大腦,但仍基於規則行為模式,而人類通過自然賦予的經驗學習能力快速適應世界。兩者的深度融合有望實現雙向賦能,但目前仍處於起步階段,距離目標尚有較大差距。
在AI技術發展路徑上,薛瀾將當前人工智能比作「認知蒸汽機」,提出需構建新的數學與理論體系解釋其高維發展特性。特倫斯・謝諾夫斯基認同這一觀點,指出人類生活在三維空間,而語言模型的神經元數量與突觸強度對應高維參數,數學家已着手探索相關理論,未來有望形成類似熱力學的完善體系。
針對AI風險與監管這一核心議題,雙方展開深入探討。特倫斯・謝諾夫斯基強調,任何技術都需平衡風險與收益,汽車、醫藥等領域的發展均證明了這一點。人工智能當前存在的偏見、幻覺等問題本質上是技術問題,可通過持續優化解決。他認為,最理想的監管模式是行業自我監管,若企業未能有效把控風險,政府介入需謹慎,避免因不了解技術細節而阻礙創新。
對於「紅線監管」與國際協同治理,特倫斯・謝諾夫斯基表示,劃定AI發展紅線具有可行性,但需明確邊界所在,可借鑑上世紀60年代生物學家限制生物技術風險的經驗,通過透明化實驗報告輔助紅線劃定。針對薛瀾提出的建立國際聯合實驗室的設想,他表示高度認同,認為關鍵在於推動研究人員與政策制定者共同制定監管原則,可考慮在第三方國家設立相關機構,規避國際競爭帶來的阻礙。
談及AI失控這一極端風險,特倫斯・謝諾夫斯基認為,此類擔憂雖有一定合理性,但具體發生時間難以預測,部分可能屬於過度焦慮。他強調,需關注超級預測者的判斷,同時通過各國合作建立風險預警機制,避免重蹈核能領域可能引發的全球性災難覆轍。
針對人工智能對就業的影響,尤其是對年輕人的衝擊,特倫斯・謝諾夫斯基給出積極回應。他表示,AI雖可能替代部分崗位,但也會創造大量新機會,如數據科學領域近年來需求激增,加州聖地亞哥分校數據科學研究院五年內已招聘50名新教職。他建議年輕人應紮實完成本科或碩士學位,主動學習AI相關技能,利用技術提升工作效率,而非受週期波動影響。
對於人文社科領域從業者的轉型問題,他分享了美國一名英語文學專業學生成為AI命題工程師的案例,說明語言才華等人文素養與AI技術的契合點。他透露,全球AI初創企業已超10萬家,為不同背景人才提供了廣闊舞台,人文社科從業者可憑藉獨特視角在AI倫理、內容創作等領域找到自身價值。
對話最後,雙方探討了AI的未來發展方向。特倫斯・謝諾夫斯基表示,當前AI雖取得顯著進步,但仍有巨大優化空間。未來十年,AI將借鑑人腦組織方式,在特殊目的處理、散熱技術等方面實現突破,逐步提升效率。他認為,AI與神經科學的深度融合有望讓機器像人腦一樣理解事物,甚至產生直覺與創意,而人類對自身意識的神經科學基礎研究也可能取得新進展。
薛瀾在總結中指出,人工智能治理需面對科學家、企業、國家多重主體的複雜博弈,借鑑生命科學領域的阿西洛馬原則雖有挑戰,但國際協同仍是關鍵。未來需通過多元治理機制平衡創新與安全,同時幫助不同羣體適應技術變革,充分釋放AI的積極價值。
新浪聲明:所有會議實錄均為現場速記整理,未經演講者審閱,新浪網登載此文出於傳遞更多信息之目的,並不意味着讚同其觀點或證實其描述。
責任編輯:李思陽