DeepSeek-R1低調升級,性能比肩OpenAI最新o3模型

老虎資訊綜合
05-29

國內領先AI企業深度求索(DeepSeek)於5月28日低調開源R1最新版本(0528版),在未發佈官方說明的情況下即開放模型下載。儘管細節尚未公開,但開發者社區已迅速展開測試。據知名代碼評測平臺Live CodeBench數據顯示,新版R1編程能力已媲美OpenAI最新o3高版本模型,風格表現亦高度接近。

小版本大升級:邏輯、長文本、代碼全面強化
本次更新是DeepSeek兩個月來首次模型迭代。據官方微信羣公告,R1已完成“小版本試升級”,重點優化了三大能力:

  • 語義理解精準性

  • 複雜邏輯推理能力

  • 長文本處理穩定性

開發者實測反饋強烈:“理解能力明顯躍升,連激活參數都能用交互動畫直觀呈現”,“編程能力太嚇人——1000行代碼一次生成零錯誤”,更有測評認爲其編程實力已可對標“新晉編程之王”Claude 4。

性價比神話持續 成本僅爲競品1/277
回溯DeepSeek技術路線,今年3月開源的DeepSeek-V3-0324模型曾以非推理架構超越Claude-3.7-Sonnet,數學與代碼評測甚至超過GPT-4.5。更關鍵的是其極致性價比:輸入成本僅爲Claude的1/11、GPT-4.5的1/277,且完全開源商用免費。

而年初發布的R1初代更引發全球AI行業震動——不僅性能超越OpenAI等西方對手,且開發成本僅數百萬美元,採用低版本英偉達芯片實現突破,直接觸發全球科技股震盪。

市場焦點轉向R2:萬億參數+國產算力引期待
證券時報指出,當前業界最關注的仍是傳聞中的R2模型。多方消息顯示:

  • 計劃採用混合專家模型(MoE),參數量達1.2萬億(較R1提升80%)

  • 推理成本較GPT-4驟降97.4%

  • 全程使用昇騰910B芯片訓練,未採用英偉達方案

  • 算力利用率達82%,整體性能達A100集羣91%

儘管4月DeepSeek與清華大學聯合發佈突破性論文《自我原則點評調優》(SPCT),被視作R2技術前兆,但公司始終未確認發佈時間。此次R1小升級後,社交媒體湧現猜測:“此時優化R1是否意味着R2仍需長期打磨?”

目前新版R1已登陸官網、APP及小程序,API接口維持不變。業界正密切關注:這究竟是R2登場前的技術鋪墊,還是中國大模型持續進化的又一里程碑?

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10