【小紅書開源首個大模型,11萬億非合成訓練數據】金十數據6月9日訊,社交平臺小紅書,開源了首個大模型——dots.llm1。dots.llm1是一個1420億參數的專家混合模型(MoE),在推理過程中僅激活140億參數,能保持高性能的同時大幅度降低訓練和推理成本。dots.llm1最大特色是使用了11.2萬億token的非合成高質量訓練數據,這在現階段的開源大模型中非常罕見,看來小紅書也得益於自己龐大的語料庫出手就是闊啊。所以,在中文測試中dots.llm1的性能非常強,以91.3的平均分超過了DeepSeek開源的V2、V3和阿里開源的Qwen2.532B和72B。
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。