潞晨科技尤洋:开源大模型只有被专业训练后才有可能战胜闭源大模型

睿见Economy
Nov 14, 2025

专题:2025中国高新技术论坛

  由深圳市人民政府主办的第二十七届高交会于2025年11月14日-16日在深圳举行。作为高交会的重要论坛“中国高新技术论坛”于11月14日举办,论坛主题为:人工智能赋能未来产业发展”。北京潞晨科技有限公司创始人兼董事长尤洋在演讲中介绍到,公司打造的软件Colossal-AI,核心是帮忙更多企业做出自己的行业模型、私有模型,把AI大模型的技术价值在企业生产环节中进行最大化收益。

  他提到,真正需要构建自己的私有大模型或者行业大模型的企业今天只有三类:第一类:传统大型企业,不仅数据量大,还有较高利润的主营业务;第二类:有海量数据的中小型企业,数据是大模型最核心的源泉;第三类:颠覆行业的新型公司,不管是金融、制药、社交、电商、能源,结合AI都是非常好的场景。

  不同类型的企业如何做好自己的大模型业务?尤洋指出,首先,如果企业没有大量行业数据,直接使用ChatGPT或者调用通义千问等API就可以了。其次,如果企业有足量文本数据,比如律师事务所,构建RAG企业知识库+调用大模型API也能解决问题,不需要自己构建一个私有模型或者微调、训练。“假如一个企业有海量多模态数据,这种企业是最适合构建行业模型或者私有模型的。”

  如何用好大模型?在他看来,未来如果是做ToB的AI大模型业务,肯定不仅仅是调API或者部署DeepSeek这样的标准通用开源模型就行了。“我们始终坚信开源大模型只有被专业化训练过后才有可能战胜闭源大模型。通用大模型,特别是开源的通用大模型,就像刚刚毕业的大学生,必须结合本公司专业技能和业务的培训,才有可能在要从事的某个领域内产生自己最大的价值。”

  因此,尤洋表示,有了这个理论基础,企业未来做好大模型最重要的事情就两点:一、最大化算力效率,通过GPU把能源转换成智能。二、是否能把业务做成强化学习或者微调模板。“显然大多数企业没有OpenAI、谷歌阿里巴巴或者字节跳动这样顶尖的AI能力,如何把自己的数据、业务做成强化学习的微调模板,低成本快速见效,复用扩展,是非常关键的。”

  此外,他还提到,目前大模型的应用除了ChatGPT、AI Agent,包括制药、医疗诊断、石油勘探外,还有三方面发展比较快:一是车企,二是具身智能大模型,三是视频AI。

  新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。

海量资讯、精准解读,尽在新浪财经APP

责任编辑:李昂

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10