发射100万颗卫星,马斯克要干什么?

中国新闻周刊
Feb 07

SpaceX向美国FCC申请发射最多100万颗卫星,计划构建覆盖全球的轨道数据中心网络,实现“大模型上天”,通过在轨算力直接处理数据,减轻地面数据中心压力并提高效率。专家指出,太空算力具备长期高强度太阳能供电和快速数据交换优势,但仍面临发电效率、散热、辐射防护、硬件可靠性、空间碎片及成本等挑战。

马斯克又开始“左手倒右手”了。

2月3日,美国太空探索技术公司(SpaceX)创始人埃隆·马斯克在社交平台X上宣布,其创办的人工智能公司xAI将被SpaceX收购,从而打造“全球最具雄心的创新引擎”。近日,有SpaceX股东向媒体回应,合并已获董事会批准。

显然,这不是一次简单的商业合并。就在1月30日,SpaceX向美国联邦通信委员会(FCC)提交申请,计划发射“一个拥有前所未有计算能力的卫星星座”,用于支持AI大模型的在轨应用。这一星座最多将包含100万颗卫星,形成覆盖全球的轨道数据中心网络。当地时间2月4日,FCC宣布正式受理该申请,开始征集公众意见。

马斯克真正想要布局的是一个全新的增长点:太空计算。太空计算是指将计算资源部署在太空,通过卫星等基础设施实现数据处理和智能决策。马斯克曾公开表示,全球地面AI基建白热化,地球终将承载不了大模型所需算力,算力上天是必然选择。那么,他眼中“永远阳光明媚”、能够提供无限能源的太空,真的能成为大模型的未来温床吗?

发电效率依然是挑战

这不是马斯克第一次大张旗鼓地做资产重组了。去年3月,刚成立两年的xAI 收购了社交平台X,形成了社交媒体与模型算力的闭环。

xAI与SpaceX的合并意味着前者将拥有稳定的发射能力,而后者则可拿到长期的卫星发射订单,从而形成“火箭发射+太空算力+AI大模型”的完整闭环。据SpaceX发布的文件,马斯克此次申请的星座将直接捕获太阳能,通过能源转换系统为轨道上的数据中心供电,从而供养大模型这一“吃电大户”。

这一构想有着诸多吸引力。据英国巴克莱银行研究团队2025年公布的数据,美国目前已规划的大型数据中心项目总容量超过45吉瓦,2030年将超过200吉瓦,占美国总发电量的40%。而高轨太空数据中心可长时间使用高强度太阳能,不受大气影响,发电效率可达地面太阳能的5倍。

“目前公认的太空计算应用是‘天数天算’。”国内资深航天专家雨广向《中国新闻周刊》介绍,以遥感卫星为例,其传统的工作模式是把遥感数据,例如卫星拍摄的照片用无线电传回地面,再处理形成数据产品加以利用,即“天数地算”。大模型的训练和推理都在地面,意味着大量算力仍部署在智算中心等核心枢纽。如果大模型能上天,这些数据能直接在太空被处理和分析,地面仅接收分析后的结果,就能解放地面设备占地。

这一应用前景国内外已成共识。在今年1月举办的“星算·智联”太空算力研讨会上,中国信息通信研究院总工程师何宝宏指出,打造太空算力体系,不仅能有效缓解星际数据的传输压力,提升遥感、通信、导航等空间信息服务的时效性,也有助于破解超大规模算力集群面临的能源供给等多重制约。

“天数天算”的核心优势是效率。雨广认为,大模型需要与数据库或其他大模型进行海量数据交换,若能与低轨的天基互联网卫星联网,通过微波或激光链路通信,其数据交换速度不逊于地面光纤网络。但同时,要实现数据全球覆盖,算力星座应是一个均匀的星座,不太可能都在同一轨道面上。

SpaceX此次申请并未公布太多技术细节,如卫星尺寸、质量等。其构想星座将在距地面500—2000公里的轨道范围内运行,轨道倾角30度,每个轨道层的高度跨度可达50公里,卫星之间采用激光通信。

100万颗卫星布满天空,必然遇到发电效率的问题。雨广指出,算力卫星理论上最适合的轨道——晨昏轨道,是一种特殊的太阳同步轨道,典型高度为距地面700—800公里。晨昏轨道卫星的轨道面与地球晨昏面大抵重合,使得卫星几乎一直能受到太阳照射。这一轨道上已有不少气象、科研卫星。而在其他轨道,卫星都会有一段时间进入地球阴影区。

显然,晨昏轨道只有一个轨道面,无法满足所有算力卫星的布设。“最坏的情况是,卫星在40%的运行时间里被地球遮蔽,无法通过太阳能发电,只能依靠配套的蓄电池,这会大大增加部署成本。就算SpaceX的可复用火箭‘星舰’今年实现了有效载荷上天,天上发电的成本依然显著高于地面。”雨广说。

此外,参考国际空间站,其拥有全球最大的太阳能帆板,总面积3000多平方米,相当于两个足球场大,最大发电功率约160千瓦。但雨广认为,以每平方米太阳能板的发电功率计算,要达到马斯克规划的吉瓦级别功率,太阳能板的总面积将以平方公里计,这对于材料和工程设计都是极大挑战。

“账还算不过来”

毋庸置疑的是,当前国内外企业都在加速推进太空计算的工程化落地。

去年11月,美国轨道数据中心初创企业Starcloud发射的Starcloud-1卫星成功运行了英伟达H100芯片,首次完成了大模型的在轨训练和推理任务。几乎同时,谷歌宣布启动“捕日者计划”,拟于2027年发射搭载自研大模型训练芯片的太阳能卫星。前述申请中,马斯克提出五年内实现“太空AI训练成本最低”的愿景,并规划每年部署100吉瓦的算力。

国内也有相应探索。去年5月,随着首批12颗计算卫星发射入轨,由浙江之江实验室牵头的“三体计算星座”正式进入组网阶段。该项目计划2030年建成,包含1000颗卫星,覆盖全球网络,是国内首个整轨互联的太空计算星座。据了解,“三体计算星座”将广泛应用于城市治理、应急救灾、环境监测等领域,在轨计算可将数据处理时间缩短至秒级。 

相比之下,对于“地数天算”这一更长远的应用,部分业内人士还持保留态度,因为人类社会绝大多数数据仍来源于地面,“地数天算”意味着将引入更大规模、更密集的在轨器件。北京星辰未来空间技术研究院院长张善从在前述太空算力研讨会上表示,太空算力仍面临安全等方面的挑战,包括辐射防护与硬件可靠性、空间碎片与自主避碰等。这依赖于关键技术突破,如超大规模姿轨协同控制、抗辐照芯片加固等。

雨广指出,大规模在轨器件受宇宙辐射的影响很大,芯片上天之后,高能粒子穿透芯片造成数据错误,使得大模型本身出错的概率提高,器件也更容易损坏。如果训练中途出错,整个训练过程可能都需要重来。即使只用于推理,一个频繁出错的商用大模型,也无法保证用户体验。

若加入防护和纠错设备,又将引入额外成本。有航天科普专家向《中国新闻周刊》表示,马斯克布局太空算力的野心,很大程度上来源于“星舰”提供的运力底气。SpaceX计划今年实现“星舰”的完全可重复使用,使太空进入成本骤降99%,每磅有效载荷的成本可降至100美元以下。SpaceX为“星链”项目申请了4.2万颗卫星许可,目前部署超9600颗,且仍在扩展。国内可重复使用运载火箭技术尚处于验证阶段,单次搭载卫星数量有限,“账还算不过来”。

散热也是个大问题。雨广指出,地面可以用水和空气等介质,靠对流散热把热量带走。而宇宙空间只有辐射散热一种散热形式,这意味着算力卫星可能需要非常大的散热板,同时不断调整姿态,一边获取太阳能,一边朝背对太阳的方向散热。

显然,马斯克也意识到了这些问题。据多家媒体报道,马斯克团队近期走访了中国多家光伏企业,考察设备、硅片、电池组件等全产业链环节。这次考察并非一时兴起。前述航天科普专家表示,马斯克需要寻找低成本、抗辐射、高效率的光伏组件,以支持其太空算力战略。

雨广指出,即使有诸多困难和争议,算力上天仍是未来趋势。FCC对SpaceX本次申请的态度将持续牵动业内神经。而马斯克本人似乎信心满满,他在X推文的最后引用的“Ad Astra”,源于一句拉丁文格言“Per aspera, ad astra”,意为“循此苦旅,以抵繁星”。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10