Meta 推出 Llama 应用程序接口,吸引人工智能开发人员

路透中文
Apr 30, 2025
Meta 推出 Llama 应用程序接口,吸引人工<a href="https://laohu8.com/S/5RE.SI">智能</a>开发人员

Meta的Llama应用程序接口与微软谷歌和DeepSeek竞争

Meta 的应用程序接口只提供有限的预览版,数周至数月后将推出更广泛的应用程序接口

与竞争对手相比,Meta公司高管吹捧更好的定制化服务

Kenrick Cai

路透旧金山4月29日 - Meta Platforms META.O周二发布了一个应用编程接口,希望吸引企业使用其Llama人工智能模型更轻松地构建人工智能产品。

Llama API是在该公司首次人工智能开发者大会上发布的,它将帮助Meta对抗竞争对手模型制造商提供的API,包括微软MSFT.O支持的OpenAI、AlphabetGOOGL.O旗下的谷歌以及中国的DeepSeek等新兴低成本替代品。

"首席产品官克里斯-考克斯(Chris Cox)在台上发表主题演讲时说:"你现在只需一行代码就可以开始使用Llama。

API允许软件开发人员定制某项技术并将其快速集成到自己的产品中。对于 OpenAI (link) 来说,API 是该公司的主要收入来源。

本月早些时候发布了最新版 (link) Llama 的 Meta 公司没有透露 API 的任何定价细节。该公司在一份新闻稿中称,新的 API 仅作为有限的预览版提供给部分客户,并将在数周至数月内广泛推出。

周二早些时候,该公司还发布了一款独立的人工智能助手应用 (link)。据路透2月报导, (link),该公司计划在第二季度测试其人工智能聊天机器人的付费订阅服务。

Meta公司发布的Llama模型主要供开发者免费使用,公司首席执行官马克-扎克伯格(Mark Zuckerberg)此前曾表示,这一策略将以创新产品、减少对潜在竞争对手的依赖以及提高公司核心社交网络参与度的形式获得回报。

"人工智能副总裁马诺哈尔-帕鲁里(Manohar Paluri)在会议上说:"你可以完全控制这些定制模型,这是其他产品无法做到的。"无论你定制了什么模型,你都可以把它们带到任何你想去的地方,而不是锁定在我们的服务器上。

(link) DeepSeek也发布了部分开源的人工智能模型,但由于担心美国顶级公司所需的人工智能开发 (link),该公司在1月份引发了股票抛售。

在这次会议上,Meta 的开发人员介绍了他们用来大幅降低成本和提高最新 Llama 迭代效率的新技术。扎克伯格欢迎竞争的加剧,这将引导竞争性生态系统摆脱少数领导者的统治。

"扎克伯格说:"如果另一个模型,比如DeepSeek,在某些方面做得更好,那么现在作为开发者,你们就有能力从不同的模型中汲取最好的智能部分,生产出你们所需要的东西,我认为这将会非常强大。

(为便利非英文母语者,路透将其报导自动化翻译为数种其他语言。由于自动化翻译可能有误,或未能包含所需语境,路透不保证自动化翻译文本的准确性,仅是为了便利读者而提供自动化翻译。对于因为使用自动化翻译功能而造成的任何损害或损失,路透不承担任何责任。)

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10