支持33种语言!腾讯混元推出极致量化压缩版本翻译模型

智通财经
Apr 29

智通财经APP获悉,4月29日,腾讯混元推出极致量化压缩版本翻译模型 Hy-MT1.5-1.8B-1.25bit,把支持 33 种语言的翻译大模型压缩至 440MB,无需联网,下载即可直接在手机本地运行,翻译质量优于谷歌翻译。

基于混元翻译大模型Hy-MT1.5打造,翻译效果比肩商用翻译模型

Hy-MT1.5 是腾讯混元团队打造的专业翻译大模型,原生支持 33 种语言、5 种方言/民汉及 1056 个翻译方向。从常见的中英互译,到法语、日语、阿拉伯语、俄语,甚至藏语、蒙古语等少数民族语言,它都能游刃有余地处理。

仅以 1.8B 参数量,Hy-MT1.5 实现了比肩商业翻译 API 和 235B 级大模型的翻译效果 。在严格的评测基准中,其翻译质量不仅超越了谷歌翻译等主流系统,更证明了在高效优化下,轻量级模型能够迸发出令人印象深刻的翻译能力。

最极致的量化压缩,把模型装进手机

量化压缩,简单来说就是:把模型里原本用16位数字(16-bit)表示的参数转用更低位数字储存。这就像把一幅高清照片压缩成缩略图,文件小了很多,但你还是能看清楚里面的内容。 针对不同的手机用户,腾讯特别推出了2-bit 与 1.25-bit 两种极致的量化压缩方案。

不同大小的模型在FLORES-200中外互译的效果评分

2-bit模型:性能与质量的平衡(适用:中高端机型)

2-bit 模型采用了业内顶尖的拉伸弹性量化(SEQ),将模型参数量化至{-1.5,-0.5,0.5,1.5},并结合量化感知蒸馏,在将模型体积压缩至 574MB 的同时,实现了几乎无损的翻译质量,效果超越上百GB的大模型。在支持 Arm SME2 技术的移动设备上,2-bit 模型能够实现更快速、更高效的推理。

1.25-bit模型:Sherry 极致压缩(适用:全系机型)

为了达成极致的轻量化,腾讯推出了基于 Sherry(稀疏高效三值量化) 技术的 1.25-bit 模型。该技术方案已经被NLP顶级学术会议ACL 2026录用。

Sherry 压缩方案的核心逻辑在于“细粒度稀疏”策略:每4个模型参数,3个最重要的用 1-bit 储存,1个用0储存,平均每个参数仅需 1.25-bit。

配合腾讯专门为手机 CPU 设计的 STQ内核,该方案实现了对 SIMD 指令集的完美适配。最终,3.3GB 的原始模型被进一步压缩至 440MB,轻松常驻后台,让内存紧张的普通手机也能顺滑进行高质量离线翻译。

本次开源不仅包含模型权重,还特别制作了一个实际可用的腾讯混元翻译Demo版,特别适配了“后台取词模式”。无论是在本地查看邮件还是浏览网页,混元翻译都能随叫随到。无需网络,无需订阅,完全本地处理、不涉及个人信息的采集和上传,一次下载永久使用。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10