研究称AI在社交平台发的帖子仍易被识别,只因大模型不擅长情感表达

IT之家
Nov 10, 2025

IT之家 11 月 10 日消息,当前的 AI 已经在象棋、数学等领域超越了人类,且正在逐步渗透到编程、广告乃至心理治疗等行业。然而,研究人员认为,AI 仍有一个尚未突破的领域:在互联网上展现真正的恶意。

当地时间 11 月 9 日,据外媒 PC Mag 报道,苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的最新研究表明,各种大语言模型生成的社交媒体帖子都“容易被区分”,且准确率达到 70% 至 80%,远高于随机猜测的结果。

IT之家从报道中获悉,研究人员测试了来自六个不同模型家族的九个开源大语言模型,“参赛选手”为 Apertus、DeepSeek、Gemma、Llama、Mistral、Qwen 以及一个大规模的 Llama 模型,分别在 Bluesky、Reddit 和 X 平台上进行对比。

项研究发现,平台上这些帖子显示的“毒性评分”是区分 AI 生成内容与人类生成内容的关键因素。简而言之,如果有人在你发布的帖子下回了一个特别尖锐或搞笑的评论,那很可能是人类写的。

研究人员表示:“这些结果表明,虽然大语言模型可以模仿在线对话的形式,但在捕捉对话的情感本质上存在困难:自发且充满感情的表达是人类互动的特点。”

研究人员指出,模型在某些特定情境下的表现尤其差劲。例如,在马斯克 X 的帖子下表达积极情感,或者在 Reddit 上讨论政治。总体来看,所有测试的 AI 模型在模仿 X 平台的帖子时表现较好,而在 Bluesky 上则稍显逊色,Reddit 则是三者中最具挑战性的,因为该平台的对话规范更加多样。

研究还表明,大语言模型更擅长模仿社交媒体帖子的技术性特征,比如句子长度或字数,而在表达情感方面则显得较弱。在所有三个平台上,AI 的回应“毒性”评分普遍低于人类的回复。

研究人员还发现,Llama-3.1-8B、Mistral-7B 和 Apertus-8B 等未经过人类指令微调的 AI 模型比经过微调的模型表现更好,这一结果表明过度校准训练引入了过于一致的风格,使得文本更机械化。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10