ChatGPT上线年龄预测:AI 终于学会看人下菜碟

蓝鲸财经
Jan 26

文|山自

ChatGPT推年龄预测功能,通过行为识别保护未成年人。

OpenAI 于 2026 年 1 月 20 日正式在 ChatGPT 消费级版本推出“年龄预测”功能,不再依赖用户自报年龄,而是通过账户存续时间、活跃时段、交互模式等多维度行为信号,自动识别 18 岁以下用户并启用专属安全防护,同时配套家长控制与第三方验证机制,标志着 AI 平台未成年人保护从“自愿申报”迈入“行为识别”的新阶段。

ChatGPT 年龄预测的技术逻辑

长期以来,AI 平台的未成年人保护多依赖“用户自报年龄 + 内容分级”的被动模式 —— 用户注册时勾选“已满 18 岁”,即可解锁全部功能,这种方式不仅容易被规避,也无法应对未成年人冒用成年账号的场景。

此次 OpenAI 推出的“年龄预测”功能,彻底打破了这一传统逻辑。其核心是一套基于账户与行为信号的多维度预测模型,具体分析维度包括:

账户维度:注册时长、账号活跃度、付费状态等基础信息;

行为维度:日常活跃时段(如是否频繁深夜使用)、交互频率、提问内容偏好、对话长度与风格等;

补充维度:结合用户注册时填报的年龄信息,但仅作为辅助参考,不做唯一判定依据。

这套模型的核心优势在于“动态识别”:不同于一次性的年龄申报,它能持续分析用户的使用行为,不断修正年龄判定结果,即使是成年用户长期以未成年人的方式使用(如频繁提问低龄化内容、深夜高频互动),也可能被标记为“疑似未成年”并触发防护;反之,未成年人若模仿成年用户的使用习惯,也难以完全规避识别。

未成年人保护的“软硬兼施”方案

针对被判定为未成年人的账户,ChatGPT 会强制启用五层安全防护,精准拦截高风险内容,具体包括:

1、直接展示的暴力血腥画面;

2、可能诱导未成年人模仿的危险病毒式挑战(如极限恶作剧、危险实验);

3、涉及性或暴力的角色扮演(Role Play)内容;

4、自残、自杀相关的描述与引导;

5、宣扬极端审美、不健康节食或身材羞辱的内容。

同时,为避免模型误判影响成年用户体验,OpenAI 引入了第三方身份验证服务 Persona:被错误归类为未成年人的用户,可通过上传自拍完成快速人脸验证,验证通过后即可恢复账号完整功能,平衡了安全性与用户体验。

此外,系统还配套了家长控制定制功能,让家长拥有更灵活的管控权限:可设置“静默时间”(禁止使用时段,如上课、睡觉时间)、管控账号记忆功能权限(避免孩子重复查看敏感内容),甚至能在系统检测到用户出现急性心理困扰迹象时(如频繁提问自残相关问题),及时接收通知并介入引导。

OpenAI 为何此时推出年龄预测?

此次功能上线,并非 OpenAI 的“主动创新”,而是监管压力与行业趋势共同推动的结果。

一方面,OpenAI 正面临美国联邦贸易委员会(FTC)的调查,核心质疑点正是“AI 聊天机器人对青少年的负面影响”,同时还涉及多起相关诉讼 —— 此前已有家长投诉 ChatGPT 未有效拦截有害内容,导致未成年人接触暴力、色情信息,甚至出现心理问题。推出年龄预测功能,是 OpenAI 应对监管审查、降低法律风险的关键举措。

另一方面,未成年人保护已成为全球 AI 行业的“必答题”。随着 AI 工具的普及,越来越多青少年将 ChatGPT 作为学习、娱乐的重要工具,但其心智尚未成熟,容易受到不良信息的诱导。此前,谷歌 Bard、Anthropic Claude 等竞品已推出不同程度的未成年人保护功能,但多依赖内容分级与自愿申报,而 OpenAI 的“行为识别 + 动态防护”模式,无疑是行业内更前沿的探索。

从行业趋势来看,AI 平台的安全防护正从“内容过滤”向“用户识别 + 内容分级”的双重模式升级 —— 不仅要判断“内容是否有害”,更要判断“用户是否适合接触该内容”,这也是未来 AI 安全发展的核心方向。

年龄预测能否真正守护未成年人?

尽管功能设计看似完善,但“年龄预测”仍面临诸多争议与挑战,核心集中在三个方面:

1. 行为信号能否完全代表年龄?

年龄预测模型的核心是“行为与年龄的关联性”,但这种关联性并非绝对 —— 例如,部分成年用户可能因工作、学习需求频繁深夜使用 ChatGPT,或偏好提问低龄化的科普内容,容易被误判为未成年人;而部分早熟的未成年人,可能通过模仿成年用户的交互模式,规避识别。OpenAI 虽表示会持续优化模型精度,但短期内仍难以实现 100% 准确。

2. 行为分析是否侵犯用户隐私?

年龄预测需要收集、分析用户的大量行为数据,包括活跃时段、交互内容、使用习惯等,这引发了用户对隐私泄露的担忧 ——OpenAI 如何确保这些数据不被滥用?是否会与第三方共享?尽管 OpenAI 未明确说明数据使用规则,但在全球数据合规趋严的背景下,如何平衡“行为识别”与“隐私保护”,将是其必须解决的问题。

3. 防护能否覆盖所有风险场景?

此次 ChatGPT 拦截的五类高风险内容,主要集中在“显性有害信息”,但对于“隐性风险”(如诱导未成年人网络诈骗、传播极端思想、泄露个人信息等),年龄预测模型尚未覆盖。此外,家长控制功能依赖家长的主动操作,若家长缺乏监管意识或技术能力,该功能的实际效果将大打折扣。

ChatGPT 上线“年龄预测”功能,是 AI 行业未成年人保护的一次重要突破 —— 它标志着 AI 平台终于学会“看人下菜碟”,从被动的内容过滤,转向主动的用户识别与精准防护。

但我们也需清醒认识到,技术并非万能,年龄预测只是未成年人保护的“第一步”。未来,只有平台、家长、监管机构三方协同,持续优化技术、完善规则、强化引导,才能真正为青少年打造一个安全、健康的 AI 使用环境,让 AI 技术真正赋能未成年人成长,而非带来风险。

对于 OpenAI 而言,年龄预测功能的上线,是应对监管、重塑口碑的关键一步;对于整个 AI 行业而言,这是一次“安全升级”的信号 —— 当技术创新与安全兜底并行,AI 才能真正走向成熟与合规。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10