Meta准备让AI去判断一个用户是不是太小了。

在Facebook和Instagram上,系统会看照片、视频,也会看帖子、评论、个人简介和配文。Meta提到的视觉线索包括身高、骨骼结构、图像主题等;文本线索则可能来自用户自己写下的年龄、学校阶段或生活语境。

这件事卡在一个很现实的问题上:13岁以下儿童本来不该使用这些平台,但只靠用户填生日,很容易失效。Meta现在想把年龄治理从“你说你几岁”推进到“平台主动判断你像不像未满13岁”。

我更在意的是后半句。保护儿童需要更强执行力,但一旦靠机器持续扫描内容来执行,边界就变得敏感。

Meta到底看什么,不能把它写成人脸识别

Meta在博客中强调,这套系统“不是人脸识别”,也“不识别图中的具体个人”。这点要分清。

它不是在说:这张照片里的人就是某某。它是在说:这张照片、视频或文字里,有没有暗示用户年龄偏低的线索。

可被纳入判断的材料,大致是这些:

判断维度Meta会看的线索影响
视觉内容身高、骨骼结构、一般图像主题、视频场景用来判断是否疑似13岁以下
文本内容帖子、评论、简介、配文中的语境线索年龄判断不再只看注册生日
技术边界Meta称不是人脸识别,不识别具体个人争议会集中在内容扫描范围,而不是身份匹配
年龄分层13岁以下重点识别;13至18岁归入Teen Accounts低龄用户会被拦截,青少年会进入更严格默认设置

被系统判定为疑似13岁以下后,账号会被停用。用户需要验证年龄,才能避免账号被删除。

这里不能写成“永久删除”,也不能写成“全球全面上线”。原文能确认的是:相关面部年龄分析技术目前只在美国等部分国家可用,Meta计划后续扩大范围。

这也是现实约束。不同国家对年龄验证、儿童数据、面部分析的规则不一样。Meta能不能推、怎么推,不只取决于技术,也取决于当地监管是否接受。

为什么现在推:儿童安全压力已经压到平台门口

Meta这次动作,不是在真空里发生的。

新墨西哥州一个陪审团近期认定,Meta误导消费者对其平台安全性的理解,并未充分保护儿童免受儿童掠食者伤害,判令公司支付3.75亿美元。

这个背景很关键。对Meta来说,继续说“我们有年龄门槛”,已经不够了。监管者和家长要看的,是平台有没有更主动地把低龄儿童挡在外面。

行业也在往这个方向走。Yoti、k-ID等年龄验证服务,已经提供基于面部或其他信号的年龄估计。TikTok、YouTube等平台也长期面对未成年人保护、内容分级和家长控制压力。

区别在于,Meta这次更深地把年龄判断嵌入社交内容本身。

过去很多验证发生在注册、支付、访问敏感内容这些节点。现在,照片、视频、评论、配文都可能成为判断材料。治理更主动,触达也更广。

对家长和教育从业者来说,这会带来一个具体动作:不能只提醒孩子“别填真实生日”或“别乱加陌生人”。更应该检查孩子是否真的符合平台年龄要求,是否被归入Teen Accounts,以及账号遇到停用时需要怎样验证年龄。

这不是让家长替平台背锅。只是现实已经变了:孩子随手发的一张照片、一句配文,都可能被平台当成年龄线索。

真正要盯的是误判、申诉和材料留存

Meta没有公开这套系统的准确率、误判率,也没有披露具体模型细节。

所以现在不该把它夸成“精准识别低龄用户”。也不该直接断言它会大规模误伤。证据还不够。

更实际的问题有三类:

需要观察的问题为什么重要对用户的直接影响
误判后怎么申诉AI年龄判断一定会遇到边界案例正常用户可能被停用账号,需要快速恢复通道
验证要交什么材料年龄验证可能涉及证件、自拍或第三方服务家长和青少年要承担隐私成本
材料保留多久、谁能访问验证过程本身会产生敏感数据决定这套机制是最小化治理,还是新增数据风险

对关注隐私合规的读者来说,关键不是Meta有没有“好意”。关键是它有没有把权力关进笼子里。

儿童保护需要执行力。可执行力如果建立在默认扫描更多内容之上,就必须配套清楚告知、低成本申诉、最小化数据使用。

否则,平台会得到一个很方便的工具:以保护儿童为名,把更多普通用户内容纳入自动化判断。

接下来最该看三件事。

Meta会把相关技术扩大到哪些国家;年龄验证会要求证件、自拍,还是接入第三方服务;Teen Accounts自动归类后,青少年和家长能不能清楚调整设置。

这三件事,决定它更像安全补丁,还是一次新的隐私拉锯。