Meta正在计划记录自家员工的鼠标移动和击键数据,用来训练他们的AI模型。笔者刷到这条新闻后,第一反应是:“这很Meta。”
如果这种行为被推而广之,这意味着那些每天在办公室(或者远程)敲键盘、点鼠标的打工人,将成了AI的“饲料”。
Meta的发言人后来也证实了这事,原话翻译一下就是:
“我们要构建能帮人完成日常电脑任务的代理(Agent),模型就得有真实案例来学习——比如鼠标怎么动、按钮怎么点、菜单怎么下拉。所以我们搞了个内部工具,在某些应用里捕捉这些输入来训练模型。我们有防护措施,敏感内容不会被滥用。”
翻译过来的意思就是:“我们缺数据,先拿自己人开刀。”
数据不够,内部来凑
Meta这种行为,说明AI正在开展一场“饥饿游戏”。这两年,大模型的训练数据已经快被榨干了。互联网上的公开文本、图片、视频,能爬的基本都爬了。版权诉讼一桩接一桩,Reddit、Twitter(现在叫X)纷纷开始收费,连Stack Overflow都跟OpenAI签了协议。
模型还在长大,但数据快不够吃了。
怎么办?
Meta给出了一个新思路:既然外面的数据不好搞,那就搞内部的。
员工的鼠标移动、击键节奏、窗口切换、菜单导航……这些在传统企业里属于“行为日志”,以前最多用来做生产力分析或者安全审计。现在,它们摇身一变,成了训练“AI Agent”的黄金素材。
想想也是,如果你想训练一个AI替你操作电脑——帮你打开软件、填写表单、整理文件——那它最好先看看真人是怎么做的。而最方便、最可控的“真人样本”,不就是自家员工吗?
Meta的逻辑其实没毛病,但问题在于:这种“内部数据采矿”的边界在哪里?
AI从“生产力工具”进化到“AI饲料厂”
可以想象,Meta不是第一家这么干的,也不会是最后一家。
上周就有报道说,一些老牌初创公司正在从Slack聊天记录、Jira工单、Confluence文档里“挖矿”,把企业内部沟通转化为AI训练素材。你以为你在跟同事讨论项目,其实你正在帮公司的AI模型“进修”。
昨天是生产力工具,今天是数据矿场。
这背后的逻辑很简单:对于企业来说,员工在工作过程中产生的数据,所有权属于公司。公司想怎么用,只要不违法、不违反劳动协议,基本就是一句话的事。
但问题是:员工知道吗?同意了吗?
Meta声明里说“我们有防护措施,敏感内容不会被滥用”,但什么叫“敏感”?谁定义?谁来审计?这些细节一概没提。更关键的是,这种监控一旦开始,就很难停下来——今天记录鼠标移动,明天会不会记录屏幕内容?后天会不会记录你看了什么文档、写了什么代码?
这不是滑坡谬误,这是技术公司的“数据饥渴”本性。
AI的“吃相”越来越难看
其实,用内部数据训练AI不是新鲜事。谷歌、微软、亚马逊早就在用员工的生产力数据优化内部工具。但以前大家比较克制,至少会强调“匿名化”“脱敏”“仅用于内部改进”。
现在不一样了。AI竞赛进入白热化阶段,谁的数据多、质量高,谁就能训练出更聪明的模型。在资本和竞争的压力下,科技公司对数据的“胃口”正在吞噬曾经的边界。
Meta这次公开说“我们记录鼠标和键盘行为”,而且理由冠冕堂皇——“辅助人们完成日常操作任务”。这就像一个人跟你说:“我偷看你日记是为了更好地了解你,然后帮你规划人生。”你信吗?
退一步讲,就算Meta真的只把数据用于训练内部AI Agent,不对外出售,不用于其他目的,那也改变不了一个事实:员工在公司里的每一次操作,都可能被AI“学习”。
这种“学习”会带来什么后果?笔者可以大胆推测一下:
你的操作习惯会被模型复制:你习惯先点A再点B,AI学到的就是“先A后B”。万一你的操作本身有问题呢?
你的工作节奏会被模型预测:你每天几点开始干活、几点摸鱼、几点高效,AI一清二楚。以后绩效评估会不会也用AI来判断?
你的“非典型操作”可能被标记:如果你偶尔用了一种非常规的操作方式,AI会不会觉得这是“异常行为”?
细思极恐。
数据供应链的“内卷化”
从更宏观的视角看,这件事反映了一个大趋势:AI行业的数据供应链正在“内卷化”。
一开始,大家用公开互联网数据;后来,开始跟平台签约买数据;再后来,爬虫、诉讼、价格战……现在,连公司内部的生产数据都不放过了。
下一个是什么?会不会有一天,你的个人电脑操作记录、手机屏幕点击、甚至眼动轨迹,都被某个AI公司以“用户授权”的名义收集?
笔者不是危言耸听。 因为技术上,这些数据确实很有价值——它们能训练出更懂人类行为的AI。而法律上,只要用户点了“同意”,一切皆有可能。
问题是,有多少人会认真读用户协议?
结语
Meta这次的做法,与其说是技术突破,不如说是伦理试探。
它想看看:记录员工操作鼠标和键盘的行为,能不能被接受?如果能,下一步是什么?如果不能,那换个说法——比如“为了提升工作效率”“为了优化AI Agent”——是不是就能过关了?
笔者觉得,科技公司应该想清楚一件事:员工不是你的“数据奶牛”。 他们的每一次点击、每一次输入,背后是劳动、是思考、是创造力。把这些行为抽象成训练数据,可能会让你得到更聪明的AI,但也可能让你失去更宝贵的东西——员工的信任。
当然,Meta会说:“我们保护敏感内容,数据不会被滥用。”但笔者想说的是:
信任不是靠声明建立的,而是靠透明和尊重。
至少在现在,Meta还没做到。