第929集:应对策略的争议(1/2)
电视画面还在闪,家长的控诉一句接一句。老夫子把手机放回口袋,会议室的灯刚亮起来。
他走到桌前,打开笔记本电脑,屏幕亮起时映出几张孩子的脸——是调研报告里收集的真实案例,一个男孩因为ai推荐心理课程被全班传为“有病”,另一个女孩在倾诉家庭暴力后,第二天就收到“亲子关系修复”付费咨询推送。
“我们不能再只做声明。”老夫子说,“声明只是说话。现在要做的事,是让系统改。”
技术部高层坐在长桌右侧,三个人同时抬头。
“你是想动核心模块?”其中一人问,“那几个大项目都用情感分析在跑用户画像,一关,进度全停。”
“我知道。”老夫子点头,“但有些功能,不该存在。”
“可用户协议里写了同意条款。”另一人说,“他们点过‘继续使用’,就是默认授权。”
“一个十岁的孩子,会读三页纸的小字说明吗?”老夫子看着他,“他会点‘继续’,是因为想和机器人聊心事,不是为了被卖数据。”
那人没再说话。
公众代表坐在左侧,两位母亲,一位教师。穿蓝衣服的母亲先开口:“你们发了声明,也公布了自检表,但我还是不信。谁知道你们背地里改没改?”
“我们可以查。”教师模样的男人说,“但怎么查?谁来查?你们自己报数据,跟没查有什么区别?”
老夫子合上电脑,站起来走到白板前,写下三行字:
一、高敏感场景,禁止采集
二、普通功能,三级确认
三、开放审计,全民监督
写完,他转身说:“第一,所有涉及未成年人、情绪倾诉、医疗建议的交互,系统自动关闭数据留存。第二,其他场景保留功能,但每次采集前,必须弹出三次提示,用户连续确认才能开启。第三,日志记录全部留痕,第三方机构随时可以调取审查。”
屋里安静了几秒。
技术部那边有人摇头。“三级确认?用户烦都烦死了,直接卸载怎么办?”
“那就让他们卸载。”老夫子说,“我们不做靠隐瞒留住的用户。”
“那收入呢?”又有人问,“广告模型依赖行为预测,你这一砍,下季度财报怎么算?”
“财报能算出一个孩子被嘲笑的代价吗?”老夫子看着他,“我们现在谈的不是赚多少,是别害人。”
穿蓝衣服的母亲突然开口:“我儿子上周就开始躲房间,不肯说话。问他也不理。后来我发现,他之前每天晚上都在跟一个ai聊天,说什么‘妈妈不开心,是不是我不乖’。结果这些话,全被拿去打标签,推给了保险公司。”
她声音有点抖。“你们知道最可笑的是什么吗?那个app还在评分榜前十,写着‘最适合青少年的心理伙伴’。”
没人接话。
老夫子拿起笔,在白板上画了个框,把“开放审计”圈起来。“我们主动邀请三家独立机构,每月抽查一次系统运行日志。报告公开发布,任何人都能下载。另外,成立监督委员会,成员包括家长、老师、心理咨询师,对重大更新有一票否决权。”
“谁选这些人?”教师问。
“你们选。”老夫子说,“我们出平台,你们定人选。规则公开,过程透明。”
教师低头想了想,点头。
技术部那边还在犹豫。
“如果真这么做,研发成本会翻倍。”先前说话的高管说,“合规流程拉长,上线周期至少拖两个月。”
“那就拖。”老夫子说,“我们宁可慢,也不能错。”
“可竞争对手不会等。”那人盯着他,“他们照常采集,模型越训越准,用户体验更好,用户全跑过去了怎么办?”
老夫子看了他一眼。“那你告诉我,我们要的是用户,还是人心?”
会议室又静下来。
过了几秒,老夫子走到投影仪前,按下按钮。屏幕亮起,是一张图:左边是算法结构图,右边是一个孩子低头坐着的照片。
“这是我们现在的技术架构。”他指着左边,“右边这个孩子,因为在ai面前说了‘我想死’,被打了‘高危情绪’标签,然后他的所有社交动态都被监控,连发个表情包都会触发自动上报。”
他顿了顿。“你们觉得,这是技术进步,还是人性倒退?”
没人回答。
“我知道大家担心利益。”老夫子声音低了些,“我也知道改起来难。但正因为难,才要现在做。等出了大事,全社会一起骂的时候,再改就晚了。”
穿蓝衣服的母亲抬起头。“如果你们真能做到开放审计,我愿意参加监督委员会。”
“我也愿意。”教师说。
技术部那边开始交头接耳。
几分钟后,先前反对最激烈的高管开口:“分级响应……能不能先试点?比如只在教育类产品上线?”
“可以。”老夫子说,“但三个月内必须覆盖全部产品线。”
“那研发补偿呢?”那人问,“耽误的时间和资源,总得有个说法。”
“公司设立专项基金。”老夫子说,“每延期一天,按项目规模补贴团队。不是罚,是奖。因为你们在做正确的事。”
那人终于松了口气。
“还有个问题。”另一位技术主管举手,“如果用户自己愿意分享呢?比如主动上传录音,说‘请帮我分析情绪’?”
“那就另当别论。”老夫子说,“自愿提交的,必须单独存储,不得混入训练集。而且要明确告知用途,随时可删除。”
“那怎么区分?”
“加身份标记。”老夫子说,“所有主动提交的数据,打上‘明示授权’标签,系统隔离处理。一旦违规调用,立刻报警。”
“这工作量不小。”
本章未完,点击下一页继续阅读。