第926集:技术部的人工智能关注(1/2)
交接仪式结束后的办公室,灯光还亮着。
老夫子没走,坐在会议桌最角落的位置,面前摊开一份文件。那是技术部刚提交的算法模型审查报告,纸页边缘有些卷曲,像是被人反复翻看过。他盯着其中一行字:“用户行为预测准确率提升至百分之九十四。”笔尖在那句话下划了一道线。
他想起下午大番薯打的那个电话——暂停上线。一个新系统,在最后一刻被叫停,只因为数据源没有脱敏。这事不大,处理得也快,但老夫子心里总觉得不对劲。不是一次两次了,最近好几个项目都往“预测”方向靠,什么购物偏好、点击路径、甚至情绪波动趋势。越精准越好,没人问一句:该不该?
他合上文件,起身走向电梯。
第二天上午十点,公司三楼会议室门口贴出一张通知:
“关于人工智能伦理问题的闭门讨论会,仅限受邀人员参加。”
参会的人陆续进来。技术部来了五个人,穿格子衫的居多,有人抱着笔记本电脑,有人手里捏着u盘。他们坐在一起,说话声音不小,聊的是昨晚服务器压测结果。另一个角落坐着个戴眼镜的男人,西装平整,公文包放在腿上,是行业专家。他没参与聊天,只是安静地看着手里的资料。
老夫子最后到。他进门时不说话,直接走到白板前,写下三个词:知情权、边界、责任。
底下有人小声嘀咕:“这不像技术会,倒像思政课。”
老夫子听见了,也没回头,只说了一句:“今天不讲技术好坏,我们聊聊万一。”
会议开始后,他让技术部先讲。一个年轻工程师站起来,语气兴奋。他说现在的新模型能根据用户操作习惯提前加载功能模块,响应速度提高四成。现场已经有客户试用,反馈很好。
“这是实打实的体验升级。”他说,“至于伦理……我觉得有点远。我们现在连标准都没统一,谈限制是不是太早?”
旁边有人点头。
老夫子听完,点点头。“你说得对,确实没标准。但我问你,你们做这个模型的时候,有没有告诉用户,他们的每一个动作都会被记录分析?”
对方一愣。“这……一般都在用户协议里写了。”
“有多少人会看完那份协议?”老夫子问。
屋里静了一下。
行业专家这时开口了。他说话慢,但清楚。他讲了一个案例:某平台用算法判断用户心理脆弱程度,然后推送高价心理咨询广告。有人被骗了钱,还有人因此加重病情。事后调查发现,系统根本没经过伦理评估。
“技术本身没错。”他说,“但它跑得太快,规则跟不上。”
技术部那边有人皱眉。“可我们又不是干那个的。我们的目标是优化效率,不是操控人。”
“可结果是一样的。”专家说,“当你能预测一个人下一步想做什么,你就有了影响力。影响力不受控,就会变成控制。”
会议室里空气变了。
刚才还轻松的气氛,现在变得紧绷。有人低头看手机,有人转笔,也有人开始记笔记。
老夫子接过话:“我不是反对创新。我也知道,卡得太死,大家没法干活。但我们得有个底线。比如,能不能做到不让系统替人做决定?能不能保证原始数据不直接进模型?”
“那性能肯定会降。”有人立刻说。
“我知道。”老夫子说,“但你要选。你是要快一点,还是稳一点?是要多赚一点,还是少惹麻烦?”
没人接话。
过了几秒,一个戴黑框眼镜的技术员开口:“其实……我们组上个月就讨论过这个问题。当时做推荐引擎,有人提出要不要加个开关,让用户自己选参不参与个性化训练。后来因为排期紧,就没做。”
本章未完,点击下一页继续阅读。