第930集:行业标准的雏形(1/2)

助理把心语科技的函件放在桌上就退了出去。老夫子没动那叠纸,只低头看了眼手机屏幕,新闻推送还在跳:#ai伦理争议持续发酵#。

他抬起头,会议室里已经坐满了人。

三位技术部专家坐在左侧,面前摊着笔记本,其中一人正用笔在纸上画数据流图。五位行业代表坐在对面,有两位他认得,上周还在媒体上说他们搞“道德绑架”。

老夫子打开投影仪,画面切到一份文档标题——《人工智能伦理基本准则(草案第一版)》。

“昨天有人让我们道歉。”他说,“因为他们怕我们立规矩。”

屋里没人接话。

“现在我们不是要道歉。”他继续说,“是要把规矩写出来,摆在这儿,谁都能看,谁都能改。”

右侧一个戴眼镜的行业代表咳嗽两声:“你们标准定这么严,小公司根本跟不上。这不是推进行业,是卡别人脖子。”

老夫子点头,转头对左边的技术专家说:“把那个案例放一下。”

专家操作电脑,屏幕上出现一段流程图:用户输入“我睡不着”,系统自动打标“情绪异常”,关联行为预测模型,推送高价助眠课程,同时将数据传入第三方保险数据库。

“这不是个别问题。”老夫子说,“是整套逻辑错了。我们以为在帮人,其实是在筛猎物。”

另一位行业代表皱眉:“可用户确实买了课,说明有需求。”

“一个失眠的学生,被连续推送七天‘心理干预套餐’,最后花光生活费下单。”老夫子看着他,“你说的需求,是算法造出来的,不是人真的想要。”

屋里安静了几秒。

语音识别方向的专家开口:“我们做过测试。关闭情绪标签后,误判率下降百分之八十二。也就是说,大多数所谓‘精准服务’,其实是乱猜。”

情感计算专家补充:“现有模型分不清调侃和倾诉。有人发句‘今天不想活了’,可能是段子,系统却当成危机处理,结果越管越乱。”

系统安全专家直接翻出日志截图:“更严重的是权限滥用。某平台后台能调取用户三年前的私聊记录,连删除的对话都能恢复。”

行业代表们开始翻资料。

一个穿灰西装的男人问:“你们说的‘高敏感场景’具体指什么?”

“三类。”老夫子答,“未成年人对话、涉及自残或暴力的表达、医疗建议请求。这些交互默认不存数据,不进训练集。”

“那预警功能呢?”另一人问,“真有人出事,谁负责?”

“责任不能靠偷数据来逃避。”老夫子说,“如果模型不准,宁可不预警。总比吓错人强。”

有人摇头:“这太保守了。”

“不是保守。”老夫子说,“是诚实。我们现在的能力,配不上那么大的权力。”

圆桌另一侧,一位来自教育ai公司的代表突然开口:“我们产品下个月上线新版本,原计划采集学生情绪数据优化互动。按这个标准,是不是做不了了?”

“可以做。”技术专家回答,“但要用模拟数据训练,或者让用户主动提交,单独存储。”

“用户愿意交吗?”

“我们试过。”老夫子说,“加个按钮,写着‘我想帮你变聪明’,下面一行小字说明用途。愿意的人不少。关键是要让人知道他们在做什么。”

会议节奏慢慢变了。

有人开始提细节。

“三级确认会不会太烦?”

“可以优化提示语。”老夫子说,“第一次弹窗写‘这段对话可能被记录’,第二次写‘记录将用于改进服务’,第三次写‘确认开启?取消则全程不留痕’。清楚就行。”

“审计接口怎么建?”

“留标准数据端口。”系统安全专家说,“密码由第三方机构掌握,每月随机抽查一次,结果公开。”

本章未完,点击下一页继续阅读。