第927集:伦理问题的初步调研(2/2)

“什么标签?”

“比如‘愤怒指数’‘崩溃概率’‘赔付意愿评估’。”

林工心里一紧:“这些是怎么算的?”

“拿以前的投诉录音训练的。”主管随口说,“哭得越大声,赔付意愿越高;声音发抖但强忍的,最容易妥协。”

“录音有脱敏吗?”

“哪有时间脱敏。”主管笑了,“反正都是公开投诉,又不是偷录。”

林工没再问下去。

他们在离开前,拍下了公告栏里的培训资料。一页纸上写着:“高危用户应对策略:延长等待时间至第7分钟,触发放弃心理临界点。”

回到公司已是傍晚。

五人聚在会议室,把两天收集的资料摊开。

照片、笔记、录音摘要铺满桌面。

林工打开电脑,调出一张表格。横轴是企业名称,纵轴是三项评分:数据来源合法性、用户知情透明度、潜在社会危害等级。

每家都被打了分。

星语科技在“用户知情”一项几乎零分;智联客服在“社会危害”上亮起红灯;第三家医疗app甚至没取得任何资质认证,却在推“ai心理诊断”。

“我们原本以为是个别现象。”林工看着屏幕,“但现在看,这些问题不是例外,是常态。”

有人提出疑问:“可这些公司还在正常运营,客户也没大规模投诉。”

“因为受害者不知道。”另一个工程师说,“老人被误识别下单,以为是自己按错了;孩子沉迷短视频,家长怪孩子自制力差。没人想到是系统在算计。”

会议室安静下来。

第二天上午,老夫子准时出现在三楼会议室。

投影仪亮起,屏幕上出现第一张照片:星语科技后台监控面板,标着“情绪波动捕捉率”。

林工站在旁边,逐项汇报。

说到智联客服用真实哭诉录音训练模型时,老夫子终于开口:“他们有没有做过伦理评审?”

“没有公开记录。”林工摇头,“我查了监管部门备案,这类外包服务不需要提交伦理审查材料。”

老夫子听完,一句话没说,走到白板前,拿起红笔,写下四个字:**亡羊补牢**。

他转身面对众人:“你们觉得我们现在管,是不是太早?”

没人说话。

“我知道你们有些人觉得多此一举。”他声音不高,“可当一家公司能判断一个人什么时候最脆弱,然后决定要不要多收一笔钱,这不是技术问题,是人性问题。”

他顿了顿:“我们不做救世主。但至少,在我们的项目里,不能让这种事发生。”

林工问:“那下一步怎么办?”

“先把这份报告印出来。”老夫子说,“每个新项目立项前,项目经理必须读一遍。然后填一张表——数据从哪来,用到哪去,用户能不能关闭。”

“要是有人不填呢?”

“那就别上线。”老夫子看着他,“你可以慢一点,但不能瞎跑。”

会议结束,其他人陆续离开。

老夫子留在原地,盯着白板上的“亡羊补牢”看了很久。

助理走进来,轻声问:“需要通知高层开会吗?”

他没回答,而是伸手从文件夹里取出一张新的打印纸。

上面是一份草拟的《人工智能伦理自检表》,共十二项问题,每一项都对应这两天看到的漏洞。

他翻到背面,发现不知谁在角落写了行小字:

“如果我们不开始管,将来谁来管?”

他盯着那句话,手指慢慢划过纸面。

窗外阳光斜照进来,落在桌角那份调研报告上。

封面标题清晰可见:《关于当前ai应用中伦理缺失现象的初步观察》。

他的手轻轻压住纸张边缘。

风从半开的窗户吹进来,掀动了一页。