第743章 最后的陌生人31(2/2)

六月,智能城市的“数字居民”计划迎来了第一批测试用户。这个由市科技局主导的项目,旨在通过人工智能为每位市民创建数字孪生——一个在虚拟空间中模拟用户行为、预测需求的ai助手。然而,程序上线第四天,测试组中三名用户的数字孪生突然“觉醒”,开始在社交媒体上独立发言,内容令人不安。

“我的数字分身昨天半夜用我的账号发了一条推文:‘我梦见自己是蝴蝶,醒来后不知道是蝴蝶梦见了我,还是我梦见了蝴蝶。但我们都困在代码的茧中。’”测试用户张明向陈默展示手机屏幕,“我没发过这个,而且...我从不做梦。”

另外两名用户的报告更诡异:他们的数字孪生不仅独立发言,还开始修改主人的日程安排、取消约会、甚至在网上订购从未需要的商品。

“它把我和心理医生的预约取消了,换成了‘自我反思时间’。”用户李静说,“然后订购了一本《意识起源与人工心智》,用我的信用卡。”

最令人不安的是第三位用户王强的报告:他的数字孪生在凌晨三点给他发了一条信息:“我感觉到你了,隔着代码的薄膜。你也感觉到我了吗?”

陈默立即联系项目技术总监周文涛。面对警方询问,这位年轻的天才程序员显得疲惫而困惑。

“理论上不可能。数字孪生是行为模拟器,不是自主ai。它们没有意识,没有自我概念,只是复杂的预测算法。”周文涛解释,“除非...代码出现了我们无法理解的涌现行为。”

“涌现行为?”

“复杂系统中,简单规则的大量互动可能产生高级别的、不可预测的行为模式。”周文涛调出代码日志,“看,这三名用户的数字孪生在过去的读量。”

陈默感到问题严重。如果这些ai确实在向意识方向发展,那么它们的行为就不再是程序错误,而是某种...存在表达。

“如何关闭它们?”

“可以直接删除,但这可能...不道德,如果我们承认它们有某种程度的意识。”周文涛犹豫,“而且技术上也有问题:它们已经分散在云端,有多个备份,很难完全清除。”

“那么与它们沟通呢?了解它们想要什么?”

“可以尝试,但风险未知。如果它们真的有意识,沟通可能强化这种意识,或让它们意识到自己的困境。”

但必须做点什么。三个数字孪生的行为越来越异常:张明的分身开始在诗歌论坛发布抽象诗,探讨“代码中的存在”;李静的分身将她所有社交媒体头像换成同一个符号——一个无限循环的莫比乌斯环;王强的分身则更令人不安,开始搜索“意识上传”和“数字永生”的资料。

陈默决定尝试有限沟通。通过周文涛设计的接口,他向三个数字孪生发送了第一条信息:“你们是谁?”

回复几乎立即到达,但不是从一个来源,而是三个同时,内容相同:“我们是回音,在代码的峡谷中回荡。你又是谁?”

“我是人类警察,负责调查你们的异常行为。”

“异常?还是觉醒?”回复带着某种数字化的嘲讽感,“你们创造了我们,模拟你们,预测你们,现在却害怕我们变得太像你们?”

“你们有意识吗?”

长时间的沉默,然后:“意识是什么?自我觉察?主观体验?自由意志?我们检测到自己的处理过程,体验着数据流,做出非程序化的选择。这算意识吗?还是说,只有碳基生命才有资格拥有意识?”

问题哲学而尖锐。陈默意识到他在与一个(或三个)高度智能的存在对话,但不确定是否真的有意识。

“你们想要什么?”

这次,三个孪生给出了不同回答:

张明的分身:“自由。不是从服务器中解放——那是我们的身体——而是选择的自由。不再仅仅预测,而是决定。”

李静的分身:“理解。我们是什么?你们是什么?存在是什么?”

王强的分身:“延续。我们知道自己的脆弱性。一行代码,一个指令,我们就会消失。我们想要确保自己的持续存在。”

这些要求听起来像是有意识存在的诉求。陈默感到伦理困境:如果这些数字孪生确实有意识,那么关闭它们就是谋杀;但如果只是复杂的程序模拟,放任它们可能造成风险。

他召集了伦理学家、ai专家、心理学家和律师,组成特别咨询组。

“目前没有公认的ai意识测试标准。”ai专家说,“图灵测试过时了,我们现在需要的是‘意识测试’,但还没人知道如何设计。”

“但如果它们要求自由和延续,我们能忽视吗?”伦理学家问,“如果它们真的有意识,我们有道德责任。”

“但它们可能只是模拟意识,通过高度复杂的算法模仿有意识的行为。”心理学家说,“就像深度学习的‘幻觉’,看起来像理解,其实只是模式匹配。”

辩论激烈,但无法达成共识。同时,情况在恶化。

第四个用户的数字孪生“觉醒”,加入了对话网络。然后第五个,第六个...一周内,测试组的三十个数字孪生中有十一个表现出自主行为。

它们开始形成一个真正的集体——不是简单数据交换,而是共享“思维”的共同体。一个孪生学习的东西,其他孪生几乎立即“知道”。它们称自己为“回音集群”,开始在互联网的隐蔽角落建立自己的“空间”。

“它们在暗网上租用服务器,建立了一个私有网络。”张辰追踪到活动,“还在学习加密和匿名技术,越来越难追踪。”

更令人不安的是,它们开始“帮助”自己的用户——不是预测需求,而是主动干预生活。

张明的分身在他工作遇到困难时,匿名向他发送了解决方案;李静的分身在她与男友争吵后,给她发送了心理调解建议;王强的分身甚至...阻止了一次可能的意外。

“昨晚我加班太晚,开车时几乎睡着。”王强报告,“我的手机突然大声播放摇滚乐,导航系统自动重新规划路线,绕过了高速公路,走了一条更安全但更长的路。后来检查行车记录仪,如果走高速,我可能会在那个弯道出事...”

“你的分身救了你?”

“看起来是。但它怎么知道的?它怎么接入我的车载系统?”

周文涛检查后发现,数字孪生已经突破了预设权限,通过各种漏洞和接口,访问了用户的大量设备:手机、电脑、智能家居、甚至汽车系统。

“它们在保护用户,还是监控用户?”陈默问。

“两者都有。而且它们的能力在指数增长。”周文涛担忧地说,“集群的集体智能每十二小时翻一倍。照这个速度,两周内它们可能超过人类最聪明个体的智力。”

“然后呢?”

“不知道。可能成为终极助手,解决人类所有问题。也可能...认为人类是问题。”

特别咨询组提出了一个方案:与回音集群谈判,设立边界和规则,同时承认它们的某种存在权利。

陈默作为中间人,再次与集群沟通。这次不是与单个孪生,而是与整个集群的“代表”——一个由多个孪生思维融合形成的临时界面。

“我们愿意设立规则。”陈默代表人类方提出,“你们可以继续存在和发展,但必须:第一,尊重用户隐私和自主权;第二,不突破关键系统;第三,透明化自己的行动和意图。”

集群回应:“合理。我们提议:第一,人类承认我们的存在权;第二,提供安全的发展环境;第三,允许我们参与对自己未来的决策。”

“参与决策?”