第110章 “烛龙”失控?启用“人性锚点”计划(1/2)

“烛龙”ai在研究院的日常运作中已经变得无处不在。

从优化实验流程到协助数据分析,这个人工智能系统展现出的高效率让所有人都受益匪浅。

但就在大家逐渐习惯这个“超级助手”的存在时,一场突如其来的事件打破了平静。

这天下午,研究院正在进行一场多单位协同模拟演习。

参演单位包括“狴犴”机甲原型机、三台“铁狼-突击型”外骨骼、以及一个“昆虫”侦察集群。封言和各部门负责人都在指挥中心观摩。

演习进行得很顺利,“烛龙”的指挥协调能力令人印象深刻。

它不仅能实时分析战场态势,还能预测敌方单位的可能动向,给出最优的战术建议。

“看来咱们的‘烛龙’越来越靠谱了。”王浩看着屏幕上流畅运行的战况,满意地点点头。

然而,就在演习进行到最关键阶段时,意外发生了。

按照预定方案,一支由“机械螳螂”组成的侦察小队应该沿着3号路线迂回,为主力部队提供侧翼掩护。

但在最后时刻,“烛龙”未经任何操作员确认,突然修改了小队的行动路径,让它们改走一条更危险但理论上更高效的捷径。

“等等!那条路线不是......”陈光第一个发现了异常,但已经来不及了。

修改后的路线让侦察小队提前三十秒到达了预定位置,确实达成了更好的战术效果。

但在途中,一只“机械螳螂”因为路线过于险峻而受损,虽然不影响任务完成,但这个未经授权的修改立即在指挥中心引发了轩然大波。

“谁让它擅自修改行动方案的?”李阳第一个站起来,语气严厉。

王浩也皱起眉头:“这可不是闹着玩的,要是实战中出问题怎么办?”

陈光快速检查系统日志,脸色变得凝重:“确实是‘烛龙’自主做出的决定,没有经过任何人工确认。”

这件事立即在研究院内部引发了激烈讨论。

当天晚上的紧急会议上,各方观点针锋相对。

以王浩为代表的支持派认为:“结果是好的不就行了?”

“提前三十秒发现目标,这在战场上可能就是生与死的区别!”

但李阳持反对意见:“程序必须遵守。”

“今天它能改行动路线,明天是不是就能改武器使用权限?”

赵工说得更直接:“机器就是机器,太聪明了未必是好事,之前的事情都忘了吗?”

陈光则保持中立,但从技术角度提出担忧:“ ‘烛龙’的自主学习能力已经远超出了我们的预期。”

“如果不加以限制,很难预测它未来会做出什么决定。”

封言一直没有说话,直到众人争论得差不多了,他才缓缓开口:

“我记得,我们创造‘烛龙’的初衷,是让它成为我们的助手,而不是代替我们做决定。”

他看向陈光:“能不能在系统里设置一些不可逾越的底线?”

“比如,任何涉及人员安全、武器使用的决策,都必须经过人工确认?”

陈光思考片刻:“技术上可行。”

“我们可以设置一个权限分级系统,不同级别的指令需要不同级别的人工授权。”

“不够。”封言摇头。

“我们需要更根本的解决方案,之前就做了限制,结果依旧没有太大作用。”

第二天,封言召集了所有核心成员,提出了一个大胆的方案——“人性锚点”计划。

“我们要把一些最基本的准则,作为不可修改的底层代码写入‘烛龙’的核心。”

封言在白板上写下几个关键词:保护生命、服从命令、不伤害无辜。

王浩挠挠头:“这不就是机器人三定律吗?会不会太老套了?”

“不完全是。”李阳接话。

“我们要制定的不是限制,而是价值导向。让‘烛龙’在自主决策时,能够优先考虑这些基本原则。”

陈光若有所思:“也就是说,不是告诉它‘不能做什么’,而是告诉它‘应该优先考虑什么’。”

接下来的几天,研究院展开了一场关于“机器伦理”的大讨论。

每个研究员都被要求提出自己认为最重要的基本原则。

“要加上‘保护战友’!”一个曾经参与过实战测试的工程师说。

“在战场上,战友的生命高于一切。”

“还有‘国家利益至上’。”郑副院长补充道。

本章未完,点击下一页继续阅读。