“人工智能+”的风险管控与伦理规范(1/2)
现在“人工智能+”早就不是啥新鲜词了,不管是手机里的智能推荐、商场里的人脸识别,还是工厂里的智能机器人,到处都能看到它的影子。但就像咱们用新家电得先搞懂安全按钮一样,“人工智能+”用得越广,背后藏着的风险和伦理问题就越不能忽视。接下来咱们就用大白话,把这些事儿拆解开说清楚,让大家一看就明白。
一、技术风险:ai也会“掉链子”,这三种问题最常见
咱们总觉得ai特别厉害,能算复杂数据、能写文案还能画画,但实际上它也会“犯迷糊”“带偏见”,甚至关键时刻“掉链子”。这部分说的技术风险,就是ai在技术层面容易出的岔子,其中最典型的就是算法偏见、模型幻觉和系统可靠性问题。
1.1 算法偏见:ai也会“看人下菜碟”,不是它故意的,是“学歪了”
先说说“算法偏见”,听着挺专业,其实就是ai在做判断的时候,会不自觉地偏向某一类人,或者对某一类人不友好。比如咱们平时用的招聘app,有些公司会用ai筛选简历,如果一开始给ai“喂”的简历里,大部分都是男性的优秀简历,ai就会误以为“男性更符合岗位要求”,之后再看到女性简历,可能就会不自觉地打低分——这就是典型的算法偏见。
为啥会这样?不是ai有“性别歧视”,而是它学习的“素材”有问题。ai就像个小学生,老师教啥它学啥,如果老师给的教材里本身就有偏向性,那学生学出来肯定也带偏。再比如贷款app,有些ai评估用户信用时,会参考用户的居住地,如果某个区域之前有过较多逾期记录,ai可能就会直接给这个区域的用户打低信用分,哪怕有些用户本身信用特别好,也会被“连累”。
这种偏见带来的麻烦可不小。找工作的女性可能因为ai偏见错失机会,信用好的人可能因为ai偏见贷不到款,甚至在司法领域,如果用ai辅助判断案件,偏见还可能影响判决公平性。所以算法偏见不是小事,得提前发现、提前改。
1.2 模型幻觉:ai会“瞎编乱造”,还说得有模有样
再说说“模型幻觉”,这个更有意思,简单说就是ai会“一本正经地胡说八道”。比如你问ai“某本不存在的书的作者是谁”,它不会说“我不知道”,反而会编一个名字,还会瞎编这本书的出版时间、主要内容,甚至引用里面的“名言”,让你误以为真有这本书。
为啥会出现幻觉?因为ai的核心是“预测下一个字\/词该放啥”,它不关心内容是不是真的。比如你让ai写一篇关于“古代某座虚构城市的历史”,ai会把它学过的所有“古代城市”“历史事件”的信息拼在一起,凑出一篇逻辑通顺但完全虚构的内容。就像咱们做梦的时候,会把现实里的片段拼在一起,形成一个假的场景,ai的幻觉差不多就是这个意思。
这种幻觉的危害也挺大。如果医生用ai查医学资料,ai编一个假的治疗方案,可能会耽误病人;如果学生用ai写论文,ai编一些假的引用文献,论文就会出大问题。所以现在用ai查信息,尤其是重要信息,一定要多核对,不能全信。
1.3 系统可靠性:ai也会“死机”“出错”,关键时刻靠不住
最后是“系统可靠性”问题,简单说就是ai系统可能会突然出故障,或者在复杂场景下出错。比如自动驾驶汽车,平时在空旷的马路上跑得挺好,但遇到暴雨、大雾天气,或者路上突然出现一个塑料袋、一只小动物,ai可能就会判断失误,要么突然刹车,要么没及时避让,容易引发事故。
再比如银行的ai转账系统,如果突然遇到网络波动,或者系统里的某个程序出了bug,可能会出现“转账成功但对方没收到”“重复转账”等问题,给用户带来损失。还有咱们用的智能客服,平时能解答一些简单问题,但遇到复杂的投诉、咨询,比如“账户被盗了该怎么办”“订单丢了怎么找回”,ai可能就会“答非所问”,或者直接把问题推给人工,要是人工客服又忙不过来,用户就会特别着急。
为啥ai系统会不可靠?一方面是技术本身的问题,比如ai对复杂环境的适应能力还不够强,遇到没见过的场景就容易“懵”;另一方面是人为因素,比如程序员在写代码的时候出了错,或者系统维护不到位,没有及时更新、修复漏洞。所以不管是用ai开车,还是用ai处理金融业务,都得留好“后手”,比如自动驾驶得有人类驾驶员随时接管,ai转账得有人工审核环节,不能完全依赖ai。
二、伦理挑战:ai不能只讲“技术”,还得讲“规矩”
除了技术层面的风险,“人工智能+”还会遇到一些伦理问题——简单说就是“ai该怎么做才对”“哪些事ai不能做”。比如ai能不能随便收集人的人脸信息?ai推荐内容的时候能不能只推用户喜欢的,让用户看不到其他信息?这些问题都没有绝对的答案,但需要咱们一起商量出“规矩”,不然就容易出乱子。这部分主要说三个核心伦理挑战:公平性、透明度和社会责任。
2.1 公平性:ai不能“欺负人”,得给所有人平等的机会
先说说“公平性”,其实和前面说的“算法偏见”有点像,但范围更广——不只是ai判断的时候不能有偏见,还要保证所有人都能平等地享受ai带来的好处,不能因为性别、年龄、肤色、收入、地区等因素,被ai“区别对待”。
比如现在很多地方用ai做教育辅导,发达地区的孩子能用到先进的ai学习系统,有个性化的学习计划、优质的课程资源;但偏远地区的孩子可能连基本的电脑、网络都没有,更别说用ai辅导学习了——这就是“ai教育公平”问题,相当于发达地区的孩子在学习上多了一个“帮手”,而偏远地区的孩子没有,差距可能会越来越大。
再比如ai医疗,大城市的医院能用ai辅助诊断癌症、糖尿病,通过分析ct影像、血液数据,更早发现病情;但小城市、农村的医院可能没有这样的ai系统,医生只能靠经验诊断,有些早期疾病可能就会被漏诊、误诊——这就是“ai医疗公平”问题,相当于大城市的人能更早得到治疗,而小城市、农村的人可能会耽误病情。
还有ai就业,现在很多行业用ai替代人工,比如工厂里的流水线工人、超市里的收银员、银行里的柜员,这些岗位越来越少,很多人会失业。但这些失业的人里,很多都是学历不高、没有其他技能的人,他们很难再找到新工作;而懂ai、会操作ai的人,却能找到高薪工作——这就是“ai就业公平”问题,ai让一部分人更吃香,却让另一部分人没了饭碗。
所以ai的公平性不是小事,不能让ai只服务于少数人,得想办法让所有人都能用上ai、受益于ai。比如政府可以给偏远地区捐ai学习设备、建网络,让农村孩子也能用上ai辅导;医院可以推广ai诊断系统,让小城市的医生也能借助ai看病;企业可以给失业的人做ai技能培训,帮他们找到新工作。
2.2 透明度:ai做决定得“说清楚”,不能“暗箱操作”
再说说“透明度”,简单说就是“ai为啥做这个决定,得让人看明白”。比如你申请贷款,ai说“你不符合条件,拒绝贷款”,你肯定想知道“为啥拒绝我?是因为我收入低,还是因为我有过逾期记录?”如果ai不告诉你原因,只给一个结果,你就会觉得不公平,甚至怀疑ai是不是有问题——这就是透明度不够的问题。
再比如你用ai推荐视频,ai总给你推同一类内容,比如你看了一个搞笑视频,之后全是搞笑视频,你想知道“ai为啥只给我推这个?能不能给我推点别的?”如果ai不解释推荐逻辑,你就会觉得被“困住”了,看不到其他类型的内容——这也是透明度不够的问题。
还有司法领域,如果ai辅助法官判案,比如给某个案件的被告人打分,判断他“再犯罪的可能性”,如果ai说“可能性很高,建议重判”,法官和被告人都得知道“ai是怎么算出来的?参考了哪些因素?是被告人的年龄、学历,还是之前的犯罪记录?”如果ai不说明白,这个判决就很难让人信服。
为啥ai的透明度这么难实现?因为很多ai模型是“黑箱”——就像一个魔术盒,你把数据放进去,它就会输出结果,但你不知道盒子里到底发生了什么。比如chatgpt这样的大模型,它的计算过程非常复杂,就算是开发它的程序员,也未必能说清楚它为啥会生成某一句话。
但透明度又很重要,不然大家就会不信任ai。所以现在很多国家都在要求ai企业“打开黑箱”,比如贷款ai得告诉用户拒绝贷款的具体原因,推荐ai得让用户知道推荐逻辑,司法ai得说明判断依据。虽然很难完全做到,但至少得往这个方向努力。
2.3 社会责任:ai不能只“赚钱”,还得“担责任”
最后是“社会责任”,简单说就是ai企业不能只想着用ai赚钱,还得考虑ai对社会的影响,比如ai会不会危害隐私、会不会破坏环境、会不会影响社会稳定。
先说说隐私问题,这是大家最关心的。现在很多ai产品都要收集用户数据,比如人脸识别需要收集人脸信息,智能手表需要收集健康数据,ai推荐需要收集浏览记录。如果企业把这些数据随便存着、或者卖给其他公司,用户的隐私就会被泄露。比如有人用ai摄像头偷偷拍别人的人脸,然后做成“人脸库”卖给诈骗分子;有人把用户的健康数据卖给保险公司,保险公司就会拒绝给身体不好的人投保——这些都是ai企业没尽到社会责任,只想着赚钱,不管用户的隐私安全。
再说说环境问题,ai其实是“耗电大户”。训练一个大模型,比如gpt-3,需要用到很多服务器,这些服务器24小时运转,消耗的电量相当于几百户家庭一年的用电量,还会排放大量二氧化碳,污染环境。如果ai企业只想着把模型做得更大、更厉害,不考虑节能减排,就会给环境带来很大压力——这也是社会责任的一部分,ai发展不能以破坏环境为代价。
还有社会稳定问题,比如ai能生成“深度伪造”内容,就是用ai做假视频、假音频,比如把某个人的脸换到另一个人身上,制作出“假新闻”“假绯闻”。如果有人用这个技术造谣、诽谤,比如伪造某个明星的负面视频,或者伪造某个官员的不当言论,很容易引发社会恐慌、破坏社会信任——这时候ai企业就得担起责任,比如开发识别“深度伪造”的技术,阻止假内容传播,而不是放任不管。
所以ai不是“法外之地”,企业用ai赚钱的同时,必须承担起社会责任,比如保护用户隐私、节能减排、阻止ai被用来做坏事。如果企业只讲利益、不讲责任,ai早晚都会被大家反感、抵制。
三、全球伦理治理:各国对ai的“规矩”不一样,得慢慢商量着来
“人工智能+”是全球性的技术,比如你用的ai软件可能是美国公司开发的,你买的ai设备可能是日本生产的,你刷的ai视频可能是印度网友上传的。但不同国家的文化、法律、社会情况不一样,对ai的“规矩”也不一样——比如有的国家允许用ai做自动驾驶,有的国家不允许;有的国家严格限制ai收集人脸信息,有的国家则比较宽松。这就需要各国一起商量,搞“全球伦理治理”,既要尊重各国的差异,又要达成一些共同的“底线”,不然ai在全球范围内用起来就会乱套。这部分主要说两个点:国际共识和区域监管政策的差异。
3.1 国际共识:各国都同意的“ai规矩”,比如不能用ai杀人
虽然各国对ai的监管不一样,但在一些关键问题上,大家还是能达成共识的——简单说就是“有些事ai绝对不能做”,不管哪个国家都得遵守。
最典型的就是“ai不能用于军事危害人类”。比如不能开发“自主杀人机器人”——就是不需要人类控制,自己就能识别目标、开枪杀人的机器人。如果这种ai被用于战争,后果不堪设想,可能会造成大量无辜平民死亡,甚至引发世界大战。所以现在联合国和很多国家都在呼吁“禁止开发自主杀人机器人”,这就是一个重要的国际共识。
再比如“ai不能歧视人类”。不管是哪个国家,都不能用ai搞种族歧视、性别歧视、宗教歧视。比如不能开发“只服务于白人”的ai,不能开发“歧视女性就业”的ai,这也是各国都认可的共识。因为歧视会引发社会矛盾,不管在哪个国家,都不利于社会稳定。
还有“ai要保护用户隐私”。虽然各国对隐私保护的严格程度不一样,但都同意“ai不能随便收集、泄露用户隐私”。比如不能用ai偷偷拍别人的隐私视频,不能把用户的身份证号、银行卡号随便卖给别人,这也是一个基本共识。因为隐私是人类的基本权利,不管在哪个国家,大家都不希望自己的隐私被泄露。
本章未完,点击下一页继续阅读。