任正非:关于人工智能的核心观点与深度思考(1/2)

2024年10月14日,华为创始人任正非与国际大学生程序设计竞赛(icpc)的核心成员——包括赛事主席、高校教练以及全球获奖选手,围绕人工智能这一核心议题展开了一场深度对话。icpc并非普通竞赛,它被誉为“计算机软件领域的奥林匹克”,能站上这个舞台的年轻人,都是未来可能推动技术变革的潜在力量。任正非作为亲历中国科技产业崛起的企业家,没有用晦涩的行业术语,而是以“长辈聊经验”的直白风格,分享了对ai发展趋势、现实影响、研究方向的看法,每一句都落到实处。以下是与ai直接相关的核心内容,用最通俗的语言拆解,带你看懂这些观点背后的逻辑与价值。

一、ai不是“未来概念”,是已经落地的“现实生产力”

任正非一开场就抛出了一个斩钉截铁的判断:人工智能的发展潮流,谁也挡不住。不是说有人想拦就能拦住,而是技术自身的迭代规律在推着它往前走——芯片的算力越来越强,以前算半天的数据现在几秒钟就能出结果;算法的精度越来越高,能识别的场景、解决的问题越来越多;再加上海量数据的积累,就像给ai“喂饱了粮食”,让它从“只会简单指令的机器”变成了“能处理复杂任务的帮手”。

他特别强调:“现在这个时代的转折点,就是ai的应用。”这句话的意思是,ai不再是实验室里用来“炫技”的技术,不再是科幻电影里的“未来元素”,而是已经走进了工厂、港口、车间,变成了能创造实际价值的“生产力工具”。为了让这些年轻的技术尖子有直观感受,他举了两个中国当下最典型的“ai落地案例”,没有半点虚的,全是看得见摸得着的变化。

第一个案例是天津港。去过港口的人都知道,以前的港口是“人山人海”的场景——工人要指挥吊车装集装箱,司机要开着货车运货,还有人要在海关窗口核对单据,一百多平方公里的场地(相当于140多个足球场大小)里,到处都是忙碌的身影,不仅效率低,还容易出错。但现在的天津港完全变了样:从集装箱卸船、运输到堆垛,再到通过海关核验,整个流程几乎见不到一个人。吊车是ai控制的,能精准计算位置,不会碰坏箱子;货车是无人的,按照ai规划的路线跑,不会堵车;就连单据核对都是ai自动完成,几秒钟就能确认信息。他特意补充:“你去现场看,只能看到机器在动,人都在控制室里盯着屏幕,效率比以前高了至少3倍。”

第二个案例是炼钢行业。炼钢是出了名的“苦差事”,以前炉前温度能达到几十甚至上百度,工人得穿着厚厚的防火服守在旁边,不仅烤得难受,还得时刻盯着钢水的状态。最麻烦的是“钢水化验”——要先用勺子舀出滚烫的钢水,送到实验室检测成分,等结果出来才能判断合不合格,既耽误时间,又有烫伤的风险。现在呢?ai把这些问题全解决了:炼钢炉、轧钢机旁边都没人了,全程由ai监控温度、调整参数;想知道钢水合不合格,工人只需要戴一副专门的“ai眼镜”,眼镜对着钢水一扫,几秒钟就能显示成分数据,根本不用再舀钢水。他还提到了更极端的场景:“现在几百米深的地下挖煤,都能用ai操作,矿工不用下井,在地面就能控制采煤机,既安全又高效。”

这两个例子不是随便选的,而是覆盖了“物流”和“制造业”两大关键领域,想告诉这些年轻人:你们现在学的ai技术,不是“没用的屠龙之技”,而是能实实在在改变传统行业、提高效率、减少风险的“真本事”。ai的价值,就藏在这些看似普通的场景里。

二、ai带来的“好处”与“压力”:别慌,问题能慢慢解决

任正非没只唱“赞歌”,也坦诚地提到了ai带来的现实压力。他说:“ai发展得这么快,对社会是好事,但也有麻烦——最直接的就是工作岗位会减少。”这话很实在,以前需要十个人干的活,现在ai加机器两个人就能搞定,剩下的人怎么办?这是很多人担心的“失业问题”,尤其是在制造业、物流、客服这些容易被ai替代的领域,这种担心更明显。

但他没有停留在“焦虑”上,而是把“技术问题”和“社会问题”拆分开,给出了理性的看法:

首先,ai带来的好处是“实实在在的”。最核心的就是“社会总财富增加了”。他举了个大家都能懂的例子:“以前农业社会,几亿人种地才能养活全国人,现在几百万农民就够了,剩下的人去搞工业、服务业,大家的日子反而更好了。”ai也是一样的道理——虽然有些岗位没了,但整个社会的生产效率提高了,能创造更多的商品、提供更多的服务,总财富变多了。比如以前一家工厂一天能生产100件产品,用了ai之后能生产500件,不仅工厂赚得多了,消费者也能买到更便宜的东西,这是“双赢”的事。

其次,“岗位消失”是社会问题,不是技术问题。他明确说:“我们搞技术的人,解决不了所有社会问题,但能做的是把技术做好,让社会变得更富,给解决问题打基础。”什么意思?比如ai让工厂效率提高了,工厂赚了更多钱,政府可以通过税收调节,用这些钱去培训失业的人,帮他们学新技能、找新工作;或者发展新的行业,比如ai运维、ai训练这些需要人的岗位,把“失去的岗位”补回来。他举了个例子:“以前没有互联网的时候,哪有‘程序员’‘电商主播’这些岗位?技术进步会消灭旧岗位,但也会创造新岗位,关键是社会要做好‘衔接’。”

他还提到一个细节:“华为自己用ai,也没让员工失业。比如以前有些重复的工作,现在让ai做了,我们就把员工调到更有创造性的岗位,比如ai算法优化、ai应用设计,反而让员工的价值更高了。”这话不是为了“宣传”,而是想说明:ai不是“跟人抢工作”,而是“把人从重复的劳动里解放出来”,去做更有意义、更需要创造力的事。

简单说就是:不用怕ai带来的挑战,技术进步的大方向是对的,只要社会做好“配套”,比如教育、培训、就业保障,就能把“压力”变成“动力”。

三、搞ai研究:别只盯代码,得有“更高的思考”

这些icpc选手都是“技术学霸”,最关心的问题是“ai研究该往哪儿走”“怎么才能把ai做得更好”。任正非没有跟他们聊具体的算法优化、代码技巧,反而提到了一个看似不相关的词——“哲学”。不是故意“掉书袋”,而是想给这些年轻人提个醒:搞ai不能只盯着眼前的技术细节,得站得更高,想清楚“背后的逻辑”。

他拿“工业革命”和“信息时代”做对比,把这个道理讲得很透彻:

在工业革命时代,大家信奉的是“形而上学”和“机械唯物论”。简单说就是把世界看成一台“精密的机器”,比如齿轮转一圈,带动另一个齿轮转半圈,所有事情都有固定的规律。只要研究清楚这些规律,就能搞出蒸汽机、纺织机、火车这些设备。欧洲、日本就是靠这套思路,造出了很多厉害的工程机械,推动了工业发展。

但现在到了ai时代,这套思路不够用了。为什么?因为ai不是“简单的机器”,它能学习、能进化、能根据数据调整自己的行为。比如ai识别图片,不是靠“固定的规则”(比如“有两个圆就是眼睛”),而是靠分析海量图片,自己总结出“什么是猫、什么是狗”;再比如ai写文案,不是靠“背模板”,而是靠学习大量文字,自己掌握语言逻辑。这些都不是“机械规律”能解释的,背后是复杂的“信息交互”和“数据逻辑”。

所以他说:“未来进入信息世界,需要更高的哲学层面来研究世界的实现。”这句话的意思是,想把ai的潜力挖出来,光会写代码、调参数不行,得搞明白“信息世界的运行规律是什么”“ai和人类的关系应该是什么”“怎么让ai更好地理解人类的需求”。比如ai怎么判断“用户想要的是‘实用建议’还是‘情感安慰’”?怎么避免ai做出“看似正确但不合情理”的决策?这些问题不是技术能单独解决的,需要结合对“人”“社会”“伦理”的理解,这就是“更高的思考”。

他还举了个例子:“以前我们做手机,只要把硬件做好、系统流畅就行;现在做ai手机,得考虑‘ai怎么懂用户的习惯’——比如用户早上起床,ai自动调出天气和通勤路线;用户累了,ai自动推荐放松的音乐。这不是简单的技术问题,是要‘懂人’,懂人的生活方式、情感需求,这背后就是对‘人与技术关系’的思考。”

对这些年轻选手来说,这话的启发在于:别当“只会写代码的工具人”,要做“懂技术、懂社会、懂人的创新者”。只有这样,才能搞出真正有价值的ai技术,而不是“实验室里的玩具”。

四、不用怕“ai自我再造”:三十年之内,还是人说了算

有个年轻选手问了个很尖锐的问题:“如果ai发展到能自己‘再造’自己——比如自己写代码、自己优化算法,不用人管了,那人类还有立足之地吗?”这是很多人对ai的“终极担忧”,怕ai失控,怕人类被替代。

任正非的回答很实在,没有说“绝对不会”,也没有说“肯定会”,而是基于现实给出了判断:他也不知道ai的技术边界在哪儿,但至少三十年之内,“ai自我再造”是不可能发生的。

为什么这么说?他解释了两个核心原因:

第一,ai的“核心能力”是“学习人类的数据”,而不是“创造全新的东西”。比如ai能写文案,是因为它学习了大量人类写的文案;ai能画画,是因为它学习了大量人类画的画。它没有自己的“意识”,不会像人一样“突然想到一个全新的点子”,更不会“主动想‘再造’自己”。就像现在的ai能设计芯片,但它设计的芯片,本质上还是基于人类已经掌握的芯片知识,不会凭空创造出“人类完全不懂的芯片技术”。

第二,ai的“控制权永远在人手里”。不管ai多厉害,它的“开关”都在人类手上——人类可以设定ai的目标、限制ai的行为、修改ai的算法。比如ai在工厂里干活,人类可以设定“不能伤害人”“不能浪费原材料”;ai在医疗领域用,人类可以设定“必须经过医生确认才能出诊断结果”。只要把“规则”定好,把“监管”做到位,ai就不会“失控”。

他还补充了一句:“就算未来ai真的能‘自我再造’,那也是人类教它的——是人类先掌握了‘再造’的技术,再教给ai的。所以不管到什么时候,人都是‘主导者’,ai是‘辅助者’。”

本章未完,点击下一页继续阅读。