为什么现在AI突然火了?——“三驾马车”拉着AI跑(1/2)
一、开篇:ai不是“突然冒出来”,而是“突然变好用了”
不知道你有没有这种感觉:前几年聊ai,还像是在说“未来的事儿”——要么是科幻电影里的机器人,要么是实验室里的“高精尖技术”,跟咱们的日常工作、生活离得特别远。那时候没人会想着让ai帮忙写报告,也不会用ai修图、做视频,甚至连“ai能聊天”都是新鲜事儿。
可现在呢?打开手机,刷视频有ai推荐的内容,拍照有ai美颜、ai修图;上班时,写方案能让ai搭框架,做表格能让ai自动整理数据;就连平时聊天,都可能跟ai助手问天气、查路线。
为啥ai像“突然冒出来”一样,到处都是?其实不是ai刚出现,而是最近几年,有三个关键因素凑到了一起,把ai从“不好用、不实用”的状态,推到了“能帮上忙、甚至比人做得快”的阶段——这三个因素,就像拉着ai往前跑的“三驾马车”,缺一个都不行。今天咱们就用大白话,把这“三驾马车”讲透,看看ai到底是怎么“火起来”的。
二、第一驾马车:数据变多了——ai终于有“足够的东西可学”
咱们先想个事儿:如果要教一个小朋友认“猫”,你得怎么做?至少得给ta看几只猫吧?比如看家里的猫、小区里的猫,再看图片上的猫、视频里的猫,告诉ta“有尖耳朵、圆眼睛、会喵喵叫的就是猫”。看的猫越多,小朋友越不容易认错——要是只给ta看一只白色的小奶猫,等ta看到一只黑色的大橘猫,可能就会问“这也是猫吗?”
ai认猫、写文章、做分析,跟小朋友学东西的逻辑差不多:得有足够多的“素材”让它学,素材越多,它学得越准、越灵活。这些“素材”,就是咱们常说的“数据”。
以前ai为啥“不好用”?很大一个原因就是“数据不够”。比如早个十年,咱们用手机拍的照片没那么多,发的朋友圈、短视频也少,网上的文章、视频总量也有限。那时候要教ai写一篇通顺的文章,可能只能给它几千篇文章当“教材”;要教它认猫,可能只有几万张猫的图片。
你想啊,就这么点“教材”,ai能学到啥?写文章可能颠三倒四,要么重复话多,要么逻辑不通;认猫更别说了,可能把带花纹的狗当成猫,把兔子当成“没耳朵的猫”——不是ai“笨”,是它根本没见过足够多的“例子”,不知道“猫和狗的区别到底在哪”。
但现在不一样了,咱们每天都在“生产数据”:早上刷手机,看的新闻、短视频是数据;上班发的工作文档、聊天记录是数据;下午拍的照片、录的视频是数据;晚上网购时的浏览记录、下单信息,还是数据。
有个数据挺直观的:现在全世界每天会产生几十亿张图片、上万亿条文字信息,还有几百亿小时的视频。这些数据堆在一起,就像给ai建了一个“超级大图书馆”——要学写文章,图书馆里有几百万本书、几十亿篇文章,从散文到论文,从小说到新闻,啥类型都有;要学认东西,图书馆里有猫、狗、汽车、植物的图片,不同角度、不同场景的都有;要学做数据分析,图书馆里有各行各业的销售数据、用户数据,能看到规律、找到趋势。
举个具体的例子:现在很多人用ai写文案,比如给产品写宣传语、给公众号写推文。你以为ai是“凭空想出来”的?其实是它之前学了几百万条优秀的宣传语、几十万篇同类型的推文——它知道“卖奶茶的文案要突出‘甜、新鲜、解渴’”,“写旅行推文要强调‘风景美、攻略实用’”,这些都是从海量数据里“学”来的。
要是没有这么多数据,ai写出来的文案会咋样?可能只会说“这个奶茶很好喝,大家快来买”,干巴巴的,没有吸引力;甚至可能写跑题,比如让它写奶茶文案,它却写了“今天天气很好,适合出门”——因为它没见过足够多的“奶茶文案例子”,不知道该往哪个方向写。
所以说,“数据变多”是ai火起来的第一块“基石”:只有“原材料”足够了,ai才能好好“学习”,不至于“巧妇难为无米之炊”。
三、第二驾马车:算力变强了——ai的“计算速度”翻了几百倍
有了足够多的数据,ai就能“学好”了吗?还不行,因为它还缺一个“快工具”——就像你要做一顿饭,光有米、菜、肉还不够,得有锅、有火;要是用原始的土灶,烧半天水都开不了,饭可能得等几个小时才能熟,但用高压锅,几十分钟就能做好。
ai的“锅和火”,就是“算力”——简单说,就是计算机处理数据、做计算的速度。
为啥算力这么重要?因为ai学习的过程,本质上是“算海量数据”的过程。比如教ai认猫,它不是靠“看”,而是靠计算机把每张猫的图片,变成一堆数字(比如像素的颜色、形状的坐标),然后算“这些数字有啥规律”——比如“尖耳朵的猫,耳朵部分的数字会呈现‘三角形’的规律”“圆眼睛的猫,眼睛部分的数字会呈现‘圆形’的规律”。
这个“算规律”的过程,需要处理的数字多到吓人:一张普通的图片,可能有几百万个像素点,每个像素点又有红、绿、蓝三个颜色数值,算一张图就要处理上千万个数字;要是教ai认猫需要100万张图,那就要处理10万亿个数字。
以前的计算机,算力不够,处理这些数字要花特别久的时间。比如早十几年,要训练一个能“勉强认对猫”的ai,可能需要一台普通电脑算几个月——中间要是电脑卡了、断了电,还得重新算。那时候别说“用ai做日常事”了,就连实验室里的研究人员,都得等好久才能看到结果。
但现在不一样了,咱们有了“ai专用芯片”——比如大家常听说的gpu(图形处理器),还有专门为ai设计的tpu(张量处理器)。这些芯片就像“超级高压锅”,处理数据的速度比以前快了几百倍、甚至几千倍。
举个例子:以前用普通电脑训练一个“识别图片里物品”的ai,可能要3个月;现在用ai专用芯片,可能只要1个星期,甚至更短。而且速度快了之后,ai还能“反复学”——比如第一次算完,发现“认错狗的概率有点高”,可以马上调整方法,再算一次,几天就能出结果,不用等几个月。
算力变强,还让ai从“实验室”走进了咱们的手机、电脑里。以前ai只能在超级计算机上跑,普通人根本用不上;现在呢?咱们的手机里都有“小算力”——比如拍照时的实时美颜,其实就是手机里的ai在“快速算”:几毫秒内,就把你的脸型、皮肤的数字算一遍,然后调整“皮肤的颜色数值”(让皮肤更白)、“脸型的坐标数值”(让脸更瘦),你按下快门的瞬间,美颜就做好了。要是以前的算力,拍一张照片,可能要等几秒钟才能出美颜效果,谁还会用?
再比如导航软件的实时路况:导航能告诉你“前面1公里堵车,需要绕路”,靠的是ai实时算“成千上万辆车的位置数据”——比如这1公里内,有多少辆车在走,每辆车的速度是多少,然后算“这些车的速度慢到多少,就算堵车”。要是算力不够,等ai算完“堵车情况”,可能已经过去十几分钟了,导航告诉你“堵车”的时候,你早就堵在里面了,一点用都没有。
所以说,“算力变强”是ai火起来的“加速器”:没有足够快的计算速度,就算有再多数据,ai也只能“慢腾腾地学”,永远没法“及时帮上忙”;只有算力够了,ai才能“学得快、用得快”,变成咱们能随时用的工具。
四、第三驾马车:算法变好了——ai的“学习方法”终于变“聪明”了
有了足够多的数据(原材料),有了足够快的算力(工具),ai就能“学好”了吗?还缺最后一个关键:“学习方法”得对——就像两个人一起学做饭,都有米、有高压锅,但一个人会“看火候”(比如煮米饭时,水开了之后要小火焖),另一个人只会“一直大火煮”,最后一个煮出来的饭香喷喷,另一个可能煮成“夹生饭”或者“糊饭”。
ai的“学习方法”,就是“算法”——简单说,就是ai用来“找数据规律”的一套“规则”。
本章未完,点击下一页继续阅读。