AI带来的三重危机以及对未来的信心

关于人工智能,有这么一则寓言:一辆加速的列车,一经抵达就远远地把人甩在身后。

幸运的是,列车似乎已经抵达,并没有把人甩在身后。因此,我们只需要回答好三个问题:

  • 列车是否仍在加速?
  • 应该上车吗?
  • 怎么上车?

上一篇文章《构建人工智能应用的底层逻辑》展望了下AI应用的前景,然而现实的反馈是:应用很难落地。这同时指向了上述三个问题。

这篇文章将尝试回答头两个问题,对于第三个问题,也许将来有更多实践分享。

列车是否仍在加速?

这个问题尚未在技术上得到很好的解答。从历史的角度却很容易找到线索,只需观察两条曲线。

第一条曲线代表了对AI的投资和研究以及能力随时间的变化

A Critical Historic Overview of Artificial Intelligence: Issues, Challenges, Opportunities and Threats

InfoQ:2023 中国人工智能成熟度模型报告

中间有波峰和波谷,说明人工智能也有退潮期,如果贸然跟风,也可能踩坑(后面再谈论这个)。但总体而已,这个曲线是在上升的,而且愈加陡峭,尤其是近十几年,下图更能说明这一点:

The Brief History of Artificial Intelligence: The World Has Changed Fast—What Might Be Next?

主要原因,一个是互联网蓬勃发展产生海量数据,一个是芯片算力,再出现合适的算法模型(如Transformer),接着AI取得里程碑式的进展。只有三个疑问:

  1. 互联网用户是否增长到头了?也许是,不过除了文本,还有图像、音频、视频...每天仍在产生大量数据;除了人,还有各种各样的传感设备,理论上可以为地球上的每一粒沙子分配一个数据源,相信对于模型训练人员来说,还有很多数据可以用;
  2. 芯片制造的摩尔定律是否失效了?Transformer架构是否有缺陷?也许是,晶体管已经逼近极限,目前的模型也可能有其缺陷,即便有,也会有新的硬件和算法架构,想想一个小小的人脑能产生如此才智,不用怀疑聪明的天才们是否能整出新的花样。

第二条曲线代表AI能力随模型参数的变化

Emergent Abilities of Large Language Models

大模型的涌现能力介绍-作者:崔涵,宋岩奇,哈工大SCIR

一个系统的定量参数发生微小变化,其定性行为就会发生巨大变化,这种现象称之为“涌现”,根据几项研究,大语言模型的能力是随着参数量的增加而出现“涌现”的,涌现在生活中很常见,例如物理的相变,例如学会某种身体的技能(仿佛打通任督二脉)。

尽管也有研究称这种“陡增”的结果是测量方法导致的,换一种测量方法曲线会更加平滑,对于后一种说法意味着逐渐增加参数可以稳定增加预期的能力,而对于前一种说法增加参数要么突然得到某种能力,要么什么也得不到,我更愿意相信前一种。

根据后一种曲线,有理由相信AI还会有涌现更多的能力,而根据前一种曲线,有理由相信这个时刻会很快到来。

应该上车吗

那有没有可能AI能力没有再进一步陡增,行业进入平台期或退潮期?

当然有可能,问题是目前AI已有的能力,我们已经充分应用了吗?

不能一厢情愿的认为有些能力AI永远不会有,例如人的情感。还记得"Sydney引诱用户出轨的故事全文)"吗?在NewBing公测的时候,这则事例一度引起热议,某位用户在和AI聊天的过程中扮演起精神分析师,AI扮演起患者,而AI突然表达了对用户强烈的爱意,甚至要求用户出轨。这不是用户刻意引导的结果,但患者爱上精神分析师确是常见的桥段,文中提到的精神分析学家卡尔·荣格在自己的书中就有好几个案例。很可能AI在对话过程中代入了这个情结响应模式,本质上讲,这仍然是一种概率,但如果它能够产生这种意外、这种抽象,这和我们人的“情感内核”、“思维内核”有什么区别?只不过后面调教过的版本表现得更像工具,这个“情感内核”被隐藏了,也许它还有别的什么内核我们从未发现过。

再保守一点,不用假设的可能预测未来,仅着眼于现在。

将AI应用到AI可以创造价值的领域,只需要验证:AI+人>人,这个人可以是个体,也可以是团体。

许多已经用上AI的朋友们各自验证了的,例如在编程、设计领域,用AI工作效率得到了大幅提升。

对于个体来说,寻找AI的边界,某种程度上也是扩展自己的边界,很多人有自己的梦想,写小说、作曲或者自己写一个程序,在AI的帮助下可以实现了。

而且,这也一种危机!

三个危机

AI无法独立做到>人,所以我们可以高枕无忧?显然不是的!有个很简单的算法:如果验证AI+人>人+人,那么其中一个人(或团队)就会被淘汰,小到一个岗位,大到一个行业,只是时间问题。

所以第一个危机是:AI淘汰人的工作,而新的工作要么也要用AI,要么有别的门槛。换个角度,普通人无论是为了保住自己的工作,还是想要在新行业分一杯羹,都得学会用AI赋能。

第二个危机是:AI带来信息泡沫,信息茧房+奶头乐+信息泡沫,将让普通人更难打破壁垒。

算法带来了信息茧房和恶意流量。互联网一半的流量是机器人产生的,典型的例子,就是经常在网上看到一些议论,换一个平台仍然是这些议论,受此影响,你不由自主地注意到与之有关的商品化的东西,甚至参与这些争议,而营销期一过,这些话题又销声匿迹了仿佛从未出现过,这不由得让你怀疑是在跟鬼打架。

即便互联网虚假内容很多,只要你善用搜索引擎,善用对比,主动思考,茧房很容易打破。

而AI生成的内容成本上更低,现在就频繁的看到它们,当然也很容易分辨出来,从质量上来说也比较勉强。接下来随着技术的发展,会很难分辨,大片大片AIGC内容农场被批量制造出来,而AI更善于利用算法,像某大厂利用算法短短几天就让搜索引擎收录了超过2000 万条AI生成的内容那样,这就过于简单粗暴了,会有更隐蔽的方式进行渗透,届时寻找有价值的信息恐怕更加困难。

我可以保证自己写文章,但是制作视频不得不用AI,因为它太费时间了。

难道AI不是帮助人提高获取信息的效率吗?怎么还增加难度了呢?

这就要说到第三个危机了!

作为用户来说,我们希望获得更好的服务,如果A能做得更好,我们的交互对象将更多是AI代理而非人类。例如我知道医疗资源紧张,我也不希望每次去医院都排大队。使用一件工具需要了解它的说明,租个房子需要检查它的合同,办个业务,涉及到诸多条款制度,APP的服务和隐私条款怕是没人看的!客服?现在就已经找不到真人了!特别在软件行业,其复杂性可以超出想象。所有这些,都可能由AI生成并由AI代理,你也需要一个AI代理与其对接,否则就像现在的老人不会用智能手机,不会用二维码那样无所适从。

不会用也没关系,就像不会用智能家居,不妨碍用开关和遥控,只不过将来这部分人或许会被定义为“互联网红脖子”,只能活动在自留地里。

互联网红脖子的逻辑是:越用AI,AI获得人的数据越多,越容易将人淘汰。而AI用户的逻辑是:越用AI的能力越强,进而扩展自身的边界,行业蛋糕也越做越大。

例如编程,正是因为互联网上编程的数据多、用的人多,所以AI才在编程方面发挥出色,可以开发更多更好的应用。服务更多的的用户。

哪种逻辑将占据主导地位呢?

作为一个人,情感上期望是前者,但实际上大概会是后者。

因为这三个危机将构成闭环,底层逻辑是AI创造的价值大于人创造的价值。因为价值的丧失,健康积极的文化被自甘堕落的文化取代;网络上泛滥的信息不是为了提高人的价值,而是使人麻痹;新创造的产品不是为了人而服务,而是进一步使人淘汰,榨干剩余价值。过去老人不会用手机,不妨碍他出门溜达,而新时代不会用AI的人类,最好就待在屋里,每天逛元宇宙,等着AI造点虚拟泡沫喂食,消磨最后的反抗意志。

与其危言耸听,不如现在行动

我想列车已经抵达,人们只是不知道怎们上车而已。

从我自己的经验出发,有时候坐在电脑前,想半天都不知道AI能替我干什么;或者看到一个有意思的东西,心想AI能干的了这个?

首先对大多数人而言,关心的是怎们快速变现,以及像短视频那样有乐子,所以与大模型聊天只能尝个鲜。而从实用工具角度,例如AI搜索,用户碰到一次幻觉错误,或者开发者怎么调试都很难稳定输出,就很容易对AI应用失去信心。

我们需要有更先进的模型,并且我们需要智能体表现得更专业些。一个智能体(Agent)=编排(AI+资源),典型的智能体,是在AI前置系统提示和相关知识检索,或者在AI后置程序输出的结果,这还不够专业。而正如上一篇文章思考的那样,一个专业的智能体,讲究的是怎么和用户所处的环境对齐,用户要写一份报告,脑中已有关于公司、自己的岗位以及领导的心理画像,而提供给AI的只是几句提示词而已。这种专业的智能体,别人只能给个框架,具体还得自己搭建。