AI 的轻应用开发只是热闹一时
这篇文章写于2024年1月15日,现在分享到博客上来。
我自己也开发过GPT,对话数超过10k,评分4.5,算排名靠近,不过我也早早取消了Plus订阅,改用API了,那对我来说更好用。
GPT是OpenAI推出的定制版ChatGPT,有点类似于微信小程序。定制门槛很低,最简单的直接在聊天框上提需求,构建器会自动帮你创建好,然后还可以分享到商店来赚取收益。
在这篇文章中,我得出几个结论,如果您有不同的看法,欢迎探讨。
1. GPT应用真正能落地的场景很有限
这个结论也同样适用于国内AI平台。
为了理解这点,我们需要回顾一下Prompt和Agent,即提示工程和智能体代理。
简单来说,大语言模型根据前文生成后文,而Prompt就是利用模型的这一特性预设某些提示以规范输出,例如角色扮演,Agent的骨干也是Prompt,通过特殊的提示让模型能够与外部服务及私有数据结合起来,更加垂直化。
提示和代理提供了无限的想象空间,大模型如同压缩了世界知识的宝藏,提示词如同密钥,有什么样的钥匙就能开出什么样的宝石。而代理将自然语言赋予了创造的魔力,如同咒语般从石头中长出三头六臂。
GPT的高级玩法就是智能体的组合,意味着ChatGPT从简单的文本聊天框升级成为代理万事万物的一站式应用生态,随着生态的完善,一切都在聊天中进行,自动化个性服务,用户不需要学习背后的软件,也不需要手动配置它们之间的协作。如同过去手机上的UI界面及触控操作使得计算机学习成本大幅降低,自然语言及多模态对话使门槛进一步降低,AI时代的流量入口仿佛就在眼前。
但是,这就要说到但是了,为什么说它很难落地?
模型基于概率生成内容这一特性意味着它没法像机器指令那样确定结果100%正确,这被称为幻觉,GPT-4幻觉率大概在3%。
假设一个自动化流程中有10个步骤依赖GPT-4生成,那么最终成功的概率只有不到四分之三,错误率呈指数级增长,开发者将缺乏足够的信心,因为无法像调试程序BUG那样解决问题,反复优化半天,这次提高了正确率,下次可能出现更糟的结果,非常玄学。
另一方面,模型生成的速度、响应延迟也让它很难适用于快节奏的生活,其中娱乐是最大的需求,只当作工具与像刷短视频那样泡在上面在流量上有本质区别,根据有关统计,GPT的使用场景集中在编程、学术、设计、营销等方面,基本上出于工作需要。
此外价格、上下文长度、使用频次限制也是重要的制约因素。
乐观点说,模型在迭代,以上问题都能得到改善,目前服务商和独立开发者们都有积极的意愿将更多的应用带入AI领域,这将说到第二个结论。
2. GPT商店在国内注定水土不服
国内用户首先需要一个能稳定登录ChatGPT的网络,并花20美元一个月订阅Plus,于是99%的人被拒之门外了。
假设你都搞定了,会发现ChatGPT上面支持的第三方服务,包括通过Zapier连接的,能用的很少,我指的是外部工具,比较常见的有Trello、Notion等,屈指可数!
对于国内企业来说,不太可能让自己的平台接入GPT,这涉及到法律问题。国内可能会是另一种生态,这是因为SaaS软件行业不成熟,短期内统一的类GPT应用市场恐怕不会出现,通常由服务商在AI平台入驻或者在自己的软件上集成,而不是由用户自己或独立开发者进行定制,个人申请平台的API接口也比较麻烦,有些常用的软件例如个人微信,接口并不给开放。既然不能定制,那就和插件没什么区别了。
3. GPT开发不会成为热门赛道
第三个结论不言自明,尽管GPT商店刚上线就有300万个应用,那是因为创建太容易了。
当然也不是没有机会,垂直领域挖掘、IP化运营。在国内开发也有ToB这个方向,随着AI的火热,提示工程的确成为了一种真实的行业需求,招聘网站上有许多企业提供这种职位,媒体宣传的年薪百万或许夸张了,月薪过万却是普遍。
还可以做的是在API上套壳!有许多开源软件,开源的好处之一是可以接入多个模型,包括自己本地部署的,开源在私有定制方面也更具灵活性,Prompt,Agent、RAG检索增强生成,这些也都是开源软件先用起来的,诞生了LangChian、AutoGPT等一众热门项目,这方面无论企业还是个人都有私有化部署的需求。
评论