序员先生

投资学徒、软件架构师、重度汽车迷。为了完善系统性的认知框架而终身学习与实践。

AI Agent崛起,能否取代客户端APP?

2025-12-07

tableOfContents

在手机上,我们长期以来,都在忍受狭窄小屏幕上那些比手指头面积还小上几倍的输入法按键。早已忍无可忍!

苦于没有可替代的更好方案,于是我们强迫自己习惯了这种方式。

不止如此,更严重的是App的组织形态问题。我们常用的各类App的功能,是图书馆式的层层叠叠:

几个大Tab分类功能板块,

大Tab下面再加小Tab,

细节功能再加菜单,

菜单不够再加子菜单,

子菜单不够再加弹出菜单,

这还没完,依然有满足不完的需求,于是再在App设置里加上各式各样的自定义开关,

自定义开关太多了,又给开关加上菜单和子菜单,

再加上排序,编辑… …

没完没了地叠加下去。

整个App就像一个大杂烩,混乱不堪。

于是,人们觉得,AI Agent,作为AI在客户端上的交互口径,简洁、易用、无需学习记忆用法。直接理解用户口令,自动调用各类工具完成任务处理,只动嘴,想要的就送到你面前了。

所以,未来的软件研发领域,是以"用户意图"驱动的交互范式革命。

然后,问题来了。AI Agent会在未来的某一天彻底取代客户端App吗?

仔细思考后,我发现好像并不一定。

因为这里存在着几个大问题,会让这个取代过程充满不确定性。

1、 黑箱问题

如果我用AI订票,或者购物,看起来便捷轻松。

但是,AI展示给我的比价过程是AI完成的,可以是真实的,也可以是虚拟的,普通用户是无法辨别真伪的。这是涉及钱的事,有交易就有利益,比价的真伪,真的不好说。

用户不敢信任AI展示的价格真的就是合理的。AI背后的企业也是盈利机构,黑箱的模式,是没有可信任的基础的。

2、思维边界问题

目前业界热衷于通过记忆用户的习惯与历史认知,来试图打造一个真正懂用户的AI,以让用户和AI的沟通达到如臂指使的程度。但是我对这个目标的可行性有很大的怀疑。

因为人类的思维边界可能是最致命的问题,哪怕已经实现了AGI都不一定能解决问题。

我们在面对真人沟通的时候,也是充满了矛盾的。

例如表达需求时,专业训练过的产品经理和程序员沟通,也是充满了错误理解与沟通冲突的。何况用户要去沟通的还只是一个AI,并不一定真的具备真人的理解力,问题只会更严重。

人类历史上的 家庭冲突、管理冲突、社会冲突、甚至战争冲突,沟通与理解的错误都占据着重要因素之一。

而普通人的表达能力更糟糕,还不仅仅是表达能力问题。做过专业产品或心理学研究的人都明白:人们大多数时候人们并不清楚自己真正想要的是什么,他们只是误以为知道自己想要什么。

用户的脑子里,是一团浆糊,自以为进行了清晰的语言表达,实际上却是词不达意的,和真相大相径庭的。

这会是AI强大以后,人们依然觉得AI不好用,AI并不真的懂自己的一个致命问题。

3、责任人问题

AI只是对人类思维的模仿,并不是对精确逻辑机器的实现。。即使模仿到极致,也会和人类一样,存在犯错可能。

AI无法保障完全不出错,那么我们用Ai进行关键计算或生产流程设计时,如果出了错,制造了错误,经济损失,甚至引起致命事故。应该谁来负责呢?

AI供应商会觉得自己类似于水果刀厂商,水果刀扎错了地方,关他们什么事呢?

决定采用AI的企业或者政府负责人来负责吗?

那只会导致,他们决定放弃使用AI,或者一定会把AI的错误归咎到某个人身上,会有人愿意负责吗?责任人的不明确,必然带来无限的推诿,形成前进的阻力。这会显著的阻碍AI Agent取代普通App的速度。

4、商业边界问题

历史上每一次生产资料的重新划分,都伴随着流血冲突,甚至战争。

近期火热的 某大厂的AI手机助手,背后就是这样的问题。我另外一篇文章有一些相关思考:不要误判了新形态 AI 手机

这样的形态虽然正是用户所需要的,但却站在了全球互联网软件巨头们的对立面。人类的需求,科技的发展会推动一切向前,就像历史上重复过无数次的重大变革一样。

但我们翻开历史,看到的是浓浓的血腥味 与 过程中反反复复的曲折历程,这个历程的长度,往往超过普通人的大半人生的长度。没有那么容易。

总结:

在肉眼可见的未来,我们看到的大概率是一个渐进式的演变。

Agent会和普通App呈现一种充满竞争的矛盾共生关系,至于这个共生关系的模式和边界,正是现在我们这些从事App研发领域的人们需要思考和分析的。

这是一个充满变化的时代,也是充满机会的时代,有无数种可能性,就像蛛网一样密集的未来道路铺展在前方。

任由挑选。

谁是对?

谁又是错?

爱思考,爱突破的精英们,舞台很大,任由舒展!

坚持手工撰写.持续分享.欢迎关注