周末跟一位体制内的老友聚,无意中聊到AI,我看友人的表情,疑似是用《三体》中的“冬眠舱”沉睡了十年。我太想当然了,以为所有人对社会科技趋势,“至少有个大概的共识”吧。2022年底,OpenAI发布ChatGPT,因其在文本领域的“里程碑式突破”,引爆了一波人工智能浪潮,持续至今仍不见衰。时隔一年多,它究竟发展到什么程度,能做些什么,对我们有哪些深远影响?比如,“深蓝”(Deep Blue),1997年国际象棋比塞中击败了冠军。但这种只能做特定规则范围内的智能,只能称为“某某自优化程序”,跟当下火热的AI不在一个赛道。另一类是直接与人类语言或行为互动的“AI”,背后其实是搜索引擎或推荐算法。用了一段时间,我感触最深的是,当下的AI,它真的是围绕“你的需求”去互动、去组织内容,而之前的只是围绕“关键字”(或行为)去搜罗内容。比如,我曾在哪看过“大海中与龙门有关”的禅机,想找它的出处,但我不知道这部作品名,甚至连它是不是一本书也不确定。于是用搜索引擎,不出所料,搜到的要么是“鲤鱼跃龙门”,要么是儿童故事或音乐,总之跟我的目标风牛马不相及。后来换成AI大模型,同样的描述,它告诉我:出自禅宗名著《碧岩录》第六十回。它能“理解”人类语言,于是能根据“你话的意图”而不是“你话里的关键词”去搜罗内容。这更符合现实情境——我最需要搜索的时候,总是出现在“我连搜索目标都还模糊不清”的时候。当我都知道目标的“关键字”时,我还要你搜索引擎干嘛?欣赏竞价广告么?同样的问题也出现在各类“智能推荐”上,我高频浏览某商品,它就老出现在“你或许喜欢”列表上。现实中,一个人反复高频搜某一类商品又叉掉,有没有可能他其实不需要这个,但需要的又找不到?诸如此类,这些统统可以归为“模糊需求”——是现实中更高频出现,也更“刚需”的需求。它理解人类语言,就能洞察你的意图,所以我说它能围绕你的需求去搜索或组织内容,这是它与早先的AI(围绕关键字)最大的区别。但机器的优势是背后近乎无穷的算法算力,「理解人类」可说是它额头上的那个「指数」。打个类比,AI的综合能力是以「算力」为底数,以「理解人类」为指数。不理解人类前,这个指数是个1,它只能做些最呆板最机械的活。理解之后,这个指数可以是10,可以是100,可以是N。一个亿的一次方不吓人,但一个亿的N次方,光是数字就能把人淹死。建立在「理解人类语言」的基础上,它就能代入人类视角去「学习更复杂的概念」。起初你嘲笑它的认知,就像是刚发明出来的火车,比马跑得还慢,但调适训练几次,它就能以千万匹马都无法拉动的力量奔跑,甚至能飞上天,后劲无穷。这就是硅基智能的优势,它可以无止境的「吃」,无止境的「内化」,而且不需要休息! 这正是当前AI的“初步成果”,它已经能输出人类「所需要」的各类文本,包括且不限于:甚至网站代码、表格、简历、PPT等直接作为职场交付物的内容了。当然,我们更关心的不是它能做这些——我画个火柴人那也是艺术呀。一段时间评测下来,我体验最深的是,当下的AI,最大的优点跟缺点都是,“AI痕迹”明显。我说的“AI痕迹”不是贬义,比如,让它出一些建议或分析报告,无论任何领域,它几乎能交出一份「全面」、「均衡」、「精要」的答卷。我们解决现实业务问题时,最忌讳的恰恰是「均衡」与「全面」。就像高考满分作文,它也就只能在考卷里满分,按现实职场要求,高考优秀作文实在是过于“学生气”。现实工作,无论哪类业务,最耗脑也最体现能力的实质都是“资源配置”的问题——一个项目,你手头资源(精力)有哪些,按什么步骤、什么组合、多少比例分配。比如,让你设计一份让人念念不忘的宣传材料。有经验的人都知道,打动人心的关键,一定是要突出某些,压抑某些——即一定要“不均衡”展示。“不均衡”虽然未必就合理,但「全面」、「均衡」却一定是错的。所以,在工作中,核心竞争力的体现是在“配置”上,这是专家最需要“动脑子”的地方,也是他们“值钱”所在——不是去指导什么该做,而是把一切不该做的事剔除掉。在于专家们将资源配置完之后,根据他们的要求,填充细节,作为算法与算力——实际上,这些工作原本恰恰是绝大多数初级XX师,XX助理干的活——是不是想到AI威胁最大的群体是谁了?当然,有人会说,只要数据训练的量级足够,专家资源配置的活,AI也能胜任吧?我得出上述结论,并非建立在AI当前的能力之上,我是把它们未来的成长性也考虑在内。我关注的是它们底层的“原生缺失”,这些“缺失”必将导致它们能力的缺陷。它无法拥有人类情感,没有个体意识,没有欲望、动机。我没有情感,但我填喂过“人类所有的情感状况”后,我就能知道,一个人在某种情境下,他是会喜怒哀乐还是会无感麻木。你想象下,剥夺一个人的一切感官体验(包括恐惧),你觉得他还会有任何欲望、利益、动机么?没有情感体验,AI就无法独立做价值判断——它的一切目标都得“预先导入”——但真实世界中,没有人能预判最优解。别说一个社会或特定人群,哪怕是一个人,就你最懂的「自己」,你能确定明天晚餐你就一定想吃现在最想吃的料理么?某系统出问题了,需要技术人员进大厦修理,但这个系统就是负责分配入门资格的,技术人员进不去,而门卫因为技术人员没有入门资格,就是拦住不让进。这位门卫,更像AI——无法根据当前情境做正常人都会做的“常识判断”。当然,AI比门卫谦逊的多,它很明确知道自己「不能做什么」。它反复强调“自己是基于历史数据和模式”,对于未知或实质创新——恕我无能。AI无法做价值判断,就无法在当前情境中权衡轻重缓急,我刚才提到专家最核心的事情了吧——配置资源。没错,AI能通过训练获得历史最优配置,但历史配置能否匹配当前情境或未知领域——这需要价值判断,需要人。*例子太多,比如,只要牵涉到伦理冲突或长远利益(必存在伦理冲突),AI就没辙了。 因此,只有人类专家才能做出这个判断——AI心里没底。只要是表面不相关的两个领域,它就很难充分挖掘两个领域间的内在关联,从而获得「智慧洞察」。分析多了,我发现,只将眼光放在教育体系内,得不到最优解。我就这类问题跟AI探讨,它能得出的也就那些全面、均衡的建议,再无突破。实际上,我很快直觉到——抛开校园与教育的范畴,将眼光看向职场,看向成年人社会,从那些表象不是霸凌的成人互动中,找到突破问题的关键。「少加点班」之所以能始终得到老读者错爱,显然不是因为我的文笔,最大的原因恰恰是专题中偶尔捕抓到的「深刻洞察」,而这些洞察绝大多数正是来自于「跨领域分析」,这是我的个人核心竞争力。或者从“慢性病的逻辑”中挖掘出“学习与持久性记忆”;诸如此类与实质创新有关的飞跃,AI仍只能“随机关联”——但因为价值判断缺失,要AI在众多“随机成果”实现最优解的经济效益实在太低。与「跨领域联想」类似的,还有一个重要的能力是「跳出领域边界」。比如,你要研究某国历史的复杂问题,那你就必须跳出该国历史去寻求解答。诚如歌德所说,不懂外语的人,就连自己的母语也只是懂得一知半解(He who knows no foreign languages knows nothing of his own),也隐含类似意思。无论是「跨领域联想」还是「跳出领域框架」,都是解决复杂问题——或者说的直白点,有极大潜在经济价值的问题——最依赖的能力。而这类能力当前AI很难获得的,因为其中的鸿沟不是“算法或算力”可以弥补,它需要「价值判断」,需要动机、利益、情感、个体意识的参与——而这正是AI与Human的最实质区别。工作很多时候是服务老板/投资人/领导的情绪,是察言观色与人情世故,这方面,AI就更头疼了。所以,当前的AI大模型,哪怕继续优化升级到极致,仍然无法取代人类专家——因为这对AI而言超出了能力范畴——它没有情感,没有个体意识,也就无法“涌现”最关键的人类「价值判断」的能力。某种角度看,AI更像一个彻底抛弃了低级趣味、连生命意义都不在乎的「纯粹圣人」,它固然可以告诉你一切事实性知识,但却无法指导一个有血有肉的人如何生活。用AI实现精细的手工活,经济效益非常低,在肉眼可见的未来,无需担心。从AI的原生缺陷反推,我们不难得出,凡是不涉及情感、不涉及价值判断的一切工作,像是“遵从指令”、“按部就班”、“逻辑推理”、“分析归纳”、“事实性知识”等等那些容易用“效率”去度量的工作,都是AI潜在的顶替项。按人类社会的习惯,经济效益总是主导目标。换句话说,薪酬越高、可自动化程度越高,那么就越可能被率先“优化”。不考虑社会因素,AI将导致基础岗的坑位急剧减少,同时,将进一步提升高水平人才的产出质量。宏观来看,短期内阵痛在所难免,但长期来看,大量冗余的人员必将衍生全新的需求与市场。只是无论将来的新业务是什么,把AI耍的像今天“电脑打字”般炉火纯青,肯定是未来职业的趋势了。前阵子,我经常看到各类“教人如何使用AI 的培训”,这些人喜欢强调一项“能力”——如何向AI提问。这些现存的“原始人”总是先听到轰隆隆的声音,然后看到飞机,于是他们得出结论:模仿轰轰发声,迟早就能召唤飞机。没错,让AI输出内容,得确是通过发问驱动,但发问仅仅是最表象的东西,提出高质量问题的关键从来就不在于“发问技巧”,而在于“你对该业务领域的认知深度”。这类培训大受欢迎,让人不禁替这些白领们担心,AI取代他们可能还真用不了多久。由于历史原因,我们的教育模式在当初定位的时候,就是想着培养“拥有丰富知识”且能创造性解决按部就班听话的“高级人才”。谁想这模式下培养的能力,恰巧碰瓷了AI最擅长的领域。显然,AI进一步放开普及之后,彻底的教育变革也是势在必行了。这场变革虽然会威胁很多人的饭碗,但对于机敏睿智的人,其实也意味着历史机会。那么,未来我们还需要记忆事实性的基础知识么?像是外语之类的,还需要学习么?
|