【异史氏曰】有个朋友说他想到一个东西,今天放在这里,待验证。看看我说的对不对哈,我突然发现AI人工智能时代给一个学科带来的春天是什么学科呢,就是哲学。哲学这门学科已经很久不被人们提起了,除了专业领域,但今天在众多的AI论坛上面,专家学者都在提哲学、都在讲哲学,说明哲学这个学科的春天已经来了,然后,未来如果要研究什么是最靠谱、最有可能生存下去的,可能就是研究哲学。
我回,因为哲学最好忽悠。
为什么哲学“最好忽悠”?
哲学探讨的很多概念(如“意识”“灵魂”“存在意义”“善恶”)本身就极其抽象,没有统一、清晰、可量化的定义。它们不像物理学定理那样可以通过实验验证,也不像数学公式那样有唯一的解。当概念模糊时,解释和定义的空间就非常大。一个人可以构建一套看似严谨、逻辑自洽但实则建立在主观定义上的哲学体系。听众很难从外部去证伪,因为没有明确的“对错”标准。这使得“贩卖”高深莫测的观点变得容易,因为你无法轻易反驳一个“我认为”或“在我看来”的观点。
科学理论如果无法预测现象或被实验推翻,它就失败了。工程学的产品如果无法运行,它就失败了。但哲学论断,尤其是一些宏大叙事或形而上学理论,很难被明确地证明“失败”。
一个哲学家可以提出一个关于AI伦理的框架,或者关于AI意识本质的猜想。即使未来AI的发展与他的设想完全不同,他也可以说“那是因为你们没有理解我的深意”“那是因为人类还没有达到那个哲学高度”“那是因为我的理论是超前的”等等。没有量化的KPI,没有可考核的产出,使得哲学讨论可以永远悬而未决,也永远有“解释”的空间。
哲学领域充满了大量专业术语、概念和漫长的历史脉络。不熟悉这些的人,在听到“本体论”“现象学”“结构主义”“后现代解构”等词汇时,往往会产生一种不明觉厉的敬畏感。当一个“专家”在AI论坛上引用康德、黑格尔或萨特,再结合AI当下的热点(比如大模型是不是有意识),用一套听起来非常高深、但又难以完全理解的语言来阐述观点时,听众往往倾向于认为那是自己知识不足,而非对方在“打太极”或“故弄玄虚”。这种知识不对称和智力上的“压制”是忽悠的温床。人们更愿意相信那些听起来复杂、高深的东西,因为它显得更有“深度”。
AI的快速发展,尤其是生成式AI的出现,让人们不得不重新思考“人是什么”“智能是什么”“机器是否会取代人类”“我们应该如何与AI共存”等一系列终极问题。这些问题本身就是哲学问题。当人们面对未知和焦虑时,会本能地寻求解释和方向。哲学在此时提供了一个看似能够解答这些深层困惑的“场域”。即使这些解答是抽象的、非实证的,甚至只是提出更多问题,人们也愿意去听,去相信。因为在彷徨中,任何一种看似有深度的思考,都可能被视为可以指引人类的前行。
AI发展到一定阶段,技术突破的瓶颈可能不是算法本身,而是伦理、价值观和人类社会的接纳度。这时,哲学被视为提供这些“软性解决方案”的学科。于是有人在讨论AI的“公平性”时可以上升到《正义论》,讨论AI的“决策”可以引入功利主义或义务论。这些讨论固然有其价值,但同时,也给了很多哲学家一个绝佳的平台,将他们原本可能曲高和寡的理论,借着AI的东风,包装成“时代前沿的洞见”,从而更容易获得关注和认可。进而借此捞取学术声誉或社会影响力。
简单来说,由于哲学的抽象性、非实证性、难以证伪的特点,以及人类对终极问题的渴望,使得哲学在“贩卖”看似深刻实则可能空泛的观点时,具备了独特的优势。当技术前沿急需伦理框架和意义指引时,哲学作为一种“智慧”,很容易被包装成解决问题的“万能药”,尤其是在一个充满不确定性、急于寻找答案的AI时代。
|