分享

人工智能的威胁不是战胜人类,而是人类过分依赖

 玖弋阁 2023-07-29 发布于上海

比尔·盖茨、埃隆·马斯克都认为人工智能将超越人类,人类终将成为机器的宠物。这个问题关键缺乏严肃性,压根站不住脚。

再强大的机器也不可能战胜人类的智慧。

——《理解和改变世界》约瑟夫·希发基思

这个论断来自于新书《理解和改变世界》,作者约瑟夫·希发基思专门在本书第五章讨论的人类智能和人工智能。他的依据在于信息学、知识结构和信息处理过程。

知识信息

人类社会就是信息系统。

人类在理解世界的过程中是基于目的的问题——为什么,本体论问题——是什么,认知论问题——如何怎样。

德谟克利特认为世界是没有最终目的的。柏拉图的设想是世界是有一个固定模式的,如果是有模式的,那他就是有目的的。亚里士多德也赞同大自然是有目的的,这个观点被后世的基督教神学家和哲学家所推崇。

作者认为不存在什么目的。目的论最终是靠修辞维系的虚假幻象,因为它本身不影响探究知识的方式,但是人们又不会放弃用目的论的角度去解释规律,虽然这在逻辑上是多余的。因为没有人能给质量守恒定律,赋予更崇高的目的,也没有任何理性的依据。

本体论是什么,第一个提出存在观念的是巴门尼德。他是以理性为标准,认为感觉不可靠,他说能通过理性来辨识决定和定义,对现实的理解可以简化为思想的解释过程。那么每个人看到的现实都会不一样。

存在就是它是什么,人们只能根据存在中抽象的理论,在精神上进行理解。如果两个或更多的理论都适用的时候,他们之间的关系是什么呢?可能是矛盾的,但至少他们存在是有可能的。

对立事物的和谐统一不会导致逻辑上的矛盾,这是理解存在的一种范式,不要将它们视为静态的东西,应将它们视为不断发展的过程。

认识论是对实际情况理解,也注重对问题的解决。由于意识是精神现象,所以会产生一个现象,就是从本体论的角度,意识是主观体验,但是从认知论的角度意识是客观的,它会有某种明确的方式确定。

信息学是对信息转化过程中的计算问题进行研究的学问,也就是我们可以计算什么以及如何计算。

信息可以定义为一种符号语言和一组概念之间的语义关系。符号语言是一组基本符号,它包括字母表和一些规则。符号语言需要对概念进行编码和表示。

这个过程中就产生了信息。真实有效的信息才有价值,这样的信息才是知识。人类拥有的元知识,就是对所掌握的一切知识进行整合、运用、决策。

人类智能与人工智能

物理世界和信息学的模型都是动态系统,都可以从一个状态到另外一个状态进行转化。这种转化都可以用系统状态和操作来描述。

科学知识是经验性的,但计算系统的知识是关于数学和逻辑,是先验性的,这种先验性体现在计算方面。

对于物理世界,我们可以用观察归纳的方法,但是对于计算机系统领域中,我们无法观察归纳。

本质上,计算机系统中具有离散性,内存中的微小变化可以根本上改变算法。这是人类无法观察到的。但计算机系统中的算法是以数学模型来确定的,所以又可以用数学验证来保证它的计算。

计算系统在连续性问题上是有局限的,无法计算连续性问题。如果要计算这种问题,就需要消耗大量的资源去支持它的计算能力。就目前来说,人类没有办法提供资源支持。

人类的思考方式有快思考和慢思考。

慢思考是基于我们理解事物的心智模式,这种模式和我们对计算机进行编程的计算模式类似。这是传统计算机模拟的。

快思考是有意识学习的结果,通过反复的训练,内化成一种自动模式,人工神经网络的计算模型和这个类似。快思考的人工神经网络模式,对信息的处理本质上是并行的。

人类智能的特征是能够把对感官信息的感知,解释信息的逻辑处理,以及可能导致行动的决策结合起来,这种能力是对现实中的规则和目标进行判断变化的适应能力。

如果人工智能想要取代人类,那么它就应该具备人类思维的适应性。换句话说,它能够在自主执行大量任务,并且能够适应不断变化的环境。

未来人工智能一定具有自主系统。所谓自主系统,就是类似人类的适应能力,根据环境做出判断决策。这是和目前计算机自动化系统最重要的区别。

自动化系统只是根据规定好的环境,设置固定目标,最终作出反应。但自主系统拥有更复杂的决策内核。

一个自主系统包括五个关键功能,两个是理解环境状况,分别是环境感知和状态表示;两个用于决策,分别是目标管理和策略规划,另外一个是赋予系统自我学习的能力,另外自主系统还需要配备有知识库。

这样的系统类似生物体的能力,“理解”外部环境,又要管理并实现多个目的。一个现实的例子就是自动驾驶汽车,它是最难实现的自助系统,因为它的环境是非常复杂的。反观自动化系统,它根本不需要这五个关键功能。

无论自主系统多么厉害,它的关键功能都是基于数学逻辑构建的系统,其处理信息的能力取决于能获取的资源。

换句话说,人工智能是不是能战胜人类,完全取决于人类能给它提供多少资源,发展它的计算能力。

真正的风险

作者认为,人类现在面临的真正风险是技术依赖。过于依赖人工智能技术将使得人们某些能力退化,比如决策能力。

当下没有任何一个第三方机构可以评估保证人工智能的安全性。这就带来了安全性风险。

如果在人类发展中的关键决策都依赖于人工智能,谁能预估其后果与风险?人类无法知晓人工智能如何计算出这样的决策,也就无法评估验证其后果与风险。

正如当下人工智能发展的过程中,许多人工智能提供的知识信息并非正确,而是由它拼凑出来。如果使用者无法辨别信息的真实性,那么这样的信息就毫无价值可言。

一个拥有元知识的人能够辨别信息的真实性,获得有价值的信息,但缺乏元知识的人无法辨别信息真实性时,人工智能就会成为他的神。

人工智能提供红药丸和蓝药丸的时刻,就是成神的时刻。

作者认为需要警惕这样的状况。

结语

约瑟夫·希发基思在《理解和改变世界》中,批评科学主义,批评相对主义,也批评当今媒体混淆各种信息,不去捍卫真实新闻的作为。

物质世界中的一切物质和非物质世界中的信息组成了我们所认识的世界。物质和信息是相互补充的。

他提倡要认识知识的边界,也要认识到人的局限,这需要了解科学技术和信息的本质。但科学技术只是信息中的一部分,还有一部分就是社会文化宗教信仰所组成。

作者到底如何将它们统一进自己的体系,就需要到这本书中具体了解。

【文/云玖弋】

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多