分享

愚蠢的人工智能

 古陵憨子 2021-02-02

愚蠢的人工智能

原创 博雅君

“在大数据时代,真正的危险不是电脑比人聪明,而是人们固执地认为电脑比我们聪明”。——加里·史密斯 耶鲁大学教授
人工智能的错觉

 | 博雅君

今天,人人都在谈论人工智能。但人工智能究竟是什么?AI的原理是怎样的?它未来的作用和局限在哪里?会对人类造成末日威胁吗?坊间的科普文和吸引眼球的标题党,好像除了制造焦虑、商业炒作和赚取流量外,并没有多少把这些最根本的问题讲清楚的。

今天就要和博友们分享一本关于AI的英文新书——《人工智能的错觉》(The AI delusion)。这是一本2018年在美国出版的新书,这本书相当烧脑,观点很具有颠覆性但论据严谨,非常值得一读。目前国内还没有中文版,我带你先睹为快。 人工智能是当下一个非常热门的话题,人们不仅设想着人工智能各种可能的商业应用,而且人工智能取代人类的科幻场景,也屡屡被畅销书作家和科技巨头们反复描绘。但今天要为你解读的这本《人工智能的错觉》,则毫不留情地向时下的人工智能热潮泼了一盆冷水。正如书名所宣示的一样,时下被热炒的人工智能只是人们一厢情愿的错觉。在作者看来,人工智能的所谓智能是炒作出来的,AI并不具备真正意义上的智能。计算机具有比人强大得多的计算能力,但计算机缺乏人类的常识和智慧。人们对计算机的盲目崇拜和对计算机的局限性的忽视,将为社会带来无穷的麻烦和危险。                                                     本书的作者加里·史密斯,曾在耶鲁大学获得经济学博士学位,并先后在耶鲁大学和波莫纳学院担任经济学教授。出版了《货币机器》、《简单统计学》和《运气的秘密》等十二部专著。博雅君曾读过史密斯教授所写的《简单统计学》,他把枯燥的统计学讲得妙趣横生。《简单统计学》这本书已经有中文版,非常推荐你也读一读。 简单来说,本书的核心主旨,就是要纠正当前人们对人工智能的迷信。史密斯教授认为:
“在大数据时代,真正的危险不是电脑比人聪明,而是人们固执地认为电脑比我们聪明”。
今天我将从三个方面为你介绍这本书的主要内容:首先,通过人工智能与人类智能的对比,我们一起看看,为什么说人工智能的“智能”只是一种错觉;其次,我们再来分析一下,为什么人工智能并不聪明?盲目迷信人工智能会带来哪些麻烦和危险;最后,来听听作者对于我们应该如何正确看待人工智能而给出的建议。 
首先,我们从人工智能与人类智能比较的角度,来看看为什么说人工智能并不智能。
我们早就习惯了科幻电影中对人工智能接管地球的夸张描绘,以及科技大咖们关于人工智能耸人听闻的预言。其中最具代表性的,可能要算奇点大学的创办者雷·库兹维尔在《奇点临近》一书中所提出的预言,即到了2029年,机器智能将超越人类智能,达到他所说的“奇点”,AI将具备所有人类的意识、智力和情感。史密斯教授则认为,诸如此类的“奇点”预言完全是一派胡言,因为现阶段人工智能的原理跟人类的智能根本不是一回事。 人工智能是指计算机模仿人类行为的各种活动,控制人工智能活动的计算机程序被称为算法,而算法就是人类事先设定好的,需要AI一步一步执行的规则。在人工智能发展史上,试图使人工智能模仿人类智能的努力,一直有两个派别,一派是直接模仿人类的大脑,试图使计算机能够像人类大脑一样思考;另一派则致力于提升计算机处理信息的能力,用计算机的计算能力替代人类大脑的某些功能。因为人类脑科学发展的限制,试图模仿人类大脑智能的一派,一直没有取得实质进展。而务实的后一派则借助计算机不断提升的数据处理能力,使计算机软件变得越来越实用。人们现在谈论和炒作的人工智能,其实指的就是这些数据处理能力不断增强,但并不会思考的计算机软件。在我们以图像识别为例,来看看人工智能和人类的智能有什么不同。图像识别是当前人工智能很重要的一个分支,人工智能是通过什么方式来识别一张图片上的内容的呢?图片对于计算机来说没有任何意义,只是一堆表示图片像素的二进制数字。计算机首先要分析数据库中数以亿计的图片,并创建这些图片的像素的数学表示。当它需要识别一张图片时,实际上是从数据库中搜索与这张图片的数学表示相同或相近的图片。如果计算机在数据库中找到了与目标图片的数学表示高度匹配的图片,那么目标图片就被识别出来了。整个图像识别的过程,只是在做数据分析,并没有什么智能。人工智能的其它应用和分支,比如智能翻译、知识挖掘、AI问诊等等,其实都是大量的数据分析,而不是像人类在做这些事情时所使用的智能。 人类不需要看过一百万只兔子之后,才能识别一张图片上画的是兔子,也不需要分析一张图片上的像素数学表示。人只需要看过一两件同类事物,就足以了解它的关键特征。因为人类具有抓住事物本质特征的能力,人能收集和分类过往的经验,并对这些经验进行比较、对比和组合。这就是人类智能的核心,也是人类智能与人工智能最大的区别。所以,不管我们看到笼子里的兔子,还是草丛里的兔子,我们都能够识别他们是兔子,因为我们能够轻易地把握到一类事物的本质特征。人工智能具有比人类强大得多的存储、分析数据的能力,但人工智能不能认识事物的本质特征。人工智能的工作方式与人类的智能完全不是一回事。所以,人工智能和人类智能是有本质上的区别的,所谓的人工智能只是一种盲目的错觉。 计算机不仅没有情感,不能理解事件发生的情境,更不具备对人类智能中,至关重要的批判性思维。人工智能进行判断时,只是在做数据分析,从大数据中发现具有相关性的模式。但相关性并不等于因果关系,过于迷信人工智能基于大数据的判断,会造成很多意想不到的大麻烦。
这就是今天要为你介绍的第二个部分的内容。 人工智能不会思考,没有人类的智慧和常识。人工智能的支持者认为,人工智能所得出的判断,都是通过大数据分析产生的,不掺杂个人感情,也不会受疲劳的影响,得出的结论肯定是理性的。但史密斯教授认为,恰恰是因为大数据,让人工智能给人类带来了很多大麻烦。 我们可以把人工智能看作一个统计软件,人工智能通过大数据分析,从海量的数据中捕捉到很多相关的数据类型。比如美国股市随时间涨落的数据趋势,与纽约气温升降的数据趋势之间高度吻合,那么人工智能就会得出结论,认为美国股市与纽约气温之间存在相关性,进而影响相信这一结论的投资者的投资决策。大数据分析确实可以寻找出很多出乎意料的相关模式,但也是造成错误和麻烦的根源,因为相关性并不等于因果关系。人工智能分析了成千上万种数据类型后,发现了两组数据中包含着相似的模式,这可以说明二者之间存在相关性,但不能说明二者之间具有因果关系,更不能说明二者之间哪一个是原因,哪一个是结果。
比如说,人工智能分析出了A和B之间具有相关性,那么A和B之间的因果关系就会有以下四种可能:
第一,A和B之间根本没有因果关系;第二,原因A导致了结果B;第三,原因B导致了结果A;第四,A和B都是原因C或D的结果。
而因素之间的因果关系,是人工智能的统计所无法判断的,只有人类的智能可以。人工智能分析的数据量越大,所涉及的因素就越多,就越有可能得出无意义的统计相关性,人们就越容易受到数据的蒙蔽。所以对于人工智能来说,数字仅仅是数字,不代表任何意义。它们完全不能分辨哪些统计相关性是存在逻辑关系的,哪些只是随机的巧合。
史密斯教授认为,寻找现实世界规律的最佳方法,是先从有意义的理论猜想入手,然后用实验或数据来验证这些理论猜想。也即是说,理论在前,而数据在后。比如牛顿发现的“万有引力定律”,就是先有了“万有引力”的猜想,然后才用实验加以验证的。而人工智能认识事物之间联系的方式则刚好相反,是数据在前,理论在后,从数据中挖掘出理论和模型。 有的人可能会认为,如果人们仅仅让人工智能分析数据之中存在的相关性模式,而人类则负责对这些模式加以甄别,不就可以剔除那些无意义的统计相关性吗?实际上,这是很难做到的,因为人工智能的算法是隐藏在黑盒中的。黑盒是一个计算机术语,通俗来讲,就是说人工智能的算法是不公开的,用户只能知道输出的结果。人们无从知道黑盒算法里的内容,也无法检查算法在运算过程中,是否存在逻辑错误、编程错误或其它问题。 而且,黑盒算法在处理大数据时,所输入的数据量是庞大而混杂的,这些输入的数据可能是天气、社交网站上的关键词、失业率、股价等众多变量,而人工智能只告诉用户一个结论,用户根本无法复盘算法的分析过程,以判断人工智能的算法输出的结果是明智的还是荒唐的。迷信人工智能的算法,除了会给我们提供无法验证的结果,误导人们作出错误的决策。还会导致一个日益严重的伦理问题——“算法歧视”。人与人之间因为肤色、性别、年龄、地域等歧视,是文明社会所不允许的。今天,如果某个人是地域黑或者性别歧视,马上会受到舆论的抵制和法律的约束。然而,算法对于不同人群的歧视,却随着人工智能的广泛应用,变得无处不在,防不胜防。 人工智能有一项在司法上的应用,叫“算法犯罪学”。“算法犯罪学”认为,人工智能算法可以从看似无关的数据中,提前预测出潜在的犯罪。这种预测犯罪的方法,看似科学,实则会产生大量的误判,并导致“算法歧视”。 如果一个算法发现吸毒与在网上购买狗粮、喜欢看喜剧以及每三年换一次新车之间存在关联。我们该相信算法荒诞不经的发现吗?这样的结果,很可能只是算法统计的误差,而算法又隐藏在黑盒中,销售犯罪预测算法的公司不愿意公布算法所关注的数据类型,人们自然无从证实算法的结果是不是对的。实际上,一项针对最流行的一款犯罪预测算法的研究发现,在被预测将在两年内犯下暴力罪行的人中,只有20%的人后来真的犯罪了。这个预测准确率显然太低了,如果人们迷信算法的判断,将会有80%的人被冤枉。而且,在被错误预测会犯罪的人中很多是黑人,这款犯罪预测算法是披着智能的外衣,进行种族歧视的。 迷信人工智能的算法,会带来很多错误的判断,并且还会导致无处不在的“算法歧视”。那么,在这个大数据,我们应该彻底放弃人工智能吗?我们应该怎样正确看待人工智能这项新技术呢?这就是今天要和你分享的第三部分的内容。 作者认为,人工智能带来的种种问题,不能完全归罪于人工智能这项新技术,人类对AI的盲目迷信才是罪魁祸首。真正的危险不是AI比我们聪明,而是我们认为AI比我们聪明,以为算法万无一失,不加审查地接受算法给出的结果。人类的智能完全不同于人工智能,只有在利用人工智能强大的计算能力的同时,充分发挥人类智能中的常识和智慧,人类智能与人工智能协同工作,互相补充,才能避免算法带来的灾难,并实现人工智能的真正价值。 我们生活在一个前所未有的大变革时期。计算机革命比工业革命更彻底地改变着人们地生活。计算机越来越强大,计算机在记忆力、运算速度和不知疲倦上,毫无疑问地碾压人类。我们越来越离不开计算机,但我们绝不能忽视了对计算机局限性的认识。 人工智能跟人类智能完全不一样,它们不会像人一样感知世界,甚至不知道真实世界是什么;人工智能没有人类通过生活积累起来的常识和智慧;人工智能只会挖掘数据,而不能像牛顿一样提出“万有引力定律”这样有说服力的理论;人工智能也没有写一首诗或一个剧本所需要的情绪、体验和灵感;人工智能最擅长的就是数据分析,除此之外,人工智能并不智能。 也许未来会有一天,人工智能也会拥有如同人类一样的智能,但从目前的情况看来,人工智能距离这一目标的实现还遥遥无期。作者告诫我们,要对电影里的科幻场景保持怀疑,并谨慎地看待商家们对人工智能概念的炒作。正因为人类智能从本质上不同于人工智能,所以今天我们比以往任何时候,都更需要充分发挥人类智能中的常识和智慧。 好了,让我们来回顾一下《The AI delusion》这本书的主要内容。首先,人工智能与人类智能有本质上的区别,人工智能缺乏常识和智慧,当下所谓的“人工智能”,只是人们在商家炒作之下产生的错觉;其次,人工智能的工作机制只是基于大数据的统计分析,并没有多少智能可言。如果盲目迷信人工智能的判断,会导致很多错误的决策和“算法歧视”;最后,在人工智能时代,我们不能忽视对人工智能局限性的认识,只有人类智能与人工智能协同工作,互相补充,才能避免算法带来的灾难,并实现人工智能的真正价值。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多