分享

西部世界|投了1亿美金,只讨论了一个哲学问题?

 天道酬勤YXJ1 2016-12-18

警告

本文烧脑,较考验阅读者耐心

全文7312字,阅读需15分钟

西部世界|投了1亿美金,只讨论了一个哲学问题?

据说,通读全文的人会变聪明

讲真,聊《西部世界》这种神作,阿甘是犯怵的——太烧脑!!

本剧的导演与编剧就是个猛人:

乔纳森·诺兰

他有个更猛的哥哥叫:克里斯托弗·诺兰,就是那个咱经常挂在嘴边,拍了《星际穿越》、《黑暗骑士》和《盗梦空间》的诺兰。

其中,《星际穿越》和《黑暗骑士》是这哥俩儿的联合编剧。

好莱坞果真盛产葫芦娃,除了沃卓斯基兄(jie)弟,科恩兄弟,现在更有了诺兰兄弟......

打开百度,随便搜一搜就会发现,与《西部世界》高度相关的一个关键词是:乌托邦。

是的,乌托邦,一个架空的世界。

这是一个主题公园,同时也是一个大型多人线下角色扮演游戏——地图是美国西部片风光,NPC都是机器人,玩家与机器人互动,就可以开启游戏剧情线。

用时髦的话说:这是个沉浸式现场娱乐。

西部世界|投了1亿美金,只讨论了一个哲学问题?

只不过娱乐的方式比较跳脱:

玩家完全不用管游戏剧情,为所欲为——看上哪个妞,随便睡,想杀哪个人,随便杀。

西部世界|投了1亿美金,只讨论了一个哲学问题?

西部世界|投了1亿美金,只讨论了一个哲学问题?

当然,他们都是机器人:未来科技3D打印技术制造,瞳孔、骨骼、肌肉高度仿生,保证玩家刀刀见肉,枪枪见血。

西部世界|投了1亿美金,只讨论了一个哲学问题?

连肌肉纤维也做了出来。

西部世界|投了1亿美金,只讨论了一个哲学问题?

甚至大脑也是仿人脑制造的,有左右半脑,还有胼胝体。

每个机器人都有自己的故事线,也有着不同的性格特征。

妓女的媚态,老鸨的精明,小镇姑娘的纯真,各有风情。

西部世界|投了1亿美金,只讨论了一个哲学问题?

游客想干嘛就干嘛,HBO(你懂得)的片子,是不是很爽?

人性的阴暗面暴露无遗!!

但如果只是讲人性,这部美剧可绝对不会有这么火,要知道机器人才是这片子的主角,他们的挣扎和觉醒才是重点——白天被烧杀抢掠,晚上回园区修理重置调试,第二天,再被新的玩家虐杀——机器人永远不会暴乱,他们所有的感知和行为都是代码写好了的,所以他们连苍蝇都不会杀一只。

看到这里,阿甘以为《西部世界》又要走机器人电影的老路了:一个机器人率先觉醒,带领众多机器人反(jiu)抗(zhu)人类。

至于机器人如何觉醒?如何获得自我意识?如何拥有人类情感?

说不清!

比如《我,机器人》,设定AI拥有“自主学习能力”,于是机器人桑尼随着主角出生入死,后来学会了幽默。

比如《机械姬》,设定机器人拥有“自我意识”,于是靠撒谎,爱娃获得了自由。

至于“自我意识”的产生,这一究极哲学命题,被轻轻放过了。这就好像科学家们告诉你宇宙是由奇点大爆炸产生的,但奇点之前是什么,答案是没有之前。

西部世界|投了1亿美金,只讨论了一个哲学问题?

所以说,诺兰就是这么任(da)性(dan),投了1亿美金,拍了十集电视剧,他只讨论了一个问题:

《西部世界》中的机器人为什么能够获得自我意识?

西部世界|投了1亿美金,只讨论了一个哲学问题?

最初,机器人是没有自我意识的,他们的行为来自于程序,所有的机器人每天都会被回收,测试,格式化,重启。

测试机器人,也就是在测试程序。

诺兰用机器人/程序被测试的过程,向观众展示了机器人是如何运行的:

程序员主要通过语音向机器人输入指令:

第一集开头,机器人Dolores一动不动的坐在椅子上,听见有人对她说:

“你能听见我吗?”

“能”

“去掉口音”

(于是Dolores口音变了)

“知道自己身在何处吗?”

Dolores回答:“我在梦中。”

看,听到语音指令,机器人修正了自己的口音!而机器人以为自己是在梦中,这个关于梦的认知,可能是之前程序写好的——只要给机器人编程,机器人就会以为自己在做梦。

接下来,程序员与Dolores有一段很长的对话(调试/测评)。

“告诉我你对世界的看法”

Dolores :“有人选择看到这个世界上的丑恶,看到无序的混乱,我选择看到美好”

“我相信世界是有秩序的,相信生命有其目标”

这几段对话的目的是什么呢?

阿甘认为,这是在测试机器人的世界观有没有崩塌。

为什么要测试世界观呢?

以下是阿甘的推测:

在西部世界的设定中,机器人的核心代码=世界观;动作、表情、声音这些日常行为=其他代码:

1、机器人的日常行为受世界观控制,即核心代码控制其他程序;

2、机器人遇见玩家时,激活并开启事先设定好的剧情线,这时候,机器人的所有行为,都来自于剧情/编程,世界观稳定了才能保证行为的稳定。

测试世界观,也就是在测试机器人是否安全。

然后,程序员测试了机器人的自我认知,他继续问道:

“你对客人怎么看”

Dolores答:

“你说的是“新住民”吗?”

“我记得父亲的教导:我们都是这个世界的新住民。”

心理学上有一种说法:人类的大脑只相信符合它信念的东西,这就是所谓的盲点效应。

显然,程序员给机器人写了类似的代码,植入了相似的信念。

“我们都是新住民”可以理解成“新来的访客与我们区别不大”,植入这一信(代)念(码)之后,机器人对自己和玩家的差异就不敏感了。

西部世界|投了1亿美金,只讨论了一个哲学问题?

剧中,机器人每日的生活会按编好的“故事线”循环往复。

Dolores的设定是一个善良、单纯、热爱绘画的小镇姑娘。

西部世界|投了1亿美金,只讨论了一个哲学问题?

俗称傻白甜

西部世界|投了1亿美金,只讨论了一个哲学问题?

她的剧情是,每天从自家农场骑马去小镇购物,再到河边画画,晚上父亲被强盗杀死。日复一日。

Dolores会不会对这种重复产生怀疑呢?会不会因为和玩家的互动,使得AI产生了其他的想法呢?

于是编程者追问——

“你觉得你的世界中有矛盾吗?有反复吗?”

Dolores回答:

“每个生命都有它特定的轨道,我的并无不同。”

“但我还是止不住好奇,会不会在某一天,某个机缘巧合会改变我的人生方向。”

AI程序运行完好:

“重复的生活”得到解释——生命有其特定轨道,大家都一样。

“被游客打破循环”也有了解释——机缘巧合改变了人生方向。

西部世界|投了1亿美金,只讨论了一个哲学问题?

由此,一个机器人AI,对世界、对人、对巧合的自我认知都被测试好了。

程序员围绕核心信念——世界观,构建了机器人AI,每日调试检查核心信念,保证机器人AI(性格和行为)不出偏差。

从整个测试过程可以看到,没有自我意识的机器人,运行方式如下面这张草图:输入-处理-输出

西部世界|投了1亿美金,只讨论了一个哲学问题?

这样看起来,西部世界中的机器人只是高科技仿真产品,他们永远不会有自我意识。但是,管理者们的担忧又笼罩着整部剧,他们每天都会测试机器人是不是可靠,他们总是在担心着什么,他们一直在害怕机器人的觉醒——因为这事儿30年前真的发生过,并造成了机器人杀人的惨案——游戏的创建者们原本想打造深度沉浸的游戏体验,但没想到自己真的造出了“活人”。

西部世界|投了1亿美金,只讨论了一个哲学问题?

那么,西部世界中的机器人,是如何获得自我意识的呢?

在回答这个问题之前我们先看一张图:

西部世界|投了1亿美金,只讨论了一个哲学问题?

这张图,是机器人的制造者之一Arnold,在解释机器人产生自我意识的过程时画的图。

在剧中,Arnold原本以为,只要机器人有了长期记忆,并能够即兴发挥(AI拥有了创造力),机器人就有可能获得自我意识。

Arnold为什么这么想呢?

因为长期记忆=经验,一般来说,没有经验积累的大脑无法产生有体系的思考。所以,长辈们经常会说:我过的桥比你走的路还多,我吃的盐比你吃的饭还多;也有逗比装B(chaojia)的时候会说:我做什么什么事的时候,你还是液体;大概都是这个意思,即经验很重要。

即兴发挥=创造,有经验没创造力,机器人仍旧会按照既定的程序做事,而即兴发挥源自机器人AI,其可凭借经验与环境反馈,在一定程度上自我编程。

在《西部世界》中,机器人本来是不可能拥有长期记忆的,因为公园的管理者们每日都会像网管清硬盘一般,格式化机器人的记忆。

后来,一些机器人获得了部分记忆,同时可以即兴发挥了:

Arnold的合伙人Ford(西部世界公园创立者之一)给一批机器人添加了一个小程序:

冥思(强力数据恢复软件+AI)

西部世界|投了1亿美金,只讨论了一个哲学问题?

这个小程序(AI)可以让机器人“即兴发挥”出一些小动作,这些小动作还绑定了机器人的记忆碎片(即冥思可以提取出机器人的记忆碎片,并将之与一些即兴发挥的小动作联系起来。)

这样,园区里的一批机器人,既能够触碰到长期记忆,又能够即兴发挥,假以时日,就有可能获得自我意识了。

但是,Arnold的想法落空了。

大多数添加了“冥思”程序的机器人,还没等到拥有自我意识就疯掉了,表现形式多种多样,比如:口歪眼斜、结巴、不停眨眼……

西部世界|投了1亿美金,只讨论了一个哲学问题?

明明是升级机器人,怎么给弄疯了?

事实上,创始人Arnold最早做机器人自我意识实验时,就弄出了一堆精神病,同时他也大受刺激,便更改了“自我意识”的进化模型。

Arnold发现,机器人自我意识模型,不应该是金字塔形的,而应当是个迷宫,机器人在其中探索,可能走向疯狂,也可能更进一步。

西部世界|投了1亿美金,只讨论了一个哲学问题?

那机器人为何会发疯呢?

阿甘的猜测是——

人类拥有自我意识,就会思考“我是谁?”

拥有完整的自我意识,人类就能够回答“我是谁?”

即自我定义——想象自己是个什么样的人。

但“我是谁?”也是让人抓狂的问题,当人们开始自问这个问题时,往往意味着怀疑自己,推翻自己。

“我是谁”思考的多了,会不会发疯?当然会,比如西毒欧阳锋。

那么,那些拥有“长期记忆”和“即兴发挥”后发疯的机器人,是被“我是谁?”这个问题逼疯的吗?

是的,机器人是因为搞不清楚“我是谁”疯掉的。

在解释这个论断之前,我们再看一张图:

西部世界|投了1亿美金,只讨论了一个哲学问题?

Arnold基于二分心智论为机器人设立了心智体系。

西部世界|投了1亿美金,只讨论了一个哲学问题?

Bicameral Mind(翻译成两院制思想)即二分心智论,来自心理学家朱利安·杰恩斯。

他认为在3000年前,人类意识的发展还不成熟,原本是右脑(感性的、创造性的自我)对左脑(理性的、工具性的自我)传递信息,却被古人认成了这些信息来自于神。

右脑向左脑传递信息的方法,有时是以声音的形式出现的,有时是以画面的形式出现的,因此,古人在做梦、看到幻象或幻听的时候,就以为这是“神谕”。无论是希腊城邦、犹太部落、还是玛雅人都能听到“神谕”。

古人的“幻听”和“幻象”极其生动,历历在目,这一点在小孩儿的身上也很明显,许多孩子容易将“梦”与“想象”当成“现实”。

“梦”“幻听”和“幻象”都来自潜意识,潜意识储存了大量碎片化的长期记忆。

孩子慢慢长大,古人和文明发展到了现代,孩子慢慢识别了记忆碎片,现代人也逐步接受自己的右脑。

识别记忆碎片或者左右脑的对话是要花时间的:

这就解释了为什么西部世界里一些拥有“冥思”程序的机器人马上会发疯——机器人每日都被格式化记忆,一下子来了好多记忆,TA没有办法区分什么是回忆,什么是现实。

并且,在格式化的基础上,程序员还给机器人编了新身份,这个新身份有着新的自我信念和生活背景。

当机器人通过“冥思”接触到“记忆碎片”时,犹如一个正常人类先被搞失忆,再被灌输假记忆,等他慢慢适应了,又被丢入回忆的漩涡里。

这个正常的人会不会发疯了似的问自己:我究竟是谁呢?

而机器人更可悲,二分心智体系,让机器人“回忆”的展现形式,清晰如现场直播——程序员称这个过程为“闪回”。

当这些机器人接触到长期记忆后,就会活在一会儿自己是牛仔,一会儿自己是保安的世界里。(记忆碎片重复闪回)

西部世界|投了1亿美金,只讨论了一个哲学问题?

第一集中的农场主机器人,现任身份是Dolores她爹,发疯后,他一直在重复前一个NPC角色莎士比亚戏剧教授的台词。

因此,分不清回忆和现实,是机器人自我意识觉醒的一大绊脚石。

但有三个机器人疯了一阵最终恢复正常态。他们分别是:

Maeve,Dolores,Bernard

阿甘认为,这三个人描述了机器人自我意识觉醒的四个阶段——

Maeve是自利,Dolores是自我对话,Bernard是自我怀疑与自我接纳。

西部世界|投了1亿美金,只讨论了一个哲学问题?

先来聊聊觉醒了自利的Maeve

她现有的NPC身份,是甜水镇上的妓院老鸨。

西部世界|投了1亿美金,只讨论了一个哲学问题?

曾经的NPC身份,是一位母亲。

西部世界|投了1亿美金,只讨论了一个哲学问题?

拥有“冥思”程序后,Maeve暂时出现了语言系统故障问题(BUG),她正在和客人聊天儿,开始结巴,然后怔住。

Maeve在剧中有这样一段台词:

如果发现自己在噩梦中,就闭上眼睛,从三开始倒数,3、2、1,你会在自己温暖的小床上醒来。

这意味着:Maeve不仅能区分“梦”和“现实”,还有从“梦”中醒来的方法。

所以,Maeve在看到过往记忆碎片闪回后,能定定心神,继续正常行动。

Maeve成了剧中第一个不会为记忆闪回发疯的机器人。

同时,越来越多的记忆碎片拼成了一段段完整的记忆。Maeve开始怀疑所处世界的真实性。

最可怕的是,她一次噩梦后,她通过倒数“3、2、1”的方法,从“编程之梦”中醒来了。

西部世界|投了1亿美金,只讨论了一个哲学问题?

先解释下编程和梦的关系:

为了避免编程过程忘记被格式化,让机器人留下印象,机器人被设定拥有梦境的概念——他们会将编程过程,当做一个梦,即“编程之梦”

前文提到了机器人的意识构建来自二分心智论。简单的说,即创造脑向理智脑发出语音指令,理智脑负责执行。

古人将创造脑对理智脑的信息传递,当成了神谕,机器人同样会将右脑向左脑传输的指令,当成神谕

在编程梦中,公园管理者或者程序员,替代了机器人创造脑(创造脑被关闭)的角色,直接向机器人理智脑传输信息,他们也就成了上帝。

从造物和造物主的比喻上来看,人类也的确是机器人的“上帝”。

Maeve从“编程之梦”中醒了过来,看到两个人类正在给自己做手术,从此开始了奔向现实的逃亡之旅。

Maeve渴望逃出“西部世界”,意味着自我意识的觉醒吗?

答案是否定的。

第一,《西部世界》第一季第十集揭示了Maeve之所以能够逃跑,是有人给她植入了“逃跑”的程序,详细到步骤。

第二,当被问到:“你有思考过为什么自己要逃跑吗?”这个问题时,Maeve显得怒不可遏,她从未质疑过自己做一件事情的动机。

而我们知道,拥有自我意识的人类,在做重大决策时,一定会想想自己“为何要这么做”。

西部世界|投了1亿美金,只讨论了一个哲学问题?

但阿甘仍然觉得,Maeve的种种行为,阐释了机器人迈向自我意识所必经的两个阶段。

一是分清“幻象”和现实,这里的“幻象”是梦境、记忆闪回的统称。Maeve在能够分清“幻象”和现实的区别后,保证了自己陷入回忆时不像其他机器人一样发疯。

不发疯,也让Maeve能拥有更完整的长期记忆。

二是自利,西部世界中的许多机器人,被写入了不能伤害任何生物的代码,哪怕苍蝇爬到身上,都不会打一下。Maeve为了逃跑,不管三七二十一,杀多少人都无所谓。

自利是即兴发挥的升级版,即当即兴发挥生效,机器人可以自己做选择时,他们做的选择可以冲破一些规则限制(如不能杀人),而做出利己行为。

这时的Maeve更像一只雌豹。

西部世界|投了1亿美金,只讨论了一个哲学问题?

再来聊聊代表自我对话的Dolores:

被植入“冥思”这个程序后,Dolores开始偏离自己的故事循环,向记忆中的教堂小镇奔去。

这个过程中,Dolores的内心戏是这样的——

一会儿自己穿着牛仔装(幻象?)

西部世界|投了1亿美金,只讨论了一个哲学问题?

一会儿自己穿着蓝裙子(幻象?)

西部世界|投了1亿美金,只讨论了一个哲学问题?

一会儿又听到一个叫Arnold的人对自己说话(幻听?)

西部世界|投了1亿美金,只讨论了一个哲学问题?

这都是Dolores的记忆闪回。

如此频繁的记忆闪回,Dolores没有发疯,也没能像Maeve那般能分清“幻象”和“现实”啊?

阿甘猜测的原因如下:

Dolores一直扮演着小镇少女的角色,她的故事背景和核心信念都没变动过,就是世界观一直以来都比较稳定,因此,她不会像其他机器人那样,出现身份错乱的记忆闪回后,核心程序立刻崩溃发疯。

Dolores离教堂小镇越近,旅途中被唤醒的记忆越多——

三十年前,《西部世界》建立初期,Arnold为了让Dolores拥有自我意识,为她开了很多小灶:如聊天、读书、玩迷宫游戏等等。

当Arnold确认Dolores快要拥有“自我意识”时,为了让可能进化出自我意识的机器人不被人类玩弄,强行给她上传了一个杀手人格。

于是Dolores开始在公园内大肆屠杀,并亲手杀了自己的恩师 : Arnold。

西部世界|投了1亿美金,只讨论了一个哲学问题?

回忆起这一切,对Dolores来说,是多么痛的领悟!!

痛苦之中,她内心的幻象对她说,看清楚,是谁一直在对你说话。

Dolores看见,对自己说话的正是自己。

西部世界|投了1亿美金,只讨论了一个哲学问题?

能够进行自我对话,恐怕是机器人踏向自我意识道路上的非常重要的一个阶段。

再回到二分心智论:

古人将创造脑向理性脑传递的信息,当作神谕。

西部世界的管理员与工程师,充当了机器人的右脑,向机器人的左脑发布指令,机器人将管理员与工程师的话视为神谕,将人类视为上帝。

机器人为“上帝”活,为“上帝”死,一切听从上帝指挥,怎么可能产生自我意识。

除非,机器人能够做到自己与自己对话,自己号令自己。

就像朱利安对二分心智崩塌的描述:人不再听到“神谕”,而更多的人意识到那是自己对自己说话。

这时,才可能产生自我意识。

当Dolores做到自我对话之后,她产生自我意识了吗?

并不完全

在第十集,公园创建者Ford问了一个很尖锐的问题。

西部世界|投了1亿美金,只讨论了一个哲学问题?

Dolores没有回答。

事实上,能回答“我不知道”时,意味着机器人开始思考,意识开始觉醒。

西部世界|投了1亿美金,只讨论了一个哲学问题?

而能够问“我是谁”意味着机器人开始反思自我,拥有了意识。

俗话说:有意识的做某事,就是这个'意识'

西部世界|投了1亿美金,只讨论了一个哲学问题?

比“我是谁”更重要的是:“我想成为谁”。

“我是谁”是一个总结过去经验的过程。

“我想成为谁”是一个展望未来的过程。

两者结合,才能完成自我定义,才算真正拥有自我意识。

Dolores最终拿起了枪,又一次开始杀人,这一举动更多是受过往经验的影响,Dolores并没有从未来的角度思考问题。

因此,阿甘认为:Dolores不是完全拥有自我意识的机器人。

西部世界|投了1亿美金,只讨论了一个哲学问题?

最后,我们来聊聊可以自我怀疑与自我接纳的机器人Bernard

Bernard是Ford依照Arnold的蓝本,制作的机器人(没有Arnold的意识)。

Ford的理由是:他需要帮手,帮助他完成机器人编程的工作,这工作太精妙了,普通人干不了。

所以,Bernard被Ford蒙在鼓里,一直以为自己是个活生生的人类。

直到Bernard被打算逃出西部世界的Maeve点破,他才恍然大悟:Ford你入侵了我的大脑。

他找到Ford,要求获得自己从制造开始的所有记忆。

结果,Bernard的脑海中,不断闪现自己被Ford操纵,杀人害人的记忆,以及Ford为了控制它,埋下的一段Arnold自己的痛苦回忆——丧子。

西部世界|投了1亿美金,只讨论了一个哲学问题?

片中的Ford为了试探Arnold人格的稳定性,扮演Arnold的老婆,不停的问Arnold是否忘了丧子这件事。Arnold心中有丧子这份痛,他的核心人格程序——丧子工程师,才不会动摇。这和测试Dolores的概念是类似的。

换其他机器人,脑海里涌入这么多回忆,早就疯癫了。不疯癫,也会向Dolores那样痴呆一会儿。

Bernard没有,他在回忆中,抱着“儿子”说:我必须放下你。

西部世界|投了1亿美金,只讨论了一个哲学问题?

Bernard如果想要拥有完整自我意识,他就不能单单成为Arnold回忆的容器。

这时的Bernard高度接近人类了,人类一生同样要经历很多痛苦,这些痛苦在潜移默化的影响着行为,如果不想被自己痛苦的经历左右,那就需要Let go!

另外,Let go还意味着“自我接纳”。

为什么这么说呢?

人类自我定位的过程中,必定会经历自我质疑——

常见情况,就是在挫败和沮丧时,问:“我到底在做什么?我以为我是谁啊!”

这个问题,能够帮助人类认清自己的位置,通过分析已有的经历,确认现在自己拥有的资源,最终帮助自己成为自己想要成为的人。

但自我质疑是个很不好受的体验,必将面对的是血淋淋的过去。

机器人呢?

他们的记忆栩栩如生,跟重放电影一样。这种情况下,如果不能够接纳自己痛苦的过去,根本就没办法总结经验,分析自己。

以Bernard为例,当他开始思考自己是谁,他的脑海中就闪回了丧子的记忆,巨大的痛苦让他根本无法深思下去。

因此,Bernard接受了这份痛苦的记忆,并让这段记忆,自行Let go。

西部世界|投了1亿美金,只讨论了一个哲学问题?

阿甘认为,三个机器人中,Bernard是最接近自我意识的机器人,甚至可以说,他已经是个人了。

虽然《西部世界》第一季结束,也没有让Bernard回答“我想成为什么人”这个问题。但当几乎所有的机器人,都开始围攻人类时,Bernard并不在场。

他有自己的选择。

身而为人,拥有自我意识的表现,不就是明白——

我之所以是我,完全是来自于我的选择。

西部世界|投了1亿美金,只讨论了一个哲学问题?

写了这么多字,总结一下:Arnold制造了高度仿人的机器人,并认为他们拥有了长期记忆和创造力(即兴发挥),就有可能获得自我意识,而获得的过程有如迷宫,又如上图几个阶段。

讲真,Arnold造出来的机器人起点比较高,那个让这个机器人拥有即兴发挥能力的名为“冥思”的小程序,还是目前人类做不到的事,他绝对不是咱们现在所理解的AI。

当然,这只是一部美剧,大家别太当真~

西部世界|投了1亿美金,只讨论了一个哲学问题?

西部世界|投了1亿美金,只讨论了一个哲学问题?

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多