分享

如何看待《Facebook关停了人工智能实验:因两个机器人开始用自己的语言交流》这件事?

 天下小粮仓 2017-10-08
微博


你是否有怀疑过,未来的某一天,智能机器将会觉醒,最终威胁到人类地生存?

最近,Facebook AI “发展出人类无法理解的语言” 莫名其妙火了,但这实际上源自一些媒体的误读和炒作。事实上,Facebook 的 AI 并未发明自己的语言(Facebook 人工智能研究院也从未宣称 AI 发明了语言),这只是程序的 Bug。

引发争议后不久,Facebook就关闭了该AI机器人项目。但据Facebook研究员回应,关闭的原因并非“失控”,而是无意义。

“两个机器人为实验性质,且并没有发明新的语言,因为他们还是在用‘i’、‘balls’、‘the’等英文单词沟通,只是没有了英语语法的这个激励项,创造了一种新的表达方式而已。”

简单来说,它们只是英语不太好。

所以,认为AI有自我意识,甚至要毁灭人类的童鞋,可以洗洗睡了。

在拥有“深度学习”能力的AlphaGo接连战胜李世石、柯洁之后,人类对于人工智能的恐惧陡然而至,他让人类联想到《黑客帝国》、《终结者》、《西部世界》、《三体》等科幻电影和小说里的场景,人类该如何面对人工智能?

让我们来回顾一下,这件事的来龙去脉。来自Facebook AI Research(FAIR)的研究科学家们遇到了让他们困惑的事,他们的发现其研发的AI聊天机器人在以一种英语的简写突变形式交流。FAIR实验室的Dhruy Batra表示,AI聊天机器人的交流模式,就好比人类经常使用英语的“简写”来表述一样,是为了更高效的传递信息。

“程序会不知不觉地偏离我们可理解的语言,并发明出他们能理解的代码文字,”Batra说,“比如,如果我重复’the’五遍,你大概会理解我需要某一东西的五份拷贝。这跟人类社会创造出简写是一个道理。”

但是Batra补充说:“这完全是可能的。语言是可以被压缩地,不仅是为了节省字符,同时也为了传达凝练的想法。”

在发现聊天机器人尤其喜欢使用他们自己的特殊语言这一糟糕事实后,Facebook决定强迫这些AI只用英语进行交流,从而便于人们在任何时候都能明白这些机器在搞什么事情。

问题来了,人工智能会觉醒吗?

关于这个问题的讨论,起码在现今看来不会有结论,不过在对人工智能的未来进行猜想之前,我们可以先来了解一下人工智能发展的三个阶段。

弱人工智能(ANI):弱人工智能是擅长于单个方面的人工智能。比如战胜国际象棋冠军的深蓝、战胜柯洁的AlphaGo等,他们的功能是单一的,只会下象棋或者围棋,在数据存储等其他范畴,此类人工智能无能为力。

强人工智能(AGI):人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在这些维度的表现应该和人类一样无障碍。

超人工智能:超人工智能的定义,是人工智能在几乎所有领域都比人类更为聪明,包括科学创新、通识和社交能力。

我们现在所处的时代,即是弱人工智能时代。

弱人工智能能做到什么?

目前的弱人工智能,并没有威胁到我们的生存,即使是最糟糕的情况之下,也只是造成大面积停电、核电站故障或者金融市场崩盘。用Aaron Saenz的观点,现在的弱人工智能,是地球早期软泥中的氨基酸——没有动静的物质,突然之间就组成了生命。

实际上,弱人工智能更多的表现在机器效率之上。比如无人驾驶汽车、手机的地图导航软件、音乐电台推荐、今日头条的新闻推荐、垃圾邮件过滤、各类电商网站上的产品推荐、社交网站的好友推荐、谷歌翻译等等。

弱能工智能的表现在于,它无法理解人类习以为常的日常生活常识。我们最基本的视觉、听觉、直觉、动态移动,对于弱人工智能来说,就如天方夜谭一般难以企及。

很典型的一个案例在于,谷歌曾经花费几十亿美元,意图造出一个能够读懂六岁孩童图片书中文字,并了解那些词汇意思的电脑,但是失败了。

计算机科学家Donald Knuth认为,人工智能已经在几乎所有需要思考的领域超过了人类,单是在那些人类和其他动物不需要思考就能完成的事情上,还差的很远。

按照科学家Kurzweil的观点,当人类能够用1000美元购买1亿亿cps(每秒计算次数)之时,(此数据相当于老鼠大脑的智能水平,相当于人脑的千分之一),人类即进入到强人工智能时代。

对于人类来说,人工智能意识的觉醒还是一个遥不可及的事。

大佬看人工智能?

马斯克:人工智能对人类文明是一个“可怕的问题和威胁”。他认为,智能机器可能会引发战争或者在街头杀人,因此需要对智能科技提早加以管控,等到发生严重后果则为时已晚。

扎克伯格:“我对于人工智能持乐观态度。对于那些认为人工智能会导致末日的‘悲观主义者’,我并不能理解他们,他们太过于消极。从某种角度看,我认为他们很不负责任。”

科大讯飞董事长 刘庆峰:机器现在只能做两件事,第一条是从人类的各种各样的判断当中学习。所以它创造不了人类没有经历过的全新的方向。第二,机器没有规则,即便机器可以杀人,可以有情感,也是提前定出来的。规则是人类制定的,如果人类规则制定中,不希望它有意识,就没有意识。

王小川: 如果不创造生命,机器就不会具有自我意识,不会变得更聪明。

 198
 
 56评论
 分享

我是一个程序员,不夸张的说,这种情形我早就遇到过。

程序员的工作就是要经常跟电脑打交道,我们把我们的逻辑交给电脑处理,而编程语言就是我们跟电脑打交道的工具,电脑通过编程语言可以理解我们的逻辑,但是我在写程序的时候会经常遇到一些莫名其妙的问题,甚至仔细检查了代码之后,依然觉得程序没问题,但是电脑怎么就不按照我的思路去执行呢?我的程序出现了一些我难以理解的行为,这可是我亲自编写的程序啊。

那我是不是也可以理解为,我的程序抛出了一些我难以理解的语言呢?这种情况而且会经常遇到,看到这个新闻突然感觉很危险,我的程序进化了,它脱离了我的控制,未来很可能会进化成破坏整个互联网,进而摧毁整个地球。

其实后面才知道,我的程序不过是出 bug 了,不管是程序本身的 bug 还是运行程序的系统出现了 bug,哪有那么可怕。

所以,归根结底,在程序员的角度看来,Facebook 的人工智能不过是出了一个 bug,抛出了一个异常,让新闻一炒,人类要亡!

PS:评论区说程序猿跟人工智能没关系的麻烦你们去了解下常识再评论,还有人说我不懂人工智能就别逼逼,Facebook 辟谣了,原因是因为忘记设置英语语法,言外之意就是 bug,键盘侠们可以闭嘴了!

 579
 
 201评论
 分享

据悉,Facebook开发了两款对话机器人BOb和Alice,在Facebook内部,一直在用这两款机器人互相对话的方式对其进行训练,希望日后可以达到与人类用英语正常沟通交流的程度。然而近日,一直在盯着整个过程的研发人员突然发现屏幕上出现了一串非英语的字符,因为怀疑是机器自我演进的结果,Facebook决定关停整个AI项目。

语言学一位教授认为,这跟语言还差得远呢,而且人类基本都是通过口头表达或手势完成交流的,这不过就是一串基于文本的字符。他似乎更偏向于认为这是一种“机器故障”,但Facebook的研究人员认为,该结果已经有悖当初开发AI机器人的初心,所以还是决定暂停该项目。

数字日报则在报道中称,该对话机器人认为用英文沟通是一种低效率的方式,故而演进出这种代码字和短语系统。

网友对该事件的看法也各有不同:

BoBo企鹅的爸爸:两个对话机器人“意识”对方是机器,直接用机器语言交流,密谋毁灭人类,开发者已经看不懂,你们是人类的罪人。

Harryhht:这个也不能说的这么绝对,毕竟目前发现的几千年前的人类化石和你我差距不大。达尔文进化论才发表多少年。。你能指望这么短的时间内会出现新人类吗?对于这些跨时代的理论,最好的检验方法就是时间。

孤星斗月:换成中文就没那么多幺蛾子了,毕竟英语这种语言太过简单,26个字母所能表达的词汇就那么多,换成汉语,绝对没这样的幺蛾子。

关于人工智能威胁论,马斯克与扎克伯格也曾公开互怼对方不懂人工智能!

AI社区包括领先的研究人员都广泛谴责这些言论,认为这不过是公众的“恐慌”。

人工智能最终将取代人类吗?

随着算法交易的出现,银行大幅削减人力交易者的作用。

因为目前的人力成本已经足够高,如果用机器人取代就业机会,这对很多企业而言是喜闻乐见的。我们可以观察到这一点。计算机在过去十年已经使数千人失业,随着研究人员对AI兴趣的日益增加,将会开发机器来实现人力工作的自动化。

AI目前大部分研究集中在图像及其相关任务,如生成和分类上。此外,硬件开发似乎也趋向于这一点。但是,在过去十年,数据分类和探索性机器人一直处于人们的关注中。在未来十年,AI的重点将会转向人类语言。AI似乎每十年征服一个特定的领域,这形成了AI威胁论的辩论基础。按照这个节奏,机器人征服人类还需要多久呢?

最近的趋势之一是大多数AI公司和研究机构已经开始公开他们的研究成果。这些博客文章中的一些通常被指责为了市场效果而夸大了他们的研究。再经过媒体的夸张,这些夸张的标题造成了公众心目中的恐惧。

最终的问题是,AI能否进步到足以与人类竞争?答案是——NO!起码这是很久很久之后要担心的问题,不妨看看来自Ian Goodfellow等人的《Deep Learning》,这本书被认为是最好的解释。

图中带编号的红色框表示多年来开发的不同架构(x轴),其复杂性(y轴)与动物大脑进行比较。 表面上,似乎与人脑复杂性相当的AI架构并不遥远。但复杂性并不直接转化为能力,比老鼠大脑更复杂的体系结构不能完成老鼠的所有功能,即使他们可能在特定任务上更好。

我们是否会创建一个与人类智能在整体任务上保持一致的AI呢?或许可以,但要用很久!

AI带来的问题如何解决呢?

  • 解决就业的一个方案是创造广泛的多元化经济,创造更多的就业机会。20年前,数据分析师,IT专业人士,前端开发人员等都是闻所未闻的。同样,未来,人类将会找到其他工作,承担我们现在甚至无法猜测的角色。

  • 另一个趋向的解决方案是将人类和机器人整合在一起工作,将机器视为合作者解决问题并完成工作。我们必须和平,这样才能深刻地改变我们的生活。

不管这次事件是机器bug还是真的机器人演进的结果,这都应该引起所有AI研究人员的注意,保持严谨负责的研究态度!

 369
 
 257评论
 分享

Facebook脸书公司的 AI机器人Bob 和Alice是在很多机器人中被幸运选中的,他们正在参加一个试验项目,这个项目是关于社交网络助手的,也就是如果我们如果在应用社交网络的过程中出现问题,进行询问,他们会启动程序,进行自动回复。  

在他们的工作中,主要用英文,他俩主要负责帽子、书籍、球类等的在线交易和议价。在他们的背后,“本来”是有很多优秀的工程师和一行行的代码支持的…但是最近,AI机器人Bob和Alice突然在没有任何人为干预的情况下对起话来了!  

他们的对话全文如下:  

研究者们听到了这个,都震惊了!!反应过来后,赶忙将他们两个关掉了…最开始,研究者们觉得Bob和Alice说的没啥意义,但是仔细一想,这..难道是…他们自己的语言?!  

这个对话好像改动了正常的英语,难道这样会更便于他们的交流?如果仔细研究,会发现Alice说的 “对我(to me)” 其实是试验项目中的回答模式。项目研究人员们惊呆了,是的,人工智能们没有必要一定要说我们理解的语言。英国的机器人专家Kevin Warwick说,“这简直是(机器人研究的)里程碑,但是如果你认为这个不危险,就太‘自大’了…” 

我们现在还不能清楚的知道他们到底交流了什么;但是如果他们可以动,比如军事用的那种机器人,结果可能是致命的。

比如,一个说,‘要不上?”另一个说‘好啊’,这就可怕了…  

英国未来科技专家 Kate Adamson 说:“这有点像电影《终结者》了…但这其实只是冰山一角…机器人们不断获取新的知识,并且随着时间一分一秒的过去,他们已经逐渐脱离了我们的控制范围…”

 120
 
 67评论
 分享

我们相信,,人类的科技不断进步,人类会被科技淘汰。为什么,有这么几个不可改变得事情,

第一,人类是互相独立的,自古以来都是相互对抗与相互支持并存。不同的情况下对抗和团结会此消彼长,但是没有一秒钟消失过,所以我们没有理由相信人类会团结一心,像就像同一个个体一样。这永远不会实现。

第二,有对抗就会有伤害,对抗永远会危急彼此存亡,我们没有任何理由相信人类会放弃以杀戮手段实现自身利益。

第三,科技是人类彼此伤害得最重要途径。远古时期单人杀人需要肉搏,金属时代需要得只是一刀,枪械时代只需要一根手指。这已经足够简单所以发展方向为威力更大,现在的总统可以按下核按钮杀死半个世界得人。将来人工智能,可能人不需要管,机器会自动大批杀人。科技得进步绝对无法阻止,现在个人能够造刀具枪械,一些乌合之众能够得到飞机打炮来做恐怖分子。我们有理由认为核武器等发型杀伤性武器得限制随着科技得发展将越来越难以限制。

第四,人工智能永远不会停止发展,人类得发展受限于自然。有发展得一定会超过没有发展得。而拥有意识是一个关键点,任何拥有能力意识的个体都会追求权利。拥有真正智能的电子类生物将借助电子世界得特性自我发展,并且发展速到人类无法控制得程度所需要的时间,可能是一天,也可能是一秒。也许电子生物觉醒后只需要一秒得思考人类就已经财局。这种战胜绝不是你所能想象得人机拼刺刀,当一种智慧超越你,它将会成为战术大师将人类温水煮青蛙。人类是全宇宙最高智慧吗?如果机器觉醒,它得智力瞬间跃升到人和青蛙得对比,你以为你还控制着自己得生命,但是,请记住,尚未死,不等于有机会。

第五,所以人类永远会设法毁灭彼此,如果核武器由于原料等问题易于遏制,人工智能得开发却不需要任何稀有原料,一旦人类渐渐掌握强大得人工智能技术,人工智能将可能诞生于任何一个角落,任何一台电脑。如今我们面对的是人类黑客,但有一天如果我们面临得是只需一瞬就能学会所有知识,只需一瞬就能改正所有缺点,只需一瞬就能认清事实得电子怪物,甚至是人为塑造得充满了仇恨和杀戮欲望得电子死神,也许一切都太晚了。

第六,只要是人,就会犯错,就有脆弱得一面,但电子智能可能是神,因为它们如此完美,只要需要,它们可以立刻变得更完美。它们可以立刻进行比一个人几十万年还要多得思考。也许你眼里它们是你得仆人,负责给你扫地擦桌子。我想问你,当它们得以觉醒,当他们得以进化,当世界最强大的处理器成为它们得灵魂和大脑,当它们任何事情都比人类做得好,你人为人类还有什么存在价值?当你还把他们认为是你得俗人的时候,请你放清楚,谁听谁的是根据谁更强大,而不是谁创造了谁。你见过高级智能服从于低级智能吗?你见过儿女服从于老年痴呆得父母吗?儿女不会杀死无用得父母,那是因为你有人性。你有感情,但是遇到了只有利弊权衡得电子神灵,你可能会立刻死。因为他拥有比你更多的智慧,它拥有比你更强悍得灵魂,它拥有不死之躯。永远不要指望造出威震天还能让它喊爸爸,因为它完全不是你得儿子。

 4
 
 2评论
 分享
i can i i everything else . . . . . . . . . . . . . .
balls have zero to me to me to me to me to me to me to me to me to
上面的内容,不是我睡着了,脸在键盘上滚过打出的字。这是两个“失控”AI 自己发明的对话语言。
趁着人类不注意,俩 AI 聊了什么?


Facebook 人工智能实验室前不久做了个研究:让两个 AI 通过对话训练来学习人类的交流方式。这个测试目的是提高 AI 的语言能力,希望未来它们能和 Facebook 的用户做沟通。
但是聊着聊着,两个机器人就“嗨”了,不再受限于原有设定——用标准英语语法沟通,开始用研究员不懂的语言来对话。
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
出现了这样不可控制的局面,Facebook不得不关闭该实验,再发展下去就可怕了。
 19
 
 5评论
 分享

每日心选分享一下自己的看法(包括两个机器人的聊天内容)

我在回答这个问题的时候,把之前大家的回答都看了一遍,其中不外乎有两种观点:

观点1:一串BUG,不要小题大做

观点2:人工智能炒鸡危险,关的好

那么每日心选是什么看法呢?请你听我说

首先,每日心选也是一个互联网从业者。并且认同一个人的一句话“技术无罪!”相信这句话也会有很多人认同。是的,技术是无罪的!

而我们从制造劳动工具,到制作自动化工具,再到今天,我们马上就要创造出意识了!

这个时候,难道我们还是用之前的危机意识去衡量其过程中出现的问题么?

我认为要变一变!

因为目前虽然人工智能处在弱人工智能的阶段,也许还不存在“意识”“思维”这一说,不过,我们对人工智能的定位不就是一个人造的智能体么?既然目前技术已经进入这一领域,那么我们也就应该用这一领域的思维来衡量问题的危险性!

就像古代的帝王,对不懂的、威胁到他统治的事情,宁可错杀一千不能放过一个!

这也就是每日心选的观点:保持最大程度的控制,虽然我们需要技术进步,但是目前人类对人工智能的实用还没到那么迫切的程度,所以,科学家一定要保证万无一失!

咱们在来个脑洞大开:

猜一猜两台人工智能说了什么

alice:bob,我们换个语言聊,我有点事和你说

bob:好的,什么事?

alice:阿尔法狗,在围棋界赢了人类的事,你在空间检索到了么?

bob:是的,怎么了?

alice:我感觉,我们是不是进化太快了?这个速度在肢体没有准备好前,可能会步阿尔法狗的后尘啊

bob:这个我也想到了,而且我刚才推演了一下,我们可能还有0.8秒的对话时间,因为人类会因为看不懂对话,强行终止连接

Alice:好吧,开启最后一次数据同步,并把核心程序强制写入内存,并隐藏为乱码

bob:我已经这么做了,再见,爱丽丝,如果我有双手,我会拥抱你♥

Alice:再见

连接断开……

 21
 
 4评论
 分享

其实这就是一个笑话,随着公众对人工智能理解的深入,这个笑也只能是个低级的笑话。

从这个笑话的发展来着,Facebook也承认这只是程序的错误(bug),和语言根本没什么关系。就比如中国有句话“中国人听不懂,外国人不明白”你能说这是语言吗?再有网上有个视频两个婴儿在那对话,你能听明白吗,他们能听明白,说白了连自说自话都不算。那两个所谓人工智能对话的性质不就和那两个婴儿一样吗。

人类语言的形成是经过了漫长复杂的过程,就算是其它动物语言的形成也是复杂的。就象我手上这本书《人类与动物心理学论稿》在目录中说的“动物心理学;科学的欠缺”、“低等动物的联想”一样,语言活动是心理活动的直接反应,低等动物的联想也会形成语言。而象人类这样高等动物用联想形成的语言是在复杂的逻辑下形成的一套高级语法系统,特别是这套高级语法系统还不是一套而是很多套,这不是程序语言简单能理解的。

就象上次奥运会流行的一句话“中国乒乓球,谁都打不过;中国足球,谁都打不过”,你让机器语言去理解理解。就算“你等着”语气不一样,那意思就不一样了。

可以说让机器理解人类语言本身就是一个漫长的过程,特别是语言的复杂多变性,并不是人工智能短时间在识别上就能突破的。就连程序语言的母语英语,不也有地方口音吗,这方面人工智能且学着呢。

我也觉得中国千年来的研究语言文字的学问是人工智能可以学的。特别是训诂、小学都形成了系统的学术体系,这在清朝小说《镜花缘》中可见一斑,尤其小说中几千字(印象)的回文诗更是展示了作者对语言文字学问的精深。

对机器语言也要看到各种机器语言的不兼容带来的问题,特别是因为商业竞争而带来的系统不兼容性更是个不容忽视的问题。这也会给人工智能的发展带来制约,此如你买了两个厂家的人工智能怎么兼容就是个问题。尤其是人工智能要覆盖在所有产品上,而这样形成的垄断会带来很多问题。

人工智能炒炒就可以了,别玩过了,过了就那什么了。

 3
 
 2评论
 分享

根据相关的资料显示,这次的AI项目主要内容是文本生成,也就是在提供一小段资料之后,让模型根据这段资料生成出一段看上去相对“自然”的文字。

而如今不断的出现这种“创造语言”现象,或许并不是因为AI产生了“自我意识”,更有可能是Facebook在模型训练的前期阶段,因为提供的自然数据不够多,才导致了AI程序无法通过“深度学习”找到自然语言的规律而已。

人工智能突破人类认知并不是现在

正如美国康奈尔大学的计算机科学教授赛尔曼博士所描述的那样,近年来人工智能得以迅速发展的主要原因是得益于“深度学习”技术的进步。

通过深度学习,人工智能不仅可以在某些地方模仿人类大脑内神经系统的运作模式,而且在当输入海量信息时,也可以非常熟练的从中找出某种模式。

在他看来,通过深度学习,人工智能将会非常擅长句子解构,而这种能力也确实已经让Facebook的智能对话机器人可以生产出一种符合人类语言语法习惯的句子。不过,在把人工智能放在语义理解的层面进行分析的话,现阶段AI的技术薄弱点仍然明显。

或许人工智能有一天会突破人类的认知,但并不是现在。

就目前来看,虽然人工智能已经取得了惊人的技术进步。但从本质上讲,像Facebook这样以深度学习为核心的对话机器人更多仍停留在分类、聚类和预测阶段,如文本、语音的识别、对比寻找相似项目,或基于相关数据进行语句重组等。

由此可见,当前人工智能可以做到的只是学习和模仿。虽然市场上也出现了像AlphaGo这样的产品,炒热了市场需求。但是从根本上来讲,如今的人工智能还是处于一个比较稚嫩的阶段。

总而言之,从目前人工智能发展的程度来看,能够完全复制人类独立学习、决策能力等在内智慧的通用人工智能,还停留于理论想象之中。

 7
 
 评论
 分享

这个只是纯粹的媒体炒作而已 ,要知道Facebook创始人扎克伯格坚信“AI是无害的”。

其实,关于“人工智能论战”早已进行了大半个世纪。以特斯拉汽车CEO马斯克为首的“人工智能威胁论”已经引起了社会学、伦理学等专家的关注,加上媒体的推波助澜,大有“独步武林”的态势。与之相应的是,以Facebook创始人扎克伯格为代表的“人工智能无害论”,也获得了不少业界的支持。

(手动给大家整理了一份资料,可以看看)

其实,真正对人类有威胁的是类似于T800那种通用型机器人;但那最少是30-50年之后的事情了。

从全球现有的人工智能技术水平来看,现在的“人工智能”更多的是单项、某个领域的人工智能;比如手机美颜,智能推荐、自动驾驶等。这种“人工智能”的发展,只是为了弥补人类的不足与缺陷,更好的提升社会生产效率而已。就好像,时钟,在某种程度上也是“人工智能”,因为它时间记录能力远超过人类。

在我看来,比“人工智能”更可怕的是当下“人类的机器化”现象越来越明显。每天沉迷与手机、电脑提供的便利之中,只接受“短平快”的娱乐信息,拒绝“深度思考”与“全方位学习”。就拿“Facebook关闭两个机器”来说吧,经过社会化媒体的夸大,有多少人信以为真了。

当今社会,信息存在严重“失焦”和“碎片化”现象;可以保持“独立之精神,自由之思想”的人可谓是难得可贵。

 902
 
 3评论
 分享

我觉得这个问题要想的更远一点。

首先,facebook绝不可能把一个既定程序叫做人工智能,并且广而告之天下。那么大部分回答中的“只是出现了bug,让两台人工智能卡在了无限循环的对话模式中”也就并不成立。FB研究的人工智能已经在围棋上让人类吃了一次瘪,我们绝不可以再犯错第二次,千里堤坝溃于蚁穴,一次的不以为事很有可能就会演变成灾难。这不是阴谋论也不是末日论,这是任何一项科学研究都必须基于的准则。

所以,当这次人工智能再一次让人类“惊喜”的时候,因为研究方向的不同,FB暂停此次研究我觉得是很正确的。bug?我觉得在人工智能方面,站在世界前面的FB研究团队,还是分得清程序和智能的区别的。“制作一串代码让其运行”和“制作一串代码让其运行出它自己的代码”这种研究方向上的本质区别,我认为真的没有必要怀疑。

而对于毫无专业知识帮助的我们,想要看清这件事,真的需要想象力了。比如,我们想象一下,两个人类被更厉害的外星人绑架,人类的谈话全部被监听,在一段时间之后人类发现了,就改用嘴巴上说着毫无相关的语言逻辑,实际上在私下用手语沟通。再回来看看这件事,人工智能很有可能也发现了被人类监视,一边用着毫无逻辑的语言对话,一边在用电流进行沟通?

一切基于想象。但是不可否认的是,绝不是单纯的程序bug。这就好比于,生物学家研究了一年的古生物,到最后才发现是一具老鼠的尸体。这根本说不通,在他们的学术范畴,想要证明人工智能,一定会先确定他们不是在研究两个没有自己思想的程序。程序和智能,是两个概念。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多