分享

「科技含金量不高」的达沃斯论坛,给我们留下了机器人与AI站上第四次工业革命中心的思考

 静候a 2018-01-28

【来自36氪】

AI会最先改变什么?

编者按:本文来自公众号机器之能(ID:almosthuman2017),36氪经授权转载。

编译 | 陈韵竹、王宇欣、rik、高静宜、邱可昕

来源 | 达沃斯官网

正在进行中的第 48 届世界经济论坛年会上,人工智能毫不意外地占据了论坛讨论热点,四天议程中始终贯穿着相关议题,其中大数据、机器学习、自动驾驶、机器人被设为多个分论坛的主题。

这仍然是一个各个国家及公司展示科技野心的平台,阿里巴巴、百度、京东也都参与了多场达沃斯论坛讨论,谷歌还表示将会在巴黎成立一个 AI 基础研究中心,专注于自动学习、语言、机器视觉等方面技术,以改善健康和环境问题。

不过,有意思的是,作为 AI 领域举足轻重的专家,斯坦福大学人工智能实验室主任、谷歌云首席科学家李飞飞对这次论坛的第一观感却是「科技含金量不高,达沃斯论坛的讨论给我们留下的问题比答案更多」,由此,她也提到几个重要问题值得更深入关注与探讨——

1、人工智能对社会的影响中最常提及的就业问题;

2、机器学习存在偏见和偏差,比如数据收集和标注的偏差,算法的偏差,算法的可解释性和透明性,以及算法预测的正确应用等;

3、人工智能已是一个世界性的话题。大家公认中国已成为人工智能的一个重要参与国,很大程度上是因为政府的强有力支持,国民性的数理文化,巨大的数据和应用场景;

4、人工智能对工业转型的重要角色不容置疑。在达沃斯论坛里,我至少和以下产业的总裁领导们讨论过 AI:金融,保险,食品,SaaS,科技咨询,医疗健康,电商,能源,汽车,旅游,媒体娱乐,制造业等。我很开心谷歌云在这场工业革命里扮演的重要角色;

5、人工智能时代,学术界和大学应该扮演什么样的角色。面对强势的 AI 工业界,今天的大学既在积极的寻求合作机会的同时又多少有些担忧。全球现在 AI 人才奇缺,而教书育人的 AI 老师们纷纷进入工业界,怎样才能在学术教育和工业界之间创建出一个更好的合作交流生态?这是一个重要的问题。

除了对人工智能进步会带来哪些社会、经济问题的现场讨论之外,达沃斯论坛官方网站上也呈现了丰富的产业分析内容。我们摘取了其中有关「机器人和人工智能站在第四次工业革命中心」的趋势报告,这是基于达沃斯世界经济论坛(WEF)专家库中专家们的意见,并与韩国科学技术院(KAIST)航天工程系副教授 David Shim 合作策划而成。

机器学习和预测系统进行识别模式正变得越来越容易

机器学习的内容包括,创建出能够从大而不断变化的数据集中进行模式识别的算法,并从过去的数据处理经验中得出结论,从而使机器变得更加智能。当人们提到「人工智能」时,他们通常指的是机器学习。其应用包括互联网搜索引擎、垃圾邮件过滤器以及自动驾驶汽车。

最近,作为机器学习的一个分支,「深度学习算法」受到了各界的广泛关注。其处理速度与精度远超人眼,这要归功于计算能力的提高以及数据规模的大幅增长(即大数据)。2015 年,谷歌旗下的一家英国公司 DeepMind 以围棋的形式将这种算法的强大能力展现给了大众,其 Alphago 程序打败了世界顶级的围棋玩家。

机器学习预计将对就业市场产生深远影响。专家预测,配备了学习算法的计算机和机器人将取代人完成低端的工作以及专业性较强的工作。其潜在的优势显而易见:

机器一旦学习过某事,就永远也不会忘记;学习模式可以有效地从一台机器复制到另一台机器;学习过程可以并行进行以供改进与分享。例如,如果其中一个机器掌握了驾驶技术,它的学习模式就可以在很短时间内被复制到其它数百万辆车上;通过网络相互连接的汽车可以持续地共享经验,从而提高整体的性能。与此相反,人类的学习时间却很长。人类经验不能以这种方式进行共享,个人的知识和经验将随着肉身的消亡被带进坟墓。

增强型机器人正在帮助人类超越自然的限制

最近,高能效的可穿戴机器人系统领域取得了重大突破,这使人类得以执行那些正常情况下超出自身能力范围的任务,例如行走极长的距离或是不知疲倦地搬运重物。而且,这方面研究还在继续,机器人可能会做到更多——开发更好的义肢,配备传感器、电机和复杂的算法,直接从人类神经系统处接受命令。

甚至有朝一日,这些技术可能会终结人类的生理残疾,或是增强人类现有的物理体能和大脑功能(包括记忆和交流)。

除可穿戴系统之外,研究人员还开发了一系列智能机器人系统,用于协助人类完成需要极高精确度并具有极大重复性的工作,例如外科手术和缝合。同时,所谓的远程监控机器人技术还让人们能通过移动视频屏幕「出席」会议或活动。

当然,也有其他形式的增强技术即将投入使用。增强现实(AR)设备就在帮助人们用更丰富的信息感知他们所处的环境。几年前,Google Glass 眼镜引发大众关注,它是首个可以在日常生活中佩戴的实用增强器件之一。不过,由于隐私问题,该技术也受到了广泛的批评。微软的 Hololens 可穿戴设备与之类似,可以映射用户的周围环境,还能快速显示文本等——不过,它看起来很笨重而且佩戴起来并不舒适。

不过,这类设备将会越来越小,通用性也会逐渐增强,进而适合日常使用。与此同时,谷歌也在继续进行 Project Tango 计划,这个项目不需要任何专门的硬件就能映射出周围的环境——手机上的摄像头就足够用了。

谷歌和其他公司还纷纷开发了自动实时翻译器。这些翻译器一度被人所嘲笑,但现在它们能以闪电般的速度提供出准确的翻译,而这要归功于机器学习领域中深度学习技术的进步,它模仿了人类大脑的功能。如果翻译器能够与移动电话或增强现实设备结合使用,那么社会可能不再需要翻译人员,人们甚至可能不再需要继续学习外语。

有一种设想是,把这种技术直接植入到人类大脑的神经系统中,这样不仅能为翻译提供帮助,还能帮助计算和记忆。事实上,人类的神经系统已经能够直接控制一些义肢,例如,摄像头可以与人脑连接,以便为盲人提供视觉信息。

在人工智能系统大幅度提高我们与环境进行互动的能力的同时,许多工作岗位也将受到影响——包括那些普遍认为不会被机器人取代的职位,例如翻译人员、旅行向导和新闻主播。

越来越多的机器人被派遣完成危险的工作或者被用于极端环境之中

很长一段时间里,机器人都只在工厂内部执行焊接和喷漆的工作。现在,他们还能定制制作汉堡、在拥挤的酒店大堂内进行导航,跳上电梯为顾客提供客房服务等。亚马逊在将机器人生活化这方面已经站在了世界前沿——顾客可以在没有店员的超市中随意挑选物品,账单金额将会通过其信用卡自动完成支付,Kiva 机器人则会自动装卸商品从而消减人类工人和无人机进行订单派发的需要。

机器人还能通过探测海底深度、外太空尽头月球和行星等方式,让人类进行更广阔的探索。最新的太空机器人能够以人型出现,在国际空间站中与人类宇航员并肩工作,而且在外太空中执行修复工作时还不用穿太空服。美国和俄罗斯的团队就正在研发可以探索其他星球的「机器人宇航员」。

此外,机器人也可以在人道主义危机时期执行一些关键任务。举例来说,美国国防部高级计划研究局(DARPA)举办的机器人挑战赛就正在开发一类机器人,这类机器人需要具备在 2011 年日本福岛核灾难期间承担救人任务的能力,其他一些正在开发中的机器人则需要执行危险的深度采矿、处理有毒物质、清理并维护下水道等工作。

另外,无人机也是一种特别能吸引大众发挥想象力的机器人,而且已经成为了人们进行航拍的热门选择。亚马逊和谷歌也在使用无人机技术把包裹运送到一些人烟稀少的区域。2016 年 3 月,日本在线零售商乐天株式会社在一个高尔夫球场完成了全球首例商业无人机的交付工作。

当然,也有一些稍显平淡的应用,机器人可以通过位于云端的电子大脑成为值得人们信赖的管家,忠实地聆听人们关于交通、天气或者能否打开空调这样的提问。

下一代机器人将会通过不断增加计算能力进而执行那些需要进行更加复杂决策的任务。2016 年 1 月,英伟达公司推出了一款每秒最高可进行 24 万亿次运算的超级计算机,等同于 150 台 MacBook Pro 笔记本电脑的能力。它可以让汽车通过所谓的强化学习来自主学习驾驶技术,从而替代实时优化寻找安全路径这一传统方法。

随着相关技术的日趋成熟,自动驾驶汽车将会变得更加普遍,而且很有可能会取代出租车司机或是公车司机等职业,从而在根本上改变就业市场。

其实,人工智能和机器人不仅仅只能从事体力劳动。诸如读取 X 光片以及核磁共振成像(MRI)扫描等重要任务也已经交由计算机去执行了。在未来,人工智能与机器人甚至有可能会发现新的药物。毕竟人工智能已经能够兼具速度与准确性地为人们提供财务方面的建议。

自动驾驶的一些危险确实被消除了,但是并不是全部

无人机和自动驾驶汽车将是未来交通运输的最重要的手段。大型无人机最初是为了军事任务而发明的,现在则几乎可以用于一般的用途。

在进行无人机的全面部署之前,首先应该回答的一个主要问题就是安全性。预计 2020 年后,无人机将会被纳入民用空域,届时国际民用航空组织将发布全球运营的规则和条例。而在当下,由于其运营成本低、发生碰撞时风险也较小,小型无人机越来越受到像包裹交付和航空摄影之类应用的欢迎。

美国的一些机构,包括国家航空航天局(NASA)在内,正在开发一套新的无人机交通管理系统、一旦这套系统投入使用,我们可能会在现实世界看到类似于科幻电影中,成群结队的无人机飞翔在天空的场景。这些飞行机器有望在一些传统飞机不能进入的领域创造新的岗位,也会夺走一些现在由飞行员进行的工作。

与无人机不同,自动驾驶汽车还没有准备好迎接它的黄金时期。这里关键的挑战在于让自动驾驶汽车能够在危险的道路上避免发生碰撞。内置于汽车的人工智能会评估可能对乘客造成的伤害、对车的损伤以及行人伤亡的风险,并作出决策。

最新的自动驾驶汽车配备了一系列传感器,可以在黑夜中视物,并以每秒钟超过 10 次的极高精度扫描。他们的「大脑」是最先进的计算机,每秒钟可以进行数以万亿次的计算,并于其他汽车和云端通信以便接受最新的交通更新。

事故是无法避免的,但是结果不是。很多结果将会取决于人类的判断,而非机器本身。自动驾驶汽车通过感知周围环境并预测障碍物的行动和路线来计算最佳路径。碰撞的风险则被表达为成本,通过精确的计算实现最小化。

首先考虑碰撞的可能性,再附以交通法规、燃油效率和乘客舒适度等因素进行调整,最终计算出路径。在计算过程中,人工智能将人的生命视为一项成本。但是在数学方程中以成本函数表示人生命的价值使非常困难的。不论车载人工智能多么复杂,都很难评估潜在的碰撞会造成多大影响的附加伤害。

就像人类驾驶员一样,自动驾驶汽车必须在信息和时间均有限的情况下尽量最小化伤害——也就是汽车大脑中的成本函数的价值——信息和时间都是有限的。而且只有当自动驾驶汽车的事故率明显低于人类驾驶员的事故率时,机器才会受到广泛的欢迎。

在未来,随着无人机最终变得足够安全到可以携带人类乘客,到时预计将会有进一步的发展。中国公司北京亿航创新科技公司已经开发了 Ehang,一架看上去像是超大型无人机的客机。2016 年,空客公司(Airbus)宣布了自己的空中出租车计划。虽然已经有很多公司尝试开发过可以变成飞机的汽车,但是他们都要求驾驶员持有飞行执照。一个自动的空中出租车将会不同:乘客不需要有任何特殊的知识,只需要提供一个目的地即可。

当自主无人机与无人驾驶汽车在民用空域和道路上获得平等的通行权时,就会提出一个有趣的问题:机器人工作者是否应享有与人类工作者类似的平等权利?比如,保护它们免受歧视的权利?目前,尚不清楚是否会出台相关的机器人权利法案。

智能传感器与自主机器人的新发展会伴随道德问题

生物能够通过视觉、嗅觉等感官接收有关世界的数据。受此启发,机器人和计算机科学领域的研究人员也正试图让机器以类似的方式获取数据。也许有一天,机器还可以随着环境变化自主地去适应环境。

与此同时,微型传感器与无线网络的结合使所谓的物联网(IoT)成为可能,这使得我们有可能在不知情的情况下被机器监控。

自主机器人出现的同时也会随之而来一些亟待解答的基本问题——我们应该给予它多大程度的自由?举例来说,现代战争涉及大量的自主武器系统,包括巡航导弹等,这些自主武器系统能够执行自动识别目标等任务,正在逐渐趋于智能化。

有人认为,人类应该保有使用这些技术的最终责任。然而,人类可能并没有那么可靠——友军火力误伤事件有着悠久的历史,这足以证明了这一点。

但也有人认为,算法在识别目标等方面可以做得更好。他们认为,相较于机器,人类操作者的感官输入能力较弱,情境意识十分有限。

未来,对于传感器和自主机器人的讨论不仅需要对底层技术进行准确的理解,还应从相关道德、法律方面着手进行考量。

机器人之间及机器人与人类间的交互正变得越来越多

整个研究领域都致力于提升机器人的协作性。例如,在工厂这类受控环境之外,机器人必须能够迅速适应周围环境,并能够与其它机器人和人类一起工作。视觉传感器将帮助机器理解复杂环境,而人工智能会帮助它们了解人类的手势、面部表情,甚至意图。该领域的先驱之一是 Baxter 机器人,由于使用了深度学习来进行自然语言处理与合成,它可以很容易地学习新任务。这种机器人还可以很容易地通过接收语音命令来与外界进行交流,并且可以通过视觉进行学习,这种方式比在手持设备中输入指令的传统方法要快得多。

机器人尤其适用于情感陪伴。其强大的处理器和先进的传感器使它们能够识别出面孔、理解语音命令,并给出一些机智的回应。市面上的伴侣机器人的典型例子包括亚马逊 Echo、Google Home,以及麻省理工学院开发的 Jibo 和软银的人形机器人 Pepper。

近年来,机器人甚至开始在足球赛上一展风采,自动采取攻守战略。机器人最大的优点之一是高速通信能力。人类语速一般是 130~200 字/分,转换成字节是每秒几万个,而机器人可以达到每秒 10 亿字节。机器人队员间可以进行远程无线协作,通过 GPS 技术进行精确同步。极端的运算速度(每秒超过一兆次运算)可以使机器之间的协同工作不受团队大小或距离长短的限制,其竞争力可以秒杀许多行业中的人类工作者。虽然数据服务器已经使许多传统的档案和图书馆过时了,但机器人很像可以具备移动能力和自主活动能力的数据服务器,它对人类生活的影响将远超任何人的想象。

人工智能引发的新伦理道德问题涵盖了生活的方方面面,甚至包括战争

对于许多机器人系统来说,即使出现了故障,也不会立刻触发伦理道德风险。然而另一些模型已经开始进入安全相关的系统和军事系统了。

通常来说,手机助手不需要对手机系统出现的错误负责,所谓的聊天机器人也是如此。但是,当这些系统开始处理敏感问题时,就会遇到道德和价值观的重要问题。例如在 2016 年初,微软的一个聊天机器人被用户教唆成了一个具有种族歧视的机器人。再比如,如果一种人工智能系统为一种致命武器提供技术加持,会产生什么样的后果呢?

为致命武器增加自主性能够使其更加快速而准确地锁定目标。即使我们可以从伦理和人类价值观角度对这种技术进行约束指导,也无法立即决定该选择哪些伦理和价值观。并且,对于一个被指示在战争期间杀人的机器人,怎样才能确保它不滥用这种能力,使它理解该行为在和平时期是不被接受的?

即使让人类来操纵武器,也可能由于训练不当和沟通失误而导致悲剧性错误。因此问题在于,我们是否应该总是优先信任人类,还是将决策权下放给机器人智能呢?毕竟它们的通信能力更强,重复犯错率更低。

另一个需要考虑的问题是,我们该如何对待智能机器。在一些情况下,人类会对机器人系统产生同理心,特别是当该系统类似于人类或宠物时。例如,Boston Dynamics 在对狗型机器人 Spot 进行测试时,由于采取用脚踢它的方式而遭到批评,得罪了许多人。再比如,中国一所大学在展示一个名叫 Xia Xia 的女性机器人时,一些人表现得很害羞,就好像面对的是一个漂亮女人似的。

其它需要思考的问题有:人工智能是否一定要表明自己的人工智能身份?它应该受到与人类同类一样的对待吗?显而易见的是,我们应该谨慎地创建和部署人工智能。该领域的专家学者应接受道德教育。而业界则应该考虑施行一套强调问责机制的新标准。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多