分享

面对人工智能威胁,最该担心啥

 亓重阳 2017-09-06
      日前,116名世界领先的机器人和人工智能公司的领导人联名发布了一封公开信,敦促联合国对可致命自动武器(通常称“机器人杀手”)施以禁令。
  该联名信因签署者包括埃隆・马斯克(特斯拉、SpaceX和OpenAI创始人)和穆斯塔法・苏莱曼(谷歌DeepMind联合创始人)而备受瞩目,也为甚嚣尘上的“人工智能威胁论”添上浓重一笔。
  军用人工智能系统,真的是人类打开的又一个“潘多拉魔盒”吗?面对人工智能介入军事行动,人类该如何展开思辨?
  复旦大学哲学学院教授徐英瑾对人工智能科学有长期关注,他将自己的思考向记者一一道来。
  马斯克是否危言耸听
  解放周一:这不是马斯克第一次公开宣扬“人工智能威胁论”了。您认为他的观点和立场立得住吗?您会从哪些角度,去审视他这一连串表态?
  徐英瑾:我个人认为,他目前的这番呼吁肯定是危言耸听了,因为他自己就花了很多钱投资人工智能。要判断一个“商人”的话的可信度,看一下他所说的和他的资金流向是否一致即可。他的资金流向,才体现他的真实意图。
  去年,马斯克曾宣布过以火星为目的地的载人飞行计划。试想一下,如果没有人工智能的帮助,无法先把机器人送上火星适应环境,这个计划无论如何是不可能实现的。  
 由此,我个人推测,很可能存在这样一种逻辑链条:即马斯克本人希望在人工智能方面领先,于是故意制造目前这番言论,使其他竞争对手在脑子一糊涂的情况下,不再做相关领域的研究和探索。 
  解放周一:不过,相比马斯克过去数番发起的“人工智能威胁论”,他这一次呼吁禁止的对象更具体:不是宽泛的人工智能,而是军用的无人智能武器。于是,人们的争论被进一步聚焦:“机器人武器”应当被禁止吗? 
  徐英瑾:军用机器人、性爱机器人及工业机器人,曾被认为是人工智能技术三个最有前途的应用领域。虽然人工智能技术在这三个领域的运用,都会导致相关的伦理问题,但在不少人看来,军用人工智能系统所构成的伦理学问题最为尖锐。因为此类系统的任务,就是直接杀戮生命,或为杀戮提供间接帮助。这自然也就牵涉到了特定军事暴力行为的合法性问题。 
  但值得思考的是:关于军事行动正当性和可辩护性的争鸣,古已有之、经久不绝,而军用人工智能系统的介入,又会在多大程度上改变此类问题的性质呢?实际上,战争本身的政治属性依然是一个与战争所使用的技术手段相对分离的话题。而在目前的情况下,具有自动开火能力的智能机器人的运用,只可能造成未来战争在战术层面上的变化,而不会像大规模杀伤性武器的运用那样,对国际安全局势产生全局性影响。 
  “机器人武器”会是一种威胁吗 
  解放周一:关于人工智能介入军事行动后可能带来的问题,有一个案例经常会被提及。美国海军早年曾就“自动开火武器的伦理规则,该怎么进行代码制定”展开激烈辩论。军方内部最集中的分歧点在于,能否赋予自动武器独立开火权。 
  徐英瑾:当时,大部分人给出的意见是“不能”,认为一定要为自动武器设置人工干预的回路。即自动武器执行的任何动作,都需要人类指挥员来下命令。就像今天的无人机那样,遥控武器是不能自己开火的。而马斯克要反对的,显然就是那种在未来能够自动开火的东西。 
  但这里面有一个非常棘手的问题:从某种意义上说,能够自己决定开火的武器,人类早就制造出来了,而且已经用了很多年,那就是地雷、水雷,因为二者皆可在没有人类指挥员命令的情况下自动引爆。换言之,假如未来能够自动开火的武器主要发挥的是类似“国境线上的保卫者”那样的作用,在扫描到入侵者时主动发起射击,那么,其与地雷、水雷并无本质不同。所以,为什么要造自动开火的武器?它的正当性到底在哪里?简单来说,就是技术条件发展下的战术发展需要。 
  我个人预测,未来能被人类伦理框架允许的自动开火武器,将主要被用于漫长国境线上的防御性威慑。这一类应用可以节约人力成本、减轻补给负担,以更少的军用开支,更好地达到防御威慑目的。但假设这类人工智能应用本身无法自主开火,不仅其反应速度将受限,威慑力也会大幅下降。我个人认为,这种有严格约束的警告性武力威慑,对人类和平是有好处的。由于其武备水平有限,也不大可能带来科幻电影《终结者》里那种灾难性影响。 
  我不否认,依据目前的技术,要造出可以自动分辨敌我的武装机器人,相关的准备还不足。但这并不构成阻碍军用人工智能系统制造的充分理由。 
  就好比,假设我们“穿越”回了达・芬奇的时代,并由此目睹了这位艺术大师兼工程学大师正在设计飞行器。请问,文艺复兴时代的欧洲法律体系,已经为飞行器的安全使用做好相关准备了吗?当时的物理学发展,已经为飞行器的设计提供了扎实的学术基础了吗?恐怕都没有。但是,我们却难以由此得出“达・芬奇在胡闹”的结论。 
  因为,如果没有他那些勇敢的技术尝试,欧洲的科学技术就难以在日后发展到足以使飞行器的设计与建造成为现实的地步。而相关的飞行器交通法规的出现与完善,也只有在这些交通工具的确已经成熟的前提下才有可能。 
  解放周一:问题是,要避免“机器人武器”成为一种威胁,这背后的“边界”可以被清晰地辨识出来吗? 
  徐英瑾:人工智能技术对于现有武器的改造,往往是针对战术兵器而言的,并以使之“无人化”为短期目标,一般并不特别针对洲际导弹等战略兵器的改造(因为后者本来已经“无人化”了)。在这样的情况下,人工智能技术的军事化所导致的战争样态的变化,也只具有战术层次上的意义,并不会在更宏观的尺度上,改变战争决策本身,改变得以做出战争决策的整个政治经济环境。 
  所以,我个人认为,即使在无人智能武器被广泛运用的明日战场,对于世界和平最大的威胁,依然还将是核、生、化等既有的大规模杀伤性武器。而将武备控制的焦点转向人工智能的军事化运用,或许反而会诱使我们错过了国际军备控制问题的真正关节点。 
  最值得警惕的“威胁” 
  解放周一:马斯克的言论和观点受到高度关注,一定程度上也反映出“人工智能威胁论”颇有市场。有没有什么“思考工具”能帮助我们甄别:哪些“威胁”是确确实实的,而哪些并不立得住? 
  徐英瑾:“人工智能威胁论”之所以很有市场,符合传播学中的一个基本原理:越是耸人听闻的说法,越是传得快、跑得远。而我个人觉得,就连“威胁”这个词都用得很有问题。它不够中性,本身就带有危言耸听的色彩。对这个问题更准确的表述可以是:人工智能对社会的公正、和谐发展是否有副作用。 
  人工智能对人类社会发展有副作用是一定的。就好比,我们都知道吃药会有副作用,哪个药没有副作用?但如果因为有一点副作用,就说出“全人类会就此毁灭”这种不托底的话,就有点过了。 
  解放周一:很多人其实也是担心,自己不能及时把人工智能的副作用甄别出来。 
  徐英瑾:现在人们对人工智能的理解往往是基于大数据的。大数据和人工智能不是一个概念,但既然大家现在都这么说,就暂且将错就错吧。 
  但如果人工智能是基于大数据这套东西来发展,很大程度上,就对那些拥有数据源的大公司最有利。而随着这一进程的不断深化,各种资源、资本不断向大公司集中,会导致整个社会财富结构愈发金字塔化。这不利于我们理想中的橄榄型社会的形成。 
  解放周一:您觉得这才是最值得警惕的副作用?徐英瑾:对。举例来说,就像超市这个行业,在大数据技术的助力下,很可能变成只有大超市才活得下来,中小超市的生存则愈发艰难。因为后者不可能像前者那样拥有完备的市场信息收集-反馈系统,从而可以对市场趋势有准确的洞察、快速的反应。而且,这一趋势在很大程度上将对人文传统的传承产生负作用。 
  比如,很多百年老店虽规模不大,但它们有自己的传统。可一旦它们被行业同化,很多和特定的店家传统捆绑在一起的文化习俗,就会消逝。这对文化多样性是有损伤的。 
  在美国已经出现这样一种现象:靠全球商业网络、信息高速公路活得不错的人和那些跟不上这些步伐的人之间,出现了利益上的巨大冲突;这种冲突进而转变成一种意识形态上的互相仇恨。毕竟,即便在发达国家,也并非所有人都可以快速跟上社会新趋势的步伐。 
  但上述种种问题的出现,并不意味着我们就该“关掉”人工智能这个“未知之盒”,而是要动脑筋,通过分配机制的改变或者通过别的补偿性技术,避免资本和新技术力量在形成新的叠加效应后,成为一种横扫人类生活多样性的力量。 
  站在国家层面去看,就是国家一定要使得这种人工智能技术的供应方多元化,鼓励竞争,鼓励百花齐放,不能一家独大。如果一家独大,国家就很可能被某些单一的技术发展路径绑架。 
  师资储备是瓶颈 
  解放周一:日前,国务院出台了《新一代人工智能发展规划》。该《规划》明确指出,人工智能已成为国际竞争的新焦点,应逐步开展全民人工智能教育项目,在中小学阶段设置人工智能相关课程、逐步推广编程教育。您长期关注人工智能领域发展,如何解读这一文件的信号意义? 
  徐英瑾:这一文件的出台,表明国家层面已经意识到了向全民普及人工智能知识的重要性。但事实上,在这一系列举措背后,有一个非常重要的技术问题。那就是,人工智能目前在我国还不是一级学科。 
  由于研究人工智能的人总是来自各个“山头”,有研究计算机的,有研究数学的,有研究自动化系统的,有研究通讯的,于是,在讨论该领域的问题时,他们往往会站在各自所在学科的立场上喊两嗓子。 
  这会有什么问题呢?就拿中小学阶段人工智能课程教材的编写来说,由于既有知识结构尚未成熟,可以提供逻辑起点的学科又不唯一,究竟用怎样一种方式和逻辑去教育中小学生,都会成为一个很现实的难题。 
  解放周一:在您看来,推进全民人工智能教育项目的发展,还有什么问题特别需要注意? 
  徐英瑾:我国在推进全民信息化教育方面已经积累了很多经验,可以为推进全民人工智能教育提供参考。但回顾全民信息化教育的发展历程,一个“老问题”依然值得重视。那就是,如何克服各地区在教育资源积累和调用能力上的巨大差异。 
  举个最简单的例子。在上海的复旦附中,要上人工智能课程相对比较容易实现。因为他们甚至可以直接请复旦大学相关领域的学者来授课。但即便在上海这样的发达城市,能有条件做到复旦附中这样的,也不会很多。展望未来,师资储备会成为全民人工智能教育的一个瓶颈问题。而按照目前我们的条件,线上教学很可能是合理利用既有师资力量的最佳方案。 
  ◇链接◇ 
  人工智能会是人类文明的最大威胁吗 
  前不久,埃隆・马斯克曾在全美国州长协会会议上,强调人工智能是“我们人类文明面临的最大威胁”,并呼吁政府对人工智能研究实施更严格的监管。他说:“在人们看到机器人在街上杀人之前,我们不知道如何做出反应,因为这看起来离我们太遥远了。但是,人工智能是一个特例,我认为我们需要积极主动地进行监管,而不是被动地应对。现在意识到监管人工智能的重要性,为时还不晚。”他的这番言论,引来业界专家纷纷发声―― 
  要教人工智能什么不可以做 
  华盛顿大学计算机科学教授和艾伦人工智能研究所首席执行官奥伦・埃齐奥尼(Oren Etzioni)对于马斯克此举表示不认可。他认为,马斯克所说的人工智能对人类来说是一种威胁,主要是因为他只片面地看到了人工智能对人类工作的威胁,担心人工智能被当作军事武器、威胁人类的生存等负面作用。但公众需要全面看到人工智能背后的所有信息,包括正面的和负面的。 
  他说,我们必须区分科幻小说和科学。在科幻小说中,人工智能经常被认为是一个“坏人”,试图统治人类世界。但事实上,人工智能是一种工具、一种技术,它有望通过改善交通、医疗服务等方式来拯救生命。与其建立一个新的监管机构,不如更好地教会人工智能什么可以做、什么不可以做。“我们需要研究如何构建‘AI 监护人’等系统来监控和分析,以确保人工智能遵守我们的法律和价值观。世界需要人工智能来满足其利益,人工智能则需要被监管。” 
  一场科技巨头间的竞赛 
  澳大利亚新南威尔士大学人工智能研究员托比・沃尔什(Toby Walsh)表示,马斯克的话是危言耸听。最近经过对300位领先的人工智能研究人员的调查,发现其中大多数人认为,人工智能至少要等50年,才能达到像现今人类一样的聪明程度,所以,这并不是一个亟待解决的问题。如今已有一些研究机构致力于确保这些机器不会对人类的生存构成威胁,相信他们会准确地提供届时需要采取的保障措施。 
  但他又认为,马斯克在一件事上是正确的:现在就需要政府开始着手监管人工智能。正因为现今的人工智能不够聪明,才需要人类的监管。例如,有偏见的算法、军备竞赛中的杀人机器人,等等。除此之外,一些科技公司掌握了很多个人医疗数据,也对人们的隐私造成威胁。 
  “我们正在见证一场大型科技巨头之间的人工智能竞赛。但正如许多其他行业曾看到政府为防止垄断行为的出现而介入市场,如果像谷歌和Facebook这样的大公司在20年里没有分裂的话,我将会非常担心我们社会的未来。” 
  人工智能专家、斯坦福人工智能实验室主任李飞飞表示,作为一名人工智能教育工作者和技术专家,她最希望的,是在人工智能的发展和传播方面看到更多的包容和多样性。 
  伦理道德问题应被优先考虑 
  国际电气和电子工程师协会(IEEE)“全球人工智能伦理倡议”主席Raja Chatila认为,人工智能正在嵌入到目前所建立的所有算法和系统当中。这就需要设计者优先考虑人工智能是否符合伦理道德并承担责任。他坦言,“我们实际上是冒着巨大风险的。因为我们将指数级增长和股东价值凌驾于社会繁荣指标之上,并以此作为这些令人惊叹的技术的成功标志。” 
  “全球人工智能伦理倡议”提出了希望将人类福祉与人工智能自治系统结合在一起的愿景。他们试图设计出可以解决伦理问题的模型程式,为相关问题在全球范围内构建共识,提供解决方案。 
  Raja Chatila对人工智能的最大担忧是,在没有优先考虑伦理和负责任的设计的情况下,设计和推广这种技术,“我们迫切需要在关注环境和社会可持续性的情况下,快速促进经济增长,以避免在人工智能的帮助下,创造出新的生存风险。人类不需要担心人工智能,只要我们现在就把道德和负责任的设计放在优先目标位置就行。” 
  先盯牢那些更接近短期的问题 
  《机器人的兴起:技术和未来的失业威胁》一书的作者马丁・福特表示,对于人工智能对人类构成生存威胁这件事,马斯克的担忧是合理的,也不应该被忽视。但这种担忧要在至少50年之后才可能出现。要求立即规范或限制人工智能发展的原因有很多,其中最重要的一个原因是,美国目前正在与其他国展开积极竞争,“我们在这场关键的比赛中不能落后”。 
  另外,在他看来,对真正先进的人工智能“接管人类世界”的担忧,让我们忽视了比专业人工智能发展更紧迫的问题。这些问题包括,将有数以百万计的工作岗位被淘汰,潜在的隐私威胁,在网络犯罪和网络战争中部署人工智能,真正自主的军事和安全机器人的出现,等等。在他看来,这些更接近短期的问题,是对已经存在的技术对社会产生影响的简单推断。“我们当前的重点,应该是解决这些投机性较低的风险。这些风险极可能在未来20年内产生重大影响。”

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多