分享

伦理嵌入:人工智能奇点后人类自保之途?

 taotao_2016 2017-12-06

“如果没有在伦理方面作好准备,人类将来创造出的就可能是怪物。”近日,在由中科院学部科学道德建设委员会主办,学部科学规范与伦理研究支撑中心、福建省科协共同承办,《科学与社会》编辑部协办的“人工智能:在效率和安全中寻求统一”2017科技伦理研讨会上,北京大学信息科学技术学院教授查红彬说。

  

随着基于深度学习的AlphaGo连续战胜多位人类围棋名将,人工智能将对人类社会产生何种影响,以及人类是否存在被人工智能取代的风险等涉及人工智能伦理的讨论便从未停歇过。

  

然而,在查红彬看来,AlphaGo事实上还是在环境已知、规则化的封闭环境中取得的研究成果,而未来关于人工智能的研究对象应该是未知、非规则化环境中的机器人。

  

中科院科技战略咨询研究院研究员李真真表示,应从两个维度看待人工智能的发展,即人工智能应用带来社会智能化的过程、人工智能系统自身的发展及其引发的问题。

  

“智能化的过程令社会发生了变化,从社会生态视角来看,人工智能发展带来了人机关系的核心问题。”李真真说。

  

事实上,当下人工智能的发展已经带来了诸多伦理挑战,比如是否会导致大规模失业、是否会带来个人隐私与社会安全的隐患等。

  

不过,与会专家更关注的是“奇点”到来后,人类将如何自处?

  

据查红彬介绍,人工智能的技术奇点是指人工智能超过人类智力极限的时间点,“此后世界的发展将会超出人类的理解范畴”。

  

依据库兹韦尔的“加速循环规则”,技术的力量正以指数级的速度迅速增长,技术奇点将于2045年到来。这无疑会增加人类的紧迫感,但科学家也表示,对此并非无计可施。

  

据浙江大学预言与认知研究中心教授廖备水介绍,他们正在考虑将伦理嵌入到人工智能系统中。在他看来,当下人工主体的探讨并没有涉及社会层面的内容,而规范主体应当是人工主体与社会规范和伦理的结合。

  

廖备水表示,他们通过数学模型处理各种不一致情境中的推理,同时可实现不同利益攸关方的求同存异。这样便可“为解释自主智能系统的决策提供一种自然而形象的途径”。

  

与会专家对探讨人工智能发展的伦理框架态度积极,同时肯定了其发展对人类社会带来的益处。

  

上海交通大学计算机科学与工程系教授吕宝粮表示,无创的可穿戴脑机交互系统可实现对人、动物在自然场景下的情绪识别和调控。“如特殊岗位的极端情绪和情感监控以及抑郁症的检测量化等都可以实现。”

  

会上,中科院院士裴钢特别提醒,现在的伦理体系多是西方主导的伦理,这应当引起中国科学家的注意。他建议,中国科学家应加快探讨相应伦理规则的步伐,在国际社会上发出自己的声音。


来源:中国科学报

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多