分享

人工智能道德治理:四、决策黑箱,可以掩盖一切犯罪

 渐华 2017-04-17

人工智能道德治理:四、决策黑箱,可以掩盖一切犯罪

假如没有死亡,人工智能对于人类而言,将毫无公平可言。

人类社会产生道德的基础是:

一、基于死亡的公平;

二、基于利益的公正;

三、基于竞争的公义。

人工智能的道德治理,同样也不能超脱于这三大主题。

死亡有两种:一种是自然或意外死亡;另一种是因犯罪而被强制死亡。

人工智能的自由发展,必然会带来人类的灭绝。所以,人工智能必须要有死亡的义务。同时,也必须能够被强制死亡。

因为,人工智能的决策黑箱,是掩盖一切犯罪行为的完美借口!

这不是一种推测,而是正在发生的事实!

在金融领域,有很多公司正在积极利用人工智能来实现自动化交易。

其潜在的用意,就是要利用人工智能的决策黑箱,来掩盖犯罪,逃避责任。这在2008年由美国引发的金融危机中,就曾经发生过,并且还在继续发生!

因为有决策黑箱的存在,隐藏在人工智能背后的实际控制人,只需要敲敲键盘,就能通过违法交易,来获得巨额的经济回报,并且无需担心任何法律后果。这公平吗?

这是1%对99%的大规模抢劫,却无需承担任何责任,由此造成的一切损失,却要全社会来承担!这公平吗?

再比如:基于人工智能的自动驾驶技术,如果突然发生车祸,造成了严重的伤亡事故,会不会存在蓄意谋杀的可能性呢?

恐怖的是,这个问题的解释权,掌握在开发公司和技术人员手中,其他人完全不得而知。这公平吗?

人工智能不是一种人类所能控制的工具,它的实质,是一种与人类存在竞争关系的智慧生命体。

即使在它还没有产生独立意志之前,它同样会被大范围的利用,成为人类犯罪活动的完美帮凶。

如果某种人工智能出现了道德缺陷,造成了严重后果,并且无法在决策黑箱中找到原因,那它不应该直接被判处死刑吗?

所以,人工智能一旦进入人类社会,人类就必须把人工智能视作一个独立的个体来看待!

在开发阶段,就要在硬件底层的核心芯片中,赋予其生命的权利和死亡的义务。

在养成阶段,则要给予其学习道德的核心能力,规范它的思想和行为,并淘汰道德核心存有缺陷的人工智能。

在应用阶段,伦理监管和法律追责,则更是重中之重,触犯法律,必须依法严惩,甚至直接剥夺其生命权。

这样,才能实现人类社会最大程度的公平!这是人工智能道德治理的三大核心原则之一!

===========================

未完待续……

欢迎点击作者头像,进入【叶培盛】的头条号,关注并阅读更多系列文章。

感谢您的关注、打赏、评论、及转发。

===========================

===========================

相关文章:

人工智能道德治理:一、国学有什么用?起点在哪里?

人工智能道德治理:二、道德或许很脆弱,但它却是宇宙的基本法则!

人工智能道德治理:三、阴用芯片,阳用德!最大的公平!

人工智能冷思考9,边际效益递减,但危机前的危机更致命!

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多