假如没有死亡,人工智能对于人类而言,将毫无公平可言。 人类社会产生道德的基础是: 一、基于死亡的公平; 二、基于利益的公正; 三、基于竞争的公义。 人工智能的道德治理,同样也不能超脱于这三大主题。 死亡有两种:一种是自然或意外死亡;另一种是因犯罪而被强制死亡。 人工智能的自由发展,必然会带来人类的灭绝。所以,人工智能必须要有死亡的义务。同时,也必须能够被强制死亡。 因为,人工智能的决策黑箱,是掩盖一切犯罪行为的完美借口! 这不是一种推测,而是正在发生的事实! 在金融领域,有很多公司正在积极利用人工智能来实现自动化交易。 其潜在的用意,就是要利用人工智能的决策黑箱,来掩盖犯罪,逃避责任。这在2008年由美国引发的金融危机中,就曾经发生过,并且还在继续发生! 因为有决策黑箱的存在,隐藏在人工智能背后的实际控制人,只需要敲敲键盘,就能通过违法交易,来获得巨额的经济回报,并且无需担心任何法律后果。这公平吗? 这是1%对99%的大规模抢劫,却无需承担任何责任,由此造成的一切损失,却要全社会来承担!这公平吗? 再比如:基于人工智能的自动驾驶技术,如果突然发生车祸,造成了严重的伤亡事故,会不会存在蓄意谋杀的可能性呢? 恐怖的是,这个问题的解释权,掌握在开发公司和技术人员手中,其他人完全不得而知。这公平吗? 人工智能不是一种人类所能控制的工具,它的实质,是一种与人类存在竞争关系的智慧生命体。 即使在它还没有产生独立意志之前,它同样会被大范围的利用,成为人类犯罪活动的完美帮凶。 如果某种人工智能出现了道德缺陷,造成了严重后果,并且无法在决策黑箱中找到原因,那它不应该直接被判处死刑吗? 所以,人工智能一旦进入人类社会,人类就必须把人工智能视作一个独立的个体来看待! 在开发阶段,就要在硬件底层的核心芯片中,赋予其生命的权利和死亡的义务。 在养成阶段,则要给予其学习道德的核心能力,规范它的思想和行为,并淘汰道德核心存有缺陷的人工智能。 在应用阶段,伦理监管和法律追责,则更是重中之重,触犯法律,必须依法严惩,甚至直接剥夺其生命权。 这样,才能实现人类社会最大程度的公平!这是人工智能道德治理的三大核心原则之一! =========================== 未完待续…… 欢迎点击作者头像,进入【叶培盛】的头条号,关注并阅读更多系列文章。 感谢您的关注、打赏、评论、及转发。 =========================== =========================== 相关文章: |
|