银河盟友 / 全面揭露团队 / 霍金恐AI人工智能进化过快消灭人类

0 0

   

霍金恐AI人工智能进化过快消灭人类

2017-05-01  银河盟友

英国物理学家史蒂芬·霍金(Stephen Hawking对于AI人工智能的担忧,已经表达过很多次。霍金在接受拉里·金(Larry King)的采访时说“机器人的进化速度可能比人类更快,且它们的终极目标将不可预测”,他一如既往地认为AI人工智能对人类未来的威胁。



霍金介绍说:“我不认为AI人工智能的进化必然是良性的。一旦机器人达到能够自我进化的关键阶段,我们无法预测它们的目标是否与人类相同。AI人工智能可能比人类进化速度更快,我们需要确保人工智能的设计符合道德伦理规范,保障措施到位。”


2015年,霍金警告称:随着技术不断发展,AI人工智能如果学会自我思考和适应环境,人类的生存前途未卜。今年霍金也说成功创造AI人工智能可能是人类史上最伟大的事件,不幸的是,也有可能是最后一个。人工智能机器人现在已经不再是死板的程序了,他们甚至拥有思维和性格。这种进化虽然可喜但也是恐怖的,他们进化比人类更快,甚至可能毁灭人类。



霍金认为现在用的数字个人助理Siri、Google Now以及Cortana都只是IT军备竞赛的预兆,未来数十年竞赛将更加激烈。霍金并非是唯一担心AI人工智能的科技界名人,特斯拉和SpaceX创始人伊隆·马斯克(Elon Musk)也曾经把开发AI人工智能比作“召唤魔鬼”,并警告称“人工智能技术给人类带来的伤害可能超过核武器。”



虽然霍金不止一次的表示AI人工智能的担忧,但是它带来的其他好处显而易见,可以帮助消除疾病以及贫困。AI人工智能虽然是人类所创造,但是现在人类面临着着来自人工智能的威胁。霍金警告说,“AI人工智能的发展必须在人类的可控范围内,才能保障人类的安全。”霍金认为“人类面临的两大威胁是我们自身的贪婪和愚蠢”。


感谢本章校稿:

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。如发现有害或侵权内容,请点击这里 或 拨打24小时举报电话:4000070609 与我们联系。

    猜你喜欢

    0条评论

    发表

    请遵守用户 评论公约

    类似文章
    喜欢该文的人也喜欢 更多