分享

人们为何在恐惧人工智能?

 蓝天碧水应有期 2023-05-15 发布于广东

短短几年,从下围棋到独立研究蛋白质结构,从生成小说到制作可以假乱真的照片,人工智能已经深远地影响了我们这个世界。

程度还会有多深?可能我们现在还无法说得清,但美国斯坦福大学最新的一份调查报告可以给一些启示。

根据该报告,以人工智能自然语言处理研究人员为对象的研究显示,四分之三的研究者表示人工智能可能很快引发“革命性的社会变革”。

虽然该调查中的绝大多数人认为人工智能和自然语言处理的未来影响将是积极的,但人们仍然普遍担心该技术可能很快发展出潜在的威胁性能力,特别是在人工智能行业中,传统大企业已经没有占据绝对优势的能力。

随着创建和运行生成式人工智能系统的技术门槛急剧降低,所有的初创企业和超大公司现在发现自己正处于生成式AI模型的无尽汪洋中,核心技术已经不再由一小部分企业所控制。

所以同样地,人工智能可能带来的危害风险也不再是几家大企业可以管得住的。

图片

灾难可能来临

但眼下最大问题是...

上个月,一些欧美科技界的大人物签署了一封公开信,敦促世界领先的人工智能实验室暂停训练超级强大的计算机系统六个月。

在这封信中,这些大咖人物表示,人工智能的最新进展将给社会和人类带来深刻的风险。许多精通人工智能技术的研究人员甚至预计,如果不加以控制,让人工智能模型野蛮生长下去,如果有朝一日确实建立了一个超越人类智慧的人工智能的话,则最可能的结果会是全人类的毁灭。

近期,被称为人工智能教父的杰弗里·辛顿(Geoffrey Hinton)从谷歌AI研发的领导岗位辞职,正因为他个人对人工智能的担忧。

据已经75岁的辛顿接受媒体采访所称,辞职就是为了无所顾忌地谈论对人工智能的担忧。

他告诉媒体,人工智能聊天机器人的match一些潜在威胁是相当可怕的。他警告说,这些模型可能变得比人类更聪明,并可能被心怀不轨者利用。比如,它能够自动产生大量的文本,所以人们或许会收到很多质量很高的垃圾邮件。它也可能允许坏人更容易地操纵选举。

当人工智能变得比我们更聪明时候,是否也意味着人类面临着生存风险呢?

辛顿似乎已经得出结论,他认为人们正在开发的那种智能与人类拥有的智力非常不同。AI模型就好比有一万个人,只要有一个人学会了什么,所有人都会自动知道。而这就是这些聊天机器人如何能比任何一个人知道得多的原因。

这些技术就在那里,当智能系统与人类互动时,开发者会等待看发生了什么,并在此基础上做出调整。因此AI技术的提升速度特别快,用户就能帮助企业不断完善产品。这和其它任何行业的技术都有区别,因为传统行业通常是走“研发-上市-检验-调整”这样按部就班,比较缓慢的路径。

由此,辛顿短期内担心的事情部分已经成为了现实,随着人工智能生成的照片、视频和文字充斥互联网,人们已经开始非常困难地辨别什么是真的。

相对于世界末日或者人类级别的灾难,眼下人工智能发展带给我们最大的危机是在就业领域。

这里面最大的问题其实是“有人饱得吃不下,有人饿得睡不着”的不平衡问题。

根据高盛今年三月的一份研究报告,生成式人工智能的进步可以在10年内将全球年度国内生产总值提高7%,因为生产力提高了。

但如果生成式人工智能发挥其潜力,美国和欧洲可能会有多达3亿个工作岗位面临风险,其中法律和行政职业的裁员风险最大。

很多人预测,人工智能将在不久将来取代诸如助理律师、个人助理等低技术含量的文职工作,未来则会影响更广泛的高智力工种,包括程序员和创作人员。

人工智能的进步将威胁到白领工人,并在未来十年创造出“庞大数量的失业者”,人工智能实验室DeepMind的联合创始人之一穆斯塔法·苏莱曼认为:“毫无疑问,未来五到十年,白领阶层的许多工作将变得非常不同......将有大量的失败者,他们也将非常不开心,非常激昂。”

同时,对于那些能借助AI提高工作效率的人员来说,生成式人工智能的发展反倒是一种极大的帮助。

微软在5月9日发布的工作趋势指数显示,近三分之二的受访者认为,他们正挣扎于没有足够的时间和精力做自己的工作。

该指数在2023年2月和3月对31个市场的31000名员工进行了调查,发现在微软365软件中,普通员工仅仅花在沟通上的时间就高达57%,其余的时间才能被用来创作。因此,创造力被限制住了。近三分之二的受访主管表示正担心团队缺乏创新和突破。

图片

进行中的道德危机辩论

哈佛大学在2020年公布了一份报告指出,人工智能给社会带来了三个主要的伦理关切领域,分别是侵害隐私、偏见和歧视,以及也许是最深刻的哲学问题,即人类主观判断的作用。

当前关于互联网隐私保障的辩论,特别是关于如何克服法律程序和就业实践中的算法决策的偏见的辩论,正越发浓烈。

比如,程序开发人员有意识和无意识的偏见,以及那些用于训练软件的数据集是否本身就有问题。而且还有一个最难的问题:人工智能能否超越我们,或者说在决定生活中一些最重要的事情时,人类主观判断的某些特征是否不可或缺?

一旦人工智能复制了人类的偏见,而且给这些偏见赋予了一种科学的可信性。它会使得人类式的偏见具备了更多的信誉标签。

在贷款领域,算法驱动的决策确实有一个潜在的“黑暗面”。当机器从被输入的数据集中学习时,它们可能会复制银行过去的许多失败案例,导致对非裔美国人和其他边缘化群体的系统性差别待遇。

作为一个受到高度监管的行业,如果银行用于评估贷款申请的算法最终不适当地歧视某些消费者,那么银行在法律上就要承担责任。

银行想让最有信用的借款人获得资金,而不是某些特定的人获得资金。所以如果我们不深思熟虑,不谨慎行事,人类最终会面临碰触红线的危机。

人工智能的优势也不能完全被恐惧感所淹没。

或许人们对人工智能突然将偏见大规模地注入日常生活的恐慌是夸大了。因为商业世界和工作场所从一开始就充斥着各种人类决策的偏见,而这些偏见往往使人们无法达成交易或获得机会。并不是说AI给我们带来了这个新问题。

如果仔细校准和周密部署算法和模型,一些人工智能支持的简历筛选软件可以使更多的合格申请人得到机会,并可以尽量减少人类主观情绪可能出现的某种偏袒。

正如微软首席执行官纳德拉(Satya Nadella)所认为的,人工智能可能会使生产力的增长回到20世纪中期的光辉时代。即使运行人工智能有风险,工作可能被取代,人们可能不得不经历过渡期,而且人工智能可能会学到偏见,因为它所学习的信息来自于真实的人,而这些人本身就有偏见。但人工智能的好处很可能超过风险。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多