分享

为什么不能停止对AI(GPT-5)的研究

 武宗 2023-04-13 发布于北京

 墨算未来 

墨科技演进,算未来气象


为何无法停止人工智能(GPT-5)的研究

3月29日,国际知名安全组织生命未来研究院(FLI)以人工智能具有潜在的社会和人类危害为理由,要求世界各地的科研机构停止对GPT-4以上的人工智能进行训练,直到该训练方案得到独立专家的认可、实施和审核。随后,马斯克,以及苹果公司的联合创始人斯蒂夫·沃兹尼亚克,以及上千名人工智能领域的专家和高层,都在这份声明上签了字。

然而就在不久前,杨立昆、吴恩达两位大佬,却是为马斯克开了一次直播,“怼”了那句“人工智能项目暂停半年以上”的话。杨立昆是“卷积法”的之父,他是“图灵三杰”中的一员,吴恩达则是“谷歌之脑”的设计师和缔造者,以及“Coursera”这个全球最大的网络教育平台的创建者。

他们在直播中直言不讳,“人工智能的研究,如果被暂停半年,那才是巨大的伤害。人工智能产品才是被管制的对象,而不是被控制的对象。”他们的核心观点如下:

1.人工智能已经为教育,医疗,以及其他许多领域带来了极大的价值,并帮助了许多人。中止人工智能研究会带来许多危害,降低人们创造有价值的东西的速度。

2..对于将来的人工智能系统,我们将提出一些新思路,让它们更加容易操控,而不是象 ChatGPT、GPT-4等已有的自回归模式。

3.人工智能世界末日理论,或者人工智能末日说,实际上都是夸大其词。人工智能将在各个领域超过我们人类,这是迟早的事,但是不会是明天。

4.有些规制,只要运作得当,未必就是一件坏事情。但一种科技,一种还没有开发出来的科技,是无法被监管的。一种新技术的诞生,首先要使其产生最大的正面效应,减少其消极效应,但是,这并不代表我们就会停止对其进行技术开发。

5.假设一个人工智能系统想要支配人类,这是不切实际的,因为支配必须要有一个目的。这种动机在人类以及一些其他社会性物种中存在,但在非社会性物种中并不存在,我们完全可以把AI设计成非社会化物种,设计成非支配性、顺从的,或者遵守特定规则以符合人类整体的利益。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多