分享

比尔盖茨:AI的风险确实存在,但是可以管理

 hpyllll 2023-07-12 发布于上海

左手职场.右手采购

有故事.有方法.有工具

2023年7月12日

这是2023年第65篇原创文章

总616篇原创文章

全文4029字,阅读时间约13分钟

图片来源:公众号公共图片库

在最新的一期博客中,比尔盖茨坦言:AI的风险是真实的,但是可以管理。他还说,对于处理由突破性创新引起的问题,全世界已经有了很多的经验教训。意思是,这次也不例外。

下面,是我总结的他的文章的要点以及我的一点思考:

人工智能带来的风险可能让人感到不堪重负。那些因为智能机器而失去工作的人会发生什么?人工智能能否影响选举结果?如果未来的人工智能决定不再需要人类并试图摆脱我们怎么办?

这些都是合理的问题,不过我们有理由相信我们可以应对这些问题:这不是我们第一次因为重大创新而引入的新威胁,而且那些威胁我们都解决掉了。

无论是汽车的问世还是个人电脑和互联网的兴起,人们在其他变革时刻中都安然无恙——尽管经历了很多动荡,但是最终都变得更好。比如,在第一辆汽车上路后不久,就发生了第一起车祸。但我们没有禁止汽车——我们采取了限速、安全标准、驾照要求、酒后驾驶法律和其他交通规则。

小编:这一段,盖茨是想说,以AI为代表的第四次工业革命的出现和前三次工业革命一样,都带来了新威胁,但是都可以妥善解决。

这个论断我只能同意一半:同意“都带来了新威胁”,但是暂时不同意“都可以妥善解决”。原因是,AI的发展轨迹可能是人类所不能预测的,因为我们正在经历着技术奇点。这和前三次工业革命人类所经历的非常不同。这也是为什么人类一直担心AI可能毁灭人类,却从来没人担心前三次工业革命中的技术,比如,汽车会毁灭人类。

所以,从这一点上,盖茨还是非常乐观的。当然了,乐观不是坏事,关键是要建立在可信的知识体系和实践上。

关于人工智能到底能带来什么风险,没人知道所有答案。事实是,人工智能的未来既不像一些人认为的那样悲观,也不像其他人认为的那样美好。风险是真实存在的,但我对能够管理它们感到乐观。

01 由人工智能生成的深度伪造和虚假信息可能破坏选举和民主

人工智能扩展了虚假文本的问题,使几乎任何人都能够创建虚假的音频和视频,即所谓的深度伪造。如果你收到一个声音消息听起来像是你的孩子说:“我被绑架了,请在接下来的10分钟内将1000美元汇到这个银行账户,并不要报警”,它会产生远比一封相同内容的电子邮件更可怕的情感冲击。

从更大的规模上看,由人工智能生成的深度伪造可能被用于试图影响选举。当然,引发对选举合法获胜者的疑问并不需要复杂的技术,但人工智能将使其更加容易实现。

我们当然还没有解决虚假信息和深度伪造的问题。但有两件事让我保持谨慎乐观。一是人们有能力学会不轻信一切。随着骗局变得越来越复杂,许多人也变得越加警惕。我们需要对深度伪造建立同样的防护机制。

另一个让我有希望的是,人工智能可以帮助识别深度伪造并创建它们。例如,英特尔已经开发出了一种深度伪造检测器,政府机构DARPA正在研发技术来确定视频或音频是否被篡改。

这将是一个循环的过程:有人找到了检测欺诈行为的方法,其他人则想出了如何反击的办法,还有其他人开发了反反欺诈措施,以此类推。这不会是完美的成功,但我们也不会无助。

小编:这确实是一个相互的、循环制约的过程,就好像软件病毒和杀病毒软件一样,就看是魔高一尺,还是道高一丈了。

同时,不可忽视的是,随着AI越来越普及,应用的门槛越来越低,AI诈骗事件也越来越多了。

而谈起人类面对诈骗的表现,我就没那么乐观了。这不是说人们不提防,或者说不吸取教训,而是“敌人”太狡猾!加之,一方面,各国还没有在立法上及时跟进;另一方面,人们对于AI本身以及AI诈骗的认识还远远不够,这将成为AI诈骗的温床。

02 人工智能使对个人和政府进行攻击变得更加容易

不同于传统的黑客,他们需要通过暴力破解(尝试足够多的次数)来寻找软件中可以利用的漏洞,很多时候这种方法并不奏效,同时需要足够多的时间和耐心。

AI时代,人工智能模型将通过帮助黑客编写更有效的代码加速这个过程。他们还将能够利用关于个人的公共信息,如他们的工作地点和朋友是谁,来开发比我们今天看到的更高级的钓鱼攻击。

当然,人工智能也可以被用于正面的目的。政府和私营部门的安全团队需要拥有最新的工具,在犯罪分子利用之前找出并修复安全漏洞。

所以,我们不应该试图暂时阻止人们实施人工智能的新发展。因为网络犯罪分子不会停止制造新的工具。希望利用人工智能设计核武器和生物恐怖袭击的人也不会停下来。阻止他们的努力需要以同等的速度进行。

小编:看到这段,我想起了3月29日,在由图灵奖得主、深度学习三巨头之一约书亚·本吉奥,埃隆·马斯克,《人类简史》作者尤瓦尔·赫拉利等千人联名发表的公开信中,确实没有比尔盖茨的名字。

这封公开信呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。

这也是人类可怕的地方:你永远不知道谁,在哪里,掌握了什么技术,在或者想做什么。

03 人工智能将夺走人们的工作

在接下来的几年里,人工智能对工作的主要影响将是帮助人们更高效地完成工作。无论是在工厂还是在办公室处理销售电话和应付账款,这都是事实。最终,人工智能会足够擅长表达思想,以至于可以为你撰写电子邮件并管理你的收件箱。你只需用简单的英语或其他任何语言发出请求,就能生成一份丰富的工作报告。

当生产力提高时,这对社会是有益的。它给人们更多时间去做其他事情,无论是在工作上还是在家庭中。而对于那些帮助他人的需求,比如教学、照顾病人和支持老年人等,永远不会消失。但确实有些工人在我们向以人工智能为动力的工作场所过渡时需要得到支持和再培训。这是政府和企业的责任,他们需要妥善管理,以避免工人被抛在后头,避免类似于美国制造业就业岗位减少期间对人们生活产生的冲击。

小编:不知道盖茨是否有注意到:因为ChatGPT的出现导致的行业焦点重聚,比如,大厂们都裁撤了元宇宙团队,和工作效率&质量的提高,已经让很多人都失了业。

任正非说,未来的职场上只有两类人:一类是会用AI工具的人,一类是创造AI工具的人。压根就不存在第三类人,即不会用AI工具的人。

希望大家至少都成为会用AI工具的人!

04 人工智能继承我们的偏见并编造事实

幻觉是指当人工智能自信地提出一些显然不正确的主张时发生的情况

为什么会发生幻觉和偏见问题?因为人工智能模型实质上是更复杂版本的代码,可以让你的电子邮件应用程序预测你即将输入的下一个词:它们扫描大量文本——在某些情况下几乎包括所有在线文本,并分析其中的人类语言模式。

当你向人工智能提问时,它会查看你使用的单词,然后搜索与这些单词经常相关的文本片段。如果你写下“列出制作煎饼的配料”,它可能会注意到“面粉、糖、盐、发酵粉、牛奶和鸡蛋”这些词组经常与该短语一起出现。然后,根据它对这些单词通常出现顺序的了解,生成一个答案。(使用这种方式的人工智能模型被称为transformer,GPT-4就是其中之一。)

这个过程解释了为什么人工智能可能会出现幻觉或表现出偏见。它对你提出的问题或告诉它的事情没有背景理解。

同样地,人工智能模型会继承训练文本中蕴含的任何偏见。例如,如果一个模型阅读了很多关于医生的内容,而这些文本主要提到男性医生,那么它的回答将假设大部分医生都是男性。

尽管一些研究人员认为幻觉是一个固有的问题,但我并不认同。我对AI模型随着时间的推移可以被教会区分事实和虚构持乐观态度。例如,OpenAI正在这方面进行有希望的工作。

小编:人工智能产生幻觉的直接后果是,它一本正经的胡说八道。比如,前两天,我让它给我整理李玟的歌曲清单时,它居然“大言不惭”地告诉我:《真的爱你》《想你的夜》等等明显不是李玟的歌曲,都是李玟原创的?!

这也是为什么我们一直强调:尽量不要问它你一点都不懂的东西,因为你无法判断给出的信息的真伪!

05 学生不会学会写作,因为人工智能将替他们完成工作

许多教师对人工智能将如何破坏他们与学生的工作方式感到担忧。

同时,已经有一些人工智能工具正在学习如何判断某个作品是由人还是由计算机编写的,比如,OpenAI自己开发的GPTZero。但是有些教师并不试图阻止学生在写作中使用人工智能——实际上,他们鼓励这样做。

今年1月,一位名叫Cherie Shields的资深英语教师在《Education Week》上发表了一篇文章,介绍了她如何在课堂上使用ChatGPT。它帮助她的学生从论文的开头开始,到写提纲,甚至给予他们关于作品的反馈。

人工智能在写作和批判性思维方面还有另一种帮助方式。特别是在这些早期阶段,当幻觉和偏见仍然是一个问题时,教育工作者可以让人工智能生成文章,然后与学生一起核实事实。像我资助的Khan Academy和OER Project等教育非营利组织为教师和学生提供免费在线工具,重视对提法进行测试。辨别真假的能力比什么都重要。

小编:这不禁让我想起了当2月份,全美高校全面禁止学生在校使用ChatGPT的时候,时任斯坦福大学人工智能、机器人与未来教育中心主任的蒋里博士却明确要求学生全部用ChatGPT写作业,并且说这是进步。

他说,既然技术挡不住,那干脆就拥抱它,为什么要禁止一个这么牛的工具?!这不是我们向前发展的方向。

另外,根据当时一份斯坦福大学的调研,有17%的学生已经承认,他们平时在家做作业已经在用ChatGPT了。

我非常同意盖茨和蒋里博士的观点,先进的东西改变不了,我们就和它融合,为我所用。面对ChatGPT的挑战,大学教授在出题的时候需要更有水准,这也许不是一件坏事。毕竟,对于很多学生来说,老师的思维高度就是他们那时的天花板了。你觉得呢?

06 接下来会发生什么?

我相信,我们有更多的理由持乐观态度,相信我们可以在最大程度上利用人工智能的好处的同时管理风险。但我们需要迅速行动。

政府需要建立对人工智能的专业知识,以便能够制定明智的法律和法规来应对这项新技术。他们将需要处理虚假信息和深度伪造、安全威胁、就业市场的变化以及对教育的影响。举个例子:法律需要明确哪些使用深度伪造是合法的,并且需要规定如何标示深度伪造,以便每个人都能理解何时他们所看到或听到的内容并非真实。

小编:各国正在相继推出法律法规,这方面是很值得期待的!

最后,我鼓励每个人尽可能多地关注人工智能的发展。这是我们一生中最具变革性的创新,一个健康的公众辩论将依赖于每个人对技术、其好处和风险的了解。好处将是巨大的,相信我们可以管理风险的最好理由是,我们以前已经做到了。

部分资料来源:GatesNotes

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多