分享

为什么人工智能会拯救世界

 mrjiangkai 2023-06-17 发布于江苏

人工智能时代已经到来,人们都吓坏了。

幸运的是,我在这里带来一个好消息:人工智能不会摧毁世界,事实上可能会拯救世界。

首先,对于人工智能是什么的简要描述:人工智能是将数学和软件代码应用于教导计算机如何以类似人类的方式理解、综合和生成知识的过程。人工智能就像任何其他的计算机程序一样——它运行、接收输入、处理数据并生成输出。

人工智能的输出在许多领域都非常有用,包括编码、医学、法律和创意艺术等。它是由人们拥有和控制的,就像任何其他技术一样。

对于人工智能不是什么的简短描述:它不是杀手软件和机器人,它们会突然活跃起来并决定屠杀人类或以其他方式毁灭一切,就像电影中所看到的那样。

更加简洁的描述人工智能的方式是:使我们关心的一切变得更好的方法。

为什么人工智能可以使我们关心的一切变得更好。

社会科学经过多年研究和成千上万的研究得出的最为验证的核心结论是,人类智能使生活的各个方面的结果变得更好。

更聪明的人在几乎所有领域的活动中都能取得更好的结果:学术成就、工作表现、职业地位、收入、创造力、身体健康、寿命、学习新技能、管理复杂任务、领导能力、创业成功、解决冲突、阅读理解、财务决策、理解他人观点、创意艺术、育儿成果以及生活满意度。

此外,人类智能是我们几千年来用来创造我们今天所生活的世界的杠杆:科学、技术、数学、物理学、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、伦理、道德。

如果没有在所有这些领域应用智能,我们仍然会生活在泥屋中,艰难地进行维持生计的农耕。

相反,我们利用智能在过去的4000年里将我们的生活水平提高了大约10,000倍。

人工智能为我们提供的机会是深刻增强人类智能,使所有这些智能产生的结果(以及其他许多结果,从创造新药物到解决气候变化到太空技术)都能从现在开始变得更好,远远超越现有水平。

人工智能对人类智能的增强已经开始了——以各种形式的计算机控制系统的形式,人工智能已经存在于我们周围,现在随着像ChatGPT这样的大型语言模型的出现迅速升级,并将在此基础上迅速加速——如果我们允许的话。

在我们的人工智能新时代中:

  • 每个孩子都将拥有一个无限耐心、无限同情、无限知识和无限帮助的人工智能导师。
  • 每个人都将拥有一个无限耐心、无限同情、无限知识和无限帮助的人工智能助手/教练/导师/训练师/顾问/治疗师。
  • 这个人工智能助手将在生活的各个机遇和挑战中陪伴着每个人,最大化每个人的结果。
  • 每个科学家都将拥有一个可以极大扩展他们科学研究和成就范围的人工智能助手/合作者/伙伴。每个艺术家、工程师、商人、医生、照顾者都将在自己的领域拥有同样的助手。
  • 每个领导者——CEO、政府官员、非营利组织主席、运动教练、教师——都将拥有同样的助手。
  • 领导者在他们领导的人群中做出更好决策的放大效应是巨大的,因此这种智能增强可能是最重要的。
  • 经济中的生产力增长将大幅加速,推动经济增长,创造新的产业、新的工作岗位和工资增长,从而实现全球物质繁荣的新时代。
  • 科学突破、新技术和新药物将大幅扩展,因为人工智能帮助我们进一步解码自然规律,并将其应用于我们的利益。
  • 创意艺术将进入一个黄金时代,因为通过人工智能增强,艺术家、音乐家、作家和电影制作人能够以比以往更快、更大规模地实现他们的创意。
  • 我甚至认为人工智能将改善战争,当战争不可避免时,通过大幅降低战时死亡率。每场战争都以在巨大压力和极其有限信息下由非常有限的人类领导者做出的可怕决策为特点。
  • 现在,军事指挥官和政治领导者将拥有人工智能顾问,帮助他们做出更好的战略和战术决策,最大限度地减少风险、错误和不必要的流血。
  • 简而言之,今天人们用自然智能做的任何事情,通过人工智能都可以做得更好,我们将能够应对以前无法解决的新挑战,从治愈所有疾病到实现星际旅行。
  • 这不仅仅涉及智能!人工智能最被低估的品质也许是它能赋予人类情感。人工智能艺术赋予那些本来缺乏技术技能的人们自由创作和分享他们的艺术创意的能力。与富有同理心的人工智能朋友交谈确实能提高他们处理逆境的能力。而人工智能医疗聊天机器人已经比他们的人类同行更具同理心。无限耐心和同情心的人工智能不会使世界变得更加冷酷和机械化,而是会使世界变得更温暖、更美好。

这里的赌注是巨大的。机遇是深远的。人工智能很可能是我们文明创造的最重要、最好的东西,至少与电力和微芯片不相上下,甚至可能超越它们。

人工智能的发展和普及——远非我们应该害怕的风险——是我们对自己、对我们的孩子和对未来的道义义务。

我们应该生活在一个更美好的人工智能世界中,而现在我们可以做到。

那么为什么会出现恐慌?

与这种积极的观点形成对比的是,目前关于人工智能的公众讨论充斥着歇斯底里的恐惧和偏执。

我们听到的声音声称人工智能将以各种方式杀死我们所有人,毁掉我们的社会,夺走我们所有的工作,导致严重的不平等,并使坏人做出可怕的事情。

是什么解释了这种从近乎乌托邦到可怕的反乌托邦的潜在结果的差异呢?

从历史上看,每一个重要的新技术,从电灯到汽车,从收音机到互联网,都引发了一场道德恐慌——一种社会传染,让人们相信新技术将摧毁世界、或社会、或两者兼有。悲观主义者档案馆的可爱人们记录了这些几十年来由技术驱动的道德恐慌,他们的历史使这种模式变得非常清晰。事实证明,这次的恐慌甚至不是对人工智能的首次恐慌。

当然,许多新技术确实导致了不好的结果——通常是那些在其他方面对我们福祉有巨大益处的技术。因此,仅仅因为存在道德恐慌并不意味着没有值得关注的问题。

但是道德恐慌本质上是非理性的,它将可能是合理关切的事情夸大成一种歇斯底里的程度,讽刺的是,这反而使我们更难以应对真正严重的问题。

现在我们对人工智能确实出现了一场全面的道德恐慌。

这场道德恐慌已经被各种行为者作为一种激励力量,要求采取政策行动——制定新的人工智能限制、规定和法律。这些行为者对人工智能的危险发表了极具戏剧性的公开声明,他们在滋养和进一步煽动道德恐慌,同时宣称自己是无私捍卫公众利益的英雄。

但他们真的如此吗?他们是对还是错?

人工智能的洗礼者与走私者

经济学家们观察到这类改革运动中的一种长期模式。这些运动中的行为者可分为两类——“洗礼者”和“走私者”,这是基于上世纪20年代美国禁酒令的历史例子。

  • “洗礼者”是真正的社会改革者,他们在情感上(虽然不一定是理性上)深信新的限制、规定和法律是为了防止社会灾难而必要的。对于禁酒令来说,这些行为者通常是虔诚的基督徒,他们认为酒精正在破坏社会的道德结构。对于人工智能风险来说,这些行为者深信人工智能会带来一种或另一种存在风险——无论如何追问,他们是真心相信的。
  • “走私者”是自私自利的机会主义者,他们在新的限制、规定和法律的实施中将从中获利,这些规定、规定和法律将使他们免受竞争对手的冲击。对于禁酒令来说,这些人是那些在合法酒精销售被禁止时通过非法手段向美国人出售酒精而发了一笔横财的人。对于人工智能风险来说,这些人是那些如果竖立起规范壁垒,形成一个得到政府祝福的人工智能供应商垄断集团,从而使新创企业和开源竞争受到保护,他们能够赚更多钱的首席执行官——这是“太大以失败”银行的软件版本。

一个愤世嫉俗的人会认为,一些表面上的洗礼者实际上也是走私者——特别是那些受到大学、智库、活动团体和媒体机构的报酬,以攻击人工智能的人。如果你是为了制造人工智能恐慌而获得薪水或获得资助的人......你很可能是一个走私者。

走私者的问题在于他们总是获胜。

洗礼者是天真的理想主义者,走私者是愤世嫉俗的操作者,所以这类改革运动的结果往往是走私者得到了他们想要的——监管垄断、免受竞争的冲击,垄断集团的形成——而浸礼派则不禁思考他们为了社会改进而努力的方向出了什么问题。

我们刚刚经历了一个惊人的例子——2008年全球金融危机后的银行业改革。洗礼者告诉我们,我们需要新的法律和规定来拆分“太大以失败”的银行,以防止再次发生这样的危机。

于是,国会通过了2010年的多德-弗兰克法案,该法案被宣传为满足洗礼者的目标,但实际上被大银行利用。结果是,2008年“太大以失败”的银行现在变得更加庞大。

因此,实际上,即使洗礼者是真诚的,即使洗礼者是正确的,他们也被狡猾和贪婪的走私者利用来谋取个人利益。

这正是当前人工智能监管推动中所发生的事情。

然而,仅仅确定行为者并质疑他们的动机是不够的。我们应该就洗礼者和走私者的论点进行客观评估。

1 人工智能会杀死我们所有人吗?

第一个也是最早的人工智能末日论风险是人工智能会决定真正地灭绝人类。

对我们自己创造的技术会崛起并摧毁我们的恐惧深深编码在我们的文化中。

古希腊人在普罗米修斯神话中表达了这种恐惧——普罗米修斯将破坏性的火焰力量和更一般的技术(“技艺”)带给了人类,为此普罗米修斯被众神永久折磨。

后来,玛丽·雪莱在她的小说《弗兰肯斯坦》或《现代普罗米修斯》中给了我们现代人自己的版本,在小说中,我们开发了永生的技术,然后这个技术起来试图摧毁我们。当然,没有人工智能恐慌的报纸报道是完整的,而没有詹姆斯·卡梅隆的《终结者》电影中那个闪烁着红眼的杀人机器人的静止图像。

这个神话被认为是为了激励我们认真考虑新技术的潜在风险——毕竟,火焰确实可以用来焚烧整个城市。

但正如火焰也是现代文明的基石,用来使我们在寒冷而敌对的世界中保持温暖和安全,这个神话忽略了大多数新技术的巨大好处,实际上激起了破坏性的情绪而非理性分析。仅仅因为古代人类对此感到恐慌,并不意味着我们必须也这样做;我们可以应用理性。

在我看来,认为人工智能会决定真正地灭绝人类是一个深刻的范畴错误。人工智能不是一个经过数十亿年进化的生命体,参与适者生存的竞争,就像动物和我们一样。它是数学 - 代码 - 由人们构建、拥有、使用和控制的计算机。

认为人工智能会在某个时刻发展出自己的思维,并决定它有自己的动机,以致于试图杀死我们,这是一种迷信的挥手。

简而言之,人工智能没有意愿,没有目标,它不想杀死你,因为它不是活着的。人工智能是一种机器 - 它不会比你的烤面包机更有生命。

现在,显然,有些人坚信杀人机器人的存在 - 洗礼者 - 他们因为他们的可怕警告而获得了突然爆炸性的媒体报道,其中一些人声称已经研究这个主题数十年,并说他们现在因为所学到的东西而感到恐惧。

其中一些真正的信徒甚至是这项技术的创新者。这些人主张对人工智能实施各种奇怪和极端的限制,从禁止人工智能的发展,一直到对数据中心进行军事空袭和核战争。他们认为,因为像我这样的人无法排除人工智能未来可能带来灾难性后果,我们必须采取一种预防性的立场,可能需要大量的实体暴力和死亡来防止潜在的生存风险。

我的回应是,他们的立场是非科学的 - 可以进行哪些可测试的假设?什么会证伪这个假设?我们如何知道何时进入危险区域?这些问题主要没有得到回答,除了“你无法证明它不会发生!”实际上,这些洗礼者的立场是如此非科学和极端 - 关于数学和代码的阴谋论 - 并且已经呼吁使用实体暴力,以至于我将做一件我通常不会做的事情,并质疑他们的动机。

具体而言,我认为有三件事正在发生:

首先,回想一下,约翰·冯·诺伊曼对罗伯特·奥本海默有关他在创建核武器方面的角色的著名忧虑作出了回应 - 这帮助结束了第二次世界大战并防止了第三次世界大战 - 他说:“有些人承认罪行是为了声称犯了这个罪。”怎样以最引人注目的方式为自己的工作的重要性声张,而又不显得过于自吹自擂?

这解释了那些实际上正在构建和资助人工智能的洗礼者在言行上的不一致 - 观察他们的行动,而不是他们的言辞。(在与奥本海默会面后,杜鲁门对他更加严厉:“不要让那个啼哭的人再进来。”)

其次,一些洗礼者实际上是走私者。存在一整个职业领域,专门从事“人工智能安全专家”、“人工智能伦理学家”、“人工智能风险研究员”。他们被雇佣来宣扬崩溃论,他们的言论应该得到适当的处理。

第三,加利福尼亚州因我们众多的邪教而闻名,从EST到人民寺庙,从天堂之门到曼森家族。尽管并非所有,但其中许多邪教是无害的,甚至可能为那些感到疏离的人提供了一个家园。

但有些确实非常危险,邪教在跨越导致暴力和死亡的界限上往往非常困难。

而现实情况是,大湾区的每个人都很清楚,但可能在湾区以外的地方并不为人所知,即“人工智能风险”已经演变成一种邪教,突然进入了全球媒体关注和公众对话的视野。这个邪教不仅吸引了一些边缘人物,还吸引了一些行业专家和相当数量的富有捐助者 - 包括最近的山姆·班克曼-弗里德。它发展出了一整套邪教行为和信仰。

正因为这个邪教的存在,才会有一些听起来极端的人工智能风险的崩溃论者 - 并不是因为他们实际上拥有使他们的极端主义合乎逻辑的秘密知识,而是因为他们自己激起了狂热,并且真的是……极端到了极点。

事实证明,这种类型的邪教并不新鲜 - 在西方有着悠久的末世信仰传统,它孕育了末世邪教。人工智能风险邪教具有所有末世邪教的特征。以下是维基百科上的描述,我稍作补充:

“末世信仰是一群人或运动(人工智能风险的崩溃论者)相信社会将经历一次基本转变(人工智能的到来),之后所有事物都将改变(人工智能乌托邦、反乌托邦或世界末日)的信念。只有戏剧性的事件(人工智能禁令、对数据中心的空袭、对未受监管的人工智能进行核打击)被视为能够改变世界(预防人工智能)的力量,而这种改变被期待由一群虔诚和专注的人来实现或幸存下来。在大多数末世信仰的场景中,灾难或即将到来的战斗(人工智能末日或其预防)之后将会是一个新的、纯净的世界(人工智能禁令),在这个世界中,信徒们将会得到回报(或至少承认他们一直是正确的)。”

这种末世邪教的模式是如此明显,以至于我很惊讶为什么更多的人没有看到它。

别误会,邪教很有趣,他们的文献通常富有创造力和迷人之处,他们的成员在晚宴和电视节目中也很引人入胜。但是,他们的极端信仰不应该决定法律和社会的未来 - 这是显而易见的。

2 AI会毁掉我们的社会吗?

第二个被广泛讨论的人工智能风险是人工智能将毁掉我们的社会,通过产生被这类崩溃论者称为“有害”的输出,以至于对人类造成深刻的伤害,即使我们并不会被直接杀害。

简而言之,如果杀人机器人没有伤害我们,仇恨言论和虚假信息也会。

这是一个相对较新的崩溃论关注点,从我上面描述的“人工智能风险”运动分支出来,并在一定程度上取代了它。

事实上,人工智能风险的术语最近从“人工智能安全”(AI safety)变成了“人工智能对齐”(AI alignment),后者是指担心社会“危害”的人使用的术语。

原始的人工智能安全人士对这种转变感到沮丧,尽管他们不知道如何将其重新归类 - 他们现在提倡将实际的人工智能风险主题改名为“不杀所有人的人工智能主义”(AI notkilleveryoneism),尽管这个术语尚未被广泛采用,但至少很明确。

人工智能社会风险主张的本质可以从其自身术语“人工智能对齐”中看出端倪。对齐于什么?人类价值观。哪些人类价值观?啊,事情变得棘手的地方就在这里。

碰巧的是,我亲眼目睹了类似的情况 - 社交媒体的“信任与安全”战争。显而易见,社交媒体服务多年来一直面临来自政府和活动人士的巨大压力,要求禁止、限制、审查和压制各种内容。

“仇恨言论”(及其数学对应物“算法偏见”)和“虚假信息”的同样关切直接从社交媒体环境转移到了“人工智能对齐”的新领域。

我从社交媒体战争中得出的主要教训是:

一方面,没有绝对的言论自由立场。首先,包括美国在内的每个国家至少会对某些内容定罪。其次,有某些类型的内容,比如儿童色情和煽动现实世界暴力的行为,几乎被几乎所有社会普遍认为是禁止的 - 无论是否合法。

因此,任何促进或生成内容(言论)的技术平台都会有一定的限制。

另一方面,滑坡并非谬误,而是不可避免的。一旦建立了限制甚至极其恶劣内容的框架 - 例如,对于仇恨言论,特定的伤害性词语,或对于虚假信息,明显错误的声明,比如“教皇已去世” - 一系列政府机构、活动人士压力团体和非政府实体将立即行动起来,要求对他们认为对社会和/或个人偏好构成威胁的言论进行越来越严厉的审查和压制。他们会采取明目张胆地违反法律的方式进行。在实践中,这个循环似乎可以无限地持续下去,并得到我们精英权力结构内部的威权保安人员的热情支持。社交媒体中的这一循环已经持续了十年,只有一些特殊情况下才变得更加热切。

因此,这就是现在围绕“AI对齐”形成的动态。其支持者声称有智慧来设计对社会有益的AI生成的言论和思想,并禁止对社会有害的AI生成的言论和思想。而反对者声称思想警察的傲慢和专横令人震惊,并且通常在美国至少是明目张胆地犯罪,并实际上正试图成为一种新型的融合政府-企业-学术威权言论独裁,直接从乔治·奥威尔的《1984》中揪出。

由于“信任与安全”和“AI对齐”的支持者都聚集在全球范围内非常狭窄的一小部分人群中,这部分人群被认为是美国沿海精英阶层的典型代表 - 其中包括许多从事科技行业和撰写科技文章的人士 - 我的许多读者可能会认为,为了避免破坏社会,需要对AI的输出进行严格限制。

我现在不会试图说服你们,我只是简单地陈述这是需求的本质,并且大多数世界上的人既不同意你们的意识形态,也不想看到你们获胜。

如果你不同意目前通过不断加强的言论规范对社交媒体和AI施加的主导性道德观念,你还应该意识到,关于允许AI说/生成什么的争论将比社交媒体审查的争论更加重要 - 而且重要得多。AI极有可能成为世界上一切事物的控制层。它被允许如何运作可能比任何其他事情都更重要。

你应该意识到,一小群孤立的、党派化的社会工程师正在试图在保护你们的名义下决定这一点。

简而言之,不要让思想警察压制AI。

3 AI是否会夺走我们所有的工作

由于各种原因导致的机械化、自动化、计算机化或AI引发的工作丧失的担忧已经持续了数百年,自从机械织机等机械设备首次出现以来。尽管历史上每一次主要技术的发展都带来了更多的工作机会和更高的工资水平,但每一次这种恐慌都伴随着声称'这一次不同'的说法——这一次终将发生,这一次的技术将最终对人类劳动力造成毁灭性打击。然而,这种情况从未发生过。

在我们最近的过去中,我们经历了两次由技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管许多谈头、专家以及科技行业的高管在过去的两个十年里一再强调大规模失业的临近,但到2019年年底——正值COVID疫情爆发之前——世界上的就业岗位数量比历史上任何时候都多,而且工资水平也更高。

然而,这个错误的观点却不会消失。

果不其然,它又回来了。

这一次,我们终于拥有了将夺走所有工作岗位并使人类工人变得多余的技术——真正的人工智能。这一次历史肯定不会重演,人工智能将引发大规模失业,而不是快速的经济增长、就业增长和工资增长,对吗?

不,那是不会发生的——事实上,如果允许人工智能在整个经济中发展和普及,它可能引发有史以来最显著和持久的经济繁荣,伴随着创纪录的就业和工资增长——正好与恐惧相反。原因如下。

自动化会导致失业的悲观论调者们一直犯的核心错误被称为'劳动量固定谬误'。这种谬误是一种错误的观念,即在任何给定时刻,经济中有一定数量的劳动力要完成,要么由机器完成,要么由人类完成——如果由机器完成,人类就没有工作可做。

劳动量固定谬误源于天真的直觉,但在这里,天真的直觉是错误的。当技术应用于生产时,我们会获得生产力增长——即通过减少投入而增加产出。结果是商品和服务的价格降低。随着商品和服务的价格下降,我们花费在它们上的费用也减少了,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,推动了新的生产——包括新产品和新产业——的创建,从而为之前被机器取代的人们创造了新的工作岗位。结果是一个更大的经济体,具有更高的物质繁荣度,更多的产业、产品和就业机会。

但好消息并不止于此。我们还会获得更高的工资。这是因为,在个体工人的水平上,市场根据工人的边际生产力来确定报酬。与传统行业的工人相比,技术融入业务的工人将更加高效。雇主要么会因为工人变得更有生产力而支付更多的薪水,要么另一个雇主会,完全出于自身利益的考虑。

结果是,引入技术的行业不仅会增加行业中的工作岗位,还会提高工资水平。

总结起来,技术使人们变得更加高效。这导致现有商品和服务的价格下降,工资水平上升。进而促使经济增长和就业增长,并激发了新的工作岗位和新产业的创造。

如果市场经济得以正常运作,技术得以自由引入,这将是一个永不终止的持续向上的循环。正如弗里德曼所观察到的:“人类的需求是无穷无尽的”——我们总是想要比我们拥有的更多。

技术融入的市场经济是我们更接近实现每个人都可以想象的一切需求,但永远无法完全达到的方式。这就是为什么技术不会破坏就业,永远不会。

对于那些没有接触过这些想法的人来说,这些观点可能令人震惊,可能需要一些时间才能理解。但我发誓我没有凭空捏造它们——事实上,你可以在标准经济学教科书中读到所有这些内容。我推荐读一下亨利·哈兹里特的《经济学一课》中的《机器的诅咒》这一章节,以及弗雷德里克·巴斯夏的讽刺性作品《烛光制造商的请愿书》,该书描述了由于与照明行业的不公平竞争,要求遮蔽太阳的现代版本。

但你也许会认为这一次不同。这一次,有了人工智能,我们拥有了可以取代所有人类劳动力的技术。

然而,根据我上面描述的原理,想象一下如果所有现有的人类劳动力都被机器取代会意味着什么。

这意味着经济生产率增长的起飞速度将是绝对天文数字,远远超出任何历史先例。现有商品和服务的价格将全面降至接近零。消费者福利将大幅提高。

消费者的购买力将急剧增加。经济中的新需求将爆发。企业家们将创造出令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人和人工智能来满足所有新的需求。

假设人工智能再次取代了那些劳动力呢?这个循环将重复,推动消费者福利、经济增长以及工作和工资增长

进一步提高。这将是一条直线上升的螺旋,通往亚当·斯密和卡尔·马克思从未敢想象的物质乌托邦。

我们应该如此幸运。

4 AI会导致严重的不平等吗?

说到卡尔·马克思,对于人工智能取代工作的担忧直接引出了下一个关于人工智能的风险,那就是,好吧,马克思,假设人工智能确实取代了所有的工作,不管是出于好的还是坏的目的。那么,这难道不会导致巨大而严重的财富不平等吗?人工智能的所有者将获得所有经济回报,而普通人一无所获吗?

恰好,这是马克思主义的一个核心观点,即生产资料的所有者 - 即资产阶级 - 不可避免地会从实际工作的人民 - 即无产阶级 - 那里夺取所有社会财富。

这是另一个被现实一再证明错误的谬论,但让我们彻底揭穿它。

这个理论的缺陷在于,作为一种技术的所有者,将其独自保留并不符合自身利益 - 实际上恰恰相反,将其卖给尽可能多的客户才符合自身利益。

对于任何产品来说,全球最大的市场是全世界的80亿人口。

因此,在现实中,每一项新技术 - 即使起初只是向高薪大公司或富裕消费者销售 - 都会迅速扩散,直到落入最大规模的大众市场,最终触及全球所有人。

经典例子是埃隆·马斯克在2006年公开发表的所谓“秘密计划”,他自然而然地公开发表了该计划:

第一步,制造[昂贵的]跑车;第二步,利用这笔钱制造一辆经济实惠的车;第三步,利用这笔钱再制造一辆更经济实惠的车。

……这当然正是他所做的,结果成为了世界上最富有的人。

最后一点至关重要。如果他今天只卖车给富人,那么埃隆会更富有吗?不会。如果他只为自己制造汽车,他会比现在更富有吗?当然不会。不,他通过向全球最大的市场销售来最大化自己的利润。

简而言之,每个人都能得到这个东西 - 正如我们过去在汽车、电力、无线电、计算机、互联网、手机和搜索引擎等方面所看到的。

这些技术的制造商非常有动力将价格降低到全球每个人都能负担得起的程度。这正是人工智能已经发生的事情 - 这就是为什么你现在可以以低成本甚至免费使用最先进的生成式人工智能,例如微软的必应和谷歌的Bard,而且这种情况将继续发生。这不是因为这些供应商愚蠢或慷慨,而是因为他们贪婪 - 他们想要扩大市场规模,从而最大化利润。

因此,发生的情况与技术推动财富的集中相反 - 最终包括全球所有人在内的技术的个体客户获得了更多的权力,并获得了大部分创造的价值。与以往的技术一样,建造人工智能的公司 - 假设它们必须在自由市场中运作 - 将竞相努力实现这一点。

马克思当时错了,他现在还是错了。

这并不是说不平等不是我们社会的问题。它确实是问题,只是它不是由技术推动的,而是相反的,是由经济中对新技术最抵制的部门、对阻止采用人工智能等新技术的政府干预最多的部门推动的 - 具体包括住房、教育和医疗保健。人工智能和不平等的实际风险不在

于人工智能会导致更多的不平等,而是我们不允许使用人工智能来减少不平等。

5 AI会导致坏人做坏事吗?

迄今为止,我已经解释了五种最常提出的人工智能风险中的四种并不是真实存在的情况:人工智能不会复活并杀死我们,人工智能不会毁掉我们的社会,人工智能不会导致大规模失业,人工智能不会导致糟糕的不平等增加。

但现在让我们来讨论第五种,这也是我实际上同意的:人工智能会让坏人更容易做坏事。

在某种意义上,这是一个必然的推论。技术是一种工具。从火和石头开始,工具可以用于做好事——烹饪食物和建造房屋——也可以用于做坏事——烧伤人和殴打人。任何技术都可以被用于好或坏。没错。

而人工智能将使犯罪分子、恐怖分子和敌对政府更容易做坏事,毫无疑问。

这让一些人提议,好吧,既然如此,让我们不冒风险,让我们在此之前禁止人工智能的发展。不幸的是,人工智能不是一种像钚那样难以获取的神秘物质。恰恰相反,它是世界上最容易获取的材料——数学和代码。

显然,人工智能已经无法收回。你可以从成千上万的免费在线课程、书籍、论文和视频中学习如何构建人工智能,而且优秀的开源实现项目每天都在增加。人工智能就像空气一样,将无处不在。要想阻止它,就需要实施极其严厉的集权统治——监视和控制所有计算机的世界政府?黑色直升机中的重兵踩踏?那样的话,我们将不再有一个需要保护的社会。

因此,解决坏人利用人工智能做坏事的风险有两个非常直接的方法,这正是我们应该关注的。

首先,我们已经制定了法律来定罪大多数人使用人工智能可能犯下的坏事。入侵五角大楼?那是犯罪。从银行偷钱?那是犯罪。制造生物武器?那是犯罪。进行恐怖袭击?那是犯罪。

我们只需要在可能的情况下防止这些犯

罪,并在无法防止的情况下对其进行起诉。我们甚至不需要新的法律——我不知道有任何一个已被提出的坏的人工智能使用方式是合法的。如果发现新的坏的使用方式,我们就禁止那种使用。

证毕。

但你会注意到我在其中加入了一点——我说我们应该首先集中精力在防止发生使用人工智能犯罪的情况上——这难道不意味着要禁止人工智能吗?嗯,还有另一种方式来防止这些行为,那就是将人工智能作为一种防御工具。使人工智能在坏人手中具有危险性和坏目标的能力,也使其在好人手中具有强大的力量——特别是那些负责防止坏事发生的好人。

例如,如果你担心人工智能生成虚假人物和伪造视频,解决办法就是构建新的系统,让人们可以通过加密签名验证自己的身份和真实内容。数字内容的真实性和伪造性在人工智能之前就已经存在;答案不是禁止文字处理软件、Photoshop——或人工智能——而是利用技术构建一个真正解决问题的系统。

因此,其次,让我们大力利用人工智能进行善良、合法和防御性的目的。让我们在网络防御、生物防御、追踪恐怖分子以及我们为了保护自己、社区和国家而做的一切工作中利用人工智能。

当然,已经有很多聪明的人在政府内外做着这样的事情——但如果我们将当前一切都集中在禁止人工智能这个徒劳的前景上的努力和智慧,用于利用人工智能来防范坏人做坏事,我相信一个充满人工智能的世界将比我们今天生活的世界更安全。

不全力和迅速推进人工智能的实际风险

还有一个最后的、真正的人工智能风险可能是最令人担心的:

中国对人工智能有着迥然不同的愿景——他们将其视为一种用于实施威权主义人口控制的机制,不折不扣。他们对此毫不掩饰,已经开始追求他们的计划。而且他们并不打算将人工智能战略局限于中国境内——他们打算在全球范围内推广,无论是在为5G网络提供动力的地方,还是在提供类似TikTok这样作为其集中指挥和控制人工智能前端的友好消费者应用的地方,他们都有意这样做。

人工智能的最大风险在于中国赢得全球人工智能主导地位,而我们——美国和西方——没有赢得。

我提出了一个简单的对策——实际上是美国前总统罗纳德·里根在与苏联打赢第一次冷战时采用的策略。

“我们赢,他们输。”

与其让对杀手级人工智能、有害人工智能、破坏就业的人工智能以及导致不平等的人工智能的无端恐慌使我们处于被动地位,我们在美国和西方应该全力以赴推动人工智能的发展。

我们应该力争赢得全球人工智能技术优势的竞争,并确保中国不占据主导地位。

在这个过程中,我们应该尽可能快速而有力地将人工智能应用于我们的经济和社会,以最大限度地提高经济生产力和人类潜力。

这是抵消真正的人工智能风险并确保我们的生活方式不被中国的更黑暗愿景所取代的最佳方式。

VION WILLIAMS的批注:事实美国的棱镜门事件早就暴露出美国借助一切技术手段监听并控制全球的战略意图,尤其是AI技术的发展,欧美不可避免会将该技术应用于极端政治意图之中,Marc Andreessen的立场注定了他不可能具备真正的将AI普及并给全人类带来美好的格局。

我们要做什么 ?

我提出一个简单的计划:

  • 大型人工智能公司应被允许以尽可能快且积极的方式构建人工智能,但不得实施监管捕获,不得建立因错误的人工智能风险声称而与市场竞争隔离的政府保护垄断组织。这将最大限度地发挥这些公司令人惊叹的能力在技术和社会层面上的回报,它们是现代资本主义的珍宝。
  • 初创的人工智能公司应被允许以尽可能快且积极的方式构建人工智能。它们既不会面对政府授予大公司的保护,也不会得到政府的援助。它们只需被允许进行竞争。如果初创公司无法成功,它们的存在也将不断激励大公司做出最好的表现 – 无论如何,我们的经济和社会都是赢家。
  • 开源人工智能应被允许自由传播和与大型人工智能公司以及初创公司竞争。对于开源,不应设立任何监管障碍。
  • 即使开源无法击败公司,其广泛的可用性对世界各地想要学习如何构建和使用人工智能以成为技术未来一部分的学生来说是一个福音,并确保人工智能能够惠及所有能从中受益的人,无论他们是谁或他们拥有多少财富。
  • 为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作,应积极参与潜在风险领域,利用人工智能来最大限度地提升社会的防御能力。
  • 这不仅限于人工智能相关风险,还包括更普遍的问题,如营养不良、疾病和气候问题。人工智能可以成为解决问题的极其强大的工具,我们应该将其视为如此。
  • 为了防止中国实现全球人工智能主导地位,我们应充分发挥私营部门、科研机构和政府的全部力量,共同推动美国和西方的人工智能在全球范围内占据绝对主导地位,包括最终在中国内部也如此。

我们胜利,他们失败。

这就是我们如何利用人工智能拯救世界。

是时候开始建设了。

传奇与英雄

我以两个简单的陈述作为结束。

人工智能的发展始于上世纪40年代,与计算机的发明同时进行。关于神经网络的第一篇科学论文——即今天我们所拥有的人工智能的架构——发表于1943年。在过去的80年里,整整几代人的人工智能科学家出生、上学、工作,甚至有些人在没有看到我们现在所获得的回报之前就去世了。他们都是传奇。

如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能的创造思想——正在努力将人工智能变为现实,面对着一片试图将他们描绘成鲁莽恶棍的恐惧和厄运主义墙壁。

我不相信他们是鲁莽或恶棍。他们每个人都是英雄。我和我的公司非常高兴支持尽可能多的他们,并将百分之百地站在他们和他们的工作旁边。

原文链接

Why AI Will Save the World /

by Marc Andreessen

https:///2023/06/06/ai-will-save-the-world/


文章图片1

不管AI如何对人类的未来命运造成影响,人类社会正在不可避免的迈入AGI时代,而当下所能够做的,就是以一种开放且包容的心态去审视AI的未来,最为重要的是思考AGI如何赋能个人的生产力,如何掌握更多的AI技能,未来如何组建一支为自己而服务的AI团队,这是较为明确的未来。

主探索构建人类与AI的协作空间,人类如何训练并组建AI机器人团队,形成内容生产协作关系,如何通过知识语料训练机器人,如何通过Prompt自定义模版,训练出具有高实用性的AI-Agent,每一名超级个体数所训练的AI助理可以授权给其他人使用,建立人类与AI-Agent的协作方式。以及,探索更多的AI工具如何构建超级个体的生产力引擎。

人类在通往AGI的道路上,要让自己成为新一代的超级个体。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多