分享

当ChatGPT遇上量子计算,“人工智障”能否变“人工智能”?

 量子客 2023-02-22 发布于浙江

正文共:3511字  6图

预计阅读时间:9分钟

---

想象一下,一个需要十年甚至数百年才能被当前计算机解决的问题,突然间, 有可能在几小时或者几分钟内被完成。

对于信息技术飞速发展且必不可少的当下来说,这不仅仅是一个激动人心的场景而被期待,更重要的是,其带来的技术演进,可能从根本上改变信息时代的竞争格局。

前不久,一场人工智能的风暴横扫全球,短短数日,由OpenAI开发的大型语言模型ChatGPT,用户数以迅雷不及掩耳的增长速度快速到达了1亿,超越了过去所有应用,史无前例的火遍全球。

这场风暴不仅导致谷歌股价大跌,更是峰回路转,一夜之间,让微软Bing搜索卷土重来。

这阵风,也迅速从美国刮到中国,但国内释放的信息多少有些“愚人节”的氛围,以至于引发了网友们如下的调侃:

图来自网络

从这个事件看得出,ChatGPT的影响非常之大。

而中国的科技公司团队,差不多同一时间扭转枪口,奔向了它。

这让量子技术领域的人士,情不自禁地会发问,量子计算会和这种人工智能语言模型会碰出什么火花

01 从"人工智障"到人工智能

人工智能是指计算机系统通过模仿人类的智能,可以实现类似于人类的思考和决策

人工智能大型语言模型技术的发展历史可以追溯到20世纪50年代。

在这个时期,计算机科学家们开始探索如何使计算机能够理解和生成人类语言

随着计算机硬件和算法的不断进步,20世纪90年代开始出现了一批基于统计学习方法的语言模型,比如N-gram模型隐马尔可夫模型

这些模型可以基于大规模的语料库数据进行训练,从而提高模型的预测和生成能力。

然而,由于数据稀疏性等问题,这些模型的性能仍然存在很大的局限性。

随着深度学习技术的兴起,人工智能大型语言模型技术开始进入新的发展阶段。

在2010年前后,出现了一些基于神经网络的语言模型,比如循环神经网络和长短时记忆网络。

这些模型可以更好地捕捉语言的长期依赖性和语法结构,进一步提高模型的预测和生成能力。

最初的语言模型主要是基于规则和手工编写的语法规则进行操作,这种方法很快被证明不够灵活和难以适应真实语言的多样性。

体验过早些时候智能音箱的人们戏称,这并不是人工智能,相反,僵硬的人机对答,直呼这样的产品是“人工智障”。

02 智能的ChatGPT

2018年,OpenAI发布了一种新型的大型语言模型GPT,它基于变换器模型进行训练,并在巨大的语料库上进行了预训练。

ChatGPT是一种基于人工智能技术的大型语言模型,它可以进行自然语言处理和生成。

ChatGPT的开发是由OpenAI完成的,它使用了深度学习和自然语言处理技术,使得模型可以模拟人类的对话交流能力。

ChatGPT就是一种通过模拟人类对话来实现人工智能的技术。通过对大量文本数据进行学习和训练,ChatGPT可以生成高质量的文本内容,包括文章、对话、回答等等。

GPT-2和GPT-3更是实现了令人惊叹的语言生成能力,使得人工智能大型语言模型技术在自然语言生成领域达到了新的高度。


03 离“真智能”还有距离!

在试用了ChatGPT之后,为它提供的问题答案深深的折服,在过去,这样高质量的回复是不可以想象的。

这样的技术确实具有跨时代的意义,这也理解为什么很多科技公司纷纷声明会开发中国版的ChatGPT。

但ChatGPT作为一个AI语言模型,它是通过对大量数据进行学习和训练来实现语言处理和生成的,无法像人类一样拥有独立思考的能力。

对于用户提问问题,回答仅限于根据用户提供的信息和AI语言模型已经学习到的知识来生成合适的回复。

至于情绪方面,AI语言模型并不具备类似人类情绪所做出的反馈,因为情绪是人类生物学和心理学特有的现象。

其被设计为能够进行自然语言处理和生成,并且努力模拟人类语言交流,但并不具备人类情绪。

04 量子计算带来的“智”想象力

时至今日,量子计算已经不是一个全新的话题,全球各路量子计算玩家四处推广着自己“毫无用途”的量子计算机(客注:此处调侃的无用,是指没有具体应用到具备足够解决现实问题能力的量子计算机,多数的用途是教学设备用)。

即便如此,量子计算的潜力是不可被轻视的。

在阅览了一众中文圈里关于量子计算的应用,都充满着“可能”“未来”“也许”等模糊的字样,深层探讨具体应用的内容非常有限。

2020年5月,由《AI TIME》举办的一场关于量子计算的人才、软件和硬件的自由讨论提问环节,来自清华大学的清华大学交叉信息研究院副教授,半开玩笑里聊到,人类的大脑就是一台量子计算机(注:此处并没有存档原话语,也没有正式学术确认过,仅作为听众当时的笔记引入,如果有误,后期会就该问题证实)。

实际上,早在2018年8月,图灵奖得主姚期智院士在的墨子论坛中对未来进行展望时提出“F=QC+AI”,即未来(Future)=量子计算(QC)+人工智能(AI)。提到利用量子计算和人工智能,我们有可能搭建一个足以匹敌人类大脑的系统。

这里的观点蕴含了我们所期望的“智能”,并非简单的没有情绪温度的建立在对立逻辑上,冰冷机器下的“智能”。

这种类人脑的系统,是不是在ChatGPT技术基础上,结合量子计算的独特能力,是否就能靠近真正“智能”

注意,过去提到量子计算,包括一些国内知名的公司宣传的口径是其提供了超级大的算力。

事实上,产业界需要深刻的意识到,这些公司并不是在研究超级计算机,而是在研究建另一种计算系统,这其中也蕴含这其带来的特殊潜力。

量子计算核心的要义在于,其运用了量子力学的基本原理来处理信息,处理信息的基本单元(Qubit)已经从本质上区别于经典计算单元。

熟悉量子计算的人们都清楚,虽然最终得到的结果仍然是人类可读的经典信息,但区别于经典计算机,其内涵是在对整个系统测量之前,即系统演化期间处理信息的方式(因测量导致系统坍塌)。

因为,经典计算在本质上是不存在叠加、纠缠特性,所以无法做出这种源自本有的物理特性所蕴含的超越现有逻辑的判断(客注:此处讨论可能引发争论,请参阅Logic & Fuuzy Logic的知识)。

2021年10月 ,尚未与霍尼韦尔量子合并且以量子软件著称的剑桥量子宣布推出首个量子自然语言处理(QNLP)工具包和库。该工具包被称为lambeq,以已故数学家和语言学家Joachim Lambek的名字命名。

lambeq是一个工具包,能够将句子转换为量子线路,这有益于如自动对话、文本挖掘、语言翻译、文字到语音、语言生成和生物信息学的应用。

这是量子计算与语言模型可能关联最紧密的一次

虽然,最后也没有太多下文,是否能诞生出优越于当前这种大型语言模型GPT,产生了更强,更有深度的应用。

个中缘由,行业人也能猜出几分,是量子计算硬件发展实在太拖后腿,时至今日,依旧如困兽一样,还在经典计算模拟器都模拟极限下不能喘气。

直觉上,量子计算机之下的人工智能是高级的人工智能,奈何硬件发展着发展着,多数还在原地打转。

05 Q与C结合,智能还有多远?

但是可以预见的是,随着量子计算技术的不断发展,人工智能和量子计算也开始结合起来,这为ChatGPT带来了更广阔的发展空间。

以目前的发展程度来看,笔者整理了几个,量子计算技术可以在以下几个方面为实现更高级别的智能做出贡献:

  1. 量子神经网络:研究人员正在探索将深度学习技术与量子计算技术结合,发展出一种称为“量子神经网络”的新型模型。这种模型可以利用量子计算机的优势来提高训练速度和模型性能。

  2. 量子支持向量机:支持向量机是一种广泛应用于分类和回归问题的机器学习算法。研究人员正在探索如何使用量子计算机来实现更快速、更高效的支持向量机算法,从而提高机器的分类和回归能力。

  3. 量子模拟器:研究人员正在研究如何使用量子模拟器来模拟大脑的神经元和突触之间的连接,从而实现更高级别的智能。

加上,量子计算技术可以在极短的时间内完成复杂的运算,这对于训练大型深度学习模型来说具有非常大的优势。

通过与量子计算技术的结合,ChatGPT可以更加快速、高效地生成高质量的文本内容,同时也可以在处理大规模数据时更加优秀。

从这个角度来说,量子计算技术可以为实现更高级别的智能提供新的解决方案,但目前这种技术仍然处于早期阶段,需要更多的研究和实验来实现其潜在的应用。

至于量子计算未来需要多久才能加入丰富人工智能的行列,没有人能给出100%答案

但是,种种迹象显示,发展的速度惊人。

于是好奇的询问了一下ChatGPT,它跳动半天,很久仍然没有告诉答案,最后给出下面的结果:

图来自Openai.com

于是笔者将目光看向了全球一众全栈量子公司名单,IBM公司和谷歌都怒摔了一张路线图,国内外异常团结,大家异口同声说:量子计算机,就在不远的将来!!!!

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多