分享

ChatGPT,一朵带血的玫瑰?

 何鲸洛 2023-02-08 发布于广东


出品©一笔封
作者@何鲸洛

2022年11月30日。
ChatGPT上线。
自ChatGPT发布以来。
ChatGPT迅速“入侵”各个领域:修bug、写代码、写周报、绘画、写小说……
文能提笔写诗;
武能修改Bug;
风头一时无两。
仅用了5天。
其注册用户就已然突破百万。


2023年1月底。
ChatGPT月活用户破亿,成为史上增长最快的消费者应用。
若仅仅是这样也就罢了。
盖茨的“摇旗呐喊”;
布林的“代码请求”;
以及微软、谷歌的“大动干戈”;
彻底把ChatGPT捧上了神坛。
2月7日。
谷歌紧急宣布推出ChatGPT竞品、实验性对话式 AI 服务Bard,并宣布了一系列AI新战略。
同一天。
微软宣布推出由ChatGPT支持的最新版本人工智能搜索引擎Bing和Edge浏览器。

ChatGPT的前景?

公开资料显示。
ChatGPT(Generative Pre-trained Transformer)是美国OpenAI公司推出的人工智能撰稿和聊天工具。
它能通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。


GPT(Generative Pre-trained Transformer)是一系列由OpenAI提出的非常强大的预训练语言模型,这一系列的模型基于Transformer算法,可以在非常复杂的NLP任务中取得非常惊艳的效果,例如文章生成,代码生成,机器翻译,Q&A等,而完成这些任务并不需要有监督学习进行模型微调。
2018-2020年。
OpenAI分别开发出GPT、GPT-2、GPT-3系列模型。


2020年。
在训练约2000亿个单词、烧掉几千万美元后,史上最强大AI模型GPT-3一炮而红。
从初代 GPT 到 GPT-3。
从技术的角度。
算法模型基本没有变化,但通过堆人、堆算力来进行训练后的结果就是GPT-3已经初步能够“理解”人类语言。
2021年1月。
OpenAI发布了DALL·E模型,人工智能根据一段话就可直接生成图像。
2022年4月。
OpenAI发布了DALL·E 2.0版,允许对图像输出进行简单修改。
11月底。
基于GPT-3.5模型的ChatGPT上线之后迅速火爆全网。
上线一个多月。
ChatGPT就把OpenAI的估值从200亿美元推高到290亿。
2023年2月2日。
OpenAI发布ChatGPT试点订阅计划——ChatGPT Plus。
ChatGPT Plus将以每月20美元的价格提供,订阅者可获得比免费版本更稳定、更快的服务,及尝试新功能和优化的优先权。
经估算。
整个ChatGPT的市场规模很可能超过2000亿美元。


庞大的市场前景之下。
2月7日。
百度类ChatGPT项目“文心一言”一出,直接推动股价当天大幅上涨,盘中一度涨超15%。
同一天。
微软大举进军AIGC领域,股价一夜飙升5450亿。
除此之外。
据CB Insights消息。
2022年ChatGPT概念领域目前约有250家初创公司,其中51%融资进度在A轮或天使轮,整个领域吸金超过26亿美元。


ChatGPT的危险性?

追根究底。
ChatGPT是一种神经网络技术,即奖赏网络。
这个奖赏网络不仅能对对海量的数据文本进行识别、分类、抓取、裁剪和输出,还能在输出内容的过程中进行学习。
用户使用基数和使用次数越多。
ChatGPT就能更准确、真实和接近人类的自然状态。
换言之。
ChatGPT的诞生就是为了取代人类,又或者说是人类的某些职能,当然,它现在还很弱小。


如果说AlphaGo在围棋上的表现就已经让职业棋手感到不安。
那么这一次能够“学习和理解人类语言”的ChatGPT的出现,应该已经威胁到了大多数打工人的“安全区”。
中新财经记者以“你觉得你会取代人类的一部分职业吗?”提问ChatGPT。
ChatGPT回答说。
有些职业,特别是那些需要重复性和精确性任务的职业,可能会受到人工智能和机器学习技术的影响。


至于取代哪些职业?
ChatGPT列出了清单:数据录入员、重复性办公室工作、工厂生产线上的简单任务、电话销售员、简单的客服工作等。


考虑到互联网底层代码语法和逻辑的特殊性。
ChatGPT现在可以修改输出端的回答;
“学习”了足够的代码之后。
它是不是就会试着自己修改自己的底层代码,不断优化、迭代?


抛开这方面的担忧。
ChatGPT有多危险就有多诱惑?
毕竟。
互联网发展到现在。
不管是电脑端,还是手机端,移动设备端,我们的交互方式之一——搜索引擎已经上十年停滞不前了。
这一次ChatGPT的出现?
不仅能够革新现有的交互模式,改变搜索广告生态;
还有可能点燃生成式AI的应用场景,文本、图像、音频、代码、视频、动画、影像……
但我们也要注意到。
ChatGPT不断会给各样各业带来挑战。
这种生成式AI算法还有可能会对知识产权和内容权威性成伦理困境。


除此之外。
这些生成式AI都是由巨量资金和大量数据喂养出来的,本身是对开放互联网上的大数据收取的“智商税”。
天生就具有垄断性。
而且。
它们的数据哪里来的,有没有倾向和立场也是个问题。
华盛顿大学语言学教授艾米丽称:
“OpenAI 在如何使用数据方面还远远不够透明,如果用户输入的数据被用于训练,我预计企业会这样想:在广泛使用 ChatGPT 几个月后,是否可能通过精心设计的提示来获取公司的机密信息?”

ChatGPT未来会走向何方?

当然。
ChatGPT目前只是一种工具,还远远没有开启智能,暂时还无法取代人类的工具。
而它。
也不是大众第一次感到惊喜和恐惧的工具。
2022年。
由AI研究员Yannic Kilcher创建的GPT-4chan,基于1.345亿条人类在网络论坛中发布的激进甚至极端的言论帖子,形成了自己的语言模型。
它的存在。
就是在挑战互联网言论底线。


2016年。
微软就推出过聊天机器人Tay。
只是受发布厌女、种族主义等各种煽动性言论影响,Tay不到24个小时就被人“玩坏了”。
2014年。
由微软(亚洲)互联网工程院推出的聊天机器人小冰,因模拟用户操作、诱导拉群、批量注册垃圾账号等问题被微信「封杀」,不久后在微博上「复活」依旧脏话不断。
2011年。
苹果就曝光了其数字助手Siri。
五年后上线的Siri支持自然语言输入,并且可以调用系统自带的天气预报、日程安排、搜索资料等应用,还能够不断学习新的声音和语调,提供对话式的应答。
出道即巅峰。
只是现在。
Siri早已泯然众人。


更早之前。
1996年。
麻省理工学院教授约瑟夫·维森鲍姆发明的Eliza,就是一款可以和人对话的程序,它能用一些语言技巧实现所谓的“智能”。
现在看来:
这或许就是未来ChatGPT的四种可能性。
要么像Tay一样直接被用户玩坏;
要么像小冰一样自己把自己玩坏;
要么像GPT-4chan一样走向极端;
要么像Siri一样因为各种不可控因素泯然众人;
或许。
ChatGPT能够走出一条属于自己的路。
因为这种神经网络算法很可能是我们最接近强人工智能的那条“捷径”?
而它现在才刚刚萌芽。
但在此之前。
ChatGPT必须完全取信,又或者能够欺骗人类,这才是强人工智能诞生的标志。


最后。
我们再聊几句。
互联网上开放的资源毕竟有限,而这种开放资源的权威性也相对较弱。
ChatGPT的出现。
很可能进一步撕裂整个互联网。

🐳

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多