分享

开局一句话,内容全靠编,这样的AI真的靠谱吗?

 果粉每日科技 2019-04-01

​​不知道大家有没有发现一件事情,现在看小说总是会“串戏”。

不是霸道总裁爱上我,就是穿越变成公主变成被遗忘在人间的夏雨荷,要么就是这辈子含恨而死重生拥有开挂人生!

更夸张的是,有的连剧情都一模一样,只是改了一下主人公的名字而已,在换个标题,就变成了一篇新作品。

要我说呀,真的是连个ai机器人都比不上了!给它起个头,它就能给你写出一篇独一无二的美文。

最近,OpenAI人工智能研究机构宣布: Generative Pre-Trained Transformer-2问世,简称GPT-2

GPT-2是一个大型的语言模型,内部包含了15亿的参数,并且在一个800万的网页数据集上训练而生的产物,有点厉害啊~

据官方透露,训练GPT-2的一个小目标就是:给GPT-2一个或多个前置单词,它就会自动推演接下来的单词。GPT-2所推导而出的内容和单词也是由数据集决定的。

你想让GPT-2成为一个故事作家,那么就帮它储存大量的故事模板;想让它成为新闻编辑,就帮她出文大量的新闻数据...数据越多,GPT-2能产出的天马行空的内容就越多。

说到这里,大家应该都可以看得出数据集对于GPT-2的作用有多大了。

如果说“书籍是人类进步的阶梯”,那么“数据就是GPT-2进步的阶梯了”!

口说无凭,让你们看看GPT-2是如何做到“开头一句话,故事全靠编的”:

比如山谷里的独角兽…

指环王等等…

反正就是只有你想不到的,没有它写不出来的…

如何,眼见为实了吧?而且编写出来的内容毫无违和感,堪称大神级别的创作呢。

我们再看看在捏造新闻方面,GPT-2也做的非常优秀,信手拈来,连剧情都不用考虑。比如被盗的火车车厢…

好莱坞大道的偷窃事件…

要是没有小怪兽的火眼金睛,一般人都不会怀疑这些新闻的真实性。

而且,造假新闻只是GPT-2的冰山一角,你想要的技能它都有。

在不需要对任何其他任务进行针对性训练的情况下,GPT-2还能完成阅读理解、常识推理、文字预测、文章总结等多种任务。

据说GPT-2的阅读内容能力能达到小学水平,但毕竟这种事情是需要证明的。

于是有人在GPT-2阅读理解能力方面进行了测试:比如研究人员给了一段奥运火炬的内容,然后提出了一些问题,比如起始地点、比赛长度、奥运主题等等。

测试之后发现准确率达到55%-60%。

不过你要是不给它给资料直接提问的话话,GPT-2的准确率就会骤降到5%,所以说好好学习还是很重要的,没有知识储备,当然就答非所问了,这完全是学渣和学霸的区别啊!

话说用AI做写手参与新闻编辑这项工作,就不能不说中国在2017年推出的关于九寨沟地震的报道了。

谁能想到那篇600多字的、10W+阅读量的文章居然也是人工智能写的!而且只用了25秒

这种种迹象都表明了,小怪兽的饭碗快要保不住了!

不过,想抢小怪兽我的饭碗,你有小怪兽的颜值吗?你懂表情包的用法吗?

小怪兽觉得,人工智能虽然产量高,效率高,但风险也是十分高的,如果被心怀不轨的人滥用,那产生的后果可就相当的可怕了。。。。

今日话题,如果有一天你的职业被人工智能代替了,你准备去做点什么呢?

关注微信公众号:怪兽科技,了解最新、最全面的黑科技知识和产品,享受更加优质的生活


​​​​

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多