不知道大家有没有发现一件事情,现在看小说总是会“串戏”。 不是霸道总裁爱上我,就是穿越变成公主变成被遗忘在人间的夏雨荷,要么就是这辈子含恨而死重生拥有开挂人生! 更夸张的是,有的连剧情都一模一样,只是改了一下主人公的名字而已,在换个标题,就变成了一篇新作品。 要我说呀,真的是连个ai机器人都比不上了!给它起个头,它就能给你写出一篇独一无二的美文。 最近,OpenAI人工智能研究机构宣布: Generative Pre-Trained Transformer-2问世,简称GPT-2。 GPT-2是一个大型的语言模型,内部包含了15亿的参数,并且在一个800万的网页数据集上训练而生的产物,有点厉害啊~ 据官方透露,训练GPT-2的一个小目标就是:给GPT-2一个或多个前置单词,它就会自动推演接下来的单词。GPT-2所推导而出的内容和单词也是由数据集决定的。 你想让GPT-2成为一个故事作家,那么就帮它储存大量的故事模板;想让它成为新闻编辑,就帮她出文大量的新闻数据...数据越多,GPT-2能产出的天马行空的内容就越多。 说到这里,大家应该都可以看得出数据集对于GPT-2的作用有多大了。 如果说“书籍是人类进步的阶梯”,那么“数据就是GPT-2进步的阶梯了”! 口说无凭,让你们看看GPT-2是如何做到“开头一句话,故事全靠编的”: 比如山谷里的独角兽… 指环王等等… 反正就是只有你想不到的,没有它写不出来的… 如何,眼见为实了吧?而且编写出来的内容毫无违和感,堪称大神级别的创作呢。 我们再看看在捏造新闻方面,GPT-2也做的非常优秀,信手拈来,连剧情都不用考虑。比如被盗的火车车厢… 好莱坞大道的偷窃事件… 要是没有小怪兽的火眼金睛,一般人都不会怀疑这些新闻的真实性。 而且,造假新闻只是GPT-2的冰山一角,你想要的技能它都有。 在不需要对任何其他任务进行针对性训练的情况下,GPT-2还能完成阅读理解、常识推理、文字预测、文章总结等多种任务。 据说GPT-2的阅读内容能力能达到小学水平,但毕竟这种事情是需要证明的。 于是有人在GPT-2阅读理解能力方面进行了测试:比如研究人员给了一段奥运火炬的内容,然后提出了一些问题,比如起始地点、比赛长度、奥运主题等等。 测试之后发现准确率达到55%-60%。 不过你要是不给它给资料直接提问的话话,GPT-2的准确率就会骤降到5%,所以说好好学习还是很重要的,没有知识储备,当然就答非所问了,这完全是学渣和学霸的区别啊! 话说用AI做写手参与新闻编辑这项工作,就不能不说中国在2017年推出的关于九寨沟地震的报道了。 谁能想到那篇600多字的、10W+阅读量的文章居然也是人工智能写的!而且只用了25秒! 这种种迹象都表明了,小怪兽的饭碗快要保不住了! 不过,想抢小怪兽我的饭碗,你有小怪兽的颜值吗?你懂表情包的用法吗? 小怪兽觉得,人工智能虽然产量高,效率高,但风险也是十分高的,如果被心怀不轨的人滥用,那产生的后果可就相当的可怕了。。。。 今日话题,如果有一天你的职业被人工智能代替了,你准备去做点什么呢? 关注微信公众号:怪兽科技,了解最新、最全面的黑科技知识和产品,享受更加优质的生活
|
|