分享

OpenAI 的 GPT-2 今天迎来了最终版模型:之前因太危险未发布

 板桥胡同37号 2019-11-07

整整一年来AI界一直都在热议这种怪异的文本生成器。

GPT-2使用机器学习,基于有限的输入生成新颖的文本。大致来说,你只要输入关于你喜欢的任何方面的几个句子,这个AI就会生成一些“相关”的文本。不像大多数“文本生成器”,它并不输出预先写好的字符串。至少据OpenAI的研究论文声称,GPT-2可生成以前不存在的文本。


这家非营利性组织在2月份成为头条新闻,当时它宣布不会立即向公众发布GPT-2的完整版模型。相反,该公司决定在八个月内分四部分来发布。

2月份的OpenAI博文解释如下:

由于我们担心这项技术被恶意应用,因此我们不发布经过训练的模型。作为负责任披露的一项实验,除了一篇技术论文外,我们还改而发布一个小得多的模型供研究人员进行实验。

完整版模型含有15亿个参数。训练模型所用的参数越多,它就显得“越智能化”――就像人类一样,熟能生巧。

最初,OpenAI发布了含有1.24亿个参数的模型,随后发布了含有3.55亿个参数和7.74亿个参数的模型。每个版本与以前的版本相比都显示出功能上显著提高的优点。我们查看了7.74亿个参数的模型,结果令人惊艳。你可以在此链接(https:///)自行尝试一下,开发人员Adam King将模型转换成了用户界面(UI)。

除了新模型和模型权重外,OpenAI还发布了GPT-2检测模型,竭力事先防止滥用。可遗憾的是,据OpenAI声称,探测器的性能不如生成器。该公司在今天的博文中说:

我们进行了内部检测研究,并开发出了一种检测模型,检测1.5B GPT-2生成的内容时检测率约为95%。具体而言,我们采用了基于RoBERTaBASE(1.25亿个参数)和RoBERTaLARGE(3.55亿个参数)的序列分类器,并对其进行微调,以便对来自1.5B GPT-2模型的输出进行分类,与WebText这个我们用来训练GPT-2模型的数据集进行对比。

我们认为,对于独立检测而言,其准确性不够高,需要与基于元数据的方法、人类判断和公共教育相结合才更加有效。我们现发布该模型,协助对合成文本的检测进行研究,不过这确实让拥有资源的对手可以更好地规避检测。

一旦我们有机会尝试使用完整版模型,就会深入研究GPT-2完整版的对抗性(和积极性的)使用场景。

  • 同时,你可以在Github上下载模型:https://github.com/openai/gpt-2

  • 在此处:https://github.com/openai/gpt-2/blob/master/model_card.md 查看模型卡

  • 并在此处:https:///blog/gpt-2-1-5b-release/ 阅读OpenAI的博文


    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多