原标题:OpenAI has published the text-generating AI it said was too dangerous to share 

  网易科技讯,11 月 8 日消息,据外媒报道,人工智能研发组织 OpenAI 日前发布了其完整版的自动文本生成 AI 系统,专家警告称该系统可能被用于恶意目的。

  OpenAI 最初在今年 2 月宣布了名为 GPT-2 的系统,但由于担心它会被用来传播假新闻、垃圾邮件和虚假信息,因此保留了该程序的完整版本。但该机构发布了不太复杂的 GPT-2 简化版本,借此研究人们对其接受情况。OpenAI 现在表示,该组织没有看到 GPT-2“被滥用的确凿证据”,为此决定发布其完整版本。

  GPT-2 是新一代文本生成系统的一部分,这些系统给专家留下了深刻印象,它们能够从最少的提示中生成连贯的文本。该系统接受了从网上抓取的 800 万份文本文档的培训,并对用户提供的文本片断作出响应。例如,给它个假标题,它就能写出新闻报道;给它一首诗的第一行,它就能续写整首诗。

  要弄清楚 GPT-2 的输出有多好有点儿困难,但该模型经常产生既令人害怕又令人信服的文字,这些文字常常会给人一种充满智慧的感觉。不过,随着使用这个系统的时间足够长,它的局限性也变得很明显,尤其是其面临长期一致性的挑战。例如,在故事中始终如一地使用同样的人名或坚持某个角色独有的个性。

  除了推出 GPT-2 的更多原始功能外,该模型的发布也是关于 AI 研究人员减轻其工作造成伤害的责任的持续辩论的一部分。专家指出,容易获得的尖端 AI 工具可能也更容易滥用。例如,我们已经看到使用深度伪造(deepfakes)来生成复仇色情内容的趋势。由于这种担忧,OpenAI 限制了其模型的发布。

  然而,并不是每个人都对 OpenAI 的做法表示欢迎。许多专家批评这一决定,称此举限制了其他人可以为减轻该模型危害而进行的研究,而且它也引发了关于“AI 危险”的不必要炒作。研究人员 Delip Rao 曾说:“‘太危险’这个词在没有经过深思熟虑或实验的情况下就被随意抛出了。我不认为 OpenAI 花了足够的时间来证明 GPT-2 真是危险的。”

  在本周发布的完整版中,OpenAI 指出,GPT-2 可能被误用,该组织还援引第三方研究称,该系统可能有助于对极端意识形态立场进行“广泛宣传”。它也承认,担心该系统会被用来产生大量连贯的垃圾邮件,使社交媒体等在线信息系统不堪重负,但这些担心尚未成为现实。

  OpenAI 还指出,其研究人员已经创建了自动系统,可以约 95% 的准确率识别 GPT-2 的输出内容,但这个数字还不够高,不足以进行“独立检测”,这意味着任何用于自动识别假文本的系统都需要与人类审核人员配合。这类合作并不罕见,因为这些任务经常依赖于人类来识别假图像和视频。

  OpenAI 表示,它将继续观察 GPT-2 如何被社区和公众使用,并将进一步制定其负责任 AI 研究的政策。(小小)