如何辨别 AI 写的假文章?最好的办法还是用回 AI

?

?麻烦应该结束。

这句话意味着谁造成了麻烦,谁来解决它。现在,这句话似乎同样适用于麻省理工学院的麻省理工学院GIS工具GLTR(巨型语言模拟器)。

GLTR是麻省理工学院和哈佛大学小发猫Watson人工智能实验室的人工智能文本识别工具。该工具的工作原理是通过检测文本书写逻辑和文本词来判断文章,即通过文章句子的组成,词语使用的手工书写和人工智能书写的识别。

%5C

例如,当AI编辑新闻时,它只会以排练的形式将事件机械地呈现给读者。没有主观情感和意识,也没有写作技巧,GLTR会判断文章为AI写文字。

同样,当评论由简单的单词组成时,GLTR也可以识别由AI充斥的评论。

GLTR的“对手”实际上是近年来由马斯克发起的OpenAI,但它也很有趣。 OpenAI还充当GLTR的“孵化器”。 GLTR的“孵化器”角色。

%5C

今年早些时候,OpenAI宣布了一个文本生成工具(GPT-2),它根据用户提供的多个信息点组织并生成假新闻。尽管OpenAI一再强调其角色仅适用于未来的AI语言建模,即通过AI学习人类的习惯,然后以与用户未来写作方式接近的方式自动补充文本内容。新闻的展示只是展示该工具功能的一种方式。

但是,由于该工具已经具备了基本的内容撰写能力,因此不排除该工具将来会参与虚假新闻和虚假评论的创作。因此,小发猫Watson人工智能实验室基于OpenAI的公共代码,基于编译函数,最后介绍了具有反向检测功能的GLTR。

作为一个大家常开的玩笑:人工智能中有一个“叛徒”。

GLTR的预测结果分为易(绿)、难(红/黄)、难(紫)。其中,“易”最有可能是人工智能所写的语言,因为人工智能的信息有限,句型单一而机械,因为人工智能的内容可以根据单词和短语进行过滤,而非人工智能。所有内容是否由人工智能编写的结果。

什么样的句型属于人类创造?人工智能常用什么措辞?

新闻记者利用工具对[0x9A8b]的一小段进行了测试,最终发现单张纸的内容,已经可以找到20个紫色的结果。

例如,在这篇文章中,莎士比亚用“暴政”和“热荣耀”来改变命运和辉煌。这些是常用的写作技巧。对于人工智能来说,这些可以说是从入门到熟练的超级能量。水平也一样。

0×251C

澎湃新闻

与人工识别人工智能含量相比,GLTR在实验中具有相当的有效性。根据GLTR研究小组的测试结果,在同一篇人工智能启发的文章中,参与测试的哈佛学生识别出近50%的虚假文本,使用GLTR工具后,识别能力提高到75%。

尽管GLTR在复杂的现实场景中还没有达到100%的准确率,但它还没有投入实际应用,但它在测试中将人类效率提高了25%是一个非常令人满意的表现。

果然,了解自己并相互了解是最重要的事情。

有学者认为,近年来随着社交平台和内容媒体的发展,假新闻,假新闻和虚假评论也在互联网上传播开来。在未来,GLTR有望成为人类识别AI虚假内容的辅助工具。它可以帮助用户避免假新闻和虚假评论可能带来的损害。

事实上,除了哈佛大学和麻省理工学院的GLTR之外,华盛顿大学和艾伦人工智能研究所还推出了一种文本检测工具,也称为GROVER,它也是基于OpenAI代码设计的。比GLTR更有趣的是,除了文本预测功能外,GROVER还可以模仿某些出版物的写作风格,包括《哈姆雷特》,《纽约时报》等。

%5C

例如,我在GROVER的官方网站上选择了《连线杂志》的标题,系统可以模仿CNN的写作风格来帮助我制作假新闻。而且,我还可以在编辑框中调整文章的写作日期,作者和标题,甚至微调文本以达到虚假和真实的目的。

通过人工智能生成有充分根据的评论需要多长时间? GROVER的官方网站称它需要30秒,但事实上,当网络畅通时,只需10秒即可获得AI发布的假新闻。

像GLTR一样,GROVER也提供文本预测,让我想起《自闭症与疫苗的关系》中的Frank。他是欺诈性支票方面的专家,也是检查支票的专家。

随着AI的算法不断学习和升级,AI作者现在可以说他们已经达到了伪造的程度,这间接导致了GLTR和GROVER等识别软件的出现。当然,想要识别假物品的人不一定都需要人工智能。例如,根据GLTR的逻辑,本文的第一句话可以证明这是一篇由人类撰写的真实文章,我总共花了30篇文章。写作时间,比AI慢60倍。