从何时起 人工智能 被纳入工具 GPT-2, 许多人对生成文本的能力感到惊讶。 该工具由 OpenAI,甚至创造了一个虚构的文本来展示科学家发现独角兽。 但机器人编写的文本的广泛使用,最终带来了一个争议:如何知道一段文本是否真的由 AI 编写?
旨在编写一个算法能够 检查是什么 由人工智能编写,一组来自 麻省理工学院 (MIT)) 开发了一个名为 GLTR. 但在这场竞赛中,麻省理工学院并不孤单。
也在寻找一把尺子来确定什么是由智能算法产生或不产生的, OpenAI 31 月 XNUMX 日在其 ChatGPT 系统中推出了一项新功能。 现在,无论谁使用自动文本生成器,都可以选择该选项 分类器工具 (分类工具)检查 AI 文本。
ChatGPT 的出现:自动文本是如何曝光的
要了解 ChatGPT,人们需要了解应用程序背后的组织。 它创建于 2015 年,是 OpenAI 开始构建算法,今天作为首席执行官 山姆·奥特曼. 公司旨在开展先进的研究 人工智能. 推出 即时通话 于 30 年 2022 月 XNUMX 日举行,旨在回答用户提出的几个问题。
“[ChatGPT 旨在]回答问题、识别错误、识别不正确的假设并拒绝不适当的请求。”
打开 AI,了解聊天如何与人工智能一起工作

还有其他类似的自动化由 OpenAI. 例子是 指导GPT,旨在向用户提供说明和答案,以及 戴尔·E,能够根据用户请求生成图像。
意识到自动文本创建工具可能会增加错误信息的产生,该公司决定进行更改。 除了公布排名工具外, OpenAI 警告说,如果用于制造假新闻,使用 ChatGPT 可能会构成威胁。
AI 编写的文本的评估工作原理
该项目 GPT零 具有验证AI制作文本作者身份的功能。 基本上,该算法评估是否有作者身份 ChatGPT 在分析的文本中。 此外,应用程序会查看是否 通过计算,文本具有句子的复杂性和变体。 该应用程序的发明人是 Edward Tian,22 岁,是一名学生 普林斯顿大学, 在美国。 除了开发计算方法外,他还使用 Streamlit 库使用 Python 构建了算法。

在接受采访时 守护者, 田 注意到,如果没有大型科技公司的兴趣,很难停止使用 ChatGPT 进行抄袭。 关于动机,他说这个想法是为了避免使用 软件 设法逃避了不当副本的检测。
排名工具的工作原理 OpenAI,反过来,有一些局限性。 此外,它正在进行一些测试,其创建方法涉及机器学习。 在此阶段,将人工智能编写的文本与人类制作的文本进行比较,以解决同一主题。
GPTZero 中的 AI 书写文本检测
该工具由 麻省理工学院简介 可以通过一种简单的技术来验证机器人的作者身份。 也就是说,它遵循由 GPT-2 生产 文本:查看哪些词更有可能紧跟在每个词之后。 所以 GLTR 检查所写的内容是否实际上是由 BOT.
O GLTR 通过一个简单的信号向用户展示它是否是人工智能编写的文本。 如果你有像这样的算法的参与 GPT-2, 文本显示为绿色。 其他颜色,如紫色、红色和黄色,表明该文本更有可能是由 人类。

假设哪些单词可以一个接一个地出现,这是一个文本是否像人写的那样通过的关键因素。 但是创造这个的科学家们 GLTR 表明正是不可预测性阻止了由 IA 不被注意。
“普通的写作,其实往往会选择一些意想不到的词语,这些词语更符合文章的主题。 这意味着我们可以检查一段文本是否真的看起来更有可能来自人类。”
负责未来主义网站 GLTR 算法的科学家
然而,技术 GLTR 需要经过改进。 有时,文本可以由人制作,但算法会错误地指责它是由某人制作的。 BOT. 这样,检查 AI 文本的出现将是一项需要更多工具的任务。
ChatGPT 中的 OpenAI 评级工具
A 分类器工具 具有验证至少一千个字符的文本作品的自动或有机作者身份的限制。 由机器训练创建的解决方案仍然需要进行一些调整,因为它仍然混淆了由 IA 与某些人生产的东西。
“在我们的评估中,使用一组英文文本,我们的分类器正确地将 26% 的 AI 编写的文本(真实测试)识别为‘可能是 AI 编写的’,同时错误地将人工生成的文本识别为人造的。人工智能 9 % 的时间(误报)”。
OpenAI

人工智能公司注意到了一个额外的危险。 最终,学生可以重新改编自动生成的文本,他们试图在由生成的内容中寻找模式 人工智能 并知道如何智胜他们。 这样, OpenAI 它已经表示,目前,新的分类功能仍然不能用于一劳永逸地确定产品是否来自机器人等。 预计公司将能够在不久的将来在这一挑战中取得进一步进展。
另请参阅: ChatGPT 通过了美国的 MBA、法律和医学考试。
丰特斯: 守护者 | 看着相机 | PC Mag | 未来主义 | 拴住.
评论者 Glauco
了解更多关于秀美科技
注册以通过电子邮件接收我们的最新消息。