Category

人工智能检测新闻

有关人工智能检测领域重大更新和发展的见解和基本信息。

人们正在使用 ChatGPT 写投诉!(新研究)

By 人工智能检测新闻

人工智能无疑正在改变我们的在线写作方式,根据一项新的研究,人们现在正在使用人工智能工具来撰写在线投诉。 Minkyu Shin 和 Jin Kim 在 Arvix 上发表了一项名为 “利用大型语言模型增强人类说服力 “的新研究,重点探讨了 ChatGPT 如何改变人们投诉的方式。 用生成式人工智能完成写作任务 人工智能写作工具往往难以理解人类的情感,而这对有效沟通非常重要。此外,人工智能写作工具还倾向于撰写大量花哨的文字,这让读者难以理解文章的内容。 这些问题并不妨碍人们使用这些工具完成从撰写电子邮件到撰写博客文章等一系列任务。 人们这样做的主要原因是为了节省时间。 编辑人工智能文本比自己从头开始编写文本要容易得多。 该小组希望研究人们是否使用人工智能来撰写投诉,以及这种方法是否能有效地获得回复。 用生成式人工智能编写投诉书 研究小组研究了消费者金融保护局(CFPB)提供的消费者投诉数据库,以了解人们是否在使用人工智能。 从数据库中,他们可以看到消费者的投诉是否成功地得到了对其有利的裁决。 为了弄清消费者是否在使用人工智能,研究小组需要弄清消费者产生的文本是人工智能写的还是人写的。 所以他们需要一个人工智能探测器。 根据研究,最准确的人工智能探测器 Minkyu 和 Jin 决定测试各种人工智能检测工具,他们认为 Winston AI 是 是 “最有效的人工智能检测程序之一,可识别投诉是否由 ChatGPT 撰写或协助”。 然后,他们通过检查 2022 年 12 月(ChatGPT 推出之前)之前发生的投诉对该工具进行了测试,并通过 Winston AI 确认所有这些投诉都是人为写的。 他们还创建了人工智能编写的文本,并将其添加到数据库中。然后,他们将这些文本在 Wisnton AI 中运行,发现 Winston…

Read More

生成式人工智能如何影响维基百科

By 人工智能检测新闻

生成式人工智能正在逐渐影响维基百科上的内容。 如果你曾经尝试过使用生成式人工智能工具(如 open AI 和 ChatGPT)来生成信息,你就会发现它们写出的文本可信度很高,像人类的文本一样。但问题是,它们很容易包含错误信息。 现在,为数亿人提供可靠信息来源的世界百科全书维基百科正在使用同样的生成式人工智能工具来创建、总结和更新文章。 在本文中,我们将解释生成式人工智能如何影响维基百科。 内容 什么是生成式人工智能? 生成式人工智能是一种能够通过机器学习算法创造新内容、新设计或新创意的人工智能。当你输入一个提示时,这个过程就开始了,这个提示可以是文本、图片、视频、设计或人工智能可以分析的任何输入。然后,人工智能根据提示生成新内容。 许多维基百科作者在撰写文章时都会使用开放式人工智能 ChatGPT 等人工智能生成工具。不幸的是,这些人工智能工具往往会产生 “幻觉”,生成虚假引文,从而导致错误信息。 协作百科全书和维基媒体非营利组织的创始人吉米-威尔士(Jimmy “Jimbo” Wales)也认为,生成式人工智能提供的信息不能完全依赖。他举了一个他与 ChatGPT 对话的例子。 吉米问机器人是否有飞机撞上了帝国大厦。机器人回答说:”不,飞机没有撞上帝国大厦。然而,ChatGPT 继续解释 B25 轰炸机是如何撞上帝国大厦的。这个回答与它之前分享的回答截然相反。 生成式人工智能和维基百科 20 多年来,维基百科一直依赖全球志愿者创建和编辑的内容。如今,该网站有 334 种语言版本,提供几乎所有主题的信息。 但最近,人们对网站上广泛使用人工智能生成的文章和摘要越来越感到担忧。这些文字摘要往往看起来准确无误,但仔细一看,却发现完全是假的。 除了担心数据不准确外,维基媒体人还发现,生成式人工智能引用了并不存在的资料来源和学术论文。 维基百科面临的风险是,人们每次发布未经事实核查的内容时,都可能会降低质量。 生成式人工智能对维基百科的影响 每天都有数百万人浏览维基百科,就影响他们生活和决策的话题寻求可靠信息。然而,维基百科平台上发布的人工智能生成内容让人们很难辨别这些听起来逼真的内容是否经过了事实核查。这意味着,一旦人们发现这些内容有误导性,维基百科就会开始失去公信力。 Open AI ChatGPT 等生成式人工智能工具经常从不同来源搜刮数据,但却不注明来源。这会助长新的剽窃行为,无视原创内容作者的权利。此外,由于引文对研究人员来说一直至关重要,这也会影响到学术工作中的错误引文。 生成式人工智能只是一台机器。它不具备人类的情感,比如同理心。这也影响了它撰写内容的方式–平淡而缺乏情感。缺乏同理心给编辑带来了双重工作,他们需要无休止地编辑,使文章和摘要符合网站的基调。 许多人工智能公司都将维基百科的开源数据作为其数据饥渴型人工智能模型的训练源。如果维基百科上发布的内容是人工智能生成的,那么未来的模型将别无选择,只能依赖所提供的信息,而这些信息可能充满了错误信息和不准确性。 报告显示,免费百科全书网站的主办方维基媒体基金会正在研究开发工具,帮助志愿者轻松检测机器人生成的内容;但这并不排除编辑可能存在疏忽问题。 结论 虽然有人猜测生成式人工智能可能会终结维基百科,但这种假设有点夸张。 然而,随着维基百科上发布的人工智能生成内容越来越多,它在全球用户中的可信度可能会慢慢下降。

Read More

人工智能内容会毒害网络吗?人工智能探测器的重要性。

By 人工智能检测新闻

导言 生成式人工智能非常容易使用,如今越来越多的发布内容主要由 ChatGPT 撰写。 如果你使用过任何生成式人工智能聊天机器人,你就会同意:它可以快速、相当准确地完成大部分繁重的工作。然而,这给下一代作家、下一次主要法律硕士的更新以及更多问题带来了一些麻烦。 聊天机器人生成的内容质量一般,且存在虚假信息 如果没有 Chatbots 的帮助,会有人知道如何写作吗?问题在于,ChatGPT 和所有其他 LLM 都没有检查其信息来源以及信息和输出的准确性。随着越来越多的人工智能生成的内容入侵网络,它们产生的不准确信息也会越来越多。其最终的多米诺骨牌效应是,下一代 LLM 将在人类数据和包含低质量内容和不准确事实的合成数据(大多被称为 “幻觉”)的混合数据上接受训练。 法律硕士需要在互联网上搜刮信息,以训练他们的新模型和更新模型 包括 Open AI(ChatGPT)、Anthropic 甚至谷歌在内的各大人工智能公司都需要从互联网上搜刮信息来训练他们的新模型。这将成为一个极大的问题,原因有以下几点。互联网上的数据完全充斥着人工智能生成的内容。此外,大多数与人类互动的平台现在都在阻止任何类型的搜刮,或者对使用其 API 收取惊人的费用。 人工智能聊天机器人还停留在 2021 年吗? ChatGPT 是自己成功的牺牲品。由于该工具的写作能力超强,其输出内容现已充斥互联网。为了更新新内容,它可能不得不在这一过程中摄入自己合成的内容,从而使其模型不太可能模仿人类的写作方式。这就是为什么许多新闻媒体都报道说,GPT4 的输出结果越来越可预测……也越来越糟糕。 底线 由于大型语言模型的性质,其训练需要大量高质量的数据。这些大型语言模型的质量和准确性首先取决于其训练所依据的数据。通过为下一次更新和下一代人工智能聊天机器人提供人类和合成内容的混合数据,我们预计大型语言模型的输出将会减少,直到找到解决方案为止。像 Winston AI 这样的人工智能检测器可以帮助企业过滤人工制作的内容和人工智能生成的文章。 常见问题

Read More