生成式人工智能正在逐渐影响维基百科上的内容。
如果你曾经尝试过使用生成式人工智能工具(如 open AI 和 ChatGPT)来生成信息,你就会发现它们写出的文本可信度很高,像人类的文本一样。但问题是,它们很容易包含错误信息。
现在,为数亿人提供可靠信息来源的世界百科全书维基百科正在使用同样的生成式人工智能工具来创建、总结和更新文章。
在本文中,我们将解释生成式人工智能如何影响维基百科。
内容
什么是生成式人工智能?
生成式人工智能是一种能够通过机器学习算法创造新内容、新设计或新创意的人工智能。当你输入一个提示时,这个过程就开始了,这个提示可以是文本、图片、视频、设计或人工智能可以分析的任何输入。然后,人工智能根据提示生成新内容。
许多维基百科作者在撰写文章时都会使用开放式人工智能 ChatGPT 等人工智能生成工具。不幸的是,这些人工智能工具往往会产生 “幻觉”,生成虚假引文,从而导致错误信息。
协作百科全书和维基媒体非营利组织的创始人吉米-威尔士(Jimmy “Jimbo” Wales)也认为,生成式人工智能提供的信息不能完全依赖。他举了一个他与 ChatGPT 对话的例子。
吉米问机器人是否有飞机撞上了帝国大厦。机器人回答说:”不,飞机没有撞上帝国大厦。然而,ChatGPT 继续解释 B25 轰炸机是如何撞上帝国大厦的。这个回答与它之前分享的回答截然相反。
生成式人工智能和维基百科
20 多年来,维基百科一直依赖全球志愿者创建和编辑的内容。如今,该网站有 334 种语言版本,提供几乎所有主题的信息。
但最近,人们对网站上广泛使用人工智能生成的文章和摘要越来越感到担忧。这些文字摘要往往看起来准确无误,但仔细一看,却发现完全是假的。
除了担心数据不准确外,维基媒体人还发现,生成式人工智能引用了并不存在的资料来源和学术论文。
维基百科面临的风险是,人们每次发布未经事实核查的内容时,都可能会降低质量。
生成式人工智能对维基百科的影响
- 错误信息和虚假信息
每天都有数百万人浏览维基百科,就影响他们生活和决策的话题寻求可靠信息。然而,维基百科平台上发布的人工智能生成内容让人们很难辨别这些听起来逼真的内容是否经过了事实核查。这意味着,一旦人们发现这些内容有误导性,维基百科就会开始失去公信力。
- 伪造引文
Open AI ChatGPT 等生成式人工智能工具经常从不同来源搜刮数据,但却不注明来源。这会助长新的剽窃行为,无视原创内容作者的权利。此外,由于引文对研究人员来说一直至关重要,这也会影响到学术工作中的错误引文。
- 缺乏同理心
生成式人工智能只是一台机器。它不具备人类的情感,比如同理心。这也影响了它撰写内容的方式–平淡而缺乏情感。缺乏同理心给编辑带来了双重工作,他们需要无休止地编辑,使文章和摘要符合网站的基调。
- 未来模型的问题
许多人工智能公司都将维基百科的开源数据作为其数据饥渴型人工智能模型的训练源。如果维基百科上发布的内容是人工智能生成的,那么未来的模型将别无选择,只能依赖所提供的信息,而这些信息可能充满了错误信息和不准确性。
报告显示,免费百科全书网站的主办方维基媒体基金会正在研究开发工具,帮助志愿者轻松检测机器人生成的内容;但这并不排除编辑可能存在疏忽问题。
结论
虽然有人猜测生成式人工智能可能会终结维基百科,但这种假设有点夸张。
然而,随着维基百科上发布的人工智能生成内容越来越多,它在全球用户中的可信度可能会慢慢下降。


