Skip to main content

Generative KI wirkt sich allmählich auf den Inhalt von Wikipedia aus.

Wenn Sie schon einmal versucht haben, mit generativen KI-Tools wie Open AI und ChatGPT Informationen zu generieren, werden Sie feststellen, dass sie glaubwürdige, menschenähnliche Texte schreiben. Das Problem ist jedoch, dass sie oft fehlerhafte Informationen enthalten.

Jetzt nutzt Wikipedia, die weltweite Enzyklopädie, die Hunderten von Millionen Menschen verlässliche Informationen bietet, dieselben generativen KI-Tools, um Artikel zu erstellen, zusammenzufassen und zu aktualisieren.

In diesem Artikel erklären wir, wie sich generative KI auf Wikipedia auswirkt.

Inhalt

Was ist generative KI?

Generative künstliche Intelligenz ist eine künstliche Intelligenz, die in der Lage ist, mit Hilfe von Algorithmen des maschinellen Lernens neue Inhalte, Designs oder Ideen zu schaffen. Der Prozess beginnt mit der Eingabe einer Aufforderung, bei der es sich um einen Text, ein Bild, ein Video, ein Design oder eine beliebige Eingabe handeln kann, die von der KI analysiert werden kann. Die KI generiert dann als Reaktion auf die Aufforderung neue Inhalte.

Viele Wikipedia-Autoren verwenden generative KI-Tools wie Open AI ChatGPT für ihre Artikel. Leider neigen diese KI-Tools dazu, zu „halluzinieren“ und gefälschte Zitate zu produzieren, was zu Fehlinformationen führt.

Jimmy „Jimbo“ Wales, Gründer der kollaborativen Enzyklopädie und der gemeinnützigen Wikimedia-Organisation, stimmte ebenfalls zu, dass man sich auf die von der generativen KI gelieferten Informationen nicht vollständig verlassen kann. Er gab ein Beispiel für ein Gespräch, das er mit ChatGPT führte.

Jimmy fragte den Bot, ob ein Flugzeug in das Empire State Building gestürzt sei. Nein, ein Flugzeug ist nicht in das Empire State Building gestürzt“, antwortete der Bot. ChatGPT fuhr jedoch fort zu erklären, wie ein B25-Bomber in das Empire State Building stürzte. Diese Antwort steht im Gegensatz zu der von ihr zuvor gegebenen Antwort.

Generative KI und Wikipedia

Seit über 20 Jahren stützt sich Wikipedia auf Inhalte, die von Freiwilligen auf der ganzen Welt erstellt und bearbeitet werden. Heute ist die Website in 334 Sprachen verfügbar und bietet Informationen zu fast allen Themen.

In letzter Zeit wurden jedoch zunehmend Bedenken hinsichtlich der weiten Verbreitung von KI-generierten Artikeln und Zusammenfassungen auf der Website geäußert. Diese Textzusammenfassungen sehen oft korrekt aus, entpuppen sich aber bei näherem Hinsehen als völlig falsch.

Abgesehen von der Besorgnis über die Ungenauigkeit der Daten haben die Wikipedianer auch festgestellt, dass die generative KI Quellen und wissenschaftliche Arbeiten zitiert, die nicht existieren.

Das Risiko für Wikipedia besteht darin, dass die Qualität jedes Mal sinkt, wenn Inhalte veröffentlicht werden, die nicht auf ihre Richtigkeit überprüft wurden.

Auswirkungen der generativen KI auf Wikipedia

  1. Fehlinformation und Desinformation

Millionen von Menschen besuchen Wikipedia täglich und suchen nach zuverlässigen Informationen zu Themen, die ihr Leben beeinflussen und ihre Entscheidungen beeinflussen. Die generativen KI-Inhalte, die auf der Plattform veröffentlicht werden, erschweren es jedoch, zu erkennen, ob die realistisch klingenden Inhalte einer Faktenprüfung unterzogen wurden. Das bedeutet, dass Wikipedia bei den Menschen an Glaubwürdigkeit verliert, sobald sie sehen, dass der Inhalt in die Irre führt.

  1. Gefälschte Zitate

Generative KI-Tools wie Open AI ChatGPT ziehen oft Daten aus verschiedenen Quellen, versäumen es aber, die Quellen zu nennen. Sie kann neue Arten von Plagiaten fördern, die die Rechte der Autoren des Originalinhalts missachten. Da Zitate für Forscher schon immer von entscheidender Bedeutung waren, würde dies bedeuten, dass akademische Arbeiten mit falschen Zitaten erstellt werden.

  1. Mangel an Empathie

Generative KI ist einfach eine Maschine. Er ist nicht zu menschlichen Gefühlen wie Empathie fähig. Und das wirkt sich auf die Art und Weise aus, wie sie Inhalte schreibt – fade und emotionslos. Der Mangel an Einfühlungsvermögen bedeutet für die Redakteure doppelte Arbeit, da sie die Artikel und Zusammenfassungen immer wieder überarbeiten müssen, damit sie dem Ton der Website entsprechen.

  1. Probleme für zukünftige Modelle

Viele KI-Unternehmen nutzen die Open-Source-Daten von Wikipedia als Trainingsquelle für ihre datenhungrigen KI-Modelle. Wenn die auf Wikipedia veröffentlichten Inhalte von einer KI generiert werden, haben künftige Modelle keine andere Wahl, als sich auf die bereitgestellten Informationen zu verlassen, die möglicherweise voller Fehlinformationen und Ungenauigkeiten sind.

Aus dem Bericht geht hervor, dass die Wikimedia Foundation, die die Website der freien Enzyklopädie betreibt, die Entwicklung von Werkzeugen prüft, die es Freiwilligen erleichtern würden, von Bots erstellte Inhalte zu erkennen; dies schließt nicht aus, dass Redakteure Probleme mit der Aufsicht haben könnten.

Schlussfolgerung

Es gibt zwar Spekulationen, dass generative KI das Ende von Wikipedia bedeuten könnte, aber diese Annahme ist ein wenig übertrieben.

In dem Maße, wie immer mehr generative KI-Inhalte auf Wikipedia veröffentlicht werden, könnte sie jedoch langsam ihre Glaubwürdigkeit bei ihren Nutzern weltweit verlieren.

Thierry Lavergne

Mitbegründer und Chief Technology Officer von Winston AI. Mit einer Karriere von über 15 Jahren in der Softwareentwicklung habe ich mich auf künstliche Intelligenz und Deep Learning spezialisiert. Bei Winston AI leite ich die technologische Vision und konzentriere mich auf die Entwicklung innovativer KI-Erkennungslösungen. Zu meinen früheren Erfahrungen gehört die Entwicklung von Softwarelösungen für Unternehmen aller Größenordnungen, und ich bin leidenschaftlich bemüht, die Grenzen der KI-Technologie zu erweitern. Ich liebe es, über alles zu schreiben, was mit KI und Technologie zu tun hat.