Skip to main content

KI-Tools wie ChatGPT scheinen allgegenwärtig zu sein, aber was passiert, wenn man sie benutzt, um die Arbeit für sich selbst zu erledigen und dies nicht mit seinem Chef kommuniziert?

Finden wir es heraus.

Was ist bei Sports Illustrated passiert?

Laut einer Untersuchung der Tech-News-Website Futurism hat Sports Illustrated KI-Tools verwendet, um Inhalte für ihre Website zu erstellen.

Sie entdeckten dies, indem sie einige der Inhalte lasen und einige seltsame Formulierungen fanden wie „Menschen mit hohem finanziellen Status werden überall auf der Welt verehrt und erhalten besondere Vorteile“.

Dies ist ein typisches Beispiel für die Verwendung von KI-Inhalten, bei denen allgemeine Phrasen nichts Aufschlussreiches oder Bemerkenswertes aussagen.

Es stellte sich heraus, dass sie auch KI-Autoren mit Fotos von Bildgenerator-Websites einsetzten. Sports Illustrated hat zunächst bestritten, dass sie KI zur Unterstützung bei der Veröffentlichung einsetzen.

Sie haben inzwischen ihren CEO Ross Levinsohn entlassen.

Sie untersuchen diese von der künstlichen Intelligenz generierten Artikel derzeit auch intern (die sie inzwischen gelöscht haben).

Übernimmt KI-generierte Inhalte das Online-Publishing?

Seit dem Start von ChatGPT im November 2022 wird KI von großen und kleinen Online-Publishern eingesetzt.

Große Online-Verlage wie CNET setzen KI als Teil des Arbeitsablaufs ein.

Wenn wir generative KI verwenden, um Inhalte zu erstellen, werden diese Inhalte aus unseren eigenen Daten oder aus unseren eigenen, bereits veröffentlichten Arbeiten stammen oder von einem CNET-Redakteur sorgfältig auf Fakten geprüft, um die Richtigkeit und angemessene Quellenangaben sicherzustellen.

CNET A.I. Politik

Sie fügen außerdem hinzu, dass alle Rezensionen praktische Produkttests durch ihre Autoren beinhalten werden.

Meiner Erfahrung nach setzen kleine Verlage KI ein, und viele haben sich von ihren freiberuflichen Autoren getrennt.

Sie tun das, damit sie mit größeren Medienunternehmen konkurrieren können. Hier ist eine Fallstudie eines kleinen Verlags, der mit Hilfe eines KI-Tools große Erfolge erzielt.

Warum es wichtig ist, zwischen KI und von Menschen geschriebenen Inhalten zu unterscheiden

Die Tatsache, dass dies zu einem Skandal geführt hat, ist für mich sehr interessant, da viele Leute nicht wirklich erkennen können, ob das, was sie lesen, von einem Tool wie ChatGPT erstellt wurde oder von einem echten Autor stammt.

A.I geschriebene Inhalte sind noch nicht so weit, dass wir sie als Ersatz für Fachjournalisten verwenden können. Eines der Hauptprobleme mit KI-Inhalten besteht darin, dass das Werkzeug oft halluziniert,

Was sind A.I.-Halluzinationen?

A.I.-Halluzinationen sind, wenn das A.I.-Tool etwas erschafft, das einfach nicht wahr ist. Die Werkzeuge tun dies, da sie in erster Linie dafür entwickelt wurden, flüssige und zusammenhängende Texte zu erstellen, indem sie das nächste plausible Wort vorhersagen, das einen Sinn ergeben könnte.

Sie „verstehen“ im Grunde nicht, worüber sie schreiben, und können daher Sätze bilden, die keinen Sinn ergeben und sachlich ungenau sein können.

Brauchen wir die Offenlegung der künstlichen Intelligenz?

Meiner Meinung nach sollten Websites, die KI verwenden, auch sagen, dass sie KI verwenden. Einer der Gründe dafür ist die oben beschriebene Neigung zu Halluzinationen.

Es gibt bestimmte Situationen, in denen die künstliche Intelligenz den Autoren helfen kann, aber wir müssen wachsam sein, wenn wir korrekte Inhalte online stellen.

Woher wissen Sie, ob das, was Sie online lesen, mit KI geschrieben wurde?

Die Tatsache, dass viele Autoren und Studenten KI zur Erstellung ihrer Arbeiten verwenden, hat zu einem Bedarf an KI-Inhaltsdetektoren geführt.

KI-Detektoren verwenden fortschrittliche Algorithmen, um Muster in Texten zu erkennen und festzustellen, ob der Text von einer KI oder von einem Menschen geschrieben wurde.

Unser A.I.-Inhaltsdetektor Winston AI hat eine Genauigkeit von 99,98 % bei der Erkennung von A.I.-Inhalten und Sie können ihn hier selbst testen.

Die weiteren Auswirkungen eines Internets mit überwiegend kognitiven Inhalten

Die künstliche Intelligenz hat zweifelsohne große Auswirkungen auf die Online-Welt.

Beginnen wir mit den Schattenseiten und enden mit den positiven Aspekten.

Was ist falsch an ein wenig Hilfe von meinem A.I. Tool?

Für den Einzelnen ist es nicht verkehrt, ein Hilfsmittel zu verwenden, das ihm im täglichen Leben hilft. Problematisch wird es, wenn böswillige Akteure diese Werkzeuge in die Hände bekommen.

Online-Betrügereien werden immer häufiger, vor allem durch das Aufkommen von Stimmenklonen und tiefen Fälschungen.

KI-Inhalte wirken sich auch auf Wahlen aus, da immer mehr gefälschte Inhalte in den sozialen Medien gepostet werden.

Wie KI fast jedem helfen kann

Generative KI hat so viele Anwendungsfälle, dass es unmöglich wäre, sie hier alle aufzuzählen. Laut Business.com haben 57 % der Arbeitnehmer versucht, ChatGPT zu nutzen, um sich bei ihrer Arbeit zu helfen.

Es ist sehr wichtig zu lernen, wie man KI bei der Arbeit einsetzt. Hier sind einige Aufgaben, bei denen KI Ihnen helfen kann:

  • Emails schreiben
  • Brainstorming
  • Gestaltung
  • Forschung
  • Erstellung von Inhalten

Wie Sie sehen, kann der Einsatz von künstlicher Intelligenz sehr vorteilhaft sein, aber Sie sollten Ihrem Chef vorher sagen, dass Sie sie einsetzen, wenn Sie nicht in einer Geschichte enden wollen, wie sie bei Sports Illustrated passiert ist.

Conor Monaghan

Conor ist ein KI-Experte und Englischlehrer. Er verbringt seine Zeit damit, über KI-Tools zu recherchieren und zu schreiben, um Pädagogen und Verlegern zu helfen, produktiver zu werden.