Am 31. Januar 2023 hat OpenAI ein Tool zur Klassifizierung von KI-Texten auf den Markt gebracht, das erkennen soll, ob Passagen von einem Menschen oder einem KI-System geschrieben wurden. Diese Einführung sollte die Landschaft bei der Erkennung synthetischer Inhalte verändern und den Institutionen helfen, diese Art von Inhalten zu kennzeichnen. Nur wenige Monate nach seiner Veröffentlichung stellte OpenAI das Tool jedoch abrupt ein, da es bei der Unterscheidung zwischen menschlicher und künstlicher Schrift eine enttäuschend geringe Trefferquote aufwies.
OpenAIs Klassifikator und seine Schwächen
Das Textklassifizierungstool von OpenAI zielt darauf ab, durch die Analyse linguistischer Merkmale in Textpassagen KI-generierte Inhalte zu erkennen. Es würde eine „Wahrscheinlichkeitsbewertung“ vergeben, die angibt, ob das System feststellt, dass der Text von einem Menschen oder einer KI geschrieben wurde. Nach der Markteinführung gewann das Tool an Popularität, da das Interesse an der KI-Erkennung wuchs.
Nur wenige Monate später, am 20. Juli 2023, kündigte OpenAI jedoch an, den Klassifikator aufgrund seiner geringen Trefferquote einzustellen. In der Praxis hatte das System erhebliche Schwierigkeiten, zuverlässig zwischen menschlicher und maschineller Schrift zu unterscheiden. Trotz der Analyse linguistischer Muster konnte der Klassifikator oft nicht korrekt erkennen, ob die Passagen von der KI generiert wurden oder nicht. Unsere gründliche Untersuchung der Best AI-Detektoren ergab eine überraschend geringe Erkennungsrate für das von Open AI eingesetzte Tool.
Die allgemeine Herausforderung der Weiterentwicklung von KI-Detektoren
Das plötzliche Scheitern des Klassifikators von OpenAI unterstreicht die anhaltenden Herausforderungen bei der Entwicklung präziser KI-Erkennungssysteme. Jüngste Forschungen haben erhebliche Schwächen und Verzerrungen bei den derzeitigen KI-Prüfgeräten aufgedeckt.
Studien haben ergeben, dass diese Tools von Menschen geschriebene Texte häufig fälschlicherweise als KI-generiert einstufen.
Darüber hinaus sind viele KI-Erkennungssoftwares nicht auf neue LLMs trainiert und können diese nicht erkennen. Sie können auch leicht von Umschreibungsprogrammen wie Quillbot umgangen werden.
Die rasante Entwicklung der generativen KI bedeutet auch, dass die Erkennungswerkzeuge oft überholt sind und leichter umgangen werden können. Das Hauptziel von Winston AIist die kontinuierliche Verbesserung seines Modells zur Erkennung von KI-Schriften bei gleichzeitiger Minimierung der Anzahl falsch positiver Ergebnisse.
Der Bedarf an besseren Lösungen
Die KI-Erkennungstechnologie ist zwar nach wie vor von entscheidender Bedeutung für die Rechenschaftspflicht bei der Verbreitung künstlicher Inhalte, aber Beispiele wie OpenAI zeigen, dass die Aufgabe nicht einfach ist. Die Hauptaufgabe von Winston AI ist die Erkennung von KI, während viele andere alternative KI-Detektoren als Nebenprojekt angeboten werden. OpenAI hat sich verpflichtet, robustere Verfahren zur Herkunftsbestimmung zu entwickeln, aber das schnelle Versagen seines Klassifizierers zeigt, dass die Perfektionierung solcher Systeme schwierig bleibt.
Manche sagen, dass die Entwicklung der generativen KI derzeit schneller voranschreitet als die Innovation bei den Erkennungsmethoden, aber Winston AI verfügt über das bei weitem präziseste KI-Erkennungsmodell auf dem Markt.
Schlussfolgerung
Die abrupte Einstellung des KI-Textklassifizierers von OpenAI nach nur wenigen Monaten zeigt, welche enormen Herausforderungen bei der Entwicklung zuverlässiger KI-Erkennungstools noch bestehen. Ihr Klassifizierungssystem scheiterte schnell, obwohl es darauf abzielte, durch die Analyse linguistischer Muster zwischen menschlicher und maschineller Schrift zu unterscheiden.
Große Unternehmen, die die KI-Bewegung anführen, darunter Amazon, Anthropic, Google, Inflection, Meta, Microsoft und Open AI, trafen sich mit der Biden-Harris-Regierung und gingen freiwillige Verpflichtungen ein, um die sichere und transparente KI-Entwicklung voranzutreiben. Dazu gehört auch das Hinzufügen von Wasserzeichen, um zu gewährleisten, dass KI, insbesondere tiefe Fälschungen, erkannt werden können.
Mit der zunehmenden Verbreitung künstlicher Inhalte wird die Entwicklung robusterer KI-Erkennungstechnologien für die Aufrechterhaltung von Transparenz und Vertrauen immer wichtiger. Diese Instrumente sind zwar bei weitem nicht perfekt, aber ihre Verbesserung durch ständige Forschung und Fortschritte ist nach wie vor unerlässlich.
FAQ
Der Textklassifikator von OpenAI war ein am 31. Januar 2023 gestartetes KI-System, das erkennen sollte, ob Textpassagen von einem Menschen oder einem KI-System geschrieben wurden. Es wurde entwickelt, um sprachliche Merkmale in Texten zu analysieren und eine „Wahrscheinlichkeitsbewertung“ zu vergeben, die angibt, ob der Inhalt von einer KI generiert wurde. Ziel war es, dem wachsenden Bedarf an der Identifizierung künstlicher Inhalte gerecht zu werden, da generative KI-Systeme immer fortschrittlicher werden.
OpenAI stellte seinen Textklassifikator im Juli 2023, nur wenige Monate nach seiner Veröffentlichung, ein, weil er bei der Unterscheidung zwischen menschlicher und künstlicher Schrift eine enttäuschend niedrige Trefferquote aufwies. In der Praxis fiel es dem System schwer, durch seine linguistische Analyse zuverlässig zwischen von Menschen geschriebenen und maschinell erstellten Inhalten zu unterscheiden.
Die Entwicklung einer präzisen KI-Erkennung ist zwar schwierig, bleibt aber angesichts der Verbreitung künstlicher Inhalte von entscheidender Bedeutung für die Rechenschaftspflicht. Tools wie das von OpenAI zielen trotz aller Mängel darauf ab, die Transparenz über die Herkunft von Texten und anderen Medien zu wahren. Mit den Fortschritten der generativen KI sind bessere Lösungen unverzichtbar, auch wenn der Fortschritt langsam ist.
Große KI-Unternehmen haben sich verpflichtet, die sichere und transparente KI-Entwicklung voranzutreiben und unter anderem die Fähigkeiten zur Erkennung von KI-Inhalten zu verbessern. Die laufende Forschung arbeitet auch an der Verbesserung der Erkennungsinstrumente und der Minimierung von Fehlerkennungen bei von Menschen erstellten Inhalten. Die Perfektionierung solcher Systeme bleibt jedoch eine Herausforderung, da die KI-Fähigkeiten rasch zunehmen.