Egal welcher Anbieter von KI-basierten Texten ausgesucht wird – das Preismodell ist immer ähnlich: Dutzende von Firmen bieten mit der Technologie von OpenAI Texterstellung an – mehrere hundert Dollar monatlich für eine ganz unterschiedliche Anzahl an Texten ist die Regel. Diese Preise werden von vielen AI-Enthusiasten als zu hoch kritisiert. Allerdings ist die Arbeit an der Textgenerierungs-Maschine für OpenAI sehr teuer, denn pro Trainingslauf werden für ein einigermaßen anspruchsvolles Sprachmodell rund 4,5 Mio. US-Dollar an Rechenkosten fällig – und das ist nur ein Bruchteil der gesamten Entwicklungs- und Betriebskosten. Dafür ist dieser Preis eigentlich recht günstig.
Taugen Texte mit GPT-3 schon etwas?
Es gab viel Lob für die Fähigkeiten der Technologie, insbesondere bei der Erstellung langer Texte – also kohärenter Beiträge mit einem „roten Faden“. Die typische Verwendung der Schnittstelle besteht darin, eine Eingabeaufforderung und einen anfänglichen Text bereitzustellen. Dann schreibt die Software von alleine weiter, einige kleine Stellschrauben gibt es auch noch, zum Beispiel „Beschreibender Text“, „Sehr sachlicher Text“ oder „Roman-Stil“. Einige der erzeugten Texte sind wirklich atemberaubend in ihrer Plausibilität und Glaubwürdigkeit, fast schon Kandidaten für einen von Menschen verfassten Text. Das Schlüsselwort im vorigen Satz ist jedoch „einige“…
Abgesehen von der offensichtlichen Anwendung der Texterzeugung wurde die Technologie auch für ihre Ergebnisse in einer Vielzahl anderer Bereiche gelobt, von denen einige recht überraschend sind: Das Schreiben von Gedichten, das Schach spielen (der Software ist es egal, ob sie 4.000 Bücher „lernt“ oder 4.000 Schachpartien) oder Programmier-Codes auf der Grundlage von in natürlicher Sprache ausgedrückten Anforderungen zu schreiben. Es ist ziemlich schwer, von GPT-3 nicht beeindruckt zu sein.
Noch ist GPT-3 ein Trainee oder Werkstudent
Auch bei diesem derzeit besten Sprachgenerator hat die Technologie ihre Grenzen:
- Ihren Ausgaben kann es an semantischer Kohärenz mangeln, was zu einem Text führt, der Kauderwelsch ist und mit zunehmender Länge der Ausgabe immer unsinniger wird.
- Die Ergebnisse enthalten alle Verzerrungen, die in den Trainingsdaten zu finden sind: Wenn man Manifeste von Rassisten oder Waffennarren will, kann man GPT-3 dazu bringen, sie endlos zu produzieren.
- Seine Ergebnisse können Behauptungen entsprechen, die nicht mit der Wahrheit übereinstimmen.
Als Folge dieser Schwächen sind viele der beeindruckenden Ergebnisse, die gezeigt wurden, das Ergebnis von Rosinenpickerei: Man lässt die API ein paar Mal mit der gleichen Eingabeaufforderung laufen und wählt dann das beste Ergebnis aus, wobei diejenigen verworfen werden, die weniger überzeugend klingen oder einfach nur Unsinn sind.
Ohne manuelle Nacharbeit sind Texte (oft) noch nicht publizierbar
Die an sich sehr seriöse britische Tageszeitung „Guardian“ hat GPT-3 getestet und zu Recht viel Kritik dafür bekommen. Die Zeitung hatte einen Artikel mit dem Titel „Ein Roboter hat diesen ganzen Artikel geschrieben“ veröffentlicht.
Das war einfach nur falsch: GPT-3 hatte für den Guardian acht verschiedene Essays produziert. Jeder war einzigartig, interessant und vertrat ein anderes Argument. Der Guardian hätte einfach einen der Aufsätze veröffentlichen können, aber keiner der acht Beiträge war nach redaktionellen Kriterien perfekt oder auch nur fast perfekt. Deswegen wurden die besten Passagen aus jedem Essay ausgewählt und aneinandergefügt. Für jeden, der schon einmal einen Stapel abgelehnter GPT-3-Beiträge gesehen hat, klingt dies mehr als nur ein wenig unaufrichtig; und die anschließende Behauptung der Zeitung, dass „die Bearbeitung des GPT-3-Beitrags sich nicht von der Bearbeitung eines menschlichen Beitrags unterscheidet“, könnte von den menschlichen Mitarbeitern der Zeitung als Beleidigung empfunden werden.
In einer Woche geht es hier weiter mit Teil 3!
Bild: © Depositphotos.com / alphaspirit
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
Häufige Fragen
Warum sind computergenerierte Texte so teuer?
Die hohen Kosten resultieren aus den enormen Rechen- und Entwicklungskosten, die für das Training der KI-Modelle wie GPT-3 anfallen, die mehrere Millionen Dollar betragen können.
Was ist OpenAI und warum wurde es umstrukturiert?
OpenAI wurde in ein Unternehmen mit 'gedeckeltem Gewinn' umstrukturiert, um die hohen Forschungskosten zu decken und wettbewerbsfähig zu bleiben, insbesondere gegen große Tech-Unternehmen.
Wie funktioniert die Texterstellung mit GPT-3?
Die Texterstellung erfolgt durch Eingabe einer Aufforderung und eines anfänglichen Textes, woraufhin die KI eigenständig weiter schreibt und verschiedene Stiloptionen bietet.
Welche Stärken hat GPT-3 bei der Texterstellung?
GPT-3 wird für seine Fähigkeit gelobt, lange, kohärente Texte zu erstellen, die oft plausibel und glaubwürdig wirken.
Gibt es auch Schwächen bei GPT-3?
Ja, die Technologie kann an semantischer Kohärenz mangeln, was zu unsinnigen Texten führen kann, insbesondere bei längeren Ausgaben.
Wie wird die Qualität der generierten Texte sichergestellt?
Oft werden mehrere Ausgaben generiert und die besten Passagen ausgewählt, da die Rohtexte häufig nicht ohne manuelle Nachbearbeitung publizierbar sind.
Welche Anwendungen gibt es für GPT-3 außer der Texterstellung?
Neben der Texterstellung kann GPT-3 auch Gedichte schreiben, Schach spielen und Programmiercodes basierend auf natürlichen Spracheingaben erstellen.
Wie hat der Guardian GPT-3 verwendet?
Der Guardian testete GPT-3, indem er mehrere Essays produzieren ließ, die jedoch nicht den redaktionellen Standards entsprachen und daher bearbeitet wurden.
Was ist die Rolle von Microsoft bei OpenAI?
Microsoft investierte 1 Milliarde US-Dollar in OpenAI und erhielt eine Exklusivlizenz für GPT-3, was die zukünftige Entwicklung und Nutzung der Technologie beeinflussen könnte.
Wie steht es um die ethischen Implikationen der KI-Textgenerierung?
Die Technologie kann Verzerrungen aus den Trainingsdaten reproduzieren, was zu problematischen Inhalten führen kann, und erfordert daher verantwortungsvolle Nutzung und Überwachung.
- Künstliche Intelligenz beendet die Diktatur der Programmierer - 18. Juni 2022
- Kann künstliche Intelligenz wirklich die Wahrheit verkünden? - 10. Juni 2022
- Computergenerierte Texte sind nicht preiswert aber die Zukunft - 31. Mai 2022









