Computergenerierte Texte sind nicht preiswert aber die Zukunft

Computergenerierte Texte sind nicht preiswert aber die Zukunft

Egal welcher Anbieter von KI-basierten Texten ausgesucht wird – das Preismodell ist immer ähnlich: Dutzende von Firmen bieten mit der von OpenAI Texterstellung an – mehrere hundert Dollar monatlich für eine ganz unterschiedliche Anzahl an Texten ist die Regel.  Diese Preise werden von vielen AI-Enthusiasten als zu hoch kritisiert. Allerdings ist die Arbeit an der Textgenerierungs-Maschine für OpenAI sehr teuer, denn pro Trainingslauf werden für ein einigermaßen anspruchsvolles Sprachmodell rund 4,5 Mio. US-Dollar an Rechenkosten fällig – und das ist nur ein Bruchteil der gesamten Entwicklungs- und Betriebskosten. Dafür ist dieser Preis eigentlich recht günstig.

Wegen der extremen Entwicklungskosten hat sich die gemeinnützig OpenAI im März 2019 in ein mit “gedeckeltem Gewinn” umstrukturiert. Dies sei nicht nur nötig, um die hohen Forschungskosten des Unternehmens bezahlen zu können. Man wolle schließlich auch in Hinblick auf Google&Co konkurrenzfähig bleiben. Allerdings stieg dann im Juli 2019 einer der Tech-Giganten bei OpenAI ein: erklärte, man werde in den nächsten zehn Jahren 1 Milliarde US-Dollar investieren. Im September 2020 erhielt Microsoft eine Exklusivlizenz für GPT-3. Die Folgen dieses Deals sind noch etwas unklar, aber es ist wahrscheinlich, dass die Schnittstellen zur von dem Microsoft-Zugang ungerührt bleiben, denn, nicht vergessen: Die Gründungsidee von OpenAI war, das alle Menschen ungehindert den Zugang zu den Werkzeugen der künstlichen Intelligenz bekommen. Auch wenn Mitgründer Elon mittlerweile die Raumfahrt vermutlich spannender findet.

Taugen Texte mit GPT-3 schon etwas?

Es gab viel Lob für die Fähigkeiten der Technologie, insbesondere bei der Erstellung langer Texte – also kohärenter Beiträge mit einem „roten Faden“. Die typische Verwendung der Schnittstelle besteht darin, eine Eingabeaufforderung und einen anfänglichen Text bereitzustellen. Dann schreibt die Software von alleine weiter, einige kleine Stellschrauben gibt es auch noch, zum Beispiel „Beschreibender Text“, „Sehr sachlicher Text“ oder „Roman-Stil“.  Einige der erzeugten Texte sind wirklich atemberaubend in ihrer Plausibilität und Glaubwürdigkeit, fast schon Kandidaten für einen von Menschen verfassten Text. Das Schlüsselwort im vorigen Satz ist jedoch “einige”…

Abgesehen von der offensichtlichen Anwendung der Texterzeugung wurde die Technologie auch für ihre Ergebnisse in einer Vielzahl anderer Bereiche gelobt, von denen einige recht überraschend sind: Das Schreiben von Gedichten, das Schach spielen (der Software ist es egal, ob sie 4.000 Bücher „lernt“ oder 4.000 Schachpartien) oder Programmier-Codes auf der Grundlage von in natürlicher ausgedrückten Anforderungen zu schreiben. Es ist ziemlich schwer, von GPT-3 nicht beeindruckt zu sein.

Noch ist GPT-3 ein Trainee oder Werkstudent

Auch bei diesem derzeit besten Sprachgenerator hat die Technologie ihre Grenzen:

  • Ihren Ausgaben kann es an semantischer Kohärenz mangeln, was zu einem Text führt, der Kauderwelsch ist und mit zunehmender Länge der Ausgabe immer unsinniger wird.
  • Die Ergebnisse enthalten alle Verzerrungen, die in den Trainingsdaten zu finden sind: Wenn man Manifeste von Rassisten oder Waffennarren will, kann man GPT-3 dazu bringen, sie endlos zu produzieren.
  • Seine Ergebnisse können Behauptungen entsprechen, die nicht mit der Wahrheit übereinstimmen.

Als Folge dieser Schwächen sind viele der beeindruckenden Ergebnisse, die gezeigt wurden, das Ergebnis von Rosinenpickerei: Man lässt die API ein paar Mal mit der gleichen Eingabeaufforderung laufen und wählt dann das beste Ergebnis aus, wobei diejenigen verworfen werden, die weniger überzeugend klingen oder einfach nur Unsinn sind.

Ohne manuelle Nacharbeit sind Texte (oft) noch nicht publizierbar

Die an sich sehr seriöse britische Tageszeitung „Guardian“ hat GPT-3 getestet und zu Recht viel Kritik dafür bekommen. Die Zeitung hatte einen Artikel mit dem Titel “Ein Roboter hat diesen ganzen Artikel geschrieben” veröffentlicht.

Das war einfach nur falsch: GPT-3 hatte für den Guardian acht verschiedene Essays produziert. Jeder war einzigartig, interessant und vertrat ein anderes Argument. Der Guardian hätte einfach einen der Aufsätze veröffentlichen können, aber keiner der acht Beiträge war nach redaktionellen Kriterien perfekt oder auch nur fast perfekt. Deswegen wurden die besten Passagen aus jedem Essay ausgewählt und aneinandergefügt. Für jeden, der schon einmal einen Stapel abgelehnter GPT-3-Beiträge gesehen hat, klingt dies mehr als nur ein wenig unaufrichtig; und die anschließende Behauptung der Zeitung, dass “die Bearbeitung des GPT-3-Beitrags sich nicht von der Bearbeitung eines menschlichen Beitrags unterscheidet”, könnte von den menschlichen Mitarbeitern der Zeitung als Beleidigung empfunden werden.

In einer Woche geht es hier weiter mit Teil 3!

Bild: © Depositphotos.com / alphaspirit

Wolfgang Zehrt