Kann künstliche Intelligenz wirklich die Wahrheit verkünden?

Kann künstliche Intelligenz wirklich die Wahrheit verkünden?

In den ersten beiden Folgen dieser kleinen Serie ging es darum herauszufinden, wo die GPT-3, die eigenständig Texte schreiben kann, heute technisch steht. Wenn eine Software fast von alleine schreiben kann und sich die Quelle selbst sucht, dann ist die nächste Frage klar: Kann die Software auch „Wahrheit“? Sind die Interpretationen und Analysen tatsächlich richtig?

Am deutlichsten wird dieses Problem, wenn GPT-3 als Frage-Antwort- eingesetzt wird. Ja, oft gibt es die richtige Antwort auf die gestellte Frage; aber oft auch nicht, und wenn man die Antwort auf die Frage nicht schon vorher kennt, kann man nicht sagen, welches der beiden Szenarien man vor sich hat: Richtig oder Falsch.

Kelsey Piper von dem wirklich hervorragenden Wissensportal Vox (hat nichts mit diesem deutschen TV- zu tun!) bestätigt die Möglichkeit von Fehlern: „GPT-3 kann sogar medizinische Fragen korrekt beantworten und seine Antworten erklären … obwohl man nicht allen seinen Antworten trauen sollte“  Der CEO von OpenAI, Sam Altman, unterstrich selbst die Einschränkungen, als er twitterte: „Der Hype um GPT-3 ist viel zu groß … es hat immer noch ernsthafte Schwächen und macht manchmal sehr dumme Fehler.“  Selbst diese Aussage geht schon zu weit, denn die Behauptung, dass die Software „Fehler macht“, setzt bereits eine gewisse Absicht voraus, die GPT-3 nicht hat und nicht haben kann. Noch nicht.

GPT-3 ist der Sprung vom VW Golf zum Edel-SUV

Unterm Strich ist GPT-3, um einen Begriff aus der Literaturkritik zu gebrauchen, ein „unzuverlässiger Erzähler“: Seine Glaubwürdigkeit wird dadurch beeinträchtigt, dass Software nicht an die Wahrheit gebunden ist. Wie auch und von wem? Das soll nicht heißen, dass GPT-3 ohne praktische Anwendung ist, ganz im Gegenteil. Aber es bedeutet, dass einige Anwendungsfälle angemessen und vertretbar sind und andere nicht. Die Produktion von kreativer Fiktion, sofern sie klar als solche gekennzeichnet ist, ist natürlich völlig in Ordnung; das Gleiche gilt für Poesie. Und wir werden viele Fantasy-Spiele sehen, in denen GPT-3-Autoren Beiträge zu Dialogen verfassen.

Aber: Wird OpenAI „nein“ sagen, wenn von dem Robot kritische Fragen im Gesundheitsbereich beantworten lassen wollen? Ist die Frage „Kann mich eine -Impfung töten?“ wirklich etwas, was man einer Maschine zur Beantwortung überlassen sollte? GPT-3 würde hier die Newsportale von Querdenkern als gleichwertige Quelle nutzen, um möglichweise zu dem Ergebnis zu kommen: „Kann schon sein, da gibt es Belege für“. Welche Belege – das wird nicht geprüft. Aber auch hier arbeiten Unternehmen wie bereits dran um den zukünftigen Roboter-Journalisten klar zu machen, welche Glaubwürdigkeit jede Quelle besitzt.

Was kann man mit GPT-3 bereits machen?

Auf der anderen Seite sind Anwendungen, bei denen der Mensch im Spiel bleibt, viel sicherer, und davon gibt es bereits eine ganze Reihe. Bei fast allen dieser Anwendungen handelt es sich um erweiterte Schreibwerkzeuge, die die Texteingabe eines Benutzers aufnehmen und eine alternative Version dieser Eingabe liefern, die je nach Anwendung länger oder kürzer ist. Einige Beispiele:

  • Quick Response von OtherSideAI generiert E-Mails in voller Länge in Ihrem Schreibstil, wenn Sie die wichtigsten Punkte, die Sie behandelt haben möchten, skizzieren.
  • Compose.ai, Footnote und Magic bieten ebenfalls Anwendungen zum Verfassen von E-Mails und in ähnlicher Weise generiert Kriya.ai personalisierte Vorstellungsanfragen: damit lässt sich beispielsweise das LinkedIn- ausbauen.
  • Dover.ai formuliert Ihre kurze Stellenbeschreibung in eine längere Variante um.
  • Footnote schreibt Werbetexte anhand einer Produktbeschreibung; Sie können sich für eine kostenlose Testversion anmelden.
  • Taglines ist ein weiteres zur Erstellung von Werbetexten, das Schlagwörter auf der Grundlage von Produkt- oder Dienstleistungs-beschreibungen generiert.

Bei allen Anwendungen gilt: Der erstellte Text kann beliebig oft abgelehnt oder bearbeitet werden. Das diese Werkzeuge gegenwärtig nur auf Englisch perfekt funktionieren ist eine Frage der Zeit: Die KI-basierten Übersetzungsprogramme werden monatlich besser und besser, spätestens in 24 Monaten wird es auch für komplexe und sehr anspruchsvolle Inhalte mit einmaligem „Clicken“ den grandiosen Text in einer anderen geben.

Entscheidend ist, dass nicht mehr „übersetzt“ wird, sondern Ironie, Sarkasmus und nur regional verständliche Anspielungen gegebenenfalls ersetzt werden durch passende Beispiele, Phrasen oder Wortwitze, die nichts am grundsätzlichen Inhalt des Originals weglassen oder verändern. Nur wenn mit diesen Ausdrucksformen auch im Original fehlerfrei umgegangen werden kann, ist der von Chips generierte Text auch wirklich wahr.

In einer Woche geht es hier weiter mit Teil 4!

Bild: @ depositphotos.com / PixelsHunter

Wolfgang Zehrt