Wirtschaftsjournalismus: «Chat GPT» als Traumkandidat oder Fehlbesetzung?

0
2829

Spätestens, seitdem Chat GPT ein MBA-Examen bestanden hat, dürften auch Wirtschaftsjournalisten die neue KI auf dem Radar haben. Doch was taugt der Textroboter, wenn es darum geht, die Arbeit eines Schreibers zu erledigen? Die Probe aufs Exempel.

Bild: KI-generiert mit Midjourney

Gut 69 Millionen Einträge liefert die Google-Suche, wenn man den Begriff «Chat GPT» eingibt. Das sind knapp 19 Millionen mehr Einträge, als die Suche nach dem Wort «Konkurrenz» ausspuckt. Dass Chat GPT in der aktuellen Version 3 eine ernste Konkurrenz für die klassische Internet-Suche ist, liegt auf der Hand – denn das raffinierte Sprachmodell antwortet, zumindest meistens, exakt auf die gestellten Fragen, statt nur eine Auswahlsendung an Websites anzuzeigen, welche die Antwort allenfalls beinhalten könnten. Chat GPT beherrscht dabei den klassischen Textaufbau im Stil Einleitung-Hauptteil-Schluss, es nennt Quellen für weiterführendes Wissen – und berücksichtigt sogar gewünschte Stil-Inputs (etwa «schreib mir eine Entschuldigung im Stil von Werner Herzog»). Aber wie ist diese Leistung möglich und taugt das KI-Sprachmodell gar für den Wirtschaftsjournalismus?

Chat-GPT-Eingabefester: Ein virtueller Gesprächsraum mit einer KI als Bewohnerin. Bild: zVg
1. Generative pre-trained transformer (GPT): Ein neuronales Netz ohne ICH und Verstand

Schon 5 Minuten Unterhaltung mit Chat GPT 3 können eine wahre Sogwirkung entfalten und den Verdacht wecken, eine Art im Internet gefangener Djinn stehe kurz vor dem erfolgreichen Ausbruch. Das belegen Medienberichte von Usern, welche die KI zumindest zu eigenartig pubertären, emotionalen Ausbrüchen getrieben haben. Doch dass Menschen grundsätzlich gerne ihresgleichen oder die Tier- und Fabelwelt erblicken, zeigt sich beim kindlichen Blick in die Wolken, der allerlei Gesichter und (Fabel-)Wesen zutage fördert. Chat GPT ist effektiv nichts anderes als ein Deep-Learning-Modell, das die Verarbeitung natürlicher Sprache beherrscht. Allerdings in nie zuvor dagewesener Präzision und Eloquenz. Es kann Text generieren, indem es das nächste Wort in einer Sequenz von Worten vorhersagt – aufgrund von Wahrscheinlichkeiten, unter Berücksichtigung des gegebenen Kontextes. Dazu wurde das Modell mit Hunderten von Gigabytes an Textdaten aus dem Internet trainiert. Es verwendet nach Inputs durch Benutzer den Transformer, eine neuronale Netzwerk-Architektur, die grosse Mengen an Textdaten effektiv prozessieren – und komplexe Beziehungen zwischen Wörtern und Sätzen logisch erfassen kann. ICH-Bewusstsein und Kreativität sind jedoch kein Teil von Chat GPT. Das Netz «weiss», etwa im Fall einer Text-Zusammenfassung, nicht einmal, was es tut – doch es erledigt die Aufgabe dennoch korrekt.

Konzentrische Kreise oder ein Auge? Menschen neigen dazu, Menschliches zu sehen. Bild: zVg
2. Abstract, Analyse, Meinungstext: Von erstaunlich tauglich bis frei erfunden

Diverse Beispiele im Internet belegen, dass Chat GPT nicht nur bei Zusammenfassungen gute Resultate zeitigen kann, sondern sogar akademische Theorievergleiche beherrscht. Die eigene Probe aufs Exempel zeigt aber auch, dass Faktenchecks nach «getaner Arbeit» der KI nicht nur empfehlenswert, sondern dringend nötig sind. Denn das Sprachmodell kommt im Fall von Wissenslücken kaum einmal auf die Idee, selbige kleinlaut zuzugeben – es erfindet vielmehr veritable Fake Facts – und bettet diese auch noch in einen glaubwürdigen Kontext ein.

Dem Autor wollte es etwa weismachen, der Name seines Sohnes (Nio) gehe auf das lateinische Wort für «Schnee» zurück, wie es der Oxford Latin Dictionary belege. Nur: Nio ist kein lateinisches Wort – und Schnee heisst auf Lateinisch «nix». Mit entsprechenden Fehlern konfrontiert, kann Chat GPT durchaus freundlich für die Korrektur danken und zugeben, dass es falsch lag – bloss, um noch im selben Satz zwei weitere Fehlinformationen zu fabulieren. Gebeten, einen Artikel zu Portfolio-Diversifikation zu schreiben, liefert es hingegen eine höchste brauchbare Abhandlung, die erst den Begriff erklärt, dann dessen Bedeutung umreisst und schliesslich sogar eine Anleitung zum diversifizierten Portfolio enthält, einschliesslich des klassischen 60:40-Ansatzes und Hinweisen zum Anlagehorizont. Bei der Analyse des Tech-Giganten Apple (AAPL) hält sich Chat GPT geradezu sklavisch an die Vorgabe, die sechs Themenfelder «Vorteile», «Nachteile», «Risiken», «Chancen», «Peer-Vergleich» und «Aktienpreis» zu bedienen. Perfekt für den späteren Ausbau des Resultats zu einem mehrseitigen Report – und schon in der gelieferten Form völlig ausreichend für die Beratung eines Lesers, der sich für die Aktie interessiert.

Die Price-Earnings-Ratio (P/E) für AAPL und den Tech-Sektor wird zwar falsch ausgegeben. In dem Fall lässt sich daraus aber kein Strick drehen – denn Chat GPT wurde nur mit Daten bis Ende 2021 trainiert. Ein verlangter Meinungsartikel zum Thema Home Bias gerät verständlich und prägnant, einmal mehr verortet er das Phänomen aber anders als die Google-Suche, die auf eine Erstnennung 1995 und auf den Ökonomen John McCallum verweist. Zudem fehlen Beispiele, Performance-Vergleiche oder wichtige Aspekte wie die sektorielle Diversifikation, die etwa für Schweiz-only-Investoren schwer zu erreichen ist. Allerdings: Diese Punkte wurden in der Aufgabenstellung auch nicht speziell erfragt. Nachfragen ist bei Chat GPT problemlos möglich – da es sich an den gegebenen Kontext erinnert. «Please continue» reicht – und der KI-generierte Fluss sprudelt weiter.

Das Fazit: Für Zusammenfassungen, systematische Erklärungen und vor allem Denkanstösse kann Chat GPT Gold wert sein. Doch in jedem Fall empfiehlt sich ein Faktencheck. Ob das zum Wirtschaftsjournalisten reicht, müsste eine Chefredaktion beurteilen.

Geburt einer neuen Intelligenz? Chat GPT ist nur ein «transformer», doch seine mediale Wirkung ist enorm. Bild: KI-generiert mit Midjourney
3. Bisher nur ein Blick durchs Schlüsselloch – und dahinter eine Welt?

Bereits heute kann Chat GPT sogar im Vorfeld informierte wissenschaftliche Gutachter täuschen. In 32% der Fälle erkannten Forscher an der Northwestern University und der University of Chicago die KI-generierten Texte nicht – obwohl nur 8% der Chat-GPT-Resultate die spezifischen Anforderungen an den Text überhaupt erfüllten. Und der geplante Nachfolger des vortrainierten Transformers, Chat GPT 4, soll die aktuelle Version nochmals komplett in den Schatten stellen – weil er einen erheblichen Teil des gesamten Internets als Lernbasis haben dürfte.

Sam Altman, CEO von OpenAI und Erfinder des Textbots, bremst hingegen konsequent jegliche mediale Euphorie. «Die Leute betteln darum, enttäuscht zu werden, und das werden sie auch», liess er im Interview verlauten. Vermutlich hätten Schulen wie die renommierte Wharton Business School nichts gegen eine Enttäuschung. Dort bewältigte Chat GPT immerhin eine MBA-Prüfung mit genügenden bis guten Resultaten. «Das hat wichtige Implikationen für die kaufmännische Ausbildung», nimmt die Schule dazu Stellung. Denn wenn eine künstliche Intelligenz, die nicht wirklich intelligent und ichbewusst ist, eine solche Prüfung besteht – wie klug kann dann der Test der renommierten Bildungsstätte sein?

Kommentar verfassen