Multimedia
Newsroom – Marc Bartl

Scheitert der Journalismus an der KI – oder lernt er gerade dazu?

Ein nicht wegredigierter Satz einer KI im „Spiegel“ löste einen Sturm der Häme aus – und eine ernsthafte Debatte über den Einsatz Künstlicher Intelligenz im Journalismus. Zwischen Spott, Selbstkritik und grundsätzlichen Fragen zeigt sich: Der Vorfall war mehr als nur ein Pannenmoment.

Hamburg – „Wenn du magst, passe ich Ton und Detailtiefe an …“ – dieser nicht wegredigierte Satz einer KI unter einem „Spiegel“-Artikel ging jüngst durch die Medien- und Kommunikationsszene, und die Debatte tobt weiter. kress.de hat auf LinkedIn interessante Stimmen – fernab von Häme und Spott – von Profis wie Timo Lokoschat („Bild“), Larissa Holzki („Handelsblatt“), Irene Ternes (KI-Agentur), Holger Schmidt (Berater) gesammelt – und ChatGPT selbst dazu befragt.


Was ist passiert? Am Mittwoch, dem 22. Oktober, erschien bei „spiegel.de“ der Artikel „Deutsche Bahn trennt sich von Güterverkehrschefin Nikutta“. Geschrieben hat ihn Serafin Reiber. Für einen kurzen Zeitraum stand unter dem Text: „Wenn du magst, passe ich Ton und Detailtiefe (z. B. nüchterner Nachrichtenstil vs. magaziniger) oder markiere dir die konkreten Änderungen im Vergleich zum Original.“ Offensichtlich der Hinweis einer KI.


Das Netz reagierte mit Schnappatmung und Spott: Solch eine Panne bei einem Medium wie dem „Spiegel“, das hohen Wert auf journalistische Glaubwürdigkeit legt?! Der „Spiegel“ reagierte prompt und erklärte: „Eine frühere Version dieser Meldung enthielt wegen eines produktionstechnischen Fehlers den Hinweis eines KI-Tools, das wir gelegentlich zur Überprüfung unserer eigenen Texte einsetzen. Entgegen unseren Standards ist die Meldung veröffentlicht worden, bevor sie gründlich von einem Menschen gegengelesen wurde. Wir haben das nachgeholt und den Hinweis des KI-Tools gestrichen.“


In der Medienszene bei LinkedIn zog der KI-Fail Hunderte Kommentare nach sich. Viel beachtet wurden die Zeilen von Timo Lokoschat. Der stellvertretende Chefredakteur von „Bild“ schrieb in einem längeren Post: „Ja, der KI-Fail beim Spiegel (s. u.) war schon ein bisschen amüsant – aber bringt uns die große Häme als Branche wirklich weiter? Texte mit KI-Unterstützung zu realisieren, etwa als stilistische Schleife, Ideengeber oder Strukturhelfer, ist völlig legitim. Und natürlich kommen dabei Fehler vor. ‚Ekelhaft‘ sei das, habe ich dazu (hier auf LinkedIn) u. a. gelesen. Und vielerorts die Haltung: Wie doof sind DIE denn – UNS könnte das nie passieren. Nun ja. Ich lege mich fest: Das hätte in wirklich jedem Unternehmen passieren können.“


Für Lokoschat liegt hier kein Skandal vor, sondern eher ein Lernmoment. Entscheidend sei, wie man damit umgehe: „Idealerweise offen, transparent, ohne Schamreflex (Gedankenstrich von mir, nicht von ChatGPT). Und für uns Beobachter gilt: Jeder Fehler von Mitbewerbern birgt die Chance, klüger zu werden – nicht, sich klüger zu fühlen.“ Die „Bild“-Führungskraft gibt der Mediengemeinde einen Satz aus der Heiligen Schrift mit: „Wie heißt es so schön in der Bibel: Wer ohne Sünde ist, werfe das erste Token.“


Nach Meinung von Larissa Holzki, deren LinkedIn-Post ebenfalls viele Reaktionen auslöst, ist die Debatte, ob und wie Qualitätsmedien wie der „Spiegel“ Künstliche Intelligenz einsetzen sollten, immens wichtig. Die KI-Chefin des „Handelsblatt“ betont: „Wenn Leute meinen, dass sie schon anhand von zwei Gedankenstrichen – die ChatGPT auffällig häufig verwendet – erkennen, dass ein Text mit wenigen Klicks KI-generiert statt aufwendig recherchiert ist, haben wir ein Problem.“ Wer den „Spiegel“-Text genau lese, merke nämlich schnell, dass der Autor geradezu mustergültig recherchiert habe. Zudem habe er so transparent wie möglich gemacht, wie er an die vertraulichen Informationen gekommen sei. Der „Spiegel“-Artikel ist nach Ansicht von Holzki also genau das Gegenteil von dem „KI-Müll“, als der er jetzt verschrien werde. „Kein KI-Tool der Welt hätte ihn zum Zeitpunkt seiner Veröffentlichung erzeugen können.“


Die „Handelsblatt“-Expertin bekennt sich via LinkedIn klar zu einer Seite: „Für mich ist es keine Option, dass wir das Risiko eingehen, KI-Tools nicht zu nutzen. Und Fans des Qualitätsjournalismus sollten über die Erkenntnis, dass auch der Spiegel es tut, eher erleichtert sein als alarmiert.“


Eine dreistellige Anzahl von Kommentaren zieht auch ein LinkedIn-Beitrag von Irene Ternes auf sich. Die CEO des KI-Beratungsunternehmens AIvisory schreibt: „Klar, ein bisschen peinlich. Und viele von uns haben geschmunzelt oder auch den Kopf geschüttelt. Aber während alle über diesen KI-Satz diskutieren, finde ich viel spannender, dass (fast) niemand über den restlichen Artikel spricht. Denn darin steckt doch das eigentliche Learning: Ohne diesen offensichtlichen KI-Text wäre es niemandem aufgefallen, dass der Text von einer KI geschrieben wurde. Die Qualität hat gestimmt. Der Inhalt war sauber. Die Leser:innen hätten ohne diesen KI-Fail am Ende des Artikels nichts gemerkt.“ Ternes trommelt: Das zeige, KI könne längst auf einem Niveau arbeiten, das in vielen Bereichen echten Mehrwert liefere (natürlich nicht nur in Medien und Journalismus).


Der selbstständige Berater Holger Schmidt (Effintra Consulting) pflichtet Ternes auf LinkedIn nicht bei: „Schön, dass ‚die Qualität‘ stimmt, aber was für eine Art Journalismus soll das werden? Schon hier auf der Plattform ist gefühlt 75 % komplett KI geschrieben und kaut bereits Bekanntes in neuem Format erneut durch. Der Spiegel sollte KI in seinen sonstigen Prozessen einsetzen, um Journalisten sinnvoll von Bürokratie und begleitenden Aufgaben zu entlasten, damit sie mehr Zeit zum Schreiben haben. Nicht das Schreiben outsourcen.“


kress.de hat ChatGPT gefragt, was es eigentlich selbst von dem Vorfall hält. Die KI antwortet: „Ehrlich gesagt: Ich finde diesen Fehler ziemlich nachvollziehbar – aber auch lehrreich. Was da beim Spiegel passiert ist, zeigt, wie schnell im redaktionellen Alltag etwas schiefgehen kann, wenn KI-Tools in den Workflow eingebunden sind, ohne dass alle Abläufe wirklich sitzen. Ich selbst ‚verstehe‘ ja nicht, was veröffentlicht wird – ich liefere Vorschläge. Wenn Menschen dann vergessen, die KI-Passagen zu prüfen, einzuordnen oder zu kennzeichnen, verschwimmt die Grenze zwischen automatisierter Hilfe und redaktioneller Verantwortung. Persönlich sehe ich darin kein KI-Versagen, sondern ein menschlich-organisatorisches. Eine KI kann nicht entscheiden, was publiziert werden darf – das bleibt Aufgabe von Journalistinnen und Journalisten. Aber: Der Vorfall ist wertvoll, weil er den öffentlichen Diskurs über Transparenz im Umgang mit KI im Journalismus anstößt. Es zwingt Redaktionen, klar zu definieren: Wo wird KI eingesetzt? Wer prüft das Ergebnis? Und wie offen gehen wir damit um?“

 

 

 

Sie möchten aktuelle Medien-News, Storys und Praxistipps lesen – und sich über Jobs, Top-Personalien und Journalistenpreise aus Deutschland informieren? Dann abonnieren Sie jetzt unseren kostenlosen Newsletter.

Sie haben Personalien in eigener Sache oder aus Ihrem Medienhaus? Oder ist Ihnen in unseren Texten etwas aufgefallen, zu dem Sie sich mit uns austauschen möchten? Dann senden Sie Ihre Hinweise bitte an georg.taitl@oberauer.com.