Prof. Markus Kaiser

Markus Kaiser

Director Consulting

In der Rundfunk- und Fernsehbranche ist KI alles andere als ein neues Phänomen. Sie wird bereits seit fast einem Jahrzehnt in verschiedenen Bereichen eingesetzt. In Teil 1 meines zweiteiligen Blog-Artikels lesen Sie, welche Rolle KI heute in modernen Nachrichtenredaktionen spielt und welche ethischen Fragen dies mit sich bringt.

Wir neigen dazu, bei KI an generative KI zu denken, wie z. B. Gemini von Google und ChatGPT von OpenAI. Aber KI wird in der Industrie schon seit einigen Jahren zur Automatisierung von Arbeitsabläufen eingesetzt, und wir haben mehr Erfahrung damit, als vielen bewusst ist. Dabei ist der große Unterschied zwischen generativer KI und traditioneller KI, dass generative KI narrative Daten und Dokumente analysieren und neue Inhalte erstellen kann – auf Basis der vielen Informationen, mit denen sie trainiert wurde, und die dem Tool zur Verfügung stehen.

Von der Recherche über die Überprüfung von Informationen, die Produktion und den Vertrieb bis hin zur Buchhaltung und der Planung von Arbeitsabläufen – KI unterstützt Routineaufgaben entlang der journalistischen Wertschöpfungskette.

In der Tat ist es sehr wahrscheinlich, dass KI diesen Artikel, den Sie gerade lesen, an mehreren Stellen berührt hat, sei es durch eine neue Generation hochentwickelter Rechtschreibprüfungen und Übersetzungsmaschinen, durch die effiziente Weiterleitung des Internetverkehrs, durch Suchmaschinenoptimierung oder an anderer Stelle.

Die jüngsten technologischen Entwicklungen werfen jedoch neue Fragen hinsichtlich ihrer Umsetzung auf. Wir müssen uns darüber im Klaren sein, dass der Einsatz von KI mit ethischen Überlegungen verbunden sein kann, was insbesondere für die Anwendung in Redaktionen von Bedeutung ist.

Generative KI: Anwendungsfälle und Dilemmas

Es gibt zwei Hauptanwendungsmöglichkeiten für generative KI in der modernen Nachrichtenredaktion.

  • Unterstützung bei der Texterstellung: Generative KI kann vorhandenen Text für kürzere Sendungen vorschneiden und ihn für verschiedene Zielgruppen umschreiben (z. B. für Social-Media-Plattformen und verschiedene demografische Gruppen). Dies ist bereits ein beliebter, alltäglicher Anwendungsfall.
  • Vollständige Texterstellung: Generative KI kann zur Generierung vollständiger Texte aus sprachlichen Eingabeaufforderungen eingesetzt werden. Dieser Inhalt muss anschließend von Menschen überprüft werden, vorzugsweise nach dem Vier-Augen-Prinzip, bei dem zwei Personen für die Genehmigung erforderlich sind.

Beide Anwendungsfälle betreffen die Manipulation von Text, und beide werfen verschiedene ethische Fragen auf.

Nehmen wir zum Beispiel an, dass sich in einem Nachrichtenbericht ein Fehler bezüglich des Alters oder der Nationalität einer wichtigen Persönlichkeit eingeschlichen hat. Auch wenn er unbedeutend erscheinen mag, kann er den Ruf eines Nachrichtenunternehmens schädigen, das sich auf eine genaue Berichterstattung beruft. Und wir müssen uns fragen, wer für diesen Fehler verantwortlich ist.

Ist es der Programmierer, der den ursprünglichen Code geschrieben hat? Ist es der Trainer, der das Programm mit dem Datensatz trainiert hat? Ist es der Journalist, der die Eingabeaufforderung geschrieben hat, die die falschen Informationen lieferte? Ist es die KI selbst? Generative KI neigt zu so genannten „Halluzinationen“, bei denen sie Fakten erfindet, um den in der Eingabeaufforderung enthaltenen Auftrag zu erfüllen. *

Die Antwort auf die Frage, wer für den Fehler verantwortlich ist, lautet also letztlich: alle.

Innerhalb eines Medienunternehmens muss es eine kollektive Verantwortung geben, die die Komplexität von KI-Implementierungen anerkennt und die Verantwortung vieler Einzelpersonen und Abteilungen berücksichtigt, um sicherzustellen, dass die Produktivitätsgewinne, die KI mit sich bringt, nicht durch eine Aushöhlung der primären Wahrheitsfindungsfunktion der Nachrichtenredaktion untergraben werden. Wer KI-Lösungen nutzt, muss lernen, die bereitgestellte Information kritisch zu hinterfragen und das Tool als Unterstützung statt als Ersatz für Validierungsprozesse zu nutzen.

In Teil 2 meines Blog-Artikels werden wir der Frage auf den Grund gehen, wie Medienunternehmen mit dem raschen Wandel Schritt halten können. Kontaktieren Sie mich gerne, wenn Sie sich hierüber mit mir austauschen möchten.


* Erfahren Sie mehr darüber, wie sich mit „Humans in the Loop“ Fehlinformationen verhindern lassen – ein Best Practice für die KI-Gesetzgebung und bei CGI.

Dieser Blog-Artikel erschien zunächst unter der Überschrift „Ethische Überlegungen zu KI im Newsroom“ bei TVB Europe.

Über diesen Autor

Prof. Markus Kaiser

Markus Kaiser

Director Consulting

Als Director Consultant berät Markus Kaiser seine Kunden bei den öffentlichen Verwaltungsorganisationen und im Media Bereich mit den Schwerpunkten Change Management, Kommunikation, Social Media, Innovationsmanagement und Leadership. Sein Spezialgebiet ist Change Leadership.