Generative KI im Journalismus – Sorgfalt, Transparenz und Qualität gewährleisten

15.09.2023

Diskussionspapier der Bundesfachgruppe Medien, Journalismus und Film in ver.di zum Einsatz von Künstlicher Intelligenz

15. September 2023 

KI-Systeme kommen im Journalismus seit Jahren zur Anwendung. Mit jeder nächsten Stufe der Entwicklung stellt sich die Frage nach der Art ihrer Einbindung im redaktionellen Prozess neu, aktuell angesichts von generativer KI in Wort-, Bild- und Video-Ausgabe. Das macht eine Grundsatz-Diskussion über den Einsatz von mehr als rein assistierender KI in den Produktionsprozessen der Medienhäuser nötig. Die Entwicklung und der Gebrauch von KI-Tools sind dynamisch und ihrer Regulierung weit voraus. Journalistische Standards und redaktionelle Verantwortung müssen in gesellschaftlich sensiblen Bereichen wie der öffentlichen Information weiterhin durch Menschen gewährleistet werden. Für die Selbstkontrolle der Branche stellt sich die Aufgabe, einheitliche Standards zur Gewährleistung journalistischer Qualität zu entwickeln, nicht zuletzt um das Vertrauen der Nutzer*innen in seriöse Medien auch bei einem durch generative KI umso leichter zu manipulierenden öffentlichen Diskurs zu erhalten und zu festigen. Und auch der Gesetzgeber muss den rechtlichen Rahmen der technischen Entwicklung anpassen. Die dynamischen Entwicklungen machen eine kontinuierliche Auseinandersetzung notwendig.

  • Dazu muss aus Sicht von ver.di gewährleistet sein:
     

Menschliche Verantwortung ist Voraussetzung für ernstzunehmenden Journalismus

Wenn Artikel, Videos oder Audio-Beiträge synthetisch generiert werden können, braucht es eine Verständigung darüber, was unter diesen veränderten Voraussetzungen als journalistisches Produkt gelten darf. Das ‚maschinelle‘ Ersetzen von Journalismus ist für die Gesellschaft nicht hinnehmbar. Grundsätzlich muss gewährleistet sein, dass redaktionelle Verantwortung immer in menschlicher Hand bleibt, um der journalistischen Sorgfaltspflicht gerecht zu werden. Welche Schritte im Produktionsprozess journalistischer Inhalte (Recherche, Texterstellung, Bilderstellung, Inhaltsüberprüfung usw.) in welchem Maße durch Menschen verantwortet sein müssen, damit ein Beitrag als journalistisch gilt – diese Definition muss die Branche im Sinne ihrer gesellschaftspolitischen Verantwortung vornehmen. Verantwortlichkeiten innerhalb der „Lieferkette“ – von der Entwicklung einer KI-Anwendung bis zur Veröffentlichung eines Beitrags – müssen lückenlos definiert sein.

Vertrauenswürdigen Journalismus kennzeichnen und für KI sensibilisieren

Generative Künstliche Intelligenz hat das Potenzial, den öffentlichen Diskurs massiv zu beeinflussen. Text-, Bild- und Ton-Generatoren, gerade auch in Kombination, vermögen Pseudo-Realitäten zu erschaffen, die unwahr sind, aber plausibel wirken. Auch können KI-Tools vorsätzlich zur Manipulation eingesetzt werden, womit die Vertrauenswürdigkeit von Medieninhalten in neuer Form in Frage steht. Mediennutzer*innen seriöse, vertrauenswürdige Inhalte als solche erkennbar zu machen und vorzugsweise privilegiert zu präsentieren, wird die zentrale Aufgabe, um kompetente Entscheidungen der Nutzer*innen zur Informationsauswahl zu ermöglichen.

Nötig ist eine verpflichtende Kennzeichnung von Medieninhalten: Menschengemachter Journalismus, sei es in Form von Text, Ton oder Bild sowie der Grad des Einsatzes von KI müssen auf Anhieb erkennbar sein. Hierzu sind branchenweite, international einheitliche Kennzeichnungs-Standards nötig, deren Einhaltung der Gesetzgeber im Medienstaatsvertrag verbindlich vorschreiben muss. Bis gesetzliche Vorgaben in Kraft sind, sollte sich die Branche einheitliche Selbstverpflichtungen zu Standards beim KI-Einsatz auferlegen. Auch sollten Medien selbst das öffentliche Bewusstsein für die Thematik durch aktive Berichterstattung und kritische Reflexion der technischen Entwicklung und der eigenen Rolle darin fördern.

Urheberschaft am Trainingsmaterial kommerzieller Anwendungen vergüten

Wenn mittels KI ein Radiosender produziert, eine Zeitungsbeilage verfasst und Bebilderung generiert wird, ersetzt das schon jetzt Arbeitsplätze von menschlichen Redakteur:innen, Moderator:innen, Autor:innen, Fotograf:innen, Grafiker:innen, Toningeneur:innen und vieler weiterer Berufsgruppen – ermöglicht auch durch das Training an deren bisherigen Werken. Sich menschliches Wissen und Leistungen anzueignen, neu zu bearbeiten und in den Anwendungen der Tech-Konzerne zu monetarisieren, ohne die Urheber*innen zu vergüten, ist nicht im Sinne der europäischen Urheberrechts-Richtlinie.

Um eine solche Ausbeutung in Zukunft zu verhindern, muss der Gesetzgeber dringend die Vorschriften zum Text and Data Mining (TDM) spezifizieren: Er muss explizite Regelungen für Urheberrechtsansprüche inkl. niederschwelligem Nutzungs-Widerspruch (Opt-Out) gegenüber Entwicklern und Anbietern generativer KI bei Verwendung zum Training von kommerziell eingesetzten generativen KIs schaffen. TDM für legitime gemeinwohlorientierte Zwecke muss weiterhin ermöglicht werden. Zudem muss er ein praktikables System zur kollektiven Rechteverwaltung etablieren. Hierzu gehört die Offenlegung der Quellen, mit denen KIs trainiert wurden. 

Datenqualität gewährleisten

Wenn Medienschaffende KI-Anwendungen einsetzen, müssen diese höchsten Transparenz- und Qualitätsstandards genügen, um bspw. die Reproduktion von Bias zu vermeiden und um überprüfbar zu bleiben. Die Trainingsdaten von KI-Systemen, ihre ethischen Standards, ihre Legalität und inhaltliche Belastbarkeit müssen gewährleistet sein. Die Einhaltung dahingehender Vorgaben muss transparent gemacht werden.

Hierzu braucht es branchenweite, international einheitliche Standards und Zertifizierung: etwa zur Datenschutzkonformität, zur Diskriminierungsfreiheit und Ausgewogenheit oder zum Anteil professioneller Inhalte im Trainingsmaterial. Nur zertifizierte Tools dürfen verwendet werden. Sobald das Risiko besteht, dass Produkte eines KI-Tools gegen geltendes Recht verstoßen, darf die Anwendung nicht zum Einsatz kommen.

Mitbestimmung bei der Verwendung von KI in Redaktionen

Nötig ist auch eine Debatte darüber, welche menschlichen Tätigkeiten an KI-Anwendungen delegiert werden können und bei welchen dies nicht zu verantworten ist. Die zum Teil erpresserische Einführung von KI-Systemen, bei der Technik gegen bestehende Arbeitsplätze und Arbeitnehmer*innen ausgespielt wird, ist hochproblematisch – zumal bislang keine gemeinsamen ethischen und rechtlichen Grundsätze für den produktiven Einsatz von generischer KI vorliegen.

Verantwortungsvoll mit generativer KI umzugehen heißt in Medienorganisationen auch, die Belegschaft bei der Frage um die Einführung und Anwendung von Technologien einzubinden und eine kritische Diskussion und einen agilen Lernprozess zu schaffen. Die Technik muss bedienbar und beherrschbar sein und darf nicht missbräuchlich eingesetzt werden. Weiterbildung und personelle Kapazitäten zur Betreuung neuer Anwendungen müssen gewährleistet sein. Nach einer Testphase muss eine Evaluation sichergestellt werden, inwieweit die vorab definierten Erkenntnis- oder wirtschaftlichen Ziele erreicht wurden.

Daher bedarf es eines Rechtsrahmens, der es Belegschaften ermöglicht, über die Anwendung von KI-Systemen im Hinblick auf das Potenzial, Arbeitsplätze zu ersetzen, Arbeitsleistung zu kontrollieren oder die Arbeitsbelastungen zu verstärken, mitzuentscheiden. Dazu muss das Betriebsverfassungsrecht entsprechend der technologischen Entwicklung präzisiert und Mitbestimmungsrechte über den Grad des Einsatzes von KI verankert werden. Bis dies der Fall ist, können tarifvertragliche und betriebliche Vereinbarungen geschlossen werden, die eine rechtzeitige Beteiligung der gewerkschaftlichen Interessenvertretungen sicherstellen.
 

Kontakt für Rückfragen

Bettina Hesse
Referentin für Medienpolitik
bettina.hesse@verdi.de
0160 977 43 486