AI + Automation Lab

Ethik der Künstlichen Intelligenz Unsere KI-Richtlinien im Bayerischen Rundfunk

Egal welche Technologie bei uns zum Einsatz kommt, sie soll kein Selbstzweck sein. Sie muss uns helfen, besseren Journalismus zu machen. Das gilt auch für Künstliche Intelligenz und alle anderen Formen der intelligenten Automatisierung. Wir wollen das konstruktive Zusammenspiel von menschlicher und künstlicher Intelligenz mitgestalten und die neuen Möglichkeiten für unseren Journalismus nutzen.

Von: Jonas Bedford-Strohm, Uli Köppen, Cécile Schneider

Stand: 30.11.2020

Frauengesicht mit Lichtprojektion | Bild: BR

Unser Prüfstein für den Einsatz: Bietet die Technologie den Mitarbeitenden im BR und unseren Nutzer:innen tatsächlich einen Mehrwert?

Unsere Journalist:innen bleiben dabei unersetzlich. Die Arbeit mit neuen Technologien wird ihren Beitrag zusätzlich stärken und neue Aktivitäten und Rollen in den Redaktionen mit sich bringen.

Um die Frage nach dem Mehrwert immer wieder neu beantworten zu können, haben wir uns für den Alltag mit KI und Automatisierung zehn ethische Richtlinien gegeben.

1. Mehrwert für Nutzer:innen

Wir nutzen KI, um unsere Arbeit effizienter zu machen und verantwortlich mit den Ressourcen umzugehen, die uns die Beitragszahler:innen anvertrauen. Wir nutzen KI auch, um neue Inhalte zu generieren, neue Methoden für investigative Recherchen zu entwickeln und Angebote für unsere Nutzer:innen attraktiver zu machen.

2. Transparenz & Diskurs

Wir beteiligen uns an der Debatte über die gesellschaftliche Rolle von Algorithmen, indem wir über Trends informieren, KI-Entwicklungen einordnen, investigativ zu Algorithmen recherchieren, Funktionsweisen erläutern und eine offene Diskussion über die Weiterentwicklung der öffentlich-rechtlichen Medienarbeit in der Daten-Gesellschaft befördern.

Wir studieren den Ethik-Diskurs anderer Institutionen, Organisationen und Unternehmen, um unsere Richtlinien zu überprüfen und arbeiten kontinuierlich daran, unsere Richtlinien zu verbessern, um eine Theorie-Praxis-Kluft zu vermeiden.

Unseren Nutzer:innen machen wir transparent, welche Technologien wir einsetzen, welche Daten wir erheben und welche Redaktionen oder Partner die Verantwortung dafür tragen. Wenn ethische Probleme in der Produktentwicklung auftauchen, machen wir sie zum Thema selbstreflexiver Berichterstattung, um das Bewusstsein für diese Probleme zu stärken und unseren eigenen Lernprozess transparent zu machen.

3. Vielfalt & Regionalität

Wir denken stets die gesellschaftliche Vielfalt Bayerns und Deutschlands mit. So streben wir beispielsweise nach Dialektmodellen für Speech-to-Text-Anwendungen und einem aufmerksamen und bewussten Umgang mit möglichen Vorurteilen in Trainingsdaten (algorithmic accountability), auch durch möglichst diverse Teams.

Wir arbeiten mit bayerischen Startups, um die regionale KI-Kompetenz zu nutzen und durch praktische Projekte im Medienbereich zu fördern. Wir arbeiten auch auf größtmögliche Verlässlichkeit im Betrieb hin und arbeiten fallbasiert mit etablierten Tech-Unternehmen. Wo möglich, bringen wir uns im Netzwerk von ARD und der Europäischen Rundfunkunion EBU ein und denken stets die ethischen Aspekte der anvisierten Anwendung mit.

4. Bewusste Datenkultur

Wir verlangen von Dienstleistern belastbare Informationen zu den Datenquellen: Womit wurde das Modell trainiert? Auch bei internen Entwicklungen diskutieren wir kontrovers die Integrität und Qualität der Trainingsdaten, insbesondere um Vorurteilen in den Daten (algorithmic bias) entgegenzuwirken und gesellschaftliche Vielfalt abzubilden.

Wir stärken bei unseren Mitarbeiter:innen das Bewusstsein für den Wert von Daten und die konsequente Pflege von Metadaten, denn verlässliche KI-Anwendungen können nur mit verlässlichen Daten entwickelt werden. Das Bewusstsein im Alltag ist unerlässlich und eine wichtige Führungsaufgabe für die Zukunftsfähigkeit öffentlich-rechtlicher Medien.

Wir erheben in unseren eigenen Produkten so wenige Daten wie möglich und so viele wie nötig, um unseren Auftrag zu erfüllen (Datensparsamkeit). Wir setzen auf hohe Datensicherheits-Standards und stärken weitherin unser Bewusstsein für verantwortliche Haltung, Verarbeitung und Löschung von Daten, insbesondere wenn personenbezogene Daten betroffen sind. Wir konzipieren die Nutzung unserer Angebote so datensouverän wie möglich.

5. Verantwortliche Personalisierung

Personalisierung stärkt den Informations- und Unterhaltungswert unserer Angebote, sofern sie gesellschaftliche Vielfalt nicht untergräbt und ungewollte Filterblasen-Effekte verhindert. Daher engagieren wir uns mit anderen europäischen Medienhäusern in der EBU bei der Entwicklung öffentlich-rechtlicher Empfehlungslogiken und nutzen datengetriebene Analyse-Werkzeuge als Assistenzsysteme für redaktionelle Entscheidungen.

6. Redaktionelle Kontrolle

Auch bei automated journalism und Datenjournalismus liegt die publizistische Verantwortung bei den Redaktionen. So bleibt das Abnahmeprinzip bei automatisiert erstellten Inhalten bestehen. Es entwickelt sich allerdings weiter: Das Prinzip der Einzelprüfung wird zu einer Plausibilitätsprüfung von kausalen Zusammenhängen in der Datenstruktur und einem rigorosen Integritätstest der Datenquelle.

7. Agile Lernkultur

Um Produkte und Richtlinien weiterzuentwickeln, brauchen wir Lernerfahrungen aus Pilotprojekten und Prototypen. Experimente sind Teil des Prozesses. Bis einschließlich der Beta-Phase sind die Richtlinien abgestuft, im release candidate-Status dann lückenlos zu erfüllen. So verankern wir, dass fertige Publikumsprodukte allerhöchste Standards erfüllen und wir trotzdem eine agile Lernkultur im Alltag leben können. Wir hören unseren Nutzer:innen zu, laden sie zu Feedback ein und reagieren darauf.

8. Partnerschaften

Wir arbeiten in Kooperation mit Hochschulen und Universitäten an Projekten wie Textgenerierung und Machine-Learning-Modellen und bieten Studierenden und Lehrenden praktische Kontexte für Forschungsarbeiten. Wir suchen Austausch mit wissenschaftlichen Instituten und KI-Ethik-Expert:innen.

9. Talente & Kompetenzen

Angesichts des dynamischen Technologiespektrums der KI stellen wir aktiv sicher, dass wir im BR ausreichend Mitarbeiter:innen haben, die den verantwortungsvollen und menschenzentrierten KI-Einsatz auf neuestem Stand umsetzen können.

Wir rekrutieren insbesondere Talente mit diversen Hintergründen und praktischer KI-Kompetenz, die sie im öffentlich-rechtlichen Journalismus einbringen wollen.

10. Interdisziplinäre Reflexion

Anstatt Ethik-Reviews zu machen, nachdem Ressourcen investiert wurden, integrieren wir die interdisziplinäre Reflexion mit Journalist:innen, Entwickler:innen und dem Management von Beginn an in die Produktentwicklung. So stellen wir sicher, dass wir nicht Ressourcen auf Projekte verschwenden, die absehbar nicht den Richtlinien entsprechen.

Wir reflektieren regelmäßig und interdisziplinär unsere Erfahrungen mit den ethischen Grenzsituationen im Einsatz von Technologien. Die Erfahrungen evaluieren wir aus der Perspektive des Medienstaatsvertrags und der hier fixierten Richtlinien.