
YutongLiu, KingstonSchool of Art: TalkingtoAI2.0
Die Zukunft von KI in der Kommunikation: wertebasiert und transparent?
#Wissenschaftskommunikation #Künstliche IntelligenzWie verändert Künstliche Intelligenz die Kommunikation und wie können Medienschaffende die Entwicklungen mitgestalten? Spannende Ansätze lieferte der erste von der VolkswagenStiftung ausgerichtete Webtalk zum Thema Wissenschaftskommunikation.
Wie verorten sich Journalist:innen und Wissenschaftskommunikator:innen im Spannungsfeld zwischen apokalyptischen Verkündungen vom "Ende der Wahrheit", Visionen von KI als journalistische Superkraft und ihren eigenen, nicht selten unerfüllten Erwartungen an KI-Tools, die ihre Arbeit unterstützen? Im ersten Webtalk der Reihe "Treffpunkt Wissenschaftskommunikation" diskutierten Christina Elmer, Volker Stollorz und Meik Bittkowski ihre Sicht auf das Thema mit den rund 240 Teilnehmer:innen.
Experimentierfreude und kritische Betrachtung
Viele Menschen sehen in der Anwendung von KI Risiken für Desinformation und Fake News. Auch wenn das Phänomen derzeit "quantitativ nicht überragend wichtig" sei, wie Elmer sagt, gibt es Fälle von großer Tragweite. Sie führen in der Öffentlichkeit zu Unsicherheit und Misstrauen, die sich auch auf die großen, etablierten Medien übertragen. Diese wiederum befänden sich selbst mitten in der Transformation hin zu KI-unterstützter Informationsvermittlung. "Wichtig ist", meint Elmer, "kompetent zu bleiben und die Entwicklungen mitzugestalten."
Wichtig ist, kompetent zu bleiben und die Entwicklungen mitzugestalten.
Journalist:innen müssen sich einerseits damit auseinandersetzen, wie sie die neuen Tools sinnvoll in ihre Arbeitsabläufe einbinden. Gleichzeitig sind sie gefordert, den Entwicklungsprozess der neuen Technologien kritisch zu begleiten. Christina Elmer beobachtet eine "spannende Dichotomie von Experimentierfreude und kritisch differenzierter Betrachtung".
Wie können Journalist:innen und Wissenschaftskommunikator:innen Authentizität vermitteln, wenn sie mithilfe von KI über KI berichten? Elmer rät zu einem unaufgeregten Umgang mit den neuen Technologien, transparentem Einsatz und wertebasierter Beurteilung. "Wir sollten uns sowohl in der Anwendung als auch in der Berichterstattung über KI-Systeme stets im Klaren sein: Was ist das Ziel im konkreten Kontext, wozu dient auf dem Weg dahin eine KI und erfüllt das gewählte System den gewünschten Zweck?"
Kernproblem: eigene Werte benennen
Dabei ist es wichtig, sich bewusst zu sein, welches System welche Risiken mit sich bringt. Die benutzten Modelle müssen für die Zwecke der Wissenschaftskommunikation oder des Journalismus ausgelegt sein - sie müssen 'aligned' sein: Ihre Prozesse und der Output müssen unseren Werten entsprechen. Das Kernproblem in der Frage des Alignments sieht Elmer darin, dass uns die eigenen, individuellen und gesellschaftlichen, Werte oft unklar sind. "Wenn wir ein System nach unseren Werten ausrichten wollen, müssen wie sie klar benennen und operationalisieren."
Fair urteilende Systeme zu entwickeln, erfordert geeignete Trainingsdaten. Werden Medienprodukte als Trainingsdaten genutzt, ist deren Entstehungszeitraum entscheidend, erklärt Elmer. Denn: "Wenn KI-Systeme Stereotype auswerfen, legen sie damit offen, was in der Gesellschaft und in der Gestaltung von Medienprodukten in der Vergangenheit angelegt ist", sagt sie. "Und KI soll ja die Vergangenheit nicht fortschreiben, sondern eine kulturelle Weiterentwicklung unterstützen." Medienschaffende können KI-Modelle gezielt auffordern Perspektiven einzunehmen, die in den Trainingsdaten unterrepräsentiert waren, um der Fortschreibung verzerrter Wahrheiten ein Stück weit entgegenzuwirken.
Wir müssen also intensiver darüber informieren, warum Menschen so einem System vertrauen können
Vertrauen durch Transparenz
Transparenz mit Blick auf den Einsatz und die Beschaffenheit von KI-Systemen hilft, das Vertrauen der Medienkonsument:innen zu stärken. Allgemeinverständliche, einheitliche Labels sollten anzeigen, in welchen Produktionsschritten KI eingesetzt wurde. Allerdings kann ein Label das Vertrauen der Nutzer:innen auch erschüttern, ein als 'Paradox of AI-Disclosure' beschriebenes Phänomen. "Wir müssen also intensiver darüber informieren, warum Menschen so einem System vertrauen können", folgert Elmer. Dafür sei es grundsätzlich hilfreich, über Themen der Erklärbarkeit von KI, Fairness der Systeme und Verlässlichkeit des Outputs aufzuklären.
Den Rezipierenden zuwenden
In der Distribution von Informationen wird KI zunehmend zum Vermittler. Elmer beobachtet, wie sich dabei die Erwartungshaltung und das Rezeptionsverhalten der Medienkonsumierenden verändert. "Sie profitieren davon, dass Inhalte und Formate personalisiert ausgespielt werden", sagt sie. Medienschaffende sollten sich auf die neuen Vermittlungsprozesse einstellen: "Ihre Aufgabe ist es, Produkte so aufzubereiten, dass sie in einem 'Machine-in-the-Middle' - System vermittelt werden können" - etwa indem sie mit geeigneten Metadaten versehen und modular gestaltet sind.
Angelehnt an eine These des KI-Forschers David Caswell erwartet sie, dass Journalismus und Kommunikation von der jetzigen Phase der Effizienzsteigerung in eine Phase gehen, in der neuartige Infrastrukturen und Prozesse für das künftige KI-vermittelte Informationsökosystem etabliert werden. Elmer mahnt in diesem Zusammenhang: "Nicht alle Rezipierenden werden die gleichen Möglichkeiten haben, von den Vorteilen KI-vermittelter Information zu profitieren. Verantwortungsvoller Journalismus und Kommunikation müssen sich diesen Randgruppen und Minderheiten zuwenden." Überhaupt rät Elmer, in Fragen zur Anwendung von KI "so radikal nutzerzentriert wie möglich" zu entscheiden.
Informationen bergen
"In einem guten Ökosystem werden wichtige und richtige Nachrichten zirkulieren und zur rechten Zeit an das richtige Publikum gelangen", meint Volker Stollorz, Gründer und Leiter des Science Media Centers (SMC), der im Anschluss an Elmers Vortrag einen Impuls beisteuerte. Dabei können KI-Anwendungen eine Vermittlerrolle spielen. Für ein eher dystopisches, aber nicht völlig abwegiges Szenario hält Stollorz, dass Menschen nicht mittels KI miteinander - also 'many-to-many' - kommunizieren: "Wenn stattdessen alle nur noch mit einer KI - also 'many-to-one' - reden, und wenn sie darauf basierend ihre Entscheidungen treffen", sagt er, "dann kann man nur hoffen, dass nicht dunkle Disruptoren eine derart mächtige KI kontrollieren."
KI kann [...] Orientierung im Wissensmeer schaffen
Das SMC setzt Large Language Modelle (LLM) ein, um wissenschaftliche Veröffentlichungen zu sondieren, neue Information zu extrahieren und deren Relevanz einzuschätzen. "KI kann Storyhinweise in dem Tsunami von Informationen aus den Wissenschaften identifizieren und Orientierung im Wissensmeer schaffen", sagt Meik Bittkowski, Leiter des SMC Lab, das Innovationen für den Wissenschaftsjournalismus entwickelt. Diese Einsatzmöglichkeiten könnten weiter ausgebaut werden, wenn demnächst KI-Modelle auf den Markt kommen, die auch über Reasoning-Fähigkeiten verfügen (LRM): Sie können nicht nur Worte und deren Zusammenhänge sondern ganze Ideen erkennen und verarbeiten.
Mit den LLM und LRM stünde Journalist:innen auf Knopfdruck "eine gewisse Form von Intelligenz" zur Verfügung, die Informationen für die weitere Verarbeitung finden, prüfen und aggregieren kann, meint Bittkowski. "Die KI übernimmt Routineaufgaben, Journalist:innen konzentrieren sich auf Analyse und Kontextualisierung." Diese Arbeitsaufteilung erlaube auch kleineren Organisationen, wertvolles neues Wissen zu bergen. Und solange Menschen die Aufsicht über die Algorithmen haben und im Workflow Kontrollpunkte eingebaut sind, hält er diese Anwendung von KI für sehr sicher.
Die Einblicke, die Christina Elmer, Volker Stollorz und Meik Bittkowski an diesem Abend boten, zeigen: KI kann Kommunizierenden heute schon Routineaufgaben in der Recherche und Medienerstellung abnehmen, und diese Fähigkeiten werden künftig weiter ausgebaut. Ein KI-gestütztes Ökosystem kann demokratischen Zugang für alle zu relevanten Informationen bieten. Um es aufzubauen, sind wir als Kommunizierende gefragt, die verfügbaren Tools zielgerichtet und wertebasiert einsetzen und auszurichten. Menschliche Expertise und Urteilskraft bleiben das Fundament für den sinnvollen Einsatz der Tools und die Verwertung KI-generierter Inhalte.