Eine comichafte Zeichnung von jungen Menschen, die Arm in Arm laufen und in deren Mitte ein Smartphone mit ihnen ebenfalls Arm in Arm läuft. Um sie herum sind viele Social Media Icons abgebildet. Alle haben gute Laune.
Story

Virtuelle Begleiter durch digitale Welten

Autorin: Dr. Manuela Lenzen / Illustrationen: vikunia/Viktoria Cichoń

Ein digitaler Begleiter, der Kinder und Jugendliche nicht belehrt, sondern unterstützt und dabei auch noch unterhaltsam ist: Daran arbeitet das interdisziplinäre und internationale Konsortium "COURAGE".

Cybermobbing, Rassismus, Hassrede und Fake News: Die Sozialen Medien können vor allem für Kinder und Jugendliche ein problematischer Aufenthaltsort sein. Ständige elterliche Aufsicht über ihre Aktivitäten auf Instagram, Tiktok und Snapchat ist allerdings weder realistisch noch erwünscht. Doch vielleicht könnte ein digitaler Begleiter helfen, der den jungen Nutzer:innen zur Seite steht; ein Assistent, der problematische Inhalte erkennt und kommentiert und die Nutzer:innen zugleich sensibilisiert, damit sie diese nicht selbst noch weiterverbreiten. Einen solchen Begleiter zu entwickeln, ist das Ziel des Projekts COURAGE, das die VolkswagenStiftung im Rahmen der Initiative "Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen" fördert.

Realisiert wird COURAGE von einem internationalen Konsortium, an dem Forschungsgruppen aus Barcelona, Bottrop, Duisburg, Mailand, Palermo und Regensburg beteiligt sind; Professorin Dr. Sabrina Eimler von der Hochschule Ruhr West in Bottrop leitet das Projekt. Und die Forscher:innen sind überzeugt: So, wie man mit Theorie und praktischem Üben Autofahren lernen kann, kann man auch den Umgang mit den virtuellen Welten lernen. Der digitale Begleiter soll dabei helfen.

Positive Computing als Grundlage

Sabrina Eimler forscht in Bottrop an der Schnittstelle von Gesellschaft und Informatik, Psychologie, Kultur- und Wirtschaftswissenschaften. Von dem digitalen Begleiter hatte sie eine klare Vorstellung: Er soll interaktiv sein und weder nerven noch bevormunden. "Einen Bot, der sich ungefragt einmischt und von oben herab belehrt, den kann niemand leiden und den verwendet dann auch niemand."

Sie folgt dem Ansatz des "Positive Computing". Dabei geht es darum, Informations- und Kommunikationstechnologien so zu gestalten, dass sie den Menschen guttun, dass sie ihre Autonomie berücksichtigen, Kompetenzen erweitern, aber auch das Mitgefühl und die Verbundenheit mit anderen stärken – also ungefähr das Gegenteil von dem tun, was in den Sozialen Medien häufig geschieht. "Wenn man versteht, wie Menschen andere kategorisieren, dass wir alle dazu neigen, andere abzuwerten und zwischen 'uns' und 'denen' zu unterscheiden, dann kann man bewusst anders handeln. Wenn es uns gelingt, im Sinne des Positive Computing Autonomie, Kompetenz und Verbundenheit zu stärken, können wir vielleicht dazu beitragen, Hass und Hetze im Netz zu verringern", formuliert Eimler ihre Motivation.

Comichaft dargesteller Junge, der ein Smartphone in der Hand hält.

Von der ursprünglichen Idee, einen Chatbot zu entwickeln, der einfach auf dem Handy mitläuft, sind die Forscher:innen bald abgerückt. "Es ist eine Sache, eine Idee zu haben, und eine andere, sie so zu realisieren, dass sie allen Sicherheitsstandards gerecht wird", berichtet Eimler. "Das war eine unserer ersten Erkenntnisse: Die Sprache ist so fein granular, dass wir gar nicht genau sagen können, wann wir es in einer Interaktion mit einem kritischen Fall zu tun haben, in dem auf jeden Fall ein Mensch eingreifen sollte. Dieses Problem können wir nicht nebenbei lösen. Aber wir haben gedacht, warum auf ein perfektes Produkt warten, wir können ja schon einmal mit dem anfangen, was wir leisten können."

Interaktive Workshops

Dazu gehört etwa ein Empathie-Training für jüngere Jugendliche, das Veronica Schwarze, Doktorandin in Eimlers Arbeitsgruppe, gemeinsam mit Dr. Johanna Börsting, ebenfalls wissenschaftliche Mitarbeiterin im COURAGE Projekt, und dem Forschungsteam aus Barcelona entwickelt und evaluiert hat. Sie erproben das Empathie-Training in Form einer digitalen Lernaktivität in interaktiven Workshops, die sich an Schulklassen richten.

"Hallo", meldet sich Tutxi, der virtuelle Begleiter des Lernprogramms, in einer Sprechblase auf dem Bildschirm. "Für den heutigen Workshop werde ich Dein virtueller Begleiter sein. Wie geht’s Dir?" "Wir haben einen geschlechtsneutralen Namen gesucht, der freundlich klingt", berichtet Schwarze. "Diesen hat ein Mitarbeiter aus Spanien vorgeschlagen." Die Antwort auf Tutxis Fragen tippen die Kinder in den Laptop. Nach ein bisschen Smalltalk stellt der virtuelle Begleiter den Jugendlichen kleinere Aufgaben, bei denen das Lernmaterial spielerisch in das Gespräch integriert wird. Neben einem Video, das den Begriff Empathie altersgerecht erklärt, enthält das Lernmaterial fingierte Postings, wie sie in den Sozialen Medien stehen könnten. Sie dienen als Fallbeispiele, an denen die Jugendlichen Cybermobbing reflektieren sollen. Um ihre Meinung zu äußern und ihre eigenen Gefühle zu beschreiben, stehen ihnen teils Buttons mit vordefinierten Antworten zur Verfügung, teils formulieren sie ihre Antworten frei.

Unser Ziel ist es, das Wissen der Jugendlichen über Rassismus zu erweitern, sodass sie einen selbstsicheren und kritischen Umgang mit diskriminierenden Verhaltensweisen erlernen.

Veronica Schwarze, Doktorandin

In einem Programm für ältere Jugendliche geht es darum, Ausgrenzung sichtbar zu machen und die Schüler:innen für rassistische Denk- und Verhaltensweisen zu sensibilisieren. Zu diesem Zweck hat das Projektteam Werbeanzeigen fingiert, in denen zum Beispiel ein Haarshampoo beworben wird, welches sich "für normales und sogar für krauses Haar" eigne. Solche Prozesse des "Fremdmachens" sollen damit ebenso thematisiert werden wie stereotype Vorstellungen über marginalisierte Gruppen und das, was in unserer Gesellschaft als "Norm" betrachtet wird. Wie im Empathie-Training, findet die Auseinandersetzung mit den Inhalten unter Anleitung eines virtuellen Begleiters statt.

"Unser Ziel ist es, das Wissen der Jugendlichen über Rassismus zu erweitern, sodass sie einen selbstsicheren und kritischen Umgang mit diskriminierenden Verhaltensweisen erlernen", sagt Veronica Schwarze. Nach Workshops fanden Gesprächsrunden mit den Jugendlichen statt, in denen über die Ziele des Projekts gesprochen wurde und sie die Möglichkeit bekamen, ihre Meinungen und Eindrücke zu äußern. "Ihnen wurde auch angeboten, sich im Nachgang bei Fragen oder Gesprächsbedarf an uns zu wenden und wir haben auf Angebote wie 'NummerGegenKummer' hingewiesen", so Schwarze.

Allein am Empathie-Training haben inzwischen mehr als 330 Schüler:innen zwischen 11 und 17 Jahren in Deutschland, Spanien, Italien und Brasilien teilgenommen. Die Daten wurden länderübergreifend ausgewertet. Dabei zeigte sich unter anderem, dass die Jugendlichen in Italien in Sachen Empathie deutlich besser abschnitten als die Jugendlichen in Deutschland.

"Es ist besonders wertvoll für uns, mit den Jugendlichen direkt ins Gespräch zu kommen", berichtet Veronica Schwarze. "Es freut uns zu sehen, dass sie sich begeistert und interessiert zeigen und die Interaktion mit dem digitalen Begleiter als hilfreich empfinden." Dabei verbirgt sich hinter diesem nicht etwa eine Künstlichen Intelligenz. Stattdessen sind die Antworten von den Forschenden vorformuliert, denn auch hier gibt es Sicherheitsbedenken. "Wir können nicht riskieren, dass eine KI Dinge von sich gibt, die die Jugendlichen potenziell traumatisieren", erklärt Sabrina Eimler.

Eine Frau mit langen Haaren hält ein Smartphone in der Hand. Auf dem Display ist eine Social-Media-Timeline zu sehen.

Den Jugendlichen macht das nichts. ChatBots sind für sie nichts Ungewöhnliches und sie mögen die Art, wie das Programm interagiert – vielleicht auch, weil der Begleiter mit etwas Verzögerung antwortet, als würde er zuhören und müsse erst nachdenken. Und sie mögen es, ihre eigenen Antworten einzutippen. "Das ist mal etwas anderes als wenn die Lehrer:innen die Inhalte erklären", sagt Schwarze.

Mit einem Quiz und einer Kontrollgruppe wollten die Forscher:innen testen, ob die Interaktion mit dem virtuellen Begleiter Tutxi einen Unterschied macht, dass die Schüler:innen etwa Rassismus in Postings danach besser erkennen. "Leider hat sich das bislang nicht bestätigt", berichtet Eimler. "Vielleicht liegt es an der besonderen Situation in der Klasse: Wir werden ja angekündigt mit unserem Thema, da sind dann alle Kinder sensibilisiert – auch die Kontrollgruppe."

Die Projektgruppe der Mitarbeitenden in echt und zugeschaltet auf Monitoren.

Internationale und interdisziplinäre Kooperation

Die Mitglieder des COURAGE-Konsortiums kannten sich bereits aus anderen Kontexten und haben sich für dieses Projekt zu einer Gruppe zusammengefunden. "Unser Ansatz hier in Bottrop und die Ansätze unserer Mitstreiter:innen haben sich hervorragend ergänzt", berichtet Eimler, die sich noch erinnern kann, wie sie im Zug auf dem Weg zur Präsentation des Projekts in Hannover ihren "Pitch" geübt haben. Forschung zu Lernumgebungen, zu pädagogischer Informatik, zu Psychologie, Mensch-Technik-Interaktion und Künstlicher Intelligenz kommen in dem Projekt zusammen. "Wir haben uns auch aneinander gerieben, mussten erst eine gemeinsame, interdisziplinäre Sprache finden und uns auch persönlich besser kennenlernen. Zudem war es gar nicht so leicht, gemeinsame Themen zu priorisieren. In Spanien etwa ist das Thema Bodyshaming viel präsenter als hier. Die italienischen Kolleg:innen wollten sich stärker auf Falschinformation konzentrieren, wir haben uns mit Rassismus und Diskriminierung befasst. Und die Corona-Pandemie hat es auch nicht leichter gemacht, lange konnten wir ja überhaupt nicht in die Schulen."

Wir [...] mussten erst eine gemeinsame, interdisziplinäre Sprache finden

Wenn es nach den Lehrer:innen ginge, mit denen sie zusammengearbeitet haben, könnten die Forscher:innen viel öfter in die Klassen kommen, um die Jugendlichen für die problematischen Inhalte zu sensibilisieren. Der Bedarf ist groß. "Aber das können wir als Forschende personell nicht stemmen", konstatiert Eimler. Als nächsten Schritt wünscht sie sich deshalb, dass dass Anbieter von Bildungsmedien die COURAGE-Prototypen als Apps auf den Markt bringen, sodass Schulen sie einkaufen und verwenden können.

Ausgewählte Publikationen

Theophilou, E. et al. (2023). Empirically Investigating Virtual Learning Companions to Enhance Social Media Literacy. In: Fulantelli, G., Burgos, D., Casalino, G., Cimitile, M., Lo Bosco, G., Taibi, D. (eds) Higher Education Learning Methodologies and Technologies Online. HELMeTO 2022. Communications in Computer and Information Science, vol 1779. Springer, Cham. https://doi.org/10.1007/978-3-031-29800-4_27

Taibi, D. et al. (2023). The Role of Educational Interventions in Facing Social Media Threats: Overarching Principles of the COURAGE Project. In: Fulantelli, G., Burgos, D., Casalino, G., Cimitile, M., Lo Bosco, G., Taibi, D. (eds) Higher Education Learning Methodologies and Technologies Online. HELMeTO 2022. Communications in Computer and Information Science, vol 1779. Springer, Cham. https://doi.org/10.1007/978-3-031-29800-4_25