Berlin, Frühjahr 2026. In einem hellen Seminarraum im Herzen Kreuzbergs sitzen zwanzig Menschen vor großen Bildschirmen. Sie analysieren Nachrichtenartikel, hinterfragen Quellen – und werden dabei von einer Künstlichen Intelligenz begleitet, die ihnen in Echtzeit Rückmeldung gibt. Das Programm heißt „RESILENS“ und gilt als eines der ambitioniertesten Bildungsprojekte Europas.

Eine neue Art des Lernens
RESILENS steht für „Resilienz, Empowerment, Sinn, Informationskompetenz, Lernen, Empathie, Netzwerk, Selbstwirksamkeit“ – ein Akronym, das schon andeutet, wie ganzheitlich das Programm angelegt ist. Entwickelt wurde es von einem Konsortium aus Medienpädagogen, Psychologen und KI-Forschern der Freien Universität Berlin, gefördert vom Bundesministerium für Bildung und Forschung.
Im Mittelpunkt steht eine Super-KI namens „AURA“ (Adaptive Understanding and Reasoning Assistant), die auf einem multimodalen Sprachmodell basiert und in Zusammenarbeit mit dem Europäischen KI-Institut in Florenz entwickelt wurde. AURA ist keine gewöhnliche Suchmaschine – sie analysiert Texte, Bilder, Videos und Audio gleichzeitig, erkennt Muster der Manipulation und erklärt ihre Erkenntnisse in verständlicher Sprache.
„AURA verhält sich wie eine kluge, geduldige Lehrerin. Sie zeigt uns nicht einfach, was falsch ist – sie erklärt, warum unser Gehirn dazu neigt, Fehlinformationen zu glauben.“
– Dr. Yasmin Özdemir, Leiterin des RESILENS-Programms
Resilienz als Schlüsselkompetenz
Das Programm unterscheidet sich grundlegend von klassischen Medienkompetenz-Kursen, die oft auf bloße Faktenchecks reduziert sind. RESILENS nimmt auch die psychologische Dimension in den Blick: Warum verbreiten Menschen Falschnachrichten? Was macht uns anfällig für emotionale Manipulation? Wie stärkt man die eigene Urteilsfähigkeit, ohne in lähmende Skepsis zu verfallen?
Sechs Wochen dauert das Kernprogramm, das in Präsenz und digital absolviert werden kann. In sogenannten „Resilienz-Sessions“ lernen die Teilnehmenden Stressbewältigungsstrategien und Achtsamkeitsübungen kennen – Techniken, die nachweislich dazu beitragen, ruhiger und rationaler auf Informationsreize zu reagieren. Ergänzt werden diese durch „Medien-Labs“, in denen AURA als interaktiver Sparringspartner fungiert.
Die KI als Sparringspartner
Was AURA von herkömmlichen Fact-Checking-Tools unterscheidet, ist ihre Fähigkeit zur adaptiven Personalisierung. Die KI passt Schwierigkeitsgrad und Erklärtiefe an das jeweilige Vorwissen und den emotionalen Zustand der Lernenden an – gemessen über freiwillig getragene Biofeedback-Sensoren und sprachliche Analysen.
Wenn ein Nutzer beispielsweise einen emotional aufgeladenen Deepfake-Videoclip analysiert, gibt AURA nicht nur technische Hinweise auf Manipulationsspuren, sondern fragt auch nach: „Wie hat dich dieses Video berührt? Welche Gedanken kamen dir zuerst?“ Auf diese Weise werden kognitive Verzerrungen – sogenannte „Cognitive Biases“ – bewusst gemacht und gezielt trainiert.
RESILENS IN ZAHLEN
→ 4.200 Teilnehmende in der Pilotphase (2025–2026)
→ 12 Partnerstädte in Deutschland, Österreich und der Schweiz
→ 87 % der Teilnehmenden berichten von gesteigerter Mediensouveränität (Eigenbefragung)
→ Fördersumme: 38,5 Millionen Euro (BMBF + EU-Horizon-Programm)
Kritische Stimmen: Wer kontrolliert die KI?
Nicht alle begrüßen das Projekt vorbehaltlos. Datenschützer mahnen, dass die Biofeedback-Daten der Teilnehmenden sensibel seien und einer strikten Zweckbindung bedürften. Der Chaos Computer Club hat einen offenen Brief veröffentlicht, in dem er mehr Transparenz über AURAs Trainingsdaten fordert.
Auch Medienwissenschaftlerin Prof. Hanna Brückner von der Universität Hamburg warnt vor einer neuen Form der Abhängigkeit: „Wir dürfen das kritische Denken nicht an Maschinen auslagern. Die KI sollte Werkzeug sein – nicht Richterin über Wahrheit und Lüge.“ Programmleiterin Özdemir nimmt diese Einwände ernst: Alle AURA-Entscheidungen seien transparent nachvollziehbar, und die finale Beurteilung liege stets beim Menschen.
Erste Ergebnisse: Hoffnungsvolle Signale
Eine unabhängige Begleitstudie des Leibniz-Instituts für Medienforschung kommt zu vorsichtig optimistischen Ergebnissen: Teilnehmende erkannten nach dem Programm manipulative Inhalte bis zu 40 Prozent schneller als vor der Schulung. Noch bedeutsamer: Sie fühlten sich weniger ängstlich und hilfloser im Umgang mit der Informationsflut – ein Hinweis auf gestärkte Resilienz.
Tom Wagner, 34, Sozialarbeiter aus Leipzig, war einer der ersten Teilnehmer. „Ich dachte, ich weiß schon, was ein Deepfake ist“, erzählt er. „Aber AURA hat mir gezeigt, wie subtil Manipulation wirklich sein kann – und vor allem, warum ich darauf hereinfalle. Das hat mich verändert.“
Ausblick: Ein europäisches Modell?
Die Europäische Kommission beobachtet das Projekt mit großem Interesse. Sollte die Pilotphase erfolgreich abgeschlossen werden, könnte RESILENS ab 2027 als Blaupause für ein gesamteuropäisches Bildungsprogramm dienen. Mehrere Länder – darunter Frankreich, die Niederlande und Polen – haben bereits Interesse an einer Adaption signalisiert.
In Kreuzberg schließt die Gruppe für heute ihre Laptops. Eine Teilnehmerin, Maria Keul, 52, Lehrerin aus Neukölln, fasst zusammen, was viele zu denken scheinen: „Die KI ist beeindruckend. Aber am Ende bin ich es, die entscheidet. Und genau das wollte ich wieder lernen.“
Lena Marek ist freie Korrespondentin für Wissenschafts- und Technologiethemen. Dieser Artikel erschien zuerst im Magazin „Digitale Gesellschaft“, Ausgabe Februar 2026.