Wir freuen uns bekannt zu geben, dass Dr. Kevin M. Blasiak sich im Rahmen eines hoch kompetitiven Auswahlverfahrens erfolgreich um eine Förderung im 1000-Ideen-Programm des Wissenschaftsfonds FWF beworben hat. Die Leitung des Projekts erfolgt durch ihn am CTSi//circle.responsibleComputing.
Das 1000-Ideen-Programm des FWF fördert kühne, risikoreiche und potenziell bahnbrechende Grundlagenforschung, die bestehende Paradigmen hinterfragt und völlig neue wissenschaftliche Denkansätze eröffnet. Ausgewählt werden Projekte, die sich durch Originalität, transformative Wirkung und intellektuelle Risikobereitschaft auszeichnen.
Das geförderte Projekt mit dem Titel „Designing AI to Ethically Influence Human Cognition: Inoculation Against Harmful Digital Persuasion” widmet sich einer der drängendsten Herausforderungen im digitalen Zeitalter: der Frage, wie wir uns gegen gezielte Manipulation durch generative KI, Propaganda und immersive Online-Umgebungen schützen können.
Während bestehende Ansätze meist auf die Erkennung und Entfernung schädlicher Inhalte setzen, stellt dieses Projekt eine andere Frage: Kann KI nicht nur Informationen filtern, sondern Menschen aktiv dabei unterstützen, kritisch zu denken und sich gegen Beeinflussung zu wehren?
Inspiriert von der psychologischen Inokulationstheorie wird KI hier als eine Art „mentale Impfung“ gedacht – ein intelligentes System, das Nutzer:innen in ethisch geführte Dialoge einbindet, um ihre kognitive Widerstandskraft zu stärken. Dieser visionäre Ansatz geht über die Vorstellung hinaus, KI lediglich als neutrales Hilfsmittel zu begreifen, und positioniert sie als aktive Kraft für positiven sozialen Einfluss.
Das Projekt vereint auf einzigartige Weise Verhaltenswissenschaften, Mensch-Maschine-Interaktion und Forschung zur KI-Sicherheit. Es geht nicht nur um technische Umsetzung, sondern auch darum, ethische Werte wie Transparenz, Empathie und Autonomie systematisch in das Design einzubetten.
Der entwickelte Chatbot wird in kontrollierten Experimenten getestet, um herauszufinden, ob eine ethisch überzeugende KI Nutzer:innen dabei unterstützen kann, Desinformation, Hassrede oder extremistische Narrative zu erkennen und ihnen zu widerstehen – insbesondere in emotional aufgeladenen oder immersiven digitalen Räumen.
Durch den Perspektivwechsel – weg von reaktiver Inhaltsmoderation hin zu proaktiver kognitiver Stärkung – legt das Projekt das Fundament für eine neue Generation digitaler Interventionen. Es leistet zudem einen wichtigen Beitrag zur gesellschaftlichen Debatte über Chancen und Grenzen überredender KI in demokratischen Kontexten.
Die Projektphasen umfassen:
– Empirische Forschung durch Interviews mit Fachleuten aus Extremismusprävention, Psychologie und Plattformregulierung
– Konzeptionelle Entwicklung ethischer Abwägungen und Designprinzipien mittels Design Thinking
– Technische Umsetzung und experimentelle Erprobung eines KI-Chatbots, trainiert auf Gegenrede- und Prebunking-Inhalten
Weitere Informationen finden Sie auf der offiziellen FWF-Projektseite:
FWF-Forschungsradar – Projekt TAI1208725