WhiteBox – Erklärbare Modelle für menschliche und künstliche Intelligenz

Der vom hessischen Ministerium für Wissenschaft und Kunst (HMWK) geförderte LOEWE-Schwerpunkt WhiteBox zielt darauf ab, Methoden an der Schnittstelle zwischen der Kognitionswissenschaft und der KI-Forschung zu entwickeln, um menschliche und künstliche Intelligenz besser zu verstehen

Projektvorstellung

Bis vor wenigen Jahren mussten intelligente Systeme (wie z. B. Sprach-assistenten und Fertigungsroboter) präzise auf ihre Aufgabe und ihre Umgebung eingestellt werden. Sie mussten von Expertinnen und Experten programmiert werden. Seit einigen Jahren findet aber ein Paradigmenwechsel in der KI statt: Statt alle Schritte der Wissensverarbeitung manuell zu kodieren, wird den Maschinen die Fähigkeit zu lernen, einprogrammiert. Mit Hilfe dieses Maschinellen Lernens (ML) kann man Maschinen mit einer sehr großen Zahl von Beispielsituationen trainieren, die sie dann mittels Mustererkennung auf neue, aber sehr ähnliche Situationen übertragen. Die größten KI-Erfolge basieren zur Zeit auf tiefen neuronalen Netzen (Deep Learning), die durch den Aufbau des menschlichen Gehirns inspiriert sind. Eine große Zahl an künstlichen Neuronen, die in Schichten organisiert und vernetzt sind, verarbeitet unter hohem Rechenaufwand eine große Menge an Daten. Und obwohl Experten im Prinzip verstehen, wie Lernen in diesem System funktioniert — schließlich haben sie das System gebaut — lässt sich dessen erlerntes, intelligentes Verhalten aufgrund seiner großen Komplexität auch von Experten nicht mehr nachvollziehen oder gar vorhersagen. Das Modell wird zur Blackbox und es stellt sich die Frage: „Können wir die Entscheidungen von tiefen Netzen, und von KI-Algorithmen allgemein, nachvollziehen und ihnen vertrauen?“

Die Aufgabe, Verhalten einer künstlichen Intelligenz zu erklären, unterscheidet sich nicht wesentlich von der Aufgabe, intelligentes Verhalten in Menschen zu erklären. Auch dieses basiert auf einer großen Zahl von Neuronen im Gehirn und gelernten Erfahrungen. Eine Erklärung jedoch, die auf dem kompletten Schaltplan des Gehirns und all seiner Interaktionen mit der Umwelt beruht, ist keine verständliche Erklärung. Erklärungen für intelligentes Verhalten müssen daher auf einer abstrakten Ebene erfolgen: Es müssen kognitive Erklärungen sein. Solche liefert die Kognitionswissenschaft. WhiteBox verwandelt also mittels kognitiver Erklärungen Blackbox-Modelle der KI in Whitebox-Modelle, die von vornherein erklärbar sind.

Im Sinne dieser Leitidee wird der LOEWE-Schwerpunkt Blackbox- und Whitebox-Modelle für künstliche und menschliche Intelligenz entwickeln und systematisch vergleichen. Für den Vergleich werden neben neuartigen Blackbox- und Whitebox-Modellen und ihrer empirischen Gegenüberstellung auch neue Erklärungsmethoden entwickelt, die nicht eine gesamte Blackbox erklären, sondern gezielte Einblicke gewähren. Die betrach¬teten Blackbox-Modelle werden beispielsweise tiefe Netzwerke sein, die Whitebox-Modelle hingegen werden unter anderem regelbasierte, probabilistische und generative Modelle nutzen, mit expliziten und interpretierbaren Variablen. Die Anwendung auf intelligentes Verhalten beim Menschen erlaubt es, dieses computergestützt besser zu verstehen und gleichzeitig erklärbares, menschenähnliches Verhalten in Maschinen aufzubauen.

News

Newsticker

17. Juli 2024 – Auf Einladung von WhiteBox und dem Centre for Cognitive Science stellte Jozsef Fiser (Central European University, Wien, Österreich) heute in Darmstadt seine Arbeit über „Complex perceptual decision making processes in humans“ vor und diskutierte unsere wissenschaftlichen Ansätze.

15. Juli 2024 – WhiteBox engagiert sich im Wissenschaftsplanspiel „Wissen versus Meinung“ an hessischen Schulen. Das Planspiel führt Schülerinnen und Schüler an die Bedeutung von Wissenschaft und Demokratie heran. Mehr erfahren

10. Juli 2024 – Auf Einladung von WhiteBox und dem Centre for Cognitive Science stellte Ralf Haefner (University of Rochester) heute in Darmstadt seine Arbeit zum Thema „Causal inference during motion perception, and its neural basis“ vor und diskutierte unsere wissenschaftlichen Ansätze.

Juni 2024 – Vom 13. bis 14. Juni 2024 fand in Bensheim (bei Darmstadt) die 4. Bewegungsakademie mit über 50 Teilnehmer:innen aus unterschiedlichen beruflichen und akademischen Hintergründen im Bereich der menschlichen Bewegung und des Lernens statt, hauptverantwortlich organisiert durch die DFG-Fördergruppe LokoAssist. Ziel der Movement Academy ist es, einen einzigartigen Lernraum für nationale und internationale Bewegungsexperten und -interessierte, die aus unterschiedlichen Bereichen wie Kunst, Sport, Medizin, Therapie und Wissenschaft kommen, zu schaffen. Die Konferenz wurde unter anderem vom Center for Cognitive Science und aufgrund der behandelten Themen auch vom WhiteBox-Forschungscluster unterstützt. Mehr erfahren

12. Juni 2024 – Auf Einladung von WhiteBox und dem Centre for Cognitive Science stellte Maria Eckstein (Google DeepMind) heute in Darmstadt ihre Arbeit „Hybrid Modeling with Artificial Neural Networks Reveals how Memory Shapes Human Reward-Guided Learning“ vor und diskutierte unsere wissenschaftlichen Ansätze.

25. April, 2024 – WhiteBox unterstützte den diesjährigen Girls' Day, um die Neugier und das Interesse an der Kognitionswissenschaft zu fördern. Die Teilnehmerinnen beschäftigten sich in spannenden Sitzungen mit verschiedenen Themen aus dem Forschungsbereich. Mehr erfahren

April 2024 – WhiteBox unterstützt die Awareness-Veranstaltung: „Aufgedeckte Vorurteile: Die Macht der Bewusstheit im Umgang mit Unconscious Bias“ am 24 April 2024. Mehr erfahren

Januar 2024 – Forschende des WhiteBox-Projektes am Centre for Cognitive Science der TU Darmstadt und von hessian.AI untersuchen in einer Publikation in der renommierten Fachzeitschrift „Nature Human Behaviour“ die Eigenschaften von durch Künstliche Intelligenz automatisch gelernten verhaltensökonomischen Theorien. Die Studie unterstreicht, dass die Kognitionswissenschaft noch immer nicht einfach durch künstliche Intelligenz automatisiert werden kann und dass eine sorgfältige Kombination von theoretischen Überlegungen, maschinellem Lernen und Datenanalysen erforderlich ist, um zu verstehen und zu erklären, warum menschliche Entscheidungen sind, wie sie sind, und vom mathematischen Optimum abweichen. Mehr erfahren

7. Dezember 2023 – WhiteBox hat sich im ProLOEWE Diskussions-Format „Hessens Spitzenforschung in 45 Minuten“ der Diskussion mit interessierten hessischen Landtagsabgeordneten gestellt. Thema war: „KI – menschlicher als gedacht?". Mehr lesen

September 2023 – Joseph German tritt dem Projekt bei – willkommen im Team!

August 2023 – Claire Ott, Inga Ibs und Morteza Khosrotabar treten dem Projekt bei – willkommen im Team!

Juli 2023 – Das WhiteBox-Forscherteam traf sich vom 19. bis 25. Juli im Kleinwalsertal zum zweiten physischen Retreat. Hauptthemen waren der interdisziplinäre wissenschaftliche Austausch, die Diskussion des aktuellen Stands der Arbeiten und die Planung der weiteren Arbeit.

13. Juli 2023 – WhiteBox war Gastgeber des inspirierenden Gastvortrags von Michael Wibral „Informationstheorie für das Zeitalter der neuronalen Netze“ und bot eine Führung durch das Systems Neurophysiology Lab an.

4. Juli 2023Hessen schafft Wissen veröffentlicht ein neues Video zum Projekt WhiteBox.

28. März 2023 – Meilenstein 1, Tag 2: Nach einem Workshop zum Forschungsdatenmanagement trafen sich die Projektmitglieder zur internen Projektevaluierung und zum ersten Post-COVID-Projektlenkungsausschuss und -plenum in Anwesenheit.

27. März 2023 – Meilenstein 1, Tag 1: WhiteBox und das Centre for Cognitive Science veranstalteten das „Symposium on Explainability“. Die bisherigen Ergebnisse des WhiteBox-Projekts wurden vorgestellt und verschiedene Facetten der Erklärbarkeit wurden mit Experten und Gästen diskutiert. Mehr erfahren

2. Februar 2023 – Das WhiteBox-Team traf sich zu einem Roboter-Jonglierseminar im Intelligent Autonomous Systems Roboterlabor.

Januar 2023 – Ute Korn ist nun auch offiziell Projektmitglied – nochmals willkommen im Team!

Dezember 2022 – Am 8. Dezember 2022 fand ein Symposium zum Thema „Explaining adaptive vision“ mit internationalen Referenten statt, mit Unterstützung und unter Beteiligung von WhiteBox und seinen Mitgliedern. Mehr erfahren

Oktober 2022 – ProLOEWE feiert Geburtstag, WhiteBox gratuliert!
Anlässlich des 10-jährigen Bestehens von ProLOEWE ist eine Jubiläumsausgabe der ProLOEWE News erschienen. Ein Feature des WhiteBox-Projektes findet sich auf den Seiten 26+27. Mehr erfahren

August 2022 – Das WhiteBox-Forscherteam traf sich vom 8. bis 12. August in Dahn zum ersten physischen Retreat. Hauptthemen waren der interdisziplinäre Austausch, die Diskussion des aktuellen Stands der Arbeiten und die Planung der weiteren Arbeit, insbesondere die Erschließung neuer wissenschaftlicher Synergien.

März 2022 – Meike Kietzmann tritt dem Projekt bei – willkommen im Team!

Februar 2022 – Asghar Mahmoudi Khomami tritt dem Projekt bei – willkommen im Team!

2021 – Ute Korn unterstützt das Projekt als assoziierte Forscherin seit Ende 2021 – willkommen im Team!

Dezember 2021 – Die WhiteBox-Projektlaufzeit wurde aufgrund der COVID-19 Pandemie durch das HMWK (Hessisches Ministerium für Wissenschaft und Kunst) bis zum 31.12.2025 verlängert.

November 2021 – Rabea Turon & Sven Schultze treten dem Projekt bei – willkommen im Team!

Oktober 2021 – In Kollaboration mit ProLOEWE wurden zwei neue Vorstellungsvideos über das Projekt WhiteBox erstellt: Ansehen (1) Ansehen (2)

Weiterlesen

Projektdetails

  • Projekt: WhiteBox – Erklärbare Modelle für menschliche und künstliche Intelligenz
  • Projektpartner: Technische Universität Darmstadt
  • Projektdauer: Januar 2021 – Dezember 2025
  • Projektmittel: 4.7 Mio EUR
  • Gefördert durch: Hessisches Ministerium für Wissenschaft und Kunst
  • Förderlinie: LOEWE Schwerpunkt, 13. Förderstaffel
  • Förderkennzeichen: LOEWE/2/13/519/03/06.001(0010)/77