WhiteBox – Erklärbare Modelle für menschliche und künstliche Intelligenz

Der vom hessischen Ministerium für Wissenschaft und Kunst (HMWK) geförderte LOEWE-Schwerpunkt WhiteBox zielt darauf ab, Methoden an der Schnittstelle zwischen der Kognitionswissenschaft und der KI-Forschung zu entwickeln, um menschliche und künstliche Intelligenz besser zu verstehen

Projektvorstellung

Bis vor wenigen Jahren mussten intelligente Systeme (wie z. B. Sprach-assistenten und Fertigungsroboter) präzise auf ihre Aufgabe und ihre Umgebung eingestellt werden. Sie mussten von Expertinnen und Experten programmiert werden. Seit einigen Jahren findet aber ein Paradigmenwechsel in der KI statt: Statt alle Schritte der Wissensverarbeitung manuell zu kodieren, wird den Maschinen die Fähigkeit zu lernen, einprogrammiert. Mit Hilfe dieses Maschinellen Lernens (ML) kann man Maschinen mit einer sehr großen Zahl von Beispielsituationen trainieren, die sie dann mittels Mustererkennung auf neue, aber sehr ähnliche Situationen übertragen. Die größten KI-Erfolge basieren zur Zeit auf tiefen neuronalen Netzen (Deep Learning), die durch den Aufbau des menschlichen Gehirns inspiriert sind. Eine große Zahl an künstlichen Neuronen, die in Schichten organisiert und vernetzt sind, verarbeitet unter hohem Rechenaufwand eine große Menge an Daten. Und obwohl Experten im Prinzip verstehen, wie Lernen in diesem System funktioniert — schließlich haben sie das System gebaut — lässt sich dessen erlerntes, intelligentes Verhalten aufgrund seiner großen Komplexität auch von Experten nicht mehr nachvollziehen oder gar vorhersagen. Das Modell wird zur Blackbox und es stellt sich die Frage: „Können wir die Entscheidungen von tiefen Netzen, und von KI-Algorithmen allgemein, nachvollziehen und ihnen vertrauen?“

Die Aufgabe, Verhalten einer künstlichen Intelligenz zu erklären, unterscheidet sich nicht wesentlich von der Aufgabe, intelligentes Verhalten in Menschen zu erklären. Auch dieses basiert auf einer großen Zahl von Neuronen im Gehirn und gelernten Erfahrungen. Eine Erklärung jedoch, die auf dem kompletten Schaltplan des Gehirns und all seiner Interaktionen mit der Umwelt beruht, ist keine verständliche Erklärung. Erklärungen für intelligentes Verhalten müssen daher auf einer abstrakten Ebene erfolgen: Es müssen kognitive Erklärungen sein. Solche liefert die Kognitionswissenschaft. WhiteBox verwandelt also mittels kognitiver Erklärungen Blackbox-Modelle der KI in Whitebox-Modelle, die von vornherein erklärbar sind.

Im Sinne dieser Leitidee wird der LOEWE-Schwerpunkt Blackbox- und Whitebox-Modelle für künstliche und menschliche Intelligenz entwickeln und systematisch vergleichen. Für den Vergleich werden neben neuartigen Blackbox- und Whitebox-Modellen und ihrer empirischen Gegenüberstellung auch neue Erklärungsmethoden entwickelt, die nicht eine gesamte Blackbox erklären, sondern gezielte Einblicke gewähren. Die betrach¬teten Blackbox-Modelle werden beispielsweise tiefe Netzwerke sein, die Whitebox-Modelle hingegen werden unter anderem regelbasierte, probabilistische und generative Modelle nutzen, mit expliziten und interpretierbaren Variablen. Die Anwendung auf intelligentes Verhalten beim Menschen erlaubt es, dieses computergestützt besser zu verstehen und gleichzeitig erklärbares, menschenähnliches Verhalten in Maschinen aufzubauen.

News

Newsticker

Januar 2024 – Forschende des WhiteBox-Projektes am Centre for Cognitive Science der TU Darmstadt und von hessian.AI untersuchen in einer Publikation in der renommierten Fachzeitschrift „Nature Human Behaviour“ die Eigenschaften von durch Künstliche Intelligenz automatisch gelernten verhaltensökonomischen Theorien. Die Studie unterstreicht, dass die Kognitionswissenschaft noch immer nicht einfach durch künstliche Intelligenz automatisiert werden kann und dass eine sorgfältige Kombination von theoretischen Überlegungen, maschinellem Lernen und Datenanalysen erforderlich ist, um zu verstehen und zu erklären, warum menschliche Entscheidungen sind, wie sie sind, und vom mathematischen Optimum abweichen. Mehr erfahren

7. Dezember 2023 – WhiteBox hat sich im ProLOEWE Diskussions-Format „Hessens Spitzenforschung in 45 Minuten“ der Diskussion mit interessierten hessischen Landtagsabgeordneten gestellt. Thema war: „KI – menschlicher als gedacht?". Mehr lesen

September 2023 – Joseph German tritt dem Projekt bei – willkommen im Team!

August 2023 – Claire Ott, Inga Ibs und Morteza Khosrotabar treten dem Projekt bei – willkommen im Team!

Juli 2023 – Das WhiteBox-Forscherteam traf sich vom 19. bis 25. Juli im Kleinwalsertal zum zweiten physischen Retreat. Hauptthemen waren der interdisziplinäre wissenschaftliche Austausch, die Diskussion des aktuellen Stands der Arbeiten und die Planung der weiteren Arbeit.

13. Juli 2023 – WhiteBox war Gastgeber des inspirierenden Gastvortrags von Michael Wibral „Informationstheorie für das Zeitalter der neuronalen Netze“ und bot eine Führung durch das Systems Neurophysiology Lab an.

4. Juli 2023Hessen schafft Wissen veröffentlicht ein neues Video zum Projekt WhiteBox.

28. März 2023 – Meilenstein 1, Tag 2: Nach einem Workshop zum Forschungsdatenmanagement trafen sich die Projektmitglieder zur internen Projektevaluierung und zum ersten Post-COVID-Projektlenkungsausschuss und -plenum in Anwesenheit.

2. Februar 2023 – Das WhiteBox-Team traf sich zu einem Roboter-Jonglierseminar im Intelligent Autonomous Systems Roboterlabor.

27. März 2023 – Meilenstein 1, Tag 1: WhiteBox und das Centre for Cognitive Science veranstalteten das „Symposium on Explainability“. Die bisherigen Ergebnisse des WhiteBox-Projekts wurden vorgestellt und verschiedene Facetten der Erklärbarkeit wurden mit Experten und Gästen diskutiert. Mehr erfahren

Januar 2023 – Ute Korn ist nun auch offiziell Projektmitglied – nochmals willkommen im Team!

Dezember 2022 – Am 8. Dezember 2022 fand ein Symposium zum Thema „Explaining adaptive vision“ mit internationalen Referenten statt, mit Unterstützung und unter Beteiligung von WhiteBox und seinen Mitgliedern. Mehr erfahren

Oktober 2022 – ProLOEWE feiert Geburtstag, WhiteBox gratuliert!
Anlässlich des 10-jährigen Bestehens von ProLOEWE ist eine Jubiläumsausgabe der ProLOEWE News erschienen. Ein Feature des WhiteBox-Projektes findet sich auf den Seiten 26+27. Mehr erfahren

August 2022 – Das WhiteBox-Forscherteam traf sich vom 8. bis 12. August in Dahn zum ersten physischen Retreat. Hauptthemen waren der interdisziplinäre Austausch, die Diskussion des aktuellen Stands der Arbeiten und die Planung der weiteren Arbeit, insbesondere die Erschließung neuer wissenschaftlicher Synergien.

März 2022 – Meike Kietzmann tritt dem Projekt bei – willkommen im Team!

Februar 2022 – Asghar Mahmoudi Khomami tritt dem Projekt bei – willkommen im Team!

2021 – Ute Korn unterstützt das Projekt als assoziierte Forscherin seit Ende 2021 – willkommen im Team!

Dezember 2021 – Die WhiteBox-Projektlaufzeit wurde aufgrund der COVID-19 Pandemie durch das HMWK (Hessisches Ministerium für Wissenschaft und Kunst) bis zum 31.12.2025 verlängert.

November 2021 – Rabea Turon & Sven Schultze treten dem Projekt bei – willkommen im Team!

Oktober 2021 – In Kollaboration mit ProLOEWE wurden zwei neue Vorstellungsvideos über das Projekt WhiteBox erstellt: Ansehen (1) Ansehen (2)

Weiterlesen

Projektdetails

  • Projekt: WhiteBox – Erklärbare Modelle für menschliche und künstliche Intelligenz
  • Projektpartner: Technische Universität Darmstadt
  • Projektdauer: Januar 2021 – Dezember 2025
  • Projektmittel: 4.7 Mio EUR
  • Gefördert durch: Hessisches Ministerium für Wissenschaft und Kunst
  • Förderlinie: LOEWE Schwerpunkt, 13. Förderstaffel