WhiteBox – Erklärbare Modelle für menschliche und künstliche Intelligenz

Der vom hessischen Ministerium für Wissenschaft und Kunst (HMWK) geförderte LOEWE-Schwerpunkt WhiteBox zielt darauf ab, Methoden an der Schnittstelle zwischen der Kognitionswissenschaft und der KI-Forschung zu entwickeln, um menschliche und künstliche Intelligenz besser zu verstehen

Projektvorstellung

Bis vor wenigen Jahren mussten intelligente Systeme (wie z. B. Sprach-assistenten und Fertigungsroboter) präzise auf ihre Aufgabe und ihre Umgebung eingestellt werden. Sie mussten von Expertinnen und Experten programmiert werden. Seit einigen Jahren findet aber ein Paradigmenwechsel in der KI statt: Statt alle Schritte der Wissensverarbeitung manuell zu kodieren, wird den Maschinen die Fähigkeit zu lernen, einprogrammiert. Mit Hilfe dieses Maschinellen Lernens (ML) kann man Maschinen mit einer sehr großen Zahl von Beispielsituationen trainieren, die sie dann mittels Mustererkennung auf neue, aber sehr ähnliche Situationen übertragen. Die größten KI-Erfolge basieren zur Zeit auf tiefen neuronalen Netzen (Deep Learning), die durch den Aufbau des menschlichen Gehirns inspiriert sind. Eine große Zahl an künstlichen Neuronen, die in Schichten organisiert und vernetzt sind, verarbeitet unter hohem Rechenaufwand eine große Menge an Daten. Und obwohl Experten im Prinzip verstehen, wie Lernen in diesem System funktioniert — schließlich haben sie das System gebaut — lässt sich dessen erlerntes, intelligentes Verhalten aufgrund seiner großen Komplexität auch von Experten nicht mehr nachvollziehen oder gar vorhersagen. Das Modell wird zur Blackbox und es stellt sich die Frage: „Können wir die Entscheidungen von tiefen Netzen, und von KI-Algorithmen allgemein, nachvollziehen und ihnen vertrauen?“

Die Aufgabe, Verhalten einer künstlichen Intelligenz zu erklären, unterscheidet sich nicht wesentlich von der Aufgabe, intelligentes Verhalten in Menschen zu erklären. Auch dieses basiert auf einer großen Zahl von Neuronen im Gehirn und gelernten Erfahrungen. Eine Erklärung jedoch, die auf dem kompletten Schaltplan des Gehirns und all seiner Interaktionen mit der Umwelt beruht, ist keine verständliche Erklärung. Erklärungen für intelligentes Verhalten müssen daher auf einer abstrakten Ebene erfolgen: Es müssen kognitive Erklärungen sein. Solche liefert die Kognitionswissenschaft. WhiteBox verwandelt also mittels kognitiver Erklärungen Blackbox-Modelle der KI in Whitebox-Modelle, die von vornherein erklärbar sind.

Im Sinne dieser Leitidee wird der LOEWE-Schwerpunkt Blackbox- und Whitebox-Modelle für künstliche und menschliche Intelligenz entwickeln und systematisch vergleichen. Für den Vergleich werden neben neuartigen Blackbox- und Whitebox-Modellen und ihrer empirischen Gegenüberstellung auch neue Erklärungsmethoden entwickelt, die nicht eine gesamte Blackbox erklären, sondern gezielte Einblicke gewähren. Die betrach¬teten Blackbox-Modelle werden beispielsweise tiefe Netzwerke sein, die Whitebox-Modelle hingegen werden unter anderem regelbasierte, probabilistische und generative Modelle nutzen, mit expliziten und interpretierbaren Variablen. Die Anwendung auf intelligentes Verhalten beim Menschen erlaubt es, dieses computergestützt besser zu verstehen und gleichzeitig erklärbares, menschenähnliches Verhalten in Maschinen aufzubauen.

News

Newsticker

März 2022 – Meike Kietzmann tritt dem Projekt bei – willkommen im Team!

Februar 2022 – Asghar Mahmoudi Khomami tritt dem Projekt bei – willkommen im Team!

2021 – Ute Korn unterstützt das Projekt als assoziierte Forscherin seit Ende 2021 – willkommen im Team!

Dezember 2021 – Die WhiteBox-Projektlaufzeit wurde aufgrund der COVID-19 Pandemie durch das HMWK (Hessisches Ministerium für Wissenschaft und Kunst) bis zum 31.12.2025 verlängert.

November 2021 – Rabea Turon & Sven Schultze treten dem Projekt bei – willkommen im Team!

Oktober 2021 – In Kollaboration mit ProLOEWE wurden zwei neue Vorstellungsvideos über das Projekt WhiteBox erstellt: Ansehen (1) Ansehen (2)

September 2021 – Rupert Mitchell tritt dem Projekt bei – willkommen im Team!

Juli 2021 – Neuer Video-Trailer für die ProLOEWE-Wissenschaftsrallye!

Juli 2021 – Auch WhiteBox schickt ein Quiz-Video in das Rennen der ProLOEWE-Wissenschaftsrallye. Die Rallye startet am 2. August auf proloewe.de. Wir freuen uns auf begeistere Rätselfreunde!

Juli 2021 – Niteesh Midlagajni tritt dem Projekt bei – willkommen im Team!

Juni 2021 – Omid Mohseni Shorgheini tritt dem Projekt bei – willkommen im Team!

Mai 2021 – Maziar Sherbafi & Kai Ploeger treten dem Projekt bei – willkommen im Team!

Januar 2021 – Matthias Schultheis tritt dem Projekt bei – willkommen im Team!

Januar 2021 – Offizieller Start des Projekts „WhiteBox – Erklärbare Modelle für menschliche und künstliche Intelligenz“

Projektdetails

  • Projekt: WhiteBox – Erklärbare Modelle für menschliche und künstliche Intelligenz
  • Projektpartner: Technische Universität Darmstadt
  • Projektdauer: Januar 2021 – Dezember 2025
  • Projektmittel: 4.7 Mio EUR
  • Gefördert durch: Hessisches Ministerium für Wissenschaft und Kunst
  • Förderlinie: LOEWE Schwerpunkt, 13. Förderstaffel