Auf den Spuren der menschlichen Kognition

Pragmatische KI für weniger Bias

29.05.2024

Forschende am Fachgebiet Künstliche Intelligenz und Maschinelles Lernen (AIML) des Fachbereichs Informatik arbeiten unter anderem an der Frage, wie menschliches Denken und Lernen auf KI-Systeme übertragen werden können. Im Rahmen des TU-Projekts „Reasonable Artificial Intelligence (RAI)", das bei der Exzellenzstrategie des Bundes und der Länder einen Vollantrag für die Förderlinie „Exzellenzcluster“ gestellt hat, wird insbesondere die Nachvollziehbarkeit von KI-Entscheidungen untersucht.

Felix Friedrich ist Doktorand am Fachgebiet Künstliche Intelligenz und Maschinelles Lernen (AIML).

Wieso trifft ein KI-System etwa eine bestimmte Entscheidung und wie lässt sich der Entscheidungsweg erklären, sodass sie ein Mensch auch versteht? Diese Frage bilden einen Schwerpunkt der Forschung am AIML und sind von zentraler Bedeutung für das Verständnis und die Weiterentwicklung von KI-Systemen. Felix Friedrich promoviert dazu am AIML und hat einen Bedarf an Verbesserungen hinsichtlich Fairness und Bias in KI-Systemen identifiziert. So konnte er aufzeigen, dass viele KI-Modelle, wie beispielsweise Bildgeneratoren, dazu neigen, stereotype Vorstellungen zu reproduzieren, wie etwa einen Banker als einen Mann im Anzug oder die Pflegefachkraft als Frau.

Vorurteile aus KI-Modellen ganz zu entfernen? Ein wahrscheinlich unmögliches Unterfangen. Ethische Abwägungen sind ein zentraler Bestandteil von Friedrichs Forschung. Der Forscher appelliert deshalb an den menschlichen Pragmatismus: Bei Menschen seien Risiken, etwa im Straßenverkehr, zu erwarten. Es sei daher falsch, von Maschinen zu erwarten, dass sie niemals Fehler begehen dürfen. KI-Systeme seien stark auf menschliches Feedback angewiesen – und je besser man verstehe, wie die Maschine funktioniere und wo die Fehler liegen, desto besser verstehe man die Potenziale von KI-Systemen, um sie zu verbessern.

Bestandteil des Exzellenzclusters „RAI"

Die Forschungsarbeit am AIML ist eingebettet in das Projekt „Reasonable Artificial Intelligence (RAI)“, das im Rahmen der Exzellenzstrategie des Bundes und der Länder zur Vollantragstellung in der Förderlinie „Exzellenzcluster“ aufgerufen wurde. RAI hat sich zum Ziel gesetzt, KI-Technologien zu entwickeln und zu fördern, die nicht nur effektiv und leistungsfähig sind, sondern auch ethische Grundsätze wie Sicherheit, Fairness und Transparenz in den Vordergrund stellen.

Hessian.AI/eml/cst