Licht ins Dunkel
„LightShed“ umgeht bekannteste Schutzmechanismen gegen KI-generierte Kunst
18.06.2025
Künstler:innen haben ein Interesse daran, ihre im Internet auffindbaren Kunstwerke davor zu schützen, dass KI-Modelle sie als Trainingsdaten verwenden und dadurch lernen, Kunststile täuschend echt zu imitieren. Moderne Bildschutzwerkzeuge versprechen Schutz davor. Doch Forschende der TU Darmstadt, der University of Cambridge und der University of Texas at San Antonio haben nun gezeigt, dass sich dieser umgehen lässt – ein Weckruf für die Branche.

Die Wissenschafter:innen haben mit „LightShed“ eine leistungsstarke neue Methode vorgestellt, die in der Lage ist, moderne Bildschutzwerkzeuge zu umgehen. Diese Werkzeuge sollen Künstler:innen davor schützen, dass ihre Werke ohne Zustimmung zum Training von KI-Modellen verwendet werden. Zu den bekanntesten darunter zählen „Glaze“ und „NightShade“, die zusammen bereits über 8,8 Millionen Mal heruntergeladen wurden und in prominenten Medien wie der New York Times, dem US-Rundfunksyndikat National Public Radio (NPR) und beim World Economic Forum vorgestellt wurden. Besonders beliebt sind sie bei digital arbeitenden Künstler:innen, die verhindern wollen, dass KI-Modelle wie „Stable Diffusion“ ihre individuellen Stile imitieren.
Schutz für digitale Bilder problematisch
Seit März 2025 stehen diese Schutztools erneut im Rampenlicht, als nämlich OpenAI eine Bildfunktion in ChatGPT einführte, mit der sich augenblicklich Kunstwerke „im Stil von Studio Ghibli“ – einem japanischen Zeichentrickfilmstudio – erzeugen ließen. Dies löste nicht nur eine Flut viraler Memes, sondern auch neue Debatten über Bildrechte aus. Juristische Expert:innen wiesen darauf hin, dass das Urheberrecht den konkreten Ausdruck, nicht jedoch den künstlerischen Stil schütze, was die Diskussion um Tools wie „Glaze“ und „NightShade“ erneut befeuerte.
OpenAI kündigte zwar an, bestimmte Prompts zu blockieren, mit denen sich Kunststile lebender Künstler:innen imitieren lassen, doch wie aktuelle Gerichtsverfahren, etwa Getty Images gegen Stability AI, zeigen, ist nicht davon auszugehen, dass alle Anbieter sich gleichermaßen kooperativ zeigen.
Zudem sind die Schutzmechanismen von digitalen Bildern nicht wasserdicht: Das Grundproblem bleibt bestehen, solange Bilder weiterhin frei im Netz abrufbar und somit für das Training von KI-Modellen verwendbar sind.
Auch fortgeschrittene Schutzmaßnahmen helfen nicht
Das von den Forschenden entwickelte „LightShed“ zeigt nun deutlich, dass auch fortgeschrittene Schutzmaßnahmen wie „Glaze“ und „NightShade“ kein verlässliches Mittel gegen das Training von KI-Modellen darstellen. Beide Tools arbeiten mit subtilen, für das menschliche Auge unsichtbaren, Verzerrungen, sogenannten „poisoning perturbations“, die in digitale Bilder eingebettet werden, um KI-Modelle beim Training gezielt zu stören:
„Glaze“ verfolgt dabei einen passiven Ansatz und erschwert es dem Modell, stilistische Merkmale korrekt zu extrahieren.
„NightShade“ geht einen Schritt weiter und sabotiert den Lernprozess aktiv, indem es das Modell dazu bringt, den Stil der Künstler:innen mit völlig anderen Konzepten zu verknüpfen.
Während diese Tools für viele Kreative zu unverzichtbaren Hilfsmitteln geworden sind, offenbart „LightShed“, dass ihre Schutzwirkung möglicherweise überschätzt wurde. Die Methode kann versteckte Störungen erkennen, zurückentwickeln und entfernen, und die Bilder so wieder nutzbar für das Training generativer KI-Modelle machen.
In experimentellen Tests konnte „LightShed“ die durch „NightShade“ geschützten Bilder mit einer Genauigkeit von 99,98 Prozent erkennen und die Schutzmaßnahmen erfolgreich entfernen.
Kein Angriff, sondern Weckruf
Trotz der aufgezeigten Schwachstellen betonen die Forschenden, dass es sich bei „LightShed“ nicht nur um einen Angriff, sondern um einen Weckruf handelt:
„Wir sehen darin eine Chance, Schutzmechanismen gemeinsam weiterzuentwickeln“, so , der Leiter des Professor Ahmad-Reza Sadeghi an der TU Darmstadt. „Unser Ziel ist es, mit anderen Forschenden zu kooperieren und die künstlerische Community bei der Entwicklung robuster Schutzwerkzeuge gegen immer ausgefeiltere Angriffe zu unterstützen.“ Die Arbeit zeige deutlich den dringenden Bedarf nach widerstandsfähigeren, adaptiven Schutzmaßnahmen in der sich rasant entwickelnden Welt der KI-gestützten Kreativtechnologien. „LightShed“ biete dabei eine wichtige Grundlage für neue, künstler:innenzentrierte Schutzstrategien. System Security Lab
Die Forschungsergebnisse werden auf der renommierten Sicherheitskonferenz in Seattle im August vorgestellt. USENIX Security 2025
System Security Lab/bjb