Forscher haben ein kostenloses Tool entwickelt, mit dem Künstler ihre Bilder mit Fehlinformationen versehen können. Damit soll das Training von KI-Systemen sabotiert werden.
Die Nightshade-Software verändert Bilder auf subtile Art und Weise, die für Menschen kaum wahrnehmbar ist, aber die darauf trainierte KI-Modelle erheblich stören kann. So sollen Künstler ihre Werke davor schützen können, dass sie ohne ihre Zustimmung für das Training verwendet werden.
Das Tool soll Unternehmen und Einzelpersonen abschrecken, die künstlerische Bilder zum Trainieren von KI-Modellen verwenden, ohne vorher die Erlaubnis des Urhebers einzuholen. Diese Praxis wird immer häufiger, da KI in hohem Maße auf große Bilddatenbanken angewiesen ist.
Ein gezielter Angriff auf Scraper
Nightshade verändert Bilder so, dass sie KI-Systeme verwirren, die mit ihnen trainieren wollen, während die Bilder für menschliche Betrachter fast identisch aussehen, wie die Forscher mitteilten.
Ein vergiftetes Foto einer Kuh kann zum Beispiel unverändert aussehen, aber eine KI dazu bringen, sie stattdessen als lederne Handtasche zu sehen. Die Verzerrungen sind genau berechnet, um die Probleme für die KI zu maximieren, ohne das Bild offenkundig zu verändern. So soll auch ein menschlicher Kontrolleur nicht merken, dass die Trainingsdaten verfälscht wurden. Die Bilder müssen natürlich online gestellt werden. Hilfreich sei es auch, in den Metadaten oder Bildunterschriften die untergeschobenen Tags zu wiederholen. Die Forscher raten andererseits davon ab, die vergifteten Bilder als solche zu kennzeichnen und zu veröffentlichen, weil solches Material schnell herausgefiltert werden könne.
Diese gezielte Vergiftung macht Modelle unzuverlässig und bietet einen starken negativen Anreiz für Scraper-Entwickler, Bilder von Künstlern zu nutzen, ohne sie um Erlaubnis zu fragen. Nähere Details zu der Technik sind in einem Forschungspapier veröffentlicht worden.
Das Tool ist anpassbar und ermöglicht es Künstlern, Tags zu wählen, die die Grenzen der dargestellten Konzepte für KI-Systeme, die ihre Werke aufnehmen, verwischen. Die Forscher sagen, dass Nightshade im Laufe der Zeit angepasst werden kann, wenn neue Techniken auftauchen, mit denen die Nightshade-Technik entlarvt werden könnte.
Künstler und Akademiker entwickeln Abwehrmaßnahmen
Nightshade stammt von derselben Gruppe an der University of Chicago, die auch ein anderes Abwehrwerkzeug namens Glaze entwickelte, das sich darauf konzentriert, die KI bei der Nachahmung künstlerischer Stile zu stören. Mit Nightshade können Künstler nach Ansicht der Forscher offensiv gegen die unbefugte Nutzung ihrer Inhalte durch KI vorgehen.
(Quelle: Golem.de)