Wie wirken Nachtschattengewächse, Glasur und andere KI-"Gifte"?
Cutting Edge
2024-02-06T12:00:14Z
Wichtigste Erkenntnisse
- KI-Gifte verändern Trainingsdaten, um sie unbrauchbar zu machen oder KI-Modelle zu beschädigen, und dienen als eine Form des Protests oder des Selbstschutzes von Künstlern.
- Diese Gifte können verhindern, dass die Arbeiten von Künstlern verwendet werden, und ihren Kunststil und ihre geistigen Rechte schützen.
- Für KI-Gifte könnte es zu spät sein, um ihre Ziele zu erreichen, da die bestehenden Modelle nicht beeinträchtigt werden und alternative "ethische" Datensätze im Entstehen sind.
Science-Fiction-Geschichten haben uns glauben lassen, dass der Krieg zwischen Menschen und KI mehr Explosionen beinhalten würde, aber in Wirklichkeit hat der Kampf gegen unsere synthetischen Freunde eine viel subtilere, aber vielleicht ebenso effektive Wendung genommen.
Was ist KI-Gift?
Mit generativer KI wie GPT oder DALL-E entwickeln diese Programme ihre Fähigkeit, Schrift, Musik, Videos und Bilder zu erstellen, indem sie aus absolut riesigen Datensätzen lernen.
Auf diese Weise kann ein Programm wie MidJourney jedes beliebige Bild erstellen, das Sie wünschen, wie z.B. "Ein Zigarre rauchendes Einhorn im Stil von Van Gogh" oder "Ein Roboter, der Gift trinkt", wie ich MidJourney etwas ironisch gebeten habe zu zeichnen. Dies ist sicherlich eine erstaunliche Fähigkeit für ein Computerprogramm, und die Ergebnisse haben sich sprunghaft verbessert.
Allerdings sind viele der Künstler, deren Arbeiten als Teil dieses Datensatzes verwendet wurden, nicht glücklich darüber. Das Problem ist, dass die Verwendung dieser Bilder zum Trainieren von KI-Modellen je nach Region entweder in einer rechtlichen Grauzone liegt oder aber nicht gesetzlich verboten ist. Wie üblich wird es einige Zeit dauern, bis die Gesetzgebung mit der Technologie Schritt hält, aber in der Zwischenzeit ist eine mögliche Lösung in Form von "KI-Gift" aufgetaucht.
Ein KI-Gift verändert etwas, das zum Trainieren eines KI-Modells verwendet werden könnte, so, dass es entweder die Daten wertlos macht oder sogar dem Modell schadet, so dass es nicht mehr funktioniert. Die Änderungen, die am Ausgangsmaterial vorgenommen werden, sind so, dass ein Mensch sie nicht bemerken würde. An dieser Stelle kommen Werkzeuge wie Nightshade und Glaze ins Spiel.
Stellen Sie sich vor, Sie haben ein Bild von einem Hund. Ein KI-Gift-Tool könnte die Pixel des Bildes so verändern, dass das Bild für uns immer noch wie ein Hund aussieht, aber für eine KI, die auf dieses "vergiftete" Bild trainiert wurde, könnte der Hund mit etwas völlig anderem assoziiert werden, z. B. mit einer Katze oder einem beliebigen Objekt. Das ist so, als würde man der KI absichtlich die falschen Informationen beibringen.
Wenn ein KI-Modell auf genügend dieser "vergifteten" Bilder trainiert wird, ist seine Fähigkeit, genaue oder kohärente Bilder auf der Grundlage seiner Trainingsdaten zu erzeugen, beeinträchtigt. Die KI kann anfangen, verzerrte Bilder oder völlig falsche Interpretationen bestimmter Aufforderungen zu erzeugen.
Warum gibt es KI-Gifte?
Wie ich bereits kurz erwähnt habe, gibt es KI-Gift-Tools, die Künstlern (im Falle von visuellen Inhalten) die Möglichkeit geben, sich dagegen zu wehren, dass ihre Bilder zum Trainieren von KI-Modellen verwendet werden. Es gibt einige Gründe, warum sie besorgt sind, unter anderem:
- Angst, durch KI ersetzt zu werden oder Arbeit an KI zu verlieren.
- Ihr einzigartiger Kunststil und ihre Identität werden kopiert.
- Sie haben das Gefühl, dass ihre geistigen Rechte verletzt wurden, unabhängig von der geltenden Rechtslage.
In Anbetracht der Beschaffenheit des Internets und der Tatsache, dass es so einfach ist, Daten aus dem Web zu "scrapen", können diese Künstler nicht verhindern, dass ihre Bilder in Datensätze aufgenommen werden. Indem sie sie jedoch "vergiften", können sie nicht nur verhindern, dass ihre Kunst verwendet wird, sondern auch das Modell als Ganzes beschädigen.
Diese Gifte könnten also sowohl als praktische Form des Selbstschutzes als auch als eine Form des Protests angesehen werden.
Ist dies zu wenig? zu spät?
Die Idee, KI-Gifte einzusetzen, um KI-Kunstmodelle daran zu hindern, bestimmte Bilder zu verwenden, ist zwar interessant, doch könnte es zu spät sein, um die Ziele zu erreichen, die ihrer Erfindung zugrunde lagen.
Erstens haben diese Gifte keinen Einfluss auf bereits existierende Bilderzeugungsmodelle. Alle Fähigkeiten, die sie bereits haben, bleiben also erhalten. Es wirkt sich nur auf die Ausbildung zukünftiger Modelle aus.
Zweitens haben die KI-Forscher in der Anfangsphase des Trainings dieser Modelle viel gelernt. Inzwischen gibt es Ansätze für das Training von Modellen, die mit viel kleineren Datensätzen arbeiten können. Sie brauchen nicht mehr so viele Bilder wie früher, und die Notwendigkeit, riesige Datenmengen aus dem Internet zu scrapen, wird in Zukunft vielleicht nicht mehr die Standardpraxis sein.
Drittens ist es nun, da die Modelle bereits existieren, möglich, sie auf "ethischen" Datensätzen zu trainieren. Mit anderen Worten: Datensätze, für die eine ausdrückliche Genehmigung oder die Rechte für das Training von KI vorliegen. Dies hat Adobe mit Firefly und seinen "ethisch gewonnenen" Daten versucht.
Während KI-Gifte also sicherlich verhindern können, dass Modelle Ihre Arbeit einbeziehen oder Datensätze aus dem Internet insgesamt unbrauchbar machen, ist es unwahrscheinlich, dass sie etwas an der Weiterentwicklung und Implementierung der Technologie ändern.