Nightshade vergiftet die Bilder, die zum Trainieren großer KI-Modelle verwendet werden, und führt zu Fehlfunktionen des Modells.
Die von Künstlern angeführte Gegenreaktion gegen KI ist in vollem Gange. Während es vielen Menschen immer noch Spaß macht, ihrer Fantasie mit beliebten Text-zu-Bild-Modellen wie DALL-E 2, Midjourney und Stable Diffusion freien Lauf zu lassen, haben Künstler zunehmend die Nase voll vom neuen Status quo.
Einige haben sich zusammengeschlossen, um gegen die im Technologiesektor übliche Praxis zu protestieren, ihre visuellen Arbeiten wahllos aus dem Internet zu entfernen, um ihre Modelle zu trainieren. Künstler haben auf beliebten Kunstplattformen wie DeviantArt und Art Station protestiert oder die Plattformen ganz verlassen. Einige haben sogar Urheberrechtsklagen eingereicht.
„Im Moment herrscht eine völlige Machtasymmetrie zwischen reichen und einflussreichen Technologieunternehmen und Künstlern“, sagt Ben Zhao, Informatikprofessor an der University of Chicago. „Die Ausbildungsbetriebe können machen, was sie wollen“, sagt Zhao.
Aber ein neues Werkzeug, das von Zhaos Labor entwickelt wurde, könnte diese Machtdynamik verändern. Es heißt Nightshade und funktioniert, indem es subtile Änderungen an den Pixeln des Bildes vornimmt – Änderungen, die für das menschliche Auge unsichtbar sind, aber maschinelle Lernmodelle dazu verleiten, zu glauben, das Bild stelle etwas anderes dar, als es tatsächlich ist. Wenn Künstler es auf ihre Arbeit anwenden und diese Bilder dann als Trainingsdaten aufgesaugt werden, gelangen diese „vergifteten Pixel“ in den Datensatz des KI-Modells und führen zu Fehlfunktionen des Modells. Bilder von Hunden werden zu Katzen, Hüte werden zu Toastern, Autos werden zu Kühen. Die Ergebnisse sind wirklich beeindruckend und es gibt derzeit keine bekannte Verteidigung. Lesen Sie hier mehr aus meiner Geschichte.
Einige Unternehmen, wie OpenAI und Stability AI, haben angeboten, Künstlern die Möglichkeit zu geben, sich von Trainingssets abzumelden, oder haben erklärt, dass sie Anfragen respektieren werden, ihre Arbeit nicht streichen zu lassen. Derzeit gibt es jedoch keinen Mechanismus, der Unternehmen dazu zwingen könnte, ihrem Wort treu zu bleiben. Zhao sagt, Nightshade könnte dieser Mechanismus sein. Es ist extrem teuer, generative KI-Modelle zu erstellen und zu trainieren, und es könnte für Technologieunternehmen sehr riskant sein, Daten abzugreifen, die ihre Kronjuwelen zerstören könnten.
Autumn Beverly, eine Künstlerin, die Nightshade verwenden möchte, sagt, sie habe festgestellt, dass ihre Arbeit in den LAION-5B-Datensatz der Bevölkerung gestrichen wurde, und das fühlte sich sehr „verletzend“ an.
„Ich hätte dem nie zugestimmt, und [KI-Unternehmen] haben es einfach ohne Zustimmung oder Benachrichtigung oder ähnliches angenommen“, sagt sie.
Bevor es Tools wie Nightshade gab, fühlte sich Beverly nicht wohl dabei, ihre Arbeit online zu teilen. Beverly und andere Künstler fordern, dass Technologieunternehmen von Opt-out-Mechanismen auf die Einholung einer Einwilligung umstellen und damit beginnen, Künstler für ihre Beiträge zu entschädigen. Diese Forderungen würden einige wirklich revolutionäre Veränderungen in der Funktionsweise des KI-Sektors mit sich bringen, dennoch bleibt sie hoffnungsvoll.
„Ich hoffe, dass es so weit kommt, dass die Dinge durch Zustimmung geschehen müssen – sonst haben sie einfach ein kaputtes System“, sagt Beverly. „Das ist für mich das ganze Ziel.“
Aber Künstler sind der Kanarienvogel im Kohlebergwerk. Ihr Kampf gehört jedem, der jemals etwas, das ihm am Herzen liegt, online gepostet hat. Unsere persönlichen Daten, Social-Media-Beiträge, Songtexte, Nachrichtenartikel, Belletristik, sogar unsere Gesichter – alles, was online frei verfügbar ist, könnte für immer in einem KI-Modell landen, ohne dass wir davon erfahren.
Tools wie Nightshade könnten ein erster Schritt sein, um das Machtgleichgewicht wieder in unsere Hände zu bringen.
Tiefergehendes Lernen
Wie Meta- und KI-Unternehmen auffällige Schauspieler rekrutierten, um KI zu trainieren
Anfang des Jahres führte ein Unternehmen namens Realeyes eine „Emotionsstudie“ durch. Es rekrutierte Schauspieler und erfasste dann Audio- und Videodaten ihrer Stimmen, Gesichter und Bewegungen, die es in eine KI-Datenbank einspeiste. Diese Datenbank wird verwendet, um virtuelle Avatare für Meta zu trainieren. Das Projekt fiel mit den historischen Streiks Hollywoods zusammen. Angesichts des Stillstands in der Branche könnte die überdurchschnittlich große Zahl arbeitsloser Schauspieler ein Segen für Meta und Realeyes gewesen sein: Es gab einen neuen Pool an „Trainern“ – und Datenpunkten –, die perfekt für die Ausbildung geeignet waren KI soll menschlicher erscheinen.
Wem gehört Ihr Gesicht: Viele Schauspieler in der gesamten Branche befürchten, dass KI – ähnlich wie die in der Emotionsstudie beschriebenen Modelle – verwendet werden könnte, um sie zu ersetzen, unabhängig davon, ob ihre genauen Gesichter kopiert werden oder nicht. Lesen Sie hier mehr von Eileen Guo.
Bits und Bytes
Wie China die Sicherheit generativer KI beurteilen will
Die chinesische Regierung hat einen neuen Dokumententwurf vorgelegt, der detaillierte Regeln vorschlägt, wie festgestellt werden kann, ob ein generatives KI-Modell problematisch ist. Unser China-Tech-Autor Zeyi Yang packt es für uns aus. (MIT Technology Review)
KI-Chatbots können Ihre persönlichen Daten anhand Ihrer Eingaben erraten
Neue Untersuchungen haben ergeben, dass große Sprachmodelle hervorragend darin sind, private Informationen von Personen aus Chats zu erraten. Dies könnte beispielsweise genutzt werden, um das Profiling für Werbung zu verstärken. (Verdrahtet)
OpenAI behauptet, dass sein neues Tool Bilder von DALL-E mit einer Genauigkeit von 99 % erkennen kann
OpenAI-Führungskräfte sagen, dass das Unternehmen das Tool entwickelt, nachdem führende KI-Unternehmen dem Weißen Haus eine freiwillige Zusage gegeben haben, Wasserzeichen und andere Erkennungsmechanismen für KI-generierte Inhalte zu entwickeln. Google hat im August sein Wasserzeichen-Tool angekündigt. (Bloomberg)
KI-Modelle scheitern kläglich an Transparenz
Als die Stanford University testete, wie transparent große Sprachmodelle sind, stellte sie fest, dass das am besten bewertete Modell, Metas LLaMA 2, nur 54 von 100 Punkten erreichte. Zunehmende Undurchsichtigkeit ist ein besorgniserregender Trend in der KI. KI-Modelle werden einen enormen gesellschaftlichen Einfluss haben, und wir brauchen mehr Einblick in sie, um sie zur Rechenschaft ziehen zu können. (Stanford)
Ein Student baute ein KI-System, um 2.000 Jahre alte römische Schriftrollen zu lesen
Wie viel Spaß! Ein 21-jähriger Informatikstudent entwickelte ein KI-Programm, um antike römische Schriftrollen zu entziffern, die durch einen Vulkanausbruch im Jahr 79 beschädigt wurden. Das Programm konnte etwa ein Dutzend Buchstaben erkennen, die Experten in das Wort „Porphyras“ übersetzten. – Altgriechisch für Lila.
Recent Comments