Ein neuer Bericht warnt davor, dass die Verbreitung von Bildern von sexuellem Missbrauch von Kindern im Internet noch viel schlimmer werden könnte, wenn nicht Maßnahmen zur Kontrolle von Tools der künstlichen Intelligenz ergriffen werden, die Deepfake-Fotos erzeugen
Die bereits alarmierende Verbreitung von Bildern von sexuellem Missbrauch von Kindern im Internet könnte sich noch verschlimmern, wenn nicht etwas unternommen wird, um die Tools der künstlichen Intelligenz, die Deepfake-Fotos erzeugen, zu kontrollieren, warnte eine Überwachungsbehörde am Dienstag.
In einem schriftlichen Bericht fordert die in Großbritannien ansässige Internet Watch Foundation Regierungen und Technologieanbieter auf, schnell zu handeln, bevor eine Flut von KI-generierten Bildern von sexuellem Kindesmissbrauch die Ermittler der Strafverfolgungsbehörden überfordert und den Kreis potenzieller Opfer erheblich erweitert.
„Wir reden nicht über den Schaden, den es anrichten könnte“, sagte Dan Sexton, der Chief Technology Officer der Watchdog-Gruppe. „Das passiert gerade jetzt und muss sofort angegangen werden.“
Nach Angaben des Bezirksgerichts Busan im Südosten des Landes wurde im September in einem einzigartigen Fall in Südkorea ein Mann zu zweieinhalb Jahren Gefängnis verurteilt, weil er mithilfe künstlicher Intelligenz 360 virtuelle Bilder von Kindesmissbrauch erstellt hatte .
In einigen Fällen nutzen Kinder diese Werkzeuge gegenseitig. An einer Schule im Südwesten Spaniens hat die Polizei den mutmaßlichen Einsatz einer Telefon-App durch Jugendliche untersucht, um ihre voll bekleideten Schulkameraden auf Fotos nackt erscheinen zu lassen.
Der Bericht deckt eine dunkle Seite des Wettlaufs um die Entwicklung generativer KI-Systeme auf, die es Benutzern ermöglichen, in Worten zu beschreiben, was sie produzieren möchten – von E-Mails bis hin zu neuartigen Kunstwerken oder Videos – und das System es ausspucken zu lassen.
Wenn dem nicht Einhalt geboten wird, könnte die Flut gefälschter Bilder von sexuellem Missbrauch von Kindern die Ermittler bei der Rettung von Kindern, die sich als virtuelle Charaktere entpuppen, in die Enge treiben. Täter könnten die Bilder auch nutzen, um neue Opfer anzulocken und zu nötigen.
Sexton sagte, IWF-Analysten hätten im Internet Gesichter berühmter Kinder entdeckt und es bestehe „eine enorme Nachfrage nach der Erstellung weiterer Bilder von Kindern, die möglicherweise bereits vor Jahren missbraucht wurden“.
„Sie nehmen bestehende reale Inhalte und nutzen diese, um neue Inhalte dieser Opfer zu erstellen“, sagte er. „Das ist einfach unglaublich schockierend.“
Sexton sagte, seine Wohltätigkeitsorganisation, die sich auf die Bekämpfung des sexuellen Missbrauchs von Kindern im Internet konzentriert, habe Anfang des Jahres erstmals damit begonnen, Berichte über missbräuchliche, von der KI erzeugte Bilder zu veröffentlichen. Dies führte zu einer Untersuchung von Foren im sogenannten Dark Web, einem Teil des Internets, der in einem verschlüsselten Netzwerk gehostet wird und nur über Tools zugänglich ist, die Anonymität gewährleisten.
IWF-Analysten fanden heraus, dass Täter Tipps gaben und sich darüber wunderten, wie einfach es war, ihre Heimcomputer in Fabriken zu verwandeln, um sexuell eindeutige Bilder von Kindern jeden Alters zu erzeugen. Einige handeln auch und versuchen, von solchen Bildern zu profitieren, die immer lebensechter wirken.
„Was wir zu sehen beginnen, ist eine Explosion an Inhalten“, sagte Sexton.
Während der Bericht des IWF mehr darauf abzielt, auf ein wachsendes Problem hinzuweisen als nur Rezepte anzubieten, fordert er die Regierungen nachdrücklich auf, die Gesetze zu verschärfen, um die Bekämpfung von durch KI verursachtem Missbrauch zu erleichtern. Es zielt insbesondere auf die Europäische Union ab, wo es eine Debatte über Überwachungsmaßnahmen gibt, die Messaging-Apps automatisch nach Bildern mit Verdacht auf sexuellen Missbrauch von Kindern durchsuchen könnten, selbst wenn die Bilder den Strafverfolgungsbehörden zuvor nicht bekannt waren.
Ein großer Schwerpunkt der Arbeit der Gruppe besteht darin, durch die Weiterverbreitung ihrer Fotos zu verhindern, dass frühere Opfer sexuellen Missbrauchs erneut misshandelt werden.
Dem Bericht zufolge könnten Technologieanbieter mehr tun, um die Verwendung der von ihnen entwickelten Produkte auf diese Weise zu erschweren. Allerdings wird dies dadurch erschwert, dass einige der Tools nur schwer wieder in die Flasche zu stecken sind.
Eine Reihe neuer KI-Bildgeneratoren wurden letztes Jahr eingeführt und begeisterten die Öffentlichkeit mit ihrer Fähigkeit, auf Befehl skurrile oder fotorealistische Bilder zu zaubern. Die meisten von ihnen werden jedoch von den Produzenten von Material über Kindesmissbrauch nicht bevorzugt, weil sie Mechanismen enthalten, um es zu blockieren.
Technologieanbieter, die geschlossene KI-Modelle haben und die volle Kontrolle darüber haben, wie sie trainiert und verwendet werden – zum Beispiel der Bildgenerator DALL-E von OpenAI – scheinen bei der Blockierung von Missbrauch erfolgreicher gewesen zu sein, sagte Sexton.
Im Gegensatz dazu ist das Open-Source-Tool Stable Diffusion, das von dem in London ansässigen Startup Stability AI entwickelt wurde, ein von Produzenten von Darstellungen des sexuellen Missbrauchs von Kindern bevorzugtes Tool. Als Stable Diffusion im Sommer 2022 auf den Plan trat, lernte eine Untergruppe von Nutzern schnell, wie man damit Nacktheit und Pornografie erzeugt. Während das meiste Material Erwachsene darstellte, geschah dies oft ohne Zustimmung, beispielsweise wenn es für die Erstellung von von Prominenten inspirierten Nacktbildern verwendet wurde.
Stability führte später neue Filter ein, die unsichere und unangemessene Inhalte blockieren, und eine Lizenz zur Nutzung der Stability-Software beinhaltet auch ein Verbot illegaler Nutzungen.
In einer am Dienstag veröffentlichten Erklärung erklärte das Unternehmen, es verbiete „strikt jeglichen Missbrauch für illegale oder unmoralische Zwecke“ auf seinen Plattformen. „Wir unterstützen nachdrücklich die Bemühungen der Strafverfolgung gegen diejenigen, die unsere Produkte für illegale oder schändliche Zwecke missbrauchen“, heißt es in der Erklärung.
Benutzer können weiterhin auf ungefilterte ältere Versionen von S zugreifen Table Diffusion seien jedoch „überwiegend die Software der Wahl … für Leute, die explizite Inhalte mit Kindern erstellen“, sagte David Thiel, Cheftechnologe des Stanford Internet Observatory, einer anderen Überwachungsgruppe, die sich mit dem Problem befasst.
„Man kann nicht regulieren, was die Leute auf ihren Computern oder in ihren Schlafzimmern tun. Das ist nicht möglich“, fügte Sexton hinzu. „Wie kommt man also an den Punkt, an dem sie keine öffentlich verfügbare Software mehr verwenden können, um solche schädlichen Inhalte zu erstellen?“
Die meisten KI-generierten Bilder von sexuellem Missbrauch von Kindern würden nach den geltenden Gesetzen in den USA, Großbritannien und anderswo als illegal gelten, aber es bleibt abzuwarten, ob die Strafverfolgungsbehörden über die Mittel verfügen, sie zu bekämpfen.
Der IWF-Bericht wird im Vorfeld eines globalen KI-Sicherheitstreffens nächste Woche veröffentlicht, das von der britischen Regierung ausgerichtet wird und an dem hochkarätige Teilnehmer wie US-Vizepräsidentin Kamala Harris und führende Vertreter der Technologiebranche teilnehmen werden.
„Obwohl dieser Bericht ein düsteres Bild zeichnet, bin ich optimistisch“, sagte IWF-Geschäftsführerin Susie Hargreaves in einer vorbereiteten schriftlichen Erklärung. Sie sagte, es sei wichtig, die Realität des Problems „einem breiten Publikum zu vermitteln, weil wir Diskussionen über die dunklere Seite dieser erstaunlichen Technologie führen müssen“.
Quelle: abcNEWS
Recent Comments