Move zielt darauf ab, vor dem Einsatz von KI für verheerende Waffen oder Cyberangriffe zu schützen.
Präsident Joe Biden hat am Montag eine weitreichende Durchführungsverordnung erlassen, die darauf abzielt, sich vor Bedrohungen durch künstliche Intelligenz zu schützen und sicherzustellen, dass böswillige Akteure die Technologie nicht nutzen, um verheerende Waffen zu entwickeln oder heftige Cyberangriffe zu starten.
Der Schritt sichert der Bundesregierung eine Rolle in einer Branche mit einem Umsatz von fast einer halben Billion Dollar, die im Zentrum des harten Wettbewerbs zwischen einigen der größten Unternehmen des Landes, darunter Google und Amazon, steht.
Die Biden-Regierung fordert den Kongress außerdem auf, ein Datenschutzgesetz zu verabschieden, eine Leistung, die den Gesetzgebern trotz mehrfacher Versuche jahrelang entgangen ist.
Die Durchführungsverordnung übt die Aufsicht über Sicherheitstests aus, die Unternehmen zur Bewertung von Konversations-Bots wie ChatGPT verwenden, und führt unter anderem Industriestandards wie Wasserzeichen zur Identifizierung KI-gestützter Produkte ein.
Die Reihe von Reformen stelle „die stärkste Reihe von Maßnahmen dar, die jemals eine Regierung der Welt in Bezug auf KI-Sicherheit, Schutz und Vertrauen ergriffen hat“, sagte Bruce Reed, stellvertretender Stabschef des Weißen Hauses, in einer Erklärung.
Hier ist, was in der Durchführungsverordnung steht, die darauf abzielt, die KI einzudämmen:
KI-Unternehmen müssen Sicherheitstests durchführen und die Ergebnisse mit der Bundesregierung teilen
Eine in der Durchführungsverordnung festgelegte Schlüsselregel verlangt, dass KI-Unternehmen einige ihrer Produkte testen und die Ergebnisse mit Regierungsbeamten teilen, bevor die neuen Funktionen den Verbrauchern zur Verfügung stehen.
Die von den Entwicklern durchgeführten Sicherheitstests, das sogenannte „Red Teaming“, stellen sicher, dass neue Produkte keine größere Gefahr für Benutzer oder die breite Öffentlichkeit darstellen.
Wenn eine Sicherheitsbewertung zu Ergebnissen führt, könnte die Bundesregierung ein Unternehmen dazu zwingen, entweder Produktverbesserungen vorzunehmen oder eine bestimmte Initiative aufzugeben.
Die neuen Regierungsbefugnisse sind im Rahmen des Defence Production Act zulässig, einem vor einem Dreivierteljahrhundert erlassenen Gesetz, das dem Weißen Haus eine weitreichende Rolle bei der Überwachung von Industrien einräumt, die mit der nationalen Sicherheit verbunden sind, sagte die Biden-Regierung.
„Diese Maßnahmen werden sicherstellen, dass KI-Systeme sicher und vertrauenswürdig sind, bevor Unternehmen sie veröffentlichen“, fügte das Weiße Haus hinzu.
Eine neue Reihe von Standards legt Standards für die KI-Branche fest
Die Durchführungsverordnung legt eine umfangreiche Reihe von Industriestandards fest, mit der Hoffnung, transparente Produkte zu schaffen, die vor gefährlichen Folgen wie künstlichem biologischem Material oder Cyberangriffen geschützt sind.
Ein hochkarätiger neuer Standard würde die Verwendung von Wasserzeichen kodifizieren, die Verbraucher warnen, wenn sie auf ein durch KI aktiviertes Produkt stoßen, was die Bedrohung durch betrügerische Inhalte wie Deepfakes begrenzen könnte.
Eine weitere Regel würde sicherstellen, dass Biotechnologieunternehmen angemessene Vorsichtsmaßnahmen treffen, wenn sie KI zur Herstellung oder Manipulation von biologischem Material einsetzen.
Die Branchenleitlinien werden als Vorschläge und nicht als Vorgaben fungieren, so dass es den Unternehmen freisteht, die Empfehlungen der Regierung außer Acht zu lassen.
Die Bundesregierung werde ihren Einfluss als wichtiger Geldgeber der wissenschaftlichen Forschung nutzen, um sich für die Einhaltung der Warnhinweise zu biologischem Material einzusetzen, sagte das Weiße Haus. Um die Forderung nach Wasserzeichen zu verstärken, wird das Weiße Haus unterdessen Bundesbehörden verpflichten, die Markierungen zu verwenden beim Einsatz von KI-Produkten.
Dennoch besteht die Gefahr, dass die Verordnung eine ehrgeizige Vision für die Zukunft der KI darstellt, aber nicht genügend Macht hat, um den branchenweiten Wandel herbeizuführen, sagte Sarah Kreps, Professorin für Regierung und Direktorin des Tech Policy Institute an der Cornell University, in einer Erklärung.
„Die neue Durchführungsverordnung trifft den richtigen Ton, indem sie sowohl das Versprechen als auch die Gefahren der KI anerkennt“, sagte Kreps. „Was fehlt, ist ein Durchsetzungs- und Umsetzungsmechanismus. Es erfordert viele Maßnahmen, die wahrscheinlich keine Reaktion hervorrufen.“
Regierungsbehörden unterliegen einer strengen Aufsicht über den Einsatz von KI
Die Durchführungsverordnung weist eine Vielzahl von Regierungsbehörden an, Änderungen bei der Nutzung von KI vorzunehmen, und hebt Bundesinstitutionen als Beispiele für Praktiken hervor, von denen die Regierung letztendlich hofft, dass sie vom privaten Sektor übernommen werden.
Das Weiße Haus sagte beispielsweise, dass bundesstaatliche Sozialhilfeprogramme und Auftragnehmer Maßnahmen ergreifen werden, um sicherzustellen, dass KI die Rassenvoreingenommenheit bei ihren Aktivitäten nicht verschlimmert. Ebenso wird das Justizministerium Regeln festlegen, wie KI-bezogene Bürgerrechtsverletzungen am besten untersucht werden können .
In der Zwischenzeit werden das Energieministerium und das Heimatschutzministerium Schritte unternehmen, um der Bedrohung zu begegnen, die KI für kritische Infrastrukturen darstellt.
Robert Weissman, der in Washington D.C. ansässige Präsident Die Verbraucherschutzgruppe Public Citizen lobte die Verordnung, räumte jedoch ihre Einschränkungen ein.
„Die heutige Durchführungsverordnung ist ein wichtiger Schritt der Biden-Regierung, um den langen Prozess der Regulierung der sich schnell entwickelnden KI-Technologie einzuleiten“, sagte Weissman. „Aber es ist nur ein erster Schritt.“
Quelle: abcNEWS
Recent Comments