paint-brush
EU stoppt unregulierte KIvon@konkiewicz
2,445 Lesungen
2,445 Lesungen

EU stoppt unregulierte KI

von Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

Zu lang; Lesen

Das europäische KI-Gesetz wird Ende 2024 in Kraft treten. Das Gesetz klassifiziert KI-Systeme nach Risikostufen. Hochrisikosysteme müssen Transparenzanforderungen erfüllen. Unternehmen werden für die Aufzeichnung der Trainingsdaten verantwortlich sein. Dies wird Unternehmen dazu zwingen, den Datenschutz zu respektieren und die Rückverfolgbarkeit zu verbessern.
featured image - EU stoppt unregulierte KI
Magdalena Konkiewicz HackerNoon profile picture

Die weltweiten Auswirkungen und wie man sich darauf vorbereitet

Einführung

Im vergangenen Jahr haben europäische KI-Startups zu ihren ausländischen Konkurrenten aufgeschlossen und Produkte eingeführt, die mit dem beliebten ChatGPT vergleichbar sind. Da der Fokus auf schnellen Fortschritten und Entwicklungen liegt, geraten Fragen der Transparenz, Ethik und Benutzerauswirkungen manchmal in den Hintergrund. Dies dürfte sich jedoch mit der Durchsetzung des EU-KI-Gesetzes ändern, das Ende 2024 in Kraft treten soll.


Der EU-KI-Gesetz Das im März 2024 vom Europäischen Parlament verabschiedete Gesetz sieht strenge Regulierungen für die in der EU entwickelte KI vor. Seine Auswirkungen reichen jedoch über die Grenzen Europas hinaus und betreffen nicht nur europäische KI-Unternehmen, sondern auch internationale Unternehmen, darunter solche aus den Vereinigten Staaten, die ihre Produkte auf dem EU-Markt anbieten.

Wer ist betroffen?

Das EU-KI-Gesetz klassifiziert KI-Systeme nach Risikostufen. Systeme, die als risikoreich eingestuft werden, müssen Transparenzanforderungen erfüllen und müssen ihre potenziellen Auswirkungen auf die öffentliche Gesundheit, Sicherheit, Menschenrechte und das gesellschaftliche Wohlergehen bewerten. Sie werden auf Voreingenommenheit überprüft, um sicherzustellen, dass sie nicht diskriminierend sind und die grundlegenden Menschenrechte respektieren.


Darüber hinaus werden die Entwickler von Hochrisikosystemen verpflichtet, eine detaillierte Dokumentation, einschließlich Trainingsmethoden und Datensätzen, aufzubewahren, um die Einhaltung der Vorschriften nachzuweisen.


Mit GPT-3.5 vergleichbare Foundation-Modelle werden reguliert, wenn sie mindestens 10²⁵ Flops Rechenleistung zum Trainieren benötigen. Umgekehrt wird es bei Open-Source-Modellen erhebliche Zugeständnisse geben, was einen Anreiz zur Entwicklung dieser Art von Produkten bietet.


Darüber hinaus listet das EU-KI-Gesetz verbotene KI-Systeme auf. Dazu gehören biometrische Kategorisierung anhand sensibler Merkmale (z. B. Rasse, Religion usw.), Scraping von Gesichtsbildern, Emotionserkennung am Arbeitsplatz und in der Ausbildung, Social Scoring, Manipulation menschlichen Verhaltens und Systeme, die darauf ausgelegt sind, menschliche Schwachstellen auszunutzen.


Das Gesetz sieht bei Verstößen auch Sanktionen vor: Die Strafen variieren je nach Verstoß und Unternehmensgröße zwischen 7,5 Millionen Euro oder 1,5 Prozent des weltweiten Umsatzes eines Unternehmens und bis zu 35 Millionen Euro oder 7 Prozent des Umsatzes.

Wie kann man sich vorbereiten?

Da das europäische KI-Gesetz voraussichtlich Ende 2024 in Kraft tritt, ist es wichtig, jetzt mit den Vorbereitungen zu beginnen, insbesondere wenn Ihr System als hohes Risiko oder Sie entwickeln allgemeine KI-Modelle. Auch wenn Ihr System keiner strengen Regulierung unterliegt, kann es sich lohnen, in eine verantwortungsvolle KI-Entwicklung zu investieren, um negative Auswirkungen auf die Benutzer zu vermeiden.


Wir empfehlen, sich auf alle Aspekte des Systemaufbaus zu konzentrieren, angefangen bei der Datenvorbereitung bis hin zur eingehenden Systembewertung.

Genaue Beobachtung der Trainingsdaten

Wie im EU-KI-Gesetz dargelegt, sind Unternehmen dafür verantwortlich, detaillierte Aufzeichnungen der Datensätze zu führen. Dies wird Unternehmen dazu zwingen, den Datenschutz zu respektieren und die Nachvollziehbarkeit zu verbessern. Wenn ein System beispielsweise schädliche Inhalte produziert, kann dies auf unangemessene Daten oder verzerrte Texte in dem Datensatz zurückgeführt werden, mit dem es trainiert wurde.


Das bedeutet, dass die Trainingsdatensätze bei der Vorbereitung auf die neuen Regeln sorgfältig geprüft werden sollten. Dies könnte das Filtern und Bereinigen von Teilen der für das Training verwendeten Daten oder sogar das Erstellen benutzerdefinierter Datensätze umfassen, die domänenkuratiert und absichtlich so erstellt werden, dass häufige Verzerrungen in Scraped-Daten vermieden werden.

Ausrichtungsmethoden mit menschlichem Feedback

Um die neuen Regeln einzuhalten, sollten Unternehmen, die LLMs entwickeln, in die Ausrichtung ihrer Modelle an menschlichen Erwartungen investieren und dabei auf Wahrhaftigkeit, Hilfsbereitschaft und Harmlosigkeit achten. Die wichtigsten Methoden zur Ausrichtung von LLMs sind Bestärkendes Lernen durch menschliches Feedback (RLHF) und Direkte Präferenzoptimierung (Datenschutzbeauftragter).


Beide Methoden erfassen menschliche Präferenzen für die Modellausgabe und verwenden diese Daten, um dem Modell beizubringen, wie die gewünschte Ausgabe aussehen soll. Wir können die Erstellung schädlicher Inhalte in dieser Phase recht effektiv verhindern, wenn wir dem Modell die richtigen Beispiele liefern.

Detaillierte Auswertung

Die Evaluierung von KI-Systemen wird höchste Priorität haben und muss Teil des Produktentwicklungszyklus werden. Das Gefühl, ein gutes Modell zu haben, muss durch eine sorgfältige und gründliche Evaluierungsstrategie ersetzt werden.


Generative KI-Systeme sind besonders schwer zu bewerten, da die Ausgabe nicht deterministisch ist. Generierter Text kann nicht automatisch mit einer „richtigen“ Antwort verglichen werden. Die Bewertung solcher Systeme umfasst menschliches Feedback, das sich auf verschiedene Aspekte wie Richtigkeit, Nützlichkeit und Harmlosigkeit konzentriert.


Häufiger müssen die Systeme über die oben genannten grundlegenden Ebenen hinaus bewertet werden. Wenn wir beispielsweise die Schädlichkeit bewerten, könnten wir sie weiter in Kategorien wie Voreingenommenheit, Hassreden, Rassismus usw. unterteilen. Auf diese Weise könnten wir auf granularer Ebene herausfinden, was im System behoben werden muss, um seine negativen Auswirkungen zu minimieren.

Zusammenfassung

Das EU-KI-Gesetz ist zweifellos ein wichtiger Schritt in der KI-Regulierung und markiert eine neue Ära der KI, in der eine verantwortungsvolle KI-Entwicklung keine Option mehr ist und nun gesetzlich erzwungen wird.


Ist Ihr Unternehmen bereit, die neuen KI-Vorschriften einzuhalten?