Im vergangenen Jahr haben europäische KI-Startups zu ihren ausländischen Konkurrenten aufgeschlossen und Produkte eingeführt, die mit dem beliebten ChatGPT vergleichbar sind. Da der Fokus auf schnellen Fortschritten und Entwicklungen liegt, geraten Fragen der Transparenz, Ethik und Benutzerauswirkungen manchmal in den Hintergrund. Dies dürfte sich jedoch mit der Durchsetzung des EU-KI-Gesetzes ändern, das Ende 2024 in Kraft treten soll.
Der
Das EU-KI-Gesetz klassifiziert KI-Systeme nach Risikostufen. Systeme, die als risikoreich eingestuft werden, müssen Transparenzanforderungen erfüllen und müssen ihre potenziellen Auswirkungen auf die öffentliche Gesundheit, Sicherheit, Menschenrechte und das gesellschaftliche Wohlergehen bewerten. Sie werden auf Voreingenommenheit überprüft, um sicherzustellen, dass sie nicht diskriminierend sind und die grundlegenden Menschenrechte respektieren.
Darüber hinaus werden die Entwickler von Hochrisikosystemen verpflichtet, eine detaillierte Dokumentation, einschließlich Trainingsmethoden und Datensätzen, aufzubewahren, um die Einhaltung der Vorschriften nachzuweisen.
Mit GPT-3.5 vergleichbare Foundation-Modelle werden reguliert, wenn sie mindestens 10²⁵ Flops Rechenleistung zum Trainieren benötigen. Umgekehrt wird es bei Open-Source-Modellen erhebliche Zugeständnisse geben, was einen Anreiz zur Entwicklung dieser Art von Produkten bietet.
Darüber hinaus listet das EU-KI-Gesetz verbotene KI-Systeme auf. Dazu gehören biometrische Kategorisierung anhand sensibler Merkmale (z. B. Rasse, Religion usw.), Scraping von Gesichtsbildern, Emotionserkennung am Arbeitsplatz und in der Ausbildung, Social Scoring, Manipulation menschlichen Verhaltens und Systeme, die darauf ausgelegt sind, menschliche Schwachstellen auszunutzen.
Das Gesetz sieht bei Verstößen auch Sanktionen vor: Die Strafen variieren je nach Verstoß und Unternehmensgröße zwischen 7,5 Millionen Euro oder 1,5 Prozent des weltweiten Umsatzes eines Unternehmens und bis zu 35 Millionen Euro oder 7 Prozent des Umsatzes.
Da das europäische KI-Gesetz voraussichtlich Ende 2024 in Kraft tritt, ist es wichtig, jetzt mit den Vorbereitungen zu beginnen, insbesondere wenn Ihr System als
Wir empfehlen, sich auf alle Aspekte des Systemaufbaus zu konzentrieren, angefangen bei der Datenvorbereitung bis hin zur eingehenden Systembewertung.
Wie im EU-KI-Gesetz dargelegt, sind Unternehmen dafür verantwortlich, detaillierte Aufzeichnungen der Datensätze zu führen. Dies wird Unternehmen dazu zwingen, den Datenschutz zu respektieren und die Nachvollziehbarkeit zu verbessern. Wenn ein System beispielsweise schädliche Inhalte produziert, kann dies auf unangemessene Daten oder verzerrte Texte in dem Datensatz zurückgeführt werden, mit dem es trainiert wurde.
Das bedeutet, dass die Trainingsdatensätze bei der Vorbereitung auf die neuen Regeln sorgfältig geprüft werden sollten. Dies könnte das Filtern und Bereinigen von Teilen der für das Training verwendeten Daten oder sogar das Erstellen benutzerdefinierter Datensätze umfassen, die domänenkuratiert und absichtlich so erstellt werden, dass häufige Verzerrungen in Scraped-Daten vermieden werden.
Um die neuen Regeln einzuhalten, sollten Unternehmen, die LLMs entwickeln, in die Ausrichtung ihrer Modelle an menschlichen Erwartungen investieren und dabei auf Wahrhaftigkeit, Hilfsbereitschaft und Harmlosigkeit achten. Die wichtigsten Methoden zur Ausrichtung von LLMs sind
Beide Methoden erfassen menschliche Präferenzen für die Modellausgabe und verwenden diese Daten, um dem Modell beizubringen, wie die gewünschte Ausgabe aussehen soll. Wir können die Erstellung schädlicher Inhalte in dieser Phase recht effektiv verhindern, wenn wir dem Modell die richtigen Beispiele liefern.
Die Evaluierung von KI-Systemen wird höchste Priorität haben und muss Teil des Produktentwicklungszyklus werden. Das Gefühl, ein gutes Modell zu haben, muss durch eine sorgfältige und gründliche Evaluierungsstrategie ersetzt werden.
Generative KI-Systeme sind besonders schwer zu bewerten, da die Ausgabe nicht deterministisch ist. Generierter Text kann nicht automatisch mit einer „richtigen“ Antwort verglichen werden. Die Bewertung solcher Systeme umfasst menschliches Feedback, das sich auf verschiedene Aspekte wie Richtigkeit, Nützlichkeit und Harmlosigkeit konzentriert.
Häufiger müssen die Systeme über die oben genannten grundlegenden Ebenen hinaus bewertet werden. Wenn wir beispielsweise die Schädlichkeit bewerten, könnten wir sie weiter in Kategorien wie Voreingenommenheit, Hassreden, Rassismus usw. unterteilen. Auf diese Weise könnten wir auf granularer Ebene herausfinden, was im System behoben werden muss, um seine negativen Auswirkungen zu minimieren.
Das EU-KI-Gesetz ist zweifellos ein wichtiger Schritt in der KI-Regulierung und markiert eine neue Ära der KI, in der eine verantwortungsvolle KI-Entwicklung keine Option mehr ist und nun gesetzlich erzwungen wird.
Ist Ihr Unternehmen bereit, die neuen KI-Vorschriften einzuhalten?