Der AI Act – ein schmaler Grat zum Erfolg
Europa arbeitet an der Regulierung und Normierung der Künstlichen Intelligenz (KI). Der AI Act ist brisant, zwei Lager stehen sich gegenüber: Technologen und Ethiker. Zwischen den Interessen laufen wir Gefahr, eine echte Chance zu verpassen – qualitativ hochwertige KI zu entwickeln, ohne über absurd hohe Hürden springen zu müssen.
Der geplante AI Act ist Europas Antwort auf die Frage der Regulierung von KI-Systemen in Hinsicht auf Ethik und Risiko. Einerseits soll so die Akzeptanz in der Gesellschaft verbessert werden, andererseits spart man sich einen Haufen Probleme durch eine sachgemäße Anwendung. Denn kaum ein Thema polarisiert heute so stark wie künstliche Intelligenz und ihre „unabsehbaren“ Entscheidungen. Selbst ich als Mathematiker, Statistiker und Modellierer bin hin- und hergerissen zwischen dem technisch Machbaren und dem moralisch Vertretbaren. Wenn ich die Entwürfe des AI Acts lese, hängt es immer von der Tagesform ab, zu welcher Seite ich mich hingezogen fühle.
Die beiden Pole sind klar: Einerseits die Technologen, die eine Regulierung ihrer Arbeit als „Gedöns“ abtun, weil sie dadurch nur in der Entfaltung behindert werden. Überhaupt seien heutige AI-Expertinnen auch ohne AI Act in der Lage, ethische Anforderungen zu berücksichtigen, heißt es betont pragmatisch. Auf der anderen Seite sehen wir Ethiker oder Politiker in den Diskussionen, die technisch mit AI nicht viel anfangen können, dafür aber gerne über Themen wie Bewusstseins-KI diskutieren wollen. Ihnen geht die freie Entfaltung entschieden zu weit – schließlich gibt es (tatsächlich) Fälle und Szenarien, in denen die KI-Entwicklung in die falsche Richtung gelaufen ist.
Künstliche Intelligenz polarisiert stark
Den Graben zwischen den Parteien erkennt man daran, dass viele Anforderungen im ersten Draft des AI Act heikel sind. Konkret: Will ich etwa eine Open-Source-KI aus den USA in einem Anwendungsfall nutzen, der als Hochrisiko-KI klassifiziert wird, muss ich sie AI-Act-konform dokumentieren. Da US-Firmen jedoch kaum Interesse haben, ihre Entwicklungen unter die Regulierung zu stellen, kann ich die KI de facto nicht übernehmen. Trainiere ich eine eigene KI selbst, rechnet sich der Case in der Regel nicht mehr.
Regulieren statt überregulieren
Kein Wunder, dass jeder die Phrase kennt: „In den USA wird die Innovation getrieben, in Asien die Implementierung und in der EU die Regulierung.“ So sollen KI-Entwicklerinnen künftig auch eine „vorhersehbare Fehlanwendung“ abschätzen. Doch wer übernimmt die Verantwortung dafür, dass der Kunde das Modell richtig anwendet? Man stelle sich die Folgen für die Automobilindustrie vor mit menschlichen Fahrern, die Unfälle verursachen. Trainings-, Test- und Validierungsdaten müssen laut Entwurf „vollständig und fehlerfrei“ sein. Niemand wird beide Punkte garantieren können. Und wenn das Arbeitspensum eines Menschen durch eine KI beeinflusst wird, liegt meiner Interpretation zufolge eine Hochrisiko-KI vor. Eskaliert die KI beispielsweise passende Bewerbungen an einen Mitarbeiter oder fordert sie ihn zum Nachfassen einer E-Mail auf, stellt der AI Act deutlich höhere Anforderungen an die Lösung.
Gut gedacht ist nicht gut gemacht
Meine Meinung: AI Act ja, aber nicht so. Es gibt viele gute Ansätze, und es ist wichtig, dass Europa in dem Gebiet Pionierarbeit leistet. Aber in der Konsequenz müssen wir schauen, wo die Diskussionen zu sehr ins Detail gehen. Eine gute Normierung und Regulierung ist transparent, verständlich und offensichtlich. Wenn ich keine klaren Regeln habe, öffnet sich Spielraum für Interpretationen, und es wird gefährlich für Unternehmen. So steht im Draft zum AI Act: „Der Datensatz muss die geeigneten statistischen Merkmale erfüllen.“ Schwammiger geht es kaum. Stattdessen brauchen wir klare Regeln, Wenn-Dann-Bestimmungen und handfeste Kriterien.
Alle Stakeholder an den Tisch holen
Der AI Act kann nur erfolgreich werden, wenn es gelingt, alle Seiten an den Tisch zu bekommen: Die Data Scientists, die vor allem an der Modellierung interessiert sind, die Business-Vertreter mit vielen Zielen und wenigen technischen Einblicken und schließlich die Deployment-Expertinnen, die das fertige KI-Modell in die Realität einbetten können. Hinzu kommt die Gesellschaft, die bislang in konkreten Diskussionen weitgehend außen vor war. Ihr Momentum hat die Macht, alle Ampeln auf Rot zu stellen.
Und über allem hängt die DSGVO wie eine griffbereite Notbremse für Querulanten. Schließlich geht es um persönliche Daten, mit denen die KI trainiert und gefüttert wird. Daher würde ich mir wünschen, dass KI-Expert:innen den AI Act ernst nehmen und seine positiven Seiten aktiv unterstützen, um die Gesellschaft voranzubringen – mit sinnvollen Auflagen für eine faire, nachhaltige und qualitativ hochwertige KI.
Der AI Act kann uns mit guten Normierungen an die Hand nehmen und Schritte zeigen, wie kritische Situationen vermieden werden. Das ist ein iterativer Ansatz, der KI-Modelle in Summe verbessert. Wie der Weg, den auch die Automobilindustrie über 100 Jahre gegangen ist. Gleiches stelle ich mir für die KI vor – und nicht die große Regulierungskeule, die alle innovativen Ansätze im Keim erstickt.
Quelle Titelbild: AdobeStock/Romolo Tavani