Heute: KI-Verbote als Notbremse?

Heute: KI-Verbote als Notbremse?

Art.2 Abs.1 des deutschen Grundgesetzes verbrieft die allgemeine Handlungsfreiheit: Was nicht ausnahmsweise verboten ist, ist im Grundsatz erlaubt. Das gilt auch für den Einsatz von künstlicher Intelligenz (KI); dieser findet momentan meist in einem regulatorischen Vakuum statt.
Wird Ihre Produktion durch eine KI-Fehlentscheidung lahmgelegt, droht ein Finger-Pointing zwischen Softwareentwickler, Cloud-Provider, Anlagenbetreiber und Datenlieferant. Das gleiche ist in der Praxis zu beobachten, wenn KI-Fehler zu Sach- und Personenschäden führen. Da KI unkörperlich ist, scheidet eine rein physische Verantwortungszurechnung naturgemäß aus. KI-Entscheidungen liefern keine Begründung. Nur mit großem Aufwand lässt sich allenfalls die statistische Entscheidungsgenauigkeit und die Qualität der Ausgangsdaten überprüfen. Es kann daher passieren, dass KI Mitarbeiter ausspioniert, falsche Massenbestellungen aufgibt, Produktionsunfälle verursacht oder Militärdrohnen fehlleitet – ohne dass dies rechtzeitig auffällt! Und selbst wenn, wird im Zweifel jeder Beteiligte die Verantwortung von sich weisen.

Drohendes KI-Chaos

Houston, wir haben ein Problem: Der flächendeckende Einsatz von KI droht sehr bald rechtlich außer Kontrolle zu geraten, wenn das geltende Recht keine passenden Antworten auf folgende zwei Fragen bietet: 1. Wer genau muss für die Folgen einer fehlerhaften KI-Entscheidung einstehen? 2. Anhand welcher Qualitätskriterien darf und soll beurteilt werden, ob KI korrekte Ergebnisse liefert? Die Wirtschaft behilft sich momentan mit passenden KI-Regelungen auf Vertragsebene. Doch der legislative Handlungsdruck steigt von Tag zu Tag, weil KI schleichend alle Lebens- und Wirtschaftsbereiche durchdringt und täglich immer größere Schäden durch KI-Fehlentscheidungen einer Aufarbeitung bedürfen. Da der Gesetzgeber (weltweit) mit notwendigen Feinregelungen mittelfristig überfordert ist, bleibt ihm eigentlich nur eine Handlungsoption: Gesetzliche KI-Verbote, um ein drohendes KI-Chaos kurzfristig zu verhindern. Also ein legislativer Work-Around in Form innovationshemmender Überregulierung.

Art.22 DSGVO

Einen bitteren Vorgeschmack hierfür liefert Art.22 Art.1 DSGVO, der im Grundsatz automatisierte KI-Entscheidungen verbietet, die ohne Dazwischentreten eines menschlichen Entscheiders zustandekommen und eine natürliche Person erheblich benachteiligen. Z.B. bei der automatisierten Ablehnung eines Kunden oder eines Stellenbewerbers aufgrund eines ungünstigen Score-Werts. Art.22 DSGVO ist ein reines KI-Verbot und liefert keine Antwort auf die beiden oben aufgeworfenen Fragen. Die Norm stellt auf das Ob des KI-Einsatzes (das Entscheidungsverfahren) ab, nicht auf das Wie (die Recht- und Zweckmäßigkeit des Entscheidungsergebnisses). Letztlich handelt es sich um einen Fremdkörper in der DSGVO, da die Norm streng genommen keinen Datenschutz bezweckt. Auch sonstige Schutzzwecke sucht man hier vergeblich, abgesehen von der Leerformel, der Mensch dürfe nicht zum Objekt einer Maschinenentscheidung werden. Warum eigentlich nicht? Was nämlich zu denken geben sollte: Art.22 Art. 1 DSGVO verbietet bestimmte KI-Entscheidungen, wobei ein menschlicher Entscheider die identische Entscheidung aus den identischen Gründen genauso hätte treffen dürfen. Eine klassische Innovationsbremse.