Was unterscheidet eine KI von einem klassischen Algorithmus?
Klassische Algorithmen gleichen einem Kochrezept, an das man sich penibel hält. Schritt für Schritt wird definiert, was unter welchen Umständen zu tun ist. Jeder Schritt ist dabei klar definiert und vorhersehbar. Es gibt keine Unklarheiten darüber, wie ein Algorithmus zu seinem Ergebnis kommt. Die Transparenz ist bestechend, kommt aber mit einem großen Nachteil daher: Alle möglichen Reaktionen eines Algorithmus müssen vom Entwickler vorhergesehen werden. Ein klassischer Algorithmus kann mit unvorhergesehenen Aufgabenstellungen nicht gut umgehen. Oft stürzen klassische Programme einfach ab oder geben Unsinn aus, wenn der Entwickler für eine bestimmte Situation keine sinnvollen Anweisungen hinterlegt hat. Das macht klassische Algorithmen für einige Anwendungszwecke wie z.B. autonomes Fahren ungeeignet. Hier kommt künstliche Intelligenz ins Spiel.
Anwendungen, die sich auf künstliche Intelligenz und hier vor allem auf Machine Learning abstützen, funktionieren fundamental anders. Um im Bild unseres Kochrezepts zu bleiben, verfügen diese Anwendungen nicht mehr über ein explizites “Kochrezept”, das vorhersehbare aber limitierte Ergebnisse erzielen kann. Stattdessen basiert das System auf einer Datenbasis aus tausenden oder gar Millionen von Rezepten. Sie alle haben zur Ausprägung von Datenstrukturen geführt, die das System zur Ableitung eigener Arbeitsschritte verwenden kann. Diese sind nicht mehr durch die Entwickler vorgegeben sondern ergeben sich aus den Mustern in der Datenbasis. Über die Funktionsweise dieser Systeme schreibe ich in einem anderen Artikel mehr.
Aufgrund der Komplexität der Berechnung und der Ausnutzung statistischer Wahrscheinlichkeiten sind die Lösungsschritte einer KI nicht mehr deterministisch vorgegeben. Das System kann bei der identischen Ausgangssituation zu unterschiedlichen Lösungen kommen. Für die Nutzung ML-basierter Systeme ist es daher fundamental, dass deren Ergebnisse überprüft und fehlerhafte Lösungen erkannt werden können. Spannend ist in diesem Zusammenhang natürlich die Frage, was eine “fehlerhafte” Lösung sein soll und wie diese von einer “richtigen” Lösung abgegrenzt werden kann. ML-basierte Systeme brauchen zusätzliche Sicherheitsmechanismen, die anders als bei klassischen Algorithmen oft erst im Nachhinein angewendet werden können. Eine KI-Governance kann hier helfen.
Lernen bedeutet Veränderung
ML-basierte Systeme “lernen” stetig hinzu, indem ihre Ergebnisse bewertet und zur Veränderung der internen Muster herangezogen werden (Rückkopplung). Dies ist ein essentieller Teil des Machine Learning- Konzepts und ein fundamentaler Unterschied zu klassischen Algorithmen. Während diese durch einen Entwickler gezielt angepasst werden müssen, können sich ML-basierte Systeme quasi selbst verändern. Lösungskorridore können sich dadurch verschieben. Während das grundsätzliche Ziel solcher Anpassungen die stete Verbesserung der KI ist, kann allerdings auch das genaue Gegenteil geschehen. Die Fehlerraten oder Ungenauigkeiten solcher Systeme können sich schleichend erhöhen. Ein System, bei dem z.B. zu Beginn keine diskriminierenden Entscheidungen zu verzeichnen waren, kann durch entsprechende Rückkopplungen im Betrieb einen Bias entwickeln und ggf. sogar festgelegte ethische Grenzen überschreiten.
Während es bei klassischen Algorithmen häufig genügt, diese vor dem Einsatz zu prüfen, müssen KI-gestützte Systeme (sofern sich diese durch stetes Feedback optimieren) permanent gegen die gesetzten Regeln geprüft werden. Es braucht eine KI-Governance.
Was muss eine Governance leisten?
Die Governance von KI-gestützten Systemen muss diese spezifischen Chancen und Risiken adressieren. Anders als bei klassischen Algorithmen braucht es eine permanente Überwachung der KI-gestützten Systeme, um deren verantwortungsvolle Nutzung über den gesamten Lebenszyklus sicherstellen zu können. Dies gilt insbesondere dann, wenn KI-Systeme in kritischen Bereichen eingesetzt werden, in denen Fehler gravierende Beeinträchtigungen oder Schäden bei Menschen verursachen können.
Eine gute KI-Governance deckt den gesamten Lebenszyklus von KI-Systemen ab. Sie beginnt bereits mit der Entwicklung von Einsatzszenarien, geht über die Auswahl der geeigneten Technologien, dem Bereitstellen der Trainingsdaten, dem Training der KI-Systeme über die Produktivnahme, das Feintuning bis hin zur Überwachung der produktiven Nutzung. Idealerweise verfügen Unternehmen über ein KI-Managementsystem, um den Einsatz von KI systematisch zu steuern.
Neben den technischen Risiken sind in gleicher Weise auch zahlreiche rechtliche Problemstellungen zu bewältigen, die ebenfalls eine gute Governance benötigen: Urheberrecht, Informationssicherheitsrecht als auch Datenschutz spielen bei der Nutzung von KI eine prominente Rolle. Eine “unkontrollierte” Nutzung von KI kann zu erheblichen rechtlichen Problemen führen, die sich im Nachgang nur unzureichend heilen lassen.
KI-Governance bedeutet keineswegs, die immensen Chancen der KI den Risiken ihrer Nutzung stets unterzuordnen. Im Gegenteil. Eine vernünftige Governance stellt Chancen und Risiken auf vernünftige Weise in ein Verhältnis und führt zu abgewogenen Entscheidungen über den Einsatz der modernen Technologie.