"Wessen Werte stecken in unserer KI?"
Künstliche Intelligenz ist längst keine neutrale Technologie mehr. Sie ist geprägt – von den Weltanschauungen, Prioritäten und Werten ihrer Schöpfer. Aktuell dominieren KI-Modelle aus den USA und China den globalen Markt. Doch mit ihnen exportieren diese Länder nicht nur Technologie, sondern auch kulturelle Werte, Überzeugungen und ethische Normen.
Die unsichtbaren Werte in KI-Modellen
KI-Modelle lernen aus Daten – und diese Daten sind nicht "objektiv". Sie spiegeln die Realitäten und Wahrnehmungen der Gesellschaften wider, in denen sie gesammelt wurden. In den USA etwa ist die KI-Entwicklung stark individualistisch und marktwirtschaftlich geprägt, in China staatlich kontrolliert und kollektivistisch. Die ethischen Maßstäbe dieser Länder fließen in die Systeme ein: Was wird zensiert? Was ist "toxisch"? Welche Fragen gelten als "unangemessen"? All das wird in der Entwicklung und Feinjustierung entschieden.
Die blinden Flecken
Was passiert mit den Werten anderer Kulturen?Große Kulturräume wie der Islam, der Buddhismus, indigene Glaubenssysteme und gaze Weltregionen finden in den Modellen oft keine oder nur verzerrte Repräsentation. Auch europäische Wertetraditionen, etwa aus der Aufklärung oder dem Humanismus, geraten ins Hintertreffen, da sie nicht deckungsgleich mit dem Silicon-Valley-Liberalismus sind.
Ein stilles Value-Overwriting“ droht
Wenn weltweit dieselben Modelle genutzt werden, könnte das zu einem schleichenden Werte-Kolonialismus führen.
Die Frage nach einem "Werte-Layer"...
Wie ließe sich das lösen? Eventuell kann ein regional adaptiver Werte-Layer über ein Basismodell gelegt werden. Dieser Layer könnte definieren, welche Perspektiven, Weltbilder und normativen Rahmenbedingungen in einer Region als sinnvoll, zulässig oder erwünscht gelten – und so den inhärenten Bias globaler Modelle ausgleichen.
Richtig gemacht können wir eine KI gestalten, die nicht überrollt, sondern spiegelt – und damit mehr globale Akzeptanz, Relevanz und Gerechtigkeit erreicht.
Künstliche Intelligenz ist nie neutral.
Wenn wir wollen, dass KI unsere Zukunft mitgestaltet, müssen wir entscheiden, welches „uns“ sie eigentlich meint. Und vielleicht liegt der nächste große Innovationsschritt nicht nur im Modell selbst, sondern im ethischen Rahmen, den wir ihm geben.