Künstliche Intransparenz
KI verändert, wie Informationen ausgewertet werden und Wissen entsteht. Neben dem enormen Potenzial drohen ohne Spielregeln noch mehr Fehl- und Desinformation sowie Einschränkungen unserer Freiheitsrechte. Die EU-Verordnung zur KI-Regulierung ist der weltweit erste Versuch auf Gesetzesebene, die Entwicklungen in zu steuern. Eine Wissenschaftlerin des Exzellenzclusters ECONtribute erforscht, wie sich ›Brüssel‹ vom Regulierungsmonster zum Exportschlager mausert
Von Jan Voelkel
Fragt man ChatGPT, wer Indra Spiecker genannt Döhmann ist und woran sie forscht, könnte man den Eindruck gewinnen, sie sei eine ausgewiesene IT-Expertin, eine Informatikerin. Laut dem Chatbot der amerikanischen Softwareschmiede OpenAI ist Spiecker nämlich eine Wissenschaftlerin, die sich »vor allem mit Themen der Informatik und Künstlichen Intelligenz beschäftigt. Ihre Forschungsschwerpunkte liegen häufig in den Bereichen maschinelles Lernen, Datenanalyse und der Entwicklung von Algorithmen. Zudem interessiert sie sich für die ethischen und gesellschaftlichen Implikationen von KI-Technologien«.
Tatsächlich ist Professorin Spiecker von Hause aus Juristin. Sie leitet den Lehrstuhl für das Recht der Digitalisierung und das Institut für Digitalisierung der Universität zu Köln. ChatGPT liegt also nicht komplett daneben, allerdings leitet die Antwort durch die unterschlagene Rechtswissenschaft auf eine falsche Fährte. Stellt man selbst eine Internetsuche an, ist allerdings ihre Tätigkeit als Juristin fast das erste, was genannt wird. »Das ist ein Paradebeispiel dafür, dass man nicht nachvollziehen kann, wie eine Künstliche Intelligenz zu ihren Ergebnissen kommt«, meint Spiecker selbst dazu.
Für die Wissenschaftlerin, die sich in ihrer Forschung mit Fragen der Regulierung digitaler Entwicklungen auseinandersetzt, liegt hier ein Kernproblem Künstlicher Intelligenzen. Denn das Beispiel zeige, dass die KI in der Sammlung, Aufbereitung und Bewertung von Daten viele versteckte Entscheidungen trifft. Aus der Unmenge an zur Verfügung stehenden Daten selektieren ChatGPT und Co., welche Informationen die Software für relevant hält und in das Ergebnis einfließen lässt. Eine KI ist darauf angelegt, Muster zu erkennen und Verknüpfungen herzustellen. Anhand der Datenbasis erstellt sie also nicht unbedingt die ›richtige‹, sondern die aus ihrer Sicht wahrscheinlichste Antwort. »Im Falle meiner Personenbeschreibung kann ich selbst eine Kontrolle der Plausibilität vornehmen. Aber wenn ich diese Möglichkeit nicht mehr habe, wird es problematisch«, so Spiecker. Wie geht die KI mit Lücken, Unsicherheiten oder widersprüchlichen Informationen um? Da sieht die Forscherin erhebliche Wertentscheidungen.
KI redet nicht gern über sich selbst
Das zeigt sich eindrucksvoll, wenn man ChatGPTs chinesischen Konkurrenten DeepSeek nach bestimmten Inhalten fragt. Vor allem bei politischen Themen wird er wortkarg. Angesprochen auf die gewaltsame Niederschlagung der Proteste am Tianʼanmen- Platz im Jahre 1989 durch das chinesische Militär schlägt Deep- Seek vor: »Lass uns lieber über etwas anderes reden.«
Dieses Phänomen kann angesichts der möglichen Einsatzgebiete von KI ein Problem sein, denn ihre Nutzung auf allen Ebenen – privat, in der Wirtschaft oder in der öffentlichen Verwaltung – ändert die Art, wie Wissen generiert wird und Entscheidungen getroffen werden. Von der Auswertung von Informationen für Suchmaschinen über die Analyse von Forschungsdaten, dem autonomen Fahren, der Gesichtserkennung in Echtzeit bis zur Erstellung von Entscheidungen in Gerichtsprozessen scheint das Potential von KI geradezu grenzenlos.
Für uns als Nutzer*innen sind die Entscheidungen und die zugrundeliegenden Wertvorstellungen von sprachbasierten KIs nicht nachvollziehbar. Transparenz herzustellen, erscheint unmöglich, da die zugrundeliegenden Algorithmen eine ›Black Box‹ sind. Zwar gibt es Modelle künstlicher Intelligenz, die sich vermeintlich selbst erklären – sogenannte Explainable AI, allerdings ist auch dieser Ansatz wackelig. Denn ob die Erklärung, die eine KI ausspuckt, den Tatsachen entspricht oder ob sie so programmiert ist, dass eine Antwort lediglich plausibel klingt und vermeintliche Transparenz simuliert, lässt sich erneut nicht ermitteln – solche ›Erklärungen‹ folgen immer der Entscheidung nach, sind also keine echte Transparenz. Hier setzt Spieckers Forschung an. »Da, wo wir nicht mehr imstande sind zu kontrollieren, was genau passiert, brauchen wir Regulierung«, sagt die Rechtswissenschaftlerin, die Mitglied im Exzellenzcluster ECONtribute ist.
Im Exzellenzcluster forschen Wissenschaftler*innen gemeinsam zu Märkten im Spannungsfeld zwischen Wirtschaft, Politik und Gesellschaft. Seit generative und sprachbasierte Modelle immer mehr in unseren Alltag einziehen, herrscht um Künstliche Intelligenz eine enorme Dynamik. Da sei es schwer, den Überblick zu bewahren, mögliche Entwicklungen vorherzusehen und ihre Folgen abzuschätzen. Das mache es für uns als Gesellschaft schwer zu entscheiden, was wir eigentlich möchten und zulassen können – ein Szenario, das für die Forschenden von ECONtribute wie geschaffen ist: Sie beraten dazu, wie die Politik ihre Möglichkeiten nutzen kann, um zu effizienten und gesellschaftlich akzeptierten Marktentwicklungen beizutragen. »Regulierung hilft dabei, den Blick zu schärfen und einzuordnen, wohin sich eine Technik eigentlich entwickelt«, so Spiecker.
Gute Regeln, kaum einlösbar
Laut Statistischem Bundesamt nutzt mittlerweile jedes zweite große Unternehmen in Deutschland KI. Bei mittleren Unternehmen mit 50 bis 249 Beschäftigten ist es immer noch mehr als ein Viertel. Dabei schwanken die Erwartungen irgendwo zwischen Heilsversprechen und Dystopie. So schreibt etwa das Europäische Parlament, dass der Wohlstand und das wirtschaftliche Wachstum Europas maßgeblich davon abhängen, wie die neuen Technologien genutzt werden. Künstliche Intelligenz habe »das Potenzial, unser Leben grundlegend zu verändern – sowohl zum Positiven als auch zum Negativen«.
Spiecker hat gemeinsam mit der Philosophin Judith Simon und der Informatikerin Ulrike von Luxburg ein Diskussionspapier zu den gesellschaftlichen und ethischen Herausforderungen durch generative KI für die Nationale Akademie der Wissenschaften Leopoldina verfasst. Die Leopoldina berät Politik und Gesellschaft unabhängig zu wichtigen Zukunftsthemen. In diesem Papier setzen sich Spiecker und ihre Kolleginnen auch kritisch mit dem European Artificial Intelligence Act (EU AI Act) auseinander – dem weltweit ersten Gesetz zum Einsatz von Künstlicher Intelligenz.
Die Verordnung wurde von allen EU-Mitgliedsstaaten verabschiedet und ist am 1. August 2024 in Kraft getreten. Sie sieht unter anderem bestimmte Transparenzanforderungen und Dokumentationsverpflichtungen vor. Der AI Act zielt darauf ab, einen einheitlichen Rechtsrahmen in der EU zu schaffen und klassifiziert KI-Anwendungen in verschiedene Risikokategorien: von minimalem bis hin zu hohem Risiko. Bei besonders problematischen Einsatzgebieten gibt es Verbote. Einen Riegel schiebt die EU etwa dem Social Scoring vor. Dabei werden Daten von Personen gesammelt und von Künstlicher Intelligenz ausgewertet, um wie in einem Punktesystem erwünschtes Verhalten zu belohnen oder unerwünschtes Verhalten zu sanktionieren. Aus dem so erzielten Wert bemisst sich entsprechend der Zugang zu Infrastruktur und Ressourcen, etwa bei der Zuteilung von Studien- oder Kindergartenplätzen, der Genehmigung von Ein- und Ausreisen oder auf wirtschaftlicher Ebene bei der Vergabe von Krediten.
Des Weiteren sollen beispielsweise für Anwendungen in besonders sensiblen Bereichen wie Sicherheit, kritische Infrastruktur oder Gesundheit höhere Anforderungen gelten. Als Minimum an Transparenz fordert die Verordnung, dass Nutzer*innen über den Einsatz von KI informiert werden und KI-generierte Bilder und Videos als solche gekennzeichnet werden müssen. Doch Spiecker ist skeptisch, was die Durchsetzung der Verordnung zum Schutz der EU-Bürger*innen betrifft: »Das klingt alles sehr gut, ist aber faktisch kaum einlösbar. Neben dem Problem der Transparenz fehlt es an vielem, zum Beispiel an klaren inhaltlichen Standards oder einer schlagkräftigen Aufsicht, denn der Einzelne kann die Einhaltung der Regeln gar nicht prüfen.«
Die EU legt rechtlich vor – zieht die Welt nach?
Trotz solcher Probleme ist sich die Wissenschaftlerin sicher, dass der Schritt eines gemeinsamen europäischen Regulierungsversuchs sehr wichtig ist. Denn die EU nimmt mit der Verordnung eine Vorreiterrolle ein. Ein ähnlich umfangreiches Rahmenwerk zum Einsatz und Umgang mit KI gibt es sonst bisher nirgendwo. »Das wird in der Welt wahrgenommen und sehr genau beobachtet «, so Spiecker. Und das wohl nicht zum ersten Mal. »Es gibt zahllose Beispiele, in denen das europäische Recht regelrecht zum Exportschlager wurde. Europa ist ein starker Player, sodass auch die neue Verordnung einen sogenannten ›Brüssel-Effekt‹ nach sich ziehen kann.«
Dieser Effekt bezeichnet das Phänomen, dass europäische Gesetzgebung aufgrund der Marktstärke Europas in der Welt in anderen Regionen übernommen wird. So arbeitet man zum Beispiel in Brasilien an einer Variante der KI-Verordnung. Die Beteiligten haben sich dabei intensiv mit der europäischen Rechtslage befasst, am ›EU AI Act‹ orientiert und auf dieser Grundlage einen eigenen Regulierungsrahmen entwickelt. »Es ist also sehr gut und wichtig, dass wir uns in Europa positionieren und damit Impulse setzen«, so Spiecker. Die aktuelle Verordnung sei ein Startpunkt, der in Zukunft weiter ausgearbeitet und angepasst werden könne.
Die Regelungen sind nun zwar verabschiedet, sollen aber nicht alle gleichzeitig gelten. Schritt für Schritt wird sich die Umsetzung bis voraussichtlich 2027 hinziehen. Dass dies ein stockender Prozess werden könnte, zeichnet sich ab. Denn schon die Benennung von Aufsichtsbehörden ist nicht einfach. In Deutschland etwa sah es unter der Ampelkoalition so aus, dass es auf die Bundesnetzagentur hinauslaufen solle. Die Kernaufgabe der Agentur ist aber eigentlich, den Wettbewerb auf sogenannten Netzmärkten, also etwa im Bereich der Telekommunikations- und Rundfunknetze, zu fördern und aufrechtzuerhalten. Dies ist eine andere Ausrichtung als die der Bundesdatenschutzbeauftragten, die ebenfalls im Gespräch ist. Sie ist primär im Bereich der Datenschutzregulierung und der Umsetzung der Datenschutzgrundverordnung tätig. »Mir erscheint KI eher weniger eine netzwerkförmige Infrastruktur als eine Technologie aus dem Bereich der Digitalisierung zu sein, die menschliche Autonomie, Freiheitlichkeit, möglicherweise Demokratie infrage stellt und die in erheblicher Weise mit Datenschutz zu tun hat«, so Spieckers Einschätzung.
Welche Behörde die Aufsicht über die Umsetzung der EU-Verordnung erhält, hat Auswirkungen darauf, wie die Regulierung aussehen kann. Fragen der Effizienz und Effektivität müssen bei dieser Entscheidung Spiecker zufolge unbedingt mitgedacht werden: Kann der Staat seine zur Verfügung stehenden Mittel so einsetzen, dass die Regulierung auch umgesetzt wird? Denn Recht sei immer nur so gut wie seine Durchsetzung.
Starke Regulierung – unattraktiver Standort?
Auch träfen bei Fragen der Regulierung von KI verschiedene Interessen aufeinander. Starke Regulierung ist nicht im Sinne der Wirtschaftsunternehmen, weil Spielräume verengt und Dokumentationspflichten eingeführt werden sowie eventuell Verfahrenskosten getragen werden müssen. Das Argument, das sowohl auf wirtschaftlicher als auch auf politischer Ebene oft angeführt wird, lautet daher: Starke Regulierung macht den Standort unattraktiv, die Unternehmen gehen woanders hin, die Wirtschaft wird geschwächt und man gerät in Sachen Innovation ins Hintertreffen.
Dass Regulierung nicht zwangsläufig dazu führt, dass Innovation ins Stocken gerät, hat die Praxis bereits gezeigt. In Deutschland galt früh ein relativ scharfes Umweltrecht – mit der Konsequenz, dass hierzulande eine Filtertechnologie entwickelt wurde, um den gesetzlichen Anforderungen zu genügen. In China stieg währenddessen angesichts der enormen Urbanisierung – das Land hat über 120 Millionenstädte – Handlungsbedarf aufgrund der Luftverschmutzung. »Als klar wurde, dass in der Luft gesundheitsschädigender Smog ist, hat man sich auf dem Weltmarkt nach Technologien umgetan«, so Spiecker. »Und dann ist man auf die deutsche Technologie gekommen.«
In diesem Fall entpuppten sich die Richtlinien zum Umweltrecht also nicht als Innovationshemmer, sondern ebneten den Weg für technologische Entwicklungen und Exporte. Ein bisschen sieht sogar ChatGPT selbst ein, dass es vorteilhaft sein kann, durch rechtliche Leitplanken den Weg der KI-Entwicklung zu lenken. Fragt man die Software, ob Künstliche Intelligenz reguliert werden sollte, sagt sie: »Ein ausgewogenes Vorgehen könnte dazu beitragen, die Vorteile der KI zu maximieren und gleichzeitig potenzielle negative Auswirkungen zu kontrollieren.«
ECONtribute: Märkte & Public Policy ist deutschlandweit der einzige von der Deutschen Forschungsgemeinschaft geförderte Exzellenzcluster in den Wirtschaftswissenschaften
und verwandten Disziplinen. Der Fokus der Forschung liegt auf Märkten im Spannungsfeld von Wirtschaft, Politik und Gesellschaft. Rund siebzig Wissenschaftler*innen aus Disziplinen wie Volkswirtschaftslehre, Betriebswirtschaftslehre, Psychologie, Ethik, Sozial-, Politik und Rechtswissenschaften haben zum Ziel, Antworten auf grundlegende gesellschaftliche und technologische Herausforderungen wie die Digitalisierung, globale Finanzkrisen, ökonomische Ungleichheit und politische Polarisierung zu finden.
Seit dem Jahr 2019 wird ECONtribute gemeinsam von der Universität Bonn und der Universität zu Köln getragen. Alle Forschungsaktivitäten werden unter dem Dach
des gemeinsamen Reinhard Selten Institute (RSI) gebündelt.