Künstliche Intelligenz in der Politik: Utopie oder Albtraum?
Algorithmen geleitete Politik ist wohl unvermeidlich. Aber ob die „Algokratie“ liberal sein wird oder zur KI-Diktatur ausartet, hängt von uns ab. Was jetzt zu tun ist, verrät der Soziologe und KI-Experte Roland Benedikter.
Künstliche Intelligenz (KI) hat zwei Gesichter. Roland Benedikter spricht von „Hyperkomplexität und Tiefenambivalenz“, das bedeutet: Je fortgeschrittener eine Technologie ist, desto mehr Risiken birgt sie. Man kann KI sowohl für Fortschritt in Medizin, Wirtschaft und Gesellschaft als auch für Überwachung und repressive Politik einsetzen.
Für Benedikter, Mitglied im Zukunftskreis des deutschen Forschungsministeriums, ist alles denkbar: das Ende der Demokratie und Massenüberwachung wie in China oder bedingungsloses Grundeinkommen dank KI.
Welche Arten der Nutzung überwiegen werden, die positiven oder die negativen, hängt nicht von der künstlichen, sondern von der menschlichen Intelligenz ab. Es liege an uns, KI-Anwendungen zu regulieren und die Weichen zu stellen, sagt Benedikter, der seit vielen Jahren zu den Veränderungen, die der Einsatz von künstlicher Intelligenz (KI) bringen wird, forscht.
Was uns in den nächsten Jahren bevorsteht und warum Demokrat:innen sich bei der Gestaltung des KI-Zeitalters beeilen sollten, erklärt der Experte im Interview.
Roland Benedikter ist ein Südtiroler Politikwissenschaftler und Soziologe. Als Mitglied im Zukunftskreis des deutschen Bundesministeriums für Bildung und Forschung setzt er sich seit Jahren mit den Folgen von KI für Politik und Gesellschaft auseinander. Benedikter ist außerdem Inhaber des UNESCO-Lehrstuhls für „Antizipation und Transformation“ und Co-Leiter des Centers for Advanced Studies am Forschungsinstitut Eurac Research in Bozen.
relevant: China gilt schon jetzt als KI-Dystopie schlechthin. Manche sprechen sogar von einem möglichen Ende der Menschheit. Was ist an solchen Untergangsszenarien dran?
Benedikter: Alle Väter der Künstlichen Intelligenz (KI) warnen inzwischen ausnahmslos vor dem, was sie selbst in die Welt gesetzt haben. Darunter sind namhafte Sofware-Entwickler wie Geoffrey Hinton, Yoshua Bengio, Blake Lemoine und der Gründer des Unternehmens “Stability AI” Emad Mostaque. Künstliche Intelligenz, so lauten die finstersten Szenarien, etwa von Elon Musk oder Stephen Hawking, könnte die Menschheit sogar vernichten. Denn ist einmal die Infrastruktur durch KI gesteuert, könnte die KI laut Musk entscheiden, die Infrastruktur zu unterbrechen und die Menschheit damit auszulöschen. Warum sollte sie das tun? Sobald die KI einsieht, dass der Mensch der Einzige ist, der ihr den Stecker ziehen kann, ist es in ihrem Interesse, die Bedrohung durch den Menschen vorweg nehmend zu eliminieren – sagt zum Beispiel Nick Bostrom, der Direktor des Zukunft der Menschheit Instituts der Uni Oxford. KI birgt also nach übereinstimmender Meinung aller Sachverständigen eine Reihe von Gefahren. Viele von ihnen liegen allerdings in der Zukunft.
relevant: Es gibt aber auch bereits Probleme in der Gegenwart?
Benedikter: Eine der größten, bereits heute real existierenden Herausforderungen ist die flächendeckende Massenüberwachung durch KI in China. Sie erstickt das letzte bisschen Freiheit und Intimität.
China hat einen Überwachungs- und Kontrollstaat errichtet, den es so in der Menschheitsgeschichte noch nie gegeben hat. Leider setzen wir uns damit in Europa viel zu wenig auseinander.
Dabei könnten wir von diesem Negativbeispiel viel darüber lernen, wie wir KI positiv integrieren, und was wir vermeiden sollten.
relevant: Diktatorische Regimes nutzen KI also, um die staatliche Unterdrückung noch weiter zu perfektionieren. Autoritär waren diese Staaten aber auch vorher schon – was hat das also mit uns zu tun?
Benedikter: Die staatliche Überwachung beginnt in China damit, dass in den Schulen systematisch die Körpersprache und die Mimik von Kindern durch KI-verbundene Kameras ausgewertet werden. Anhand dessen sagt die KI schon im frühen Alter vorher, ob ein Schüler später zum Dissidenten werden könnte. Nach der Einordnung dieser Voraussage in Chinas soziales Punktesystem, durch das jede:r Bürger:in anhand all seiner/ihrer Taten in Realzeit als gut oder schädlich klassifiziert wird, wird das Kind, das als potenzieller Dissident gilt, von bestimmten Programmen und Laufbahnen von vornherein ausgeschlossen – bevor es überhaupt etwas getan hat. All das geschieht für über eine Milliarde Menschen automatisiert.
relevant: Das ist nicht das einzige Beispiel?
Benedikter: Ein weiteres Beispiel sind Drohnen, die als Vögel getarnt sind und die Bürger:innen von oben überwachen. Weil man echte und falsche Drohnen-Überwachungs-Tauben am Himmel nur schwer unterscheiden kann, leben die Menschen im Bewusstsein, ständig und überall überwacht zu werden. Gedanken und Taten, die einen mit dem Staat in Konflikt bringen könnten, werden dadurch im Keim erstickt.
relevant: Wo aber liegt die Bedrohung für stabile demokratische Gesellschaften?
Benedikter: Wie stabil sie bei flächendeckender Einführung von KI bleiben werden, ist eben die Frage. Wir haben 2022 im Zukunftskreis des deutschen Bundesministeriums für Bildung und Forschung eine sogenannte Wertestudie veröffentlicht, aus der hervorgeht, dass etwa 20 Prozent der Menschen – und etwa die Hälfte der befragten Jugendlichen – für die Einführung eines sozialen Punktesystems auch in Deutschland sind. 12% sind unentschieden. Warum? Ein Teil der Bevölkerung hat eine Art Kontrollverlust-Psychologie entwickelt, wie es mein BMBF-Kollege, der VW-Trend- und Vorausschauchef Wolfgang Müller-Pietralla, nennt. In den USA zeigte jüngst eine Umfrage, dass sogar 72 Prozent der Amerikaner glauben, dass unsere demokratischen Regierungen die Dinge nicht unter Kontrolle haben.
relevant: Was bedeutet das für das KI-Zeitalter?
Benedikter: Überraschenderweise auch junge Menschen, die eine System-Krise nach der anderen erlebt haben und nichts anderes kennen, wünschen sich einerseits einen starken Mann, aber auch ein KI-gesteuertes soziales Punktesystem, um Ordnung und Sicherheit herzustellen. Das würde unweigerlich dazu führen, dass Überwachungsinstrumente sozialen Fehlverhaltens mit KI ausgestattet werden.
relevant: Damit das umgesetzt wird, müssten solche Ideen auch politischen Rückhalt genießen.
Benedikter: Proponenten eines sozialen Punktesystems sind in Deutschland zum Beispiel ein Teil der Grünen und der Linken. Man verspricht sich davon eine bessere Bekämpfung der Steuerhinterziehung und mehr Nachhaltigkeit. Das soziale Punktesystem wäre vielleicht zwar freiwillig, aber man könnte sich ihm tatsächlich nur schwer entziehen. Das System würde laut manchen Grünen die Menschen faktisch zu einer nachhaltigeren Lebensführung zwingen. Wenn jemand beispielsweise einen SUV fährt, würden automatisch bestimmte Maßnahmen greifen: eine höhere Besteuerung oder der Ausschluss von bestimmten Strecken oder Leistungen. Es gibt eine große Debatte darüber, ob ein solches Punktesystem überhaupt mit den Grundrechten eines liberalen Rechtsstaats vereinbar wäre. Die Realität der KI als umfassendes Sozialinstrument ist also gar nicht so weit weg, sondern kommt mit der Debatte über Automatisierung unweigerlich auch zu uns.
relevant: Welche konkreten Bedrohungen gehen noch von KI für demokratische Gesellschaften aus?
Benedikter: Feindliche Staaten könnten KI-gesteuerte Desinformationskampagnen nutzen, um das Fundament der Demokratie, das Vertrauen in Fakten, auszuhöhlen. Manche behaupten sogar, dass die Funktionsweise von KI grundsätzlich antidemokratisch wirkt.
KI sammelt unzählige Daten und berechnet dann die richtige Entscheidung. Dazu bedarf es keiner Diskussion, keines demokratischen Austausches von Meinungen.
relevant: Trifft sie aber die „besseren“ politischen Entscheidungen?
Benedikter: Stellen Sie sich vor, eine Gemeinde nutzt KI, um zu entscheiden, ob es Sinn macht, die Bäume in einer bestimmten Straße zu fällen. Die KI berechnet nun zehntausende Daten: die Bodenbeschaffenheit, die Art, das Alter und die Höhe der Bäume, die erwartete Klimaveränderung in den kommenden Jahren, die Stadtentwicklung in vergleichbaren Gebieten, Umfragewerte über Bäume in Städten und so weiter. All das berechnet die KI in Sekundenschnelle, vergleicht es mit Daten und Entwicklungen auf der ganzen Welt, und spuckt dann eine Entscheidung aus, die auf einer derartig umfassenden Menge von natur- und sozialwissenschaftlichen Daten beruht, die kein Mensch je hätte sammeln und integrieren können.
relevant: Das klingt erstmal großartig: bessere, effizientere, nachhaltigere Entscheidungen dank KI.
Benedikter: Das Problem dabei ist, dass hier nach und nach eine Meinungsdiktatur entstehen könnte, die den Dialog und die Debatte überflüssig macht. Und damit letztlich auch die Demokratie. Ich will den Bürgermeister sehen, der angesichts einer solchen KI-Entscheidung auf der Grundlage von Millionen Daten noch behauptet: Das ist nur Entscheidungsvorbereitung, ich entscheide mich jetzt aber ganz anders, als die KI rät. Die KI sagt, wir sägen die Bäume um – ich sage, wir lassen sie stehen. Dieser Bürgermeister wird in zehn Jahren sehr viel Mut haben müssen, und er wird sich sehr, sehr gut vorbereiten müssen – ähnlich gut wie die KI.
relevant: In zehn oder zwanzig Jahren entscheidet also faktisch die KI, nicht mehr der Mensch?
Benedikter: Es gibt eine subtile Intrusion der KI in der Politik, und die wird mit jedem Jahr stärker. Selbst wenn KI noch lange nicht, oder nie, autonom entscheidet, wird wohl bald keine begründete Entscheidung mehr ohne die Beteiligung von KI stattfinden. Demokratie wird sich dann ändern, nicht mehr dieselbe sein. Wir müssen alles tun, damit KI nicht – schleichend oder sogar offen – Partizipation und Dialog – das Wesen von Demokratie – durch Datenberechnung ersetzt.
relevant: Gibt es das schon, dass sich Politiker:innen von KI beraten lassen?
Benedikter: Auch da müssen wir nach China blicken, der aktuellen KI-Gesellschaft schlechthin. Dort lässt man sich sogar in der Außenpolitik schon von KI beraten, zum Beispiel bei der Frage, ob man in Taiwan eine Invasion starten soll. Während man in demokratischen Gesellschaften also noch vorsichtig ist, mit solchen Dingen zu experimentieren, weil man auch die Gefahren der Entmenschlichung von Entscheidungen sieht, drücken China und andere autoritäre Staaten aufs Gas. Aber wenn eine konkurrierende Großmacht wie China dank KI stärker, schneller und schlagkräftiger wird, ist es nur eine Frage der Zeit, bis auch westliche Gesellschaften KI-Systeme in der Politik übernehmen. Schließlich will im globalen Wettbewerb niemand auf der Verlierer-Seite stehen. Die entscheidende Frage wird sein, wie sie sich beraten lassen.
relevant: Wenn KI in der Politik entscheidet und faktisch herrscht, spricht man auch von „Algokratie“ – der Herrschaft der Algorithmen. Forscher:innen und Intellektuelle haben in den letzten Jahren dazu aufgerufen, die Algokratie, die sie in manchen Aspekten für unvermeidlich halten, liberal und möglichst demokratisch zu gestalten.
Benedikter: Es gibt im Grunde zwei typologische Szenarien. Entweder begrenzt Algokratie – so, wie ich es vorhin beschrieben habe – auf schleichendem Wege die Demokratie. Oder es gelingt, diese Entwicklungen liberal zu gestalten und demokratische Grundprinzipien, wie Teilhabe, Diversität und Abstimmung, aufrechtzuerhalten. Es gibt mehrere Manifeste von progressiven Gruppen, die genau dazu aufrufen. So etwa das Liberale Algokratische Manifest (Liberal Algocracy Manifesto) von 2019 und zuletzt die Warnung des Centers for United Nations Constitutional Research, einer UNO-kritischen Gruppe.
relevant: Was ist konkret zu tun?
Eine Möglichkeit wäre, das Datenfundament, mit dem die KI arbeitet, gezielt mit werteorientierten Informationen, das heißt zum Beispiel mit ethischen, antirassistischen und humanistischen Grundsätzen und Prinzipien zu füttern.
So wäre die KI darauf getrimmt, nicht allein im Sinne von größtmöglicher Effizienz zu „herrschen“, sondern den Menschen als prekäres Wesen in all seiner Endlichkeit einzubeziehen und diese Endlichkeit zu schätzen. Denn der entscheidende Unterschied zwischen menschlicher und künstlicher Intelligenz ist nicht nur, dass Letztere kein endliches Bewusstsein hat. Die KI hat auch keinen Realitätsbezug, weil die Zeit ihr als ontologische Erfahrung fehlt. Sie weiß deshalb nicht, was Realität ist und dass Daten und Realitätserfahrungen nicht übereinstimmen. All das hätten demokratische Regierungen den KI-Algorithmen schon vor Jahren beibringen sollen. Wir müssen es spätestens jetzt tun.
relevant: Können wir uns mithilfe von KI auch vor Bedrohungen durch KI schützen, etwa vor Desinformations Kampagnen?
Benedikter: Das wird ein sehr schwieriges Unterfangen, aber es sollte versucht werden. Man sieht am Beispiel ChatGPT, dass es nahezu unmöglich ist, festzustellen, wie eine bestimmte KI-Antwort zustande gekommen ist. Jemand, der aufdecken will, kommt immer nachher, rekonstruiert, ist aber nicht voraus. Es ist das klassische Problem der Eule Minervas von Hegel:
Die Vernunft kommt immer erst nachher, in einer gewissen Weise also immer zu spät.
Darin liegt ihre Natur, und das muss nicht notgedrungen schlecht sein. Man kann diesen Prozess aber auch beeinflussen, indem man Fakten und wertorientierte Informationen in den Vordergrund stellt. Ein Beispiel dafür ist Elon Musks TruthGPT. Das ist der Versuch, ein KI-Programm zu entwickeln, das von Anfang an in seinen Lernprozessen darauf spezialisiert ist, die Wahrheit von der Unwahrheit zu unterscheiden. Welche Aussichten auf Erfolg bestehen, ist derzeit schwer zu sagen.
relevant: Warum ist das ambitioniert?
Benedikter: Im Falle von TruthGPT gibt man der KI ein anderes ideologisches Grundgerüst mit, so wie man ein Kind erzieht, und die KI lernt, anderen KIs zu widersprechen, sie zu korrigieren und zu informieren. Aber das hat Grenzen. Stellen Sie sich einen Schulhof vor, auf dem Hunderte nur raufen und sich austoben wollen, und da ist ein einziges, wohlerzogenes, friedliches Kind, das sich an die Regeln hält. Da muss dieses eine Kind schon sehr besonders und beeindruckend sein, um sich gegen alle anderen durchzusetzen.
relevant: In der Debatte darüber, wie KI die Gesellschaft umkrempeln wird, kursieren viele Untergangsvisionen. Zu viele?
Benedikter: Ich sehe die Debatte in der Tat zu apokalyptisch geprägt. Wer Verantwortung trägt, muss zwar die möglichen negativen Folgen einer Technologie benennen. Diese Kassandra-Funktion ist notwendig, und sie war vielleicht nie wichtiger als heute. Das vorausgesetzt, stürzen sich aber viele Medien und auch einige Wissenschaftler:innen sensationsheischend auf die allerschlimmsten Szenarien, auf die es leider Hinweise gibt, ohne aber über die positiven Chancen zu sprechen. Als Berufsoptimist auf Seiten von UNESCO und Vereinten Nationen versuche ich, beide Seiten zu sehen.
relevant: Welche positiven Möglichkeiten gehen im aktuellen Diskurs unter?
Benedikter: KI könnte nach einer Einschätzung der Investment-Bank Goldman Sachs in den kommenden Jahren 300-400 Millionen Jobs ersetzen. Wenn dem so sein wird, dann wird das eine regelrechte Revolution sein. Die gesamte Gesellschaft wird beginnen, anders zu funktionieren, wenn große Teile der Bürger:innen kein Einkommen durch Arbeit mehr haben. Wir müssen dann neue Wege finden, um die Profite, die durch die Maschinen erwirtschaftet werden, gerecht zu verteilen. Wenn wir KI zum Beispiel in Verbindung mit Blockchain richtig nutzen, um die sogenannte „Maschinensteuer“ einzuführen, von der Bill Gates bereits Anfang der 2000er Jahre sprach und die Südkorea vor einigen Jahren in Modellversuchen eingesetzt hat, könnten neue Gerechtigkeitsformen entstehen. Dann wird auch – umfassender – eine Welt möglich, in der eine riesige Menge an Daten dezentralisiert für uns arbeitet und wir dafür, dass wir Handys und Computer benutzen und also Daten generieren, Geld erhalten und ein bedingungsloses Grundeinkommen erwirtschaften. Riesige Fortschritte wird KI auch in der Medizin bringen. Um diese Möglichkeiten zu nutzen, müssen wir aber realistisch sein und die Tiefenambivalenz der Technologie anerkennen.
relevant: Also sowohl das Positive als auch das Negative sehen?
Benedikter: Ja. In den letzten Jahren haben zum Beispiel UNESCO, die OECD, die Weltbank, das World Economic Forum und einzelne Regierungen große Programme gestartet, um KI für die Bewältigung der Klimakrise zu nutzen. KI – etwa in Form der „AI for the Planet“ Initiative oder der Global Partnership for Artificial Intelligence (GPAI), an der sich zwei Jahre nach Beginn bereits 28 Staaten und die EU beteiligen – soll beispielsweise eingesetzt werden, um auf globaler Ebene CO2-Emissionen zu reduzieren, Unternehmen effizienter zu besteuern und die Nachhaltigkeits-Bürokratie zu verschlanken. Wir sollten diese riesigen Chancen nutzen, um unser Leben zu verbessern, und uns zugleich gegen die Gefahren der KI rüsten.
Es gibt heute eine Spaltung der Welt in Demokratien und Autokratien, und die Autokratien warten nur darauf, diese Technologien gegen die offene Gesellschaft einzusetzen.
Hier sind Vernunft und Realismus wichtig, um auf vielen Gebieten neue Balancen herzustellen.
relevant: KI bleibt für viele immer noch ein sehr abstraktes Thema, das – wenn überhaupt – von ganz oben reguliert wird. Was können Bürger:innen tun, um sich für einen konstruktiveren Gebrauch von KI in Politik und Gesellschaft einzusetzen?
Benedikter: Die Bürger:innen müssen zunächst vor allem eines tun: sich informieren, sich ein Bild machen, was die KI heute schon kann und noch nicht kann, welche Optionen sich ergeben und welche sich nicht ergeben. Hier gibt es großen Aufholbedarf. Was die Leute wissen, bleibt inzwischen auch bei uns – in offenen Gesellschaften – immer weiter hinter dem zurück, was der aktuelle Stand der Technik ist. Diese Lücke, die sich in den letzten Jahren vergrößert hat, müssen wir dringend verkleinern, etwa durch Zukunftsbildung und technologische Erziehung in den Schulen. Da ist es notwendig, mehr Energie und auch Geld zu investieren, um auf der Höhe der Zeit zu bleiben. Der Ansatz der UNESCO-Zukunftsbildung, auf den wir uns am UNESCO-Lehrstuhl des Center for Advanced Studies der Eurac in Bozen spezialisieren, kann hier den Weg weisen.
relevante Links
- Zukunftskreis des deutschen Forschungsministeriums,
- Wertestudie vom Zukunftskreis des deutschen Bundesministeriums für Bildung und Forschung
- Liberale Algokratische Manifest (Liberal Algocracy Manifesto)
- Centers for United Nations Constitutional Research
- UNESCO-Lehrstuhl des Center for Advanced Studies der Eurac in Bozen
Zur Bebilderung
Die Bilder für diesen Artikel wurden mit Midjourney erstellt, einer Text-to-Image KI. Darunter versteht man künstliche Intelligenzen, die passend zu einer Textangabe, einem sogenannten „Prompt“, verschiedene Visualisierungen erstellen.
Mit folgenden Prompts von uns hat Midjourney die Bilder in diesem Artikel erstellt:
- Titelbild
„visualize algogracy as a split picture, left side progress in medicine and science, right side surveillance and political oppression“ - Man kann KI sowohl für Fortschritt in Medizin, Wirtschaft und Gesellschaft als auch für Überwachung und politische Repression einsetzen.
„depict a scene where politicians are sitting around a table engaged in discussion with friendly and advanced robots serving as AI advisors. The robots are equipped with vast databases, providing comprehensive information and analyses. The image should emphasize the idea that machines are capable of offering well-informed decision-making foundations while considering all relevant factors.“ - KI trifft Entscheidungen, indem sie riesige Datenmengen sammelt und vernetzt.
„ai woman gathering a lot of relevant data to make informed and balanced political decisions“ - Die Algokratie sieht Midjourney als riesigen Organismus, der alle Prozesse und Daten vernetzt.
„visualize algocracy“
Weiterlesen? Was braucht unabhängiger Journalismus in Österreich?
Um einer Antwort auf diese Frage näher zu kommen, haben wir uns an Auskenner:innen gewendet.
Die wichtigen Gesellschaftsthemen sind relevant.
- Keine Armut (5)
- Kein Hunger (1)
- Gesundheit & Wohlergehen (11)
- Hochwertige Bildung (11)
- Geschlechtergleichheit (13)
- Sauberes Wasser & Sanitäreinrichtungen (1)
- Bezahlbare & saubere Energie (2)
- Menschenwürdige Arbeit & Wirtschaftswachstum (8)
- Industrie, Innovation und Infrastruktur (7)
- Weniger Ungleichheiten (17)
- Nachhaltige Städte & Gemeinden (17)
- Nachhaltiger Konsum & Produktion (7)
- Massnahmen zum Klimaschutz (21)
- Leben unter Wasser (1)
- Leben am Land (12)
- Frieden, Gerechtigkeit & starke Institutionen (25)
- Partnerschaften zur Erreichung der Ziele (4)
2 Antworten zu „Künstliche Intelligenz in der Politik: Utopie oder Albtraum?“
-
Ein tolles Interview, das man gelesen haben sollte. Es klärt nicht nur auf, es gibt viele konkrete Beispiele hinsichtlich der Chancen, die die KI dem Menschen in die Hand geben wird, und der Gefahren, die im Keim dieser neuen Wissenschaft stecken.
Es wird neue eigens dafür gegründete Institutionen und eine aufgeklärte Menschheit erfordern, will man diese Wissenschaft zum Vorteil des Menschen und des Planeten nutzen, ohne dass sie zum Verhängnis der Menschheit wird.-
Vielen Dank für Ihr ermutigendes Feedback und Input!
KI ist in jedem Fall ein relevantes Thema, mit dem wir uns auch in Zukunft weiter beschäftigen werden. Dabei wollen wir auch besser verstehen, wann KI Lösungen anbietet und Nutzen bringt, aber eben auch, wie die Gefahren aussehen und wie wir ihnen begegnen können.
-
Schreibe einen Kommentar