Bergische Uni Kann KI Machtstrukturen verändern?
Wuppertal · Künstliche Intelligenz, kurz KI, kann Beethovens unvollendete 10. Sinfonie fertigstellen, unser Gesundheitssystem besser auf künftige Krisen vorbereiten und Banken schneller und effektiver höhere Gewinne bescheren. Am Max-Planck-Institut für Intelligente Systeme in Tübingen arbeiten Wissenschaftlerinnen und Wissenschaftler gar an der Möglichkeit, lernenden Maschinen einen Sinn für kausale Zusammenhänge zu verleihen. Scheinbar unmerklich gewinnt KI einen immer größer werdenden Einfluss auf unser Leben.
Der Wuppertaler Soziologe Prof. Dr. Peter Imbusch forscht in einem Projekt mit dem Titel „Transformation von Macht und Herrschaft durch künstliche Intelligenz“ am Verhältnis von Mensch, Technik und Gesellschaft und den noch nicht einschätzbaren potenziellen Gefahren, die diese Entwicklung mit sich bringen kann.
Das Projekt
„Technik ist ja weit mehr als ein Medium oder ein bloßes Artefakt, welches allen Menschen in gleichem Maße zugutekommt“, beginnt Imbusch. „Zwar ist Technik einerseits ein integraler Bestandteil unserer Gesellschaft geworden, wir leben ja in einer technischen Zivilisation, andererseits waren unterschiedliche Techniken immer auch zentrale Ressourcen für die Ausübung von Macht und Herrschaft. Wir gehen in unserem Projekt davon aus, dass sich diese Problematik mit der weiteren Durchsetzung von KI zuspitzt.“
Es gehe um machttheoretisch grundlegende Fragen, erklärt er, „etwa, ob Macht aus den technischen Artefakten selbst entspringt oder ob sie der Technik als ‚Sachzwang‘ oder als ‚Nebenfolge‘ eingeschrieben ist, oder ob Menschen technisch vermittelt machtvoll handeln und über die Beherrschung oder Anwendung der Technik Macht ausüben können.“
Das Problem sei, dass solche Fragen in der Techniksoziologie oder bei den Produzenten bzw. Anwendern von neuen Technologien seltsam unterbelichtet geblieben seien, so dass es an profunden, nach gesellschaftlichen Bereichen differenzierten und systematisierten Analysen der neuen Entwicklungen und ihrer machtpolitischen Folgen bislang fehle. „Da Technik nicht einfach neutral ist, interessieren wir uns dafür, wie KI überhaupt in gesellschaftliche Machtverhältnisse eingebettet ist, aber auch dafür, wie KI Machtstrukturen und Herrschaftsverhältnisse in speziellen Bereichen verändert und transformiert.“
Ein Verständnis für die politischen und sozialen Folgen der KI entwickeln
Manche politischen Systeme und deren Machthaber in der Welt erwecken bei vielen Menschen den Wunsch nach mehr KI, doch so einfach ist der Einsatz eben nicht.
„Wenn man erwartet, dass damit die politische Dummheit eingegrenzt werden könnte, würde man das bejahen“, beginnt der Soziologe. „Die Systeme künstlicher Intelligenz machen ja bislang nur das, was man ihnen erlaubt bzw. was mittels Algorithmen ‚gelernt‘ werden kann. Dass sich darüber die politische Klugheit mancher Machthaber erhöht, darf man trefflich bezweifeln.“
Daher plädiert er für intensivere Forschungen und sagt: „Angesichts der Vielgestaltigkeit von KI sowie der Vielfältigkeit ihrer Anwendungsbereiche in ganz unterschiedlichen Teilbereichen wie Wirtschaft, Politik und Gesellschaft, scheint es mir eher geboten zu sein, diese Bereiche im Einzelnen genauer zu untersuchen, um die Unterschiede und Gemeinsamkeiten hinsichtlich der politischen und sozialen Folgen von KI zu verstehen.“
Digitalisierungsprozesse und Künstliche Intelligenz könnten zu ganz unterschiedlichen Zwecken und zur Erreichung dubioser Zielsetzungen eingesetzt werden, und da kämen wieder Macht und Herrschaft ins Spiel. „Wenn man etwa an die wachsende Bedeutung von KI im Gesundheitswesen denkt oder an neue Produktionsprozesse und Distributionsweisen in der Arbeitswelt, wird man den damit verbundenen technischen Fortschritt in der Regel ganz gut finden. Aber es gibt auch Bereiche, in denen wir der Anwendung von KI eher kritisch gegenüberstehen.“ Imbusch verweist in diesem Zusammenhang auf die große Macht der Tech-Konzerne und des Plattform-Kapitalismus, welche er als bedenklich ansieht.
Auch die unterschiedlichen Anwendungsmöglichkeiten von KI im Bereich des politischen Systems und ihre Auswirkungen auf die Demokratie seien nicht nur kritisch zu betrachten, sondern stellten auch eine reale Gefahr dar. „Auch den gesamten Bereich der Versicherheitlichung mit seinen elaborierten Überwachungs- und Sicherheitstechnologien nehmen wir inzwischen - insbesondere in autoritären Regimen - als sehr problematisch wahr. Und im Bereich der Militärtechnologien und -strategien, die durch KI möglich wurden, haben sich in den letzten Jahrzehnten wahrhafte Revolutionen vollzogen.“
Allein an diesen unterschiedlichen Beispielen erkenne man schon, dass sich die Machtgewinne und Machtverluste verschiedener sozialer Gruppen unterschiedlich verteilten und sich KI – vielleicht sogar mehr als die Techniken der Vergangenheit – zu Herrschaftszwecken einsetzen lasse. Diese gesellschaftlichen Machtverhältnisse und Herrschaftsstrukturen interessieren den Wissenschaftler in seinem Projekt. Im Fokus stehen Fragen zur Macht von Akteuren und ihren unterschiedlichen Herrschaftsansprüchen sowie den spezifischen Machtressourcen und -formen, aber auch nach der Rolle von KI bei der Ausweitung, Stabilisierung und Transformation von Macht und Herrschaft.
Chancen und Gefahren für Macht und Herrschaft durch KI
In einer sich entwickelnden Welt ist alles Neue immer mit Fluch und Segen verbunden. In Bezug auf Macht und Herrschaft gehen von Künstlicher Intelligenz sowohl Chancen als auch Gefahren aus. „Richtig ist, dass neue Technologien in historischer Perspektive immer ein beträchtliches Maß an Kritik und Widerstand auf sich gezogen haben“, sagt Imbusch. „Das lässt sich bei allen technischen Neuerungen spätestens seit der frühen Industrialisierung beobachten. Auch in Bezug auf die Entwicklungen im Bereich der Künstlichen Intelligenz kennen wir dies, denn die entsprechenden Debatten um KI oszillieren in der Regel zwischen einer reichlich naiven Technikeuphorie einerseits und fatalistischen bzw. dystopischen Auslöschungsphantasien andererseits.“
Es gehe ja nicht immer nur um den geschätzten technischen Fortschritt, sondern auch darum, welchen Nutzen er für wen bringe und wie er sich auf die Gesellschaft auswirke. „Und da sind wir bei den Chancen und Gefahren. Vernünftig eingesetzt und in demokratisch gefestigten Gemeinwesen, die sozialen Ausgleich und politische Partizipation auf ihre Fahnen geschrieben haben, mögen die neuen Entwicklungen im Bereich der KI durchaus segensreich sein. Ganz anders stellt sich die Lage in autoritären Regimen oder Diktaturen dar.“
Doch auch in Demokratien lauerten erhebliche Gefahren, betont der Forscher, allein schon durch die Art und Weise, wie bisher über KI gesprochen wurde, welche Erwartungen damit einhergingen und wie mit ihr umgegangen werde. „Durch den Einsatz künstlicher Intelligenz und deren Weiterentwicklung macht der technische Fortschritt einen qualitativen Sprung, den Beobachter nicht wirklich überblicken und den wir in seiner Tragweite gemeinhin unterschätzen. Der Einsatz von künstlicher Intelligenz festigt außerdem die Herrschaft einer kleinen Expertokratie.“
Eine „werteorientierte Gestaltung“ von KI
Die strategische Entwicklung des Einsatzes von KI ist immer auch ein Politikum. Eine Enquete-Kommission hat sich im Bundestag zwei Jahre mit dem Thema beschäftigt, um einen Fahrplan für Europa und Deutschland zu entwickeln. Im Ergebnis ist man sich einig, dass man eine ,werteorientierte‘ Gestaltung von KI vorantreiben soll. Aber was ist damit gemeint?
„Die Enquete-Kommission hat in ihrem Bericht sehr genau Chancen und Risiken des Einsatzes von Künstlicher Intelligenz festgehalten“, erklärt Imbusch. „In ihren Empfehlungen spricht sie dann zu Recht von einer ‚werteorientierten Gestaltung‘ von KI. Das meint vor allem, dass wir uns in der Gesellschaft klar werden und darüber verständigen müssen, was wir mit künstlicher Intelligenz machen wollen, wieviel Raum wir ihr geben, d.h. zu welchen Zwecken wir sie einsetzen wollen, und in welchen Bereichen sie wirklich eine Bereicherung für unser Leben darstellt und wo nicht.“
Die Kommission mahne dafür Leitlinien und humanitäre Maßstäbe an, damit nicht alles gemacht werde, was eventuell technisch gemacht werden könnte. Sie beharre darauf, dass wir Menschen die tonangebenden Individuen seien und uns die technischen Möglichkeiten nicht irgendwann übermächtigen sollten und uns zu bloßen Objekten degradierten. „Auch, wenn wir von diesem Zustand noch weit entfernt sind“, gibt Imbusch zu bedenken, sei die Warnung davor angesichts der bisherigen Entwicklungen mehr als angemessen.
Künstliche Intelligenz ist so dumm wie Knäckebrot
„Künstliche Intelligenz ist so dumm wie Knäckebrot“, sagt der Ethiker und Theologe Alexander Filipovic. Manche Menschen hingegen sprechen Maschinen eine gewisse Intelligenz zu. Wer behält also die Oberhand bei diesem Transformationsprozess?
„Der Begriff der Intelligenz bei dem Terminus ‚Künstliche Intelligenz‘ ist umstritten, denn wirklich intelligent ist die Künstliche Intelligenz bei den gegenwärtigen Anwendungen (noch) nicht. Aber ich denke, das kann sich in den nächsten Jahrzehnten noch ändern, und dann geht eine wirkliche Gefahr von KI aus. Momentan hat der Mensch jedenfalls noch die Oberhand und wir müssen heute alles dafür tun, dass das auch zukünftig noch so ist bzw. bleibt.“
Wenn aber Menschen den zukünftigen Weg der KI bestimmen sollen, wer sucht dann die Menschen aus, die die Richtung vorgeben? „Das ist ein weiteres Problem im Kontext der Entwicklung von Künstlicher Intelligenz“, sagt Imbusch und stellt Fragen: „Wer bestimmt eigentlich über die Richtung dieser Entwicklung? Wer legt die Rahmenbedingungen für KI fest? Wer überschreitet ggf. Grenzen des technisch Machbaren? Werden die Menschen überhaupt in der Lage sein, die Tragweite mancher Entwicklung auf diesem Feld richtig einzuschätzen und wirklich zu verstehen?“
Experten erführen in diesem Kontext eine neue Machtposition und es gehe darum, wer am Ende die Kontrolleure kontrolliere. Imbusch wünscht sich einen zeitnahen, gesellschaftlichen Diskurs darüber, was wie von wem gemacht werden könne und dürfe, denn, so mahnt er abschließend: „In der Vergangenheit wurden wir ja bei einigen technischen Entwicklungen auf diesem Gebiet zu stillen Komplizen degradiert und sind erst aufgewacht, als es quasi schon zu spät war. Das darf oder sollte nicht wieder passieren!“