Dieses Jahr war ich zum ersten Mal beim Digitalgipfel der Bundesregierung. Ich kam mir vor wie auf einer Kaffeefahrt. Vor allem aber hatte ich den Eindruck, in ein Paralleluniversum einzutauchen. Nicht nur deshalb, weil ich kaum jemanden kannte, sondern auch weil mir vertraute Themen in einer Art präsentiert wurden, die aus einer anderen Welt zu kommen schien.
Gaia-X
Gleich beim ersten Programmpunkt „Manufacturing-X – vom Fabrik- zum Digitalausrüster der Welt“ fühle ich mich wie im falschen Film. Dort wurde Gaia-X als erfolgreiches Vorbild dargestellt, auf dem andere Projekte wie „Manufacturing-X“ aufbauen können.
Aufgrund der Berichte, die ich über Gaia-X gelesen habe, war ich davon ausgegangen, dass das Projekt gescheitert ist. Zumindest aber wurden schwere Fehler gemacht. Kleine und mittlere Unternehmen, die Lösungen anbieten, die für die Gaia-X relevant sind, wurden anfangs gar nicht eingeladen (vgl. Frage 12 im Fragenkatalog zur Anhörung im Digital-Ausschuss des Bundestags am 28. Oktober 2020). Google, Microsoft und Amazon AWS dagegen gehörten zu den Gründungsmitgliedern der Gaia-X Foundation, obwohl Gaia-X das Ziel hat, die europäische WIrtschaft von den großen amerikanischen (und chinesischen) Digitalkonzernen unabhängiger zu machen.
Immerhin wurde auch die Open Source Business Alliance mit 15 Millionen gefördert, um den technischen Unterbau für Gaia-X zu entwickeln. Außerdem konnte sich Nextcloud gegen Google und Microsoft durchzusetzen und hat den Zuschlag für die Kollaborationsplattform erhalten, über die die projektinterne Kommunikation und Kollaboration für Gaia-X abgewickelt wird.
Allerdings dominieren die großen US-Konzerne die Arbeitsgruppen von Gaia-X schon allein aufgrund der Ressourcen, die sie dafür mobilisieren können. Diese haben sie genutzt, um die Arbeit mit einer Unzahl an Änderungsanträgen zu verzögern. Die kleinen Anbieter und FOSS-Projekte haben wegen fehlender Ressourcen kaum eine Chance, dagegen zu halten. Das französische Unternehmen Scaleway hat deshalb im November 2021 entnervt aufgegeben. Im März 2022 hat die Bundesregierung die Finanzierung des Projekts beendet. Im Haushalt sind nur noch Mittel für bereits zugesicherte Projekte vorgesehen.
Es mag sein, dass Gaia-X nicht komplett gescheitert ist. Zum Gaia-X-Summit im November 2022 stellte das Projekt einen Katalog für Gaia-X-konforme Dienste online und präsentierte acht „Leuchtturmprojekte“. Dennoch taugt das Projekt nicht als simples Vorbild, sondern bestenfalls als Modell, aus dessen Fehlern zu lernen wäre.
Open Source
„Open Source“ war ein wichtiges Stichwort in den meisten Podien. Die Moderatorinnen fragten auch immer nach, ob das gerade vorgestellte Projekt auch „Open Source“ sei. Aus der Free and Open Source Community war aber anscheinend niemand vertreten. Auf den Podien schon gar nicht. Und auch unter den Teilnehmerinnen und Teilnehmern ist mir niemand aufgefallen. Auch wenn die meisten der vorgestellten Projekte irgendwie „Open Source“ waren: Der Begriff „Free Software“ wurde vermieden. Insgesamt hinterließ die Veranstaltung den Eindruck, dass die angekündigten Fördermittel für Open-Source-Projekte nicht an kleine Unternehmen wie Nextcloud gehen oder Projekte wie das Fediverse, sondern an Deutsche Telekom, SAP und Microsoft.
Human-centered Artificial Intelligence
Das Podium „KI für nachhaltigere Produktions- und Unternehmensprozesse“ begann gleich mit einer sehr kreativen Interpretation von „Human-centered Artificial Intelligence“. Corina Apachiţeø, Program Head Artificial Intelligence and Data bei der Continental Automotive Technologies GmbH, erläuterte, dass die KI, die sie entwickelt, deshalb „human-centered“ sei, weil sie die Menschen nachahmt und so sukzessive menschliche Arbeit und menschliches Erfahrungswissen ersetzt.
Das ist das Gegenteil dessen, was „Human-centered Artificial Intelligence“ meint: Künstliche Intelligenz so zu entwickeln, dass sie den Menschen dient und sich nicht die Menschen der Maschine unterordnen müssen.
Das impliziert erstens, dass Künstliche Intelligenz nicht mit dem Ziel entwickelt wird, menschliche Arbeit zu ersetzen, sondern Arbeit zu erleichtern und die menschliche Handlungsfähigkeit zu erweitern. Daraus folgt zweitens, dass Künstliche Intelligenz nicht einfach durch die Imitation menschlichen Denkens entsteht, sondern indem die spezifischen Möglichkeiten digitaler Algorithmen genutzt werden. Tatsächlich beruhen die aktuellen Erfolge im Bereich schwacher Künstlicher Intelligenz darauf, dass die Lösungswege nicht mehr vorgegeben werden, sondern dass die Maschinen die Lösungswege „selbst finden“, indem sie verschiedene statistische Verfahren durchprobieren, bis ein brauchbares Ergebnis herauskommt. Das bedeutet drittens, dass menschliche und künstliche Intelligenz komplementär eingesetzt werden.
Natürlich kann schwache künstliche Intelligenz auch sinnvoll genutzt werden, um körperlich oder psychisch belastende Tätigkeiten zu ersetzen. Aber auch dafür kann es einfacher und effektiver sein, nach einer eigenen, für die Maschine passenden Lösung zu suchen, anstatt die menschlichen Bewegungsabläufe zu imitieren. Und es kann sinnvoller sein, Arbeit durch Assistenzsysteme zu erleichtern, anstatt sie vollständig durch Maschinen zu ersetzen.
Unsicher wie ich bin, habe ich – wieder zu hause angekommen – erst einmal nachgeschlagen, was Mike Cooley, der den Begriff „Human-centered Systems“ vor vierzig Jahren eingeführt hat, dazu schreibt. Er wendet sich gegen eine Idee von Künstlicher Intelligenz, die das Ziel hat, menschliches Erfahrungswissen zu ersetzen:
Yet, far from optimising human resources, we seem determined to design systems such as to marginalise human intelligence and tacit knowledge and even seek to preclude them as a form of system disturbance. (Cooley 2020, S. 121)
Das beschreibt ziemlich genau die Art und Weise, wie Corina Apachiţe die Entwicklung künstlicher Intelligenz versteht. Statt dessen fordert Cooley dazu auf, menschliche und künstliche Intelligenz komplementär einzusetzen:
The computer and the human mind have quite different but complementary abilities. The computer excels in analysis and numerical computation. The human mind excels in pattern recognition, the assessment of complicated situations and the intutive leap to new solutions. (Cooley 2020, S. 130)
Manche werden nun einwenden, dass bei der Mustererkennung inzwischen so große Fortschritte gemacht wurden, dass Künstliche Intelligenz den Menschen auch darin überlegen ist. Aber auch dieser Erfolg bezieht sich auf die Wahrscheinlichkeit, mit der Algorithmen Muster in großen Datenmengen identifizieren. Für den Einzelfall verlassen wir uns immer noch auf die menschliche Wahrnehmung. Deshalb wird bei Anwendungsgebieten wie der Inhaltsmoderation auf Social-Media-Plattformen das Ergebnis der automatischen Mustererkennung einer menschlichen Überprüfung unterzogen.
Ein entscheidender Punkt ist die menschliche Fähigkeit, mit Unsicherheit umzugehen:
Good design is generally regarded as that which reduces uncertainty … A richer way of viewing this would be that the human capacity to handle uncertainty actually contributes to systems robustness. (Cooley 2020, S. 121)
Explainable AI
Der erste Tag schloss mit dem Podium „Explainable AI – warum es wichtig ist, Verbraucher*innen künstliche Intelligenz zu erklären“, bei dem das Zentrum für vertrauenswürdige Künstliche Intelligenz (ZVKI) vorgestellt wurde.
Das Ziel des Zentrums wird anhand eines Video-Einspielers eingeführt, in dem erläutert wird, wie kommerzielle Social-Media-Plattformen Algorithmen einsetzen, um mich als Nutzer auf der Plattform zu halten, um dort meine Zeit zu vergeuden. Der Einspieler enthält auch einen Hinweis auf „alternative Open-Source-Plattformen“, bei denen das anders sei, die allerdings in der Verbreitung weit hinter den kommerziellen Plattformen zurückblieben.
Dem entsprechend nutzt das Zentrum einen Instagram-Kanal, verzichtet aber auf eine Präsenz im Fediverse. Das mag zwar im Hinblick auf das Ziel sinnvoll sein, Menschen zu erreichen, die sich nicht sowieso schon mit der Funktionsweise von Algorithmen auf Social-Media-Plattformen auseinandersetzen. Aber wer die Macht der großen digitalen Plattformen brechen will, sollte Alternativen auch schon dann nutzen, wenn noch unklar ist, ob sie sich durchsetzen werden.
Carla Hustedt, Leiterin Digitalisierte Gesellschaft der Stiftung Mercator, erläutert anschließend, was „Explainable AI“ bedeutet. Sie sagt genau das, was ich in den letzten Jahren darüber gelernt habe, nur viel besser als ich es sagen könnte. Aber gerade als es spannend wird und sie sich dem nähert, was ich noch nicht weiß, ist es vorbei. Ihre Redezeit ist abgelaufen. Das ist ein unvermeidlicher Nebeneffekt dieser Art von Veranstaltung: dass die Themen in der Kürze der Zeit nur sehr oberflächlich behandelt werden können.
Daten und Gute Arbeit
Markus Beckedahl schreibt ins seiner Kolumne bei Netzpolitik.org, dass die Zivilgesellschaft „nur am Katzentisch im Publikum Platz nehmen“ durfte. Immerhin einen Katzentisch gab es auch auf dem Podium: Das Panel zu Algorithmen in der Arbeitswelt mit Hubertus Heil, Jörg Hofmann, Johanna Wenckebach und Sonja Köhne. Dieses Podium war ein Fremdkörper, weil kein Regierungsprojekt vorgestellt wurde, sondern Gefahren und Chancen automatisierter Entscheidungssysteme in der Arbeitswelt gegenübergestellt wurden.
Johanna Wenckebach, Direktorin des Hugo-Sinzheimer-Instituts, versuchte ihre kurze Redezeit zu nutzen, um auf „die Machtfragen und die sozialen Fragen der digitalen Transformation“ hinzuweisen: Datenschutz, Schutz gegen Diskriminierung durch Algorithmen, Arbeits- und Gesundheitsschutz, Mitbestimmung. Zu mehr als einer Auflistung reicht die Zeit aber auch hier nicht.
Bis auf einige Ausreißer – wie dem Statement des Bitkom-Geschäftsführers Bernhard Rohleder im Einspieler-Video – wurde auf diesem Podium kein Produkt oder Projekt angepriesen. Zwar lag auch hier der Fokus auf der Frage, welche positiven Möglichkeiten algorithmische Datenauswertungen für die Arbeitswelt bieten, aber es wurde nicht unterschlagen, dass algorithmisches Management in der Realität eher einer Dystopie gleicht.
Eigentlich dürfte die Perspektive der Beschäftigten nicht nur auf diesem einen Podium vertreten sein. Denn schließlich sind es die Beschäftigten in den Unternehmen, die die digitale Transformation vorantreiben.
One of the most precious assets any company, organisation or country possesses is the skill, ingenuity, creativity and enthusiasm of its people. (Cooley 2020, S. 121)
Das sollte erst recht für Deutschland gelten, einem Land, das seine wirtschaftliche Stärke den gut ausgebildeten Fachkräften verdankt, dem dualen System der Berufsausbildung (um das uns andere Länder beneiden, während viele Unternehmen hierzulande es sträflich vernachlässigen) und der Mitbestimmung in der Arbeitswelt und der Berufsausbildung. Nicht einmal die Wissensarbeit und ihre Organisationen waren auf dem Digital-Gipfel vertreten.
Fazit
Was bleibt? Die Erkenntnis, dass Begriffe wie „Open Source“ oder „human-centered Design“, die für mich noch eine klare und kritische Bedeutung haben, inzwischen zu nichtssagenden Buzzwords des Regierungs-Marketings geworden sind.
im Nachhinein fällt mir auf, dass dieser Bericht sehr negativ ausgefallen ist – vielleicht zu negativ. Tatsächlich wurden auch viele Projekte vorgestellt, die an sich sehr interessant klangen. Aber die Art und Weise der Präsentation voller Buzzwords und Marketing-Sprech hat auf mich nicht gerade vertrauenswürdig gewirkt. Ich kann schlicht und einfach nicht beurteilen, ob nicht auch hinter diesen Projekten nur heiße Luft steckt.
Literatur
- Cooley, Mike (2020): Humand Centered Systems. In: Ders., The Search for Alternatives: Liberating Human Imagination: A Mike Cooley Reader. Nottingham: Spokesman, S. 121–136 (ursprünglich 1987 in der Zeitschrift AI & Society erschienen).