Künstliche Intelligenz (KI) wird von Menschen für Menschen gemacht. In den Unternehmen gehört sie immer häufiger zum Alltag. Das führt zu ethischen Fragestellungen. Wie zum Beispiel kann verhindert werden, dass einer KI die gleichen Vorurteile und Diskriminierungen eingepflanzt werden, gegen die wir in der Gesellschaft kämpfen? Und kann die KI dabei helfen, diese Ungerechtigkeiten aufzudecken? Ein Essay von André Boße
Das Zeitalter der Künstlichen Intelligenz hat begonnen – und es lässt sich auch durch die Pandemie nicht aufhalten. Und das internationale Marktforschungsunternehmen Gartner hat in einer Untersuchung herausgefunden, dass fast die Hälfte der befragten Unternehmen trotz Corona an den Investitionen im Bereich KI festhalten wird, drei von zehn wollen diese sogar noch erhöhen. Wohlwissend, dass die Pandemie die Herausforderungen von morgen noch verschärft und es sich auszahlen wird, jetzt in die Zukunft zu investieren. Denn in dieser wird KI eine immens große Rolle spielen, da sind sich die Unternehmen ziemlich einig: Laut einer Analyse der Beratungsgesellschaft PwC glauben 85 Prozent der Befragten, dass die KI das Business in den kommenden fünf Jahren signifikant verändern wird. Und zwar – und diese Aussage hat es in sich – stärker noch als seinerzeit der Wandel durch das Internet. Worauf es nun ankomme? Den „Skills Gap“ zu füllen, wie die Experten bei PwC in ihrem Report schreiben. Dabei gehe es nicht nur darum, KI- und Daten-Spezialisten zu finden. „Genau so wichtig ist es, die Mitarbeitenden zu qualifizieren, damit sie KI-Systeme anwenden können“, heißt es im Report.
Die KI ist also bald überall zu finden, auf den Shopfloors und im Office, im Vertrieb und in der Abteilung Human Ressources. Sie ist überall dort, wo Menschen im Unternehmen tätig sind. Nicht um sie zu ersetzen, sondern um sie bei ihrer Arbeit zu unterstützen, sie zu entlasten, ihnen Freiräume zu geben. Was dazu führt, dass man sich genau anschauen muss, welche Wechselwirkungen zwischen KI und Mensch entstehen. Denn klar ist: Es ist der Mensch, der die KI mithilfe des Maschinellen Lernens intelligent macht. Der Mensch mit seinen Vorurteilen. Seinem Weltbild. Angenommen also, eine von weißen Männern dominierte Tech-Company entwickelt ein KI-System, zum Beispiel eines zur Gesichtserkennung: Muss man dann nicht davon ausgehen, dass dieses System den Bias der Entwickler – also die einseitige und damit verfälschte Sicht auf die Welt – übernimmt? Zum Beispiel auch rassistische Vorurteile, die, wenn auch unterbewusst, in die Künstliche Intelligenz eingetragen werden?
KI per se ungerecht?
Wenn Menschen eine KI programmieren – besitzt diese dann automatisch einen rassistischen Bias? Lorena Jaume-Palasí stimmt zu. Die Politikwissenschaftlerin bewegt sich als Beraterin und Wissenschaftlerin im Spannungsfeld zwischen digitaler Technik und Ethik, als Sachverständige ist sie für das Europäische Parlament und die Europäische Kommission tätig. Ihre These: „Die Programme sind automatisch rassistisch, weil die Gesellschaft, in der wir leben rassistisch ist.“ Rassismus sei ein strukturelles Problem unserer westlichen Gesellschaft. „Die Künstliche Intelligenz spiegelt die Ausgangslagen, Selbstverständlichkeiten und Regeln der Kultur, aus der heraus sie entsteht.“
Deutsche vertrauen KI in High-Tech
Laut des Reports „KI-Zukunftskompass“ von Bosch befürworten mehr als zwei Drittel der Deutschen KI-basierte Lösungen bei der Fehlerdiagnose von Maschinen, bei der industriellen Produktion von Waren und Maschinen sowie in der Raumfahrt und anderen High-Tech-Bereichen. Hier sei das Vertrauen in die Möglichkeiten der KI vonseiten der Bevölkerung bereits groß. In Einsatzgebieten, die eher mit Menschenkontakten zu tun haben, etwa in der Krankenpflege oder bei der finanziellen Anlageberatung, seien die Zustimmungsraten für den KI-Einsatz laut Studie mit 40 Prozent bzw. 31 Prozent deutlich geringer.
KI ist also nie neutral, alle ethischen Probleme der Gesellschaft finden sich in ihr wieder. Auch Rassismus und Diskriminierung. Was aber nicht heißt, dass die KI nicht helfen kann, dagegen anzukämpfen. „Wenn wir Künstliche Intelligenz dazu bringen, das, was passiert, zu beschreiben, dann kann sie für uns Diskriminierungsmuster offenlegen, die sich unserem Auge entziehen“, sagt Lorena Jaume-Palasí. Wenn die Menschen die Daten richtig interpretieren, dann könnten mit ihrer Hilfe Asymmetrien gezeigt werden, „von denen wir gar nicht wussten, dass sie existieren. Wir sollten daher davon ausgehen, dass Künstliche Intelligenz tatsächlich weniger Antworten gibt, als dass sie uns dabei hilft, neue Fragen zu stellen.“
Transparenz schafft Vertrauen
Wenn heute also verstärkt KI-Systeme in der Praxis in den Unternehmen oder auch im gesellschaftlichen Leben eingesetzt werden, dann ist es wichtig, transparent zu machen, wie das Maschinelle Lernen vonstatten geht. Studien zeigen, dass die Menschen bislang durchaus Vertrauen in KI-Lösungen haben. Der „KI-Zukunftskompass“ des Technologiekonzerns Bosch zum Beispiel hat bei einer Befragung festgestellt, dass 53 Prozent der Deutschen den Einsatz von KI positiv, 36 Prozent eher negativ einschätzten. Dabei gelte: Je mehr die Menschen über diese Technik und ihre Methoden wissen, desto größer ist das Vertrauen. „So bewerten 81 Prozent aller Befragten, die sich selbst als technologieaffin und informiert einschätzen, Künstliche Intelligenz als grundsätzlich positiv. In der Gruppe derjenigen, die sich selbst für weniger techniknah und eher weniger informiert halten, sind es 27 Prozent.“ Der Einsatz von Künstlicher Intelligenz wird umso positiver bewertet, je größer Vorwissen und Vertrautheit sind. Entsprechend wichtig sind Informationen und Transparenz, gerade mit Blick auf die ethischen Grundprinzipien.
KI-Ethik-Label soll Orientierung geben
Woran jedoch lässt sich erkennen, ob und welche Standards bei der Programmierung eingesetzt wurden? Die AI Ethics Impact Group, ein 2019 gegründetes interdisziplinäres Konsortium unter Leitung des Verbands der Elektrotechnik, Elektronik, Informationstechnik (VDE) und der Bertelsmann Stiftung, hat dazu das Konzept eines KI-Ethik-Labels entwickelt, das optisch bewusst Bezug auf die Energieeffizienz-Label nimmt. Die Gruppe hat für den Report „From Principles to Practice“ sechs ethisch relevante Eigenschaften von KI-Systemen definiert: von der Transparenz über die Gerechtigkeit bis hin zur umweltbezogenen Nachhaltigkeit. Ob und welches KI-Ethik-Label ein Produkt oder eine Dienstleistung erhält, entscheidet sich anhand eines Modells, das die ethischen Werte messbar machen soll.
Nur wenige fürchten den Arbeitsplatzverlust durch Einsatz Künstlicher Intelligenz
Im November 2020 ging es im Rahmen des Meinungsmonitors Künstliche Intelligenz [MeMo:KI] um die Frage: Wie nimmt die Bevölkerung den Einfluss von Künstlicher Intelligenz auf die Arbeitswelt wahr? Demnach erwarten die Bürger*innen mittelfristig nur wenig Veränderung im eigenen Arbeitsumfeld. Diejenigen, die Veränderungen erwarten, unterscheiden deutlich zwischen verschiedenen Aspekten des Arbeitslebens: Während hinsichtlich des Arbeitsschutzes, Anforderungen an notwendige Kompetenzen und Arbeitsbelastung der KI gute Chancen eingeräumt werden, erwarten die meisten Schwierigkeiten bei der Pflege sozialer Kontakte, der Einkommensentwicklung oder der Mitbestimmung am Arbeitsplatz. „Besonders große Befürchtungen gibt es hinsichtlich des Umgangs mit Daten und des Überwachungspotenzials am Arbeitsplatz. Einen Arbeitsplatzverlust für sich und Personen aus dem privaten Umfeld oder gar Massenarbeitslosigkeit befürchten aber nur die wenigsten“, so Studienleiter Prof. Dr. Frank Marcinkowski.
Eine weitere Entwicklung der AI Ethics Impact Group ist eine Risikomatrix, die zusätzlich differenziert, in welchen Bereichen ein KI-System welche potenziell gefährdende Wirkung erzeugen kann. Als Beispiel wird ein auf KI basierendes Online-Empfehlungssystem für Konsumenten genommen: Geht es hier um personalisierte Empfehlungen für Kleidung, sind kaum schwerwiegende ethische Implikationen für den Nutzer zu erwarten. Das ändert sich, wenn der Nutzer über das System Job-Angebote oder politische Werbung erhält. Bei Empfehlungen von medizinischen Produkten oder Therapien erreicht die Risikobewertung ein noch höheres Level: „Es ist klar, dass diese Systeme unterschiedlich behandelt werden müssen“, heißt es im Report.
KI-Roll-Out als Führungsaufgabe von morgen
Wer beim Thema der Künstlichen Intelligenz über Verantwortung und Ethik spricht, darf eines nicht vergessen: In den Unternehmen findet ein Roll-Out dieser Systeme gerade auf den unteren Ebenen statt. Zum Bespiel dort, wo die KI im Zusammenspiel mit dem „Industry Internet of Things“ für eine ganz andere Art der Arbeit sorgen wird. Es wird für Führungskräfte und KI-Spezialisten in den Unternehmen darauf ankommen, diese Systeme so in Anwendung zu bringen, dass die Menschen, die dort arbeiten, das Gefühl der Teilhabe erhalten. Diese Integration der KI in die bestehenden Arbeitsstrukturen wird eine zentrale Leadership-Aufgabe für den Führungsnachwuchs sein.
„KI-Debatten, die ausschließlich im Elfenbeinturm stattfinden, sind nutzlos“, heißt es dazu in einem Report des sozialpartnerschaftlichen Forschungsprojekts „Künstliche Intelligenz“, das in Kooperation von IBM, der Gewerkschaft Verdi sowie dem Bundesministerium für Arbeit und Soziales entstanden ist. „Wenn KI-Anwendungen heute in Betrieben zum Einsatz kommen sollen, geht es um eine Vielzahl sehr realer Fragen und um den konkreten Anwendungskontext: Wie werden die Mitarbeiter*innen, die mit einer KI-Anwendung arbeiten werden, bei deren Implementierung einbezogen? Wie wirkt sich die KI-Anwendung auf die Arbeitssicherheit und den Arbeitsschutz aus? Welchen Effekt hat die KI-Anwendung auf die Arbeitszufriedenheit?“
Will die KI das Ziel erreichen, Menschen zu unterstützen, zu entlasten und für sie neue Freiräume zu erschaffen, dann müssen diese Leute von Beginn an Teil der Debatte sein. In den Unternehmen, wo Führungskräfte diese Diskussionsräume zur Verfügung stellen müssen. Aber natürlich auch in der Gesellschaft, wo KI-Systeme dafür sorgen können, dass Menschen besser mit Behörden interagieren, dass Unternehmen neue Geschäftsmodelle entwickeln, dass die Forschung unterstützt wird – und nicht zuletzt, dass die Künstliche Intelligenz dabei hilft, Diskriminierungen aufzudecken.
Förderinitiative „Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen“
Welche Chancen bietet KI? Wo liegen Risiken? Und vor allem: Was bedeuten neue Technologien für die Gesellschaft – und für jeden Einzelnen? Zur Beantwortung dieser Fragen, die neben den technischen auch die ethischen, moralischen und normativen Folgen der Entwicklungen betrachten, muss auch die Wissenschaft beitragen. Damit Technik- und Gesellschaftswissenschaften hierfür ihre Kompetenzen bündeln, schafft die VolkswagenStiftung mit ihrer Förderinitiative „Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen“ den Rahmen für interdisziplinäre Forschungsverbünde und ermöglicht durch die fachübergreifende Zusammenarbeit Perspektivwechsel, die neue Einsichten und Lösungsansätze eröffnen.
KI und die Zukunft der Arbeit
Wohin die Reise für KI gehen könnte, darüber sprach auch Dr. Kai-Fu Lee, CEO von Sinovation Ventures und Präsident des Artificial Intelligence Institute, im Februar 2021 im Rahmen der Digitalkonferenz DLD in seinem Vortrag „AI and the Post Work World“ – sein Beitrag wurde auf Youtube veröffentlicht. Darin zählt er vier KI-Wellen auf, die sämtliche Sektoren verändern werden. Stichwort: Disruption. Und alle vier Wellen – Internet AI, Business AI, Perception AI, also auf Wahrnehmung basierende KI, sowie Autonomous AI – wurden bereits ausgelöst. Sie werden in den kommenden Dekaden nicht nur die Unternehmen, sondern auch die Arbeit der Menschen verändern.
So prophezeit Kai-Fu Lee, dass sämtliche Jobs in den „Händen“ von Maschinen landen werden, in denen Standardaufgaben zu erledigen sind, die mit Routine zu tun haben und die auf Optimierung ausgelegt sind. Letzteres könnte beispielsweise Radiologen betreffen, da entsprechende Programme beispielsweise Röntgenbilder besser auswerten werden können als Menschen. Einzig jene Jobs, in denen es um die Kombination verschiedener Bereiche und Kreativität gehe, seien vorerst vor KI „sicher“. Was also tun? Abwarten sei keine Lösung, so Kai-Fu Lee. Sein Rat, der allerdings nicht neu ist, ist das lebenslange Lernen. Wir Menschen müssen uns, um auf die Zukunft vorbereitet zu sein, die Frage stellen: Was kann KI nicht? KI kann nicht kreativ sein und sie kann keine Konzepte entwickeln, KI kann weder Empathie noch Mitgefühl empfinden und sie kann keine komplexen physikalischen Arbeiten ausführen. Anpassung wird also für den Menschen laut seinen Ausführungen das Gebot der Gegenwart sein.
Buchtipp: Die Simulation
Unter den vielen Romanen und Sachbüchern über die Künstliche Intelligenz gehört „Die Simulation“ von Matthias Clostermann zu den besonders interessanten: Der Autor lässt seinen Protagonisten eine KI erfinden, die in der Lage ist, die wirkliche Welt lebensecht zu simulieren. Ist das endlich der Ausweg aus dem harten wahren Leben? Schon bald merkt der Held, dass diese Simulation erstens süchtig macht und zweitens nicht dazu führt, dass die wirklichen Probleme verschwinden. Im Gegenteil … Matthias Clostermann: „Die Simulation: Die perfekte Illusion. Die perfekte Droge.“ Books on Demand 2020, 11,99 Euro.