Als Sprecher der Fachgruppe „Informatik und Ethik“ der „Gesellschaft für Informatik“ beschäftigt sich Dr. Stefan Ullrich intensiv mit den moralischen Fragen der Digitalisierung. Diese knüpfen daran an, worüber schon die alten Griechen oder Hannah Arendt nachgedacht haben: Für eine digitale Ethik benötigt man gesellschaftlich anerkannte Werte und Menschen, die sich dafür einsetzen, diese zu schützen. Klar ist: IT-Experten nehmen hierbei im digitalen Zeitalter Schlüsselpositionen ein. Die Fragen stellte André Boße.
Zur Person
Stefan Ullrich ist promovierter Informatiker und Philosoph, der sich kritisch mit den Auswirkungen der IT-Systeme in der Gesellschaft beschäftigt. Er ist Leiter der Forschungsgruppe „Verantwortung und das Internet der Dinge“ am Weizenbaum-Institut für die vernetzte Gesellschaft. Seit 2019 ist Stefan Ullrich Mitglied der Sachverständigenkommission für den Dritten Gleichstellungsbericht der Bundesregierung. Er ist stellvertretender Sprecher der Fachgruppe „Informatik und Ethik“ der deutschen Gesellschaft für Informatik, zudem Mitglied des Forums Informatikerinnen und Informatiker für Frieden und gesellschaftliche Verantwortung (FIfF e.V.) sowie des Arbeitskreises Ethik der Initiative D21.
Herr Ullrich, wann haben Sie auf Ihrem Karriereweg zum ersten Mal die Erkenntnis gehabt, dass Informatik und Ethik zusammengedacht werden müssen?
Während der ersten Semester an der Humboldt-Uni zu Berlin habe ich die Vorlesung „Informatik und Gesellschaft“ bei Wolfgang Coy besucht, der die Informatik im Kontext betrachtet hat – und eben nicht als von der Gesellschaft losgelöste Ingenieurwissenschaft. In einer Vorlesung las er uns das „Bekenntnis des Ingenieurs“ vor, das unmittelbar nach dem Zweiten Weltkrieg entstanden war, in Anbetracht der entscheidenden Rolle der Technik für das Wohl und Wehe der Person. Darin heißt es, dass sich alle Technikberufe mit den Werten beschäftigen müssen, die jenseits von Wissen und Erkennen liegen. Als „Techie“ erschien mir das zunächst sehr schwammig: Was sollen denn Werte sein, die wir nicht wissen und erkennen können? Dann wurde mir klar, dass es die Beschäftigung mit moralischen Fragen ist, die damit gefordert wurde.
Sie bezeichnen sich selbst als „Kritischen Informatiker“. Sollte dieser kritische Blick auf das eigene berufliche Tun nicht bei jedem dazugehören?
Die „kritikē téchnē“ der alten Griechen bezeichnete die Kunst, Sachverhalte voneinander zu unterscheiden und klar zu definieren. Insofern sind eigentlich alle Wissenschaften kritisch, allein etymologisch, da haben Sie Recht. In Bezug auf die Informatik soll es deutlich machen, dass wir Informatiker*innen uns bewusst sind, dass informationstechnische Systeme zur Verstärkung von Herrschafts- und Unterdrückungsmechanismen der bürgerlichen Gesellschaft verwendet werden können und auch werden. Wir wissen, dass dieses einzigartige Werkzeug für die Mündigkeit des Menschen pervertiert werden kann – und auch wird. Und zwar, um einen Großteil der Bevölkerung unmündig zu halten. Dagegen wehren sich die sogenannten Kritischen Informatiker.
Sie sind Diplom-Informatiker und Magister-Philosoph. Nun kannten die klassischen Philosophen größtenteils die Informatik noch nicht. Welche ihrer Erkenntnisse sind dennoch wichtig, um heute Informatik und Ethik zusammenzudenken?
Im Platonischen Mythos ist der ägyptische Gott Theuth nicht nur der Erfinder der Buchstaben, sondern auch der der Zahl, der Rechnung, der Messkunst und des Würfelspiels. Das macht Theuth zum Erfinder zentraler Bausteine der Digitalisierung! Die klassischen Philosophen kämen also mit der Informatik gut klar. Ein wiederkehrendes Thema ist seit jeher die Ambivalenz der Technik: Sie kann zum Guten wie zum Schlechten eingesetzt werden. Nehmen wir große Datensammlungen: Daten sind ein wunderbares Werkzeug der Aufklärung, schauen Sie sich im Netz einmal die Vorträge von Hans Rosling an, der mit Hilfe von Daten mit dem Mythos der sogenannten unterentwickelten Länder aufräumt. Daten werden jedoch auch dazu genutzt, Menschen besser zu manipulieren, sie dazu zu bringen, bestimmte Produkte zu kaufen oder bestimmte Personen zu wählen. Daten können sogar Existenzen zerstören, als „Weapons of Math Destruction“, wie es Cathy O‘Neil formuliert. Der ungeheuerliche Charakter großer Datensammlungen sollte uns zur moralischen Reflexion zwingen, denn letztendlich bestimmen wir, ob und wie wir die Technik einsetzen.
Der ungeheuerliche Charakter großer Datensammlungen sollte uns zur moralischen Reflexion zwingen, denn letztendlich bestimmen wir, ob und wie wir die Technik einsetzen.
Im Zuge der Pandemie erhält man häufig den Eindruck, eine stärkere Digitalisierung sei in der Lage, viele der Probleme zu lösen, zum Beispiel mit Blick auf Kontaktverfolgung, Bildung oder New Work. Überschätzt die Gesellschaft das Lösungspotenzial von IT-Techniken?
Die Frage ist, ob die sogenannte Digitale Revolution wirklich so progressiv ist, wie wir gern annehmen wollen. Die Digitalisierung, so es sie denn gibt, ist heutzutage untrennbar mit dem Leitmotiv „Effizienz“ verbunden. Alle Probleme, die sich mit einer Effizienzsteigerung lösen lassen, können durchaus von der Digitalisierung profitieren. Die vielleicht wichtigsten Aufgaben der Menschheit gehören jedoch nicht dazu: Gleichberechtigung, gesellschaftliche Teilhabe, Demokratie, Bildung, Pflege, Freundschaft, Liebe – all das sind Dinge, die wir eben nicht „effizienter“ gestalten sollten, sondern vielleicht „inklusiver“, „intensiver“ und „nachhaltiger“.
Die Regeln, Normen und Gesetze im öffentlichen Raum sind gelernt, wir halten sie ein – und wissen, was uns blüht, wenn wir es nicht tun. Im digitalen Raum ist das noch anders. Entwickelt sich endlich eine Art Regel-Kodex für diesen digitalen Raum?
Ich glaube, ich weiß, worauf Sie mit dieser Frage hinauswollen. Aber die Erklärung für ein Phänomen wie „hate speech“ liegt nicht in einer vermeintlichen Gesetzeslosigkeit im digitalen Raum. Es gibt schlicht keine rechtsoder regelfreien Räume im Digitalen. Mehr noch, es gibt diesen einen digitalen Raum nicht, schon gar nicht losgelöst von der uns umgebenden physikalisch- haptischen Welt. Was es jedoch sehr wohl gibt, sind Gesetzmäßigkeiten, die bestimmte Verhaltensweisen unterstützen und andere bremsen. Provozierende Texte und Memes werden häufiger kommentiert und geteilt als Inhalte, die man einfach nur mag. Das gefällt dem Troll ebenso wie dem Werbenetzwerk, auf dem diese menschenverachtenden Inhalte gepostet werden.
Also keine Chance für einen funktionierenden digitalen Kodex?
Für wen sollte der funktionieren? Auch eine rassistische oder sexistische Gesellschaft würde ja für diejenigen „funktionieren“, die zum Beispiel allein das Bruttoinlandsprodukt als Maßstab nehmen. Nein, wir müssen über die Bedingungen sprechen, wie dieser Kodex gefunden wird und welche Rolle er für die Menschen einnehmen soll. Sie sehen, wir sind wieder bei der Diskussion über die Werte einer Gesellschaft.
Forschungsgruppe „Verantwortung und das Internet der Dinge“
Anspruch der von Stefan Ullrich geleiteten Forschungsgruppe ist es, das Feld „Verantwortung und das Internet der Dinge“ umfassend zu kartieren und neue Beiträge zu ungeklärten Fragen rund um die ubiquitäre (also allgegenwärtige) Verantwortung zu leisten. Die Verantwortung der technisch Handelnden sei seit der Antike ein wiederkehrendes Thema in der Wissenschaft und Politik, heißt es in der Beschreibung des Forschungsauftrags. „Mit wachsenden Gestaltungsoptionen erweitert sich nun auch der Umfang der Verantwortung. Im Rahmen unserer Forschung betrachten wir den Begriff sowohl aus ethisch-moralischer und juristischer Sicht als auch im Hinblick auf technische Umsetzbarkeit.“
Welche Rolle können Informatiker dabei spielen?
Wir sollten für die Diskussion über einen solchen Kodex eine digitale Öffentlichkeit schaffen. Eine solche entsteht aber nur, wenn wir nicht nur als Konsumenten oder Wählerstimme wahrgenommen werden, sondern diesen Raum mitgestalten. Wir sprechen heute zwar von Nutzer*innen der Online-Dienste, es wäre aber richtiger, von Genutzten oder Benutzten zu sprechen. Die eigentlichen Kunden großer Dienste-Anbieter sind ja nicht wir, sondern Werbefirmen, Parteien oder andere Organisationen. Wir, die Leute mit dem Profilbild, sind eigentlich das „target“, die Zielgruppe der Werbung. Das Flanieren auf diesem Boulevard Digital muss also gelehrt werden, und die Informatiker*innen könnten sich viel stärker in diese politische Grundbildung einbringen. In der Gesellschaft für Informatik haben wir seit Mitte der 90er-Jahre ethische Leitlinien, mit denen wir uns an die Informatiker*innen richten, die eine besondere Verantwortung durch die Gestaltung der „ungeheuren“ Technik besitzen. Dazu gehört eben auch die Aufklärung über die Funktionsweisen und Mechanismen des Digitalen.
Die Fragen der IT-Ethik stehen uns noch bevor, wenn die KI mehr noch als heute Einzug in Alltagstechniken hält, insbesondere in die Mobilität? Welche Möglichkeiten gibt es für Informatiker, schon jetzt die ethische Dimension mitzudenken?
Wir brauchen dafür dringend ein Denken, das man durchaus lernen kann, etwa durch die Lektüre der Werke von Hannah Arendt. Ich persönlich mag es sehr, mich an den von Joseph Weizenbaum aufgeworfenen Leitfragen zu orientieren: Erstens, wer ist die oder der Nutznießende unseres technischen Fortschritts und wer sind dessen Opfer? Zweitens, welche menschlichen Angelegenheiten sollten wir überhaupt dem Computer übertragen und welche prinzipiell nicht? Drittens, was ist der Mensch und welche Auswirkungen hat der Computer auf die Vorstellung von Menschenwürde? An der Beantwortung sollten wir alle inklusiv und gemeinsam arbeiten – dann haben wir übrigens auch unseren Verhaltenskodex: Habe Mut, den eigenen Verstand zu gebrauchen, auch und gerade im Digitalen!