StartKünstliche IntelligenzKI-Anwender Dr. Andreas Liebl im Interview

KI-Anwender Dr. Andreas Liebl im Interview

Dr. Andreas Liebl ist Managing Director und Gründer der Initiative appliedAI, die es sich zur Aufgabe gemacht hat, KI-Systeme in Unternehmen in Anwendung zu bringen. Im Interview erzählt er, warum Europa und Deutschland bei den KI-Anwendungen im globalen Vergleich aufholen müssen und wieso es wichtig ist, eine vertrauenswürdige und unvoreingenommene KI zu entwickeln. Die Fragen stellte André Boße

Zur Person

Dr. Andreas Liebl ist Managing Director der appliedAI Initiative und des appliedAI Institute for Europe. Sein Ziel: „Europas Innovationskraft in der KI zu gestalten.“ Um das zu erreichen, arbeitet er daran, Organisationen auf den höchsten Stand der KI-Reife zu bringen und modernste KI-Anwendungen zu entwickeln. Er ist Mitglied des Lenkungsausschusses der Global Partnership on AI und fungiert neben anderen beratenden Funktionen als Experte für Innovation und Kommerzialisierung. Zuvor war er einer der Geschäftsführer der gemeinnützigen UnternehmerTUM GmbH, arbeitete für McKinsey und promovierte an der Technischen Universität München.

Herr Dr. Liebl, wie bewerten Sie aktuell die Stellung Europas und Deutschlands bei der Entwicklung und Anwendung von KI-Systemen?
Aktuell liegen wir in Deutschland und Europa im Vergleich zu anderen Regionen wie den USA oder China klar zurück, was die Entwicklung und Anwendung von KI-Systemen betrifft. China investiert sehr viel von staatlicher Seite aus und arbeitet mit starkem Fokus daran, KI in der breiten Anwendung zu etablieren, wie man beispielsweise beim Finanztechnologie-Unternehmen Ant Financial sehen kann. In den USA entwickeln aktuell die großen Digitalkonzerne und Start-ups führende KI-Anwendungen und erobern Märkte.

Warum sind Europa und Deutschland noch nicht so weit?
Weil wir uns in Europa und insbesondere in Deutschland noch sehr stark mit der Pilotierung und ersten Einsatzversuchen von KI beschäftigen. In unserer Reifegrad-Logik gesprochen befinden wir uns noch auf der Ebene eines Experimentierenden, während sich China und die USA schon fast auf der Ebene der Professionals befinden.

Wo sehen Sie bei der Anwendung von KI-Systemen aktuell die größeren Herausforderungen?
Mit Blick auf die Herausforderungen sprechen wir von einem „KI-Strategiehaus“. Dieses beginnt ganz oben bei der Ambition, wo wir uns grundlegende Fragen stellen: Wo will ich mit der KI eigentlich hin? Und welche Kompetenzen benötigen wir dafür im Unternehmen? Weiter geht es über das Management der Anwendungsfälle – verbunden mit den Fragen wie: Wie koordiniere ich ein ganzes Portfolio an KI-Anwendungen? Wann baue ich, wann kaufe ich? – und den unterstützenden Faktoren wie der Organisationsoder Infrastruktur, der Expertise oder Kultur im Unternehmen bis hin zu den Entwicklungsprozessen, wo wir uns mit der Frage beschäftigen: Wie komme ich nachvollziehbar und konform vom Prototyp bis zur Anwendung?

Es ist sehr einfach, einen Prototyp zu bauen, aber sehr schwierig, KI wirklich in die Anwendung zu bringen.

In allen diesen Kategorien finden erhebliche Fortschritte statt, aber gleichzeitig stehen wir überall noch vor riesigen Herausforderungen. Diese müssen parallel als Gesamtheit betrachtet und adressiert werden, damit man sich als Unternehmen weiterentwickelt. Nur in wenigen Dimensionen fortgeschritten zu sein, hilft leider nicht. Dabei spricht man vom „KI-Paradoxon“: Es ist sehr einfach, einen Prototyp zu bauen, aber sehr schwierig, KI wirklich in die Anwendung zu bringen.

Immer häufiger ist die KI ein Thema in den Medien, aktuell durch das für uns alle nutzbare Interface ChatGPT. Nutzen solche „Ausrufezeichen“, weil KI dadurch zumindest im Ansatz für alle erlebbar wird, oder erzeugen sie falsche Erwartungen?
Ich sehe ChatGPT als einen sehr wichtigen Meilenstein. Zwar ist die Technologie nicht die absolut neueste, aber die Umsetzung erlaubt es auf einmal einer großen Anzahl an Menschen, KI wirklich zu testen – und damit zu verstehen, was auf uns zukommen wird. Damit beginnt endlich der seit langem notwendige Diskurs über die Auswirkung von KI auf unsere Arbeitswelt und das Privatleben. Auf Expertenebene werden diese aktuellen Diskussionen seit Jahren geführt, aber gerade in Europa hat sich die Politik nicht ernsthaft damit auseinandergesetzt.

Bei welchen Job-Profilen und in welchen Branchen wird die KI in der Anwendung wirklich für Veränderungen sorgen, welche neuen Jobs werden entstehen, welche Skills sind dafür wichtig?
In der nahen Zukunft wird KI als Unterstützung für den Menschen dienen. Das bedeutet, dass es Personen geben muss, die die Ergebnisse von KI-Systemen bewerten, interpretieren und nutzen können. Dies wird im Prinzip alle Bereiche unserer Berufswelt betreffen: Juristen, Ärzte, Künstler, Bandarbeiter, Marketingteams. Dafür werden in diesen Unternehmen Offenheit und ein gewisses technisches Verständnis benötigt. Ich empfehle daher jedem, sich mit dem Thema KI auseinanderzusetzen.

Vertrauenswürdige KI bezeichnet das Grundverständnis der EU, dass KI gewissen Qualitätskriterien genügen muss, um Akzeptanz bei den Anwendern zu schaffen.

Auf Ihrer Homepage findet sich häufig die Formulierung einer „vertrauenswürdigen KI“. Was bietet diese, was andere KI-Systeme vielleicht nicht zu bieten haben?
Vertrauenswürdige KI bezeichnet das Grundverständnis der EU, dass KI gewissen Qualitätskriterien genügen muss, um Akzeptanz bei den Anwendern zu schaffen. Diese sind beispielsweise Robustheit, Genauigkeit, Transparenz und Erklärbarkeit. Da KI mit Daten trainiert wird, spricht man oft von einem Blackbox System. Ein gutes Beispiel dafür ist ChatGPT: Niemand weiß zu hundert Prozent, was ChatGPT auf eine Frage antwortet – und vor allem, wie das System genau zu dieser Antwort kommt. Auch, ob die Antwort richtig ist oder nicht, kann man nicht einschätzen. In den Medien liest man vom „Halluzinieren der KI“ oder eben der KI als „Black Box“. ChatGPT stammt aus den USA, wir in Europa haben uns zum Ziel gesetzt, ein KI-System zu entwickeln, dem wir vertrauen wollen und können. Das bedeutet, dass wir wissen wollen, warum uns gerade welche Antwort ausgespielt wird – und ob diese erfunden oder tatsächlich begründet ist. Dieses Ziel ist aus meiner Sicht absolut nachvollziehbar und erstrebenswert, wenngleich es sehr differenziert betrachtet werden muss.

Inwiefern?
KI wird vor allem bei sehr komplexen Aufgaben eingesetzt. Dabei ist eine einhundertprozentige Nachvollziehbarkeit häufig nicht möglich. Wir müssen uns also auch der Diskussion stellen, ob wir lieber sehr gute Ergebnisse mit einer gewissen Unbeherrschbarkeit wollen oder technisch absolute Nachvollziehbarkeit und Sicherheit. Ein vereinfachtes Beispiel ist, dass autonome Fahrzeuge Unfälle, insbesondere von Menschen verschuldete, drastisch verringern könnten – dies ist ein positives Ergebnis. Es wird aber auch zu Unfällen kommen, die ein Mensch nie verursachen würde – dies ist Unbeherrschbarkeit. In Europa reduzieren wir eher letzteres, während man sich in anderen Ländern eher auf ersteres fokussiert.

Wie beurteilen Sie die Debatte zu den ethischen Herausforderungen, die mit KI-Systemen einhergehen, wird diese ehrlich und transparent genug geführt?
Diese ethische Debatte ist absolut notwendig. Allerdings sollten wir uns nicht auf Fragen fokussieren, auf die Philosophen seit Jahrhunderten keine vollkommen zufriedenstellende Antwort finden, zum Beispiel moralische Dilemmata.

Wir müssen uns also auch der Diskussion stellen, ob wir lieber sehr gute Ergebnisse mit einer gewissen Unbeherrschbarkeit wollen oder technisch absolute Nachvollziehbarkeit und Sicherheit.

Weil die KI diese ewigen Probleme der Philosophie nicht lösen wird.
Genau. Stattdessen sollten wir uns mit den neu auftretenden ethischen Fragen beschäftigen, zum Beispiel: Was passiert, wenn ich bei Empfehlungssystemen wie Restaurantempfehlungen, Einkaufsplattformen oder Streaming- Plattformen immer nur die Ergebnisse angezeigt bekomme, die mir am wahrscheinlichsten zusagen – oder noch schlimmer: die mich am wahrscheinlichsten dazu bringen, die Empfehlung anzunehmen?

Worauf kommt es beim Design von KISystemen an, damit sie ethischen Ansprüchen genügen?
Die KI-Entwicklung muss von Anfang an gewisse Kriterien erfüllen, zum Beispiel Diskriminierungsfreiheit und Bias- Freiheit, was bedeutet, dass sich die KI von bestimmten Faktoren wie zum Beispiel Stereotypen nicht beeinflussen lässt, dass sie also nicht voreingenommen ist. Diese Kriterien werden vor allem durch diverse Entwicklerteams und eine klare ethische Richtlinie im Unternehmen erfüllt. Die Fähigkeit des Teams hat generell einen großen Einfluss auf die Qualität des Produkts. Aktuell werden beispielsweise Crashtests insbesondere mit Dummies männlicher Anatomie durchgeführt. Ist das positiv? Definitiv nicht. Ist es ein KIspezifisches Thema? Nein. Aber es kommt vor – und um das zu vermeiden, braucht es Standards. Diese werden derzeit auch für die KI-Entwicklung vorbereitet.

Auf welche KI-Anwendung aus der nahen Zukunft freuen Sie sich persönlich am meisten?
Auf echte KI-Anwendungen in Unternehmen, die einen deutlichen Mehrwert für uns als Kunden und für uns als Wirtschaft und Gesellschaft bringen und Wertschöpfung in Europa weiter entstehen lassen.

Zu appliedAI

Die appliedAI Initiative hat sich zum Ziel gesetzt, Europa im Rennen um KI Leadership wettbewerbsfähig zu halten und agiert dabei sowohl als Enabler als auch als Innovator. Im Zentrum der Initiative steht dabei die partnerschaftliche Zusammenarbeit und das auf der Webseite frei abrufbare Wissen. Die Bereiche dort dienen als öffentliche Plattform für Wissensartefakte, die appliedAI erstellt. www.appliedai.de

Das könnte dich auch interessieren

Multitalent an der Seite

Die Gemengelage ist diffus: Mal ist die generative KI eine Heilsbringerin, mal verantwortlich für...

Die Regenwassernutzer Louis Kott und Paul Kober im Interview

Dass Wasser eine wertvolle Ressource ist, merken wir in Deutschland vor allem in trockenen...

KI kann zu mehr Produktivität führen

Die generative künstliche Intelligenz besitzt das Potenzial, die menschliche Arbeit produktiver denn je zu...



Anzeige




Anzeige
BWI