StartBerufslebenArbeitswelt SpezialKünstliche Intelligenz verstehen und nutzen

Künstliche Intelligenz verstehen und nutzen

Generative KI bietet enormes Potenzial. Jedoch sind nicht alle Antworten und Lösungen, die ChatGPT und Co. liefern, korrekt. Wir haben Dr. Aljoscha Burchardt, Experte in Sprachtechnologie und künstlicher Intelligenz, gebeten, uns die Ursachen für das „Halluzinieren“ von KI und mögliche Lösungen zu erklären. Die Fragen stellte Dr. Marion Steinbach.

Zur Person

Dr. Aljoscha Burchardt forscht als Principal Researcher am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Berlin. Gemeinsam mit der Journalistin Nadia Kailouli geht er in dem rbb-Podcast „KI und jetzt?“ der Frage nach, was KI mit den Menschen macht und was wir mit ihr machen können. Er ist u. a. Senior Research Fellow des Weizenbaum-Institutes für die vernetzte Gesellschaft, stellvertretender Vorsitzender der Berliner Wissenschaftlichen Gesellschaft sowie Mitglied im Fachausschuss Kommunikation und Information der UNESCO. 2018-2020 war er sachverständiges Mitglied der Enquete-Kommission „Künstliche Intelligenz“ des Deutschen Bundestages.

Wie kommt es zu dem, was als Halluzinieren von KI bezeichnet wird?
Erst einmal gefällt mir die Formulierung „bezeichnet wird“. Tatsächlich finde ich den Begriff Halluzination trotz seiner Einprägsamkeit irreführend und letztlich ist er auch stigmatisierend. Die Systeme haben kein Bewusstsein und entsprechend auch keine Wahnvorstellungen. Wenn von KI generierte Texte Aussagen oder Fakten enthalten, die nicht stimmen, spricht man von Halluzination. Dazu kommt es, weil die Systeme im Kern einfach immer nur das nächste Wort vorhersagen, bis der gewünschte Text da steht. Das ist reine Statistik, die Wortfolgen klingen total plausibel und häufig stimmt auch, was da steht. Aber eine Garantie gibt es nicht, die Systeme sind keine Orakel oder Wahrheitsmaschinen.

Woran erkennt man, dass die KI „halluziniert“?
Wie gesagt, es geht hier gar nicht um die KI, es geht einfach nur darum, ob der Output stimmt. Ob zum Beispiel generierte Publikationsangaben und Links existieren, ob genannte Fakten stimmen oder die Aussagen wahr sind. Das prüft man genauso, als ob sie von einem Menschen kommen, dessen Fähigkeiten wir vielleicht nicht kennen. Wenn meine kleine Tochter etwas Falsches sagt, spreche ich übrigens auch nicht von Halluzinationen.

In welchen Bereichen kann das heikel sein?
Kontexte, in denen Fehlinformationen und Unwahrheiten heikel sein können, kann man sich beliebig ausdenken. Ein Beispiel sind sicherlich die anstehenden Wahlen, bei denen Leute auf die Idee kommen könnten, sich von einem Chatbot beraten zu lassen oder nach den Positionen von bestimmten Politikern zu bestimmten Themen zu fragen.

Was bedeutet das für die User?
Sie müssen auch verstehen, dass generative KI-Systeme keine Suchmaschinen sind. So bequem es scheint, sich auf den mundgerechten Output der Systeme zu verlassen, man sollte nur Dinge anfragen, die man überprüfen kann.

Mittlerweile gibt es aber doch KI, die Quellen angibt. Dann ist der User doch auf der sicheren Seite, oder nicht?
Das macht es sicher leichter, die Ergebnisse im Zweifelsfall zu überprüfen. Allerdings sind Menschen ja auch gerne bequem und das überprüfen ist natürlich wieder mehr Aufwand. Bisher habe ich noch kein Gefühl dafür, welche Aussagen man überhaupt entsprechend belegen kann. Einfache Fakten und Wahrheiten oder (abgewandelte) Zitate sicher. Aber was ist mit freieren Texten, die sich von den Trainingstexten ablösen?

Wie kann die IT das Problem lösen?
Man kann Systeme für bestimmte Aufgaben anpassen und optimieren, man kann auch hybride Systeme bauen, die explizites Wissen mit statistischer Power kombinieren, da wird noch einiges kommen.

Was empfehlen Sie den Usern, bis das Problem gelöst ist?
Ob es theoretisch überhaupt gelöst werden kann, sei mal dahingestellt. In jedem Fall ist es wichtig, sich zu überlegen, welche Aufgaben man an die Technologie abgeben möchte und wie die Ergebnisse geprüft werden (immer/ stichpunktartig/teilautomatisch etc.). In Summe sollte sie uns Arbeit abnehmen, unsere Fähigkeiten erweitern und die Arbeit sollte mindestens genauso viel Spaß machen wie ohne KI. Dann haben wir gewonnen.

Alle Folgen des Podcasts „KI – und jetzt? Wie wir Künstliche Intelligenz leben wollen“, eine Co-Produktion von rbb und DFKI, sind in der ARD Audiothek App verfügbar und überall dort, wo es Podcasts gibt.

Klicken Sie auf den unteren Button, um den Inhalt von Spotify zu laden.

Inhalt laden

Das könnte dich auch interessieren

Mit Legal-Tech-Know-how Zukunft gestalten

In Kanzleien wird die generative KI zum Gegenwartsthema. Large Language Modelle wie ChatGPT-4 unterstützen...

Cyberstaatsanwältin Jana Ringwald im Interview

Als sich die Staatsanwältin Jana Ringwald entschied, ein Inhouse-Seminar zum Thema Cyberkriminalität zu besuchen,...

Kuratiert

Regelwerk für wirksame Beaufsichtigung von KI Die Europäische Kommission hat kürzlich den „AI Act“ erlassen....



Anzeige




Anzeige
BWI