Im November 2022 machte das KI-Unternehmen OpenAI seinen Chatbot ChatGPT für die Öffentlichkeit zugänglich. Schnell überhäuften sich daraufhin die Meldungen, was mit dem Bot alles möglich ist – und wo Schwächen liegen. Erahnen lässt sich bei all dem schon heute, und wir befinden uns irgendwie noch am Anfang der Entwicklung, welche Bedeutung und welches Potenzial in der Technologie steckt. Von Christoph Berger
Starten wir, wie es derzeit viele tun. Befragen wir ChatGPT direkt: „Was kann Chat GPT?“. Die Antwort: „ChatGPT ist ein von OpenAI entwickeltes KI-Sprachmodell, das eine Vielzahl von Aufgaben zur Verarbeitung natürlicher Sprache ausführen kann, z. B. Fragen beantworten, Text generieren, Text übersetzen, Text zusammenfassen und mehr. Es wurde anhand eines großen Datensatzes von Texten aus dem Internet trainiert und verfügt daher über ein breites Spektrum an Allgemeinwissen, aber seine Genauigkeit kann variieren.
Es ist schwer, die genauen Fähigkeiten von ChatGPT oder jeder anderen KI-Technologie in zehn Jahren vorherzusagen, da dies von vielen Faktoren abhängt“
„Und was wird mit ChatGPT in zehn Jahren möglich sein?“ Antwort: „Es ist schwer, die genauen Fähigkeiten von ChatGPT oder jeder anderen KI-Technologie in zehn Jahren vorherzusagen, da dies von vielen Faktoren abhängt, z. B. von Fortschritten auf dem Gebiet der KI, der Verfügbarkeit größerer und vielfältigerer Trainingsdaten und der Menge der verfügbaren Rechenressourcen. Es ist jedoch wahrscheinlich, dass KI-Modelle wie ChatGPT noch ausgefeilter werden, ein tieferes Verständnis der natürlichen Sprache entwickeln und ein breiteres Spektrum an Aufgaben mit höherer Genauigkeit ausführen können. Darüber hinaus könnte es Entwicklungen in Bereichen wie dem unüberwachten Lernen, dem Transferlernen und dem Verstärkungslernen geben, die es KI-Modellen ermöglichen, in realen Umgebungen zu lernen und sich anzupassen.“
Dr. Thilo Hagendorff, Post-Doc am Exzellenzcluster „Machine Learning: New Perspectives for Science“ an der Eberhard Karls Universität Tübingen, ist sich zumindest sicher, dass andere Firmen nachziehen und ihre Sprachmodelle der breiten Öffentlichkeit zur Verfügung stellen werden. Er sagt außerdem „Und ich glaube, das kreative Potenzial, das dann freigesetzt wird, der gesellschaftliche Impact, den es haben wird, da machen wir uns überhaupt kein Bild von. Ich halte das für massiv, was dort passiert, wenngleich meine Fantasie, glaube ich, noch nicht zulässt, alles zu sehen, was da in den nächsten zehn bis zwanzig Jahren passieren wird.“
Zu bedenken gebe es nur eine Sache: „Man überlege sich nur einmal, was passiert, wenn wir jetzt KI-Systeme wie diese mächtigen Sprachmodelle mit anderen KI-Systemen kombinieren. Also wenn wir so ein Sprachmodell in einen Roboter einbauen oder wenn wir sie mit Bildgenerierungs- KIs kombinieren oder Ähn liches. Da wird sich so viel verändern, nicht nur was Medien anbelangt, sondern auch was das menschliche Zusammenleben, was die Wirtschaft angeht, dass dort einiges auf uns zukommt.“
Auch Dr. Oliver Brock, Professor am Robotics and Biology Laboratory und Sprecher des Clusters „Science of Intelligence“ an der Technische Universität Berlin, glaubt, dass sich die Menschheit auf einem Weg in eine neue Ära in der künstlichen Intelligenz befindet: „Und wenn ich künstliche Intelligenz sage, dann meine ich maschinelles Lernen –, die immer schneller vorangeht und immer mehr Bereiche unseres Alltags berühren und dort Relevanz zeigen wird.“ Er glaubt aber auch, dass es wesentlich länger dauern wird, bis diese Entwicklung sich auf die biologische Art von Intelligenz auswirken werde: „Da wird es sicherlich Auswirkungen geben. Aber ich glaube, dass da noch viel größere, fundamentalere Probleme auf uns warten, von denen wir noch nicht wissen, was da die Lösung sein könnte.“
Das, was Menschen schon wissen, lernen sie ja auch nicht dauernd immer wieder. Je mehr ich an Wissen schon nutzen kann, desto weiter kann ich kommen.
Die derzeitige Aufmerksamkeit um ChatGPT bewertet Oliver Brock allerdings als Hype. Ein Hype in dem Sinne, dass der Grad der Aufregung durch die Sache nicht gerechtfertigt sei. Allerdings würde dieser Hype ganz viele Nebeneffekte auslösen: Es werde sehr viel mehr Geld investiert und sehr viel mehr Aufmerksamkeit auf diesen Bereich der KI-Forschung gelenkt. So viel mehr, dass wahrscheinlich viele junge Forscherinnen und Forscher sagen, ebenfalls an so etwas forschen zu wollen. Auch wenn abzuwarten sei, was dann tatsächlich alles passiere. Wellen von abflachendem und aufsteigendem Hype werde es auch weiterhin geben.
Professorin Dr. Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme an der Fakultät Wirtschaftsinformatik und Angewandte Informatik an der Otto-Friedrich-Universität Bamberg, bewertet das öffentliche zur Verfügung stellen von ChatGPT durch OpenAI als einen guten Schachzug. Meint aber: „Ich würde sagen, es ist eine Evolution und keine Revolution.“ Gleichzeitig ist laut ihren Beobachtungen so viel Bewegung in der KI.Forschung wie selten zuvor.
Und sie findet es spannend, dass aktuell ein ganz neues und großes Interesse an den klassischen wissensbasierten Methoden und Technologien erkennbar wird: „Das fällt unter den etwas schöner klingenden Begriff neuro-symbolic AI, neuro-symbolische KI. Es wurde doch erkannt, dass man eigentlich beides braucht. Das, was Menschen schon wissen, lernen sie ja auch nicht dauernd immer wieder. Je mehr ich an Wissen schon nutzen kann, desto weiter kann ich kommen. Das wird zunehmend auch erkannt im Bereich der Machine-Learning-Forschung.“
Und was sagt der Chatbot selbst zu den Anforderungen, die KI-Expert* innen benötigen?
Frage: „ChatGPT, welches Wissen brauchen KI-Experten, um große KI-Sprachmodelle zu entwickeln?“
Die Antwort von ChatGPT: „Die Entwicklung großer KI-Sprachmodelle wie ChatGPT erfordert ein tiefes Verständnis verschiedener Bereiche der künstlichen Intelligenz und des maschinellen Lernens. Dazu zählen:
- Verarbeitung natürlicher Sprache (NLP): Der Schlüssel zur Entwicklung von KI-Sprachmodellen ist das Verständnis der Struktur und Bedeutung der menschlichen Sprache. Dies erfordert Kenntnisse von NLP-Techniken wie Tokenisierung, Part-of-Speech- Tagging, Named Entity Recognition und Parsing.
- Tiefes Lernen: Große KI-Sprachmodelle basieren auf tiefen neuronalen Netzen, so dass ein umfassendes Verständnis von Deep Learning unerlässlich ist. Dazu gehören Kenntnisse über gängige neuronale Netzwerkarchitekturen wie rekurrente neuronale Netzwerke (RNNs), Transformatoren und Faltungsneuronale Netzwerke (CNNs).
- Maschinelles Lernen in großem Maßstab: Das Trainieren großer KISprachmodelle erfordert viele Rechenressourcen, weshalb Fachwissen über verteiltes und paralleles Rechnen wichtig ist. Dazu gehören Kenntnisse über Techniken wie Gradientenabstieg, Mini-Batch-Training und Modellparallelität.
- Modell-Optimierung: Große KISprachmodelle sind komplex und erfordern eine große Menge an Daten zum Trainieren, so dass die Optimierung ihrer Leistung eine zentrale Herausforderung darstellt. Dies erfordert Kenntnisse über Techniken wie Regularisierung, frühzeitiges Stoppen und Abstimmung der Hyperparameter.
- Datenmanagement und Vorverarbeitung: Die Handhabung und Vorverarbeitung großer Datensätze ist ein entscheidender Aspekt beim Training von KISprachmodellen. Dies erfordert Kenntnisse in den Bereichen Datenbereinigung, Normalisierung und Datenerweiterung sowie Kenntnisse über Tools für die Arbeit mit großen Datensätzen, wie z. B. Apache Spark oder Dask. Zusätzlich zu diesen technischen Fähigkeiten benötigen KI-Experten auch starke Problemlösungskompetenzen, die Fähigkeit, effektiv in einem Team zu arbeiten, und starke Kommunikationsfähigkeiten, um effektiv mit anderen Forschern und Interessenvertretern zusammenzuarbeiten.“ „Danke, ChatGPT!“