Medizinisches Teamplay

Sind generative KI-Systeme die besseren Mediziner*innen? Eine neue Studie zeigt: Was die Diagnose und Therapievorschläge angeht, nehmen es die neuesten Modelle mit den besten Fachleuten auf. Was aber nicht heißt, dass der Mensch abgehängt ist. Die kurze Historie der KI-Forschung zeigt: Ein neues Level wird dann erreicht, wenn Mensch und Maschine kooperieren. Das gilt auch für die Medizin – wobei hier zwei Menschen involviert sind: Ärzt*in und Patient*in. Ein Essay von André Boße

Man sollte vorsichtig sein, wenn es in der Headline eines Artikels heißt, bei dieser oder jener speziellen Tätigkeit sei die Technik dem Menschen ab jetzt hoffnungslos überlegen. Denn was den Menschen auszeichnet, ist die Eigenschaft, kein Fachidiot zu sein. Sondern die Fähigkeit zu besitzen, sein Wissen immer wieder anzupassen und flexibel anzuwenden. Ein Beispiel: 2019 ging die Nachricht durch die Medien, eine Künstliche Intelligenz habe erstmals den Weltmeister im Brettspiel Go besiegt. Das war eine Besonderheit, da Go deutlich komplexer als Schach ist und man lange der Auffassung war, ein Spiel mit so vielen Handlungsoptionen sei für eine Künstliche Intelligenz nicht durchschaubar. Der Tenor der Berichterstattung von damals: Dies ist ein Paradigmenwechsel, der zeigt, dass die KI bei taktischen Denkspielen den Menschen abhängt.

Mensch schlägt zurück

2023 erschein eine weitere Meldung zu diesem Thema, verbreitet in deutlich weniger Medien, was schade ist, denn der Nachrichtenwert ist mindestens genauso hoch: Dem US-Amerikaner Kevin Pellrine war es gelungen, 14 von 15 Go-Partien gegen die beste KI für dieses Spiel mit dem Namen KataGo zu gewinnen, so berichtete es zum Beispiel die Computerwoche. Seine Strategie: Er stellte der KI eine Falle, in dem er eine Reihe von Scheinangriffen initiierte, sodass KataGo ab einem bestimmten Punkt nicht mehr wusste, was der menschliche Spieler wirklich vorhat.

Nächster Schritt: Quanten-Computing

Quanten sind Teilchen, die unsere Vorstellungskraft sprengen. Weil sie nicht nur einen Zustand besitzen, sondern zeitgleich alle möglichen Zustande. Anders als ein digitales Bit, das entweder 0 oder 1 sein kann, kann ein QuBit sowohl 0 als auch 1 als auch alle Zustände dazwischen sein. Eine Eigenschaft, die einen auf QuBits basierenden Quantencomputer zu einer Maschine mit gigantischer Rechenleistung macht. Solche Computer gibt es bereits. Sie sind riesig, überaus sensibel und kaum zu bezahlen. Weshalb sie auch in Zukunft eher keine Personal Computer sein werden, sondern als Zentralrechner eingesetzt werden, um in bestimmten Bereichen überaus komplexe Probleme zu knacken. Hier kommt auch die Medizin ins Spiel: Der Pharmakonzern Boehringer Ingelheim kooperiert mit Google, um insbesondere bei der Simulation von Molekülen voranzukommen – einer grundlegenden Technik für die Entwicklung von Medikamenten. Laut des Pharma-Unternehmens besitzen Quantencomputer das Potenzial, viel größere Moleküle als derzeit möglich genau zu simulieren und zu vergleichen. „Dadurch“, so heißt es im News- Bereich des Konzerns, „ergeben sich neue Möglichkeiten für pharmazeutische Innovationen und Therapien für ein breites Spektrum an Krankheiten.“
Ein Experte vermutete, die KI sei mit dieser Taktik deshalb nicht klargekommen, weil ein so erratisches Spiel in den Trainingsdaten nicht vorgekommen sei. Wobei, so viel hat Pellrine verraten, er sich als menschlicher Spieler auch selbst von einer Künstlichen Intelligenz helfen ließ: Eine Company hatte ihm ein KI-System zur Verfügung gestellt, mit dessen Hilfe er im Vorfeld vermutliche Schwächen von KataGo identifizierte. Das Beispiel belegt, was auch viele KI-Expert*innen bestätigen: KI ist ein Teamspiel. Das beste Ergebnis lässt sich dann erzielen, wenn der Mensch mit der Maschine kooperiert.

Generative KI der bessere Augenarzt?

Im April 2024 meldeten verschiedene wissenschaftliche und medizinische Nachrichtenportale folgende Schlagzeile: „Stu die: GPT-4 übertrifft viele Ärzte bei der Beurteilung von Augenproblemen“, so hieß es beim Online-Dienst Heise. Wieder so eine Schlagzeile – und auch hier lohnt es sich, genau hinzuschauen. Erstellt wurde die Studie von Forscher*innen der Universit.t Cambridge, die .Überschrift über der Zusammenfassung der Studienergebnisse, zu finden auf der Homepage der Uni, liest sich sogar noch deutlicher, als die Headline beim Online- Dienst Heise: „Künstliche Intelligenz übertrifft Ärzte bei der genauen Beurteilung von Augenproblemen.“ Die KI steht hier für GPT-4, ein so genanntes „Large Language“-Modell (LLM), entwickelt von den KI-Spezialisten OpenAI. Es handelt sich um ein generatives KI-System, sprich um eines, das eigene Inhalte erstellt, vornehmlich Texte, Sprache und Bilder. In der Medizin sorgte GPT-4 schon kurz nach dem Launch für Schlagzeilen: Eine Research-Gruppe des Softwareunternehmens Mircosoft (dessen KI-Dienst Pilot auf GPT-4 basiert) untersuchte das Modell auf sein medizinisches Fachwissen. Das Ergebnis veröffentlichte Microsoft im Research-Portal des Konzerns und verweist dabei auf den USMLE (United States Medical Licensing Examination), die dreistufige Prüfung, die man in den USA bestehen muss, um als .Ärztin oder Arzt tätig sein zu dürfen. „Unsere Ergebnisse zeigen, dass GPT-4, ohne spezielle Prompts, die Punktzahl für das Bestehen des USMLE um mehr als 20 Punkte übertrifft und sowohl frühere Allzweckmodelle (GPT-3.5) als auch Modelle, die speziell auf medizinisches Wissen abgestimmt sind, übertrifft.“ Heißt: GPT-4 besteht diese Prüfungen, ohne sich vorbereiten zu müssen. Ein Traum für jede Medizinerin, jeden Mediziner, der einmal fürs Physikum lernen musste. Theorie hin oder her, auf die Praxis kommt es an. Die Forscher* innen wollten daher mit ihrer Untersuchung herausfinden, wie es um die medizinische Diagnosefähigkeit von GPT-4 aussieht. Das Studienmodell: Einer Gruppe von Ärzt*innen sowie der generativen KI wurden 87 Patientenszenarien mit jeweils einem spezifischen Augenproblem vorgelegt. Der Test umfasste, so heißt es im Studien-Design, Fragen zu einer Vielzahl von Problemen, darunter extreme Lichtempfindlichkeit, verminderte Sehkraft, Läsionen, juckende oder schmerzende Augen. Ein wichtiger Aspekt: Diese Problemstellungen entnahmen die Forscher*innen laut eigener Aussage einem medizinischen Lehrbuch, das für die Prüfung angehender Augenärzte verwendet wird, dessen Inhalte aber nicht im Internet frei zugänglich sind. Daher sei es, heißt es in der Zusammenfassung der Studie, „unwahrscheinlich, dass sein Inhalt in die Trainingsdatensätze des GPT-4 aufgenommen wurde“. Schließlich wird die generative KI fast ausschließlich mit digital verfügbaren Daten gefüttert. So ist davon auszugehen, dass GPT-4 nicht „gemogelt“ hat, in dem es sich im Vorfeld die Tests draufgeschafft hat. In der menschlichen Gruppe befand sich die Bandbreite an Erfahrung und Spezialistentum, also sowohl nicht-spezialisierte Assistenzärzt*innen als auch Augenärzt*innen in der Ausbildung sowie ausgewiesene Fachexpert*innen. Alle hatten die Aufgabe, anhand der vorgelegen Problematik eine Diagnose zu stellen sowie eine Behandlung zu empfehlen. Das Ergebnis laut Studienzusammenfassung: GPT-4 habe in dem Test deutlich besser abgeschnitten als nicht spezialisierte sowie .ähnlich stark abgeschnitten wie Augenärzt*innen in der Ausbildung und Fachärzt*innen. Lediglich die leistungsstärksten Speazlist*innen hätten ein besseres Resultat erzielt als die generative KI.

It takes two

Wenn GPT-4 also nur von den Besten geschlagen werden kann – heißt das nun, das Ärzt*innen in diesem (und dann auch in anderen Feldern) nicht mehr benötigt werden? Vorsicht! Denken wir zurück an die Geschichte mit dem Go-Duell zwischen Mensch und KI. Auch da dachte man, der humanoide Spieler sei in Zukunft chancenlos. Das war er aber ab dem Moment nicht mehr, als er eine Kooperation mit der KI einging – und damit das spielerische Level des Teams erhöhte. Sprich: „It takes two“ – um wirklich stark zu sein, macht man es zu zweit. Ähnliche Schlüsse ziehen auch die Forscher*innen von der „School of Clinical Medicine“ der Universit.t Cambridge.
Generative KI wird nicht den Mensch ersetzen, sondern sie besitzt das Potenzial, die Gesundheitsversorgung als Teil des klinischen Arbeitsablaufs zu verbessern.
In der Studienzusammenfassung sagen sie eben nicht, dass die generative KI den Menschen ersetzen wird, sondern, dass sie „das Potenzial besitzt, die Gesundheitsversorgung als Teil des klinischen Arbeitsablaufs zu verbessern“. Und dass „Large Language“- Modelle wie GPT-4, die dem neuesten Stand der Technik entsprechen, nützlich sein können, um „augenbezogene Ratschl.ge, Diagnosen und Managementvorschl.ge in gut kontrollierten Kontexten zu geben, wie zum Beispiel bei der frühen Einstufung von Patienten oder dann, wenn der Zugang zu medizinischem Fachpersonal begrenzt ist.“

KI im Kampf gegen Krebs

2023 startete eine Kooperation zwischen dem Softwarekonzern Microsoft und Paige, einem Spezialisten für medizinische KI-Services. Ziel des Joint Ventures ist es, das weltweit größte bildbasierte KI-Modell zur Erkennung von Krebs zu entwickeln. Die Forscher hofften, dass das Modell helfen wird, mit Personalknappheit und wachsenden Fallzahlen klarzukommen, heißt es in der Pressemitteilung von Microsoft. Das KI-Modell werde mit einer gigantischen Datenmenge trainiert, die Milliarden von Bildern umfasst, heißt es weiter. Es könne häufige, aber auch seltene Krebsarten erkennen, die besonders schwer zu diagnostizieren sind. Entwickelt wird das Modell speziell für die Pathologie, wo es darum geht, der Entstehung und den vielen Entwicklungen von Krankheiten auf die Spur zu kommen.
Dr. Arun Thirunavukarasu, Hauptautor der Studie, benennt in der Zusammenfassung der Studie folgendes konkretes Szenario aus dem Bereich der Augenerkrankungen: „Wir können KI realistisch bei der Einteilung von Patienten mit Augenproblemen einsetzen, um zu entscheiden, welche Falle Notfalle sind, die sofort von einem Spezialisten behandelt werden müssen, welche von einem Hausarzt behandelt werden k.nnen oder welche keine Behandlung benötigen.“ Eine generative KI, die hier zuverlässig die Fälle einteilt, hilft dabei, das gesamte System zu entlasten, weil jeder, der .ärztliche Hilfe benötigt, dorthin verwiesen wird, wo ihm passgenau geholfen werden kann. „Bei weiterer Entwicklung könnten „Large Language“ Modelle auch Hausärzte beraten“, wird Dr. Arun Thirunavukarasu zitiert. Das ist überall dort wichtig, wo Menschen für eine fachärztliche Behandlung lange Wartezeiten in Kauf nehmen müssen. In Großbritannien ist dies der Fall, und in Deutschland in vielen Fachbereichen ebenfalls. Hier könnten Hausärzt*innen plus KI den Job in bestimmten Fällen übernehmen.

Wo generative KI wirklich unterstützt

Die Limbach-Gruppe, ein Verbund unabhängiger Labore in Deutschland, hat in einem Meinungsbeitrag auf der Homepage des Unternehmens weitere Szenarien für die Kooperation zwischen Mensch und generativer KI in der Medizin skizziert. So hätten GPT-Modelle das Potenzial, die Patientendokumentation erheblich zu verbessern, „weil sie die Fähigkeit besitzen, umfangreiche Datenmengen effizient zu verarbeiten und in präzise medizinische Dokumente umzuwandeln“. Auch bringe die KI Ärzt*innen in die Lage, „sich nahtlos über die neuesten wissenschaftlichen Erkenntnisse zu informieren, ohne umfassende Literaturrecherchen durchführen zu müssen“. Zudem könnten die Modelle als „Brücke zwischen Arzt und Patient fungieren“, zum Beispiel, indem „Large Language“-Modell „komplexe medizinische Informationen in verständlicher Sprache bereitstellen und so die Patientenaufklärung verbessern“ oder sogar „die Analyse und Interpretation von Daten weiter zu verfeinern“, wie es in dem Beitrag heißt. Eine Perspektive lautet: „Mit einer fortschreitenden Entwicklung könnten LLMs in der Lage sein, genetische Sequenzen zu analysieren, personalisierte Behandlungsansätze vorzuschlagen und so die Präzisionsmedizin auf eine neue Stufe zu heben.“ Zukunftsmusik? Nicht nur. Was bereits passiert, zeigt das Med-PaLM-Projekt von Google. Dabei handelt es sich laut Eigenbeschreibung des Konzerns um ein „Large Language“- Modell, das entwickelt wurde, um qualitativ hochwertige Antworten auf medizinische Fragen zu liefern, und das damit auf die Gesundheitsbranche abgestimmt ist. Auch dieses Modell geht als generative KI über die Mustererkennung hinaus und erstellt eigene Inhalte. Das „Large Language“- Modell wird bereits von Kliniken oder digitalen Health-Care-Anbietern getestet, geplant ist, Med-PaLM im Gesundheits- und Life-Sciences-Bereich der Google Cloud zu implementieren. Kurz: Med-PaLM ist die Gegenwart.
Die ethischen Überlegungen im Zusammenhang mit der Anwendung von KI in der Medizin sind von großer Bedeutung. Dazu zählen Fragen des Datenschutzes, der Patientenautonomie, aber auch der Rolle von KI in der Arzt-Patienten-Beziehung.

Ein Thema drängt sich auf: Ethik

An dieser Stelle ist es wichtig, über eine Herausforderung zu sprechen, die beim Thema generativer KI generell, insbesondere aber bei einem so sensiblen Bereich wie der Medizin zwingend ins Spiel kommt: die Ethik. „Die ethischen Überlegungen im Zusammenhang mit der Anwendung von KI in der Medizin sind von großer Bedeutung“, heißt es im Meinungsbeitrag der Labor-Spezialist*innen von der Limbach-Gruppe. Dazu zählten Fragen des Datenschutzes, der Patientenautonomie, aber auch der Rolle von KI in der Arzt-Patienten-Beziehung. Beantwortet werden muss vor allem die Frage: Wenn KI und Medizin kooperieren – wie wird dann die kommunikative Schnittstelle zur Patientin oder zum Patienten organisiert? Transparenz und Aufklärung über den Einsatz und die Grenzen der generativen KI-Technologien sind entscheidend, „um das Vertrauen der Patienten zu gewinnen und die Integrit.t der medizinischen Praxis zu wahren“, heißt es im Meinungsbeitrag der Limbach-Gruppe. Was bedeutet: Es ist schon okay, wenn ein Mensch eine generative KI nutzt, um eine andere generative KI bei einem komplexen Spiel für Go zu täuschen und letztlich zu schlagen. Im hochsensiblen Bereich der Medizin kommt es aber darauf an, an jeder Stelle mit offenen Karten zu spielen. Zumal es auch weiterhin so bleiben wird, dass bei der medizinischen Versorgung zwei Menschen im Mittelpunkt stehen: Patient*in und Ärzt*in. Beide haben die Chance, durch eine gemeinsame Kooperation mit der generativen KI die Medizin auf ein neues Level zu heben. Wer dabei besiegt werden soll, ist auch klar: die Erkrankung.
Cover KI-Revolution in der Medizin

Buchtipp: Chancen und Grenzen der generativen KI in der Medizin

Das von Peter Lee, Carey Goldberg, Isaac Kohane und Sébastien Bubeck verfasste Buch „Die KI-Revolution in der Medizin – GPT-4 und darüber hinaus“ entwickelte sich in den USA schnell zu einem Bestseller. Nun liegt das Standardwerk auch in deutscher Übersetzung vor. Die Autoren beschreiben den Einfluss der generativen KI in der Medizin, von der Forschung bis zur Diagnose. Dabei beschreiben sie, wie im ärztlichen Alltag über diese Zukunftstechnologie debattiert wird – was zu witzigen oder aberwitzigen Szenen führt. Bei aller Begeisterung für das Thema: Auch die Grenzen der generativen KI werden aufgezeigt. Peter Lee, Carey Goldberg, Isaac Kohane und Sébastien Bubeck: Die KI-Revolution in der Medizin – GPT-4 und darüber hinaus. Pearson 2023. ISBN: 978-3868944532. 29,95 Euro.

Eintauchen

0

Chemiker bekommt Preis für Krebsforschung

Der hessische Chemiker Johannes Karges hat den Paul-Ehrlich-und-Ludwig-Darmstaedter-Nachwuchspreis 2024 erhalten. Die Forschung des 31-Jährigen, der aus Fulda stammt, könnte die Nebenwirkungen von Chemotherapien gegen Krebs drastisch verringern und ihre Wirksamkeit deutlich erhöhen. Der Hauptpreis geht an den US-Immunologen Dennis L. Kasper von der Harvard Medical School. Der 81-Jährige hat die Kommunikation entschlüsselt, die zwischen den menschlichen Darmbakterien und dem Immunsystem stattfindet. Der Paul-Ehrlich-und-Ludwig-Darmstaedter-Preis wird seit 1952 traditionell an Ehrlichs Geburtstag, dem 14. März, vergeben. Ausgezeichnet werden herausragende Leistungen in der biomedizinischen Forschung. Der Hauptpreis ist mit 120.000 Euro dotiert. Der mit 60.000 Euro dotierte Nachwuchspreis wird seit 2006 vergeben, das Preisgeld muss forschungsbezogen verwendet werden.

Lachen und Gesundheit

Mit einer Metastudie konnten Forscherinnen am Universitätsklinikum Jena die Binsenweisheit, dass Lachen gesund ist, wissenschaftlich bestätigen. Die veröffentlichte Auswertung von 45 randomisiert-kontrollierten Studien, die die Wirkung von Lachtherapien in verschiedenen Patientengruppen testeten, ergab positive Effekte sowohl für physiologische Parameter als auch für die körperliche und seelische Gesundheit. Vor einer allgemeinen Empfehlung von Lachtherapien sehen die Autorinnen jedoch weiteren Forschungsbedarf zu den Anwendungsgebieten und Wirkmechanismen sowie zu Nebenwirkungen, die bislang kaum dokumentiert wurden.

Selbstorganisation im Krankenhaus

Meine Station! – das ist ein einzigartiges Pilotprojekt im Klinikum Aschaffenburg-Alzenau. Hier gibt es die erste Station in einem deutschen Krankenhaus, die nach dem Zusammenarbeitsmodell der Selbstorganisation funktioniert. Zum Hintergrund erklären die Verantwortlichen: „Seit Jahren prägen zunehmende Unterbesetzung, Überlastung und aufwendige Dokumentation den Stationsalltag in deutschen Kliniken. Frustration und Unzufriedenheit führen zu hohen Krankenständen, Personalfluktuation und häufig sogar zum kompletten Berufsausstieg.“ Deshalb wurde eine chirurgische Station gänzlich neu strukturiert und organisiert. Der Fokus lag dabei auf der interdisziplinären Zusammenarbeit der verschiedenen Gesundheitsberufe, synergetischen Tagesabläufen und dem Abbau von Hierarchien hin zu Strukturen, die auf die Bedürfnisse der Belegschaft ausgelegt sind. Besonders ist daran auch, dass diese Strukturen von den Mitarbeitenden selbst entwickelt und kontinuierlich angepasst werden und nicht von oben herab oder sogar von extern diktiert werden. Von Christiane Martin

Der analoge Realist Prof. Dr. Joachim Bauer im Interview

Wie verändern Digitalisierung und Künstliche Intelligenz die Wirklichkeit – und warum droht sogar ein „Realitätsverlust“? Der Arzt und Neurowissenschaftler Prof. Dr. Joachim Bauer verweist im Interview darauf, dass echte Begegnungen und analoge Präsenz durch nichts zu ersetzen sind. Schon gar nicht durch digitale Welten, die Versprechen geben, die sie nicht einhalten. Die Fragen stellte André Boße.

Zur Person

Prof. Dr. Joachim Bauer war nach seinem Medizinstudium, parallel zu seiner klinischen Ausbildung, viele Jahre in der Forschung tätig. Für seine Forschungsarbeiten erhielt er den renommierten Organon-Preis der Deutschen Gesellschaft für Biologische Psychiatrie. Er ist Facharzt für Innere Medizin und Facharzt für Psychiatrie und in beiden Fächern habilitiert. Bauer ist Autor viel beachteter Sachbücher. Joachim Bauer war lange Jahre an der Universität Freiburg tätig. Er lebt, forscht und arbeitet jetzt in Berlin.
Herr Prof. Bauer, wie lässt sich die Sogwirkung, die von digitalen Geräten und insbesondere den Smartphones ausgehen, neurowissenschaftlich erklären? Die Motivationssysteme des menschlichen Gehirns sind gierig auf soziale Beachtung und Anerkennung, entsprechend steuern sie unser Verhalten. Smartphones sind, selbst wenn sie keinen Ton von sich geben, eine Art Versprechen: Dass sich Leute melden, die etwas von mir wollen. Das Smartphone verspricht: Du bist wichtig und wirst gesehen. Die dadurch erzeugte Ablenkung ist derart stark, dass Testpersonen sich die Inhalte von gelesenen kurzen Texten nicht mehr so gut merken konnten, wenn während des Lesens ein Smartphone auf dem Tisch lag. Wann wird diese Sogwirkung zu einem Risiko? Sie gefährdet die Qualität unserer zwischenmenschlichen Beziehungen. Ständig kann man beobachten, wie kleine Kinder versuchen, in Kontakt zu ihrer begleitenden erwachsenen Bezugsperson zu kommen, diese aber nicht vom Handy wegkommt und dem Kind damit signalisiert: Es gibt Wichtigeres als dich. Kinder können sich nicht wehren. Wenn wir ein solches Verhalten – man nennt das in der Forschung übrigens „Phubbing“ – anderen Erwachsenen zumuten, dann zeigen Studien, dass sich die entsprechenden Beziehungen verschlechtern. Das betrifft Paarbeziehungen genauso wie Beziehungen zu Kollegen. Besteht auch ein medizinisches Risiko? Ja, wenn die Sogwirkung des Smartphones in Suchtverhalten umschlägt. In Deutschland sind zwei Millionen Jugendliche zwischen 10 und 17 Jahren täglich stundenlang in Sozialen Medien unterwegs, hunderttausende junge Leute in dieser Altersgruppe gamen tagtäglich bis in die Nacht. Intensivnutzerinnen von Sozialen Medien erhöhen ihr Risiko für Angst und Depression, Intensivnutzer von Videospielen vernachlässigen ihr analoges Leben und bewegen sich zu wenig. Wie definieren Sie die analoge Realität und was unterscheidet sie von einer digitalen Realität? „Analoge Realität“ ist die lebendige Welt, in der Menschen sich von Angesicht zu Angesicht begegnen, miteinander arbeiten, spielen oder etwas unternehmen. Wo wir uns in die Augen schauen können und die feinen Nuancen der menschlichen Körpersprache wahrnehmen können. Wo wir uns durch unmittelbare Wahrnehmung in andere empathisch einfühlen oder auch Konflikte austragen und bereinigen können. Das alles geht theoretisch auch online, also auch in den digitalen Kommunikationskanälen der Sozialen Medien oder beim gemeinsamen Videospielen, wo sich die Spieler gegenseitig in den Bildschirm einblenden können. Dabei geht aber immens viel der feinen Wahrnehmung verloren, die uns analoge Kontakte möglich machen. Online-Kontakte sind, ohne dass wir das sofort merken, auf die Dauer anstrengend. Neuere Studien beschreiben bei Berufstätigen, die „remote“ arbeiten oder viel online kommunizieren müssen, eine sogenannte „Videoconference Fatigue“.
Worauf es für die Gesundheit ankommt, ist das, was man in der psychologischen Forschung ‚sichere Bindungen‘ nennt, also verlässliche Beziehungen. Nur wer davon zumindest einige wenige hat, schützt seine Gesundheit.
Warum eigentlich ist unser Denken und ist unser Körper so sehr auf physische und soziale Begegnungen „gepolt“? Freundlichkeit, menschliche Nähe und soziale Unterstützung beruhigen das Stresssystem, senken den Blutdruck und stärken die Immunabwehr. Fehlende soziale Verbundenheit oder Einsamkeit führen zu Veränderungen der Genaktivität von immunologisch relevanten Genen und begünstigen chronische schleichende Entzündungsprozesse. Die Folgen sind ein erhöhtes Risiko für den Herz-Kreislauf und eine verkürzte Lebensdauer. Oberflächliche Kontakte, wie sie in den Sozialen Medien oder Chats stattfinden, haben keinen „Nährwert“, hier ist man heute Freund und morgen Feind. Worauf es für die Gesundheit ankommt, ist das, was man in der psychologischen Forschung „sichere Bindungen“ nennt, also verlässliche Beziehungen. Nur wer davon zumindest einige wenige hat, schützt seine Gesundheit. Studien zeigen, dass das Versprechen von Eingebundenheit in digitalen Welten nicht eingehalten wird. Aber ist das in der analogen Welt nicht genauso? Muss der Mensch dort nicht auch damit leben lernen, mit Ausgrenzung klarzukommen? Die Frage ist berechtigt. Ausgrenzung macht auch in der analogen Welt krank. Die analoge Welt, die physische Begegnung zwischen Menschen ist jedoch die entscheidende Ressource, aus der wir das schöpfen können, was wir brauchen: Echte Freundschaften und Bindungen. Die digitale Welt kann helfen, solche Bindungen anzubahnen – denken Sie an Partnerbörsen. Wer dann aber dort bleibt und keinen Fuß auf den Boden einer analogen Beziehung bekommt, bleibt im Grunde einsam und wird am Ende krank, ich habe solche Fälle in meiner Praxis gesehen. Wir sprachen vom Sog digitaler Angebote. Werden Anwendungen mit generativer Künstlicher Intelligenz diese Sogwirkung noch erhöhen? Maschinen mit Künstlicher Intelligenz können dem Menschen in vielen Bereichen als Assistenten dienen, das taten sie schon bevor Chat-GPT auf den Markt kam, ohne dass dies damals an die große Glocke gehängt wurde. Das betrifft auch die Medizin, wo uns KI helfen kann, große Datenmengen nach Mustern zu durchsuchen und bisher unerkannte Zusammenhänge aufzudecken. Bereits jetzt erfolgreich eingesetzt wird KI zum Beispiel in der Röntgendiagnostik oder bei der Befundung von krebsverdächtigen Auffälligkeiten der Haut. Eine Sogwirkung – um zu Ihrer Frage zu kommen – kann von sprechenden KIs, also von Chatbots ausgehen, die nicht nur banale Unterhaltungen, sondern auch Arzt- oder Psychotherapie- Gespräche führen können. Diese KIs sind so gut, dass Nutzer heute nicht mehr unterscheiden können, ob sie es mit einem Menschen oder mit einer KI zu tun haben. Sehen Sie da eher die Vor- oder Nachteile? Ich sehe zwei Seiten: Einerseits können sie Menschen in Akutsituationen eine vielleicht hilfreiche oder überbrückende Auskunft geben. Andererseits sind viele dieser Angebote nicht ausreichend qualitätsgesichert. Wo keine persönliche Untersuchung des Patienten stattgefunden hat, können medizinische Auskünfte irreführend, zumindest nur vorläufig sein. Ein weiteres Problem: Wer trägt die Verantwortung, wenn KIs Diagnosen stellen und Therapien vorschlagen? Und schließlich bleibt das Thema Abhängigkeit. Bereits jetzt gibt es viele Nutzer, die mit einem Chatbot eine Dauerbeziehung eingegangen sind, als Ersatz für eine echte zwischenmenschliche Beziehung.
Digitale Produkte sind nichts Schlechtes, sie können uns assistieren. Damit wir sie – und nicht sie uns – beherrschen, müssen wir Regulierungen installieren, die sicherstellen, dass der Mensch die Kontrolle behält.
Wie kann es gelingen, in digitalen Welten in Social Media oder im Gaming die Kontrolle zu behalten? Welche Skills benötigt die Gesellschaft dafür – und welche Skills müssen wir jungen Menschen vermitteln? Wir müssen die von Konzernen und Teilen der Medien betriebene Einschüchterung beenden, deren Ziel es ist, dass wir Menschen uns gegenüber den digitalen Systemen, insbesondere gegenüber KI minderwertig fühlen sollen. Digitale Produkte sind nichts Schlechtes, sie können uns assistieren. Damit wir sie – und nicht sie uns – beherrschen, müssen wir Regulierungen installieren, die sicherstellen, dass der Mensch die Kontrolle behält. Wir Menschen müssen wieder an uns glauben. Wir sind verletzliche, sterbliche Wesen, aber nur wir sind wirklich lebendig, nur wir können wirklich fühlen und lieben. Maschinen mit KI können nur simulieren, sie hätten Gefühle, sie haben sie aber nicht. Bei welchem digitalen Spiel sind Sie schon einmal schwach geworden? Bedingt durch meine Vorträge fahre ich oft Zug und sehe Menschen jeden Alters – überwiegend männlichen Geschlechts – alle Arten von Games spielen. Bei der Recherche für mein Buch „Realitätsverlust“ habe ich außerdem stundenlang neben Gamern gesessen und zugeschaut. Ob Sie es glauben oder nicht: Keines der Spiele hat mich gereizt. Stattdessen habe ich mich gewundert und mich gefragt, wie enttäuscht man vom realen Leben sein muss, um stundenlang auf einen Bildschirm zu starren oder auf einem Controller herumzuhacken, während draußen die Sonne scheint.
Cover Realitaetsverlust

„Realitätsverlust“

In seinem für den NDR-Sachbuchpreis nominierten Buch „Realitätsverlust: Wie KI und virtuelle Welten von uns Besitz ergreifen und die Menschlichkeit bedrohen“ beschreibt Joachim Bauer, warum reale Begegnungen, zwischenmenschliche Resonanz und analoge Präsenz für die Entwicklung des menschlichen Selbst, für unsere Gesundheit und den gesellschaftlichen Zusammenhalt unverzichtbar sind. So wird sein Buch zu einem Plädoyer für ein „neues Zeitalter der Aufklärung, für ein Aufbegehren gegen digitale Unmündigkeit“. Joachim Bauer: Realitätsverlust. Wie KI und virtuelle Welten von uns Besitz ergreifen und die Menschlichkeit bedrohen. Heyne 2023. 22 Euro.

telegramm – Neues aus der Welt der Künstlichen Intelligenz

0

USA und China führend bei KI-Studien

Foto: AdobeStock/Archer7
Foto: AdobeStock/Archer7
Laut „Ärzteblatt“ führen bei Studien zum Einsatz von KI in der Klinik die USA und China mit weitem Abstand gegenüber anderen Ländern. Dies gehe aus einer Übersichtsarbeit in der Fachzeitschrift „Lancet digital Health“ hervor. Generell gäbe es ein wachsendes Interesse an KI in allen klinischen Fachbereichen und an allen Standorten. Die USA und China seien mit jeweils rund 30 Prozent aller erfassten Studien aber führend. Der Schwerpunkt der Untersuchungen lag dabei auf Deep-Learning-Systemen für die medizinische Bildgebung, insbesondere in der Gastroenterologie und Radiologie.

KI-Krankenhaus „Agent Hospital“

Foto: AdobeStock/Iconjam
Foto: AdobeStock/Iconjam
Mehreren Medienberichten zufolge soll noch im Jahr 2024 in China das erste rein KI-geführte Krankenhaus eröffnen. „Echte Patienten werden dort jedoch (noch) nicht behandelt. Vielmehr kann man es sich als eine Art Trainingsprogramm für KI-Ärzte vorstellen. Also eine virtuelle Welt, in der virtuelle Patienten von KI-generierten Ärzten behandelt werden“, schreibt das Online- Nachrichtenportal „heute.at“. Dies bedeute, dass ein KI-Patient seinem KI-Arzt theoretisch ein Problem beschreiben und dieser mit einer Diagnose reagieren könnte. Forscher der Tsinghua- Universität in Peking (China) haben das virtuelle „Agent Hospital“ geschaffen, in dem alle Ärzte, Krankenschwestern und Patienten von intelligenten Agenten gesteuert werden, die auf der Grundlage von großen Sprachmodellen (LLMs) autonom interagieren können.

Ethikrat: KI darf Menschen nicht ersetzen

Foto: AdobeStock/Pedro
Foto: AdobeStock/Pedro
Bereits 2023 hat der Deutsche Ethikrat sich für strikte Begrenzungen bei der Verwendung von Künstlicher Intelligenz (KI) ausgesprochen. In einer Stellungnahme des interdisziplinären Gremiums heißt es, Softwaresysteme verfügten nicht über Vernunft, würden nicht selbst handeln und könnten daher keine Verantwortung übernehmen. Alena Buyx, die Vorsitzende des Deutschen Ethikrates, sagte, KI dürfe den Menschen nicht ersetzen. Künstliche Intelligenz müsse menschliche Entfaltung erweitern und dürfe sie nicht vermindern. Beispielsweise könne im Medizinbereich KI-Einsatz sinnvoll sein, etwa um Versorgungsengpässe aufgrund von Personalmangel zu lindern und präzisere Diagnosen zu erstellen. Bei der Entwicklung und Nutzung von KI-Produkten müsse ein ärztlicher Kompetenzverlust vermieden werden. Der Deutsche Ethikrat ist ein unabhängiges Gremium in Deutschland, das sich mit ethischen Fragen und Herausforderungen im Bereich der Naturwissenschaften, Medizin und Gesundheitsversorgung beschäftigt. Die 26 Mitglieder werden von der Präsidentin des Deutschen Bundestages ernannt. Der Bundestag oder die Bundesregierung können den Ethikrat beauftragen, zu bestimmten Themen zu beraten.

Medizin, die schmeckt! Buch-, Link- und Veranstaltungstipps

0

„Die Rundum-gesund-Formel“

Cover Rundum Gesund FormelRundum gesund zu sein, heißt ganzheitlich gesund sein, und dazu tragen Seele, Nerven und Immunsystem gemeinsam bei. Gefühle und Überzeugungen wirken auf unser Immunsystem, und umgekehrt beeinflusst das Immunsystem Gedanken und Verhalten. Ob Seele, Nerven oder Abwehrkräfte: Wenn nur eines aus dem Gleichgewicht gerät, hat das Folgen für die beiden anderen. Doch wir können viel tun, um dieses Netzwerk gezielt zu stabilisieren. Christina Berndt zeigt in ihrem neuen Buch, welche Strategien unsere Selbstheilungskräfte und Resilienz steigern und wie wir so unsere Gesundheit ganzheitlich fördern können. Christina Berndt: Die Rundum-Gesund-Formel. Das Zusammenspiel von Psyche, Nerven und Immunsystem gezielt stärken. dtv 2024. 18 Euro.

Podcast: The Curbsiders

Foto: AdobeStock/Fotomek
Foto: AdobeStock/Fotomek
„The Curbsiders Internal Medicine“ ist ein Podcast für alle Themen rund um die Innere Medizin. Produziert wird er von drei amerikanischen Internisten. Ihr Ziel ist es, keine langweiligen Vorlesungen zu halten, sondern all die Fragen aus der Praxis zu beantworten, die sie sich selbst während ihrer Weiterbildung als Internisten gestellt haben. In einem lockeren Dialog wird das jeweilige Thema im Detail besprochen. Thematisch ist von Anaphylaxie bis hin zu Tuberkulose alles dabei.

Arbeit ist nicht alles!?

Cover Generation AnspruchDas Buch „Generation Anspruch“ von David Gutensohn provoziert, klart und befriedet. Der Autor ist ZEIT-Journalist, Anfang 30 und Teil der Generation Y. Seine Erfahrungen kombiniert er zu einem weitsichtigen Blick auf unsere Arbeitswelt und den Generationenkonflikt, der sich in ihr auftut. Er findet: Der Anspruch seiner Generation, die Bedeutung von Arbeit radikal hinterfragen zu dürfen, ist gerechtfertigt. Es sei nicht absurd zu fordern, dass Arbeit Menschen glücklich machen muss. Arbeit, die krank macht, gehöre abgeschafft. Und für Bullshit-Jobs, die eine Maschine erledigen kann, solle kein Mensch schuften müssen. Das ist für ihn die Zukunft der Arbeit! David Gutensohn: Generation Anspruch. Arbeit ist nicht alles – und das ist auch gut so. Oekom 2024. 22 Euro.

Healthy Habits

Cover Healthy HabitsDie aktuelle Standardernährung ist einer der größten Risikofaktoren für unsere Gesundheit. Dabei wissen wir, dass schnelle Fertigprodukte, hochverarbeitete Lebensmittel, Süßigkeiten und Softdrinks uns nicht guttun. Gegen alle Vorsitze greifen wir dennoch viel zu oft zu diesen Produkten, da sie ständig und einfach verfügbar sind. Wie es uns gelingt, bessere Essgewohnheiten zu entwickeln und warum uns Diäten dabei nicht helfen, erklärt Dr. Fionna Zöllner in ihrem neuen Buch Healthy Habits. Dafür verbindet die Psychologin den aktuellen Forschungsstand zum Thema Gewohnheiten mit gesunder Ernährung. Dr. Fionna Zöllner: Healthy Habits. Wie kleine Veränderungen Ihre Ernährung für immer verbessern. ZS Verlag 2024. 19,99 Euro.

Digitale Wissenschaftskommunikation

Ein Blog zu Wissenschaft, Wissenschaftskommunikation und weiteren zeitgenössischen Sachverhalten mit Texten über Naturwissenschaften, Medizin, Soziologie, Philosophie und anderes findet sich unter: www.wissenswerkstatt.net

„New Work in der Medizin“

cover New Work MedizinPersonalmangel, Kostenexplosion und kritische Arbeitsbedingungen. Wann haben Sie das letzte Mal etwas Positives aus unserem scheinbar nicht reformierbaren Gesundheitssystem gehört? Die Autorinnen Vera Starker, Mona Frommelt und David Ruben Thies legen einen radikalen Gegenentwurf vor und entwickeln ein Zukunftsbild, in dem die Medizin wieder ihrem Sinn folgen kann: der Heilung und Pflege von Menschen. Das erste Sachbuch zum Thema New Work in der Medizin richtet sich an alle, die an einer Erneuerung des Gesundheitswesens interessiert sind. Vom medizinischen Personal bis hin zu Vorstand und Management sowie den Personalbereichen. Und nicht zuletzt, natürlich an Patienten. Erstmals wird ein konkretes New Work Modell für Healthcare vorgestellt, das Verantwortlichen Ansatzpunkte bietet, um eine Umgebung zu schaffen, die Gesundheit und Leistungsfähigkeit des Gesundheitspersonals fördert. Vera Starker, Mona Frommelt, David Ruben Thies: New Work in der Medizin. Rossberg 2022. 28 Euro.

„Das Lied der Zelle“

Cover das Lied der ZelleAls im späten 16. Jahrhundert der englische Universalgelehrte Robert Hooke und der holländische Tuchhändler Antonie van Leeuwenhoek durch ihre handgefertigten Mikroskope blickten, sahen sie etwas, was der Biologie und der Medizin ein radikal neues Konzept hinzufügte und beide Wissenschaften für immer veränderte: Komplexe lebende Organismen bestehen aus winzigen, in sich geschlossenen und sich selbst regulierenden Einheiten. Unsere Organe, unsere Physiologie, unser Selbst – Herz, Blut, Gehirn – sind aus diesen kleinen Teilen aufgebaut: den Zellen. Siddhartha Mukherjee erzählt vom enormen Potenzial unseres vertieften Verständnisses der Zellphysiologie und -pathologie. Es hat eine Revolution in Biologie und Medizin ausgelöst, transformative Medikamente hervorgebracht und Menschen verändert. Siddhartha Mukherjee: Das Lied der Zelle. Ullstein 2023. 32,99 Euro.

Trends für die Zukunft der Medizin

Die digitale Megatrendstudie des Zukunftsinstituts beschreibt zehn Gesundheitstrends, die in den nächsten Jahren prägend für Branchen und Märkte sein werden. Sie bieten Entscheidungsträgern im Gesundheitswesen und darüber hinaus – in Politik, Verwaltung und verschiedenen Industrien – Information und Orientierung. www.zukunftsinstitut.de

„Outlive“

Cover OutliveIn diesem Handbuch für ein langes und gutes Leben schildert Dr. Peter Attia die neuesten wissenschaftlichen Erkenntnisse, um innovative Ernährungsmaßnahmen und Techniken zur Bewegungs- und Schlafoptimierung anschaulich zu vermitteln – und er gibt Tipps für eine ausgeglichene emotionale und geistige Gesundheit. Denn trotz all ihrer Erfolge ist es der Schulmedizin bislang nicht gelungen, die zentralen Krankheiten des Alterns zu bekämpfen, an denen die meisten Menschen sterben: Herzkrankheiten, Krebs, Alzheimer und Typ-2-Diabetes. Dr. Attia fordert mit seinem Buch, dieses veraltete Konzept durch eine personalisierte, proaktive Strategie für ein langes Leben zu ersetzen. Wir alle müssen jetzt handeln und aktiv werden – und nicht warten. Peter Attia: „Outlive. Wie wir länger und besser leben können, als wir denken.“ Ullstein 2024. 24,99 Euro.

Das letzte Wort hat: Dr. med. Franziska Rubin, Ärztin, TV-Moderatorin und Buchautorin

0

Franziska Rubin studierte Medizin in Köln, absolvierte diverse Moderatorencoachings und nahm Schauspiel- und Gesangsunterricht. Heute ist sie bekannt aus Funk und Fernsehen und durch ihre vielen Bücher, die sie zu medizinischen Themen veröffentlicht hat. Ihr jüngstes Werk heißt „Magic Midlife. Wie die zweite Halbzeit zur besten Ihres Lebens wird“. Sie ist Verfechterin einer integrativen Medizin. Die Fragen stellte Christiane Martin.

Wo liegen für Sie die Grenzen der Schulmedizin? Unsere Hochschulmedizin hat gerade für akute Krisensituationen und schwere Erkrankungen segensreiche Antworten. Manchmal ist es aber so, als ob man mit Kanonen auf Spatzen schießt. Und unsere Art zu heilen bleibt immer eine Reparatur- Medizin. Wir als Ärzte geben oder tun etwas, um etwas wieder hinzubiegen, dass der Patient oft selbst verursacht hat. Wir nehmen ihn damit auch ein Stück aus der Verantwortung. Und was begeistert sie an der integrativen Medizin? Die bessere Medizin ist für mich die Mischung aus Hochschulmedizin (oder konventioneller Medizin) und komplementären Verfahren, allen voran unsere europäische Naturheilkunde. Die wenigsten wissen, wie viel gute Studien, evidenzbasiert, teilweise doppelblind, es mittlerweile zur Naturheilkunde und auch anderen komplementären Verfahren gibt. Damit stellt sich die Frage nach der Wirksamkeit eigentlich nicht mehr. Die Kunst besteht meines Erachtens darin, zu wissen, wann ich welches Verfahren anwende. Der Vorteil vieler naturheilkundlicher Verfahren ist, dass sie den Körper anregen, sich selbst zu heilen und dass sie den Patienten Mechanismen/Wissen an die Hand geben, sich anders zu verhalten und damit zur eigenen Besserung und Gesundheit beizutragen. Was tun Sie persönlich, um sich fit zu halten? Für mich trifft das Sprichwort zu: Steter Tropfen höhlt den Stein. In meinem Studium habe ich mich noch weitestgehend von Apfelsaft und Lakritze ernährt. Danach durfte ich in meiner Sendung „Hauptsache gesund“ jede Woche Professoren und Expertinnen aus den unterschiedlichen Bereichen begrüßen und habe viel von ihnen gelernt. Wie man sich krank machen kann, aber auch gesund erhält. Ohne dass ich es wirklich gemerkt habe, habe ich nach und nach unglaublich viel in meinem Leben verändert. Und ich kann sagen, es geht mir damit blendend.
Cover Magic MidlifeDr. med. Franzsika Rubin: Magic Midlife. Knaur 2024. 20 Euro. www.franziska-rubin.de
Welche Gesundheitstipps können Sie für den Alltag geben? In den Alltag gehören für mich alle fünf Säulen der Naturheilkunde: Also, zum Beispiel kann man jeden Tag mit einem Müsli mit unglaublich viel Ballaststoffen viel für seinen Darm tun, plus einem Apfel gegen zu hohes Cholesterin, ein paar Granatapfel-Kernen für die Gefäße oder mit einem Rote-Bete-Saft oder Hibiskus-Tee statt Kaffee beginnen, wenn man hohen Blutdruck hat. Für mich gehören die kalten Güsse (zumindest von Armen. Beinen und Gesicht) nach der warmen Dusche zum Alltag, weil dies nachweislich das Immunsystem pusht. Ich bin nur selten krank. Der tägliche Spaziergang mit dem Hund sowie ein kurzer Power-Nap sorgen dafür, dass ich in der Ruhe bleibe, auch an stressigen Tagen. Und manchmal greife ich in die Schatzkiste der Pflanzenheilkunde, Baldrian zum Schlafen, Salbei gegen Schwitzen oder Ashwaganda, um bessere Nerven zu haben. Was können Sie speziell jungen Ärztinnen und Ärzten mit auf den Weg geben, die am Anfang Ihrer beruflichen Laufbahn stehen? Ich glaube, es lohnt sich, sich für Naturheilkunde und komplementäre Verfahren zu öffnen, weil man als Arzt dann einfach mehr Handwerkszeug zur Verfügung hat. Außerdem sind naturheilkundlich interessierte Patienten motivierter mitzuarbeiten. Und ganz wichtig: Körper, Geist und Psyche hängen zusammen und alles beeinflusst einander. Es ist gut, daran zu denken. Weil selten ein Teil auf Dauer heilt, wenn man die andern nicht beachtet

E-Paper karriereführer recht 2.2024 – Mit Legal-Tech-Know-how Zukunft gestalten.

0
Ausgabe als PDF im Magazin-Layout downloaden

E-Paper karriereführer wirtschaftswissenschaften 2.2024 – Generative KI: Auf das Zusammenspiel von Mensch und Maschine kommt es an

0
Ausgabe als PDF im Magazin-Layout downloaden

Mit Legal-Tech-Know-how Zukunft gestalten

0

In Kanzleien wird die generative KI zum Gegenwartsthema. Large Language Modelle wie ChatGPT-4 unterstützen bei bestimmten anwaltlichen Tätigkeiten. Studien zeigen: Sie sind dabei so gut wie Menschen, aber schneller und kostengünstiger. Dieser Schub an Produktivität ist für Kanzleien notwendig – und gibt Juristinnen und Juristen die Möglichkeit, sich auf die Arbeiten zu fokussieren, bei denen sie wiederum der KI überlegen sind. Mit dem Ziel, eine Partnerschaft zwischen Mensch und Maschine zu etablieren. Ein Essay von André Boße

Die Signale aus dem Rechtsmarkt klingen zunächst widersprüchlich. Einerseits gehen die Akteure davon aus, dass die Bedeutung von Legal-Tech-Anwendungen (also speziell für den Rechtsmarkt konzipierte digitale Tools, zumeist auf KI-Basis) weiter steigen wird, weil sie die Arbeit in Kanzleien effizienter machen. Andererseits bleibt es für Kanzleien eine Hauptaufgabe, Fachkräfte zu rekrutieren. Ein Widerspruch ist das aber eben nicht. Zwar wird der Rechtsmarkt von immer neuen technischen Möglichkeiten geprägt, ausgelöst insbesondere durch Entwicklungen im Bereich der generativen künstlichen Intelligenz. Jedoch ersetzen diese KI-Modelle keine juristischen Fachkräfte – zumindest nicht in den Arbeitsbereichen, in denen es auf echte juristische Expertise ankommt. Weshalb es auch nicht möglich sein wird, den Fachkräftemangel auf dem Rechtsmarkt durch den Einsatz von künstlicher Intelligenz zu lösen, sondern im besten Fall abzumildern. Was wiederum bedeutet, dass keine Nachwuchskraft Angst haben muss, von einer künstlichen Intelligenz ersetzt zu werden.

Generative KI als Unterstützung

Online Kurse

Wer schnell und effizient seine Kenntnisse in Sachen KI für Juristinnen und Juristen erweitern will, findet im Internetangebot des Legal Tech Verbandes Informationen über Onlinekurse. Neben den Grundlagen der künstlichen Intelligenz erhalten die Teilnehmenden einen Überblick darüber, welche Rolle KI-Tools für den Rechtsmarkt spielen und wie sie sich gezielt im persönlichen Arbeitsalltag einsetzen lassen.
Im Einsatz sind Modelle der generativen KI aktuell vor allem als unterstützende Systeme für die Juristinnen und Juristen. Profitieren werden Kanzleien davon nur dann, wenn sie genügend Fachkräfte an Bord haben, die gewinnbringend mit den digitalen Systemen kooperieren. Die Kanzleiarbeit von morgen? Juristinnen und Juristen und KI-Modelle sind zusammen tätig, als Mensch-Maschine-Team. Wobei diese Partnerschaft dann von Erfolg gekrönt sein wird, wenn sich der Mensch nicht von der Maschine treiben lässt – sondern der Mensch es ist, der mit seinem juristischen Fachwissen und Gespür der generativen KI die richtigen Aufträge gibt. Die aktuelle Future Ready Lawyer-Studie des Beratungsunternehmens Wolters Kluwer belegt diese Entwicklung mit Zahlen. Seit fünf Jahren werden für den Report weltweit führende Mitarbeiter in Kanzleien oder Rechtsabteilungen befragt. Die neueste Untersuchung zeigt, dass ein Großteil der Befragten von einem wachsenden Einfluss von Systemen mit generativer KI ausgeht. Diese Modelle unterscheiden sich von der „klassischen“ KI, indem sie nicht nur in der Lage sind, vorgegebene Inhalte zu analysieren, sondern auch eigene Inhalte herzustellen.
Der wachsende Einfluss generativer KI auf die Rechtsbranche ist einer der bemerkenswertesten Trends der diesjährigen Studie.
„Der wachsende Einfluss generativer KI auf die Rechtsbranche ist einer der bemerkenswertesten Trends der diesjährigen Studie“, heißt es in der Zusammenfassung der Future Ready Lawyer-Untersuchung. So erwarten 73 Prozent, dass der Umgang mit den KI-Modellen in den kommenden Monaten ein Teil ihrer juristischen Arbeit werden – und damit die Tätigkeit stark beeinflussen wird. Die KI in den Kanzleien ist also kein Zukunfts-, sondern ein Gegenwartsthema. Ihr Einsatz, so die Studie, passiert nicht, weil neue Technik ein „Niceto- have“-Thema ist, das man ausprobieren sollte. Es sei vielmehr ein echter Druck zu spüren, die Systeme einzusetzen, als „ein entscheidendes Kriterium für höhere Leistung im Rechtsmarkt“, wie es in der Zusammenstellung des Reports heißt.

Plus an Produktivität

Dabei setzen die Befragten zwei Hoffnungen in die Arbeit mit generativer KI: Erstens soll sie dabei helfen, in den Kanzleien die Produktivität und Effizienz zu erhöhen. Zweitens soll sie dadurch erreichen, das „Risiko einer Fluktuation von Mandant:innen zu verringern“, so die Studienautorinnen und -autoren. Interessant ist das Ergebnis, dass 87 Prozent der Kräfte in Kanzleien, die bereits heute auf Legal-Tech-Tools setzen, berichteten, die Möglichkeiten der Technologie hätten ihre „tägliche Arbeit verbessert“. Wie zentral der Punkt ist, dass die Modelle mit generativer KI einen menschlichen Partner an ihrer Seite benötigen, zeigt die Bewertung der Herausforderung, Fachkräfte zu finden und zu halten: „81 Prozent aller Studien-Teilnehmer:innen gehen davon aus, dass die Arbeit in Kanzleien und Rechtsabteilungen davon geprägt sein wird, wie gut sie imstande sind, Fachkräfte einzustellen und zu binden“, heißt es in der Zusammenfassung der Future Ready Lawyer-Studie.

LLMs: Plug-and-Work-Unterstützung im Office

Wie aber kann generative KI überhaupt in Kanzleien eingesetzt werden? Ein Thema sind vor allem Large Language Modelle (LLM), das bekannteste unter ihnen ist ChatGPT. Dem Entwickler OpenAI ist es gelungen, das Modell bereits früh in der Breite einzuführen, aktuell läuft die Fassung GPT-4. LLM-Systeme gibt es aber auch von Google (PaLM 2) oder Meta (Llama 2). Das Fraunhofer Institut, das daran beteiligt ist, generative KI-Modelle für die Wirtschaft nutzbar zu machen, definiert die LLMs als „leistungsstarke Modelle, die darauf ausgelegt sind, menschliche Sprache zu verstehen und zu generieren. Sie können Text analysieren und verstehen, kohärente Antworten generieren und sprachbezogene Aufgaben ausfuhren.“
Im Gegensatz zu herkömmlichen Sprachmodellen können LLMs viele Aufgaben ohne zusätzliches Finetuning erfüllen.
Dadurch ermöglichten sie eine natürliche Sprachverarbeitung, mit der Unternehmen und Kanzleien Erkenntnisse aus großen Mengen von Textdaten extrahieren oder ihre Content-Erstellung verbessern können. Der Clou: „Im Gegensatz zu herkömmlichen Sprachmodellen können LLMs viele Aufgaben ohne zusätzliches Finetuning erfüllen.“ Sprich, als Partner an der Seite einer juristischen Fachkraft ist dieses Modell kein Anfänger, sondern bereits mit sehr vielen Kenntnissen ausgestattet. Und gerade das macht die Arbeit mit ihm so effizient: Er ist von Beginn an startklar. Plug-and-Play nennt man das bei Unterhaltungsgeräten. Hier kann man von Plug-and-Work sprechen: Für Kanzleien ist das hochattraktiv, um schnell an Produktivität zuzulegen.

GPT-Jobs: zusammenfassen, recherchieren, umformulieren

Goldman Sachs Studie: Die KI übernimmt 44 Prozent

In einer Studie hat die Research-Abteilung der Investmentbank Goldman Sachs untersucht, in welchen amerikanischen Arbeitsbereichen die generative KI das größte Potenzial besitzt, bestimmte Tätigkeiten komplett zu übernehmen. Ganz oben auf der Liste: Tätigkeiten in der Verwaltung (46 Prozent) sowie im Rechtsbereich (44 Prozent). Gleichzeitig prognostiziert die Studie gerade für diese Bereiche einen Produktionsboom. Tritt dieser ein, hebt die KI das Arbeiten auf dem Rechtsmarkt auf ein neues Level.
Konkret schlägt Dr. Dirk Schrameyer, Leiter des Bereichs Digital Product Management Legal bei Wolters Kluwer in Deutschland, in einem Interview mit dem Fachportal Legal Tech Verzeichnis den Einsatz von LLMs dann vor, wenn es darum geht, gerichtliche Entscheidungen zusammenzufassen und den Inhalt von Urteilen und Beschlüssen zu erfassen. LLMs seien in der Lage, den gesamten Schriftsatz schnell zusammenzufassen – inklusive Sachverhalt und Verfahrensgang. „Dies ermöglicht eine schnelle inhaltliche Bewertung der Entscheidungen und reduziert die Anzahl der Dokumente, die vollständig gelesen werden müssen“, wird Dr. Dirk Schrameyer zitiert. Auf diese Art können in kurzer Zeit genau die relevanten Entscheidungen identifiziert werden, die für einen bestimmten Sachverhalt von Bedeutung sind. Es gehe nicht darum, so Dr. Schrameyer, dass die Juristinnen und Juristen sie nicht mehr lesen sollten. Der entscheidende Punkt sei, dass die LLMs für Zeitersparnis sorgen, indem sie die Entscheidungen identifizierten, die relevant seien. Weitere Einsatzbereiche von generativer KI in Kanzleien sind Tools, die bestimmte Inhalte juristischer Dokumente direkt mit den betreffenden Rechtsprechungen und Gesetzen in den Datenbanken verbinden. Auch beim Erstellen von Vertragstexten sowie bei der Umformulierung von gesetzlichen Texten – zum Beispiel, um sie für Laien verständlicher zu machen – bietet die generative KI effiziente Unterstützung.

GPT schlägt juristische Aushilfskräfte

Wer noch Zweifel hat, ob LLMs im Dickicht des Kanzleialltags und der juristischen Komplexität auch tatsächlich das halten, was sie versprechen, erhält in ersten Studien Antworten. Das in Neuseeland beheimatete AI Center of Excellence hat untersucht, wie gut LLMs im Vergleich zu menschlichen Hilfskräften darin sind, Vertragstexte auf ihre juristische Stichhaltigkeit zu überprüfen. Mit Bezug auf die amerikanische Anwaltsserie „Better Call Saul“ gaben die Forschenden ihrer Studie die Überschrift „Better Call GPT“. Verglichen wurde die Leistung der generativen KI mit der von Rechtsreferendarinnen und -referendaren oder LPOs, also Legal Process Outsourcers, die von der Kanzlei beauftragt werden, diese Prüfungen zu übernehmen.
Insbesondere bei der Geschwindigkeit der Vertragsprüfung zeigen LLMs einen deutlichen Vorteil aufgrund ihrer Rechenleistung, die es ihnen ermöglicht, Texte viel schneller zu verarbeiten und zu analysieren als menschliche Fachkräfte.
Die Ergebnisse zeigen, dass die LLMs mit Blick auf die rechtlichen Aspekte die Vertragstexte genauso gut bestimmen und bewerten, wie es die menschlichen Prüferinnen und Prüfer tun. „Insbesondere bei der Geschwindigkeit der Vertragsprüfung zeigen LLMs einen deutlichen Vorteil aufgrund ihrer Rechenleistung, die es ihnen ermöglicht, Texte viel schneller zu verarbeiten und zu analysieren als menschliche Fachkräfte. Dieser Vorteil ist ein entscheidender Faktor in Bezug auf die Produktivität und die Durchlaufzeiten bei der Vertragsprüfung“, heißt es in der Zusammenfassung der Studie. LLMs lieferten also genaue Ergebnisse zu einem Bruchteil der Zeit und der Kosten, die für die herkömmliche, von Menschen durchgeführte Prüfung erforderlich sei, bewerten die Studienautorinnen und -autoren das Ergebnis ihrer Untersuchung. Ist es also doch so, dass die Maschine den Menschen ersetzt? Für bestimmte Dienstleistungen wie zum Beispiel die Überprüfung von Vertragstexten gilt das. Diese Services sind allerdings keine Beispiele für eine Arbeit, bei der es auf juristische Finesse ankommt, die nach anwaltlichem Gespür oder einem empathischen Umgang mit den Mandantinnen und Mandanten und ihren juristischen Problemen verlangt. Überall dort also, wo es auf den Menschen ankommt, wird auch auf dem neuen, verstärkt von generativer KI geprägten Rechtsmarkt eine Form von juristischem Know-how gefragt sein, über das selbst die komplexesten und besttrainierten LLMs nicht verfügen. Und wohl auch nie verfügen werden. Es lohnt sich also gerade für den Nachwuchs, sich früh auf diese nicht ersetzbaren Skills zu fokussieren. Wer hier gut aufgestellt ist, findet auf dem Rechtsmarkt der Zukunft auch weiterhin attraktive Jobs – und darf davon ausgehen, als Nachwuchskraft nicht übermäßig mit langweiliger Routinearbeit behelligt zu werden. Denn genau dafür ist die generative KI ja jetzt da.

Zwei-KI-Prinzip gegen Halluzinationen

Wenn LLMs „halluzinieren“, bedeutet das, sie erfinden falsche Fakten. Weil sie sich verschätzen, ihr Deep-Learning-Programm auf eine falsche Fährte gerutscht ist oder sie den Spruch, dass Reden Silber, aber Schweigen Gold sei, nicht kennen. Gerade im juristischen Bereich sind falsche Pseudo-Fakten fatal. Weshalb die LLM-Entwickler aktuell viel dafür tun, den Modellen das Halluzinieren abzugewöhnen. Zum Beispiel, indem sie eine KI-Prüfschleife implementieren, die einen KI-generierten Text prüft. Nach dem Motto: Zwei KIs sind besser als eine.

Cyberstaatsanwältin Jana Ringwald im Interview

Als sich die Staatsanwältin Jana Ringwald entschied, ein Inhouse-Seminar zum Thema Cyberkriminalität zu besuchen, ahnte sie nicht, wie sehr sie dieses Thema fesseln würde. Heute ermittelt sie als Oberstaatsanwältin bei der Zentralstelle zur Bekämpfung der Internetkriminalität (ZIT) der Generalstaatsanwaltschaft Frankfurt am Main zusammen mit ihrem Team sehr erfolgreich bei Cyberattacken auf Unternehmen und Vergehen im Darknet. Auf welche Skills es dabei ankommt, erzählt sie im Interview. Die Fragen stellte André Boße

Zur Person

Jana Ringwald ist Oberstaatsanwältin bei der Zentralstelle zur Bekämpfung der Internetkriminalität (ZIT) der Generalstaatsanwaltschaft Frankfurt am Main. Sie leitet dort das Team Cybercrime, das regelmäßig international koordinierte Ermittlungsverfahren mit dem Bundeskriminalamt führt. Jana Ringwald leitet zudem die Zentralstelle zur Verwertung virtueller Währungen der hessischen Justiz und bildet bundesweit Justiz- und Polizeiangehörige in der Sicherstellung und Einziehung von virtuellen Währungen aus. Vor ihrem Einstieg in diesen Bereich hatte sie nach ihrem Jura- und Geschichtsstudium eine konventionelle Karriere als Staatsanwältin gestartet.
Frau Ringwald, vor sieben Jahren besuchten Sie ein Inhouse-Seminar zum Thema Cyberkriminalität. Warum hat diese Weiterbildung alles geändert? Diese Schulung fand zu einem Zeitpunkt statt, an dem ich offen für etwas Neues war. In der Justiz gibt es ein Spannungsverhältnis zwischen Expertentum einerseits und Verwendungsbreite andererseits. Das heißt, es werden Juristen benötigt, die in Feldern wie dem Betäubungsmittelstrafrecht oder dem Wirtschaftsstrafrecht tief in der Materie stecken. Wir dürfen aber nicht zu reinen Fachkräften werden, als Volljuristen müssen wir universell einsetzbar bleiben. Dieser Anspruch an unsere Arbeit wird mit zunehmender Spezialisierung zu einer echten Gratwanderung. Bei mir war es so, dass ich viele Jahre im Wirtschaftsstrafrecht tätig war. Mit Blick auf meine Laufbahn war es notwendig, auch Neuland zu beschreiten. Was haben die Leiter der Inhouse- Schulung denn richtiggemacht, dass Sie dort Feuer gefangen haben? Die Kollegen haben uns einen sehr anschaulichen und praxisnahen Eindruck von der Arbeit in ihrem Bereich gegeben. Dass man an das Ermitteln im Darknet ganz anders herangeht als an konventionelle Ermittlungen. Ich war wirklich blutige Anfängerin. Viele schreckt es ab, sich auf etwas völlig Neues wie Internetkriminalität einzulassen. Klar, das juristische Instrumentarium ist dasselbe. Aber es präsentiert sich in diesem Bereich komplett neu. Mich hat das sehr gereizt. Abseits davon, dass Sie ein neues Feld erobern wollten – warum gerade dieses? Es gibt eine gewisse Notwendigkeit, sich als Juristin und Staatsanwältin mit Internetthemen zu beschäftigen, weil wir in einer Zeit leben, in der die Cyberwelt immer weiter an Bedeutung gewinnt. Unser Leben findet zu großen Teilen auch im Netz statt. Das spiegelt sich in der kriminellen Welt. Bei der Schulung sah ich die Chance, als Staatsanwältin hier anzuknüpfen. Wie haben Sie das notwendige Wissen erlangt? Ich habe mich ins Internet begeben, mir dort das Wissen angeeignet, wie das Internet funktioniert, um zu verstehen, wie ich dort arbeiten muss. Auch Cyberkriminelle holen sich ihr Wissen im Netz. Gewissermaßen bin ich vorgegangen wie sie.

ZIT

Die Zentralstelle zur Bekämpfung der Internetkriminalität (ZIT) wurde 2010 als Außenstelle der Generalstaatsanwaltschaft Frankfurt am Main errichtet. Sie ist erste Ansprechpartnerin des Bundeskriminalamtes für Internetstraftaten bei noch ungeklärter örtlicher Zuständigkeit in Deutschland oder bei Massenverfahren gegen eine Vielzahl von Tatverdächtigen bundesweit. Als operative Zentralstelle bearbeitet die ZIT besonders aufwendige und umfangreiche Ermittlungsverfahren aus den Deliktsbereichen Kinderpornographie, Darknet-Kriminalität, Cyberkriminalität im engeren Sinne wie Hackerbetrug oder Datendiebstahl sowie Hasskriminalität im Internet (Hate Speech).
Wieviel wissen Sie heute darüber? Realistisch betrachtet, habe ich mir ein qualifiziertes technisches Laienwissen angeeignet. Die Profis, mit denen ich arbeite, wissen natürlich deutlich mehr. Nicht selbst die Expertin zu sein, ist aber auch Teil meines Jobs. Ich muss die neue Materie durchdringen und die Sachlage, nachdem ich meine rechtlichen Schlüsse daraus gezogen habe, zum Beispiel dem Ermittlungsrichter näherbringen. Der schaut vor allen Dingen durch eine juristische Brille auf unsere Anträge. Sie verbinden also die Welt der Nerds mit der normalen juristischen Welt. Genau, es ist eine meiner Aufgaben, eine Art kommunikative Brücke zu bauen. Ich habe gerade heute ein Gespräch geführt, bei dem ich meine Spezialisten noch mal gefragt habe: „Die Sache ist also folgendermaßen, hab‘ ich das richtig verstanden?“ Und die sagten: „Nein, das ist dieses Mal ein bisschen anders.“ Und dann wurde mir erläutert, was genau das ist. Auf diese Weise korrigiert zu werden, hilft mit, die jeweilige Sachlage für den justiziellen Apparat vorzubereiten. Heißt: Für Ihren Job wäre ein IT-Studium eher hinderlich? So weit würde ich nicht gehen, aber ich werde oft gefragt: „Wäre es nicht besser gewesen, du hättest Informatik studiert?“ Meine Antwort: Man muss es nicht studiert haben. Ideal wäre, man verbände als Staatsanwalt in meinem Bereich beides: IT-Fachwissen und Brückenfunktion. Wichtiger ist aber Zweiteres. Sehen Sie, die Justiz ist ein sehr konventionelles Gebilde, und sie ist deshalb so beständig, weil sie sich selbst treu geblieben ist. Das bedeutet, dass ultramoderne Themen, zum Beispiel aus der IT-Welt, in diesen Apparat hineinfließen müssen. Dafür braucht es Schnittstellen, an denen das neue Wissen aus der Cyberwelt in die Justiz übergeht.
Kriminalität hält unserer Gesellschaft und Lebensweise den Spiegel vor und legt dort den Finger in die Wunde.
Und das ist Teil Ihres Jobs. Genau. Denn der Ermittlungsrichter hatte vor meinem Fall vielleicht eine Schlägerei oder eine Urkundenfälschung. Meine Aufgabe ist es, ihm nahezubringen, wie sich das, was sich im Netz abspielt, unter unser Normverständnis subsumieren lässt. Und er muss – genau wie ich zuvor – in die Lage versetzt werden, das überprüfen zu können. Die Grundlage unserer Arbeit sind Tatsachen, aus denen ziehen wir unsere rechtlichen Schlüsse. Wie sieht Ihr Arbeitsalltag aus? Ich surfe nicht permanent im Darknet und ermittle. Diesen Job übernehmen die Ermittler. Mit denen sind meine Kollegen und ich in einem sehr engen Austausch, immer verbunden mit der Frage: Was hat als Nächstes zu geschehen? Was ist zu veranlassen, was ist ein kluger nächster Schritt? Wir müssen viele unserer Fälle buchstäblich selbst gestalten. Weil wir nicht nur dann ermitteln, wenn jemand eine Anzeige erstattet hat. Wo liegt die Herausforderung bei Ihrer Arbeit? Wir müssen uns gut überlegen, wie wir unsere Ressourcen einsetzen, wo wir hinschauen, wie wir taktisch vorgehen. Zumal wir permanent im technischen und oft auch im rechtlichen Neuland unterwegs sind. Das heißt, es gibt keine gesetzten juristischen Leitplanken, die uns führen. Das führt dazu, dass wir sehr viel diskutieren. Das ist allerdings auch ein spannender Teil meiner Arbeit. Bräuchte es ein neues Rechtssystem für die Cyberwelt? Ich glaube nicht. Klar, unser Rechtssystem ist in einer Zeit entstanden, als Telefone noch Wählscheiben hatten. Aber wir können in diesem Rechtssystem erfolgreich ermitteln, auch bei Cybervergehen. Das bedeutet, das bestehende Reglement klug einzusetzen. Stellenweise gibt es natürlich immer wieder wichtige gesetzgeberische Anpassungen.
Cover RingwaldZum Vertiefen: Jana Ringwald: Digital. Kriminell. Menschlich. Eine Cyberstaatsanwältin ermittelt. 220 Seiten. Murmann 2024. 25,00 €.
Welche Art von Kriminalität findet im Netz statt? Es ist häufig ein Äquivalent der Fälle, die wir draußen auf der Straße erleben. Drogen- oder Waffenhandel gab es immer, nun haben sie sich ins Netz verlagert. Der Banküberfall von früher ist heute ein Online-Banking-Trojaner: gleiche Grundintention, anderes Mittel. Interessant finde ich, dass Kriminalität immer auch die Gesellschaft spiegelt und da den Finger in die Wunde legt. Ein Online-Banking-Trojaner zum Beispiel profitiert von unserer Bequemlichkeit und dem Wunsch, zu jeder Zeit mobil auf unser Konto zuzugreifen. Wie gut sind die Unternehmen in Deutschland vor Cyberangriffen geschützt? Das Thema Cybersicherheit gerät mehr und mehr ins Bewusstsein. Es wird auf höchster Ebene mitgedacht, es gibt Budgets und eine Sensibilität. Gut aufgestellt sind meiner Meinung nach Unternehmen, die davon ausgehen, dass der schlimmste Fall zeitnah eintritt – und die trainieren, in diesem Fall die richtigen Maßnahmen zu ergreifen. Keinem Unternehmen wird es gelingen, niemals angegriffen zu werden. Ein gut geschütztes Unternehmen ist daher eines, das mit dem Ernstfall rechnet und vorbereitet ist. Blicken Sie mit Sorge auf den Durchbruch der generativen KI? Ich glaube nicht, dass die generative KI die Grundstruktur von Kriminalität im Netz komplett auf den Kopf stellen wird. Sie ist allerdings ein Skalierungselement, sprich, sie erhöht etwa die Masse an Angriffen oder an betrügerischen E-Mails. Sie erleichtert den Tätern viele technische Zwischenschritte, was zweifelsohne ein ernstzunehmendes Problem darstellt. Darauf müssen wir vorbereitet sein. Besitzt der Umgang mit Bitcoins mehr kriminelles Potenzial als Bargeld? Wenn Sie es schaffen, jemandem in einem Park komplett unbeobachtet eine große Menge an Bargeld in einer Papiertüte zu übergeben, hinterlassen Sie deutlich weniger Spuren, als wenn Sie eine kriminelle Bitcoin-Aktion vornehmen. Denn die Datenspuren, die Sie dort hinterlassen, sind durch Tracing-Tools verfolgbar. Grundsätzlich können wir im Bereich der Kryptowährung gut ermitteln: Die Transaktionen sind nachvollziehbar, gerade beim Bitcoin, der auf der Blockchain-Technik beruht. Wobei hinter derartigen Transaktionen kein Klarname steht. Es kommt also vor, dass wir wissen, was passiert ist – aber verschleiert ist, wer das veranlasst hat. Hier wartet dann wieder Ermittlungsarbeit auf uns. Klar ist aber, dass es sich lohnt, bei diesem Thema polizeilich und justiziell zu investieren. Kryptowährungen sind nicht irgendein technischer Gag, sie sind komplett in der Finanzwelt angekommen. Darauf finden wir täglich Antworten. Was sind die zentralen Skills, die Sie als Cyberstaatsanwältin täglich benötigen? Mutig zu sein. Ich kann nicht darauf vertrauen, dass mir jemand sagt: „Das habe ich schon mal gemacht, das geht folgendermaßen, Jana.“ Es kommt regelmäßig vor, dass ich Wege beschreite, die vorher noch niemand beschritten hat. Es geht dann kopfüber ins kalte Wasser. Wichtig ist zudem ein großes Abstraktionsvermögen. Ich habe kein Tatmesser in der Asservatenkammer liegen. Mein Team und ich sind auch nie am Tatort. Es liegt alles im Abstrakten. Die Welt, in der wir uns tummeln, besteht aus Daten. Dafür sollte man ein Verständnis mitbringen. Und auch eine gewisse Freude, denn unsere Spuren sind nicht der Fußabdruck im Park, sondern eine Kombination aus Nullen und Einsen.

Kuratiert

0

Regelwerk für wirksame Beaufsichtigung von KI

Die Europäische Kommission hat kürzlich den „AI Act“ erlassen. In dem Gesetz ist geregelt, dass KI-Systeme, die einen weitreichenden Einfluss auf das Leben von Menschen haben können, auch von Menschen „wirksam beaufsichtigt“ werden können. Offen geblieben ist jedoch, wie diese wirksame Aufsicht aussehen und gestaltet werden kann. Wissenschaftlerinnen und Wissenschaftler aus den Bereichen der Informatik, Philosophie, Psychologie und Rechtswissenschaft aus Saarbrücken, Dresden und Freiburg haben Antworten auf diese Frage gesucht und nun ein Regelwerk vorgelegt. Hierin finden sich Kriterien, die den Entwicklern und Anwendern von KI-Systemen, aber auch Gesetzgebern und Gerichten einen Rahmen geben sollen, um die wirksame Aufsicht zu gewährleisten.

International Legal Studies als Schlüssel zur internationalen Karriere

Seit Herbst 2024 bietet die Universität Trier einen neuen Studiengang an, der Kenntnisse im deutschen Recht und in (mindestens) einem von sechs ausländischen Rechtssystemen vermittelt. Zur Auswahl stehen angloamerikanisches, französisches, spanisches, türkisches, japanisches und chinesisches Recht. Muttersprachliche Juristinnen und Juristen vermitteln das Wissen. Daher sind Fremdsprachenkenntnisse Voraussetzung für die Teilnahme – mit Ausnahme von Chinesisch und Japanisch. Fester Bestandteil des Internationalen Jura-Bachelors ist ein Auslandssemester an einer der Partneruniversitäten. Auf Wunsch können Interessierte auch ein ganzes Jahr im Ausland studieren oder ein Praktikum im Ausland absolvieren. Da der Abschluss mit dem Bachelor of Laws „International Legal Studies“ international anerkannt ist, sind Absolventinnen und Absolventen bestens für den Arbeitsmarkt gewappnet.

Verletzung des Persönlichkeitsrechts durch KI-generierte Stimmen?

Per künstlicher Intelligenz lassen sich Stimmen von Personen täuschend echt nachbilden. Das wirft juristische Fragen auf. In den USA und in China sind erste Urteile gefällt worden. Davon berichtet die Wirtschaftsprüfungsgesellschaft Rödl & Partner und nimmt eine rechtliche Einordnung für Deutschland vor. Im US-Bundesstaat Tennessee reguliert der so genannte ELVIS Act den Einsatz von KI-Stimmen. Ein chinesisches Gericht befand jetzt, dass die Nutzung von KI zur Nachbildung einer Stimme rechtswidrig sein kann, da die Stimme ein Teil der Persönlichkeit ist. Sie charakterisiere den Menschen und ermögliche, ihn zu identifizieren. Auch in Deutschland fällt die Stimme unter den Schutz des allgemeinen Persönlichkeitsrechts. Wird die Stimme einer Person ohne deren Einverständnis genutzt, kann die betreffende Person wegen materieller oder immaterieller Schäden dagegen vorgehen. von Dr. Marion Steinbach

Künstliche Intelligenz verstehen und nutzen

Generative KI bietet enormes Potenzial. Jedoch sind nicht alle Antworten und Lösungen, die ChatGPT und Co. liefern, korrekt. Wir haben Dr. Aljoscha Burchardt, Experte in Sprachtechnologie und künstlicher Intelligenz, gebeten, uns die Ursachen für das „Halluzinieren“ von KI und mögliche Lösungen zu erklären. Die Fragen stellte Dr. Marion Steinbach.

Zur Person

Dr. Aljoscha Burchardt forscht als Principal Researcher am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Berlin. Gemeinsam mit der Journalistin Nadia Kailouli geht er in dem rbb-Podcast „KI und jetzt?“ der Frage nach, was KI mit den Menschen macht und was wir mit ihr machen können. Er ist u. a. Senior Research Fellow des Weizenbaum-Institutes für die vernetzte Gesellschaft, stellvertretender Vorsitzender der Berliner Wissenschaftlichen Gesellschaft sowie Mitglied im Fachausschuss Kommunikation und Information der UNESCO. 2018-2020 war er sachverständiges Mitglied der Enquete-Kommission „Künstliche Intelligenz“ des Deutschen Bundestages.
Wie kommt es zu dem, was als Halluzinieren von KI bezeichnet wird? Erst einmal gefällt mir die Formulierung „bezeichnet wird“. Tatsächlich finde ich den Begriff Halluzination trotz seiner Einprägsamkeit irreführend und letztlich ist er auch stigmatisierend. Die Systeme haben kein Bewusstsein und entsprechend auch keine Wahnvorstellungen. Wenn von KI generierte Texte Aussagen oder Fakten enthalten, die nicht stimmen, spricht man von Halluzination. Dazu kommt es, weil die Systeme im Kern einfach immer nur das nächste Wort vorhersagen, bis der gewünschte Text da steht. Das ist reine Statistik, die Wortfolgen klingen total plausibel und häufig stimmt auch, was da steht. Aber eine Garantie gibt es nicht, die Systeme sind keine Orakel oder Wahrheitsmaschinen. Woran erkennt man, dass die KI „halluziniert“? Wie gesagt, es geht hier gar nicht um die KI, es geht einfach nur darum, ob der Output stimmt. Ob zum Beispiel generierte Publikationsangaben und Links existieren, ob genannte Fakten stimmen oder die Aussagen wahr sind. Das prüft man genauso, als ob sie von einem Menschen kommen, dessen Fähigkeiten wir vielleicht nicht kennen. Wenn meine kleine Tochter etwas Falsches sagt, spreche ich übrigens auch nicht von Halluzinationen. In welchen Bereichen kann das heikel sein? Kontexte, in denen Fehlinformationen und Unwahrheiten heikel sein können, kann man sich beliebig ausdenken. Ein Beispiel sind sicherlich die anstehenden Wahlen, bei denen Leute auf die Idee kommen könnten, sich von einem Chatbot beraten zu lassen oder nach den Positionen von bestimmten Politikern zu bestimmten Themen zu fragen. Was bedeutet das für die User? Sie müssen auch verstehen, dass generative KI-Systeme keine Suchmaschinen sind. So bequem es scheint, sich auf den mundgerechten Output der Systeme zu verlassen, man sollte nur Dinge anfragen, die man überprüfen kann. Mittlerweile gibt es aber doch KI, die Quellen angibt. Dann ist der User doch auf der sicheren Seite, oder nicht? Das macht es sicher leichter, die Ergebnisse im Zweifelsfall zu überprüfen. Allerdings sind Menschen ja auch gerne bequem und das überprüfen ist natürlich wieder mehr Aufwand. Bisher habe ich noch kein Gefühl dafür, welche Aussagen man überhaupt entsprechend belegen kann. Einfache Fakten und Wahrheiten oder (abgewandelte) Zitate sicher. Aber was ist mit freieren Texten, die sich von den Trainingstexten ablösen? Wie kann die IT das Problem lösen? Man kann Systeme für bestimmte Aufgaben anpassen und optimieren, man kann auch hybride Systeme bauen, die explizites Wissen mit statistischer Power kombinieren, da wird noch einiges kommen. Was empfehlen Sie den Usern, bis das Problem gelöst ist? Ob es theoretisch überhaupt gelöst werden kann, sei mal dahingestellt. In jedem Fall ist es wichtig, sich zu überlegen, welche Aufgaben man an die Technologie abgeben möchte und wie die Ergebnisse geprüft werden (immer/ stichpunktartig/teilautomatisch etc.). In Summe sollte sie uns Arbeit abnehmen, unsere Fähigkeiten erweitern und die Arbeit sollte mindestens genauso viel Spaß machen wie ohne KI. Dann haben wir gewonnen. Alle Folgen des Podcasts „KI – und jetzt? Wie wir Künstliche Intelligenz leben wollen“, eine Co-Produktion von rbb und DFKI, sind in der ARD Audiothek App verfügbar und überall dort, wo es Podcasts gibt.

Klicken Sie auf den unteren Button, um den Inhalt von Spotify zu laden.

Inhalt laden