Die Gemengelage ist diffus: Mal ist die generative KI eine Heilsbringerin, mal verantwortlich für den Verlust vieler Jobs oder sogar die Apokalypse. Die Wahrheit liegt wohl in der Mitte. Ja, die KI wird viele Aufgaben übernehmen, von der Fleißarbeit bis zur Ideenfindung. Dennoch ergibt sich mit Blick auf die Arbeit von Softwareentwicklerinnen und -entwicklern ein positives Szenario: Der Fachkräftemangel wird durch die KI abgemildert, die Zufriedenheit im Job steigt. Denn wenn Developer eines nicht mögen, dann Langeweile. Ein Essay von André Boße.
Was ist dieser Sam Altman denn nun, Prophet mit flexiblen Positionen oder einfach nur ein guter Geschäftsmann? Die Süddeutsche Zeitung brachte im Juli 2024 ein Porträt über den Chef des derzeit einflussreichsten KI-Unternehmens OpenAI; 2023 erkor das Time Magazine ihn zum „CEO of the year“. In dem SZ-Artikel wird noch einmal daran erinnert, dass Altman im Jahr 2015 die Ansicht vertreten hatte, die KI „wird uns vermutlich alle töten, aber bis dahin wird sie wirklich nützlich sein“. Okay, diese Aussage ist zehn Jahre alt. Seitdem ist aus der Zukunfts- eine Gegenwartstechnologie geworden, doch warnte Altman laut SZ auch im Jahr 2023 noch: „Wenn diese Technologie schiefgeht, kann es gewaltig schiefgehen.“
OpenAI löst „Superalignment“-Team auf
Erst im Juli 2023 hatte OpenAI ein Team gegründet, das mit der Aufgabe betraut wurde, ein KI-System, das klüger ist als wir Menschen sind, so zu kontrollieren, dass es sich angemessen, also im Sinne der Menschlichkeit, verhält – und den Menschen nicht überw.ltigt. Dieses spezielle „Superalignment“-Team wurde knapp ein Jahr später wieder aufgelöst. So meldete es im Mai 2024 das Tech-Magazin Wired. Zuvor hatten mehrere Mitarbeiterinnen und Mitarbeiter das Team verlassen. In einem Posting in den sozialen Netzwerken merkte das aus Deutschland stammende, leitende Ex-Teammitglied Jan Leike an, seine Entscheidung beruhe auf Meinungsverschiedenheiten über die Prioritäten des Unternehmens und die Höhe der Ressourcen, die seinem Team zugewiesen wurden. Laut Unternehmen werde der Auftrag des Teams von nun an in die generelle Forschung und Entwicklung integriert.
Schaut man wiederum auf die Homepage seiner Company OpenAI, heißt es dort in der Selbstbeschreibung des Unternehmens: „Unsere Mission ist es, sicherzustellen, dass künstliche allgemeine Intelligenz (i. O. „artificial general intelligence“) der gesamten Menschheit zugutekommt.“ Ein Satz, der sich nicht so liest, als sei die KI eine Gefahr – sondern eher die zentrale Hoffnungsträgerin, um die vielen Probleme der Menschheit zu lösen. Wo die Wahrheit liegt? Vermutlich wie so häufig in der Mitte. Weder ist davon auszugehen, dass es der KI eines Tages in den „Sinn“ kommt, die Menschheit abzuschaffen. Noch wird es so weit kommen, dass wir Menschen uns entspannt zurücklehnen können, während die KI die Klimakatastrophe beendet oder die Ernährung aller Menschen sicherstellt.
Sam Altman: Keine Angst, aber angemessene Vorsicht
Klar ist aber: Wie bei allen neuen Technologien müssen wir Menschen aufpassen, dass sie uns nicht über den Kopf wächst. Das funktioniert zum Beispiel mithilfe von Regularien. Technische Gesellschaften sind geübt darin, Fortschritte in ein funktionierendes Regelwerk einfließen zu lassen. Die gesamte Straßenverkehrsordnung ist ein gutes Beispiel dafür. Diese wurde bei der Erfindung des Autos ja nicht mitgeliefert, sie ist vielmehr das Ergebnis eines Prozesses, sich Gedanken darüber zu machen, wie es gelingen kann, motorisierte Fahrzeuge im öffentlichen Raum zu integrieren.
In einer Diskussion am Massachusetts Institute of Technology (MIT) im Mai 2024 fand Altman ein anderes, differenziertes Beispiel, um die Notwendigkeit von Regulierungen zu veranschaulichen. Unterschiedliche Arten von KI-Systemen erforderten unterschiedliche Regulierungsniveaus, sagte Altman in dem Gespräch, das auf der Website des MIT dokumentiert ist. Er verglich diese Denkweise mit den kontextspezifischen Vorschriften für Lebensmittel: Baue man diese zu Hause in Gartenkästen nur für den Eigenverbrauch an, ergebe sich daraus kein Regulierungsauftrag. Werden Lebensmittel jedoch im großen Stil angebaut, um sie landesweit in Geschäften zu verkaufen, seien viele Vorschriften notwendig. Was Altman sagen will: Auf die Balance kommt es an. Darauf, aus dem jeweiligen Kontext und der jeweiligen Wirkungskraft je nach Nutzung die richtigen regulatorischen Maßnahmen abzuleiten. Sein Credo: „Lasst uns nicht aus Angst handeln, sondern mit einer angemessenen Vorsicht vorgehen.“ So wird Sam Altman auf der MIT-Homepage zitiert.
Heute noch programmieren lernen – sinnvoll oder nicht?
Angemessen aufmerksam zu sein, ist auch ein kluges Mindset für alle, die aktuell im IT-Bereich ihre Karriere beginnen. Henok Kuflom ist Vice President der IT-Personalberatung Ratbacher. Seit vielen Monaten werde er regelmäßig mit pessimistischen Prognosen aus der Branche konfrontiert, schreibt er in einem Meinungsbeitrag auf der Ratbacher-Homepage. „KI programmiert so gut wie ein Mensch“, „In fünf Jahren gibt es keine Programmierer mehr“ oder „KI wird die meisten Programmierjobs überflüssig machen“ – dies sei der Sound, der durch die Medien gehe, seit mit ChatGPT ein Large Language Model (LLM) den Weg in die Öffentlichkeit gefunden hat. Eine Phantomdiskussion sei das allerdings nicht, wie Kuflom schreibt: „Es gibt zahlreiche Möglichkeiten, ChatGPT und Co. zu nutzen. Eine davon ist die Entwicklung von Code, denn die Anwendungen mit Künstlicher Intelligenz unter der Haube beherrschen unter anderem beliebte Script- und Programmiersprachen wie JavaScript, Python, PHP, C++, C# und SQL.“
Sinnhaftigkeit und Werte
Die Community-Befragung „#wanted and #misunderstood – A developer survey“ des Portals WeAreDevelopers kam zu dem Ergebnis, dass Sinnhaftigkeit der Arbeit und die Werte eines potenziellen Arbeitgebers für den Großteil der Befragten eine entscheidende Rolle spielen. So bevorzugten 70 Prozent der Teilnehmenden Unternehmen mit „klaren Nachhaltigkeitszielen“, wie es in der Pressemitteilung heißt. 46 Prozent der Befragten sei die Sinnhaftigkeit eines Jobs sogar wichtiger als die Vergütung. Damit stuften sie diese als wichtigsten Entscheidungsfaktor ein. 42 Prozent der Teilnehmenden bevorzugten eine Vier- Tage-Woche zugunsten einer ausgewogeneren Work-Life-Balance.
Noch jedoch sei der Code, den die KI-Tools generieren, „häufig teilweise fehlerhaft, instabil oder unsicher“. Es sei aber auch sicher, dass die Programmierfähigkeiten der LLMs besser werden. Weshalb er Verständnis dafür mitbringt, „wenn sich Einsteiger fragen, ob sie das Programmieren überhaupt lernen sollen. Schließlich könnten beide Gruppen schon bald mit KI-Anwendungen konkurrieren – und unter Umständen das Rennen verlieren.“
Egal, wie gut die KI programmiert: Developer sorgen für Qualität
Wie dieses Rennen ausgehen wird? Kuflom entwickelt in seinem Beitrag zwei Szenarien. Der – aus Sicht der Programmierer – negative Ausblick: „Die Künstliche Intelligenz beherrscht bald alle gängigen Programmiersprachen. Der Code ist exzellent und es gibt keinen Grund zur Beanstandung.“ In diesem Fall würden klassische Programmier-Skills tatsächlich überflüssig werden, „weil die KI-Programme effizienter – also schneller, fehlerfreier und billiger – als Menschen arbeiten“. War’s das dann für dieses Berufsbild? Nein, schreibt der Experte. Das Jobprofil gestaltet sich nur anders. Benötigt werden in diesem Szenario Skills im Bereich der Softwarearchitektur, wenn es also darum geht, zu planen und Qualität zu sichern. Ein weiterer Bereich, auf den sich Programmierer fokussieren könnten, sei das Prompting, also das Anweisen der LLMs. Ein drittes mögliches Feld, so Kuflom, sei der Fokus auf weniger häufig genutzte Programmiersprachen wie Cobol, Fortran oder ABAP: Hier könnten sich Nischen für versierte Software- Developer ergeben, schreibt der IT-Personalberater.
In seinem zweiten, positiven Szenario beschreibt Henok Kuflom eine IT-Welt, in der KI-Systeme „nur“ dazu dienen, die menschlichen Developer zu unterstützen. Dann müssten „bei komplexen Herausforderungen immer noch Entwickler aus Fleisch und Blut den Code durchleuchten und die Ergebnisse auf Herz und Nieren testen“, schreibt er. In der Praxis bedeute das, dass „der menschliche Softwareentwickler immer weniger selbst programmiert und immer mehr zum Projektleiter und QA-Manager (Quality Assurance Manager, Anmerk. d. Red.) wird“. Das sei wiederum eine sehr gute Entwicklung. Erstens mit Blick auf den eklatanten Fachkräftemangel. Zweitens, weil sich dadurch verhindern lässt, dass Softwareentwicklerinnen und -entwickler vor allem Routinearbeiten übernehmen müssen – und es damit zu Langeweile kommt.
Alles – bloß keine Langeweile
Wie zentral diese Entwicklung ist, zeigt der Report „#wanted and #misunderstood – A developer survey“, der vom Portal WeAreDevelopers auf Basis einer Umfrage in der Entwickler- Community erstellt wurde. Das Ergebnis laut Pressemitteilung: „Software-Entwickler legen vor allem Wert auf Zufriedenheit mit ihrer Arbeit – dieser Punkt ist für viele entscheidender als eine lange Unternehmenszugehörigkeit oder ein hohes Gehalt.“ So gab mehr als jeder zweite Befragte (59 Prozent) an, „sich in weniger als einem Monat weiter zu bewerben, wenn die aktuelle Stelle ihn oder sie langweilt“.
Wenn Unternehmen auch in Zukunft IT-Talente auf dem umkämpften Arbeits markt halten wollen, sollten sie von Anfang an kontinuierlich in die Mitarbeiterbindung investieren und Herausforderungen sowie Entwicklungs möglichkeiten anbieten.
Viele Arbeitgeber stellt diese Einstellung vor besondere Herausforderungen: Da die Entwicklerinnen und Entwickler sich laut Studie potenziell sehr schnell gegen ihren derzeitigen Arbeitsplatz entscheiden und generell offen für kurzfristige Änderungen sind, bleibt den Unternehmen oder Organisationen, bei denen sie angestellt sind, häufig nur wenig Zeit, um zu reagieren, sobald sie erkennen, dass der Arbeitsalltag von Langeweile geprägt ist und dadurch Motivationsverlust droht. „Wenn Unternehmen auch in Zukunft IT-Talente auf dem umkämpften Arbeitsmarkt halten wollen, sollten sie von Anfang an kontinuierlich in die Mitarbeiterbindung investieren und Herausforderungen sowie Entwicklungsmöglichkeiten anbieten“, fordert mit Blick auf das Studienergebnis der Autor Bernhard Lauer in einem Meinungsbeitrag des Entwickler- Online-Magazins dotnetpro.
Schon der Titel der Studie deutet an, dass der Vorwurf im Raum steht, die Arbeitgeber würden nicht unbedingt ein großes Verständnis dafür mitbringen, wie Entwicklerinnen und Entwickler arbeiten und worauf sie besonderen Wert legen: „#wanted and #misunderstood“ – gefragt, aber missverstanden. Die Umfrage, so Bernhard Lauer in seinem Beitrag, zeige, dass „europäischen Software-Entwicklern ihr Gehalt zwar sehr wichtig ist, es aber Werte gibt, denen die Arbeitgeber mindestens genauso viel Aufmerksamkeit schenken müssen, wenn sie im Rennen um die raren IT-Talente auf dem Markt die Nase vorn haben wollen.“ Zentral seien hier Möglichkeiten zur persönlichen Weiterentwicklung sowie ständige neue Herausforderungen, die der Ambition von Entwicklerinnen und Entwicklern gerecht werden. Diese seien, so Bernhard Lauer in seinem Fazit zum Studienergebnis, „Schlüsselelemente, um IT-Talente anzuziehen und zu halten.“
Im besten Fall sind KI-Codierer also keine Jobkiller, sondern Langeweilekiller. Sie sorgen dann dafür, dass sich die Qualität der Jobs erhöht – und damit auch die Zufriedenheit.
Und an dieser Stelle könnte die künstliche Intelligenz den Unternehmen und Organisatoren helfen. Im besten Fall sind KI-Codierer also keine Jobkiller, sondern Langeweilekiller. Sie sorgen dann dafür, dass sich die Qualität der Jobs erhöht – und damit auch die Zufriedenheit. Kombiniert man die beiden Szenarien, ergibt sich ein neues Bild für die Arbeit von Entwicklerinnen und Entwicklern in der von KI-Systemen mitgeprägten Zukunft. Die durch das maschinelle Lernen immer tatkräftigeren LLMs machen das, was sie deutlich schneller können als der Mensch – nämlich beim Codieren „Strecke zu machen“. Der Mensch wird dadurch aber nicht ersetzt, im Gegenteil: Er nutzt die KI-Hilfe, um Projekte zu planen und zu managen, die Qualität zu sichern und kreative Lösungen für komplexe Probleme zu finden. Das Schöne: Auch bei diesen Prozessen bieten sich LLMs als unterstützende Systeme an. Was im besten Fall dazu führt, dass die IT-Welt im KI-Zeitalter den Menschen ein Multitalent an die Seite stellt, das im besten Fall beides ist: fleißig und genial. Wobei die KI abhängig vom Menschen bleibt. Zumal dieser weiß, wo sich der Off-Schalter befindet.
KI hilft bei Kooperationen
Dass KI-Systeme die Arbeit in der Softwareentwicklung beeinflussen werden, ist klar. Wie sehr – das war das Erkenntnisziel einer Studie der Digitalisierungs- und Unternehmensberatung Capgemini. Die Untersuchung, veröffentlicht im Sommer 2024, geht davon aus, dass LLMs „Software-Entwickler in zwei Jahren bei voraussichtlich mehr als 25 Prozent ihrer Arbeit in den Bereichen Software-Design, -Entwicklung und -Testen unterstützen“. Mit 80 Prozent geht eine große Mehrheit der befragten IT-Experten davon aus, dass sich ihre Rolle durch Tools und Lösungen mit Gen AI merklich verändern wird: „Indem diese zur Automatisierung einfacher, repetitiver Tätigkeiten beitragen, gewinnen die Fachkräfte mehr Zeit für anspruchsvollere Tätigkeiten mit höherem Nutzen“, heißt es in der Pressemitteilung zur Studienveröffentlichung. Mehr als drei Viertel der Softwareentwicklerinnen und -entwickler sind zudem davon überzeugt, dass „generative KI das Potenzial hat, die Zusammenarbeit mit Teams aus nichttechnischen Unternehmensbereichen zu erleichtern.“