10 Prognosen

Wie GenAI Entwicklerkarrieren umkrempelt

20.02.2024 von Isaac Sacolick
Automatisierte Code-Generierung und Copiloten sind nur der Anfang. Lesen Sie, worauf sich Softwareentwickler in der Generative-AI-Zukunft einstellen sollten.
Generative künstliche Intelligenz wird den Job des Softwareentwicklers nachhaltig verändern – wenn auch mehr mit Blick auf die Innenperspektive.
Foto: dotshock | shutterstock.com

Integrierte Entwicklungsumgebungen (IDEs) haben die Entwicklerproduktivität in den 1980er Jahren maßgeblich gesteigert. Cloud Computing und DevSecOps-Tools brachten die nächsten Umwälzungen für die Softwareentwicklung. Nun steht mit Generative AI (GenAI) ein neuer, großer Paradigmenwechsel an. Er wird die Art und Weise, wie Unternehmen Software erstellen und warten sowie neue Tools zum Einsatz bringen, drastisch verändern.

Für Softwareentwickler stellt sich die Frage, welche Auswirkungen diese Entwicklung auf den Softwareentwicklungslebenszyklus (SDLC) und DevSecOps - und damit auf ihre Karriere - haben wird. Wir haben zu dieser Fragestellung Research-Ergebnisse gewälzt und mit Branchenexperten gesprochen. Im Ergebnis stehen zehn Prognosen dazu, wie GenAI die Karriere von Softwareentwicklern in der nächsten Dekade auf den Kopf stellen wird.

1. Code-Generierung wird Standard

Eine aktuelle Umfrage unter Entwicklern von Stack Overflow kommt zum Ergebnis, dass bereits 70 Prozent der befragten Devs KI-Tools in ihren Entwicklungsprozessen zum Einsatz bringen - oder planen, das zu tun. Diejenigen, die KI bereits nutzen, nutzen die Technologie in 82 Prozent der Fälle, um Code zu schreiben.

Zahlen wie diese verdeutlichen, dass sich die Art und Weise, wie Developer Code erstellen, wiederverwenden und Komponenten entwickeln, grundlegend verändern wird. Das kann auch Kaxil Naik, Software Engineer beim Tool-Anbieter Astronomer, bestätigen: "KI-generierter Boilerplate-Code und KI-gestützte Assistenten, die natürliche Sprache in funktionalen Code übersetzen, werden die Effizienz in neue Höhen treiben. Das wird es zudem erleichtern, komplexe Codebasen zu durchdringen und Best Practices anzuwenden."

2. Code-Validierung wird kritischer Skill

Code per Prompt generieren zu können, bringt jedoch nicht nur Vorteile mit sich, sondern schafft potenziell auch Sicherheits- und Performance-Probleme. Die große Hoffnung ist, dass die Zeit, die Entwickler bei der Erstellung des Codes einsparen, nun in seine Validierung fließt - bevor er in Applikationen eingebettet wird.

"In dem Maße, in dem Entwickler KI aufgrund der Produktivitätsvorteile einsetzen, müssen sie das, was sie produzieren, auch auf Herz und Nieren prüfen", konstatiert Peter McKee, Head of Developer Relations beim Softwareanbieter Sonar. Nach Einschätzung des Experten werden künftig auch CIOs und CISOs verstärkt von Developern erwarten, mehr Verantwortung im Bereich Code-Validierung zu übernehmen: "Wenn die Entwickler nicht auf Automatisierung setzen, um KI-generierten Code zu scannen und zu überwachen, muss exponentiell mehr Code gefixt werden und die technischen Schulden steigen."

3. Manufacturing als neues Paradigma

Vor allem mit Blick auf große Unternehmen stellt sich die Frage, wie es sich auf Tools und Standards auswirken wird, wenn viele Development-Teams, die Tausende von Applikationen supporten, Code mit GenAI-Unterstützung generieren. Wie wird, respektive kann die Softwareentwicklung in solchen Organisationen künftig aussehen, wenn Entwickler weniger selbst schreiben und stattdessen KI-generierten Code integrieren?

Markus Eisele, Developer Tools Strategy and Evangelism bei Red Hat, gibt einen Ausblick: "Ein Tooling-Mix führt zu einem Mangel an Standards und komplexem Onboarding. Ganz zu schweigen davon, dass das die kognitive Belastung für die Entwickler erhöht." Der Red-Hat-Experte weiß auch, wie es besser geht: "Eine Mix aus Best Practices in Kombination mit einem zentralisierten Entwicklerportal kann diesen Problemen entgegenwirken. Das kann Reibungsverluste beseitigen."

IDEs könnten sich so künftig zu einer Art "Montageplattform" entwickeln - ähnlich wie Computer-Aided Design (CAD) im Manufacturing-Bereich oder Building Information Modeling (BIM) im Bauwesen. Dabei dürfte sich der Fokus von der Erstellung kundenspezifischer Komponenten hin zur Montage vorgefertigter verlagern, während integrierte Tools zum Einsatz kommen, um Designs zu validieren.

4. Weniger Coding, mehr Supply-Chain-Risiken

KI-generierter Programmcode wird auch die Art und Weise transformieren, wie Unternehmensentscheider künftig Policies entwickeln und ihre Software-Lieferketten mit Blick auf Code Embeddings überwachen. Ging es dabei vor GenAI primär darum, kommerzielle und quelloffene Softwarekomponenten zu tracken, katapultiert die Technologie das Thema Supply-Chain-Risiken in eine neue Dimension.

Ilkka Turunen, Field CTO von Sonatype, illustriert, was das für die Unternehmenspraxis bedeutet: "DevOps-Praktiker werden eine wichtige Rolle spielen, wenn es darum geht die KI-Supply-Chain zu managen und in standzuhalten. Die Sicherheit, Authentizität und Herkunft von KI-basierten Modellen wird im Tagesgeschäft eines Unternehmens deutlich stärker unter die Lupe genommen werden."

Das wird Einfluss auf die strategische Ausrichtung haben, wie der Entscheider prophezeit: "KI-Risiken müssen evaluiert und Bill of Materials zu KI-Modellen ordnungsgemäß gemanagt werden. Das wird zu einer ordnungsgemäßen KI-Hygiene in der DevOps-Infrastruktur der Unternehmen beitragen."

Zu erwarten ist zudem, dass SAST-, DAST- und andere Code-Management-Tools künftig weitere automatisierte Code-Scanning-Features mitbringen werden, um sicherzustellen, dass KI-generierter Code den Richtlinien entspricht.

5. Integration beschleunigt sich

In Sachen Integrationsmöglichkeiten hat sich im Laufe der letzten Jahre bereits einiges dank APIs, SaaS und iPaaS und anderen Ökosystem-Technologien zum Positiven verändert. Trotzdem verwenden viele Softwareentwickler nach wie vor viel Zeit, um Datenfelder zu mappen, Transformationslogik zu coden sowie Performance zu gewährleisten. Das könnte sich durch Generative AI endlich ändern, wie Emmanuel Cassimatis, Mitglied des KI- und Innovationsteams bei SAP, in Aussicht stellt: "Wenn es um Integrationen geht, war der Entwicklungslebenszyklus in der Vergangenheit ziemlich fragmentiert. KI kann an dieser Stelle vereinheitlichen, indem sie ein Bild über die Datenlage verschiedener Applikationen liefert und so die Zusammenarbeit zwischen den Developern verbessert."

Es dürfte nur eine Frage der Zeit sein, bis Entwickler generative KI dafür nutzen, Integrationen "codeless" und "self healing" zu gestalten - inklusive Natural-Language-Anforderungen und automatisch generierten Visual Flows.

6. Entwickler werden KI-Manager

Phillip Carter, Principal Product Manager beim Observability-Spezialisten Honeycomb, ist davon überzeugt, dass GenAI künftig sowohl die Aufgabengebiete von Softwareentwicklern als auch von Quality-Assurance-Managern transformieren wird. Er konkretisiert: "Natürliche Sprache wird eine immer größere Rolle spielen, wenn es darum geht, Code zu generieren und zu testen. Falls die KI-Fähigkeiten noch einmal einen ähnlichen Shift erfahren wie durch den Transformer, können wir uns darauf einstellen, dass KI-Agenten das Gros dieser Aufgaben übernehmen werden. Die Entwickler werden dann für diese Agenten Ziele und Einschränkungen programmieren."

Eine interessante Prognose, impliziert sie doch, dass Softwareentwickler und -Ingenieure künftig Architekturen sowie nicht-funktionale und betriebliche Anforderungen definieren werden - statt Code zu schreiben und Tests zu automatisieren.

7. KI durchdringt SDLC

Aktuell fokussieren viele generative KI-Tools noch darauf Code zu generieren. Das wird sich mit zunehmender Technologiereife ändern - neue Funktionen werden Einzug halten, die die Phasen und Verantwortlichkeiten innerhalb des SDLC transformieren.

Humberto Moreira, Principal Solutions Engineer beim Serviceanbieter Gigster, konkretisiert: "Es werden sich Best Practices entwickeln, um generative KI in den Softwareentwicklungslebenszyklus zu integrieren. Dabei könnten unterschiedliche Modelle für die einzelnen SDLC-Phasen am besten funktionieren. Etwa ein KI-Modell, das auf die Anforderungen optimiert ist, eines für die Code-Entwicklung und ein weiteres für die Qualitätssicherung."

Gilad Shriki, Mitbegründer des No-Code-Anbieters Descope, sieht weiteres Change-Potenzial für Dev-Workflows am Horizont: "Es ist nur eine Frage der Zeit, bis KI für SDKs, Tests und Dokumentationen eingesetzt wird. Für Entwickler bedeutet das, ihre Arbeit künftig in speziellen KI-kompatiblen Formaten codieren und dokumentieren zu müssen."

Sollte sich letztere Prognose bewahrheiten, könnte GenAI Entwicklern potenziell mehr Unannehmlichkeiten bereiten und eventuelle Produktivitäts- oder Qualitätsverbesserungen gefährden.

8. GenAI-Personas treten auf den Plan

Generative AI hat das Potenzial, etliche Aufgaben zu übernehmen, die noch von menschlichen Devs erledigt werden. Das könnte dazu führen, dass Compiler und andere Tools künftig nicht nur menschlichen, sondern auch KI-generierten "Personas" zur Verfügung stehen.

Das könnte nach Meinung von Dustin Kirkland, VP of Engineering beim Conatiner-Security-Spezialisten Chainguard, völlig neue Perspektiven auf Code eröffnen: "Neben der traditionellen, menschlichen Sichtweise auf den Code könnte dann eine zweite, KI-optimierte und defensivere Perspektive entstehen. Die ist für Menschen weniger gut lesbar, für Compiler und Interpreter aber perfekt geeignet und so ein mögliches Zwischenformat für Code."

Zu hoffen ist mit Blick auf dieses Szenario allerdings, dass sich dadurch auch die Machine-Learning-Fähigkeiten verbessern werden, wenn es darum geht, Fehler, Sicherheitslücken und andere Probleme akkurat und effizient zu identifizieren.

9. KI optimiert Ops-Fähigkeiten

Geht es nach Cody De Arkland, Director of Developer Experience beim Plattformanbieter LaunchDarkly, wird GenAI künftig auch die Zuverlässigkeit und den Betrieb von Applikationen optimieren: "Wir sehen bereits erste Anzeichen dafür, dass Development-Tools künftig aus Interaktionen lernen werden. Dabei geht es im Kern um intuitive Unterstützung für Entwickler."

De Arkland denkt dabei etwa an folgende Szenarien:

Diese Ideen werfen wiederum die Frage auf, welche DevOps- und SRE-Funktionalitäten künftig durch generative KI ermöglicht, respektive erweitert werden.

10. GenAI-Risiken erfordern Neubewertung

Weil GenAI künftig neue Fähigkeiten über den gesamten SDLC hinweg ermöglichen wird, werden auch die KI-Risiken neu zu bewerten sein. Brandon Jung, VP of Ecosystem and Business Development beim KI-Tool-Anbieter Tabnine, weiß, worauf es dabei künftig ankommen wird: "Wir nähern uns der Vision eines durchgängig KI-gestützten Softwareentwicklungsprozesses. Dabei ist auf allen Ebenen sicherzustellen, dass der generierte Code von höchster Qualität ist und die allgemeine Zuverlässigkeit oder Wartbarkeit der Anwendung nicht beeinträchtigt wird. Ein besonderes Augenmerk sollte dabei auf den Daten liegen, die in das Modell einfließen."

Dabei wird sicherlich auch eine Rolle spielen, welche Sicherheitsschranken künftige GenAI-Algorithmen und -Tools aufweisen werden, um Unternehmensressourcen abzusichern - und inwieweit diese Features ebenfalls auf generativer KI aufbauen. (fm)

Weitere Expertenstimmen "Applied AI"
Michael Burkhardt, Omdena
"Bei Innovationsprojekten ist es wichtig, ein diverses Team zu haben, um mögliche Bias schon im Vorfeld zu eliminieren. Neben den Fachexperten sollten idealerweise auch Linguisten, Social Scientists und andere Disziplinen mit an Bord sein. <br /><br /> Während wir in Deutschland in ein paar Pilotprojekten unterwegs sind, haben wir in den USA über 80. Dort herrscht viel mehr der Ansatz, erstmal mit einem Projekt zu beginnen, Erfahrungen aufzubauen und auch aus Misserfolgen zu lernen. Dieses Wissen hilft uns auch dabei, das deutsche Ökosystem besser zu verstehen."
Jens Duhme, ATOS
"KI ist vieles, aber nicht intelligent. Das gilt es zu kommunizieren und immer wieder auf die Grenzen hinzuweisen. Nur so können wir ein gesundes Verständnis der Technologie in den Köpfen verankern. <br /><br /> Gefahren gibt es genug, aber dass die Maschinen uns irgendwann unterjochen, gehört nicht dazu. Es dauert auch in anderen Bereichen Jahre, bis vernünftige Use Cases entstehen. So ähnlich wird das auch bei künstlicher Intelligenz ablaufen. <br /><br /> In der Cloud liegt die Verantwortung zum Beispiel primär beim Anbieter, den ich im Zweifelsfall haftbar machen kann. Das ist für Unternehmen ein großer Vorteil. Wenn so ein rechtlicher Rahmen auch bei der KI gelingt, dann senkt das viele Hürden für Anwender und schafft die Basis für mehr Ethik und Verantwortung auf Herstellerseite."
Andreas Gödde, SAS
"Nach ChatGPT hat sich die Diskussion definitiv verändert. Unternehmen diskutieren jetzt auch intern intensiver, nach dem Motto “wir müssen jetzt was machen”. Bei unseren Kunden nehmen wir eine deutlich erhöhte Kreativität zu möglichen Einsatzszenarien wahr. <br /><br /> Klar gibt es Risiken, aber die Chancen überwiegen aus meiner Sicht. Wir haben jetzt als Gesellschaft die Aufgabe, bereits im Bildungssystem die richtigen Weichen zu stellen, um die Chancen der Digitalisierung, die sich in wichtigen Bereichen des öffentlichen Lebens und in den Unternehmen bieten, auch tatsächlich auf die Straße zu bringen. <br /><br /> In Kombination mit dem Menschen sehen wir jetzt schon sinnvolle Anwendungsbereiche in den Unternehmen. Wir bezeichnen das als „augmented AI“. Das alles ist aber noch weit weg von einer “generellen” KI, die aktuell noch weit in der Zukunft liegt und die wir vielleicht auch nie erleben werden. <br /><br /> Viele Use Cases kann ich schon heute mit KI-Werkzeugen umsetzen. Teilweise werden sie – beispielsweise im Bereich Betrugsbekämpfung – vom Regulator sogar gefordert. Es muss ja nicht gleich die Kreditvergabe mit sensiblen personenbezogenen Daten sein."
Harald Huber, USU
"Die Diskussion ist heute eine andere, weil es jetzt konkrete Vorstellungen und Assoziationen in den Köpfen gibt. Jetzt geht es darum, zu schauen, welche KPI man aktiv definieren und gestalten kann. Die Kernfrage sollte immer die nach dem individuellen Nutzen sein – und dann sieht man, dass es gar nicht so einfach ist, mit der Übersetzung in den Alltag. Beim autonomen Fahren standen wir gefühlt auch schon kurz vor dem Durchbruch, doch heute ist die Revolution auf der Straße wieder in weite Ferne gerückt."
Michael Niederée, KPMG
"Es bestehen diverse ungelöste Fragestellungen: Wer hat die Urheberrechte eines Textes? Wie gelingt eine ethisch einwandfreie Umsetzung? Welche sonstigen Risiken muss man managen? Mein Vorschlag wäre, insbesondere zu Beginn eine gute Strategie als Fundament zu entwickeln, die einem anschließend erlaubt, auf die richtigen Dinge zu fokussieren. <br /><br /> Die eigentliche Revolution findet doch jetzt im Fachbereich statt. Komplexe Tätigkeiten, die bis dato viele Ressourcen gebunden haben und komplex bis unmöglich zu lösen in der Softwareentwicklung waren, können jetzt im Fachbereich durch Prompt Engineering von „Fachentwicklern“ agil und iterativ umgesetzt werden."
Ricardo Ullbrich, SS&C Blue Prism
"Am schnellsten schaffe ich Veränderung, wenn ich den branchenspezifischen Nutzen kommuniziere. Unternehmen müssen sich aktiv Gedanken machen, welche Bereiche ihres Geschäfts sie automatisieren wollen und können. Man vergleiche nur mal einen Konzern wie Amazon mit einer Versicherung: Da liegen Welten dazwischen und entsprechend unterschiedlich sind auch die Use Cases.<br /><br /> Innovationsschübe können oft auch eine gesellschaftliche Chance sein, das hat auch die Coronakrise gezeigt. Ich würde soweit gehen und sagen, dass uns die Pandemie eine bessere Arbeitswelt gebracht hat.<br /><br /> Der Mensch will nicht ausschließlich mit Bots kommunizieren, sondern auch einen gewissen Grad an Small Talk und Abschweifung in einem Gespräch haben. Das ist ein ganz entscheidender Punkt bei der Gestaltung von Services und Prozessen. <br /><br /> Einen Prozess zu optimieren ist relativ einfach. Aber darüber hinaus die weiteren Möglichkeiten zu ergründen und die “höchste Stufe” zu erreichen, das können die wenigsten."
Christoph Windheuser, Databricks
"Das Thema KI wird sowohl die Produktebene, als auch die Erwartung auf Kundenseite verändern. Doch die daraus abgeleiteten Fragestellungen gehen weit über die Technologie und deren Anwendung hinaus. Das hat gesellschaftlich-transformativen Charakter und tangiert die Substanz der gesamten Gesellschaft, zuerst vor allem über den Arbeitsmarkt. <br /><br /> Es ist eine grundsätzliche Frage: Werden wir künftig weniger arbeiten oder wird der Output höher sein? Dabei gilt auch: Wir dürfen Erfahrungen der Vergangenheit nicht in die Zukunft projizieren. Gerade haben wir es mit einem exponenziellen Wachstum zu tun, das gab es auch in der Automatisierungswelle der 1980er Jahre nicht. Die Situation ist also völlig neu."

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.