GenAI-Kompetenzen

4 DevSecOps-Skills fürs KI-Zeitalter

25.01.2024
Von 


Isaac Sacolick ist Autor des Amazon-Bestsellers "Diving Digital: The Leader's Guide to Business Transformation thourh Technology". Er schreibt als freier Autor unter anderem für unsere US-Schwesterpublikation CIO.com.

 
Von diesen Generative-AI-Skills können Technologieprofis künftig profitieren.
Generative AI wird die Arbeitsweise von Devs, Ops und Security-Spezialisten verändern.
Generative AI wird die Arbeitsweise von Devs, Ops und Security-Spezialisten verändern.
Foto: puhhha | shutterstock.com

Als Cloud Computing unternehmenstauglich wurde und Tools wie Continuous Integration und Continuous Delivery, Infrastructure as Code und Kubernetes zum Mainstream wurden, markierte das einen signifikanten Paradigmenwechsel - für Development und Operations. Die Aufgaben, die Devs und Ops voneinander trennten wurden zu DevOps. In der Folge wich die manuell geprägte Zusammenarbeit der Teams einer fortschrittlichen Automatisierung und orchestrierten Workflows.

Mit Generative AI (GenAI) und großen Sprachmodellen (Large Language Models; LLMs) steht nun der nächste große Umbruch an, der die Arbeitsweise von Softwareentwicklern, -ingenieuren und Datenwissenschaftlern wesentlich optimieren kann. Dazu müssen DevSecOps-Teams jedoch eine ganze Reihe neuer Risiken in den Bereichen Datenschutz, Sicherheit und Operations durchdringen und managen. CIOs und IT-Managern kommt dabei die Aufgabe zu, ihre Teams auf den neuerlichen Paradigmenwechsel vorzubereiten.

Die folgenden vier Fähigkeiten sind für DevSecOps-Spezialisten, Data Scientists und andere IT-Experten in der GenAI-Ära essenziell.

1. Prompts entwickeln und validieren

Prompt Engineering gehört bei der Arbeit mit GenAI-Tools zum guten Ton. Mindestens ebenso wichtig ist jedoch die Fähigkeit, den Output

  • bewerten,

  • unabhängig validieren sowie

  • Halluzination erkennen zu können.

David Brooks, SVP und Lead Evangelist beim DevOps-Spezialisten Copado, empfiehlt an dieser Stelle: "Entwickler, Tester und Business-Analysten sollten lernen, wie man Prompts schreibt - und wo generative KI gut ist und wo nicht. Eignen Sie sich eine 'trust but verify'-Mentalität an und überprüfen Sie alle generierten Inhalte auf Sinnhaftigkeit."

Geht es nach Cody De Arkland, Director of Developer Relations beim Plattformanbieter LaunchDarkly, sollten diese Fähigkeiten möglichst früh zum Einsatz kommen: "Richtig eingesetzt, können Entwickler LLMs dazu nutzen, ihre Experimentierphasen zu optimieren und möglichst schnell Variationen zu generieren. Ganz besonders dann, wenn der Prompt um ihre Hypothese herum aufgebaut ist und die richtige Zielgruppe fokussiert. Wer lernt, die Lücken in den KI-Antworten zu erkennen, wird sich zu einem effektiveren DevOps-Praktiker entwickeln."

2. LLMs optimieren

Data Engineering wird laut Akshay Bhushan, Partner beim Risikokapitalgeber Tola Capital, künftig eine der wichtigsten Generative-AI-Kompetenzen sein: "Schließlich müssen die Pipelines, die nötig sind, um Daten in ein Modell einzuspeisen, aufgebaut werden", begründet der Manager seine Prognose.

Vor dem Hype um LLMs haben sich viele Unternehmen darauf konzentriert, robuste Datenpipelines aufzubauen, die Datenqualität zu optimieren sowie Citizen-Data-Science-Funktionen und eine proaktive Data Governance für strukturierte Daten einzuführen. Große Sprachmodelle brauchen jedoch auch unstrukturierte Daten, um den KI-Modellen einen breiteren Kontext "anzutrainieren". Um den Umgang mit entsprechenden, neuen Tools zu erlernen und LLM-Einbettungen entwickeln zu können, brauchen Unternehmen folglich Datenwissenschaftler und Data-Governance-Spezialisten. Dabei werden auch DevSecOps-Experten zum Zuge kommen, wenn es darum geht, Anwendungen zu integrieren und die zugrundeliegende Infrastruktur zu automatisieren.

Rohit Choudhary, Mitbegründer und CEO des Observability-Spezialisten Acceldata, konkretisiert: "Generative KI-Modelle sind in hohem Maße auf Trainingsdaten und deren Auswertung angewiesen. Pipelines orchestrieren zu können, um Daten zu bereinigen und in ein Machine-Learning-kompatibles Format umzuwandeln, ist also eine unabdingbare Fähigkeit." Laut dem Manager sind außerdem auch Kenntnisse im Bereich Datenvisualisierung essenziell, um verstehen zu können, wie sich Daten verteilen, welche Muster sie aufwerfen sowie die KI-Modellleistung analysieren zu können.

3. KI-Stack durchdringen

GenAI-Funktionen erobern integrierte Entwicklungsumgebungen, ITSM-Plattformen und andere agile Development-Werkzeuge. Tools, die Code auf der Grundlage von Prompts generieren, bieten vielversprechende Möglichkeiten für Entwickler - erfordern aber auch, den Output mit Blick auf Integration, Performance, Security und Compliance bewerten zu können.

KI habe eine völlig neue Ära der Effizienz eingeläutet, aber Tools wie Copilot produzierten riesige Code-Mengen, die sich nicht immer durch Präzision auszeichneten, kritisiert auch Igor Jablokov, Gründer und CEO des Enterprise-KI-Spezialisten Pryon: "Sowohl der DevOps-Stack als auch die Cybersicherheitsbranche müssen aufholen, wenn es darum geht, KI-generierten Code auf Copyright-Probleme und Fehler zu überprüfen."

Developer und Datenwissenschaftler, die in ihren Unternehmen dazu beitragen wollen, eigene LLMs zu entwickeln, müssen etliche neue Technologien durchdringen, wie Nikolaos Vasiloglou, VP of Research Machine Learning bei RelationalAI, deutlich macht: "Ein moderner DevOps-Ingenieur sollte Vektordatenbanken und Open-Source-Tools wie Hugging Face, Llama und LangChain beherrschen. Momentan sind vor allem riesige Sprachmodelle mit 100 Milliarden Parametern populär. Es ist jedoch abzusehen, dass der Trend künftig zu mehr Feinabstimmung und vielen kleineren KI-Modellen geht. Deren Lifecycle zu managen, ist ebenfalls keine triviale Aufgabe."

Laut Kjell Carlsson, Head of Data Science Strategy and Evangelism bei Domino Data Lab, wird sich die Fähigkeit, GenAI-Modelle zu operationalisieren, schnell zum wichtigsten Skill überhaupt entwickeln: "Das stellt das größte Hindernis dar, wenn es darum geht, mit generativer KI Wirkung zu erzielen."

4. Linkslastig automatisieren

Trotzdem sich Experten einig sind, dass es missionskritisch ist, den Output einer generativen KI zu validieren und zu überprüfen: Vielen IT-Abteilungen fehlt es an Personal, Skills und Tools, um die wachsenden Herausforderungen in den Bereichen Security und QA-Testautomatisierung zu bewältigen. Um die Lücke zu schließen, empfiehlt es sich für Developer, Operations Engineers und Datenwissenschaftler, in genau diese Kompetenzen zu investieren. Stephen Magill, VP of Product Innovation beim Softwareunternehmen Sonatype empfiehlt DevOps-Teams: "Konzentrieren Sie sich auf Skills wie KI-gesteuerte Threat Detection, die automatisierte Absicherung von CI/CD-Pipelines oder die KI-basierte Fehlerbehebung.

Weil jedoch nicht nur die IT, sondern auch viele andere Abteilungen und Mitarbeiter bereits mit ChatGPT und anderen GenAI-Tools experimentieren, reicht es nicht aus, sich auf Security und Testing zu fokussieren, wie David Haber, CEO und Mitbegründer des KI-Spezialisten Lakera, weiß: "Devops-Teams sollten Fähigkeiten entwickeln, um häufige LLM-Schwachstellen wie Prompt Injection oder Data Poisoning entschärfen zu können. Zudem sollten Continuous-Monitoring- und Incident-Response-Mechanismen implementiert werden." (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.