3 Wege

Wie Continuous Testing mit GenAI Schritt hält

22.08.2023
Von 


Isaac Sacolick ist Autor des Amazon-Bestsellers "Diving Digital: The Leader's Guide to Business Transformation thourh Technology". Er schreibt als freier Autor unter anderem für unsere US-Schwesterpublikation CIO.com.

 
Wenn immer mehr CIOs und Devops-Teams auf generative KI setzen, müssen auch die QA-Teams nachziehen.
GenAI durchdringt die Softwareentwicklung. Halten Ihre Testing-Praktiken Schritt?
GenAI durchdringt die Softwareentwicklung. Halten Ihre Testing-Praktiken Schritt?
Foto: ZinetroN - shutterstock.com

Tools, die Generative AI (GenAI) und Large Language Models (LLMs) nutzen, verändern die Softwareentwicklung und versprechen zahlreiche Vorteile, von Produktivitätsverbesserungen bis hin zu schnellerer Anwendungsmodernisierung. Allerdings sollten auch Qualitätssicherung und Testing entsprechend optimiert werden. Nach wie vor investieren jedoch viele Unternehmen nicht ausreichend in Softwaretests. Continuous Testing bleibt regelmäßig hinter Automatisierung, IaC und Devops zurück.

Die neuen GenAI-Funktionen, die gerade die Softwareentwicklung erobern, sollten den ultimativen Weckruf für Devops- und QA-Teams darstellen, endlich mehr in Continuous Testing zu investieren, Testdaten zu zentralisieren, die Testabdeckung zu verbessern und die Testing-Frequenz zu erhöhen. Im Folgenden blicken wir auf drei Möglichkeiten, die dazu beitragen können, dass Ihre Continuous-Testing-Bemühungen mit der neuen, KI-getriebenen Entwicklungslandschaft Schritt halten.

1. Testabdeckung erhöhen

Zunächst sollten QA-Teams davon ausgehen, dass Generative-AI-Tools für mehr Drittanbieter-Code sorgen und entsprechende Tools und Automatisierungen einsetzen, um diesen Code zu überprüfen und zu kennzeichnen. Meredith Bell, CEO beim Softwareanbieter AutoRABIT empfiehlt: "Teams müssen jetzt Static Code Analysis und Integration Testing Automation als Leitplanken für generative künstliche Intelligenz einführen."

Statische und dynamische Code-Analysen und andere Code-Sicherheitstests sind wichtige Tools für Devops-Teams, die KI-generierten Code nutzen oder Open Source und andere von LLMs vorgeschlagene Code-Beispiele integrieren möchten. Mit diesen Tests können Schwachstellen und Probleme bei der Codeformatierung identifiziert werden - unabhängig davon, ob ein Entwickler oder eine KI den Code erstellt hat.

2. Testfälle automatisieren

QA-Teams sollten darüber hinaus damit rechnen, dass Devops-Teams mit GenAI-Unterstützung schneller Funktionen entwickeln, was zur Folge hat, dass mehr Testfälle automatisiert werden müssen.

Mush Honda, Chief Quality Architect beim Automatisierungsexperten Katalon, schlägt vor: "KI-generierte Tests, die auf echten User Journeys basieren, sollten mit visuellen Tests, Accessability-Überprüfungen und Leistungs-Benchmarks über Browser und Geräte hinweg kombiniert werden, um sicherzustellen, dass alle Releases eine umfassende User Experience bieten."

Nach Meinung von Emily Arnott, Content Marketing Manager bei Blameless, sollten QA-Teams auch den Einsatz von LLMs in Betracht ziehen, um mehr Testfälle zu generieren und zu automatisieren: "Mit Hilfe KI-Tools wie Large Language Models wird die Testautomatisierung schneller und flexibler."

3. Testdaten skalieren und managen

Last but not least ist außerdem zu erwarten, dass die Testing-Komplexität zunehmen wird, weil immer mehr Unternehmen mit LLMs und KI-Suchen experimentieren und dabei natürlichsprachliche Interfaces verwenden, müssen auch die Testfälle offener werden. Mit anderen Worten: QA-Teams benötigen wesentlich größere und dynamischere Testdatensätze.

"In agilen Umgebungen ist Zeit das A und O - ein umfassendes, Self-Service-Testdatenmanagementsystem ist also essenziell", meint Roman Golod, CTO und Mitbegründer des Softwareanbieters Accelario und fügt hinzu: "Devops-Teams müssen in der Lage sein, automatisch virtuelle Datenbanken von Produktions- zu Nicht-Produktionsumgebungen zu generieren."

Die Anhebung von Testmöglichkeiten, -häufigkeit und -datensatzgröße kann es zudem erforderlich machen, dass Devops-Teams die Architektur und Kapazität ihrer Infrastruktur prüfen müssen. Sunil Senan, SVP und Global Head of Data, Analytics and AI bei Infosys, empfiehlt: "Anwendungsteams sollten in Erwägung ziehen, Devsecops-Pipelines zu Hyperscalern mit KI-gesteuerten Testautomatisierungsfunktionen wie synthetischer Datengenerierung zu migrieren, um den ML-Betrieb zu optimieren."

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.