Kommentar von Markus Eisele, Red Hat, zu Large Language Models LLMs sind keine KI – DevOps profitiert dennoch von ihnen
Anbieter zum Thema
Das Thema Künstliche Intelligenz spaltet die Welt der Entwickler. Aktuelle Entwicklungen wie Large Language Models haben großes Potenzial, die Effizienz und Effektivität in vielen Bereichen zu steigern – etwa bei der Softwareentwicklung nach dem DevOps-Modell.

Laut einem beliebten Narrativ, das heutzutage im Zusammenhang mit Künstlicher Intelligenz verbreitet wird, werden wir künftig alle zu Übermenschen: Mit Hilfe der Technologie meistern wir demnach mühelos jede Aufgabe und können somit quasi jeden Beruf ausüben.
Diese Vorstellung ist unter anderem deswegen problematisch, weil das, was wir als „KI“ bezeichnen, nicht zwingend etwas mit echter Intelligenz im herkömmlichen Sinne zu tun hat. Tools wie ChatGPT, DALL-E und Descript sind nicht die selbstdenkenden Systeme, als die sie immer dargestellt werden.
Bei ihnen handelt es sich um Large Language Models (LLMs), also riesige Datensätze, die mit analytischen und algorithmischen Funktionen ausgestattet sind. Das heißt vor allem, dass sie keine Wundermittel oder wirklich „intelligente Helfer“ sind. Dennoch sind sie mächtige Werkzeuge, die den Menschen unterstützen, insbesondere im Bereich der Softwareentwicklung.
Wir in der Developer-Community wissen um den enormen Mehrwert, den LLM-Tools für Unternehmen haben: Sie produzieren Code und können den von uns Menschen geschriebenen Quellcode beispielsweise auf Kohärenz und Tippfehler prüfen. Sie vervollständigen darüber hinaus Skripte sowie Playbooks automatisch und helfen beim Debuggen und Testen ganzer Anwendungen.
Zukünftig werden LLMs eine immer entscheidendere Rolle in der Softwareentwicklung spielen, insbesondere im DevOps-Kontext. Sie bieten die einzigartige Möglichkeit, gleichzeitig die Performance und Produktivität zu optimieren, Entwicklungsprozesse zu beschleunigen und Fehler zu reduzieren. Large Language Models unterstützen Entwicklerinnen und Entwickler in vielerlei Hinsicht, sodass sie sich auf komplexere und kreativere Aspekte ihrer Arbeit konzentrieren können.
Unterstützung auf allen Ebenen
WatsonX von IBM kann dank seiner fortschrittlichen LLM-Funktionen zum Beispiel riesige Datenmengen analysieren. Die daraus gewonnenen Erkenntnisse unterstützen IT-Teams bei der Entscheidungsfindung, Risikobewertung und Problemlösung. Das Tool kann sogar aus vergangenen Vorkommnissen lernen, um zukünftige Probleme vorherzusagen und zu verhindern.
Diese Fähigkeit steigert gerade im DevOps-Bereich die Effizienz und Zuverlässigkeit von Prozessen. Entwickler wiederum können die Daten aus vergangenen Vorfällen sowie bestehende Code Reviews und Systemprotokolle verwenden, um ihre Expertise kontinuierlich auszubauen und bessere Ergebnisse zu liefern.
LLMs helfen überdies dabei, technischen Jargon in eine verständliche Sprache zu übersetzen, die für nicht-technische Beteiligte verständlich ist. In diesem Zusammenhang priorisieren sie zum Beispiel Alerts und andere Benachrichtigungen auf der Grundlage des Kontextes und des Sprachverständnisses des nicht-technischen Personals.
Sie unterstützen die Fachkräfte außerdem beim Erstellen, Pflegen und Durchsuchen der Dokumentation, wodurch der Wissensaustausch an Effizienz und Effektivität gewinnt. Die Verbesserung der Zusammenarbeit und Kommunikation ist ein Eckpfeiler von DevOps, und LLMs sind dafür ein geeigneter Katalysator.
Die Qual der Wahl
Leider kann die steigende Anzahl dieser Tools die Auswahl des individuell am besten geeigneten mittlerweile sehr erschweren. Eine sorgfältige Evaluierung der jeweiligen Vorteile und der Kompatibilität mit bestehender Software ist Pflicht. Im Zuge dessen sollten Unternehmen auch die Herkunft der Daten prüfen, mit denen das LLM trainiert wird, und wer die Hoheit über sie hat. Es empfiehlt sich für Unternehmen, bei der Auswahl erfahrene Entwicklerinnen und Entwickler zu involvieren, die sich mit der Technologie auskennen und entsprechende Auswahlverfahren bereits betreut haben.
In den vergangenen zehn Jahren hat sich die Tech-Branche mit der Einführung von Konzepten wie etwa Containern, Microservices, Continuous Delivery und Infrastructure as Code (IaC) stark verändert. Mit dem Aufkommen von KI und LLMs steht ihr ein weiterer Wandel bevor. Entgegen der Darstellung in den Medien ist sich die Entwicklergemeinschaft jedoch bewusst, dass es sich hierbei nicht um einen radikalen Einschnitt handelt. Vielmehr steht die Tech-Branche vor dem nächsten Schritt. Das ist kein Grund zur Panik, bedarf allerdings einer sorgfältigen Überwachung und Verwaltung.
Don’t panic!
KI und insbesondere LLMs sind und bleiben hochtechnische Werkzeuge. Unternehmen sollten deren Optimierung daher in die Hände von Experten geben, die Erfahrung mit den Aufgaben haben, für die sie entwickelt wurden. Sobald sie konfiguriert und in Betrieb genommen sind, befreien sie die DevOps-Teams von banalen Aufgaben und setzen Zeitressourcen frei, die in wertschöpfende Initiativen investiert werden können.
Das eigentliche Risiko Künstlicher Intelligenz besteht nicht darin, dass Maschinen den Menschen ersetzen. Es ist vielmehr das Missverständnis darüber, was KI und LLMs können und was nicht. Zu glauben, dass Künstliche Intelligenz – oder ein Tool, das sich als KI ausgibt – einen erfahrenen DevOps-Experten ersetzen kann, ist genauso falsch wie zu glauben, dass ein Kind mit ChatGPT den Pulitzer-Preis gewinnen kann.
DevOps ist ein komplexes Unterfangen, das eine Mischung aus künstlicher, menschlicher und emotionaler Intelligenz erfordert. Die effektivste Strategie ist daher nicht, den Menschen zu ersetzen, sondern ihn zu ergänzen: Durch die Kombination der Stärken von Mensch und Maschine erzielen Unternehmen die besten Ergebnisse.
* Markus Eisele ist Developer Advocate bei Red Hat
(ID:49675964)