| David-Sebastian Kalb

KI in Plattformlösungen – heute schon ein echter Mehrwert

Plattformlösungen bilden das technologische Rückgrat vieler moderner Unternehmen. Sie schaffen eine zentrale technische Grundlage mit standardisierten Schnittstellen, modularen Komponenten und vereinheitlichten Prozessen. Hierdurch ermöglichen sie eine skalierbare Infrastruktur, auf der verschiedene Services, Produkte oder Teams effizient und konsistent zusammenarbeiten können. Plattformlösungen reduzieren redundante Arbeit, fördern die Zusammenarbeit und ermöglichen es, neue Anwendungen zuverlässiger bereitzustellen. Dabei speichern und verarbeiten Plattformlösungen in der Regel eine Vielzahl an Daten, weshalb von Beginn an klare Verantwortlichkeiten und der Schutz sensibler Daten beachtet werden müssen. Der Aufbau solcher Plattformen ist somit komplex – er umfasst Konzeption, Entwicklung, Betrieb und kontinuierliche Weiterentwicklung. Hier setzt der Einsatz von Künstlicher Intelligenz (KI), insbesondere von Generativer KI (GenAI), an.

In den letzten Jahren hat sich Generative KI rasant entwickelt. Große Sprachmodelle (LLMs) oder multimodale Systeme, die Text, Code, Bild und Sprache verarbeiten können – bspw. GPT, Claude, Gemini oder Llama – revolutionieren die Art und Weise, wie Menschen mit Technologie interagieren. Anders als klassische KI/ML-Systeme, die stark auf spezifisch trainierte Modelle für einzelne Aufgaben angewiesen sind, ist GenAI in der Lage, kontextbezogene Inhalte dynamisch zu erzeugen, Vorschläge zu machen oder bestehende Informationen neu zu kombinieren.

Diese Fähigkeiten eröffnen enorme Potenziale für die Entwicklung und den Betrieb von Plattformlösungen – von der Anforderungsanalyse über die Codegenerierung bis hin zur automatisierten Betriebsüberwachung. Gleichzeitig bringt der Einsatz solcher Technologien neue Herausforderungen und Fragestellungen in Bezug auf Sicherheit und Verlässlichkeit mit sich.

Ziel dieses Beitrags ist es, einen praxisorientierten Überblick zu geben: Wo und wie kann KI im Lebenszyklus einer Plattformlösung eingesetzt werden und welche Risiken gilt es zu beachten?

Status quo: Wie KI/Gen AI eingesetzt wird

Künstliche Intelligenz – insbesondere Generative KI – ist dabei die Art und Weise wie Unternehmen arbeiten grundlegend zu transformieren. Die McKinsey-Studie The State of AI, basierend auf Antworten von 1.491 Führungskräften aus 101 Ländern, zeigt: Organisationen befinden sich in einem aktiven Anpassungsprozess, um künftig verstärkt Wertschöpfung durch KI und GenAI zu betreiben. Der Einsatz von KI erfolgt zunehmend häufiger, in vielfältigeren Anwendungsfeldern und wird immer tiefer in bestehende Systeme integriert (Grafiken 8–10) [1].

Gleichzeitig wird deutlich, dass Unternehmen ihre Arbeitsweisen und Prozesse anpassen müssen, um die Potenziale dieser Technologien auszuschöpfen. Laut dem Bericht AI in the Workplace: A Report for 2025 planen 92 % der Unternehmen höhere Investitionen in KI. Dennoch sehen nur die wenigsten Führungskräfte ihre internen Prozesse als ausreichend vorbereitet, um das volle Potenzial dieser Technologien zu entfalten [2]. Führungskräfte stehen vor der Herausforderung, KI sinnvoll zur Unterstützung der Mitarbeitenden und zur Steigerung von Kreativität und Produktivität einzusetzen. Dabei zeigen sich Mitarbeitende offen für den Einsatz von KI und fordern gezielt Schulungen, um die Technologie effizient in den Arbeitsalltag zu integrieren. Dennoch mangelt es in vielen Organisationen an der notwendigen Expertise und an strukturierten Weiterbildungsmaßnahmen. Hier besteht enormes Potenzial, das durch gezielte Initiativen ausgeschöpft werden kann.

Unternehmen, die KI bereits heute produktiv nutzen, berichten laut McKinsey von gesteigerter Profitabilität (Grafik 12) und signifikanten Kostenreduktionen (Grafik 13) [1]. Gleichzeitig ermöglicht die Automatisierung repetitiver Aufgaben eine stärkere Fokussierung auf Tätigkeiten, die nicht automatisierbar sind – beispielsweise in den Bereichen Sicherheit, Compliance oder strategische Entscheidungsfindung. Die erfolgreiche Umsetzung dieser Potenziale hängt jedoch maßgeblich von den organisatorischen und technologischen Voraussetzungen innerhalb eines Unternehmens ab. Die Studie The Competitive Advantage of Generative AI betont, dass Effizienzgewinne und Produktivitätsschübe nur dann realisierbar sind, wenn Strukturen und Prozesse an die Anforderungen von KI-Technologien angepasst und technologische Grundlagen wie Datenverfügbarkeit, Schnittstellen und Prozessintegration stimmen [3]. Arbeitsweisen müssen aufgrund des KI-gestützten Herangehens teilweise fundamental angepasst und neue KI-bezogene Rollen in Unternehmen etabliert werden [1].

Ein zentrales Thema bleibt darüber hinaus die Qualität der von KI generierten Ergebnisse. Während große Sprachmodelle bereits in der Lage sind, beeindruckende Leistungen in standardisierten Tests – etwa in Mathematik oder Sprachverarbeitung – zu erzielen, mangelt es ihnen weiterhin an echter Argumentationsfähigkeit und einem tieferen, nuancierten Verständnis komplexer Zusammenhänge [2]. Transparenz, Kontrolle und ein fundiertes Verständnis für die Funktionsweise von KI sind daher unerlässlich – nicht zuletzt im Hinblick auf Sicherheitsaspekte, regulatorische Anforderungen und die Einhaltung unternehmensinterner Richtlinien.

Wie KI in der Plattformentwicklung und Betrieb richtig eingesetzt wird

Der Entwicklungsprozess einer Plattformlösung durchläuft in der Regel mehrere Phasen – von der Konzeption über Architekturdesign, Implementierung, Testing und Qualitätssicherung bis hin zu Infrastruktur & Deployment, Betrieb und schließlich der kontinuierlichen Weiterentwicklung. In jeder dieser Phasen kann generative KI gezielt eingesetzt werden, um Effizienz zu steigern und Teams zu entlasten. So lassen sich z. B. Architekturvorschläge automatisiert generieren, wiederkehrende Aufgaben in der Infrastrukturverwaltung oder im Testdesign automatisieren und kreative Impulse bei der Codeerstellung oder Dokumentation gewinnen. Dies verkürzt Entwicklungszeiten und senkt Kosten, während gleichzeitig neue Innovationspotenziale erschlossen werden – etwa durch intelligente Analysen großer Datenmengen oder Vorschläge für alternative Lösungswege.

Um das Potenzial generativer KI bestmöglich zu nutzen, sollte ihre Integration bereits frühzeitig in der Plattformarchitektur berücksichtigt werden. Dabei sind sowohl technische Aspekte als auch organisatorische Strukturen zu beachten. Besonders herausfordernd ist hierbei die Datenintegration: Daten liegen oft in unterschiedlichen Formaten, Qualitäten oder Systemen vor. Zudem müssen Fragen bezüglich Datenqualität, Verfügbarkeit und Governance geklärt werden, bevor eine produktive Nutzung von KI möglich ist. Insbesondere bei personenbezogenen oder vertraulichen Informationen müssen Datenschutzrichtlinien und regulatorische Anforderungen eingehalten werden.

Darüber hinaus müssen klare Regeln definiert werden wie mit generierten Inhalten umzugehen ist. Neben rechtlichen Risiken wie Datenschutzverstößen oder Haftungsfragen birgt KI auch technische und ethische Gefahren – etwa durch fehlerhafte Vorschläge, Vorurteile im Trainingsdatensatz oder mangelnde Transparenz der Entscheidungsfindung. Ein verantwortungsvoller Einsatz erfordert daher klare Richtlinien, kontinuierliche Evaluation und eine konsequente Validierung der KI-Ausgaben, die dokumentiert und nachvollziehbar gestaltet werden müssen. Auch wenn Inhalte von einer KI erstellt werden, liegt die letztliche Verantwortung beim Unternehmen bzw. den zuständigen Personen.

Entwicklungsprozess einer Plattformlösung

Das Ziel der Konzeptionsphase einer Plattformlösung besteht darin, ein gemeinsames, schlankes, effizientes und wartungsfreundliches Gesamtkonzept zu entwickeln. Schon in dieser kann KI dabei helfen, Informationen aufzubereiten, Anforderungen zu strukturieren und initiale User Stories zu formulieren. In der Architekturplanung unterstützt sie durch das Analysieren von Systemlandschaften, dem Erkennen potenzieller Engpässe oder das Erstellen von Architekturdiagrammen. Gerade die frühen Projektphasen erfordern jedoch intensive Kommunikation und Abstimmung mit allen relevanten Stakeholdern. Dazu zählen die Einschätzung der technischen Machbarkeit und das Herausarbeiten konkreter Businessziele. Zudem bleiben Architekturentscheidungen, Bewertung von Kompromissen (z. B. Latenz vs. Kosten vs. Verfügbarkeit), Integration in bestehende IT-Landschaften, Sicherheitsanforderungen und rechtliche Rahmenbedingungen, vorerst weiterhin in der Verantwortung menschlicher Expert:innen. Hier sind umfassendes Wissen über Governance, strategische Ziele und unternehmensspezifische Rahmenbedingungen erforderlich – KI kann unterstützen, jedoch nicht führen.

In der Implementierung und Codegenerierung kann GenAI Entwicklerteams bereits im erheblichen Maß entlasten. So können AI Chatbots oder Code-Helper wie GitHub Copilot [5] oder AWS CodeWhisperer [6] Code-Snippets generieren, Refactorings vorschlagen oder eine einfache Dokumentation schreiben. Darüber hinaus beschleunigen spezialisierte Dokumentenmanagement-KIs, etwa Mintlify [7] oder Conga-Composer [8], die Erstellung und Pflege technischer Dokumentationen. Besonders im Testing entfaltet GenAI großes Potenzial: sie kann genutzt werden, um Edge-Cases zu erkennen, automatisch Unit- und Integrationstests zu erstellen oder Lasttests zu entwerfen [5, 9, 10]. Für Infrastruktur und CI/CD (Continuous Integration/Continuous Delivery) generiert KI passende Skripte und optimiert CI/CD-Pipelines – sei es durch bessere Konfigurationsvorschläge oder die automatische Korrektur häufiger Fehler [11, 12]. Entwickler:innen können so schneller vorankommen und repetitive Aufgaben automatisieren. Einhaltung unternehmensspezifischer Standards oder das saubere Umsetzen von komplexer Geschäftslogik erfordert weiterhin Fachwissen und Architekturverständnis, welches der KI erst vermittelt werden muss. KI beschleunigt und erweitert die Qualitätssicherung, ersetzt diese jedoch nicht.

Nach dem initialen Deployment beginnt der Betrieb und die Weiterentwicklung. Auch hier kann KI unterstützen – etwa durch die Analyse von Nutzungsdaten, Performance-Auswertungen oder Vorschläge für neue Features. In der Weiterentwicklung wird jedoch deutlich, wie wichtig die menschliche Nachvollziehbarkeit früherer Architektur- und Designentscheidungen ist: Wurde eine Plattform mit starker KI-Unterstützung aufgebaut, können fehlender Kontext oder undokumentierte Automatismen später zu Problemen führen – etwa bei der Fehlersuche, der Erweiterbarkeit oder dem Verständnis komplexer Abhängigkeiten.

KI kann somit in fast jedem Schritt des Entwicklungsprozesses zur Effizienzsteigerung beitragen – insbesondere bei Automatisierung, Dokumentation, Wiederverwendbarkeit und der Entlastung von repetitiven Aufgaben, und ist für eine kosteneffiziente Planung und Umsetzung inzwischen unabdingbar. Trotzdem bleibt die Rolle des Entwicklers oder Plattformarchitekten entscheidend. Denn KI liefert zwar oft schnell eine Antwort, aber nicht unbedingt die beste Lösung. Gerade bei der Konzeption komplexer Systeme fehlt es einer KI oft an unternehmerischem Kontext, Verständnis für Prioritäten oder einem ganzheitlichen Blick auf Systemlandschaften. Der Mensch bleibt notwendig, um die verschiedenen Systembausteine zusammenzuführen, Compliance- und Sicherheitsanforderungen umzusetzen und Innovationen voranzutreiben. Eine KI kann momentan nur so gut arbeiten, wie die zugrunde liegenden Daten es erlauben – Datensilos, fehlende Systemzugriffe oder mangelnde Prozessintegration stellen hier klare Grenzen dar.

Betrieb einer Plattformlösung

KI kann im Plattformbetrieb eingesetzt werden, um Abläufe zu optimieren, Ausfälle vorherzusagen und die Sicherheit zu erhöhen. Dies hat sich zunehmend als integraler Bestandteil des operativen IT-Betriebs unter dem Begriff AIOps – Artificial Intelligence for IT Operations – etabliert. AIOps bezeichnet unter anderem KI-gestützte Mustererkennungen und Analysen von Telemetriedaten – Logs, Metriken, Traces – und hat als Ziel, signifikante Ereignisse frühzeitig zu erkennen, Störungen schneller zu beheben und den operativen Aufwand durch intelligente Prozesse deutlich zu senken.

Für Infrastrukturprojekte und -lösungen bietet AIOps besonders dort Vorteile, wo große Mengen an Betriebsdaten anfallen. So sind insbesondere Prädiktive Analysen – Prognosen von Ressourcenbedarf basierend auf Traffic-Mustern und Nutzerverhalten, Anomalie-Erkennung, und Vorfall-Priorisierung und Filterung von Nutzen. Prädiktive Analysen können genutzt werden, um Kosteneinsparungen in den verwendeten Hardwareressourcen zu realisieren oder weniger Ausfälle und mehr Zuverlässigkeit zu gewährleisten. Anomalieerkennung kann zudem Abweichungen im CPU-, Speicher- oder Netzwerkverhalten identifizieren, noch bevor daraus ernsthafte Probleme entstehen. Gleichzeitig reduziert sich durch intelligentes Alerting und automatisierter Vorfall-Priorisierung das Risiko der „Alarmmüdigkeit“ im Betriebsteam. [13, 14, 15]

Ein weiterer Anwendungsbereich ist die automatisierte Sicherheitsüberwachung: Verhaltensbasierte Modelle können verdächtige Aktivitäten schneller erkennen als regelbasierte Systeme und geeignete Gegenmaßnahmen vorschlagen oder einleiten. Besonders in hybriden oder Multi-Cloud-Infrastrukturen verbessert dies die Resilienz und Reaktionsfähigkeit enorm. Hierdurch können Metriken wie bspw. Mean-Time-to-Detect (MTTD) und Mean-Time-to-Resolution (MTTR) signifikant verbessert werden. [13]

Für den Betrieb einer Plattform können spezialisierte KI-Systeme somit schon einen großen Teil der anfallenden Arbeit übernehmen. Am Markt etablierte Anbieter wie DataDog [14], AWS [16] und Dynatrace [17] haben AIOps-Funktionalitäten längst in ihre Services integriert. Sie bieten erweiterte Anomalie-Erkennung und intelligente Alerting-Systeme an. GitHub [18] ermöglicht durch „GitHub Advanced Security“ eine automatisierte Analyse von Sicherheitslücken in Code und Softwarebibliotheken, ergänzt durch automatische Sicherheitspatches. Für Incident Management können Lösungen wie PagerDuty [19] oder OpsGenie [20] verwendet werden, die bei der Eskalation und Kommunikation im Störfall unterstützen.

Trotz dieser Vorteile bringt AIOps auch Herausforderungen mit sich. Die Datenqualität ist essenziell – nur mit gut aufbereiteten und umfassend erhobenen Daten aus dem gesamten operativen System kann AIOps präzise und verlässliche Ergebnisse liefern. Auch ein fehlendes Verständnis der zugrundeliegenden IT-Topologie kann zu fehlerhaften Analysen oder falschen Korrelationen führen. Hier sind weiterhin IT-Teams gefragt, die Komponenten wie Datenbanken, Dienste, Hardware und Netzwerk korrekt erfassen, zuweisen und deren Zusammenhänge nachvollziehen und interpretieren können. [14]

Ein Blick in die Zukunft zeigt, dass mit dem Aufkommen von Agentensystemen eine noch tiefere Automatisierung möglich wird. KI-Agenten werden in der Lage sein, komplexe Arbeitsabläufe untereinander zu orchestrieren, voneinander zu lernen und sich kontinuierlich zu verbessern. Damit könnten sie langfristig noch umfangreichere Teile des IT-Betriebs übernehmen – etwa durch eigenständige Planung, Abstimmung und Umsetzung technischer Maßnahmen. [4]

Gefahren und Herausforderungen

Die sehr hohe Selbstsicherheit von KI/GenAI, kombiniert mit einer oft unzureichenden Transparenz und Nachvollziehbarkeit der Ergebnisse, birgt erhebliche Risiken. Viele Modelle präsentieren ihre Vorhersagen mit übermäßiger Zuversicht, selbst wenn die Ergebnisse unvollständig, fehlerhaft oder auf unzureichend validierten Daten basieren. Dies führt häufig dazu, dass Fachkräfte und Entscheidungsträger den Output der KI ohne kritische Prüfung übernehmen und falsche Annahmen treffen, was zu gravierenden Fehlentscheidungen in kritischen Geschäftsprozessen führen kann. Ein mangelndes Verständnis der zugrunde liegenden Logik wie auch die fehlende Nachvollziehbarkeit der Entscheidungsfindung einer KI verschärfen dieses Problem zusätzlich.

Fehler in der Implementierung von KI-Systemen können zudem Sicherheitslücken schaffen, welche von Angreifern genutzt werden, um auf sensible Daten zuzugreifen oder den Betrieb ganzer Plattformlösungen zu stören. Eine unsachgemäße Integration erhöht das Risiko, dass kritische Entscheidungen von einer KI ohne ausreichende menschliche Kontrolle getroffen werden – was zu Systemausfällen, Datenverlusten und weiteren schwerwiegenden Konsequenzen führen kann. Eine übermäßige Abhängigkeit von KI kann dabei dazu führen, dass die notwendige menschliche Expertise und Überwachung vernachlässigt werden, wodurch Fehler unentdeckt bleiben und sich in großem Umfang negativ auswirken.

Gleichzeitig verändert sich durch die fortschreitende Einführung von KI die Herangehensweise technischer Rollen grundlegend. Der Fokus verschiebt sich von rein technisch-operativen Aufgaben wie Automatisierung, Sicherheit, Infrastruktur und Monitoring hin zu Aufgaben wie Validierung der KI-Ausgaben, Strukturgebung von Prozessen und strategischem Überblick. Dies erfordert den Aufbau neuer Kompetenzen und kontinuierliche Schulungen, um sicherzustellen, dass KI-Systeme stets unter menschlicher Kontrolle bleiben und ihre Ergebnisse zuverlässig bewertet werden können. Letztlich ist es entscheidend, Mechanismen zu implementieren, die den Output von KI-Systemen regelmäßig überprüfen, um die Balance zwischen technischer Innovation und operativer Sicherheit zu gewährleisten.

Fazit und Empfehlungen

Systeme und Programme welche Künstliche Intelligenz nutzen, haben sich als leistungsstarkes Werkzeug zur Optimierung von Infrastruktur-Operationen etabliert. KI-gestützte Analysen helfen dabei, Performance-Engpässe zu identifizieren, Ausfälle vorherzusagen und automatische Skalierungsentscheidungen zu treffen. Auch bei der Automatisierung von Infrastrukturprozessen, Dokumentation oder Testgenerierung leisten KI-Tools wertvolle Unterstützung. Besonders im Betrieb können spezialisierte KI-Systeme Entwickler und Betriebsteams entlasten. Dennoch erfordert das tiefgehende Verständnis von Systemarchitekturen, die Abwägung zwischen Kosten und Leistung sowie die strategische Planung langfristiger Infrastrukturentscheidungen weiterhin erfahrene Fachleute. Diese bringen Kontextbewusstsein, Anpassungsfähigkeit und ein tiefes Verständnis der geschäftlichen Anforderungen mit – Eigenschaften, die KI noch nicht vollständig nachbilden kann.

Stattdessen dient KI als leistungsstarke Assistenz, die menschliche Expertise ergänzt, aber noch nicht ersetzt. Daher gilt es, KI/GenAI bewusst und verantwortungsvoll als unterstützendes Werkzeug in den Entwicklungsprozess zu integrieren. Um den vollen Nutzen aus KI zu ziehen, muss das Systemdesign frühzeitig auf die Anforderungen KI-gestützter Tools ausgelegt werden – Zugriffsrechte, Kontextbereitstellung und Dateninfrastruktur. Gleichzeitig müssen Teams entsprechend geschult werden: Der verantwortungsvolle Umgang mit KI, das Verstehen ihrer Grenzen und die Fähigkeit, zielführende Prompts zu formulieren sowie KI-Ausgaben fachlich zu bewerten und richtig einzuordnen, werden somit zu Schlüsselkompetenzen im KI-Zeitalter.

Quellen

[1]   https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai
[2]   https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/superagency-in-the-workplace-empowering-people-to-unlock-ais-full-potential-at-work
[3]   https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/a-generative-ai-reset-rewiring-to-turn-potential-into-value-in-2024
[4]   https://www.mckinsey.com/featured-insights/mckinsey-explainers/what-is-an-ai-agent
[5]   https://github.com/features/copilot
[6]   https://aws.amazon.com/de/blogs/machine-learning/introducing-amazon-codewhisperer-the-ml-powered-coding-companion/
[7]   https://mintlify.com/
[8]   https://conga.com/products/conga-composer
[9]   https://www.diffblue.com/code-quality/
[10] https://www.testim.io/
[11] https://aws.amazon.com/de/q/
[12] https://aws.amazon.com/de/codeguru/
[13] https://www.ibm.com/de-de/topics/aiops
[14] https://www.datadoghq.com/knowledge-center/aiops/
[15] https://aws.amazon.com/de/guardduty/
[16] https://aws.amazon.com/de/ai/
[17] https://www.dynatrace.com/de/platform/
[18] https://github.com/security/advanced-security
[19] https://www.pagerduty.com/
[20] https://www.atlassian.com/software/opsgenie

David-Sebastian Kalb

David-Sebastian Kalb ist Master of Science in Physik und seit Anfang 2024 als Data Engineer und Software Developer bei der Woodmark tätig. Er begeistert sich für die vielfältigen Möglichkeiten der Cloud und das Potenzial KI-gestützter Lösungen. David ist auf Infrastrukturverwaltung in der Cloud sowie Software Development spezialisiert und ist mehrfach AWS zertifiziert.

Zur Übersicht Blogbeiträge