AUTORAUTHOR
Echter Name
Head of  IT Service Desk

Oliver Pflug leitet seit über zwanzig Jahren Service Desk Teams und bringt tiefgehende Erfahrung in Service und Wissens¬management, Prozessgestaltung sowie professionellem Krisen¬management mit. Als Head of IT Service Desk bei der audius verantwortet er den stabilen Betrieb, steuert Transformations¬projekte und baut Support¬organisationen so aus, dass sie auch unter Hochdruck verlässlich funktionieren. Seine praxisnahen Einblicke reichen von der strategischen Roadmap bis zum operativen Troubleshooting.

Aus
Aus
Aus

Normaler Abstand nach oben
Normaler Abstand nach unten

Die Anforderungen an IT Organisationen haben in den letzten Jahren eine neue Größenordnung erreicht. Fachbereiche erwarten reibungslos funktionierende Systeme, mobile Mitarbeitende verlangen rund um die Uhr Zugriff auf Cloud Anwendungen, und das Management kalkuliert Budgets immer enger. Gleichzeitig wächst die technische Komplexität durch hybride Infrastrukturen, SaaS Abonnements und IoT Anbindungen. Wer hier den Überblick behalten will, braucht mehr als gut eingespielte Prozesse. Er braucht einen Service Desk, der lernt, sich anpasst und idealerweise Probleme erkennt, bevor sie zu Störungen werden.

Künstliche Intelligenz verspricht genau das. Doch was bedeutet „KI im Service Desk“ jenseits der Schlagworte? Im Kern geht es darum, maschinelles Lernen einzusetzen, um Datenmuster zu verstehen, Entscheidungen vorzubereiten und Standardaufgaben zu automatisieren. Anders als klassische Prozessautomatisierung, die in klares Wenn Dann Bahnen denkt, kann KI flexibel auf neue Situationen reagieren, da sie Zusammenhänge anhand vorhandener Informationen selbst ableitet. In diesem Blogartikel gehen wir darauf ein, welche Effekte zu erwarten sind, wie die typischen Einsatzszenarien aussehen, welche Voraussetzungen geschaffen werden müssen und wie Sie den Erfolg zuverlässig messen. Am Ende kennen Sie die Stellschrauben, mit denen Sie Ihren Service Desk nicht nur effizienter, sondern vor allem zukunftsfähig machen.

Aus
Aus
Aus

Warum klassische Effizienzhebel an Grenzen stoßen
Normaler Abstand nach oben
Normaler Abstand nach unten

Wer lange genug im IT Support gearbeitet hat, kennt die üblichen Verbesserungsprogramme. Zunächst werden Prozesse beschrieben, dann wird standardisiert, anschließend folgen Self Service Portale, und schließlich hilft man sich mit zusätzlichen Mitarbeitenden oder Nearshore Modellen, wenn das Ticketvolumen doch weiterwächst. Diese Instrumente funktionieren eine Zeit lang gut, doch irgendwann erzielen sie nur noch minimale Verbesserungen. Der Grund ist simpel: Prozessoptimierung beschleunigt den Ablauf, ändert aber nichts an der Arbeitsmenge. Self Service löst Standardfälle, skaliert jedoch nicht endlos, da immer neue Anwendungslandschaften hinzukommen. Und mehr Personal erhöht unweigerlich die Kosten.

Genau hier setzt KI an. Ein gut trainiertes Modell kann innerhalb von Millisekunden das erledigen, wofür ein Mensch Minuten oder sogar Stunden benötigt: Texte verstehen, Kategorien bestimmen, priorisieren, Logs auswerten, Anomalien erkennen und Lösungsvorschläge ableiten. Der Zeitgewinn ist offensichtlich. Noch interessanter wird es, wenn man die Skalierbarkeit betrachtet. Ein Chatbot kann nachts eintausend gleichartige Anfragen bearbeiten, ohne dass Überstunden bezahlt werden müssen. Ein Anomalie Erkennungsmodell überwacht tausende Datenströme parallel und schlägt nur dann Alarm, wenn es statistisch relevante Abweichungen feststellt. Auf diese Weise steigt die Bearbeitungskapazität exponentiell, ohne dass sich die Kosten im gleichen Maß vervielfachen.

Aus
Aus
Aus

Normaler Abstand nach oben
Normaler Abstand nach unten

Wie Künstliche Intelligenz die Ticketbearbeitung beschleunigt

Der wohl greifbarste Effekt zeigt sich, wenn man den Weg eines Tickets durch den Support betrachtet. Früher bestand der Ablauf aus einer Vielzahl von Mikrotätigkeiten: E Mails sichten, Schlagwörter identifizieren, Formularfelder ausfüllen, passende Wissensartikel suchen. In vielen Organisationen summierten sich diese kleinen Handgriffe auf mehrere Stunden pro Tag.

Ein modernes Sprachmodell ersetzt diesen Mikroworkflow. Sobald eine Anfrage eintrifft, analysiert der Algorithmus den Text, prüft, ob Signatur oder Metadaten weitere Hinweise liefern, und versieht das Ticket mit Kategorie, Subservice, Dringlichkeit und – falls vorhanden – mit dem Namen des betroffenen Systems. Was nach einem beeindruckenden Showeffekt klingt, hat einen handfesten Nutzen: Jedes Ticket startet sauber, vollständig und mit konsistenten Parametern.

Die Zeitersparnis dabei ist nur die halbe Miete. Fast noch wichtiger ist die Genauigkeit. Menschen unterliegen der Tagesform und Interpretationsspielraum. Das Modell hingegen wendet dieselben Regeln hundertprozentig konsequent an. Weist man das System an, sicherheitsrelevante Vorfälle grundsätzlich als „hoch“ einzustufen, werden diese Tickets nie versehentlich in der Routine Queue landen. Damit reduziert sich nicht nur die mittlere Lösungszeit, sondern auch das Risiko teurer SLA Verletzungen.

Wenn das Ticket anschließend in Bearbeitung geht, hilft die KI erneut. Sie vergleicht das aktuelle Problem mit historischen Fällen, schlägt Lösungsschritte vor und verlinkt Tutorials, die in der Vergangenheit erfolgreich waren. Der Agent spart Recherchezeit, und der Kunde erhält schneller eine qualifizierte Rückmeldung. Besonders deutlich wird der Effekt, wenn neue Softwareversionen ausgerollt werden. Innerhalb weniger Tage entsteht häufig eine Welle gleichartiger Anfragen. Das Modell erkennt diese Häufung, priorisiert die Anfragen und schlägt dem Team vor, einen generischen Hotfix zu publizieren. So entsteht aus vielen kleinen Vorgängen eine zentrale Maßnahme, die den Workload massiv senkt.

Aus
Aus
Aus

Normaler Abstand nach oben
Normaler Abstand nach unten

Virtuelle Agenten – der Self Service im Dialogformat

Self Service Portale haben sich längst etabliert, doch sie sind in der Regel statisch: Der Nutzer sucht einen Artikel, liest ihn durch und entscheidet, ob er die Anleitung versteht. Chatbots gehen einen Schritt weiter. Sie verwandeln das Portal in ein dialogorientiertes Erlebnis. Stellen Sie sich vor, ein neuer Mitarbeiter hat Probleme, sich mit dem Firmen VPN zu verbinden. Anstatt ein komplexes Suchformular zu bedienen, öffnet er den Chat, beschreibt sein Anliegen in eigenen Worten und erhält unmittelbar eine Reaktion vom Bot. Dieser fragt beispielsweise, welches Betriebssystem verwendet wird und ob eine Fehlermeldung angezeigt wird. Daraufhin bietet er eine maßgeschneiderte Schritt-für-Schritt-Anleitung an.

Der Charme dieser Lösung liegt nicht nur in der Schnelligkeit. Ein Chatbot verhindert Frust. Wenn der Mitarbeiter eine Anweisung nicht versteht, kann er nachfragen. Der Bot erklärt geduldig, passt das Wording an und merkt sich im System, an welcher Stelle er Verständnisschwierigkeiten hatte. Später lassen sich diese Erkenntnisse nutzen, um die Wissensdatenbank zu optimieren. Gleichzeitig sammelt der Bot strukturierte Daten über den Vorfall. Kommt es doch zur Eskalation, kann der menschliche Agent mit einem lückenlosen Protokoll starten, ohne erneut Basisfragen stellen zu müssen.

Aus
Aus
Aus

Normaler Abstand nach oben
Normaler Abstand nach unten

Predictive Analytics – Ausfällen einen Schritt voraus

Während Chatbots die sichtbare Kundeninteraktion revolutionieren, wirkt Predictive Analytics eher im Hintergrund. Das Prinzip ist erstaunlich einfach:

Angenommen, im Normalbetrieb melden sich pro Stunde ca. 150 User über VPN oder Citrix an, um im Homeoffice zu arbeiten. Predictive Analytics stellt fest, dass sich die Anzahl der fehlgeschlagenen Logins innerhalb weniger Minuten vervielfacht, obwohl das Login-Verhalten an diesem Wochentag eigentlich stabil ist. Beispielsweise steigen die fehlgeschlagenen Authentifizierungen wegen eines Zertifikatsfehlers oder einer gestörten Authentifizierung mit dem Active Directory. Ohne Analytics würden diese Fehler erst sichtbar, wenn dutzende Anrufe beim Service Desk eingehen.

Dank Predictive Analytics wird jedoch automatisch ein Incident erstellt, der den Service Desk über eine zentrale Störung beim Login informiert. Das Team kann: 

  • eine Info an alle User senden ("uns ist das Problem bekannt"),
  • die Störung an das Backend-Team oder das Identity-Management weiterleiten, 
  • und bereits vorbereitete Workarounds oder Statusmeldungen bereitstellen.

Diese proaktive Erkennung hilft also sowohl bei Performance-Problemen, Zugriffsfehlern als auch bei Überlastungssituationen im Service Desk selbst.

Der proaktive Charakter zeigt sich auch in den konkreten Handlungsempfehlungen, die das System direkt mitliefert. Basierend auf historischen Daten erkennt das Modell beispielsweise, dass bestimmte Muster in der Vergangenheit häufig auf ein Problem mit der Authentifizierungs-Infrastruktur oder einer zunehmenden Datenbanküberlastung zurückzuführen waren.

Daher empfiehlt es sich konkret, die Authentifizierungs-Dienste neu zu starten, Zusatzressourcen für das VPN-Gateway bereitzustellen oder Datenbankabfragen zu optimieren. Ein Operator im Service Desk prüft diese Vorschläge und bestätigt sie mit einem Klick. Dadurch werden massive Staus an Benutzeranfragen oder Systemausfällen verhindert, bevor die Störung den Regelbetrieb erreicht.

In einem Pilotprojekt eines großen Service Desks konnte so die Zahl der großen Störungen (Major Incidents) um 18 Prozent gesenkt werden – und das bereits nach nur drei Monaten aktivem Einsatz von Predictive Analytics.

Aus
Aus
Aus

Normaler Abstand nach oben
Normaler Abstand nach unten

Auto Remediation – wenn Systeme sich selbst heilen

Der größte Automationsgrad wird erreicht, wenn das System nach erkannter Anomalie eigenständig Gegenmaßnahmen einleitet. Voraussetzung dafür ist eine Bibliothek getesteter Scripts, die genau definierte Aktionen ausführen: Dienste neu starten, Caches leeren, Konfigurationsdateien neu laden oder Container skalieren. Die KI fungiert hier als Orchestrator. Zuerst prüft sie, ob die Situation den definierten Kriterien entspricht, ob alle Abhängigkeiten erfüllt sind und ob der geplante Eingriff innerhalb der festgelegten Wartungsfenster liegt.

Ein Beispiel verdeutlicht den Nutzen. In einer Druckerfarm kommt es immer wieder zu Spooler Stops, die sich durch einen Neustart des Dienstes lösen lassen. Früher musste ein Agent das Problem identifizieren, sich via Remote Konsole anmelden und den Dienst manuell starten. Heute erkennt die Überwachung sofort, wenn der Dienst abstürzt. Das Modell validiert die Ursache und ruft dann ein Powershell Skript auf. Der gesamte Vorgang dauert wenige Sekunden. Der Anwender, der gerade ein Dokument drucken will, merkt davon nichts. Die Statistik zeigt jedoch, dass dadurch wöchentlich mehrere Stunden Supportzeit freiwerden.

Aus
Aus
Aus

Normaler Abstand nach oben
Normaler Abstand nach unten

Voraussetzungen für den Einstieg: Saubere Daten, offene Plattformen und klare Rollen

Bevor KI die Arbeit wirklich erleichtert, muss das Fundament stimmen. An erster Stelle steht die Datenqualität. Wenn Kategorien uneinheitlich befüllt sind oder Freitextfelder unstrukturierte Ein Wort Kommentare enthalten, lernt das Modell zwangsläufig Falsches. Ein initiales Data Cleansing Projekt lohnt sich darum immer. Ebenso relevant sind offene Schnittstellen. Ohne dokumentierte REST oder GraphQL APIs bleiben Machine Learning Modelle am Datensilo hängen, weil sie schlichtweg keinen Zugriff auf Vorgangsdetails oder Monitoring Metriken bekommen. Wer heute noch auf einen proprietären Ticket Export per CSV angewiesen ist, verschenkt Potenzial. Ein kurzer Plattform Check, ob sich Tickets programmatisch lesen und schreiben lassen, ob Ereignisströme aus dem Monitoring gebündelt zur Verfügung stehen und ob Workflows per Webhook angestoßen werden können, spart später endlose Integrationsschleifen.

Schließlich braucht es klar definierte Rollen. Häufig wird eine erfahrene Supportkraft zur sogenannten AI Service Desk Coach weitergebildet. Sie kennt die fachlichen Prozesse, beherrscht die Grundbegriffe des maschinellen Lernens und achtet darauf, dass Trainingsdaten gepflegt und Modellupdates ordnungsgemäß dokumentiert werden. Ergänzt wird diese Rolle durch einen Data Steward, der die Datenqualitätsergebnisse regelmäßig überprüft, sowie durch einen Automation Owner, der die Skriptbibliothek für Auto Remediations verantwortet. Durch diese klaren Zuständigkeiten bleibt das Thema nicht am Rande der Tagesarbeit hängen, sondern erhält einen festen Platz in der Prozesslandschaft.

Aus
Aus
Aus

Normaler Abstand nach oben
Normaler Abstand nach unten

Erfolg messbar machen – Zahlen, die überzeugen

Nach der Implementierung stellt sich die Frage, ob sich der Aufwand gelohnt hat. Ein rein technischer Blick greift zu kurz, denn die Einführung von Künstlicher Intelligenz verändert sowohl operative Kennzahlen als auch das Erleben der Anwender. Beginnen wir mit der Mean Time to Resolution. In einem mittelgroßen Finanzinstitut sank dieser Wert von durchschnittlich sieben Stunden auf knapp fünf Stunden, nachdem Klassifizierungsmodell, Chatbot und erste Auto Remediations live gegangen waren. Auf den ersten Blick wirken zwei Stunden wenig, auf das Jahr hochgerechnet bedeuten sie jedoch mehrere Tausend gewonnene Produktivstunden im Business.

Gleichzeitig legte die Erstlösungsquote deutlich zu. Vor dem Projekt lag sie bei 62 Prozent, zwölf Monate später bei fast 78 Prozent. Hinter der nüchternen Zahl verbergen sich messbare Erfahrungen: Es gab weniger Rückrufe, weniger Eskalationsschleifen und mehr positiv abgeschlossene Kontakte. Das spiegeln die halbjährlichen Zufriedenheitsstudien wieder. Auf einer Zehn Punkte Skala bewerteten die Fachbereiche den Support vor dem KI Roll out mit 6,5 Punkten, danach mit 8,5 Punkten. Besonders gelobt wurde die schnelle Reaktionszeit außerhalb der Kernarbeitszeiten und die „stetig besser werdende Verständlichkeit“ der Lösungsschritte.

Nicht zu unterschätzen ist auch der Einfluss auf das Betriebskostenprofil. Zwar entstehen Aufwendungen für Lizenzen, Rechenleistung und Schulungen, doch diese werden zu einem großen Teil durch den Wegfall manueller Routinen kompensiert. In dem genannten Finanzinstitut beliefen sich die direkten Kostenersparnisse – gerechnet aus vermiedenen Überstunden, reduzierten SLA Penalties und gesunkenem Incident Aufkommen – auf knapp 300 000 Euro pro Jahr. Damit amortisierte sich das Projekt nach zwölf Monaten vollständig.

Aus
Aus
Aus

Normaler Abstand nach oben
Normaler Abstand nach unten

Best Practices – so bleibt der Schwung erhalten

Das erste Jahr nach dem Go Live entscheidet häufig darüber, ob KI im Service Desk ein Strohfeuer bleibt oder zu einem festen Bestandteil der Supportstrategie wird. Ein zentraler Erfolgsfaktor ist konsequentes Iterieren. Modelle altern: Neue Softwareversionen, veränderte Geschäftsprozesse oder schlicht andere Begrifflichkeiten in den Fachabteilungen sorgen dafür, dass einst verlässliche Empfehlungen allmählich weniger genau werden. Wer alle drei bis vier Monate ein Minor Retraining plant, behält die Treffgenauigkeit hoch und verhindert so einen Vertrauensverlust.

Ebenfalls bewährt hat sich ein Feedback Loop mit den Agents. Kurze Retro Sessions, in denen Mitarbeiter schildern, wann die KI geholfen oder irritiert hat, liefern oft wertvollere Hinweise als reine Statistikdashboards. Ein Kollege hat es treffend formuliert: »Das Modell ist wie ein Azubi – es arbeitet fleißig, muss aber regelmäßig Feedback bekommen, sonst lernt es die falschen Dinge.« Diese Haltung schützt davor, das System als Blackbox zu betrachten und fördert eine Kultur, in der Mensch und Maschine als Team agieren.

Governance ist kein notwendiges Übel, sondern der Rahmen, der Verlässlichkeit schafft. Jedes größere Update des Klassifizierungsmodells durchläuft in erfolgreichen Projekten eine schlanke, aber verbindliche Abnahme: ein Testdatensatz, ein Soll Ist Vergleich und die Freigabe durch den AI Coach. Bei Auto Remediations gilt das Vier Augen Prinzip; Scripts werden versioniert und Änderungen dokumentiert. In sicherheitskritischen Umgebungen verlangt man eine nachträgliche Analyse, ob der Eingriff die gewünschte Wirkung hatte. Aufwand? Ja. Aber erheblich weniger, als einen unerwünschten Nebeneffekt im Live Betrieb auszubügeln.

Ein letzter Punkt betrifft die Transparenz gegenüber dem Management. Früh formulierte Erfolgsindikatoren wie MTTR, FCR, Incident Vermeidung und Zufriedenheit sollten auf einem übersichtlichen Dashboard landen, das aktuelle Werte, Trendlinien und Business Auswirkungen zeigt. Auf diese Weise wird Fortschritt sichtbar, Budgetdiskussionen verlaufen auf Basis belastbarer Daten, und die nächste Ausbaustufe, wie etwa generative KI für die automatische Erstellung von Wissensartikeln, findet Zustimmung.

Aus
Aus
Aus

Normaler Abstand nach oben
Normaler Abstand nach unten

Ausblick – wohin die Reise geht

Die Entwicklung im Bereich der Künstlichen Intelligenz schreitet rasant voran. In den kommenden Jahren werden wir voraussichtlich zwei große Strömungen im Service Desk beobachten. Erstens werden Sprachmodelle und Prozessautomatisierung stärker verschmelzen. Der Chatbot von morgen wird nicht nur Fragen beantworten, sondern gleich im Hintergrund Aufträge an RPA Bots oder Cloud Functions vergeben, wenn er erkennt, dass eine technische Einstellung geändert werden muss. Zweitens rückt der Kontext in den Vordergrund. Systeme begnügen sich nicht mehr mit reinen Tickets oder Logs. Sie ziehen Telemetriedaten aus Endgeräten, nutzen Sensordaten aus Büroumgebungen und vernetzen sich mit Business KPIs, um den Einfluss technischer Probleme auf Umsatz oder Kundenerlebnis zu kalkulieren.

So entsteht ein Service Desk, der nicht nur Störungen behebt, sondern auch ganz neue Einblicke in das Zusammenspiel von Prozessen, Technik und Wertschöpfung liefert. Unternehmen, die bereits heute die Grundlagen – saubere Daten, APIs, Rollen, Governance – legen, werden diese Möglichkeiten weit schneller nutzen können als Wettbewerber, die KI noch als ferne Spielerei abtun.

Aus
Aus
Aus

Normaler Abstand nach oben
Normaler Abstand nach unten

Zusammenfassung

Künstliche Intelligenz bringt den IT Support an einen Wendepunkt. Während bislang reaktive Routinen den Alltag bestimmten, entstehen jetzt lernfähige Strukturen. Diese sortieren Anfragen intelligent vor, lösen Standardprobleme dialoggesteuert, ersticken Ausfälle im Keim und leiten im Ernstfall blitzschnell Gegenmaßnahmen ein. Der Weg dorthin ist kein Geheimnis: saubere Daten, offene Plattformen, definierte Verantwortlichkeiten und eine Lernkultur, die Mensch und Maschine gleichermaßen einschließt. Unternehmen, die diesen Weg beschreiten, gewinnen nicht nur an Effizienz, sondern verwandeln den Service Desk in einen aktiven Gestalter der digitalen Wertschöpfung.

IT Service Desk | audius
Zufriedene User sind produktiver
Störungen in der IT oder verschleppte Serviceanfragen frustrieren User, stören Prozessabläufe und verzögern Projekte. Ein erstklassiger IT Service Desk sorgt somit nicht nur für zufriedene Anwenderinnen und Anwender, die ihre volle Produktivität entfalten können, sondern ist Voraussetzung für hohe Effizienz und erfolgreiche Projekte.
3396
  • Next Level Service Desk: Wie Künstliche Intelligenz die Supportlandschaft verändert

    01.07.2025 - 08:00
    11 Minuten
    AUTORAUTHOR
    Echter Name
    Head of  IT Service Desk

    Oliver Pflug leitet seit über zwanzig Jahren Service Desk Teams und bringt tiefgehende Erfahrung in Service und Wissens¬management, Prozessgestaltung sowie professionellem Krisen¬management mit. Als Head of IT Service Desk bei der audius verantwortet er den stabilen Betrieb, steuert Transformations¬projekte und baut Support¬organisationen so aus, dass sie auch unter Hochdruck verlässlich funktionieren. Seine praxisnahen Einblicke reichen von der strategischen Roadmap bis zum operativen Troubleshooting.

    01.07.2025 - 08:00 Uhr
    Es braucht einen Service Desk, der lernt, sich anpasst und idealerweise Probleme erkennt, bevor sie zu Störungen werden.