Sie sind hier: Startseite » Markt » Tipps und Hinweise

Probleme bei der Auswahl von ITSM-Tools


Typische Fehler im Auswahlprozess von ITSM-Tools: Häufig bleiben teuer implementierte Tools ungenutzt, weil für ihren Betrieb keine Budgets eingeplant waren
Fehlende Praxiserfahrung bei der Evaluierung von ITSM-Managementsystemen hat sehr weitreichende Konsequenzen


(17.03.11) - Die komplexen Prozessstrukturen im heutigen IT-Service Management sind kaum noch ohne Tool-Unterstützung effizient zu steuern. Vor dem Einsatz dieser Automatisierungswerkzeuge werden nach den Erkenntnissen der ITSM Consulting AG jedoch häufig sehr gravierende Fehler gemacht, die den späteren Praxisnutzen erheblich einschränken oder sogar einen Investitionsflop auslösen können. "Mit einer klugen Tool-Strategie wird üblicherweise innerhalb von eineinhalb Jahren der Break-even-Point erreicht, insofern kann ein schneller ROI erzielt werden", urteilt Thomas Hartmann, Vorstand des Beratungshauses. "Ist aber die Evaluierung mangelhaft, kann ein solches Vorhaben unangemessen teuer werden und den Nutzen deutlich einschränken." Er hat deshalb einige der typischen Probleme bei der Auswahl von ITSM-Tools zusammengestellt:

1. In den Lastenheften fehlt der Blick für die Zukunft:
Die hohe Dynamik der IT-Organisationen etwa durch Technologieinnovationen und die kontinuierliche Integration neuer Prozesse machen es notwendig, Tool-Entscheidungen mindestens auf die Erfordernisse der folgenden zwei bis drei Jahre auszurichten. Tatsächlich beschreiben die Lastenhefte mit ihren definierten Erfordernissen an das oder die Tools im Regelfall lediglich den aktuellen Bedarf. Ein somit deutlich zu eng gefasstes Anforderungsprofil resultiert typischerweise aus fehlender Praxiserfahrung bei der Evaluierung von ITSM-Managementsystemen, hat aber sehr weitreichende Konsequenzen: Das Tool kann in wenigen Jahren sein Geld schon nicht mehr wert sein, da es neu entstandene Anforderungen nicht oder nur unzureichend abdecken kann.

2. Die Betriebskosten werden vernachlässigt:
Jedes System ist nur so gut, wie es nach seiner Implementierung mit Leben gefüllt wird, und dies erzeugt Aufwand und einen personellen Bedarf. Doch was für Business-Anwendungen völlig selbstverständlich ist, wird bei den ITSM-Tools fast immer vergessen: Die nicht unerheblichen Folgekosten werden nicht von vornherein in die Projektplanungen einkalkuliert. Sie liegen bei etwa einem Viertel der Implementierungskosten, insbesondere durch den personellen Bedarf, der in IT-Organisationen von Konzernen ein Team von vier bis fünf Mitarbeitern verlangt.

Auch das grundsätzlich mögliche Outsourcing dieser Aufgaben kostet Geld. Weil diese Konsequenzen der Implementierung nicht ausreichend bedacht und in den Business Case einbezogen werden, gibt es in der Praxis reihenweise Beispiele, wo mangels Budgets für den Betrieb die aufwändig eingeführten ITSM-Tools völlig ungenutzt bleiben.

3. Es wird ITSM-Tools Glauben geschenkt, die sich angeblich selbst pflegen:
Wer diese Managementwerkzeuge zur Automatisierung der IT-Prozesse sinnvoll nutzen will, muss sie permanent mit den notwendigen Daten füllen. Diese Datenpflege ist jedoch nicht ohne Menschen möglich. Deshalb widerspricht es der Logik, dass sich Tools als Out-of-the-Box-Systeme bezeichnen. Denn eine Nutzung allein der initialen Daten ist nicht ausreichend, außerdem: Wer kümmert sich um die teilweise dreistellige Zahl an Schnittstellen? Insofern sollten solche Systeme mit großer Skepsis betrachtet werden, die von sich behaupten, sie würden ohne Pflegeaufwand auskommen.

4. Bequeme "All inclusive"-Entscheidung statt eine Best of Breed-Strategie:
Aus Sicht der IT-Verantwortlichen hat es auf den schnellen Blick zweifellos einen großen Charme, wenn sich die gesamten Tool-Anforderungen über integrierte Produkte eines Herstellers abbilden lassen. Die Argumente dafür sind eine einfachere Implementierung mit problemfreierer Integration, geringere Projektkosten und ein begrenzter Bedarf an speziellem Know-how. Bei den Lösungen für das Management und die Automation der IT-Prozesse wird dieser vermeintliche Vorteil jedoch häufig mit erheblichen Leistungseinschränkungen erkauft, weil kein technisches Werkzeug ein Top-Spezialist auf jedem Gebiet sein kann.

Zumindest die Systeme für das Service Management und das Configuration Management sollten nach einem strengen Bedarfsprofil gesondert evaluiert werden. Sie sind besonders erfolgskritisch und bedürfen deshalb einer besonderen Leistungsfähigkeit. Für alle anderen Anforderungen eignen sich im Regelfall hingegen die typischen ITSM-Suiten.

5. Bei der Auswahlentscheidung regiert das Bauchgefühl:
Auch wenn der Evaluierungsprozess oft einer klassischen Systematik mit Erstellung des Anforderungsprofils, der Ausschreibung und einem Proof of Concept mit einem ausgewählten Kreis an Anbietern folgt, unterliegt die finale Entscheidung häufig emotionalen Größen. Daran ändert auch nichts, dass der gesamte Ablauf von pragmatischen Bewertungen beispielsweise mittels Checklisten erfolgte: Am Ende spielen bei der Entscheidung dennoch oft das Look-and-Feel der Tool-Oberfläche und das kommunikative Geschick des Anbieters eine unangemessen große Rolle.

6. Unternehmen laufen in die Falle der Listenpreise:
Erfahrungsgemäß belaufen sich die Softwarekosten zwar nur auf ein Drittel der gesamten Aufwendungen, den großen Rest der Aufwendungen verschlingt die Projektrealisierung mit internen oder externen Ressourcen. Dies sind aber trotzdem Kosten in mindestens sechsstelliger Größenordnung. Sie lassen sich durch geschicktes Verhandeln und unter Nutzung des Wettbewerbs der Anbieter jedoch deutlich reduzieren. Auf diese Weise sind Ersparnisse in einer Größenordnung von 50 bis 70 Prozent gegenüber dem Listenpreis möglich.

7. Die Innovationsdynamik des Anbieters bleibt unbeachtet:
Wie groß die Entwicklungspower der Tool-Hersteller ist, bleibt in deren Informationen häufig im Unklaren. Aber die Unternehmen gehen dem auch selten mit der gebotenen Eigeninitiative nach, obwohl die engagierte Weiterentwicklung der ITSM-Lösung allein unter dem Gesichtspunkt der Investitionssicherheit für den Anwender eine große Bedeutung hat. Damit sich mangelnde Einschätzung nicht später einmal rächt, sollten die Anbieter mit konkreten Informationsansprüchen konfrontiert oder eigene Recherchen angestellt werden. Zu den relevanten Bewertungskriterien gehören etwa die Größe der Entwicklungsmannschaft und das F&E-Budget. Wichtig zu wissen ist aber auch, ob der Hersteller möglicherweise Fusions- oder Übernahmeprozesse zu bewältigen hat, was zumindest zeitweilig negativen Einfluss auf das Entwicklungsengagement haben kann.

8. Tool-Gläubigkeit statt Prozess-Orientierung:
Die Logik ist allgemein zwar sehr einsichtig, dass technische Werkzeuge allein zu keiner substanziellen Verbesserung führen, trotzdem wird in der Praxis regelmäßig dagegen verstoßen. Und zwar weil zu sehr in der Dimension der Funktionalität gedacht wird und dabei die Prozesssicht in den Hintergrund gelangt. Doch Effizienzsteigerungen in ITSM ergeben sich nur durch optimale Prozesse mit angemessener Toolunterstützung und nicht umgekehrt. Hinzu kommt: Nicht jede Toolfunktion lohnt sich.
(ITSM Consulting: ra)

ITSM Consulting: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • XLAs: Der Mensch als Maßstab

    Über Jahrzehnte galten Service Level Agreements (SLAs) als Maßstab für gutes IT- und Servicemanagement: Wurde ein Ticket fristgerecht gelöst, war die Aufgabe erledigt. Doch in einer zunehmend digitalisierten Arbeitswelt zeigt sich: Diese Logik greift zu kurz. Effizienz allein entscheidet nicht mehr, ob Mitarbeitende zufrieden und produktiv bleiben. Gefragt ist ein neues Verständnis, das die tatsächliche Erfahrung der Menschen in den Mittelpunkt rückt.

  • Cloud-Souveränität immer stärker im Mittelpunkt

    Mit dem rasanten Fortschritt der digitalen Wirtschaft und dem Aufkommen zahlreicher neuer Technologien - allen voran Künstlicher Intelligenz (KI) - stehen europäische Entscheidungsträger vor einer neuen Herausforderung: Wie lässt sich ein innovatives Ökosystem regionaler Cloud-Anbieter schaffen, das sowohl leistungsfähige Lösungen als auch ausreichende Skalierbarkeit bietet? Und wie kann dieses Ökosystem mit internationalen Anbietern konkurrieren und zugleich die Abhängigkeit von ihnen verringern? Politik, Regulierungsbehörden, Forschungseinrichtungen und Industrievertreter in Europa konzentrieren sich darauf, wie der Kontinent seine Position im globalen Wettlauf um Cloud-Innovationen verbessern kann - ohne dabei die Kontrolle, Autonomie und Vertraulichkeit über europäische Daten aufzugeben, die andernfalls womöglich in anderen Märkten gespeichert, verarbeitet oder abgerufen würden.

  • Vom Nearshoring zum Smart Sourcing

    Aufgrund des enormen IT-Fachkräftemangels und der wachsenden Anforderungen von KI und digitaler Transformationen benötigen Unternehmen heute flexible und kosteneffiziente Lösungen, um wettbewerbsfähig zu bleiben. Für die Umsetzung anspruchsvoller Innovationsprojekte mit hohen Qualitätsstandards entscheiden sich deshalb viele Unternehmen für Nearshoring, da dieses Modell ihnen Zugang zu hochausgebildeten IT-Fachkräften in räumlicher und kultureller Nähe ermöglicht.

  • Sechs stille Killer des Cloud-Backups

    Cloud-Backups erfreuen sich zunehmender Beliebtheit, da sie auf den ersten Blick eine äußerst einfache und praktische Maßnahme zu Schutz von Daten und Anwendungen sind. Andy Fernandez, Director of Product Management bei Hycu, nennt in der Folge sechs "stille Killer", welche die Performance von Cloud-Backups still und leise untergraben. Diese werden außerhalb der IT-Teams, die täglich damit zu tun haben, nicht immer erkannt, können aber verheerende Folgen haben, wenn sie ignoriert werden.

  • Datenaufbewahrungsstrategie und SaaS

    Die Einhaltung von Richtlinien zur Datenaufbewahrung sind für Unternehmen unerlässlich, denn sie sorgen dafür, dass wertvolle Informationen sicher gespeichert und Branchenvorschriften - egal wie komplex sie sind - eingehalten werden. Diese Governance-Frameworks legen fest, wie Unternehmen sensible Daten verwalten - von deren Erstellung und aktiven Nutzung bis hin zur Archivierung oder Vernichtung. Heute verlassen sich viele Unternehmen auf SaaS-Anwendungen wie Microsoft 365, Salesforce und Google Workspace. Die Verlagerung von Prozessen und Daten in die Cloud hat jedoch eine gefährliche Lücke in die Zuverlässigkeit der Datenaufbewahrung gerissen, denn die standardmäßigen Aufbewahrungsfunktionen der Drittanbieter entsprechen häufig nicht den Compliance-Anforderungen oder Datenschutzzielen.

  • Lücken der SaaS-Plattformen schließen

    Die zunehmende Nutzung von Software-as-a-Service (SaaS)-Anwendungen wie Microsoft 365, Salesforce oder Google Workspace verändert die Anforderungen an das Datenmanagement in Unternehmen grundlegend. Während Cloud-Dienste zentrale Geschäftsprozesse unterstützen, sind standardmäßig bereitgestellte Datenaufbewahrungsfunktionen oft eingeschränkt und können die Einhaltung der Compliance gefährden. Arcserve hat jetzt zusammengefasst, worauf es bei der Sicherung der Daten führender SaaS-Anbieter ankommt.

  • Nicht mehr unterstützte Software managen

    Von Windows bis hin zu industriellen Produktionssystemen: Wie veraltete Software Unternehmen angreifbar macht und welche Strategien jetzt nötig sind Veraltete Software ist weit verbreitet - oft auch dort, wo man es nicht sofort vermuten würde. Beispiele für besonders langlebige Anwendungen sind das SABRE-Flugbuchungssystem oder die IRS-Systeme "Individual Master File" und "Business Master File" für Steuerdaten, die seit den frühen 1960er-Jahren im Einsatz sind. Während solche Anwendungen ihren Zweck bis heute erfüllen, existiert daneben eine Vielzahl alter Software, die längst zum Sicherheitsrisiko geworden ist.

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen