E-Book, Deutsch, 244 Seiten
Allweyer IT-Management
1. Auflage 2020
ISBN: 978-3-7519-7421-9
Verlag: BoD - Books on Demand
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Grundlagen und Perspektiven für den erfolgreichen Einsatz von IT im Unternehmen
E-Book, Deutsch, 244 Seiten
ISBN: 978-3-7519-7421-9
Verlag: BoD - Books on Demand
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Mit der zunehmenden Digitalisierung gewinnt der intelligente Einsatz von Informationstechnik (IT) im Unternehmen weiter an Bedeutung. Dies gilt für jede Branche und jede Unternehmensgröße. Das IT-Management steht dabei im Spannungsfeld zwischen Agilität und Stabilität. Durch neue, digitale Geschäftsmodelle und die schnelle Umsetzung von IT-basierten Innovationen soll die Wettbewerbsfähigkeit gesteigert werden. Gleichzeitig muss für zuverlässige IT-Services gesorgt werden, um die Geschäftsprozesse des Unternehmens möglichst effizient zu unterstützen. Das Buch bietet einen fundierten Einstieg in das IT-Management. Es richtet sich an Studierende IT-naher Studiengänge, aber auch an Berufstätige im Umfeld der IT, die sich weiterentwickeln wollen. Es werden alle wichtigen Bereiche des IT-Managements behandelt, wie IT-Strategie, IT-Organisation, IT-Governance, IT-Servicemanagement, Business Analytics und Informationssicherheit. Ebenso werden die in der Praxis weit verbreiteten Frameworks COBIT und ITIL vorgestellt. Im Fokus stehen insbesondere auch aktuelle Ansätze wie DevOps, Kanban, agile Verfahren und das Innovate-Design-Transform-Paradigma.
Thomas Allweyer ist Professor für Unternehmensmodellierung an der Hochschule Kaiserslautern, Standort Zweibrücken. Zu seinen thematischen Schwerpunkten gehören Geschäftsprozessmanagement, IT-Management, Software-Engineering und BPMN.
Autoren/Hrsg.
Weitere Infos & Material
1 Unternehmens-IT im Wandel der Zeit
Die Aufgaben des IT-Managements ändern sich laufend. In diesem Kapitel wird zunächst die Entwicklung des IT-Einsatzes in Unternehmen bis heute betrachtet. Die folgenden Ausführungen beruhen auf [PfJe16], [UrAh16] und [Ti20a]. 1.1 Großrechner
In den Fünfzigerjahren des zwanzigsten Jahrhunderts zogen die ersten Computer in die Unternehmen ein. Dabei handelte es sich um Großrechner (englisch „Mainframes“), die ganze Säle füllten. Die zu verarbeitenden Daten mussten in spezielle Lochkarten gestanzt werden, die anschließend über Lesegeräte eingelesen und auf Magnetbänder kopiert wurden. Diese Bänder konnten dann vom Großrechner verarbeitet werden. Die Ergebnisse wurden wiederum auf Magnetbänder geschrieben und schließlich auf Papier ausgedruckt. Diese Art von Datenverarbeitung, bei der eine Menge bereitgestellter Daten automatisch nacheinander abgearbeitet werden, nennt man auch Stapelverarbeitung (englisch „Batch Processing“). Dabei findet keine Benutzerinteraktion statt. Später erfolgte die Bedienung über Terminals mit Bildschirmen und Tastaturen, die selbst über keine eigene Verarbeitungslogik verfügten, sondern direkt mit dem zentralen Computer verbunden waren. Zunächst wurden vor allem einfache Tätigkeiten automatisiert, z. B. in der Buchhaltung. Eines der ersten Einsatzgebiete war zudem die Materialbedarfsplanung (englisch „Material Requirements Planning“, MRP). Komplexe Produkte bestehen oftmals aus Tausenden von Einzelteilen. Industrieunternehmen konnten für die Herstellung solcher Produkte nun wesentlich schneller und einfacher ausrechnen, zu welchen Zeitpunkten welche Mengen der unterschiedlichen Produktgruppen und Einzelteile benötigt wurden. Es gab zunächst nur wenige weitere Fälle, in denen fachliche Abläufe automatisiert wurden. Beispielsweise führte die Bank of America bereits 1955 ein System zur elektronischen Scheckverarbeitung ein. Hauptaufgaben des IT-Bereichs waren damals der Betrieb und die Wartung der Großrechner sowie die Anwendungsentwicklung. Die gesamte Entwicklung von der Festlegung der Funktionalität bis zur Implementierung wurde komplett vom IT-Bereich durchgeführt. Die betroffenen Fachabteilungen, wie z. B. die Buchhaltung, hatten wenig mitzureden. 1.2 Minicomputer
Ab Ende der Sechzigerjahre kamen sogenannte Minicomputer auf den Markt. Diese waren zwar wesentlich größer als heutige PCs, doch deutlich kleiner als Großrechner. Sie werden heute zumeist als „Midrange-Server“ bezeichnet. Nun war es möglich, Computer auch dezentral in verschiedenen Unternehmensbereichen zu installieren. Die Bedienung war nicht mehr nur den IT-Spezialisten vorbehalten. Stattdessen erhielten Mitarbeiter der Fachabteilungen Terminals auf ihre Schreibtische. Die Verarbeitung erfolgte nun online im Dialog, d. h. man musste nicht mehr stundenlang auf seine Ergebnisse warten, sondern erhielt sie direkt auf dem eigenen Bildschirm angezeigt. Mit den Minicomputern zog die IT in weitere Anwendungsbereiche im Unternehmen ein. Im Gegensatz zu Großrechnern eigneten sich diese Computer auch für den Einsatz in mittelständischen Unternehmen. In dieser Zeit wurde Software erstmals teurer als Hardware. Die wachsende Komplexität führte zu zahlreichen gescheiterten Softwareprojekten. Als Reaktion auf diese Probleme entstand die Disziplin des Software-Engineering. Die IT wurde zunehmend dezentralisiert. Vielfach konnte die zentrale IT-Organisation die Nachfrage der Fachabteilungen nach neuen IT-Lösungen nicht schnell genug befriedigen. Manche Fachanwender begannen deshalb, selbst Anwendungen zu schreiben oder zu modifizieren. Die Minicomputer wurden in der Nähe der Nutzer platziert, da noch keine günstigen Netzwerke für einen Fernzugriff existierten. 1.3 Personal Computer
Die fortschreitende Miniaturisierung führte dazu, dass ab Anfang der Achtzigerjahre Personal Computer (PCs) an den einzelnen Arbeitsplätzen aufgestellt wurden. Mithilfe von Textverarbeitungsprogrammen und Tabellenkalkulationen, die nach entsprechenden Schulungen auch von Laien bedient werden konnten, ließen sich viele Büroaufgaben effizienter durchführen. Die Arbeitsplatz-PCs wurden miteinander vernetzt. E-Mail und Kollaborationswerkzeuge unterstützten die Kommunikation und die Zusammenarbeit, zumindest innerhalb lokaler Netze. Neben dem Rechenzentrumsbetrieb war das IT-Management nun auch für das Management der Netzwerke und der Arbeitsplatzrechner zuständig, deren Stabilität und Zuverlässigkeit zu dieser Zeit noch recht gering war. Mit zunehmend leistungsfähigeren Netzwerken wurden die Rechenzentren wieder stärker zentralisiert. Die Anwendungsentwicklung wurde noch komplexer. Dies erforderte eine weitergehende Professionalisierung des Projektmanagements. 1.4 Client-Server-Architekturen
Die lokale und die standortübergreifende Vernetzung bildeten in den Neunzigerjahren die Voraussetzung für die Nutzung von Client-Server-Architekturen für betriebswirtschaftliche Anwendungen. Dabei läuft auf den Arbeitsplatz-PCs jeweils eine Client-Anwendung mit einer grafischen Benutzungsoberfläche. Die Client-Anwendungen sind mit einer Server-Anwendung verbunden, die auf einem zentralen Rechner läuft und die eigentliche Anwendungslogik enthält. Die zuvor noch häufige Individualentwicklung von Software wurde vermehrt durch den Einsatz von Standardsoftware abgelöst. Viele Unternehmen, die früher viele verschiedene, meist wenig integrierte, betriebswirtschaftliche Anwendungen betrieben, führten nun Systeme für das Enterprise-Resource-Planning (ERP) ein, die alle wesentlichen betrieblichen Funktionsbereiche abdeckten und eine einheitliche Datenbasis verwendeten. Daneben wurden aber noch zahlreiche weitere Anwendungen betrieben, wodurch die Systemlandschaft immer komplexer wurde. Die Arbeitsplatz-PCs wurden immer leistungsfähiger, konnten zunehmend multimediale Daten verarbeiten und wurden mit dem Internet verbunden. Es entwickelten sich erste E-Commerce-Geschäftsmodelle. Informationstechnik wurde immer mehr zur unternehmenskritischen Ressource. Die gestiegenen Anforderungen und komplexen Systemlandschaften führten dazu, dass die Kosten für die IT stark stiegen. Trotzdem waren die Anwender und Fachabteilungen mit der Qualität der IT-Leistungen oft nicht zufrieden. Unter dem Motto „Industrialisierung der IT“ wurden industrielle Methoden auf den IT-Bereich übertragen. Hierdurch sollten eine gleichbleibend hohe Qualität der IT-Services – also der von der IT-Abteilung erbrachten Leistungen – gewährleistet und gleichzeitig Kosten gesenkt werden. Die bisherigen Aufgaben wie IT-Infrastrukturbetrieb und Anwendungsentwicklung verloren an Bedeutung, u. a. durch den Einsatz von Standardsoftware. Zudem wurden diese Aufgaben zunehmend an externe Dienstleister ausgelagert. Zu den neuen Aufgaben gehörten u. a. das Management der angebotenen IT-Services, die Planung von IT-Investitionen, das Anforderungsmanagement sowie die Betreuung der – unternehmensinternen – Kunden. Kurzum, der IT-Bereich wurde wie ein professionelles Dienstleistungsunternehmen aufgestellt. 1.5 Internet und Mobile Computing
Seit Ende der Neunzigerjahre hat das Internet für Unternehmen fast aller Branchen extrem an Bedeutung gewonnen. Zunächst wurde es vor allem zur Kommunikation und Information genutzt, doch schon bald auch als zusätzlicher Absatzkanal. Insbesondere bildete das Internet die Voraussetzung für neu entstehende Geschäftsmodelle, die zur Konkurrenz für etablierte Anbieter wurden. Beispielsweise waren die Verkaufszahlen für Musik-CDs rückläufig, seit man Musikstücke zum sofortigen Download kaufen konnte – bzw. heute per Abonnement streamen kann. Derartige Entwicklungen wurden durch die Verbreitung von Smartphones und das mobile Internet weiter verstärkt, da das Internet nun überall verfügbar ist und alle Lebensbereiche durchdringt. Für die Unternehmen wurden insbesondere benutzerfreundliche, leicht bedienbare Web-Anwendungen und mobile Apps wichtig, über die sie ihre Produkte vertreiben und elektronische Dienstleistungen abwickeln konnten. Auch überbetriebliche Abläufe wurden vermehrt durch elektronischen Datenaustausch und mit Hilfe von Systemen zum Lieferkettenmanagement (englisch „Supply Chain Management“, SCM) unterstützt. Die IT war nun in vielen Unternehmen zu einem zentralen Bestandteil des Geschäfts geworden. Damit stiegen die Anforderungen an die Qualität und die Zuverlässigkeit weiter. Hierfür waren die Ansätze der industrialisierten IT gut geeignet. Als problematisch erwies sich jedoch, dass die als professioneller Dienstleister organisierte IT oftmals recht weit vom eigentlichen Geschäft entfernt war und...