Mehrere Innovationen prägen heute zeitgemäße IT-Architekturen. Diese werden knapp dargestellt, um dann deren Potenziale für Planungssysteme und die Gestaltung der zugrundeliegenden Geschäftsprozesse erläutern zu können.
3.1 In-Memory-Datenverarbeitung
Klassische Rechnerarchitekturen sahen eine klare Trennung transienter Daten im Hauptspeicher mit langsamem Zugriff und persistenter Daten auf (meist magnetisch organisierten) Festplatten mit sehr langsamen Zugriffszeiten vor. Dagegen entfällt bei heutigen Systemen die Speicherung auf Festplatten häufig vollständig und sämtliche Daten werden im Hauptspeicher der Server gehalten – und dies bei gleichzeitiger Steigerung der Speicherkapazitäten.
Diese geänderte Architektur stellt die Basis fast aller modernen Systeme dar, führt zu einer enormen Performance-Steigerung und ermöglicht dadurch gänzlich neue Anwendungen. Die SAP SE hat als entsprechende Technologiekomponente SAP HANA entwickelt; die großen Anbieter von Datenbankmanagementsystemen bieten ebenfalls Lösungen in diesem Bereich an.
3.2 Cloud Computing
Viele Unternehmen betreiben eigene Serverfarmen und Rechenzentren, um eigene IT-Systeme für die Benutzer zur Verfügung zu stellen. Dabei ist nur ein Bruchteil der Unternehmen in Geschäftsfeldern unterwegs, die direkt mit dem Betrieb von IT-Systemen zu tun haben. Cloud Computing sieht dagegen die Nutzung von Systemen als Dienstleitung vor, die von spezialisierten Unternehmen angeboten wird, deren Kern-Geschäftsmodell die Bereitstellung von Serverkapazitäten ist oder zumindest darauf basiert. Als Beispiel seien hier Amazon mit Amazon Web Services oder Google mit Google Cloud zu nennen.
Diese betreiben die "gemieteten" IT-Systeme dabei in aller Regel nicht nur mit höherer Verfügbarkeit und Sicherheit, sondern oftmals zu deutlich reduzierten Kosten. Darüber hinaus führen cloudbasierte Systeme zu weiteren Paradigmenwechseln.
Cloudbasierte Systeme werden häufig auch nicht mit aufwendigen Implementierungsprojekten und kundenspezifischem Code an Kundenbedürfnisse angepasst. Im Fokus steht vielmehr die Nutzung vorhandener Funktionalitäten, die in begrenztem, klar umrissenem Umfang angepasst werden können, bei gesteigerter Bedeutung des Self-Service-Ansatzes. Durch diesen Paradigmenwechsel können Projekte zur Einführung entsprechender Systeme deutlich schneller und günstiger abgeschlossen werden.
Aus Sicht der Hersteller richten sich Cloud-Angebote an einem heterogenen Markt aus, der sehr einfach – d. h. ohne jegliche Softwareinstallationen auf Seiten des Kunden – in der Lage sein muss, die angebotenen Dienste zu nutzen. Dadurch sind cloudbasierte Systeme per se webbasiert und an offenen Standards orientiert. Aus diesem Grund werden nicht nur Anwender in die Lage versetzt, die Software von beliebigen Geräten aus zu nutzen, insbesondere auch von allen mobilen Endgeräten, es führt auch zu einer dramatischen Komplexitätsreduktion für Entwicklung und Test neuer Funktionalitäten. Diese müssen nicht mehr auf unterschiedliche Kundensysteme (Hardware, Betriebssysteme, Patchstände etc.) ausgelegt werden, sondern nur noch den einen gültigen Stand der Cloud-Software abdecken. Diese erhebliche Vereinfachung versetzt Softwareanbieter in die Lage, Funktionalitäten in ungeahnter Geschwindigkeit auszuliefern, ohne dabei die Qualität der Software zu gefährden.
Ein Produkt, das für Business Intelligence und speziell Planungsanforderungen mit einer großen und steigenden Anzahl von Funktionalitäten aufwartet, ist bspw. die SAP Analytics Cloud.
3.3 Maschinelles Lernen
Maschinelles Lernen klassifiziert jene IT-Systeme, die ohne oder mit nur sehr geringer menschlicher Beteiligung eigenständig Lösungen für Probleme entwickeln. Diese basieren auf großen Datenbeständen und darin (maschinell) erkennbaren Mustern.
Zwar sind die im maschinellen Lernen angewendeten Verfahren, wie bspw. neuronale Netze, seit Jahrzehnten bekannt, aber erst heutige Rechnerarchitekturen und deren Verarbeitungsgeschwindigkeit haben die Adaption auf reale Probleme ermöglicht. Seitdem erlebt maschinelles Lernen sowie die übergeordnete Klasse der künstlichen Intelligenz einen Boom, der sich nicht zuletzt in der medialen Aufmerksamkeit zu diesem Thema zeigt.
Anhand der inzwischen behandelten Problemstellungen erhalten wiederum jene Forscher, die entsprechende Ansätze weiterentwickeln, neue Informationen, welche die Verbesserung der Verfahren selbst wesentlich beschleunigen.
Maschinelles Lernen stellt einen iterativen Prozess dar, der versucht, anhand der verfügbaren Datenbasis zu stetig verbesserten Einsichten und Vorhersagen zu kommen. Die Bewertung entsprechenden Potenzials sollte daher ebenfalls in mehreren Iterationen und ohne vorschnelle Schlüsse geschehen; insbesondere sind sukzessive Verbesserungen der Datengrundlage und Offenheit für Rückschlüsse auf das eigene Verständnis notwendig, wie z. B. der bereits 1996 vorgestellte "Cross-industry standard process for data mining" illustriert (s. Abb. 1).
Abb. 1: Cross-industry standard process for data mining
Die entspr...