Cloud Computing

Dr. Rüdiger Wilbert, Gründer der Scopevisio AG

 

Cloud Computing in erster Definition

Zu einem vielfach okkupierten aber nützlichen Begriff

Der Begriff Cloud Computing wurde ab ca. 2004 bei einem breiteren Publikum populär, als Firmen wie Amazon, Google, Salesforce und Facebook den Begriff für die eigene Infrastruktur verwendeten. Vor einigen Jahren haben sich führende Institutionen – allen voran das National Institut of Standards and Technology (NIST)1 - darum bemüht eine einheitliche Definition von Cloud Computing zu erstellen.

Durch die technische Prägung unterliegen diese Definitionen allerdings der Gefahr schneller Überholung durch die dynamische Entwicklung und die Vielfalt technischer Lösungen. Wir halten diese Definitionen, die häufig auch mit Referenzarchitekturen2 verbunden sind, für hilfreich aber nicht für adäquat das Phänomen Cloud Computing angemessen zu erfassen. Dennoch soll die NIST-Definition, die auch von deutschen3 und europäischen Behörden4 weitgehend übernommen wird, kurz dargestellt und dann kritisch eingeordnet werden um anschließend zur Extension des Begriffes Cloud Computing vorzudringen der das umfasst, wofür der Begriff heute von weiten Kreisen okkupiert wurde.

NIST definiert Cloud Computing wie folgt:

Cloud computing is a model for enabling ubiquitous, convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort or service provider interaction. This cloud model is composed of five essential characteristics, three service models, and four deployment models.5

Die Defintion nimmt Bezug auf:

  1. fünf essentielle Charakteristika,
  2. drei Formen von Services die über die Cloud möglich sind und
  3. vier technische Deployment- oder Installationsformen.

Im Einzelnen: Die fünf essentiellen Charakteristika der NIST-Definition sind 1) die selbständige Steuerung der benötigten Kapazitäten durch den Kunden ohne aufwendige Abstimmung mit einem Service Provider oder IT Dienstleister (on-demand self-service); 2) die Verfügbarkeit der Rechnerkapazitäten über standardisierte Netzwerke durch beliebige Clients („thin or thick“) (broad network access); 3) die gemeinsame Nutzung von physischen oder virtuellen Rechner-Ressourcen durch viele Anwender ohne das diese eine Kontrolle oder ein Wissen darüber besitzen oder benötigen, wie und wo diese Ressourcen allokiert sind (resource pooling); 4) die Leistungsfähigkeit der Anwendungen kann nach oben oder nach unten meist automatisch, zumindest sehr schnell, nach Bedarf des Anwenders skaliert werden (rapid elasticity); 5) für Steuerung, Optimierung und Abrechnung der Inanspruchnahme von Diensten (Anwendungen) und oder Ressourcen (Rechenleistung, Bandbreite, Speicher) exisitiert ein geeignetes Messverfahren (measured service) (metering).

In der praktischen Informatik wird das dritte Charakteristikum, das Ressourcen-Pooling, gelegentlich im Hinblick auf die Anwendungsarchitektur diskutiert: Ist es effizienter, wenn die Anwendungen vieler Anwender in verschiedenen Instanzen6 (single-tenancy) oder in einer einzigen (multi-tenancy) laufen? Ist es effizienter wenn die Daten vieler Anwender in je einer Datenbank, einer Datenbank mit mehreren Instanzen oder gar in einer einzigen Datenbankinstanz7 gehalten werden?

Die praktische Informatik ist eine Ingenieurswissenschaft, die sich verschiedener Lösungsmöglichkeiten auch in Kombination bedient, um eine jeweils gute Gesamtlösung zu finden. Ein typisches Muster besteht etwa darin, mehrere Kunden in einer Datenbank aber in mehren Instanzen zu verwalten und ab einer bestimmten kritischen Anzahl von Kunden die nächste Datenbank wiederum mit mehreren Instanzen zu eröffnen. Gleiches ist bei Instanzen von Anwendungsprogrammen innerhalb eines Applikationsservers zu beobachten. Es erfolgt eine typische Kosten-Nutzen-Optimierung im Verlaufe eines Skalierungspfades. Um im Rahmen des Cloud Computing derartig optimierte Installationszenarien auf der Seite des Servers mitgehen zu können, ist es von Vorteil, wenn die Architektur der Applikation – in diesem Fall für multi tenancy – entsprechend ausgelegt ist8. Das schlagende Argument ist jedoch nicht die jeweils konkrete Technik sondern das erreichte Ziel des Ressourcen- Poolings und dies ist primär ein wirtschaftliches und umfasst zwei Aspekte:

  1. Reduktion von Leerkosten und Vorhaltekosten: Durch die Virtualisierung von Server- Komponenten (zentrale Dienste wie Datenbank, Anwendungsablaufumgebung usw.) ist es möglich geworden, die unterliegende Hardware optimal zu nutzen und Leerkosten zu reduzieren. Der Installateur einer Anwendung sieht virtuelle Server auf die die Dienste (Anwendungen bzw. deren Server-Komponenten und Datenbanken) installiert werden. Es wird verdeckt, dass diese Komponenten nur virtuell sind und mit vielen anderen Nutzern geteilt werden. Die Virtualisierungssoftware erlaubt zudem die schnelle und unkomplizierte Skalierung, indem neue Hardwarekomponenten unterhalb der Virtualisierungsschicht „eingesteckt“ werden können und sofort verfügbar sind. Hierdurch lassen sich die Vorhaltekosten reduzieren, da sehr schnell reagiert werden kann. Nicht benötigte Hardware kann in der Nutzung flexibel umgelenkt oder still gelegt werden. Cloud Computing Anwendungen profitieren von der o.g. Kosteneffizienz schlicht indem ihre Architektur eine Installation in der Cloud ermöglicht9. Sie sind daher typischerweise relativ günstig.

  2. Reduktion der Kosten des Release-Wechsels: Indem eine Anwendungsinstanz (oder eine Datenbankinstanz) für viele Kunden simultan genutzt wird, ist ein einmal durchgeführter Releaswechsel gleichzeitig für viele Kunden wirksam und damit relativ kosteneffizient durchführbar. In diesem Sinne bewirkt Ressourcen-Pooling auch eine Reduktion der Kosten des Release-Wechsels. Eine einheitliche Anwendung und/oder eine einheitliche Datenstrukturbasis für alle Kunden erfordert allerdings eine sehr hohe Standardisierung gepaart mit einer komplexen Anpassungsfähigkeit der Anwendung im Rahmen eben dieser Standardisierung. Da dies sehr hohe Anforderungen an die Spezifikation der Anwendung stellt, sind Cloud Computing Anwendungen derzeit typischerweise nicht oder nur in sehr geringem Maße individuell. Dieses Merkmal ändert sich jedoch erkennbar mit der Reifung von Cloud Computing, da die möglichen Anwendungen komplexer werden.

Die essentiellen Charakteristika der NIST-Definition halten wir für treffend. Sie beschreiben die wesentlichen Merkmale auf Infrastrukturebene. Die Ebenen bedeuten im Wesentlichen, dass die Softwareproduktion sich weiter spezialisiert hat und über definierte Service-Schnittstellen auf jeweils unterliegende Schichten recht komfortabel aufsetzen kann. Diese unterliegenden Schichten können in der eigenen Infrastruktur liegen oder aus der Cloud bezogen werden. Indem sie aus der Cloud bezogen werden können ergeben sich für Softwareentwickler als „Consumer“ dieser Leistungen ähnliche Vorteile wie für die Consumer von Endanwendungen. Die Verbreitung von Services für die Softwareproduktionsteigt zur Zeit schnell an. Entsprechend einfacher und günstiger wird die Produktion zumindest relativ einfacher Softwareprodukte. Erkennbar ist dies an der Explosion von Angeboten auf sogennanten „Apps“-Marktplätzen (Apple iOS, Android u.a.), die nicht nur aber zum Teil hierauf zurück geführt werden können.

Die drei Formen von Cloud Services nach NIST sind im einzelnen:

  1. Software as a Service (SaaS): Diese Service-Ebene umfasst schlicht die eigentliche Anwendung die der Endkunde nutzt. Die allseits bekannte Anwendung iTunes von Apple ist z.B. ein Service der in diesem Sinne über Software dem Endkunden angeboten wird.

  2. Plattform as a Service (PaaS): Diese Service-Ebene stellt die Installationsbasis für Endkunden-Anwendungen und damit für SaaS dar. Der Lieferant oder Provider der PaaS bietet z.B. einen Applikationsserver an, auf dem Anwendungssoftware installiert und betrieben werden kann. Im Falle einer Datenbank kann es sein, dass der Kunde sein eigenes Datenbankmanagementsystem auf PaaS installiert oder der PaaS-Provider gleich auch das Datenbankmanagementsystem zu seinem Service zählt und der Kunde nur noch die Instanzen anlegen und das Modell einspielen muss. Die Leistungsangebote sind gerade auf der PaaS Ebene sehr vielfältig und können auch ganze Softwareproduktionsumgebungen, Applikationsserver und Datenbankmanagementsysteme umfassen. Die Firma Amazon ist z.B. ein Anbieter vielfältiger PaaS-Dienste für Entwickler und Betreiber von Software. Die Open Source Community erzeugt viele professionelle PaaS Produkte u.a. für verteilte Datenhaltung und das Management sehr großer Datenbestände. Die genaue Trennung von SaaS und PaaS ist nicht immer möglich.

  3. Infrastructure as a Service (IaaS): Auf dieser Ebene wird die Hardware der Cloud virtualisiert und als Prozessorleistung, Speicher und Netzwerkbrandbreite direkt oder über Betriebssysteme zugänglich gemacht. IaaS bietet wiederum die Grundlage für PaaS. Bisweilen ist aber eine Unterscheidung zwischen IaaS und PaaS wiederum nicht immer trennscharf, z.B. wenn Aspekte wie Skalierbarkeit und „Metering“ betrachtet werden.

SaaS, PaaS und IaaS bieten zunächst eine schöne Perspektive auf einen hierarchischen Aufbau des Cloud Computings und sie verweisen auf die Möglichkeit verschiedener Geschäftsmodelle z.B. von Scopevisio als SaaS-Anbieter, Amazon als PaaS- und IBM oder T-Systems als bedeutende IaaS-Anbieter. Es ist jedoch fraglich ob dieses „Schichtenmodell“ zur praktischen Kategorisierung von Cloud Computing Anwendungen herangezogen werden kann, denn eine logische Konsequenz wäre, dass eine Cloud Computing Anwendung eine SaaS-Anwendung ist, die auf PaaS aufsetzt, mithin also Cloud Services nutzt und damit auch tatsächlich in die Cloud mit ihrer elastischen Skalierbarkeit eingebettet ist. Eine im abgeschirmten Rechenzentrum des Entwicklers „gehostete“ und im Internet adressierbare Web-Anwendung ist demnach keine Cloud Computing-Anwendung. Sobald dieselbe Anwendung jedoch – möglicherweise ohne jede technische Modifikation – in die Amazon Elastic Cloud verschoben wird, wäre sie eine Cloud Computing Anwendung. Zwar wäre dies auch inhaltlich nachvollziehbar, da die Applikation plötzlich die Skalierungsfähigkeit der Amazon Plattform erben würde. Für den Anwender mag dies aber solange überhaupt keinen Unterschied machen, solange man die Elastic Cloud von Amazon Skalierungsseitig nicht benötigt. Es herrscht zwar Einigkeit darüber, dass Cloud Computing Anwendungen über das Internet erreichbar sein sollen und mit für die Cloud typischen schnell steigenden Nutzerzahlen gut skalierbar sein müssen. Darüber hinaus oder besser „darunter“ finden sich aus technischer Perspektive jedoch verschiedene Vorstellungen.

Apple, so kann man ohne Übertreibung sagen, hat schon einmal mit der Vorstellung des iPod im Jahr 2001 den Umgang von Endbenutzern mit Technologie grundlegend und bisher dauerhaft verändert. Praktisch gesehen integriert die „iCloud“ von Apple SaaS und PaaS Bestandteile i.S. obiger Beschreibung. Für die Tragweite und die Einbettung des Geschäftsmodells der iCloud in das bestehende Geschäftsmodell von Apple ist die NIST Dreiteilung nicht besonders hilfreich. Dies gilt auch aus Sicht eines Apps-Entwicklers. Viele Daten der iCloud werden streng genommen überhaupt nicht in der "Cloud" verwaltet sondern dort nur gespiegelt und auf lokale Speicher verteilt und zwar auf sämtliche angemeldeten Endgeräte innerhalb des Apple Biotop10. Die iCloud enthält somit Merkmale eines Plattform-Dienstes, ohne das dieser eine für den Anwender gänzlich versteckte Schicht wäre, die nur den Entwicklern und Installateuren dient. Die Denkweise von Apple erscheint nicht definitorisch-schematisch sondern rein Endkunden-orientiert.

Die vier technischen Deployment- oder Installationsformen der NIST-Definition sind im Einzelnen:

  1. Private Cloud: Dies meint die Installation des dreiteiligen „Cloud Stack“ für eine einzelne Organisation (aber nicht notwendigerweise innerhalb dieser Organisation) und für deren exklusive Nutzung.

  2. Community Cloud: Dies meint die Installation für eine spezifische Gruppe von Nutzern oder Organisationen.

  3. Public Cloud: Die öffentliche Cloud steht prinzipiell offen für die Nutzung durch eine nur allgemein beschreibbare Menge von Benutzern.

  4. Hybrid Cloud: Hierbei handelt es sich um verbundene Clouds unterschiedlicher Formen. Verbunden heißt insbesondere, dass die Anwendungen aus verschiedenen Cloud- Formen miteinander kommunizieren können, die Daten im gemeinsamen Zugriff sein können und auch die Ebenen PaaS und IaaS zueinander kompatibel sind, also nach NIST etwa auch Load Balancing zwischen den Cloud-Formen betrieben werden kann.

Bei diesem Teil der NIST-Definition treten erhebliche Unklarheiten auf. Die Private Cloud entspricht in der Praxis einer zentralen Installation von Internet-fähigen Client-Server- Anwendungen auf virtualisierten Ressourcen die mit dem Internet möglichst sicher verbunden ist. Es drängt sich der Eindruck auf, dass hier längst bekannte Installationsformen begrifflich in die Definition des Cloud Computings aufgenommen werden sollen. Die Community Cloud erscheint zunächst einprägsam da man im Internet „Communities“ häufig begegnet. Aber die typischen Interent-Communities sind nicht gemeint, denn der Begriff soll sich auf Gruppen von Anwendern beziehen die gemeinsame technische Anforderungen, Sicherheitsanforderungen und Compliance Regeln besitzen und sich bestimmte Ressourcen teilen, von denen andere explizit ausgeschlossen sind. Als Beispiele werden etwa die Rechnernetze der Sparkassen, kommunale Informationsverarbeitung oder spezielle Netzwerke für den Befundaustausch zwischen Einrichtungen des Gesundheitswesens angeführt. Bei diesen (älteren) Netzen sind die in der NIST-Defintion verwendeten Ebenen mit den besonderen charakteristischen Eigenschaften eher selten vor zu finden. Es muss wohl wieder davon ausgegangen werden, dass bei den beispielhaft genannten „Community Clouds“ wieder mehr das Ziel einer begrifflichen Integration im Vordergrund stand.

Die NIST-Definition der Public Cloud lässt die Verwendung offen. Wenn aber alle die Public Cloud verwenden können, dann auch diejenigen, die besondere Anforderungen an Sicherheit, Compliance usw. haben, vorausgesetzt diese Anforderungen können adäquat innerhalb der Public Cloud umgesetzt werden. Hierbei erreicht die Definition nicht aktuelle Entwicklungen, wie die virtuelle Private Cloud innerhalb einer Public Cloud-Umgebung, die durch erhöhte Service- und Sicherheits-Level gekennzeichnet ist. Überhaupt lässt die NIST-Definition in mehreren Teilen keinen Raum für die dynamische technische Entwicklung da sie mit zu vielen Kategorien arbeitet, die den Charakter einer Momentaufnahme besitzen.

Ähnliches gilt für den Begriff der Hybrid-Cloud. In der Praxis wird es schwer fallen, Rechnernetze zu finden, die gegeneinander abgeschottet sind wie etwa Netze der Sparkassen und derjenigen von Einrichtungen des Gesundheitswesen, die aber neben der üblichen Kommunikation über Firewall-Techniken auch Load Balancing betreiben und damit gewisse auf IaaS- oder zumindest auf PaaS-Ebene von NIST lokalisierte Services miteinander teilen. Vielmehr verstecken sich hinter der Hybrid-Cloud wohl in den meisten Fällen typische Kommunikations- und Interoperabilitätslösungen zwischen eigenständigen Rechnernetzen, den dort beheimateten Anwendungen und dem Internet, die möglichst sicher ausgestaltet werden müssen. Mit der dort verwendeten Begrifflichkeit zu operieren, löst den zuvor eingeführten Nebel wieder auf und trifft den Kern der Materie wesentlich besser.

Die vorstehenden Ausführungen sollten die Problematik der sehr verbreiteten Definition von Cloud Computing skizzieren die zwar, vor allem im ersten Teil, hilfreich ist, aber in dem Versuch Dienstekategorien definitorisch zu verwenden und möglichst viele Erscheinungsformen von Rechnernetzen zu inkorporieren verwässert. Sie erfasst unseres Erachtens auch nicht den entscheidenden Umfang des Cloud Computings, das letztlich über verschiedene technische Innovationen Anwendungen mit einem wesentlich gesteigerten Diffusionspotential in neue Nutzerkreise möglich macht und auch hohes und vielfältiges Potential für Unternehmen schafft.

Es ist nicht die Absicht mit unserer kritischen Skizze Cloud Computing zu entzaubern. Vielmehr sollte zunächst klargestellt werden, dass die NIST-Definition, die auch von europäischen und deutschen Institutionen mehr oder weniger übernommen wird, den heutigen Gebrauch des Begriffes nur teilweise abdeckt. Insbesondere die letzten beiden Teile der Definition erscheinen uns aber auch inkonsistent gegenüber dem ersten Teil. Wir sehen den Umfang von Cloud Computing oder zumindest die entscheidenden Dimensionen von Cloud Computing, so wie der Begriff heute auf breiter Basis verwendet wird, damit nicht erfasst. Dies liegt allerdings daran das der Begriff „Cloud“ insofern besonders passend ist, als das sich die Grenzen umso mehr auflösen, je genauer man die Verwendung des Begriffes analysiert, also je näher man der Wolke kommt. Dies liegt wiederum Dynamik der Entwicklung und vielfachen Okkupation des Begriffes. Aber gerade deshalb ist der Begriff nützlich, da er eine komplexe Entwicklung kommunizieren kann. Er macht eine komplexe Entwicklung „marktgängig“. In diesem Sinne wollen wir den Begriff besser klar stellen und so das Phänomen Cloud Computing besser erfassen.

 

Kern und Umfang von Cloud Computing

Cloud Computing ist eine Bezeichnung für ein hoch standardisiertes Modell von Computer Anwendungen, das über globale Rechnernetze, insbesondere über das Internet, leicht abgerufen werden kann. Die Anwendungen werden dabei von vielfältigen Endgeräten in Arbeitsteilung mit entfernten Serveranwendung ausgeführt. Ihre Daten werden einzig oder zuätzlich in entfernten Datenbasen gehalten. Typischerweise aber nicht notwendigerweise sind die Daten der Anwender dabei so organisiert, dass globale Analysen relativ einfach und effizient möglich sind. Darüber hinaus sind Cloud Computing Anwendungen leicht skalierbar und ihre Nutzung ist in Nutzungseinheiten messbar.

Soweit ist die Beschreibung kompatibel mit dem ersten Teil der NIST-Definition, mit der wir die innovative Infrastruktur die Cloud Computing möglich macht, fassen wollen. Die hohe Diffusion des Cloud Computings und dessen Potential ist aber nicht nur eine Folge der Infrastruktur. Es hat große Fortschritte bei der Entwicklung des Managements der hoch vernetzten riesigen Datenbestände, der Anwendungsfunktionalitäten und der Benutzerschnittstellen gegeben, die mit der globalen Verfügbarkeit von Rechnerressourcen und in jüngster Zeit mit der Verfügbarkeit von Anwendungen auf verschiedensten vor allem auch mobilen Endgeräten in enger Wechselwirkung stehen. Cloud Computing ist in diesem Sinne ein Begriff der ein Phänomen bezeichnet, das die gesteigerte Diffusionsgeschwindigkeit von vernetzten Computeranwendungen betrifft, die schon angelegt war, bevor dieser Begriff populär wurde, aber mit dem Zusammentreffen bestimmter Reifegrade verschiedener synergetischer Technologien stark beschleunigt wurde (Kulmination).

Wir wollen Erfolg und Potential von Cloud Computing neben der Infrastruktur deshalb um drei weitere konkretere Charakteristika ergänzen, die nicht zwingend aber typisch für Cloud Computing sind:

  1. Datenmanagement: Mit dem Erfolg von Amazon und Google haben sich ganz spezifische Anforderungen an das Datenbankmanagement gezeigt, die mit den bisherigen Technologien technisch oder wirtschaftlich nicht mehr zu beherrschen waren. In der Konsequenz haben sich die Hersteller selbst mit der Entwicklung neuer Techniken befasst, die dann wiederum die weitere Expansion der Geschäftsmodelle im Cloud Computing beschleunigt haben. So ist z.B. das bekannte freie System „BigTable“ ein Hochleistungsdatenbanksystem von Google, das als Dienst (gewissermaßen auf der PaaS-Ebene) für die Google App Engine11 dient. Viele ähnliche Produkte werden in der Open Source Community, teils gemeinsam mit der Industrie, entwickelt. Die schnellen Suchverfahren innerhalb von Anwendungen sozialer Netzwerke (z.B. Facebook) oder die effiziente Verwaltung riesiger Mengen von Dokumenten (u.a. Web-Seiten) im Netz sind ohne neue Datenmanagementsysteme nicht mehr denkbar. Das Management von „Big Data“12 ist sehr eng mit der Entwicklung des Cloud Computing verbunden, bei dem Daten aus verschiedenen Quellen in verschiedenen Formaten in kürzester Zeit verarbeitet werden müssen. Die eine Entwicklung beschleunigt die andere.
  2. Der Charakter der Anwendungsfunktionalität, die letztlich an der Spitze des Cloud Computing "Stacks"13 steht und die entscheidenden Konsumenten adressiert, folgt – nicht immer aber typischerweise - neuen prägnanten Mustern, die durch komplementäre Entwicklungen im Cloud Computing möglich sind. Der Erfolg der Anwendungen und mit ihnen verbundener Dienste (und die zugrundeliegenden Geschäftsmodelle) ziehen den Erfolg von Diensten unterliegender Ebenen nach, bedingen diese sogar und treten in eine sich selbst verstärkende Wechselwirkung mit diesen. Das Datenmanagement ist dafür ein Beispiel, denn die spielerische Navigation durch beispielsweise Pfade sozialer Netzwerke oder in Echtzeit analysierte Historien ähnlicher Kaufakte durch ähnlich interessierte Konsumenten wäre auf der Basis der bis dato herrschenden Datenbanksysteme schlicht nicht performant und damit nicht akzeptabel.14 Anwendungsfunktionalität in der Cloud ist typischerweise durch den Umgang mit stark vernetzten und vergleichsweise wenig strukturierten Daten gekennzeichnet. Die Anwendungsfunktionalität ist zudem fast immer Datenzentriert. Eine typische Cloud Computing Anwendung präsentiert meist initial den jeweils attraktivsten „Content“ in Echtzeit oder zumindest sehr schnell, denn der primäre Nutzen der Cloud liegt in dem ortsunabhängigen Zugriff auf jederzeit aktuelle und dynamische Informationen und nicht etwa nur in dem ortsunabhängigen Zugriff auf eine entfernt installierte Funktion. Dem entsprechend repräsentiert die typische Cloud Anwendung auch mehr einen „Dienst“ als ein „Programm“. Es darf aber nicht unterschätzt werden, dass die eigenständige Attraktivität des „Programms“ einen entscheidenden Beitrag für die Akzeptanz des Dienstes liefert. Auch eine erfolgreiche Online-Banking-Anwendung ist heute mit vielfältigen aktuellen Echtzeit-Informationen der Domäne hoch vernetzt und wichtige Informationen werden aktiv präsentiert. Entsprechend steigen Nutzen und Akzeptanz der Systeme. Die Entwicklung von sogenannten „Cockpits“ oder „Dashboards“ ermöglicht Aktualität und die Verbindung mit kontextuellen Inhalten15. Kalender zeigen alle synchronisierten Termine, nehmen eine Orts-Bestimmung vor und korrelieren das aktuell oder zu dem Termin prognostizierte Wetter.

    Die im Cloud Computing charakteristischen zentralen Entwicklungs-, Wartungs- und Release- Verfahren erfordern sinnvollerweise strukturell möglichst homogene Anwendungen und Daten. Cloud Computing Anwendungen besitzen daher typischerweise einen hoch standardisierten Kern ohne Kunden-inividuelle Ausprägungen und ohne komplexe kundeninviduelle Parametrisierungsmöglichkeiten. Individuelle Spezifikationen spielen eine untergeordnete Rolle oder sind an "PlugIns" oder "AddOns" gegebenenfalls aus einem externen "Entwickler-Biotop" delegiert16.

    Ein weiteres funktionales Charakteristikum ist die Protokollierung und Verwertung des Benutzerverhaltens. Zwar ist dieses nicht zwingend, jedoch ist beim Cloud Computing hierzu eine extrem starke und systematische Tendenz zu erkennen, die es nahelegt von einem Charakteristikum zu sprechen. Die beim Cloud Computing Server-seitig allokierte Logik und deren Veränderung via transparenter Releases, denen sich der Benutzer nicht mehr entziehen kann, erlaubt ein stetes "Lernen" der Anwendung oder des Dienstes vom Verhalten der Benutzer, welches in einem veränderten Verhalten der Anwendungen oder veränderten Inhalten reflektiert wird. Dabei können die Dienste Gelerntes an andere Dienste weiter geben, die dann ebenfalls entsprechend reagieren17. An dieser Stelle ist eine mächtige Entwicklung zu erkennen, die ganz wesentlich die weitere Entwicklung des Cloud Computings beeinflussen wird und von hoher ökonomischer Relevanz ist. Das Cloud Computing Anwendungen ein hohes Sicherheitsniveau realisieren müssen, da sie infolge ihrer Vernetzung prinzipiell leichter angreifbar sind, ist selbstverständlich. Sicherheit hat einen großen Stellenwert für den Anwender und es wird ein hoher Aufwand betrieben, dem gerecht zu werden.
  3. Als drittes Charakteristikum tritt die besondere Entwicklung im Bereich der Benutzerschnittstellen auf unterschiedlichen Endgeräten in den Vordergrund. Diese Entwicklung ist gleichermaßen eine Entwicklung im Bereich der Endgeräte-Hardware und sie ist wechselseitig und logisch mit Cloud Computing verbunden, denn die nun auch praktisch leicht realisierbare Möglichkeit, den Zugriff auf Informationen unabhängig von dem Installationsort eines Zugriffsgerätes zu gestalten, potenziert den Nutzen der durch die Cloud infrastrukturell angelegten Möglichkeiten.

    Die Benutzerschnittstelle eines älteren Mobiltelefons war im Wesentlichen auf numerische Eingaben und einige wenige Auswahloperationen (Kontakte, Anrufe etc.) beschränkt. Die Diffusion von Mobiltelefonen war durch die restriktive numerische Tastatur nicht behindert. Mit der Einführung des iPod im Jahr 2001 wurde eine hoch spezialisierte Bedienoberfläche – das scroll wheel, später das click wheel - für die Auswahl von Musiktiteln eingesetzt. Diese Eingabe war effizient, weil sie auf einen extrem engen Anwendungsbezug abgestimmt war. Der entsprechende Musikdienst ist ein „Synchronisationsdienst“. Die völlig spezialisierten Endgeräte sind „iPods“ bzw. „MP3 Player“. Die Konnektivität der Geräte außerhalb des spezialisierten Anwendungsbezugs war minimal. Das erste multifunktionale Endgerät, das rein funktional als erstes „Smartphone“ bezeichnet werden könnte und einigermaßen kommerziell erfolgreich war, ist der 1996 eingeführte Nokia Communicator mit Tastatur. Im gleichen Jahr wird der Palm Pilot eingeführt - ein Adress-, Kalenderund Aufgabenmanager mit Stiftsteuerung. Diese und im Wesentlichen auch die Tastaturgesteuerten Nachfolge-Geräte bis zum bekannten Black Berry wurden und werden vor allem im professionellen Bereich eingesetzt und eröffneten noch nicht die Perspektive zum Cloud Computing in der heutigen Breite.

    Eine entscheidende Entwicklung, die zu einer weiteren Beschleunigung von Cloud Computing geführt hat, wurde u.E. mit dem Touchscreen in Verbindung mit Gestensteuerung realisiert. In dieser Verbindung ist die Gestensteuerung eine hochgradig effektive und emotional ansprechende Schnittstelle für die Navigation durch vernetzte Informationen. Sie ist auch hochgradig effektiv bei Dokumenten-Handling und der Initiierung von Kommunikationsprozessen. Der Touchscreen ermöglicht zudem eine Virtualisierung weiterer Eingabemedien. Die Entwicklung dieses Tandems hat in Verbindung mit dem Internet zu einer gravierenden Veränderung und Beschleunigung der mobilen Nutzung von Computern geführt und ist aus dieser Perspektive ein konstitutives Element des Erfolgs von Cloud Computing, denn die mobile Nutzung ist nur dann sinnvoll, wenn sie auf ein ausreichend großes und aktuelles Inhalte-Universum zugreifen kann. Investitionen in den Ausbau dieses Universums sind nur dann sinnvoll, wenn sie auch genutzt werden. Aus der Sicht der so gesehenen Notwendigkeit effektiver mobiler Benutzerschnittstellen kann man diese Entwicklung auch als ein konstitutives Element von Cloud Computing überhaupt ansehen. In der weiteren Entwicklung wird die Sprachsteuerung dieses Tandem vermutlich18 weiter ergänzen19.

    Zusammenfassend und erweiternd sehen wir den Umfang von Cloud Computing in der heutigen Okkupation des Begriffes in den folgenden vier Charakteristika die zueinander hochkompatibel sind und sich gegenseitig verstärken:

    1. Charakteristika der Infrastruktur
      • Einfacher Abruf und Lieferung von Rechenleistung und Datenspeicherkapazität
      • Direkte Verfügbarkeit über leistungsfähige Internetverbindung
      • Ressourcen-Pooling im Hintergrund
      • Schnelle und flexible Skalierbarkeit
      • Messbarkeit der Nutzungsintensität
    2. Charakteristika des Datenmanagements
      • Effiziente Verwaltung unstrukturierter oder semi-strukturierter Daten (NOSQL20)
      • Effiziente Verwaltung hochgradig vernetzter Daten (NOSQL)
      • Effiziente Verwaltung vieldimensionaler Massendaten (BigData, MapReduce21)
      • Effiziente Verwaltung hochgradig verteilter Daten (NOSQL, MapReduce)
    3. Charakteristika der Anwendungsfunktionalität
      • Hoch standardisierte Kernfunktionalität
      • Individualisierung vorwiegend außerhalb der Kernanwendung (Komplexitätsreduktion)
      • Content-Orientierung und Vernetzung von Informationen aus verschiedenen Quellen (Web Services)
      • Kommunikations-Orientierung und Interaktion zwischen einer Vielzahl selbständiger Anwender22
      • Einfache Einrichtung von Kommunikations- und Interaktionsschnittstellen
      • Lernen aus protokolliertem Benutzerverhalten
      • Hohes Sicherheitsniveau
      • Licensing in Form von Software-Abonnements
    4. Charakteristika der Benutzerschnittstelle
      • Verfügbarkeit auf verschiedenen, insbesondere auch mobilen, Endgeräten
      • Touchscreen, Gestensteuerung, Sprachsteuerung

    Mit den vorstehenden Ausführungen sollte der Definition á la NIST eine ganzheitlichere Betrachtung ergänzend zur Seite gestellt werden, die das Phänomen Cloud Computing als dynamische Entwicklung beschreibt und damit den tatsächlich Gebrauch und Umfang des Begriffes besser erfasst.

    Der enormen Diffusionsgeschwindigkeit stehen viele Menschen staunend gegenüber. Fehleinschätzungen der Reichweite und der Geschwindigkeit der Veränderungen haben prominente Opfer gefordert, der auf der anderen Seite legendäre Gewinner gegenüber stehen. Solche Entwicklungen sind jedoch erklärbar und nicht gänzlich unvorhersehbar. Der Schlüssel liegt nicht in der Einzelbetrachtung jeweils bahnbrechender Innovationen sondern im Zusammenspiel verschiedener Entwicklungen. Dieses Zusammenspiel folgt dem Muster sich wechselseitig verstärkender Nutzenpotentiale. Aus diesen Multiplikationen folgt dann die 'überraschende Entwicklung'. Die Konstituenten und das Muster der für viele überraschend durchschlagenden Entwicklung von Cloud Computing wurden hier versucht darzustellen.

 

Cloud Computing und integrierte betriebswirtschaftliche Anwendungen

In den bisherigen Ausführungen finden die großen betriebswirtschaftlichen Anwendungen im Sinne integrierter Anwendungspakete nur in einer Fußnote Erwähnung. Es erschien uns aber sinnvoll zum Verständnis einer neuen Thematik zunächst auf Initiatoren und "First Mover" Bezug zu nehmen, als mit den "Followern" zu beginnen. Denn in dieser Reihenfolge verstehen wir besser den Kern der neuen Entwicklung als auch die Verschiedenheit der Domäne von vergleichsweise spät hinzu kommenden Anwendungen. Traditionelle betriebswirtschaftliche Anwendungen beziehen sich im Wesentlichen auf Informationen und Prozesse innerhalb einer Organisation. Externe User werden unter Sicherheitsaspekten als problematisch angesehen. Man mag zunächst widersprechen, da mit Beschaffungs- und Absatzmarkt doch klare Anforderungen jenseits der Grenzen der Organisation bestehen und Einkaufs- und Bestellwesen sowie Kundenmanagement doch den die Organisation umgebenden Markt als Umwelt oder externe Faktoren mit einbeziehen. Es zeigt sich jedoch das diese Umwelt aus Sicht der Geschäftsanwendungen vor allem über hochstandardisierte Kategorien - im Wesentlichen Preise und Mengen – über sehr schmale Schnittstellen einbezogen ist. Eine Integration externer Partner kann als sehr eingeschränkt und hoch strukturiert charakterisiert werden. Die Systeme sind traditionell relativ abgeschottet. Die Komplexität der Systeme wächst vornehmlich in Bezug auf eine Flexibilisierung interner Prozesse und des Erschließens immer weiterer betrieblicher Funktionsbereiche. 23

Im Weiteren soll die Frage interessieren welche Entwicklungen klassische24 betriebswirtschaftliche Anwendungen unter dem Einfluss des Cloud Computing im Hinblick auf ihre Funktionalität nehmen könnten. Also nicht im Hinblick auf die bereits breit in Diskussion befindlichen infrastrukturellen Aspekte denn hier ist schon jetzt zu sehen, dass die Wanderung der Systeme in die Cloud voran schreitet. Wir wollen vielmehr untersuchen ob und wieweit im Hinblick auf die o.g. funktionalen Charakteristika typischer Cloud Computing Anwendungen ein tiefer gehender verändernder Einfluss auf die Entwicklung zukünftiger betriebswirtschaftlicher Anwendungen ausgehen kann. Wie werden die wettbewerbsfähigen integrierten Geschäftsanwendungen aus der Cloud in Zukunft möglicherweise aussehen? Wir müssen die Überlegungen an dieser Stelle jedoch weiter einschränken und adressieren nur den o.g. funktionalen Teilaspekt:

  • Kommunikations-Orientierung und Interaktion zwischen einer Vielzahl selbständiger Anwender

Bezüglich dieses Kriteriums ist mit dem Cloud Computing untrennbar die Nutzung und Weiterentwicklung von Service-Schnittstellen, insbesondere sog. Web Services25 verbunden. Service-Schnittstellen ermöglichen eine komfortable und für den Anwender fachlich gut einschätzbare Online-Einbindung externer Dienste und Partner. Erste akzeptierte Anwendungen betreffen die Online-Einbindung von Behörden zur Übermittlung bestimmter Finanzdaten an diese oder die direkte Integration des Steuerberaters als externer Benutzer. Der mittels Service-Schnittstelle an den Funktionen der Geschäftsanwendung teilnehmende Partner erhält einen Service-User-Zugang auf genau eingeschränkte Funktionen des Systems. Es ist dabei völlig unerheblich auf welcher Plattform und mit welcher Anwendung der Partner arbeitet, solange er nur ebenfalls einen (Web) Service implementiert.26 Wir wollen im Folgenden nur noch von Web Services sprechen und meinen damit aber nur die bevorzugte und nicht ausschließliche Form von Service-orientierter Kommunikation. Es gibt Anbieter von Diensten und Nutzer von Diensten. Damit diese sich gegenseitig finden, gibt es in der Cloud zentrale Verzeichnisdienste, bei denen Anbieter ihre Dienste registrieren lassen können. Mittels Registrierung können die Dienste einer Suche zugänglich gemacht werden.

In Geschäftsanwendungen sind bezüglich der Kommunikations-Partner oder allgemein Geschäftspartner nach einer verbreiteten Systematik

  • Business-to-Business (B2B) und
  • Business-to-Consumer (B2C) Beziehungen

möglich. Innerhalb dieser Beziehungen sind jeweils

  • Application-to-Application (A2A) und
  • Human-to-Application (H2A) Beziehungen

möglich.

Bei B2B ist bisher vorwiegend A2A27 und bei B2C typischerweise H2A28 Kommunikation vorherrschend. In unserer auf das Charakteristikum „Kommunikations-Orientierung und Interaktion mit selbständigen Anwendern“ eingegrenzten Betrachtung der Entwicklung von Cloud Computing Geschäftsanwendungen nehmen wir nun das Charakteristikum

  • Einfache Einrichtung von Kommunikations- und Interaktionsschnittstellen

hinzu.29 Wir gehen zukünftig davon aus, dass sich im Zuge des Cloud Computings die Etablierung von Kommunikations- und Interaktionsbeziehungen sowohl bei A2A- als auch bei H2A-Beziehungen im Rahmen von Geschäftsanwendungen stark vereinfachen und beschleunigen wird. Dabei wird die Entwicklung u.E. nicht die Dynamik erreichen wie etwa im Bereich sozialer Netzwerke. Die Entwicklung im Bereich B2B wird voraussichtlich auch weniger dynamisch als im B2C-Bereich sein. Verantwortlich sind jeweils Sicherheits- und Compliance30-Regeln, die für die Unternehmen tendenziell sensibler wahrgenommen werden. Dennoch gehen wir davon aus das sich direkt in den Anwendungen Kommunikations- und Interaktions-Muster entwickeln werden, die eine fachliche Steuerung von sich dynamisch erweiterten Partnernetzen ermöglichen werden. Die klassische Benutzerverwaltung wird u.E. durch Funktionen einer Partnernetz-Verwaltung ergänzt werden, die von den verantwortlichen Mitarbeitern der Fachabteilungen direkt oder über Genehmigungsketten kontrollierbar und damit akzeptiert ist. Partner werden weniger selektiv, weniger dauerhaft und dennoch tiefer in die Prozesse integriert sein als dies heute der Fall ist. Um einen stabilen Kern herum wird das Cloud Computing u.E. die Unternehmensgrenzen ein Stück weit virtualisieren31 und nach außen schieben. Die Entwicklung stellen wir uns dabei nicht als große Kommunikationsdrehscheiben vor, wie sie in Form virtueller Marktplätze oder Einkaufsgemeinschaften vorstellbar wären. Diese Organisationsmuster halten wir für zu schwergewichtig. Cloud Computing ermöglicht in der weiteren Entwicklung leichtgewichtige, sukzessive wachsende und individuell ausgestaltete Partnernetze. Die Einbindung und die Ablösung von Partnern ist im Zuge des Cloud Computings zukünftig mit geringen Kosten möglich und kann deshalb auch opportunistischer erfolgen. Technisch gesehen ist in der heutigen Praxis die Vereinbarung von Schnittstellen zwischen Geschäftsanwendungen verschiedener Hersteller häufig noch ein weit verbreitetes und politisch instrumentalisiertes Problem, was beiderseitige Bereitschaft erfordert. Im Zuge des Cloud Computings und der Verfügbarkeit von Web Services als Qualitätsmerkmal32 entsteht ein großer Druck hin zur Offenheit der Systeme. Dies fördert eine dezentrale Produktion von schnell implementierbaren Vernetzungsmöglichkeiten ohne diese Produktion abstimmen zu müssen. Entsprechend ist bereits eine Explosion von völlig unkompliziert verfügbaren Konnektoren zwischen populären Geschäftsanwendungen auf der Basis von Web Services zu beobachten. Diese Entwicklung ist gegenüber aufwendigen und riskanten Projekten zur Entwicklung von traditionellen Schnittstellen zwischen Geschäftsanwendungen eine radikale Veränderung, die im Hinblick auf die hier skizzierte schnelle Zunahme der funktionalen Vernetzung nicht zu unterschätzen ist. Sie hat auch die großen integrierten Systeme bereits erreicht.

Die Entstehungsgeschichte der großen integrierten Geschäftsanwendungen – der integrierten ERP Systeme – ist eine Geschichte der Überlegenheit von funktionaler und vor allem Daten-seitiger Integration gegenüber 'Best-of-Breed33'-Strategien. Dieses Kriterium wird durch die für Cloud Computing konstitutive Entwicklung von Web Services sowie die signifikanten infrastrukturellen Vorteile des Cloud Computings insbesondere auch bei Wartungs- und Update-Operationen aufgeweicht. Der Drittanbieter-Markt für ergänzende Komponenten und Spezialsysteme auf Basis von Cloud Computing wächst schnell und ist bereits unübersichtlich. Hierzu gehört auch eine Vielzahl von Open Source Lösungen, z.B. bei Systemen für das Kundenmanagement (CRM). Das Zusammenspiel funktionaler Komponenten verschiedener Hersteller wird vereinfacht. Web Services spezifizieren zunächst nur die syntaktische Schnittstelle. Die gute Lesbarkeit von XML-Spezifikationen erleichtert in der Praxis aber auch die semantische Interpretation und das Testen der Schnittstellen. Die Verbindung heterogener Systeme wandelt sich vom „Projekt“ zur relativ einfachen „Konfiguration“. Für erfolgreiche Hersteller integrierter Systeme wird es in Zukunft darauf ankommen ein attraktives funktionales und semantisch verständliches „Backbone“ zu liefern, das für die Ankopplung spezialisierter Satellitensysteme attraktiv ist und mit einer führenden Semantik und Basisfunktionalität Orientierung liefert. Aufgrund der Vielzahl erhältlicher Spezial-Komponenten und Branchensysteme vereinfacht ein Basissystem als zentraler Anknüpfungspunkt die Anwendungslandschaft. Der Kunde wird zukünftig viel weniger darauf angewiesen sein, alle Komponenten aus einer Hand zu erwerben. Der Kunde wird neben der Attraktivität des Basissystems die Attraktivität des assoziierten „Biotops“ von Komponentenentwicklern und das Maß der Hersteller-Unabhängigkeit in die Bewertung seiner Investitionsentscheidungen einfließen lassen.

Insbesondere für innovative jüngere Hersteller entfaltet der Begriff des Cloud Computings eine identitätsstiftende und akquisitorische Kraft sowohl in Richtung neuer Kunden als auch in Richtung externer Hersteller komplementärer Komponenten. Die gerade bei jungen Softwareunternehmen zu findende ausschließliche Orientierung auf die Cloud ist insofern keine technisch induzierte Entscheidung, sondern eine strategische Positionierung die als unumkehrbare Überwindung der 'alten Welt34' kultiviert wird und keine Mischformen der Installation zulässt.

Die via Cloud Computing revitalisierten Chancen für Hersteller komplementärer Komponenten sind hinreichend deutlich. Hersteller integrierter Cloud Computing Systeme verfügen über das Wissen und die Softwarebausteine integrierter Geschäftsprozesse. Neben dem erhöhten Druck der Schaffung offener Anknüpfungspunkte an die integrierte Basis mittels Web Services erweitern die Hersteller natürlich laufend ihr eigenes funktionales Spektrum innerhalb des integrierten Systems35. Diese zweigleisige Vorgehensweise werden die Hersteller für sich optimal zu gestalten versuchen. U.E. erzeugt eine optimale Strategie zwei Aufgaben:

  1. Mit dem Wissen über die integrierten Prozesse sind die veröffentlichten Web Services so zu gestalten, dass die Anknüpfungspunkte oder Einstiegspunkte in die integrierten Prozesse im Hinblick auf das eigene funktionale Spektrum optimal sind36. Diese Gestaltungshoheit kann über ein entsprechendes Marketing in Richtung des Entwicklerbiotops bedeutenden Einfluss auf die externe Komponentenentwicklung nehmen (Leadership-Funktion).

  2. Durch Sicherstellung der Dekomponierbarkeit des integrierten Systems können die einmal getätigten Entwicklungsleistungen neben der Nutzung innerhalb des integrierten Systems parallel als selbständige Komponenten im via Cloud Computing vitalisierten Komponenten-Markt verwertet werden.

Punkt 2 erfordert idealerweise ein Umdenken in der Entwicklung integrierter Systeme, die zwar heute auf Ebene der Programmierung mit objektorientierten Techniken hoch modular erfolgt, hiervon aber die Modellierung der Datenbasis typischerweise ausnimmt. Die Datenbasis ist i.d.R. sehr hoch integriert und weiterhin monolithisch. Typischerweise ein integriertes relationales Modell. Jüngere Systeme zeigen hier erste Fortschritte in der Modularisierung auch der Datenbasis. Die großen etablierten Systeme können aktuell nicht als effizient dekomponierbar bezeichnet werden, weshalb die Geschäftsmodelle, mit wenigen Ausnahmen, dort auch nicht im Sinne von Punkt 2 parallel aufgestellt sind.

 

Schlussbemerkungen

Wir haben anknüpfend an eine weit verbreitete Definition des unscharfen Begriffes Cloud Computing versucht das Phänomen Cloud Computing in seinem heutigen Umfang verständlicher zu fassen. Eine 'Definition' im strengen Sinne wäre schön, wird der dynamischen und vielgestaltigen Entwicklung, die hinter diesem so aggressiv okkupierten Begriff steht aber nicht (mehr) gerecht, da sie entweder zu abstrakt oder zu umfangreich ist um damit arbeiten zu können.

Wir haben daher zentrale Charakteristika angeführt und darüber eine erweiterte Beschreibung erstellt, welche die Reichweite der Entwicklung vor Augen führen soll. Denn Cloud Computing ist nicht nur ein infrastrukturelles Thema. Cloud Computing tritt weitreichend in private und geschäftliche Lebensbereiche ein, schafft charakteristische neue Nutzenpotentiale und verändert den Umgang mit und die Einstellung zu Computertechnologie. Der Begriff Cloud Computing selbst ist im Grunde unerheblich und selbst wenig aussagekräftig. Er ist nur insofern äußerst praktisch, als das er die Kulmination verschiedener synergetischer und sich selbst verstärkender technischer Möglichkeiten zu einem Instrumentarium beschreibt, das mit hoher Akzeptanz und in breiter Verwendung angenommen wird. Nach Schaffung eines ganzheitlicheren Grundverständnisses haben wir den möglichen Einfluss des Cloud Computings auf Geschäftsanwendungen betrachtet. Hierbei handelt es sich um eine Domäne, die weniger flexibel auf Neuerungen reagiert, da Veränderungen nicht nur mehr Nutzen schaffen können sondern typischerweise auch höhere Kosten und Risiken verursachen, als dies beim Wechsel technischer Instrumente im privaten Bereich der Fall sein mag. Einige der in diesem Abschnitt genannten Aussagen würde der Informatiker vielleicht nicht zwingend mit Cloud Computing in Verbindung bringen, da z.B. bestimmte Schnittstellenszenarien prinzipiell auch ohne Cloud Computing – auch in der hier vertretenen Extension – realisierbar sind. Es ist uns aber an keiner Stelle um die reine Technik gegangen. Entscheidend sind Diffusionspotential und Veränderungswirkung, die eine Technologie entwickelt. Genau dies sehen wir im Zuge des Cloud Computings in großen Ausmaß und genau hieraus beschleunigen sich auch im Bereich der Geschäftsanwendungen Entwicklungen die vorher zwar schon angelegt waren, aber keinen besonderen Stellenwert besaßen. Wir haben versucht vor diesem Hintergrund bestimmte, uns konsistent erscheinende Wirkungen auf die Funktionalität von Geschäftsanwendungen und ansatzweise auf die dahinter liegenden Geschäftsmodelle der Hersteller zu skizzieren. Dieser Versuch muss angesichts der Komplexität klassischer Geschäftsanwendungen an dieser Stelle notwendigerweise recht allgemein bleiben, kann aber von dort aus anhand unserer Charakteristika relativ einfach weiter ausgebaut werden.

Wir sehen die Wirkungen des Cloud Computings auf traditionelle betriebswirtschaftliche Geschäftsanwendungen langfristig für ebenso signifikant und zwingend wie die schon breiter vor Augen stehenden Wirkungen auf Anwendungen im privaten Bereich und im eCommerce. Neuere, Altlasten-freie Systeme können in diesem Umfeld besonders hohen Kundenutzen erzeugen und somit für die Hersteller Wettbewerbsvorteile generieren. Cloud Computing hat in diesem Sinne auch ein Zeitfenster für neue Wettbewerber und neue Kundenseitige Investitionsentscheidungen geöffnet. Unternehmen werden die Reichwerte und Flexibilität ihrer Prozesse mit den neuen Techniken verbessern können.

 

Fußnoten

1: Siehe z.B. Peter Mell, Timothy Grance: The NIST Definition of Cloud Computing, Special Publication 800-145, US Department of Commerce, Sept 2001.

2: Fang Liu, Jin Tong, Jian Mao u.a.: NIST Cloud Computing Reference Architecture, Special Publication 500-292, US Department of Commerce, Sept 2011.

3: Siehe z.B. das Bundesamt für Sicherheit in der Informationstechnik, welches eine eigene Defintion in Anlehnung an NIST veröffentlicht hat: www.bsi.bund.de/DE/Themen/CloudComputing/Grundlagen/Grundlagen_node.html

4: Zu nennen sind insbesondere die Europäische Kommission und das European Network and Information Security Agency. Unter www.enisa.europa.eu und www.ec.europa.eu finden sich bei Eingabe des Stichworts Cloud Computing eine Vielzahl von Publikationen mit umfangreichen statistischen Daten zum Cloud Computing. Cloud Computing wird dort im Wesentlichen in der Abgrenzug der NIST interpretiert.

5: Peter Mell, Timothy Grance: The NIST Definition of Cloud Computing, Special Publication 800- 145, US Department of Commerce, Sept 2001, S. 2.

6: Eine Instanz im Sinne einer „Anwendungsinstanz“ ist vereinfacht gesprochen eine technische Kopie des Computerprogramms im Arbeitsspeicher mit dem ein oder mehrere Kunden arbeiten. Jede Instanz verbraucht eine gewisse, mitunter erhebliche, Menge von Rechnerressourcen des Betriebssystems. Andererseits laufen Programme als für jeden Kunden separate Instanz möglicherweise störungssicherer und/oder besser steuerbar ab als eine einzige Instanz auf die viele verschiedene Kunden gemeinsam zugreifen. Lässt man mehrere Kunden auf einer Instanz arbeiten, kann in der Regel aber der Overhead deutlich reduziert werden. Dies umso stärker, je mehr Anwendungen gestartet werden. Die Anwendung selber wird aber komplexer, da sie die verschiedenen Kundenzugriffe in einem umfangreicheren Session-Management organisieren muss.

7: Eine Datenbank typischer relationaler Datenbanksysteme ist in verschiedene Datenbankinstanzen unterteilt. Eine Datenbankinstanz ermöglicht eine gewisse Form der Trennung von Daten innerhalb einer Datenbank ohne eine weitere Datenbank mit dem entsprechend größeren „Overhead“ zu installieren. Für jeden Kunden wird innerhalb einer Datenbank eine eigene Instanz angelegt. Liegen die Daten aller Kunden in nur einer Instanz, müssten die Daten über Filter – z.B. auf Kundennummern - auseinander gehalten werden.

8: Ein Beispiel sind eMail-Dienste oder viele Anwendungen im Rahmen von Social Networks. Es ist ineffizient bis praktisch unmöglich bei derart großen Nutzerzahlen in Sinne von Kundenzahlen für jeden einzeln Kunden eine eigene Instanz zu eröffnen. Die Datenhaltung sollte separat betrachtet werden, da hier neben dem Overhead des Verwaltungssystems noch andere bedeutende Kriterien, wie Datenschutz und Beherrschbarkeit der Datenseparation eine Rolle spielen. Ein modernes Cloud Computing ERP System wie z.B. Scopevisio (www.scopevisio.com) verwaltet daher zwar die Anwendungen in einer Instanz, teilt den Kundendaten jedoch jeweils eigene Datenbank-Instanzen zu.

9: Der Server ist in der Regel ein sogenannter Anwendungs- oder Applikationsserver der eine Ablaufumgebung für entfernte (Server-seitige) Komponenten der Anwendungslogik darstellt. Der Applikationsserver befindet sich typischerweise wiederum in einer Client-Rolle gegenüber einem Datenbankserver und einer Vielzahl weiterer spezialisierter Dienste-Server (3-Schichten- Architektur).

10: Soweit es nicht mehr als 10 sind, denn hier endet die diesbezügliche "Elastizität" der iCloud.

11: Die Google App Engine ist eine Plattform, die eine Reihe von Diensten bereit stellt, mit denen Web-Anwendungen entwickelt, verwaltet und ausgeführt werden können, die denjenigen Anwenungen von Google entsprechen und somit besonders leicht in das Angebot von Goolge integriert werden können. Der Entwickler benötigt keine separate Hardware, Entwicklungssoftware oder Verwaltungswerkzeuge mehr. Mit steigender Nutzung der auf die App Engine "hochgeladenen" Anwendungen erfolgt eine automatische Skalierung.

12: Big Data bezeichnet Daten die durch große Mengen, strukturelle Vielfalt, die Notwendigkeit hoher Verarbeitungsgeschwindigkeit (bis zur Echtzeitanforderung) gekennzeichnet sind und bei denen die Analyse und die Gewinnung neuer Erkenntnisse im Vordergrund steht. Big Data Produkte schaffen erstmals die praktische Möglichkeit die riesigen Datenbestände flexibel und z.T. in Echtzeit zu analysieren. Die große Nähe zum Cloud Computing ist in den dort anfallenden Massendaten begründet, die von hoher gesellschaftlicher, insbesondere wirtschaftlicher, Relevanz sind. Daneben sind Big Data Produkte auch bei der Analyse von Sensor-Daten, Audio und Video vertreten, wobei die beiden letzten Datenkategorien wiederum eine große Rolle in der Cloud spielen. Big Data ist insofern ein unscharfer Sammelbegriff.

13: Als Stack oder Technologie-Stack bezeichnet man häufig den Stapel aufeinander aufbauender Dienste. So können Anwendungen z.B. auf Basis des "Java JEE"-Stacks oder auf Basis des Microsoft "Dot.NET"-Stacks realisiert sein usw. IaaS, PaaS und SaaS sind der Cloud Stack im Sinne der NIST-Definition.

14: Die Hersteller relationaler Datenbanken ziehen jedoch nach und haben sogenannte Spaltenorientierte Verarbeitungsmodi integriert oder Spalten-orientierte Systeme daneben gestellt. Grob gesprochen eignen sich die typischerweise Zeilen-orientierte Verarbeitung relationaler Datenbanksysteme sehr gut für Einfüge- und Änderungsoperationen (OLTP-Aufgaben) auf relativ einfach strukturierten Daten klassischer (buchhalterischer) Anwendungen. Die Spalten-orientierte Verarbeitung ist leistungsfähig, wenn bei Analysen Aggregate über gleichartige Massendaten gebildet werden sollen. Es können zudem Indizes entfallen, die ansonsten im Zeilen-orientierten Modell notwendig gewesen wären.

15: Traditionelle betriebswirtschaftliche Anwendungen hingegen sind durch Funktionalitäten in einer historisch relativ isolierten Domäne, nämlich primär durch Unterstützung von Prozessen innerhalb einer Organisation, gekennzeichnet und deshalb vom Muster einer Cloud Computing-Anwendung relativ weit entfernt. Die Grenzstellen zu Beschaffungsmarkt und Absatzmarkt sind eng definiert und z.T. sogar gesetzlich normiert, was in den Systemen traditionell exakt reflektiert wird. Der Begriff „Enterprise Ressource Planning“ (ERP) ist geradezu ein „Cloud-Anti-Pattern“. Die Bewegung in die Cloud beginnt bei diesen Systemen deshalb auch mit Schritten die zunächst nur den rein infrastrukturellen Aspekt der Cloud adressieren und entsprechende Umbaumaßnahmen an den Systemen induzieren. In der weiteren Reifung ist die Entwicklung von Dashboards oder Cockpits, sowie die Ausweitung von Kommunikations- und Teamworking-Funktionen zu beobachten. Aktuell ist aber zu sehen, dass die Einbettung der Systeme im Wesentlichen einem infrastrukturell orientiertem Vorgehen entspricht, bei dem der unveränderte Kern der Anwendungen mit einer funktionalen Schale versehen wird die erste hier gezeigte Charakteristika von Cloud Computing Anwendungen realisiert.

16: Beispiele für derartige Biotope sind beispielsweise sich selbst aktualisierende "Add Ons" für praktisch alle bekannten Internet-Browser. Die gegenteilige Situation findet sich bei vielen klassischen ERP-Systemen, bei denen durch sehr komplexe Parametrierungen die nicht klar vom Kern getrennt sind eine relativ monolithische ganz oder teilweise kundenindividuell zu pflegende Installation entsteht. Die Überführung in einen neuen Release-Stand ist dort mit einem Aufwand verbunden der für Cloud Computing höchst untypisch wäre.

17: Wenn der Anwender in einem Webshop nach den neuesten Kamera-Modellen sucht und ihm bei späterer davon unabhängiger Verwendung seiner Suchmaschine die neuesten Modellen via Werbung eingeblendet werden, hat der Webshop das Verhalten protokolliert und mit der IP-Adresse des Benutzers an eine Suchmaschine weiter gegeben.

18: Eine Unsicherheit besteht darin, dass mit zunehmendem Komfort immer mehr Informationen und immer mehr Rechenkapazität notwendig werden. Immer mehr Informationen erzeugen datenschutzrechtliche Probleme und lösen die Intimsphäre auf. Wird immer mehr Rechenleistung benötigt um diese Informationen zu verarbeiten, so müssen diese auf entfernte Server übertagen werden womit die Kontrolle über die Daten weiter verloren geht. Wird die Spracherkennung auf einem Server abgewickelt so müssen die Sprachefragmente übermittelt werden. Prinzipiell könnte die persönliche Sprache abgefangen und zur Vortäuschung falscher Identitiäten verwendet werden. Gleiches gilt für Fingerabdruckscanner, wenn die entsprechenden Muster an Server übermittelt werden (müssen). Es ist denkbar, das ab einem gewissen Punkt eine breitere Ablehnung von noch mehr Diffusion informationstechnischer Funktionalität eintritt und die „Computerisierung“ der Gesellschaft mithin einen Höhepunkt erreicht.

19: Eine weitere, aktuell in Bezug auf breite Akzeptanz noch mehr hypothetische Entwicklung, ist neben der Gesten- und Sprachsteuerung die Eingabe von optischen Mustern die von Computersystemen erkannt und entsprechend verarbeitet werden. Ein bekanntes Projekt ist Google Glass: siehe www.de.wikipedia.org/wiki/Google_Glass. Hierbei kann z.B. ein bestimmtes Gebäude erkannt und über Internet eine Information dazu abgerufen werden.

20: Mit NOSQL bezeichnet man eine Familie von Datenspeicherungstechnologien die je nach Einstellung des Interpreten als „no SQL“ oder „not only SQL“ bezeichnet werden. Gemeinsam ist diesen verschiedenen Techniken nur, dass sie nicht relational orientiert sind. Die bekanntesten Verfahren sind Dokumentenspeicher und einfache Key-Value-Speicher, bei denen der durch einen Schlüssel identifizierbare Value beliebig sein kann. Es werden aber auch spaltenorientierte Systeme und Graphen-Datenbanken hinzu gezählt. Ein wesentliches Unterscheidungsmerkmal zu relationalen Datenbanken ist die typischerweise nur als „letztendlich“ bezeichnete Konsistenzhaltung bei NOSQL-Datenbanken gegenüber der stets garantierten Konsistenz bei relationalen Datenbanken.

21: MapReduce ist ein von Google entwickeltes Verfahren zur Parallelisierung von Berechnungen auf verteilten Daten. In Phase 1 (Map) werden Zwischenergebnisse aus verteilten Eingabedaten berechnet. Die Zwischenergebnisse werden anschließend in Phase 2 (Reduce) zu den Endergebnissen verrechnet. Was konkret in der Map- und in der Reduce-Phase passiert, ist von der Anwendung bzw. der Fragestellung abhängig. MapReduce ist lediglich eine formale Spezifikation der Art der Parallelisierung von Datenoperationen mit zwei Phasen. Verteilte Daten werden gesammelt und die Berechnungen auf mehrere Knoten im Netz verteilt. MapReduce kann prinzipiell in verschiedene Datenmanagementsysteme als unterliegende Schicht eingebaut werden und die Skalierbarkeit erhöhen. Apache Hadoop ist die bekannteste freie Open Source Implementierung die MapReduce-Verfahren realisiert. Siehe für weitere Informationen die entsprechenden Wikipedia-Einträge.

22: Mit selbständigen Anwendern meinen wir Anwender, die nicht der Organisation angehören, die ein bestimmtes System als „Mandant“ besitzt oder betreibt, also nicht etwa Mitarbeiter sind oder sein müssen.

23: Die Komplexität ergibt sich aus dem bei fast allen Herstellern verfolgten Ziel einer zunehmenden Integration der mit der Software abgebildeten betriebswirtschaftlichen Teilpläne bzw. Teilaufgaben. Dies liegt in der Natur der Sache. Betrachtet man beispielsweise die Liquiditätsplanung eines Unternehmens so wird unmittelbar klar, dass hier vielfältige Teilpläne zusammen geführt werden müssen. Jede Änderung in einem Teilplan kann eine Änderung im Liquiditätsplan zur Folge haben. Alle Teilpläne, ja alle Teilprozesse müssen synchronisiert werden. In einem Unternehmen gibt es naturgemäß keine oder wenige isolierte „Inseln“, denn unter der Bedingung knapper Ressourcen und Wettbewerbsdruck liegt die Verzahnung sämtlicher Bereiche in der Logik einer Optimierung. Unverzahnte oder schwach verzahnte Bereiche sind typischerweise ein Restrukturierungsfall.

24: Klassische betriebswirtschaftliche Softwaremodule sind typischerweise funktional sortiert. Z.B.: Einkauf, Bestellwesen, Lager, Logistik, Produktionsplanung und –steuerung, Verkauf (mit Angebots- und Auftragsmanagement sowie Rechnungsstellung), Finanzwesen (Buchhaltung und Kosten- und Leistungsrechnung), Personalwesen.

25: Web Services ermögliche die Plattform- und Programmiersprachen-unabhängige Kommunikation zwischen verteilten, lose gekoppelten Anwendungen. In proprietärer Form existierte die Grundidee dieser Technologie schon länger. Sie geht zurück auf den Common Object Request Broker (CORBA), das Distributed Common Object Model (DCOM) von Microsoft sowie die Remote Method Invocation (RMI) von Sun (heute Oracle). Eine klare Darstellung findet sich hierzu in dem weiter lesenswerten Klassisker: R. Sessions: COM+ and the Battle fort he Middle Tier. Wiley & Sons, 2000.

26: Als das die Plattform-, Anwendungs- und Programmiersprachen-Unabhängigkeit gewährleistende Format hat sich die Extensible Markup Language (XML) durchgesetzt. Web Services implementieren XML-basierte Kommunikationsprotokolle zur Beschreibung von Operationen, Daten und Datentypen. Zum (darunter liegenden) Nachrichtenaustausch werden offene Protokolle wie insbesondere das Hypertext Transfer Protocol (HTTP) verwendet.

27: Ein einfaches Beispiel ist die automatische Aktualisierung einer Lieferantenpreisliste durch ein Bestellsystem.

28: Ein einfaches Beispiel ist der Kauf einer Ware über einen Webshop.

29: Dieses funktionale Kriterium kann als komplementäres Kriterium zu dem infrastrukturellen Kriterium des einfachen Abrufs und Lieferung von Rechenleistung und Datenspeicherkapazität der NIST-Definition gesehen werden.

30: Unter Compliance oder Compliance-Regeln versteht man Grundsätze, Richtlinien und Verhaltens- Kodexe in Unternehmen. Diese sind teils freiwillig, teils sichern sie die Einhaltung gesetzlicher Bestimmungen. Letzteres ergibt sich aus dem Grundsatz, das Gesetze nicht nur durch natürliche sondern auch durch juristische Personen einzuhalten sind.

31: Die Idee und der Begriff des „virtuellen Unternehmens“ als Folge gesteigerter Vernetzung wurde bereits 1992 von Davidow und Malone verwendet; siehe The Virtual Corporation: W.H. Davidow, M.S. Malone: Structuring and Revitalizinig the Corporation fort he 21st Century, HarperBusiness 1992. Siehe aber auch die damals Aufsehen erregende Titelstory in der Business Week: J.A. Byrne, R. Brandt, O. Port: The Virtual Corporation, in: Business Week, 08.02.1993, S. 36-40. Den damaligen visionären Thesen und der Diskussion fehlte noch die technologische Grundlage. Ökonomisch waren sie meist eng verbunden mit der Diskussion um Fokussierung auf Kernkompetenzen. Insgesamt zeigte die Diskussion wohl auch durch die fehlende instrumentelle Unterstützung und ein Abgleiten in zu abstrakte Visionen wenig Wirkung. Die heutige Diskussion ist sehr viel pragmatischer und mehr an konkreten Nutzenpotentialen und Flexibilisierungsvorteilen orientiert.

32: Die Verfügbarkeit von Web Services signalisiert dem Kunden die gewünschte Offenheit, Flexibilität und Unabhängigkeit der Software-Instrumente und ist zu einem erstrangigen Investitionskriterium geworden.

33: Als Best-of-Breed oder Best-of-Class bezeichnet man bei der Beurteilung von alternativen ITAnwendungslandschaften die Strategie, das für den jeweiligen Bereich am besten beurteilte System zu installieren und den Aufwand und das Risiko der Implementierung notwendiger Schnittstellen zwischen den Systemen in Kauf zu nehmen. Da gerade das dadurch induzierte „Schnittstellenprojekt“ in der Vergangenheit häufig extrem kostenintensiv, risikoreich und im Ergebnis oft unbefriedigend war, haben sich bei integrierten Systemen Vorteile ergeben. Zur Entstehungszeit der integrierten ERP-Anwendungen bedeutete Integration vor allem Datenintegration über ein monolithisches relationales Modell. Mit der Entwicklung spezialisierter Kommunikationsserver und der Reife von Service-orientierten Architekturen hat sich das Argument für ein integriertes System unabhängig vom Cloud Computing abgeschwächt aber nicht aufgelöst. Außerhalb von Cloud Computing müssen jedoch selbst bei Lösung der Schnittstellenproblematik jeweils unterschiedliche Anwendungen und Datenbanken lokal installiert und gepflegt werden.

34: Diese „alte Welt“ ist bei Geschäftsanwendungen im Gegensatz zu „life style“-Anwendungen wie sie von Musikdiensten, sozialen Netzwerken usw. aber auch von eCommerce Anwendungen her bekannt sind, nach wie vor sehr ausgeprägt.

35: Hierbei ist die Gefahr der funktionalen Überfrachtung mit einhergehender Reduktion des Kundennutzens ein bedeutendes Problem der Hersteller. Funktionale Überladung mit sich verschlechternder Beherrschbarkeit und steigenden Entwicklungs- und Fehlerbehebungskosten ist z.T. Architektur- abhängig. Die Architektur unterliegt einem Evolutionsprozess, kann aber in den seltensten Fällen radikal erneuert werden. Tiefer greifende Limitationen der Komplexitätsbeherrschung bei wachsender Mächtigkeit der Systeme finden sich i.d.R. in der Modellierung von Funktionen und Daten. Radikale Verbesserungen an dieser Stelle können leicht eine Neuprogrammierung bedeuten.

36: Optimal muss nicht heißen dass es keine konkurrenzierende Überlappung funktionaler Komponenten gegeben muss. Gewährleistung von Stabilität ist ebenso ein Kriterium wie die Glaubwürdigkeit der Pflege des Biotops im Sinne des Kundennutzens.

 Scopevisio Preise

Über Rüdiger Wilbert

ist Aufsichtsratsvorsitzender der Scopevisio AG.

 

Jetzt 30 Tage kostenlos testen!

Ihre Testversion läuft automatisch aus.
Keine Kündigung erforderlich!

Cloud-Paper

Cloud-Computing - korrekt definiert

54.234.217.247200000https://www.scopevisio.com/clientx/edition: business https://www.scopevisio.com/ /unternehmen/cloud-paper/cloud-computing 2321 erp_business