IT-Infrastruktur und Speicher im Wandel

Nur Unternehmen, die ihre IT-Infrastruktur und ihre Storage-Strategie an den neuen Gegebenheiten der digitalen Business-Welt ausrichten, können den stets wachsenden Datenmengen gerecht werden. Die daraus entstehenden Anforderungen bilden erst die Grundlage für den Einsatz von State-of-the-Art-Technologien, mit denen Sie Mehrwert aus Big Data schöpfen und neue, erfolgversprechende Geschäftsmodelle entwickeln können. Erfahren Sie, wie Sie eine optimale IT-Infrastruktur und -Speicherumgebung planen und umsetzen.

Wie Sie den Grundstein für Innovation legen

  1. 1
    Mit Big Data Analytics, KI und Co. die Zukunft gestalten

    Aus Big Data strukturierte Daten erzeugen: Das geht am besten mit einem Mix aus hochentwickelter Analyse und Künstlicher Intelligenz. Das Ziel: nützliche Informationen finden, die Entscheidungsfindung unterstützen und Entscheidungen nachvollziehbar machen. Weiterlesen...

  2. 2
    Wie rasant sich das IoT im B2B-Bereich entwickelt

    Ein Großteil des weltweiten Datenvolumens wird heute schon von vernetzten Geräten, Maschinen und Sensoren erzeugt. Der industrielle und kommerzielle Einsatz von IoT-Devices wird weiter zunehmen. Zu den aktuellen IoT-Trends gehören Edge und Mesh Computing. Weiterlesen...

  3. 3
    Wie Sie die steigende Datenflut bewältigen und nutzen

    Aktuelle, datenintensive Technologien benötigen enorme Speicherkapazitäten. Ein Lösungsweg: die Kombination von Storage-Systemen und Cloud-Speicher. Außerdem: Schluss mit veralteten Systemen und IT-Infrastrukturen. Weiterlesen...

  4. 4
    Rechenzentrum heute: Software-basiert und Cloud-fähig

    Die Aufgaben eines modernen Rechenzentrums sind klar: riesige Datenströme problemlos verarbeiten und zwar unter der Prämisse von Datenschutz und  -sicherheit. Mittel zum Zweck: Virtualisierung, Software-basierte Plattformen, Cloud-Einbindung, Konvergenz. Weiterlesen...

  5. 5
    Die richtige Storage-Strategie für Ihr Datenkapital

    Für die Entwicklung Ihres Digitalgeschäfts und für die konsequente Nutzung ihres Datenkapitals benötigen Unternehmen eine effiziente Storage-Strategie. Zur Wahl stehen unterschiedliche Technologien für verschiedene Speicheranforderungen. Weiterlesen...

  6. 6
    Speichertechnik für heute und morgen: All-Flash Array & SDS

    Zum einen: Was genau ist ein All-Flash Array? Wie grenzt es sich von anderen Technologien ab? Und vor allem, welche Vorteile hat es? Zum anderen: Was bietetSoftware-defined Storage im Kontext von Big Data, IoT und KI? Was sind die wichtigsten SDS-Trümpfe? Weiterlesen...

  7. 7
    Mittel und Wege zur Transformation Ihrer IT-Organisation

    Wer die digitale Transformation mitsamt ihren begleitenden Technologien konsequent leben will, muss mit der Transformation seiner IT-Organisation beginnen. Der Lohn: neue Geschäftsmodelle, zusätzliche Mehrwerte und optimierte Kundenerfahrung. Weiterlesen...

  8. 8
    Welches Cloud-Modell für Sie die passende Lösung ist

    Cloud ja oder nein ist kaum mehr die Frage, sondern: Welches Cloud-Modell soll es sein? Public, Private, Hybrid und Multi-Clouds sind an unterschiedliche Bedingungen und Nutzungsmodelle geknüpft. Wichtig: Welche Workloads können getrost in die Cloud verlagert werden? Weiterlesen...

  9. 9
    Wie Hyperkonvergenz Ihre Workloads unterstützt

    Eine hyperkonvergente Infrastruktur (HCI) ist die richtige Wahl, wenn rasch eine Cloud-Infrastruktur aufgebaut und ein Mix aus unterschiedlichen, auch geschäftskritischen Workloads ausgeführt werden sollen. Allerdings unterliegt die Nutzung von HCI auch diversen Einschränkungen. Weiterlesen...

  10. 10
    Wenn der Budget-Schuh drückt

    Sie wollen Ihre IT-Infrastruktur so schnell wie möglich auf den aktuellen Stand bringen – aber Ihr Budget ist längst erschöpft? Mit dem richtigen Partner müssen Sie dennoch nicht auf die Vorteile von State-of-the-Art-Technologien verzichten. ​Weiterlesen...

  1. Downloads

Sie sind bereits firm im Thema IT-Infrastruktur und Storage-Strategie im Digitalisierungszeitalter? Dann überspringen Sie diesen Part und erkunden Sie die vielfältigen Chancen und Möglichkeiten durch den Einsatz von Künstlicher Intelligenz im Unternehmen.

Mit Data Analytics, KI & Co. die Zukunft gestalten

Aus dem Daten-Knäuel Big Data ein wertvolles Asset aus strukturierten Daten zu erzeugen, erfordert komplexe Analyseverfahren und intelligente Mechanismen. Wesentliche Ziele: nützliche Informationen finden, die Entscheidungsfindung unterstützen und Entscheidungen nachvollziehbar machen. Und vor allem: das Datenkapital als moderne Form von Vermögenoptimal für den unternehmerischen Erfolg einsetzen.

Beste Voraussetzung für die zukunftsorientierte Ausschöpfung des Datenpotenzials ist die Kombination bewährter Analytics-Methoden mit Künstlicher Intelligenz (KI). So lassen sich in großen Datenmengen Muster erkennen und Daten so segmentieren, dass daraus wertvolle Informationen werden – und damit gewinnbringendes Datenkapital.

Datenkapital mit Mehrwert und für Wettbewerbsvorteile

Im Jahr 2021 soll die Hälfte des weltweiten Bruttoinlandsprodukts auf digitaler Ebene erschlossen werden. Maßgeblichen Anteil daran haben jene Industrien, die von digitalisierten Services, Prozessen und Partnerschaften getrieben sind. Speziell der Einsatz von intelligenten Applikationen auf Basis von Künstlicher Intelligenz – und deren Unterkategorien Machine Learning und Deep Learning – wird maßgeblich verändern, wie Verbraucher und Unternehmen arbeiten, lernen und Unterhaltungsangebote wahrnehmen.

Daten nehmen dabei eine essenzielle Rolle ein: Sie sind eine neue Form des Kapitals. In Sachen Business-Wertigkeit bewegen sich Daten dabei auf Augenhöhe mit Finanzkapital und neuen digitalen Produkten und Services. Sie verkörpern Vermögen (in Form von Mehrwert, der aus Unternehmensdaten generiert wird) und können wie physische Assets auch langfristig Mehrwert erzeugen.

Die Art und Weise, wie die Gesellschaft im Allgemeinen mit Daten umgeht, hat sich fundamental verändert: von konsumorientiert hin zu produktiv, von unternehmensfokussiert zu individuell, von selektiv zu ubiquitär, von lebensverlängernd zu lebensnotwendig. Egal ob strukturiert, unstrukturiert, von Menschen oder Maschinen generiert, in der Cloud oder dem Rechenzentrum: Daten sind die neue Grundlage für mehr Wettbewerbsfähigkeit.

Das zeigt etwa das Beispiel des US-Mobilfunk-Providers Sprint, der sich mit Hilfe neuer Technologien gegen vermeintlich übermächtige Konkurrenten behauptet. Das Mittel der Wahl ist hierbei vor allem die Datenanalyse, mit deren Hilfe der Anbieter die Customer Experience mit Nachdruck optimieren will.

Erfahren Sie, wie Sie Ihre Daten zu Kapital machen, welche Herausforderungen Sie dafür bewältigen müssen und wie Dell EMC Sie dabei unterstützen kann. Nutzen Sie das Whitepaper „Unlock the Power of Data Capital: Accelerate DX“ für detaillierte Informationen.

New call-to-action

Big Data: breite Basis der neuen Informationsära

Big Data steht für die Sammlung, Verarbeitung und Analyse großer Mengen an computergenerierten, personenbezogenen, öffentlichen und geostationären Daten. Diese Daten stammen vorwiegend:

  • aus Bereichen wie Internet und Mobilfunk, Finanzindustrie, Energiewirtschaft, Gesundheitswesen und Verkehr und
  • aus Quellen wie intelligente Agenten, Smart Devices, Smart Sensors, soziale Medien, Kredit- und Kundenkarten, Smart-Metering-Systeme, Assistenzgeräte, Überwachungskameras sowie Flug- und Fahrzeuge.

Diese Daten werden mithilfe spezieller Lösungen gespeichert, verarbeitet und ausgewertet. Big Data ist die Quelle neuer Wertschöpfung und ermöglicht tiefe Einblicke in menschliche und gesellschaftliche Bedürfnisse sowie wirtschaftliche und unternehmensbezogene Zusammenhänge.

Von Big Data zu Big Data Analytics

Big Data ist vor allem für den Bereich der Business Intelligencerelevant, der sich mit der Analyse von Daten – Datenerfassung, Datenauswertung, Datendarstellung – befasst. (Big) Data Analytics ist somit Mittel zum Zweck: Dedizierte Data Software sorgt für die intelligente und systematische Aufbereitung und Nutzung immer größer werdender Datenmengen. Diese Software Suites umfassen im Gegensatz zu herkömmlichen Software-Lösungen besondere Funktionen und Techniken:

  • parallele Verarbeitung vieler Datensätze
  • schneller Import von Daten
  • schnelle Suche und Abfrage von Daten
  • gleichzeitige Bearbeitung mehrerer Abfragen
  • Analyse unterschiedlicher Informationstypen

Mit Predictive Analytics in die Zukunft schauen

Predictive Analytics – die „vorausschauende Analyse“ – dient dazu, die Wahrscheinlichkeit zukünftiger Ergebnisse auf der Grundlage historischer Daten zu prognostizieren; und zwar mithilfe von Daten, statistischen Algorithmen und maschinellem Lernen. Ziel ist es, anhand einer Analyse vergangener Ereignisse bestmöglich vorherzusagen, was in Zukunft geschehen wird.

Predictive Analytics ist ein Teilbereich von Business Intelligence (BI) und Business Analytics. Business Intelligence beschäftigt sich hauptsächlich mit den Ereignissen in der Vergangenheit und deren Auswirkungen auf die Gegenwart. BI beantwortet Fragen zum Geschehen (Was ist wann passiert?), zur Menge, Häufigkeit oder den Ursachen eines Ereignisses.

Business Analytics (BA) erweitert BI um den Blick in die Zukunft und setzt vor allem auf statistische Analysen von Unternehmensdaten. BA gibt Antworten auf die Fragen nach den Gründen, Auswirkungen, Wechselwirkungen oder Folgen von Ereignissen. Zudem ist es möglich, Szenarien durchzuspielen und Handlungsalternativen aufzuzeigen: Was geschieht, wenn wir an dieser oder jener Stellschraube drehen?

Um den Planungsprozess im Unternehmen zu verbessern, nutzt Business Analytics diverse Analyse-Tools. Eines davon ist prädiktive Analyse: Statt nur die bestehende Situation zu analysieren, versucht diese Methodik mit Hilfe von Datenmodellen Vorhersagen über mögliche Ereignisse in der Zukunft zu treffen. Dabei besteht eine enge Verbindung mit Data Mining.

Data Mining meint im übertragenen Sinne das „Schürfen von Daten“. Es versucht, mit Hilfe anspruchsvoller statistischer und mathematischer Verfahren beziehungsweise Algorithmen verborgene Muster, Trends und Zusammenhänge in großen Datenmengen zu erkennen.

Data Mining nutzt auch neuronale Netze, die der Arbeitsweise des menschlichen Gehirns ähneln und über viele Datendurchläufe bestehende Strukturen oder Muster lernen. Daher ist Data Mining eng verwandt mit maschinellem Lernen, es hat also große Nähe zu Anwendungen und Methoden, in denen Computerprogramme selbstständig neues Wissen erwerben.

Ein Anwendungsbeispiel von Predictive Analytics aus dem Industriebereich ist Predictive Maintenance: Der Begriff lässt sich mit „vorausschauende Wartung“ übersetzen und ist eine der Kernkomponenten von Industrie 4.0. Grundlage ist ein vorausschauender Ansatz für eine proaktive Wartung von Maschinen und Anlagen. Das ermöglicht es, Ausfallzeiten niedrig zu halten.

business_analytics

Künstliche Intelligenz als Motor der Digitalisierung

Künstliche Intelligenz (KI) befasst sich mit der Automatisierung von „intelligentem“ Verhalten und dem maschinellen Lernen. KI wird nicht programmiert, sondern beruht auf Training aus der Erfahrung heraus. Mittlerweile gibt es Algorithmen, die dem menschlichen Gehirn nachempfunden sind, dabei aber 25.000 Mal schneller sind. Damit ist es theoretisch möglich, eine KI in nur wenigen Sekunden auf den gewünschten Wissensstand zu bringen.

Künstliche Intelligenz kann selbstständig Muster erkennen, sich selbst verbessern und die Arbeit eigenständig besser organisieren. Sie wird zum Beispiel in Form dieser kognitiven Technologien eingesetzt:

Machine Learning oder maschinelles Lernen: Das ist die Fähigkeit von Computersystemen, ihre Leistung eigenständig durch gezielte Sichtung und Analyse von Daten zu verbessern, ohne dabei explizit programmierten Anweisungen folgen zu müssen. Das Konzept verfolgt Muster, um Assoziationen und Erkenntnisse aus Daten zu identifizieren und aus Erfahrung zu lernen. Machine Learning ist eine Kernmethode der Künstlichen Intelligenz: Das Internet of Things sorgt für die kritische Masse an Daten, die das maschinelle Lernen für effizientes Arbeiten benötigt.

Deep Learning ist ein angrenzender Forschungsbereich des maschinellen Lernens. Hier kommen künstliche neuronale Netzwerke mit vielen Schichten zum Einsatz – daher die Bezeichnung „tief“. Die biologischen Vorgänge des menschlichen Denkens und Lernens – Aktivierung von Neuronen, chemische Veränderung von Synapsen und weiteres – werden in Software oder Hardware „übersetzt“. Beim Deep Learning – dem verstärkenden & vielschichtigen Lernen – geht es darum, die Grenzen der Maschinenfähigkeiten zu erweitern, um Objekte und Gesichter zu erkennen und Sprache zu verstehen und zu generieren.

Predictive Analytics oder prädiktive Analyse: die bereits oben skizzierte Methode, mithilfe von Datenmodellen Vorhersagen für die Zukunft zu treffen und gleichzeitig Handlungsempfehlungen zu geben, um die Eintrittswahrscheinlichkeit prognostizierter Ereignisse zu beeinflussen.

 Automatische Spracherkennung erleichtert schon heute die Kommunikation zwischen Mensch und Maschine, ist aber noch ausbaufähig. Die Fähigkeit, menschliche Sprache automatisch und akkurat zu erkennen und zu transkribieren, ist bereits gegeben, doch Sprache überträgt auch Stimmungen und Subtexte, die intelligente Technologie heute noch nicht erkennt.

machine_lerning

Auf Basis von KI attraktive Geschäftsmodelle erschließen

Künstliche Intelligenz bietet Unternehmen eine hervorragende Chance, das eigene Geschäft zu optimieren – und schickt sich an, ganze Branchen neu zu ordnen. Doch die Herausforderungen sind groß. Die wichtigste Frage lautet: Welche Voraussetzungen muss KI erfüllen, um einen Mehrwert für Unternehmen zu schaffen? Intelligente Algorithmen allein reichen dafür nicht aus. KI muss in einem menschlichen Bezugsrahmen stehen, um Entscheidungen im Unternehmen auf einem viel höheren Niveau als bislang vorzubereiten, zu prüfen und umzusetzen.

Egal ob Bankwesen, Maschinenbau, Unterhaltungsbranche oder IT-Industrie – zahlreiche Unternehmen erproben derzeit in diversen Bereichen den Einsatz von KI. Etwa der weltweit vernetzte Online-Händler Amazon, für dessen Geschäftsmodell große Mengen teurer Rechenleistung nötig sind. Deshalb nutzt der Konzern intelligente Systeme, die das Volumen der Bestellungen so exakt feststellen, dass sie in jedem Moment die ausreichende Rechenleistung zuteilen – nicht weniger, aber auch nicht mehr.

Beim Telekommunikationskonzern Vodafone sind Chatbots in der Lage, Anrufer an ihrer Stimme wiederzuerkennen. Der Software-Roboter weiß, mit wem er zuvor schon einmal telefoniert hat, und kann den anrufenden Kunden sofort einordnen und individuell bedienen.

Der Einsatz von automatisierten Verfahren in der Fertigung, der Verwaltung oder dem Finanzwesen ist nicht neu – hier handelt es sich aber meist nicht um KI, sondern in der Regel um Robotic Process Automation (RPA). Dabei werden Abläufe lediglich von einer Software gesteuert. Diese können hochkomplex sein, doch sie laufen stets gleich ab. Was hier fehlt – aber auch nicht benötigt wird – ist das intelligente Moment.

Die Ziele der Unternehmen sind meist ähnlich: Künstliche Intelligenz soll nicht nur Abläufe im Unternehmen effizient steuern oder verwalten. Ihre Aufgabe soll es auch sein, Entscheidungen eines Tages schneller, präziser und zuverlässiger zu treffen als der Mensch. So formuliert es die Analysten- und Consulting-Firmengruppe Deloitte. Doch bis dahin sei es noch ein weiter Weg. Denn intelligente Maschinen müssen sich auf den Menschen einstellen können, um ihre Vorzüge ausspielen zu können:

  • Maschinen müssen die individuellen Bedürfnisse ihrer Nutzer in der jeweiligen Situation kennen.
  • Es muss klar sein, wann der Mensch die Kontrolle von der Maschine übernehmen muss.
  • Maschinen müssen Feedback-Schleifen vermeiden. Dieses Phänomen tritt auf, wenn Maschinen nur das vorfinden, was sie aufgrund der zuvor verarbeiteten Daten erwarten – und nicht das, was wirklich passiert.
New call-to-action

Wie rasant sich das IoT im B2B-Bereich entwickelt

Ein Großteil des weltweiten Datenvolumens wird heute schon von vernetzten Geräten, Maschinen und Sensoren erzeugt. Der industrielle und kommerzielle Einsatz von IoT-Devices wird weiter zunehmen. Zu den anderen aktuellen IoT-Trends gehören Edge & Mesh Computing und Sensorik-Innovationen.

78 Prozent der Unternehmen in der DACH-Region denken, dass das Internet of Things (IoT) bis Ende 2020 wichtig bis sehr wichtig sein wird. Das ist das Ergebnis einer IDG-Studie von Computerwoche, ChannelPartner, CIO und TecChannel mit Device Insight als Partner. Eine weitere Einschätzung aus Expertensicht: Die Analysten von Gartner betrachten das Industrial Internet of Things (IIoT) für die Smart Production als eines der wichtigsten IoT-Trendthemen im Jahr 2019 und in den nachfolgenden Jahren. Für 2019 rechnen sie mit 14,2 Milliarden vernetzten Dingen, bis 2021 sollen es sogar 25 Milliarden sein.

Viele der derzeit promoteten Lösungen rund um IoT kreisen um vernetzten Transport, Produktion, Gesundheitswesen, Energie und Versorgung sowie Gebäude und Infrastruktur. Gerade im B2B-Umfeld gewinnt das Internet of Things deutlich an Bedeutung. Das deckt sich auch mit Erwartungen von IDC und Seagate: Der Consumer-Anteil am weltweiten Datenvolumen wird weiter zurückgehen, um vom wachenden Strom der Daten aus der vernetzten Welt der Dinge überflügelt zu werden. Der Anstieg des B2B-Anteils bleibt also IoT-Thema für 2019 und darüber hinaus.

Vorteile und Herausforderungen von IIoT

Das Industrial Internet of Things (IIoT) stellt die industrielle Ausprägung des Internet of Things (IoT) dar. Die IIoT-Technologie hat im Wesentlichen die Aufgabe, Produktionsprozesse zu steuern und zu überwachen. Eine zentrale Rolle spielen Sensoren beziehungsweise Sensordaten, welche die Datenbasis für Automation und selbstlernende Maschinen liefern.

Der Grundgedanke hinter dem Industrial Internet of Things ist ebenso einfach wie bestechend: Smarte Maschinen sind schneller, exakter, kostengünstiger und effizienter als der Mensch. Da für die Realisierung des IIoT große Datenmengen anfallen und diese in hoher Geschwindigkeit zu verarbeiten sind, spielen Big-Data-Technologien und -Anwendungen eine wichtige Rolle. Das industrielle Internet der Dinge kombiniert zwei verschiedene Welten:

  • Cyber-Physische Systeme in der Fertigung, etwa Sensoren, eingebettete Systeme in Maschinen und deren Komponenten, die über industrielle Kommunikationskanäle Daten für den Betrieb empfangen und aus dem Betrieb liefern.
  • IT-Systeme für das Management des Produktlebenszyklus, zur Ressourcen-Planung, Kundenauftragsverwaltung oder als Entscheidungsunterstützung; außerdem Cloud Computing in Form von Infrastruktur-, Plattform- oder Software-as-a-Service (IaaS, PaaS oder SaaS).

Ein Großteil der IoT- und IIoT-Lösungen ist Cloud-basiert. Das erleichtert den vernetzten Betrieb: Industrie-und Produktionsunternehmen erhalten so die Möglichkeit, Daten von angeschlossenen Sensoren und Geräten einfach zu erfassen. Diese Daten können wiederum mit Daten und Informationen aus Geschäftssystemen und von Mitarbeitern kombiniert werden. Eine derart umfassende Transparenz ermöglicht Anpassungen und Optimierungen in Echtzeit. Entscheidungen lassen sich mit Bezug auf die IoT-/IIoT-Quellen, deren Umfeld oder auf ein ganzes System verifizieren und präzisieren.

Industrielle Anforderungen an IoT-Systeme

Gegenüber dem Internet der Dinge aus der Welt der Konsumgüter hat die Produktion weitergehende Anforderungen an IoT-Systeme, insbesondere:

  • hohe Bandbreite, um Daten in der erforderlichen Menge und Geschwindigkeit zu übertragen
  • niedrige Latenzzeiten, damit auch echtzeitrelevante Prozesse effizient ablaufen können
  • Standard-Datenformate, damit die vielen Geräte unterschiedlicher Hersteller miteinander kommunizieren und deren Daten integriert werden können
  • IT-Sicherheit, um Know-how vor unbefugtem Zugriff und Geräte vor unzulässigem Zugang zu schützen
  • hohe Verfügbarkeit der Services, zum Beispiel zur Berechnung von Key Performance Indicators (KPI) wie Taktzeiten oder Stillstände, damit diese den Anwendern permanent zur Verfügung stehen

Die Vorteile des Industrial Internet of Things

Durch eine konsequente Umsetzung der Konzepte und Technologien des Industrial Internet of Things ergibt sich eine ganze Reihe von Vorteilen:

  • höhere betriebliche Effizienz und Kostensenkung in der Produktion und beim Transport materieller Güter
  • Erschließen neuer Geschäftsfelder, Realisierung neuer Geschäftsmodelle
  • Beschleunigung und Automatisierung von Produktionsprozessen auf Basis der erhobenen und verarbeiteten Daten
  • flexible Anpassung von Produktionsprozessen an sich verändernde Anforderungen in Echtzeit im laufenden Betrieb
  • Selbstüberwachung von Maschinen, wann eine Wartung erforderlich ist
  • gegebenenfalls Erledigung der Wartung durch die Maschine selbst
  • Reduktion von Störungen und Produktionsunterbrechungen
  • Steigerung des Durchsatzes und der Produktionskapazität
  • verbesserte Sicherheit für Mensch und Maschinen in der Produktionsumgebung

Die wichtigsten Herausforderungen beim IIoT

Das Industrial Internet of Things bringt aber auch einige Herausforderungen mit sich:

  • erhöhter (Zeit-)Aufwand für Verwaltung und Betrieb vieler verschiedener vernetzter Geräte
  • häufiges Updaten der Software und Firmware aus Sicherheitsgründen
  • einfaches Patchen der Software in einigen Bereichen nicht ausreichend
  • zusätzlicher Aufwand für die Absicherung des IIoT
  • Inkompatibilität von IIoT-Geräten wegen fehlender Standards und herstellerspezifischer Protokolle
  • Aufwändiges Bereitstellen von Big-Data-Datenbanken und Analytics für die Verarbeitung, Absicherung und Speicherung der anfallenden Daten
  • damit einhergehend wachsende Gefahr von Sicherheitslücken und Datenlecks

Edge Computing meets Mesh Computing

Nach Cloud Computing und Fog Computing folgt Mesh Computing, schrieb Gartner Research Director René Büst in einem Gastbeitrag für die Computerwoche und sieht darin einen möglichen Ansatz, die drohenden Engpässe wegen der wachsenden IoT-Datenmenge zu durchbrechen. Mesh Computing mit „vermaschten“ Netzen, in denen jeder Netzwerkknoten mit einem oder mehreren anderen verbunden ist, treibt den sich vehement abzeichnenden Trend von Cloud Computing zu Edge Computing mit der dezentralen Datenverarbeitung praktisch auf die Spitze.

Die Schichten, die mit der Kernarchitektur verbunden sind, werden sich zu einer umstrukturierten Architektur entwickeln, die aus einem breiten und vernetzten Spektrum aus „Dingen“ (Things) und Diensten besteht. Der Vorteil ist, dass IoT-Geräte nun direkt miteinander kommunizieren können und nicht mehr über das Internet. Fällt ein Knoten aus, wird die Datenübertragung innerhalb des Mesh-Netzwerks nicht beeinträchtigt. Derweil wird Edge Computing auch immer wichtiger, um die Grenzen der Cloud zu überwinden – intelligenter wird es dank Machine Learning und KI-Algorithmen auch.

Edge-Computing

Neue Sensoren und Chip-Innovationen

Laut Gartner werden in den meisten IoT-Endpunkten noch herkömmliche Prozessoren-Chips verwendet, allen voran stromsparende ARM-Prozessoren. Traditionelle Speicherarchitekturen eignen sich aber nicht für alle Aufgaben, welche die Endpoints zu erfüllen haben. Deep Neural Networks (DNNs) sind nach Ansicht von Gartner zum Beispiel weniger durch die Rechenleistung als durch die Speicherbandbreite begrenzt. Neue Spezial-Chips könnten den Stromverbrauch von DNNs senken. CIOs sollten Gartner zufolge dabei vor allem den Blick auf die Silizium-Chips lenken, weil die eingebetteten KI-Funktionen neue innovative Produkte ermöglichten.

Governance, Ethik und Sicherheit

Die drei Trendthemen Governance, Ethik und Sicherheit gewinnen vor dem Hintergrund der EU-weiten Datenschutz-Grundverordnung (DSGVO), der zunehmenden Verbreitung von sozialen Netzwerken, Industriespionage und anderen Bedrohungen immer mehr an Bedeutung. „Der erfolgreiche Einsatz einer IoT-Lösung erfordert, dass sie nicht nur technisch effektiv, sondern auch sozial akzeptabel ist“, meint Gartner Research Vice President Nick Jones.

Die IoT-Governance betrifft die angemessene Erstellung, Speicherung und Nutzung der aus den IoT-Anwendungen gewonnenen Informationen, wobei die CIOs – Jones zufolge – auch aufklärerisch tätig sein sollten. Vertrauensvolle (Trusted) Hardware und Betriebssysteme werden schließlich auch immer wichtiger, weil Unternehmen, die IoT-Systeme einsetzen, das Thema Sicherheit ganz oben ansetzen. Gartner erwartet, dass bis 2023 IoT-Systeme durch eine Kombination von Hardware und Software zuverlässiger und sicherer werden.

Apropos Sicherheit: Das Internet der Dinge scheint sich vor allem im Consumer-Umfeld immer noch sehr chaotisch zu entwickeln. Die IT-Security bleibt dabei aber teilweise noch auf der Strecke. Im B2B-Segment müssen aber die höchsten Sicherheitsanforderungen gelten, denen sich alle Player verpflichten sollten. Daher werden Standards im IoT- und IIoT-Umfeld immer wichtiger.

Wie Sie die steigende Datenflut bewältigen & nutzen

Die IDC-Studie „The Digitization of the World“ gewährt einen Ausblick darauf, was die rasant fortschreitende Digitalisierung der Welt mit sich bringt. Derzeit hat die globale „Datensphäre“ ein Volumen von circa 33 Zettabyte – bis zum Jahr 2025 soll die weltweite Datenmenge allerdings auf mehr als 175 Zettabyte anwachsen. Fast zwei Drittel dieser Datenmenge werden von Unternehmen generiert.

Das hat Folgen für die Storage-Infrastruktur in den Rechenzentren dieser Unternehmen. Datenintensive Aufgaben wie Machine Learning oder das Internet of Things stellen gänzlich neue Anforderungen an Latenzzeiten und Storage-Kapazitäten – die Nachfrage nach entsprechenden Lösungen steigt dementsprechend. Das branchenübergreifende Streben nach umfassender Digitalisierung forciert diesen Trend weiter. Neue digitale Geschäftsmodelle sowie innovative Produkte und Services basieren auf den Daten, die Unternehmen erfassen, speichern und mithilfe von Big-Data- und Analytics-Lösungen auswerten – idealerweise in Echtzeit.

On-Premises- und Cloud-Ressourcen richtig kombinieren

Die Kombination aus Speicher-Ressourcen im eigenen Rechenzentrum und Storage-Kapazitäten in der Cloud ist heute aus Sicht fast aller Beratungshäuser und IT-Dienstleistungsunternehmen „State of the Art“. Das rührt auch daher, dass sich etwa Public-Cloud-Dienste optimal mit vorhandenen IT-Systemen in Rechenzentren zu Hybrid-Plattformen kombinieren lassen – wobei auch die Speichersysteme nicht außen vorbleiben. Ohne die Ergänzung von Storage-Systemen durch Cloud-Speicher ist der „Daten-Tsunami“ der kommenden Jahre nach Einschätzung von Experten schlicht nicht zu bewältigen.

Doch trotz des Trends hin zur Public Cloud als Datenspeicher haben Storage-Systeme und Storage Area Networks (SANs) im Unternehmensrechenzentrum immer noch ihre Berechtigung. Ein Grund ist der Schutz sensibler Geschäftsdaten, die im Regelfall in besonders gesicherten Inhouse-Rechenzentren gespeichert werden.

Dieser Umstand spricht für Multi-Cloud-Architekturen – die allerdings den Nachteil haben, dass solche Infrastrukturen eine besonders durchdachte, strategische Planung erfordern und dazu höchst komplex sind. Unternehmen, die nicht das nötige Know-how für ein solches Vorhaben mitbringen, tun deshalb gut daran, auf einen Managed-Service-Provider zurückgreifen, der den Betrieb einer Multi-Cloud-Umgebung mit ihrer Vielzahl von Servern und Storage-Komponenten zuverlässig stemmen kann.

Zielgerichtetes Speichern von Informationen kann außerdem dabei helfen, den Zugang zu relevanten Daten zu beschleunigen. Diese Entwicklung erfordert jedoch auch Storage-Lösungen, die eine entsprechende Performance vorweisen können. Dazu zählen beispielsweise In-Memory-Lösungen, die Daten in RAM-Bausteinen speichern und dadurch den Zugriff auf unternehmenskritische Daten beschleunigen.

Der Einfluss von Big Data und Machine Learning

Big-Data- und Machine-Learning-Lösungen sowie der wachsende Bedarf an Echtzeit-Daten haben Auswirkungen auf das Rechenzentrum der Zukunft – und die Storage-Strategien von Unternehmen. Nach Einschätzung von John Roese, CTO und Präsident von Dell EMC, und Glen Robson, Senior Vice President of Client Innovation von Dell Technologies, wird sich ein Datacenter künftig über mehrere Ebenen verteilen: On-premises, die Cloud und der Netzwerkrand. Die Kombination von Public, Private und Hybrid Clouds ermöglicht es Unternehmen, maßgeschneiderte Rechenzentren für jeden Zweck zu nutzen.

Hinzu kommen Public-Cloud-Instanzen, die in großem Maßstab Speicher- und Server-Kapazitäten sowie KI-basierte Big-Data- und Analyse-Applikationen bereitstellen. Einem solchen Multi-Tier-Cloud-Modell gehört nach Einschätzung von Dell die Zukunft.

Erfahren Sie, wie andere namhafte IT-Entscheider und -Experten dieses Thema einschätzen. Klicken Sie dazu hier.

New call-to-action

Schluss mit veralteten Technologien und Ineffizienzen

In eine datengetriebene Zukunft können allerdings nur solche Unternehmen durchstarten, auf deren Schultern keine technologischen Schulden lasten. Gemeint sind damit veraltete Technologien beziehungsweise Legacy-IT-Infrastrukturen, die mehr Kosten als Nutzen bringen und den aktuellen Anforderungen an Business-Geschwindigkeit, Skalierbarkeit und Flexibilität in keiner Weise gerecht werden.

Durch die Modernisierung ihrer IT-Infrastruktur können Unternehmen wertvolle finanzielle und personelle Ressourcen freisetzen, die dann zum Beispiel für Innovationsprojekte eingesetzt werden können. Eine aktuelle IDG-Research-Studie kommt zu dem Ergebnis, dass 57 Prozent der deutschen Unternehmen die Modernisierung veralteter IT-Infrastrukturen als Voraussetzung für eine erfolgreiche, digitale Transformation betrachten.

Ganz zu schweigen von den Einsparungen und Effizienzsteigerungen, die dadurch in Aussicht stehen: Bis zu 32 Prozent des jährlichen IT-Budgets können Unternehmen laut IDC im Schnitt sparen, wobei zugleich die Effizienz des IT-Teams um bis zu 35 Prozent nach oben schießt.

Die Last der technologischen Altlast

Eine globale Umfrage unter knapp 4.000 IT-Entscheidern der Enterprise Strategy Group (ESG) legt nahe, dass „transformierte“ Organisationen im Durchschnitt fast die Hälfte ihres jährlichen IT-Budgets in Innovationen investieren. Unternehmen mit technologischen Altlasten schneiden an dieser Stelle deutlich schlechter ab. „Außerdem waren die Befragten aus transformierten Organisationen um das 2,5-fache zuversichtlicher als die Umfrageteilnehmer aus Legacy-Unternehmen, dass ihr Unternehmen auch für die kommenden Jahre sehr wettbewerbsfähig bleiben würde“, so ESG.

Dennoch stellen die Analysten fest: „Selbst transformierte IT-Organisationen werden daran gemessen, ob sie die Kosten niedrig halten und Projekte ohne Überschreitung des festgesetzten Budgetrahmens umsetzen können.“ IT-Führungskräfte müssen deshalb den Return on Investment (ROI) aller Ausgaben stets im Blick haben. Denn so verlockend es auch ist, „frei“ in Innovationen zu investieren: Eine intransparente Budgetierung zieht höchstwahrscheinlich Katastrophen nach sich.

Keine Modernisierung ohne Aufwand

Die Modernisierung von Legacy-Systemen lässt sich allerdings nicht einfach per „Lift-and-Shift“ erledigen. Heutige IT-Infrastrukturen müssen in der Lage sein, zuverlässig mit mehreren Cloud-Instanzen zu interagieren. Die Planung von Ressourcen-Investitionen und Bereitstellungsmodellen erfordert Sichtbarkeit, Transparenz und die Möglichkeit, Workload- und Performance-Daten auszutauschen, um Entscheidungen auf Basis von Informationen aus der Praxis treffen zu können.

Das kann Unternehmen dabei helfen, sich zu transformierten Entitäten zu entwickeln, die erheblich weniger für geschäftskritische Anwendungen ausgeben als Legacy-Unternehmen, obwohl sie deutlich mehr Anwendungen dieser Art einsetzen.

Erfahren Sie mehr über die konkreten Vorteile einer Legacy-Modernisierung und erhalten Sie weitere essenzielle Studienerkenntnisse – per Klick auf den nachfolgenden Button.

New call-to-action

Ineffizienzen erkennen & eliminieren

Unternehmen, die künftig verstärkt auf digitale Services setzen möchten, sind sich in den meisten Fällen bewusst, dass Ineffizienzen im Rechenzentrum, ein Mangel an IT-Ressourcen und veraltete Hardware ihre Wettbewerbsfähigkeit stark einschränken. Schließlich müssen die gestiegenen Workload-Anforderungen auch abbildbar sein.

Wenn dabei auch Technologien wie Data Analytics, das Internet of Things oder Künstliche Intelligenz zum Einsatz kommen sollen, verstärken sich die Probleme noch, die durch unzureichende Speicher-, Netzwerk- und Rechenleistung bestehender Infrastrukturen aufgeworfen werden. IT-Entscheider müssen deshalb wesentliche Ineffizienzen erkennen und im Zuge einer umfassenden Rechenzentrumsmodernisierung beseitigen.

Warum es nicht immer empfehlenswert ist, eine Rechenzentrumsmodernisierung im Alleingang zu stemmen, welche Probleme dabei entstehen und wie Sie Ihre Modernisierung in einen datengestützten Prozess verwandeln. Finden Sie es heraus …

New call-to-action

Rechenzentrum heute: Software-basiert und Cloud-fähig

Um neue digitale Einnahmequellen in Form von Services erschließen, intelligentere Produkte entwickeln und die Customer Experience nachhaltig optimieren zu können, ist ein modernes Rechenzentrum unabdingbar. Dabei stellt sich die Frage, welche Funktionen, Fähigkeiten und Technologien dem Datacenter das Attribut „modern“ verleihen. Zur Klärung dessen ein Blick auf unterschiedliche Datacenter-Ausprägungen.

Verteiltes Rechenzentrum:

  • Teile eines funktional einheitlichen Rechenzentrums sind an verschiedenen Orten untergebracht.
  • Die Räume können sich innerhalb eines größeren, multifunktionalen Gebäudes, in getrennten Abschnitten in einem insgesamt als Datacenter genutzten Gebäude oder in unterschiedlichen Gebäuden an verschiedenen Orten befinden.
  • Alternativer Begriff: Distributed Datacenter

Container-Rechenzentrum:

  • Das gesamte Datacenter-Equipment befindet sich in einem mobilen Container, der meist in Vollausstattung geliefert wird.

Notfall-Rechenzentrum:

  • Die Ressourcen des primären IT-Zentrums werden von einem zweiten Datacenter synchron oder asynchron gespiegelt.
  • Die geografische Distanz ist bei asynchroner Spiegelung heutzutage unerheblich. Bei synchroner Spiegelung sollten Distanzen von rund 100 Kilometern zum Notfall-RZ nicht überschritten werden, weil sonst die Latenz durch die erforderliche Übertragungsdauer zu groß wird.
  • Ein Public-Cloud-Datacenter eignet sich ebenfalls als Notfall-Rechenzentrum.
  • Alternative Begriffe: Ersatz-Rechenzentrum, Disaster-Recovery (DR)-Datacenter, DR Location.

Rechenzentrumstyp nach IT-Bereitstellungsform:

Abhängig von den angebotenen Diensten und davon, ob der IT-Dienstleister unternehmensintern oder -extern arbeitet, werden mehrere Datacenter-Typen unterschieden.

  • Externes Rechenzentrum, deren Betreiber Services für Kunden bereitstellt: Dienstleistungsrechenzentrum oder Service-Rechenzentrum.
  • Unternehmenseigenes Rechenzentrum: Inhouse-Rechenzentrum, Inhouse Datacenter.

Server, Speicher und Netzwerk als Triangel

Die klassischen Ressourcen, Server, Speicher und Netzwerk, bilden das Herz eines Datacenters und sind in vielfältigen Varianten verfügbar. Dabei stehen aber immer folgende Prämissen im Vordergrund: Flexibilität, Skalierbarkeit, Leistung, Verfügbarkeit, Kosteneffizienz und Sicherheit.

Die wichtigste Aufgabe einer modernen Datacenter-Infrastruktur ist es als optimale Plattform für Analyse und Entwicklung, Big Data und Cloud zu fungieren. Dazu sind die Server-Systeme in den meisten Fällen auch mit Netzwerken und Speicherlösungen verknüpft. Wichtige Anforderung im Anwendungsbereich: die effiziente Abdeckung komplexer SAP-Landschaften.

Mit Virtualisierung die Hardware-Grenzen überwinden

Die Virtualisierung steht für technologische Innovation und ermöglicht neue IT-Architekturen, doch worin besteht eigentlich ihr Charme? Kurz gesagt: Virtualisierung teilt über eine Abstraktionsschicht eine IT-Ressource, etwa einen Server, unabhängig von der Server-Hardware mittels Software in mehrere logisch getrennte Bereiche. Das sind so genannte virtuelle Maschinen (Virtual Machine, VM) oder Container. Diese lassen sich von verschiedenen Anwendern oder Applikationen nutzen und per Software-Befehl von einem physischen Server auf einen anderen verlagern.

Mit der Virtualisierung einher geht der weitgehende Abschied von proprietären Prozessoren zugunsten einer Standardisierung auf „Intel x86“ und kompatible Hardware. Immer mehr Software ist und wird multi-mandantenfähig. Wenn alle Infrastruktur-Elemente innerhalb des Rechenzentrums voll virtualisiert und integriert sind und ihren Usern IT-Dienste über nutzerseitige Web-Schnittstellen bereitstellen – bis hin zum Self Service seitens der Endanwender – ist das Cloud Datacenter verwirklicht.

Cloud Datacenter sind in der Regel ganz oder vorwiegend Software-definiert. Die zunehmende Integration der Hardware und die Automatisierung durch Software ermöglichen einen ereignisgesteuerten Rechenzentrumsbetrieb, bei dem gerade für IT-Services benötigte Micro-Services, etwa Messaging-Dienste, gezielt aufgerufen und wieder abgestellt werden.

Merkmale eines Software-defined Datacenters

Ein Software-defined Datacenter (SDDC), auch als virtuelles Rechenzentrum oder Virtual Datacenter (VDC) bezeichnet, besteht aus einer vollständig virtualisierten Computing-Infrastruktur. Dies beinhaltet die Virtualisierung der Compute-Ressourcen (Server-Virtualisierung), des Massenspeichers (Software-definierter Speicher, Software-defined Storage, SDS) sowie der Netzwerk-Infrastruktur (Software-definiertes Netzwerk, Software-defined Networking,SDN) einschließlich sämtlicher Cyber-Sicherheitssysteme.

Im SDDC sind alle Abläufe vollständig durch Software festgelegt, automatisiert und von bestimmter physischer Hardware abgekoppelt. Durch die Abstraktion von CPU, Netzwerk, Speicher und Sicherheit und dank der Verbindung zur Cloud-Technologie lassen sich nach Bedarf flexible Ressourcen-Pools reibungslos auf die Workloads verteilen. Dadurch wird die IT enorm beweglich und skalierbar, alle Prozesse werden wesentlich vereinfacht, Anwendungen und Services können hochflexibel entwickelt, jederzeit verändert und situativ bereitgestellt werden.

Die Option, Workloads via interne Private Clouds oder im Hybrid-Modus mit gesicherten Public Clouds zu betreiben, ist ein wesentliches SDDC-Leistungsmerkmal: Diese Entscheidungsfreiheit ermöglicht es, rasch auf sich ständig ändernde Marktanforderungen zu reagieren, Lastspitzen effizienter abzufangen und besonders geschäftskritische und sensible Vorgänge adäquat zu behandeln.

Software-defined Datacenter sind die Voraussetzung dafür, Infrastruktur und IT als Services (IaaS bzw. ITaaS) anbieten zu können. Anbieter bündeln Computing-Ressourcen, Verwaltungs-Tools sowie unterschiedliche Supportstufen und verkaufen dann den Zugang auf nutzungsabhängiger Basis.

Die Abstraktionsebene der Infrastruktur-Virtualisierung schafft eine logische, sicherheitsüberwachte Laufzeitumgebung und entkoppelt die Anwendungen von der darunter liegenden Hardware. Die Provisionierung, die Konfiguration und der Betrieb der Infrastruktur lassen sich so vollständig mit Software steuern, überwachen und automatisieren.

storage

Was sind die wichtigsten Vorteile eines Software-defined Datacenters?

  • verbessertes Kapazitäts-Management, intelligentes Konfigurations-Management, hohe Ausfallsicherheit
  • Möglichkeiten zur Umsetzung von Private, Public und Hybrid Clouds, Multi-Cloud-Managementfähigkeiten
  • erhöhte operative Effizienz, unter anderem dank erweiterter Monitoring-Fähigkeiten
  • zentrale Verwaltungsoberfläche: Nutzung von anwenderfreundlichem Dashboard
  • bedarfsgerechte und agile Provisionierung durch die Benutzer — die Unternehmensbereiche und Fachabteilungen — unter Gewährleistung horizontaler Skalierbarkeit
  • reduzierte Abhängigkeit von Hardware(-Herstellern), Beseitigung isolierter Technologien
  • IT-Automatisierung: Fähigkeit, sämtliche Infrastruktur-Anforderungen der Benutzer in Code zu erfassen und zu orchestrieren – dadurch Beschleunigung der IT-Prozesse, leichtere Einhaltung von Compliance-Vorgaben
  • höhere Rentabilität im Vergleich zu konventionellen Ansätzen
  • Kostensenkung: flexible Anpassung von Ressourcen zur gleichmäßigen Verteilung auf Workloads steigert Gesamtkapazität und senkt Kosten; einfache und dadurch kostengünstige Verwaltung
  • erweiterte Fähigkeiten zur Selbstanalyse, Selbstdiagnose, Selbstskalierung und Selbstheilung
  • Gute Möglichkeit der Einbindung Künstlicher Intelligenz zur Steuerung und Optimierung der internen Betriebsabläufe.

SDDC und SDI: Gegenüberstellung und Abgrenzung

Der Begriff Software-definierte Infrastruktur (Software-defined Infrastructure,SDI) hat einen breiteren Anwendungsbereich als SDDC. Das SDI-Konzept umfasst alle Einrichtungen und Anlagen in der Wirtschaft, sofern sich diese per Software (fern-) steuern lassen.

Anders gesagt: Der Ansatz des Software-defined Datacenters schafft eine vereinheitlichte, virtualisierte Rechenzentrumsplattform für skalierbare, verteilte Anwendungen. SDI hingegen verknüpft die reale Wirtschaft und die betriebsinternen Abläufe in Unternehmen mit den Anwendungen im Datacenter – inklusive Business Intelligence.

In diesem kurzen, animierten Video erleben Sie die Kernkriterien des zukunftssicheren Rechenzentrums für die Erfüllung zukunftsorientierter Anforderungen. Und Sie erfahren, wie es Ihnen den Weg zum digitalen Unternehmen ebnen kann.

  • RZ heute: Software-basiert, Cloud-fähig, skalierbar
  • Effiziente Bereitstellung von Speicher-Services
  • Echtzeit-Analytik, Flexibilität & Geschwindigkeit

Die richtige Storage-Strategie für Ihre Daten

Für die sichere Zukunft ihres Digitalgeschäfts und zur konsequenten Nutzung ihres Datenkapitals brauchen Unternehmen eine effiziente Storage-Strategie. Zur Wahl stehen etwa die Konzepte Flash Storage, Cloud Storage, Software-defined Storage und Object Storage. Welche Technologien und Ansätze und welche Kombinationen die richtigen sind, hängt von den individuellen Voraussetzungen ab.

Hier den richtigen Weg einzuschlagen, ist eminent wichtig: denn Daten verkörpern eine moderne Form von Reichtum– egal, ob strukturiert, unstrukturiert, von Menschen oder Maschinen generiert, in der Cloud oder On-premise. Eine detaillierte Analyse bestehender Datenbestände bildet daher den Ausgangspunkt jeder modernen Datenstrategie.

Cloud Services und Software-defined Datacenter (SDDC) sind Technologien, welche die zukünftige IT-Landschaft prägen werden. In diesem Umfeld müssen sich auch Storage-Infrastrukturen zurechtfinden, um den neuen Anforderungen des Internet-of-things (IoT), der Künstlichen Intelligenz (KI) oder des Megatrends Big Data Analytics gerecht zu werden. Software-defined Storage (SDS) gilt dabei als wirksames Element, um Speicher-Ressourcen einfach und in Abhängigkeit vom Bedarf zu allokieren.

New call-to-action

Storage-Technologien mit hohem Zukunftspotenzial

Bislang fand die Datenspeicherung größtenteils im eigenen Rechenzentrum statt. Heute ist eine ausschließlich zentrale Speicherung nicht die alleinige Option für die Haltung von Datenbeständen. Vermehrt greifen Unternehmen auf Cloud-Services und Edge-Computing-Services zurück. Die Speicherung und Verarbeitung der Daten findet also zunehmend auf Endgeräten, Edge-Servern und in der Cloud statt.

Durch Fog Computing und Edge Computing  lassen sich mit Hilfe neuer Applikationen Daten auf moderne Weise verarbeiten. Wenn kumulierte Daten oder Anomalien zur weiteren Analyse in die Cloud gesendet werden, spart dies Bandbreite und Speicherplatz.

Multi-Cloud-Umgebungen: Anwender müssen sich nicht mehr starr zwischen On-premise und Off-premise entscheiden. Die Systeme sind zunehmend in der Lage, dynamische Workloads in angebundene Storage Clouds auszulagern und somit dafür zu sorgen, dass die Speicherung von Daten noch effizienter erfolgt.

Software-defined Storage (SDS): In der Industrie hat inzwischen die Erkenntnis durchgesetzt, dass es nicht sinnvoll ist, Storage-Funktionen direkt in die Hardware zu implementieren, sondern innerhalb eines Software-Layers abzubilden. Software als Basis der Speicherlandschaft im Unternehmen versprechen höhere Innovationsgeschwindigkeiten und kürzere Modernisierungszyklen.

Full-Flash Datacenter: Die Zukunft der Storage-Landschaften in Unternehmen ist klar auf Flash-basierte Systeme ausgerichtet. Flash ermöglicht einen deutlich schnelleren Zugriff, eine einfachere Verwaltung und bietet im Gegensatz zu herkömmlichen Storage-Systemen, die auf sich drehenden Speicherplatten beruhen, einen erheblichen Kostenvorteil. Flash-Systeme zur Datenspeicherung sorgen durch geringe Latenzen für deutlich kürzere Wartezeiten für die restlichen Komponenten der IT-Infrastruktur. Dies ermöglicht eine höhere Auslastung der Komponenten, was zu weiteren Einsparungen führt.

All-Flash- und Hybrid-Flash-Systeme: Aufgrund sinkender Kosten werden Flash-Storage-Systeme auch für kleinere und mittelständische Unternehmen erschwinglich. Viele Nutzer von Storage-Komponenten haben erkannt, dass Flash-Speicher-Systeme ein wichtiger Baustein im Rahmen einer Digitalisierungsstrategie sind.

Storage-Architekturen auf Basis von Flash-Systemen bieten eine hohe Performance, kurze Antwortzeiten und eine hohe Effizienz. Hinzu kommen die niedrigen Betriebskosten, bedingt durch niedrigeren Stromverbrauch, geringeren Platzbedarf im Rechenzentrum sowie einen vergleichsweise geringen Administrationsaufwand. Die Kosten sind auch ein Argument, das für hybride Disk- und Flash-Storage-Komponenten spricht. Sie bieten einen Mix aus schnellen aber teuren Solid-State-Drives (SSD) und langsameren, aber preisgünstigen Festplatten.

All-Flash-Lösungen neuerer Generation verfügen zudem über Eigenschaften, die bislang Systemen der Enterprise-Storage-Kategorie vorbehalten waren. Dazu zählen Hochverfügbarkeits- und Desaster-Recovery-Funktionen. Auch auf Quality-of-Service-Merkmale müssen Nutzer bei solchen All-Flash-Systemen nicht verzichten. Weiteres Wissenswertes zum Thema Flash-Speicher finden Sie im nächsten Kapitel.

Letztlich kann man heute im Bereich Primär-Speichersysteme von folgender Arbeitsteilung ausgehen, die sich in den nächsten Jahren weiter manifestieren wird: All-Flash Storage für anspruchsvolle und leistungshungrige Workloads, Hybrid Storage für die Konsolidierung der Storage-Umgebung und Hyperscale Storage – also hochskalierbare Speichersysteme – für solche Datenbestände, die kontinuierlich massiven Zuwachs haben.

Steigender Stellenwert von Object Storage

Leistungsstarke Enterprise-Storage-Systeme werden auch künftig einen hohen Stellenwert erfahren. Schlagworte sind hier besagtes Software-defined Storage (SDS) und Scale-out-Architekturen. Sie bilden die Basis für Speicherkonzepte, die ein hohes Maß an Skalierbarkeit bei gleichzeitiger Kosteneffizienz bieten. Object Storage spielt dabei eine immer größere Rolle. Die Akzeptanz von Object Storage wird weiter steigen, hier vor allem die flexible Open-Source-Lösung Ceph und darauf beruhende Enterprise-Software.

Apropos Object Storage: Diese recht neue Speicher-Architektur wird in hybriden und Cloud-Umgebungen zunehmend wichtiger. Dabei handelt es sich um Storage-Systeme mit Fokus auf das Speichern und Archivieren großer, heterogener und unstrukturierter Datenmengen, die nicht in Echtzeit verarbeitet werden müssen. Sie markieren damit gleichsam das Gegenstück zur In-Memory-Verarbeitung etwa in Big-Data- und Business-Analytics-Szenarien, in denen die eine schnelle Verarbeitung von Daten besondere Priorität genießt.

Object-Storage-Systeme bieten eine Reihe handfester Vorteile: auf der eine Seite können sie wie klassische Speichersysteme für die Archivierung und das Backup großer Datenmengen eingesetzt werden, gehen aber noch weit darüber hinaus. Sie basieren auf HTTP und dem S3-Protokoll, sind über ein Web-Interface nutzbar und vollkommen Betriebssystem- und Client-unabhängig. Zudem kommen sie ohne File-Locking-Mechanismen aus und sind für alle Dateitypen nutzbar.

Aufgrund der elementaren Struktur und der einfachen Zugriffsmechanismen lassen sich Object-Storage-Systeme universell nutzen und ausgesprochen gut skalieren.

Data Protection, Intelligence und High-Performance

Massives Datenwachstum allerorten, und das einhergehend mit dem Anspruch der Unternehmen, wie gewohnt rund um die Uhr Zugriff auf unternehmenskritische Daten zu haben. Vor diesem Hintergrund werden Data-Protection-Lösungen immer wichtiger. Sie müssen ein hohes Maß an Sicherheit und Verfügbarkeit gewährleisten und dürfen in keiner Storage-Strategie fehlen. Besonders interessant sind schlüsselfertige Data-Protection-Appliances. Solche Systeme erfordern nur geringen Aufwand in Bezug auf Implementierung und Administration. Daher kommen solche Appliances auch für Unternehmen in Betracht, die über eine eher kleine IT-Abteilung verfügen.

Auch das klassische Tape hat weiterhin seine Daseinsberechtigung. Der Grund: Bandlaufwerke verfügen über immer höhere Kapazitäten und bieten vergleichsweise kurze Zugriffszeiten. Hinzu kommen die nach wie vor niedrigen Kosten für Speichermedien. Verbunden mit intelligenten Data-Protection-Appliances ergibt sich hieraus eine weiterhin zukunftsträchtige Lösung für die Datenspeicherung.

Durch die Anforderungen der Digitalisierung und den Einsatz innerhalb von IoT-Lösungen muss Speicher schneller, intelligenter und ortsunabhängig zur Verfügung stehen. Schnelligkeit kann neben dem Einsatz von All-Flash-Lösungen durch ergänzenden NAND/NVMe-Speicher und neue Protokolle, wie RDMA inklusive iWARP, gewonnen werden. Schlauer wird der Speicher durch den Einsatz von Künstlicher Intelligenz, sodass beispielsweise Performance-Probleme nicht mehr manuell von der IT gelöst werden müssen, sondern durch ein selbstlernendes System.

Ortsunabhängiger Speicher schließlich wird immer wichtiger, weil Daten sowohl in der Cloud als auch on-the-edge verarbeitet und gespeichert werden müssen. Hierbei ist es wichtig, jeweils das richtige Speichermedium zu wählen. Für hochperformante Datenbanken wie SAP HANA wird das weiter das High-End-Array vor Ort sein. Für Backup und andere Storage-Anforderungen, in denen beispielsweise weiterhin drehende Festplatten genutzt werden, kann es auch die Cloud sein. Ein zentrales Management über alle Ebenen hinweg spielt hier eine wesentliche Rolle.

Welche Punkte Sie bei der Erarbeitung und Umsetzung Ihrer individuellen Storage-Strategie beachten sollten, erfahren Sie in dieser Infografik:

New call-to-action

All-Flash-Array und SDS: Speichertechnik für heute und morgen

Da immer mehr Geschwindigkeit in Zeiten von Big Data benötigt wird, scheinen schnelle All-Flash-Arrays im Primär-Rechenzentrum eine probate Lösung für die Verarbeitung großer Datenmengen zu sein. Und da die Preise sowohl von Flash-Speicher-Chips als auch Solid-State-Drives (SSD) über die letzten Jahre hinweg kontinuierlich gefallen sind, gewinnen folgende Fragen zunehmend an Bedeutung: Was genau macht ein All-Flash Array? Wie grenzt es sich von anderen Technologien ab? Und vor allem: Welche Vorteile hat es?

Cloud-Services und Software-defined Datacenter hingegen sind Technologien, welche die IT-Landschaft zunehmend prägen. In diesem Umfeld müssen sich auch Storage-Infrastrukturen ins Zeug legen, um den neuen Herausforderungen wie dem Internet-of-things, Künstliche Intelligenz oder Big Data Analytics gerecht zu werden. Software-defined Storage (SDS) gilt – wie oben skizziert – als geeignetes Konzept, um Speicher-Ressourcen einfach und in Abhängigkeit vom aktuellen Bedarf zu allokieren. Doch was genau bietet SDS, und welche Vorteile kann SDS in der Praxis bescheren?

Was sind All-Flash-Speicher?

All-Flash-Speicher, auch All-Flash-Storage oder All-Flash-Array (AFA) genannt, sind Speichersysteme, die – anstelle von klassischen Festplatten mit rotierenden Scheiben –  ausschließlich sogenannten nichtflüchtigen Flash-Speicher verwenden. Auch ohne Stromversorgung behalten sie die gespeicherten Daten und vergessen wie Festplatten die abgelegten Informationen nicht. Die Speicher können aus vielen Solid-State-Drives (SSD) oder aus proprietären Speichermodulen aufgebaut sein. Moderne Fertigungstechniken und Chip-Designs wie die 3D-NAND-Technologie haben im Bereich der Flash-Speicher für große Fortschritte gesorgt.

Ein All-Flash-Speicher enthält keine beweglichen Teile. Dies hat eine deutlich reduzierte Wärmeentwicklung, weniger Energieverbrauch und einen geringeren Wartungsaufwand zur Folge. Die Leistung eines All-Flash-Speichers wird üblicherweise in Input/Output (I/O) Operations per Second (IOPS) angegeben. Diese Messgröße gibt Auskunft darüber, wie viele Ein- und Ausgabeaktionen der Flash-Speicher pro Sekunde durchführen kann. 

Die Kosten pro Speichervorgang mit Flash-basiertem Speicher sind deutlich geringer als bei klassischen Verfahren. Dies führt bei den meisten Workloads in Unternehmen und bei der Bereitstellung virtueller Datacenter, die in modernen Rechenzentren praktisch allgegenwärtig sind, zu beachtlichen Senkungen der Kapitalkosten. All-Flash-Arrays bilden die Grundlage für Geschäftsanwendungen der nächsten Generation und für das All-Flash-Rechenzentrum.

Was ist ein Hybrid-Flash-Array?

Ein Hybrid-Flash-Array ist eine Kombination aus Speichereinheiten mit mindestens zwei verschiedenen Arten von Speichermedien. Das eine Medium ist ein Flash-Speicher, für das andere gibt es verschiedene Optionen. Hybrid-Flash-Arrays werden von Unternehmen eingesetzt, die sowohl aktive als auch inaktive Daten auf einer einzigen Storage-Plattform speichern müssen und ein Gleichgewicht zwischen Performance und Wirtschaftlichkeit finden wollen. Mit Hybrid-Flash-Arrays lässt sich das Verhältnis von Performance und Kapazität an individuelle Anforderungen anpassen, um getätigte Investitionen optimal auszuschöpfen. Die Möglichkeit, Flash oder Kapazität je nach Bedarf hinzufügen zu können, bietet beachtliche Vorteile.

Flash-SSD versus Flash-Speicher

Ein Flash-Solid-State-Drive, auch Flash-SSD, ist ein Datenspeichergerät, das hohe Performance, geringe Latenz, sowie im Vergleich mit herkömmlichen rotierenden Festplattenmedien erhebliche Vorteile in Sachen Kühlung und Stromverbrauch bietet. Die I/O-Kapazität von Flash-SSDs ist 10-mal größer als die von rotierenden Festplattenmedien. Flash-SSDs werden eingesetzt, um eine optimale Antwortzeit von Anwendungen zu erreichen, die virtuelle Server und virtuelle Desktops ausführen. So ist es nicht weiter verwunderlich, dass Flash-SSDs im Unternehmensrechenzentrum vor allem dort zum Einsatz kommen, wo schnelle Analysen für Echtzeitentscheidungen ausgeführt werden müssen.

Flash-Speicher hingegen können in beliebigen Gerätegattungen zum Einsatz kommen und fungieren dort als Speicher-Repository. Dabei kann es sich um ein einfaches USB-Gerät oder ein vollständig integriertes All-Flash-Array handeln. Ein Solid-State-Drive (SSD) ist ein integriertes Gerät als Ersatz für Festplattenmedien und wird häufig in Enterprise-Speichersystemen eingesetzt

Die Vorteile von All-Flash-Speicher

Ein auf All-Flash basierender Speicher bietet gegenüber herkömmlichen, mechanisch arbeitenden Festplattenspeichern eine ganze Reihe von Vorteilen:

  • Hohe Performance: All-Flash-Arrays erzielen selbst im Vergleich zu performanten Festplattenlaufwerken mit Umdrehungsgeschwindigkeiten von 15.000 RPM deutlich höhere Schreib- und Lesegeschwindigkeiten. Große Datenmengen werden viel schneller gelesen und geschrieben. Hinzu kommt, dass die Zugriffszeiten auf die Daten wesentlich kürzer sind.
  • Datenreduktion: Minimierung des Speicherbedarfs durch Datenkomprimierung, Deduplizierung und Thin Provisioning.
  • Geringe Latenz: Beschleunigung datenintensiver Anwendungen durch minimale Antwortzeiten.
  • Geringe Fehleranfälligkeit: All-Flash-Speicher kommen im Gegensatz zu Festplattenlaufwerken ohne bewegliche Teile aus. Die Fehleranfälligkeit der Speicherlösung sinkt, da die typischen Verschleißerscheinungen der Mechanik ausbleiben.
  • Geringer Energieverbrauch, weniger Wärmeentwicklung: Bei All-Flash-Speicher müssen keine Platten in Rotation oder Schreib-Leseköpfe in bestimmte Positionen gebracht werden. Folglich muss keine elektrische Energie für derartige Vorgänge aufgebracht werden. Außerdem erzeugen All-Flash-Speicher weniger Wärme, aufwändige Kühlmaßnahmen sind überflüssig.
  • Wenig Platzbedarf: All-Flash-Speicher sind kompakt und beherbergen bei geringem Platzbedarf riesige Speicherkapazitäten.
  • Niedrige Betriebskosten: Auch wenn die Preise für All-Flash-Speicher in den letzten Jahren enorm gefallen sind, liegen die Anschaffungskosten meist höher als bei Festplattenspeicher mit vergleichbarer Kapazität. In der Total-Cost-of-Ownership-Betrachtung inklusive Wartungs- und Betriebskosten hingegen, haben sich die Mehrkosten oft schon nach kurzer Zeit amortisiert. Geringere Fehleranfälligkeit, weniger Wartungsaufwand, weniger Platzbedarf, geringerer Kühlungsaufwand und niedrigerer Energieverbrauch führen zu deutlichen Einsparungen und einer verbesserte Wirtschaftlichkeit des Datacenter.

Warum All-Flash-Storage eine zukunftssichere Wahl ist

Kosten reduzieren, während die unternehmerische Flexibilität und Agilität steigt. Dies können Sie mit den All-Flash-Speicherlösungen von Dell EMC erreichen. Das Analystenhaus Forrester hat die Leistungsfähigkeit und Kosteneffizienz des All-Flash-Speicherportfolios von Dell EMC im Rahmen einer Studie unter die Lupe genommen. Die wesentlichen Erkenntnisse:

  • erhöhte IT-Produktivität.
  • massive Einsparungen bei Speicher-Hardware und fortlaufenden Wartungskosten.
  • Einsparungen bei Energie- und Kühlkosten.
  • schnellere Applikationsbereitstellung.
  • verbesserte Skalierbarkeit.
  • reduzierter IT-Ressourcenbedarf.
New call-to-action

Software-defined Storage: Features, Vorteile und Szenarien

Software-defined Storage (SDS) ist eine Storage-Architektur, bei der die Storage-Software von der zugrunde liegenden Hardware getrennt wird. Im Gegensatz zu traditionellen Network-Attached-Storage (NAS)- oder Storage-Area-Network (SAN)-Systemen ist SDS im Allgemeinen auf Industriestandard- oder x86-Systeme ausgelegt, mit denen die Abhängigkeit der Software von proprietärer Hardware eliminiert werden soll.

Die Entkopplung der Storage-Software von der Hardware ermöglicht eine flexible Erweiterung der Speicherkapazität. So lässt sich jederzeit ein Hardware-Upgrade oder -Downgrade durchführen.

Charakteristische Features von Software-defined Storage:

  • Automatisierung: vereinfachtes Management zu niedrigen Kosten.
  • Standard-Schnittstellen: Application Programming Interface (API) für die Verwaltung und Wartung von Storage-Geräten und -Services.
  • Virtualisierter Datenpfad: Block-, Datei- und Objekt-Schnittstellen, die für sie entwickelte Anwendungen unterstützen.
  • Skalierbarkeit: Flexibilität einer horizontalen Skalierung der Storage-Infrastruktur ohne Leistungseinbußen.
  • Transparenz: Fähigkeit zur Überwachung und Verwaltung der Storage-Nutzung und umfassende Informationen zu den verfügbaren Ressourcen und verbundenen Kosten.

Die wichtigsten Vorteile von Software-defined Storage:

  • Freie Wahl der Hardware für die Ausführung der Storage-Services: SDS und Hardware müssen nicht vom gleichen Anbieter stammen. Für den Aufbau einer SDS-basierten Storage-Infrastruktur können beliebige Standard- oder x86-Server verwendet werden.
  • Hohe Kosteneffizienz: SDS wird verteilt und nicht vertikal (Scale up), sondern horizontal (Scale out) skaliert. Dies ermöglicht die Anpassung von Kapazität und Leistung unabhängig voneinander.
  • Zusammenfügung vieler Datenquellen beim Bau der Storage-Infrastruktur: Integration von Netzwerk-Objektplattformen, externen Festplattensystemen, Disk- oder Flash-Ressourcen, virtuellen Servern und Cloud-basierten Ressourcen zu einem einheitlichen Storage-Volumen.
  • Automatische Anpassung an Kapazitätsbedürfnisse: Das Storage-System passt sich ganz ohne Administratoreingriff, neue Verbindungen oder neue Hardware an Datenbedürfnisse und Leistung an.
  • Weitreichende Skalierbarkeit: Traditionelle Storage-Area-Networks sind durch die Anzahl der Knoten, also der Geräte mit zugewiesenen IP-Adressen, begrenzt. SDS hat keine derartigen Einschränkungen und ist insofern unlimitiert skalierbar.

Einsatzmöglichkeiten von Software-defined Storage:

  • Cloud-Infrastruktur: Unterstützung von Private-, Public- und Hybrid-Cloud-Architekturen mit der benötigten Skalierbarkeit und Agilität.
  • Big Data Analytics: schnelle und sichere Analyse riesiger Data-Lakes für bessere geschäftliche Einblicke.
  • Hyper Converged Infrastructure: Eliminierung eines separaten Storage-Tier und Kombination mit virtualisierten Server-Instanzen im gesamten Unternehmen.
  • Object Storage: flexible und zuverlässige Speicherung, Sicherung und Wiederherstellung von Petabytes an Daten.

Software-defined Storage versus Storage-Virtualisierung versus Cloud

Sowohl bei Software-defined Storage als auch bei Storage-Virtualisierung werden Komponenten von Storage-Hardware abstrahiert, aber die Konzepte selbst sind unterschiedlich. Bei der Storage-Virtualisierung kann die Kapazität mehrerer Storage-Geräte so zusammengefasst werden, dass man es scheinbar mit einem einzigen Storage-Gerät zu tun hat. Mit SDS dagegen werden Storage-Services oder -Software abstrahiert und vom Gerät selbst getrennt.

Clouds sind Pools mit virtuellen Ressourcen, auf die Nutzer bei Bedarf über Self-Service-Portale (via Management- und Automation-Software) zugreifen können. SDS besitzt viele der Qualitäten einer Cloud, fungiert aber lediglich als Schicht für die Übertragung der Daten in eine Cloud.  SDS hat tatsächlich einen Cloud-Storage-Charakter aufgrund von Funktionen wie dem vernetzten Zugriff und der Verwaltungs- bzw. Automatisierungs-Software für eine schnelle Skalierung.

Wege zur digitalisierten IT-Organisation

Unternehmen, die heute über ihre Entwicklungsmöglichkeiten und künftiges Wachstum nachdenken, kommen an strikt optimierten Prozessmodellen und intelligenten Automatisierungsansätzen nicht vorbei. Zusätzlich stecken moderne Technologien und Geschäftsmodelle die Märkte neu ab. Vor allem etablierte Organisationen haben hier Nachholbedarf, gerade bei aktuellen Themen wie Cloud Computing, IoT, Industrie 4.0, Data Analytics & Data Management oder KI. Übrigens gilt dies auch für IT-Unternehmen selbst.

Weltweit versuchen Unternehmen und Organisationen mit der immensen Dynamik der Digitalisierung Schritt zu halten, schneller und beweglicher zu werden und sich selbst zu „agilisieren“. 

Die Analysten- und Consulting-Firmengruppe Deloitte bringt es auf den Punkt: in Bezug auf den Themenkomplex Programm- und Projektmanagement führt die Digitale Transformation zu einem grundsätzlichen Diskurs zwischen agilen und traditionellen Ansätzen. Beide Ansätze haben ihre speziellen Vorzüge, es gibt kein „one-size-fits-all“. Stattdessen begegnen uns häufig Mischformen, zum Beispiel hybride Ansätze („hybrid agile“), die durchaus zielführend und situationsbedingt richtig sein können.

Noch wichtiger als die Frage, welcher Ansatz nun der richtige ist, ist vor allem die Frage nach dem grundsätzlichen Ziel:

  • Wie stelle ich als Entscheider sicher, dass überhaupt die richtigen Vorhaben gestartet werden?
  • Wie führe ich ein sehr komplexes Unterfangen, eine sprichwörtliche Unternehmens-Transformation, sicher ins Ziel?
  • Wie bleibt mein Unternehmen weiterhin fit und beweglich, um den Herausforderungen von morgen schlüssig zu begegnen?
New call-to-action

Die richtigen Services für die IT-Transformation

Bei einer agilen Transformation geht es nicht alleinig darum, die agile Arbeitsweise in der Organisation zu etablieren. Agilität bedeutet in diesem Kontext auch eine nachhaltige Veränderung der gesamtheitlichen Arbeitsweise und insbesondere der Unternehmenskultur. Die gesamte Organisation, insbesondere ausführende Teams und Steuerungsorgane, müssen nach agilen Werten und Prinzipien ausgerichtet werden. Das schließt selbstverständlich auch das Portfolio-Management mit ein, was spezielle Herausforderungen mit sich bringt.

Das Idealbild einer sich stets wandelnden IT

Das Idealbild einer modernen IT ist das einer sich stets wandelnden IT, welche die Anforderungen des Business zeitnah umsetzt oder sogar einen Vorsprung vor dem Business hat. Dabei werden positiv wahrgenommene Eigenschaften der Digitalisierungs-Champions rasch intern als Anforderungen an die IT-Funktion formuliert: „einfach wie Apple“, „innovativ wie Google“.

Nicht nur die Kriterien derartiger plakativer Zielbild-Projektionen, sondern vielmehr die vielfältigen Veränderungen, die sich durch die einschlägigen Digitalisierungsthemen für die IT ergeben, müssen im Rahmen einer zielgerichteten IT-Transformation in umsetzbare Maßnahmen überführt  werden. Obendrein gilt es die Verwirklichung des Transformations-Programms gesamtheitlich zu steuern. Dazu hat das Consulting-Unternehmen Horvath & Partners eine Orientierungsvorlage erstellt:

Drei wichtige Aspekte einer erfolgreichen IT-Transformation

  • Die Entwicklung eines IT-Zielbildes, das konsequent auf die Belange des Business und externe Anforderungen, etwa der Digitalisierung, ausgerichtet ist. Die Maßnahmen zum Erreichen des Zielbildes werden im Rahmen des Transformation-Designs inklusive des dazugehörigen Business Case detailliert und in eine Transformation Roadmap überführt.
  • Die Formulierung einer Transformations-Strategie, die notwendige Veränderungsmaßnahmen mit hohem Ambitionsniveau umsetzt, ohne die Organisation zu überfordern: Dazu gilt es Business Cases nachzuhalten und eine durchgängige Transformations-Steuerung sicherzustellen. Gleichzeitig ist es erforderlich, die IT-Organisation durch ein gezieltes IT-Workforce-Management auf die Ergebnisse einer IT-Transformation vorzubereiten. Im Idealfall sollte die Organisation in einem Modus der kontinuierlichen Transformation arbeiten, in dem laufend Anpassungen an veränderte Gegebenheiten erfolgen (Continuous Transformation Management).
  • Ein umfassendes Enterprise Architecture Management stellt sicher, dass sich die Anforderungen aus dem Business und dem IT-Zielbild in einer optimal abgestimmten strategischen IT-Architektur widerspiegeln. Daraus wird die übergreifende IT-Architekturplanung entwickelt. Auch die IT-Architektur muss laufend überprüft und im Bedarfsfall adjustiert werden (Continuous Architecture Management).

Digital-Readiness-Check: der Start in die IT-Transformation

Eine wertvolle Quelle zum Austausch von Ideen und Erfahrungen ist das Institut für Digitale Transformation (idt) als eine Art Arbeits- und Kommunikationsplattform. Diese erlaubt es Interessierten, IT-Transformation aktiv mitzugestalten.

Digital-Readiness-Check (DRC) – Auftakt für eine koordinierte IT-Transformation (Quelle: Institut für digitale Transformation, idt)

Den Auftakt für eine stringent geplante IT-Transformation sollte auf jeden Fall ein ausführlicher Check bilden. Diese Bestandsaufnahme eruiert Chancen, Risiken, Potenziale und Möglichkeiten mittels SWOT-Analyse (Strength, Weakness, Opportunity, Threat). Im nächsten Schritt werden Fragen zur Digitalisierungs- und zur Transformationsstrategie in eigens einberufenen Intensiv-Workshops diskutiert – mit dem Ziel, den individuell sinnvollen und erfolgsträchtigen Weg für das Unternehmen zu finden.

Merkmale und Zielsetzung der SWOT-Analyse

Mit der SWOT-Analyse werden ausgewählte Unternehmensmerkmale als Stärke (Strength) oder Schwäche (Weakness) bewertet. Merkmale, Trends und Entwicklungen im Markt oder Umfeld des Unternehmens werden als Gelegenheit, Möglichkeit, Potenzial oder Chance (Opportunity) oder als Bedrohung, Gefahr oder Risiko (Threat) bewertet – je nachdem, ob die positiven Möglichkeiten oder die negativen Bedrohungen für das Unternehmen überwiegen.

Die Merkmale und ihre Bewertung werden in einer Tabelle oder Matrix dargestellt. Die Ergebnisse der SWOT-Analyse sollen dem Management helfen, Handlungsfelder der Strategieentwicklung zu finden, die richtigen Potenziale zu nutzen und Gefahren zu erkennen und einzugrenzen. Der Digital-Readiness-Check schafft den gedanklichen Spielraum, im Rahmen des Unternehmensverständnisses die eigene IT-Organisation zu transformieren und auf „Digital Readiness“ einzustellen.

Vorteile der digitalen Transformation

Eine ganzheitliche Modernisierung und Automatisierung von IT-Systemen und Software ist in der Regel mit großem Aufwand verbunden. Dass es die Mühe wert ist, zeigt jedoch ein Blick auf die oben bereits erwähnte, global angelegte ESG-Umfrage unter 4.000 IT-Entscheidern. Demnach sind transformierte Unternehmen im Vergleich zu nicht-transformierten Unternehmen im Vorteil dank

  • höherer Innovationskraft,
  • höherer Wettbewerbsfähigkeit,
  • schnellerer Markteinführungen,
  • besserer Effizienz bei den IT-Ausgaben
  • sowie einer besseren Einbindung der IT in die Unternehmensstrategie.

Mit Hilfe der detaillierten Umfrageergebnisse sind Sie in der Lage, die IT-Kompetenz Ihres eigenen Unternehmens auf den Prüfstand zu stellen, und diese mit der IT-Expertise „vollständig transformierter“ Unternehmen zu vergleichen. Außerdem erfahren Sie ganz konkret, welche Punkte Unternehmen aller Branchen und Größen in Sachen Transformation priorisieren, warum sie das tun und welche Folgen das nach sich zieht.

Weitere Zahlen, welche die vorteilhaften Auswirkungen der IT-Transformation belegen, haben die Marktforscher von IDC auf Lager, die sich explizit mit deren geschäftlichen Nutzen beschäftigt haben. Legacy Hardware und träge Prozesse hemmen nicht nur die Innovationskraft eines Unternehmens, sondern wirken sich auch negativ auf dessen IT-Kostenstruktur aus.  IDC hat deswegen die Kosten vor und nach der IT-Modernisierung miteinander verglichen. Die wesentlichen Ergebnisse:

  • bis zu 32 Prozent des jährlichen IT-Budgets können für Innovationen freigesetzt werden,
  • die Kosten für IT-Infrastruktur sinken um bis zu 23 Prozent,
  • die Effizienz der IT-Spezialisten steigt um bis zu 35 Prozent,
  • die Nicht-Produktivität durch ungeplante Ausfallzeiten sinkt um bis zu 73 Prozent,
  • die Umsatzeinbußen durch solche Ausfallzeiten reduzieren sich um bis zu 69 Prozent.
New call-to-action

Welches Cloud-Modell für Sie die passende Lösung ist!

Wenn es um IT-Infrastruktur und deren Kosten geht, ist auch das Thema Cloud nicht fern. Schließlich hat sich im Unternehmensumfeld längst die Erkenntnis durchgesetzt, dass Cloud-Technologie sowohl betriebliche als auch finanzielle Vorteile bietet. Inzwischen gehören Unternehmen, die ohne die Cloud auskommen, zu einer aussterbenden Spezies. Für viele IT-Entscheider stellt sich deshalb nicht mehr die Frage nach dem „ob“ – sondern eher nach dem „wie“, beziehungsweise „was“: welche Daten können in die Cloud und welche nicht? 

New call-to-action

Übersicht und Merkmale der verschiedenen Cloud-Modelle

Public Cloud

Die „öffentliche Rechnerwolke“ steht für Angebote, die für jedermann über das Internet zugänglich sind. Zumeist handelt es sich um Software-as-a-Service (SaaS)-Dienste, etwa Web-basierte E-Mail-Services, die von privaten Endverbrauchern genutzt werden. Aber auch Unternehmen nehmen solche Services externer Anbieter in Anspruch, etwa Server-Kapazitäten von AWS, die CRM-Suite von Salesforce oder Office-Applikationen von Microsoft.

In der Public Cloud teilen sich viele Kunden eine virtualisierte Infrastruktur, die sich, je nach Anbieter der Software, meist nicht in Deutschland und oft auch nicht in Europa befindet. Der Nutzer hat auf den Ort und die Art der Datenhaltung ebenso wenig Einfluss wie auf Datenschutz- und Sicherheitsaspekte. Zudem sind Netzbandbreite und Verfügbarkeit durch vordefinierte Angebotspakete eingeschränkt.

Private Cloud

In der „privaten Rechnerwolke“ werden die Applikationen entweder auf Server im Unternehmen selbst (On-premise) oder auf individuell zugeordnete Server im hochsicheren Rechenzentrum eines externen Dienstleisters verlagert. In der On-premise-Variante ist die unternehmenseigene IT-Abteilung für Management und Betrieb verantwortlich. Bei der Private Cloud über einen externen Dienstleister gibt es zwei Varianten: Platform-as-a-Service (PaaS) und Infrastructure-as-a-Service (IaaS).

PaaS steht für eine Dienstleistung, die in der Cloud eine Plattform für Entwickler von Webanwendungen zur Verfügung stellt. Dabei kann es sich sowohl um schnell einsetzbare Laufzeitumgebungen (typisch für Webanwendungen) als auch um Entwicklungsumgebungen handeln, die mit geringem administrativen Aufwand und ohne Anschaffung der darunter liegenden Hardware und Software genutzt werden können.

Mit IaaS ist gemeint, dass Unternehmen Infrastruktur (Server, Speicher, Hardware und Netzwerk-Komponenten) nicht kaufen, sondern bei Bedarf (on-demand) von einem externen Dienstleister beziehen können.

Hybrid Cloud

Dieser Ansatz bezeichnet eine Mischform aus Private Cloud und Public Cloud. Sensible Programme und Daten bewahrt das Unternehmen auf eigenen Servern, bestimmte Services mit weniger kritischem Hintergrund lässt es über das Internet bei öffentlichen Anbietern betreiben, um eigene Ressourcen zu schonen. In puncto Sicherheit ist das Leistungsvermögen dieses Modells limitiert – schließlich sind in Zeiten der Digitalisierung quasi alle Programme und Daten eines Unternehmens sicherheits- und datenschutzrelevant.

Hybrid-Cloud-Infrastrukturen werden durch eine Data-Fabric-Strategie ermöglicht, die einen Software-definierten Ansatz verwendet und gemeinsame Datenservices für jede beliebige Kombination von IT-Ressourcen zur Verfügung stellt.

Multi-Cloud

Ein verfeinerter Ansatz des hybriden Cloud Computing ist die Multi-Cloud: eine Mischung aus Private Cloud und flexibler Private Cloud, also ohne ein Ausweichen in den ungeschützten öffentlichen Bereich. Unternehmen betreiben und verarbeiten dabei Anwendungen und Daten im eigenen Rechenzentrum oder auf dedizierten, individuell zugeordneten und abgesicherten Servern im Rechenzentrum eines externen Anbieters. Bei wechselndem Bedarf werden vom Provider mehr oder weniger Rechenkapazitäten bereitgestellt, jeweils mit den gleichen strengen Sicherheitskriterien.

Die Begriffe Hybrid Cloud und Multi-Cloud werden häufig synonym verwendet oder miteinander verwechselt. Während eine Hybrid Cloud im strengen Sinne immer aus unterschiedlichen Cloud-Typen – Public und Private – besteht, handelt es sich bei einer Multi-Cloud immer um eine Cloud-Implementierung des gleichen Typs (Public oder Private) von verschiedenen Anbietern, gegebenenfalls im Zusammenspiel mit Implementierungen von Hybrid Clouds.

multi_cloud

Hybrid- und Multi-Cloud-Szenarien

Dynamisch oder häufig wechselnde Workloads:
  • Für diese Anforderung empfiehlt sich eine Public Cloud und für weniger flüchtige oder sensiblere Workloads ein On-premise-Datacenter.
Trennung zwischen kritischen und weniger sensiblen Workloads:
  • Sensible finanzielle Daten oder Kundeninformationen sollten in einer Private Cloud gespeichert werden, während die übrigen Unternehmensanwendungen in einer Public Cloud ausgeführt werden können.
Big-Data-Datenverarbeitung:
  • Eine Big-Data-Datenverarbeitung mit einem nahezu konstanten Volumen ist unwahrscheinlich. Sinnvolle Vorgehensweise: für einige der Big-Data-Analysen hochskalierbare Public-Cloud-Ressourcen nutzen und gleichzeitig eine Private Cloud einsetzen, um die Sicherheit und Vertraulichkeit von umfangreichen Datenmengen hinter der Firewall sicherzustellen.
Bedarfsgerechter und schrittweiser Umstieg auf die Cloud:
  • Einige Workloads in eine Public Cloud oder eine kleine Private Cloud verlagern und diesen Ansatz testen. Je nach Bedarf die Cloud-Lösung mit Public Clouds, Private Clouds oder einer Mischung aus beiden erweitern.
Temporäre Anforderungen an die Verarbeitungskapazität:
  • Mit einer Hybrid Cloud lassen sich für kurzfristige Projekte Public-Cloud-Ressourcen zuweisen, und zwar zu geringeren Kosten als über die IT-Infrastruktur des eigenen Data-Centers. Dies erspart überhöhte Investitionen in Geräte, die nur vorübergehend benötigt werden.
Flexibilität für die Zukunft:
  • Mithilfe von Planungen können unmittelbare Anforderungen bewältigt werden. Rückschlüsse auf Anforderungen, die sich im nächsten Monat oder Jahr ändern, sind nur schwer zu ziehen. Durch einen Hybrid-Cloud-Ansatz lassen sich aktuelle Datenmanagement-Anforderungen an diejenigen Public-Cloud-, Private-Cloud- oder On-Premise-Ressourcen anpassen, die sich dafür am besten eignen.

Hybrid-Cloud-Lösungen nur ein Zwischenstopp?

Wenn Rechenzentrumskomponenten wie Netzwerktechnologie, Server und Speicher aus der Cloud als hochgradig skalierbare, virtualisierte Services bereitgestellt werden, können Unternehmen ihre IT-Hardware und Support-Kosten erheblich reduzieren und gleichzeitig die Flexibilität der Infrastruktur steigern. So können IT-Mitarbeiter ihren Fokus vom Monitoring und Management von Rechenzentren vor Ort auf Computing-Prozesse verlagern, die die strategischen Ziele der Organisation voranbringen.

Sobald IT-Führungskräfte ermittelt haben, welche Workloads in die Cloud verlagert werden sollen, stehen sie vor einer weiteren wichtigen Entscheidung. Welches Cloud-Modell soll zum Einsatz kommen?

Wie erläutert haben Public, Private und Hybrid Clouds unterschiedliche Anforderungen und Nutzungspläne. Beim Traditionsunternehmen General Electric werden beispielsweise 90 Prozent aller neu entwickelten Anwendungen nativ in der Public Cloud ausgeführt. Nur Anwendungen, die von der staatlichen Regulierung betroffen sind, laufen noch vor Ort. Chris Drumgoole, der CTO von General Electric, glaubt, dass Hybridlösungen nur ein Zwischenstopp sind: „Die Welt bewegt sich in Richtung der Public Cloud.“

New call-to-action

Wie Hyperkonvergenz Ihre Workloads unterstützt

Eine Hyper Converged Infrastructure (HCI) ist die richtige Wahl, wenn eine Cloud-Infrastruktur rasch aufgebaut und ein Mix aus unterschiedlichen, auch geschäftskritischen Workloads ausgeführt werden muss. Neben den zahlreichen HCI-Vorteilen gibt es aber auch Einschränkungen.

Was ist eine Hyper Converged Infrastructure?

Eine Hyper Converged Infrastructure integriert Server-, Storage-, und Netzwerk-Komponenten sowie eine übergeordnete Management-Software in einem System oder auch Gerät, das ganze meist in Form einer Appliance und optimiert auf bestimmte Workloads. Die Vorteile dieser vorkonfigurierten Systeme liegen in ihrer Energieeffizienz und Skalierbarkeit, dem einfachen Deployment dieser Systeme und der oftmals intuitiven Verwaltbarkeit der IT-Infrastruktur.

HCI im Kontext der bestehenden Systemlandschaft

Ein wesentlicher Teil der IT-Systemlandschaft eines Unternehmens besteht aus Servern für die Datenverarbeitung, Storage-Systemen für die Datenspeicherung und Netzwerk-Komponenten, die beide Ressourcen miteinander verbinden. Ein Converged-Produkt ist eine spezielle Form von Appliance, die alle drei genannten Bereiche in sich vereint. Prinzipiell betrachtet ist jeder Server ein Converged-Produkt, da er a priori über die dazu notwendigen Funktionalitäten verfügt.

Mittlerweile kann ein moderner Standard-Server bis zu 24 Festplatten oder SSDs aufnehmen. Spezielle Bauformen wie etwa der Dell PowerEdge VRTX beherbergen in einem Gehäuse bis zu vier Server und verfügen über eigene Storage- und Netzwerk-Komponenten.

Das Besondere an einem Hyper-Converged-Konstrukt ist, dass viele der konvergenten Bausteine intelligent miteinander verbunden werden können. Ein Hyper-Converged Datacenter besteht nur noch aus Servern, ohne jegliche externe Storage-Produkte wie Arrays oder Storage-Area-Network (SAN)-Switches. Die Daten einer Applikation auf einem Server werden automatisch auf einen oder mehrere andere Server in einer Hyper-Converged-Umgebung übertragen – ohne Notwendigkeit von SAN oder NAS (Network Attached Storage). Insofern ist keine zusätzliche Administration vonnöten. Virtualisierung ist allerdings zwingend vorgegeben.

Ob die Einführung einer Hyper-Converged-Lösung sinnvoll ist, hängt von vielen individuellen Gegebenheiten innerhalb der Unternehmens-IT ab. Klassische IT-Ansätze und Hyper-Converged-Umgebungen schließen sich keineswegs aus, was Unternehmen die Möglichkeit gibt, Daten ganz einfach zwischen beiden Welten zu migrieren.

Konvergenz versus Hyper-Konvergenz

Eine Converged Infrastructure (CI) ist im Prinzip ein einfaches, strategisches und vergleichsweise kostengünstiges Verfahren um komplexen Anforderungen and eine flexible IT-Infrastruktur gerecht zu werden. Bei dieser Art der Infrastruktur werden alle Server Appliances in einer kompakten Hardware geliefert. Konsequenz: Die IT-Abteilung hat nur noch mit einem einzigen Anbieter für den Support zu tun. Weil eine CI ein sehr kompaktes System ist, entfallen Investitionen bezüglich weiträumigen physischen Platz für eine Vielzahl von Hardware.

Die Hyper-Converged Infrastructure(HCI) führt wie die CI verteilte IT-Infrastruktur-Komponenten zusammen. Aber: Im Falle von HCI wird die Infrastruktur von einem Anbieter mittels Software geliefert. Diese Software enthält in der Regel ein einziges Dashboard, in dem man das gesamte IT-Framework verwalten und bereitstellen kann.

Sowohl CI als auch HCI lösen mehrstufige IT-Infrastrukturprobleme, aber auf unterschiedliche Weise. CI ist Hardware-basiert, HCI hingegen läuft über Software. CI enthält verschiedene Hardware-Komponenten – sie lassen sich zerlegen, und eigenständige Geräte können wie gewohnt verwendet werden. So kann etwa der Server selbstständig ausgebaut und genutzt werden, und einzelne Speichereinheiten lassen sich unabhängig voneinander isolieren und nutzen.

Weil HCI den Weg über die Software nimmt, müssen alle Komponenten zusammen verwaltet werden. HCI ist im Allgemeinen weniger anpassungsfähig, und die Benutzer haben keine Kontrolle darüber, was sie von der Erstinstallation erhalten. Die Verwendung von Software bedeutet jedoch, dass man mit einer bestimmten Menge an Speicherplatz starten und on-demand das Volumen zu relativ geringen Kosten erhöhen kann. Bei CI hingegen bedeutet höherer Speicherbedarf zwangsläufig, dass zusätzliche Hardware angeschafft und installiert werden muss, was zusätzliche Kosten verursacht. Mit Blick auf die Einrichtungskosten ist HCI allerdings teurer als CI aufgrund der zu erwerbenden Software-Lizenzen.

Dank HCI ein deutliches Plus an Innovationskraft

Wenn es darum geht, zeitnah und mit möglichst geringem Aufwand eine moderne Cloud-Infrastruktur auf die Beine zu stellen, setzen viele Unternehmen auf Hyper Converged Infrastructure. IDC zufolge wird das Marktvolumen für HCI-Lösungen im Jahr 2021 bei circa 7,6 Milliarden Dollar liegen (2016: 2 Milliarden Dollar). Die Ursache dafür sehen die Analysten insbesondere darin, dass sich hyperkonvergente Infrastrukturen großer Beliebtheit erfreuen in Einsatzgebieten, in denen ein bunter Mix aus Workloads ausgeführt werden soll, inklusive solcher, die als geschäftskritisch eingestuft werden.

Folglich befragte das Analystenhaus Unternehmen, die auf HCI-Lösungen des Marktführers Dell EMC setzen, welche Vorteile sie durch den Einsatz dieser Lösungen erschließen konnten:

  • Leistungsfähige Business Apps und Services an dezentralen Standorten.
  • Flexible Infrastruktur, die das Business unterstützt – gleichzeitig aber weniger manuelle Eingriffe erfordert.
  • Massiver Rückgang ungeplanter Ausfallzeiten.
  • Durchschnittlich knapp ein Viertel geringere Kosten im Vergleich zu anderen Infrastruktur-Ansätzen .
New call-to-action

Wenn der Budget-Schuh drückt

Wenn der Budget-Schuh drückt

Sie würden Ihre IT-Infrastruktur gerne umfassend modernisieren – aber das jährliche IT-Budget ist längst ausgeschöpft oder die aktuellen Systeme noch nicht abgeschrieben? Mit dem richtigen Partner ist das kein Hindernis! Dell bietet Ihnen im Rahmen der Dell Financial Services verschiedene Möglichkeiten, zeitnah die Technologien anzuschaffen, die Ihr Unternehmen benötigt.

„Dell Financial Services 006 Lease“ für Storage zum Beispiel hilft Ihnen flexibel zu agieren:

  • bezahlen Sie in sechs Monaten, im kommenden Quartal oder im kommenden Geschäftsjahr;
  • verwenden Sie nicht genutztes Budget für andere Investitionen;
  • migrieren Sie Ihre IT-Umgebung ohne Vorabkosten;
  • zusätzlich bietet Dell EMC sechs Monate kostenfreie Hard- und Software-Wartung;

Dieses Leaflet von Dell Financial Services fasst kurz und prägnant alle wesentlichen Benefits des 006 Lease zusammen.

Die Angebote von Dell Financial Servicesermöglichen eine deutlich flexiblere IT-Budgetplanung und ist auf eine breite Palette verschiedener Produkte und Lösungen von Dell  Technologies anwendbar. Selbst 3rd Party Komponenten, Software und Serviceleistungen, wie Installation und Implementierung können in einem Projekt mitfinanziert werden.

Um regelmäßig einen Refresh der IT zu gewährleisten nutzen Sie das Fair Market Value Lease und zahlen in der Summe über 36 Monate weniger als bei Barkauf.

Überzeugen Sie sich selbst von den Vorteilen, die Ihnen Dell Financial Services bietet.

New call-to-action

Mediathek

Share on xing
Share on twitter
Share on linkedin
Share on email
Loading...