So sieht Digitalisierung aus

In der digitalen Geschäftswelt entstehen enorm viele strukturierte wie unstrukturierte Daten. In diesem Umfeld müssen Unternehmen ihre IT-Infrastruktur neu ausrichten, um das Potenzial rund um neue wettbewerbsdifferenzierende Geschäftsmodelle bestmöglich auszuschöpfen – mithilfe von State-of-the-Art-Technologien für Data-Analytics, künstliche Intelligenz (KI) und Co. Erfahren Sie, wie Sie eine IT-Infrastruktur sowie Storage-Umgebung planen und realisieren, die genau Ihren Anforderungen entspricht.

Wie Sie den Grundstein für Innovationen legen

  1. 1
    Mit Big-Data-Analytics, KI und Co. die Zukunft gestalten
    Aus Big Data verwertbare Informationen erzeugen – das geht am besten mit einem Mix aus hochentwickelter Analyse und künstlicher Intelligenz (KI). Das Ziel ist, Erkenntnisse zu gewinnen, die Entscheidungsprozesse unterstützen und Entscheidungen nachvollziehbar machen. Weiterlesen...
  2. 2
    Edge- und Mesh-Computing zum Verarbeiten und Analysieren von IoT-Daten

    Einen Großteil des heutigen Datenvolumens erzeugt das Internet of Things (IoT) bzw. das Industrial Internet of Things (IIoT) – also die Vernetzung von Akteuren, wie Menschen, Geräten, Maschinen oder Sensoren, mit Geschäftsdaten sowie -prozessen. Edge- und Mesh-Computing helfen dabei, die exponentiell steigende Datenmenge möglichst in Echtzeit zu übertragen und zu verarbeiten. Weiterlesen...

  3. 3
    Innovative Storage-Konzepte für die wachsende Datenflut
    Datenintensive Technologien und Prozesse brauchen enorme Speicherkapazitäten. Die diesbezüglichen Anforderungen lassen sich durch Kombination von On-Premise-Storage und Cloud-Speichern meistern. Eine digitale Zukunft hat jedoch nur, wer sein Datacenter umfassend modernisiert und Legacy-Systeme ersetzt. Weiterlesen...
  4. 4
    So finden Sie die richtige Storage-Strategie
    Um das digitale Geschäft voranzubringen und vorhandene Daten als Asset optimal zu nutzen, brauchen Unternehmen eine effiziente Storage-Strategie. Je nach Anforderung empfehlen sich unterschiedliche Speichertechnologien, die sich bei Bedarf auch kombinieren lassen. Weiterlesen...
  5. 5
    All-Flash-Arrays und SDS: Speichertechnologien der Zukunft
    Was genau ist ein All-Flash-Array? Worin unterscheidet es sich von anderen Speichertechnologien? Und welche Vorteile bringt es? Was bietet darüber hinaus ein Software-Defined Storage im Kontext von Big Data, IoT und KI? Und wo liegen die wichtigsten SDS-Trümpfe? Antworten auf diese und weitere Fragen gibt es hier. Weiterlesen...
  6. 6
    Wie Hyperkonvergenz kritische Workloads optimal unterstützt
    Eine hyperkonvergente Infrastruktur (Hyper-Converged Infrastructure, HCI) ist das Mittel der Wahl, um Datacenter umfassend zu modernisieren. Eine HCI bringt zahlreiche Vorteile rund um Administration, Geschwindigkeit, Anpassungsfähigkeit und Kosten, unterliegt jedoch auch Nutzungseinschränkungen. Weiterlesen...
  1. Downloads

Mit Big-Data-Analytics, KI und Co. die Zukunft gestalten

Die Menge der weltweit erzeugten Daten wächst exponentiell, bis 2025 soll sie laut IDC auf 163 Zettabyte (ZB) steigen. Neben strukturierten Daten fallen immer mehr unstrukturierte Daten verschiedenster Quellen an und werden Bestandteil von Geschäftsmodellen oder Prozessen. So etwa Social-Media-Einträge, Bilder und Videos, Geoinformationen oder auch IoT-Daten von Sensoren in Windkraftanlagen, Maschinen, Fahrzeugen und Haushaltsgeräten, um nur einige Beispiele zu nennen.

Mit Daten als Asset Wettbewerbsvorteile schaffen

Verbunden mit aufstrebenden Analytics- und KI-Verfahren führt dies zu einer digitalen Transformation klassischer Geschäftsmodelle, die unser Leben nachhaltig verändern wird. Dafür brauchen Unternehmen eine Big-Data-Strategie. Diese kann aber nur so viel bringen wie die Daten, die ihr zugrunde liegen. Ein effizientes Datenmanagement ist deshalb unabdingbar. Nur dann lassen sich Muster erkennen und Daten durch Analysewerkzeuge oder KI-Algorithmen so segmentieren, dass daraus wertvolle Informationen entstehen – für daten- und faktenbasierte Entscheidungen.

Auch für das Entwickeln und Realisieren innovativer Produkte, Services oder Geschäftsmodelle spielen Daten eine immer größere Rolle. Dadurch werden sie zu einem Wirtschaftsgut (Asset) wie Gebäude, Maschinen oder Umlaufvermögen – und zu einem Kapital, mit dem sich wie bei physischen Assets Gewinne und Mehrwert erzielen lassen.

In Verbindung mit Echtzeit-Analysen und KI schaffen Big Data eine wichtige Voraussetzung für die Wettbewerbsfähigkeit von Unternehmen. So will etwa der US-Mobilfunk-Provider Sprint durch moderne Analysetechnologien die Customer-Experience optimieren, um der Konkurrenz einen entscheidenden Schritt voraus zu sein.

Erfahren Sie, wie Sie aus Daten wertvolles Kapital machen, welche Herausforderungen zu meistern sind und wie Dell EMC Sie unterstützen kann. Lesen Sie das Whitepaper „Unlock the Power of Data Capital: Accelerate DX“ für detaillierte Informationen.

New call-to-action

Von Big Data zu Big-Data-Analytics

Eine Kernaufgabe von Big-Data-Analytics ist, große Datenmengen unterschiedlichster Quellen und Formate zu erfassen, zu systematisieren und für Analysen aufzubereiten. Auch müssen Analytics-Anwendungen mehrere Anforderungen gleichzeitig meistern können:

  • eine große Anzahl verschiedenster Datensätze blitzschnell importieren und parallel verarbeiten
  • Suchabfragen nahezu in Echtzeit durchführen und mehrere Abfragen zeitgleich bearbeiten
  • unterschiedlichste Arten von Informationen analysieren

Mit Predictive Analytics die Zukunft im Blick

Mit Business-Analytics lassen sich Ursachen, Folgen, Auswirkungen und Wechselwirkungen von Ereignissen klären oder auch Handlungsalternativen aufzeigen und simulieren. Damit nicht genug. Unternehmen, die am Markt bestehen wollen, müssen schon heute ihre Zukunft gestalten können – anhand möglichst genauer Prognosen. Präzise, verlässliche Informationen dazu liefern vorausschauende Analysen mit Predictive-Analytics-Tools, die Data-Mining sowie automatisierte Prognoserechnungen auf granularer Datenebene ermöglichen.

Die Vorteile liegen auf der Hand: Wer heute schon weiß, dass die Produktnachfrage in vier Monaten steigen wird, kann seine Fertigungs- und Bestandsplanung beizeiten anpassen – und so Lieferengpässe vermeiden. Predictive Analytics ermöglicht Fertigungsunternehmen auch eine vorausschauende Instandhaltung (Predictive Maintenance) ihrer Maschinen. So lassen sich nötige technische Maßnahmen einleiten, bevor eine Maschine ausfällt oder Ausschuss produziert. Das erhöht die Maschinenverfügbarkeit sowie Produktivität und macht es möglich, Instandhaltungsarbeiten in produktionsfreie Zeitfenster zu legen.

business_analytics

KI wird zum Motor der Digitalisierung

Noch einen entscheidenden Schritt weiter gehen selbstlernende KI-Systeme mit Technologien für Machine-Learning, Deep Learning oder automatische Spracherkennung. Solche KI-Systeme sammeln, korrelieren, bewerten und interpretieren Daten unterschiedlicher Quellen, ziehen selbst Rückschlüsse und leiten daraus Vorschläge oder Aktionen ab. Dadurch lassen sich Prozesse vollständig automatisieren. Nicht umsonst gilt KI als Motor der Digitalisierung. Gleichzeitig entlastet der KI-Einsatz Mitarbeiter von Routinearbeiten und verschafft ihnen mehr Zeit für ihre Kernaufgaben. Damit ein KI-System einwandfrei funktioniert und Erlerntes korrekt auf neue Situationen überträgt, sind hochwertige Daten zum Trainieren der Algorithmen eine Grundvoraussetzung.

machine_lerning

KI als Enabler neuer Geschäftsmodelle

Die digitale Business-Transformation zwingt Unternehmen jeder Branche und Größe, all ihre Geschäftsmodelle auf den Prüfstand zu stellen, auch erfolgreiche. In Zukunft wird der Wettbewerb nämlich über datengetriebene Geschäftsmodelle ausgetragen. Hier kommen KI-Technologien als Enabler ins Spiel – zum Optimieren bestehender und Aufbauen neuer Geschäftsprozesse für innovative Geschäftsmodelle und Strategien.

Bei einer Deloitte-Umfrage zeigten sich drei Viertel der 250 befragten Unternehmen davon überzeugt, dass ihnen KI-Technologien große Geschäftsvorteile bringen. KI soll nicht nur die Betriebsabläufe automatisieren, optimieren und effizienter machen, sondern vor allem auch schneller zu besseren Entscheidungen führen. Damit künstliche Intelligenz ihre Vorteile voll ausspielen kann, muss sie sich allerdings jederzeit auf den Menschen einstellen können. Dafür ist noch ein gutes Stück Weg zu gehen.

New call-to-action

Edge- und Mesh-Computing zum Verarbeiten und Analysieren von IoT-Daten

Das Internet der Dinge (Internet of Things, IoT) bzw. das industrielle Internet der Dinge (Industrial Internet of Things, IIoT) liefert die Grundlage für eine Vernetzung von Dingen, Nutzern und Unternehmen nebst Partnern. IoT- bzw. IIoT-Technologien sind wichtige Bausteine, um Prozesse effizienter und produktiver zu machen sowie die Qualität von Produkten und Services zu verbessern: ob in der Fertigungsindustrie und Energiewirtschaft oder im Transportwesen, Handel und öffentlichen Sektor.

Das IoT: Schlüsselfaktor für die Digitalisierung

Gleichzeitig sind IoT- und IIoT-Technologien Katalysatoren für die Entwicklung datengetriebener Geschäfts- sowie Servicemodelle. Man denke nur an Industrie-4.0-Szenarien wie Predictive Maintenance (vorausschauende Instandhaltung), mit der Unternehmen Maschinenausfällen und Fehlproduktionen zuvorkommen können.

Auch in der Intralogistik verbessern IoT-Technologien die Qualität und Transparenz der Prozesse maßgeblich. Tragen zum Beispiel Bauteile und Halbfabrikate einen Barcode oder RFID-Tag, lassen sich ihre Wege in Echtzeit verfolgen: vom Wareneingang über die Kommissionierung und Produktionsversorgung bis hin zum Transport und Versand. Das erhöht die Bestandssicherheit, und Fertigungsstätten werden schnell sowie zuverlässig versorgt.

Prozesse und Geschäftsmodelle neu denken

Dank IoT lassen sich nicht nur Fertigungs-, Instandhaltungs- und Serviceprozesse modernisieren. Auch neue, disruptive Bezahlkonzepte werden möglich, wie das Pay-per-Use-Modell: Statt Maschinen oder Geräte zu kaufen zahlt der Kunde lediglich ein verbrauchsabhängiges monatliches Nutzungsentgelt. Bei Industrienähmaschinen wird zum Beispiel nach Stichen oder Nähläufen abgerechnet, bei gewerblichen Geschirrspülmaschinen nach Spülgängen, bei Kompressoren nach Luftverbrauch.

IoT und IIoT ermöglichen einerseits, Geschäftsprozesse maximal zu digitalisieren und zu optimieren. Andererseits können Unternehmen auch neue, wettbewerbsdifferenzierende Geschäftsmodelle entwickeln. Kein Zufall also, dass sich laut IDG die IoT-Projekte in der DACH-Region von 2018 auf 2019 mehr als verdoppelt haben. Das ergab eine Erhebung von Computerwoche, ChannelPartner, CIO und TecChannel, bei der über 500 Firmenentscheider zu IoT-Anschauungen, -Plänen und ‑Projekten befragt wurden. Die Analysten von Gartner sehen vor allem das Industrial Internet of Things (IIoT) im B2B-Bereich als Wachstumsmotor der nächsten Jahre.

OT- und IT-Welt verknüpfen

Um IIoT-Potenziale auszuschöpfen, sind Operational Technology (OT) und Informationstechnologie (IT) zu verknüpfen – zwei Welten, die bisher getrennt waren. Nur wer IoT-Daten mit ERP- oder MES-Daten (Manufacturing-Execution-System) zusammengeführt und analysiert, kann Verbesserungspotenziale so effizient nutzen, dass echter Mehrwert entsteht: ob in der Produktion und Intralogistik oder im Transportwesen, Handel und öffentlichen Sektor (Stichwort „Smart City“).

Für datenintensive IoT- und IIoT-Szenarien gilt eine leistungsstarke IT-Architektur als erfolgskritischer Faktor. Bewährt haben sich Cloud-basierte IoT-Plattformen, die das Vernetzen von OT- und IT-Welt erleichtern. Und zwar in Verbindung mit SaaS-Lösungen (Software as a Service) zum Managen und Analysieren von IoT-Daten.

Der Knackpunkt sind kurze Latenz- bzw. Antwortzeiten. Große Datenmengen und Entfernungen können die Übertragung verzögern, etwa wenn Sensordaten von ihrem Entstehungsort an Rechenzentren oder Public Clouds fließen. Dann werden Entscheidungen in Echtzeit unmöglich. Wichtig sind deshalb auch große Bandbreiten und hochverfügbare Services: zum Beispiel für das Berechnen von Produktionskennzahlen, wie Maschinentaktzeiten oder -stillstände.

IoT braucht Edge- und Mesh-Computing

Um Performance-Engpässe und Übertragungsausfälle zu vermeiden, sind intelligente, dezentrale Ansätze und Konzepte gefragt. Hier kommen Edge- und Mesh-Computing ins Spiel.

Beim Edge-Computing werden IoT-Daten dort sortiert und verarbeitet, wo sie entstehen. Edge-Computing bildet eine Schicht zwischen IoT-Welt und Rechenzentrum bzw. Public Cloud. In dieser Schicht lassen sich IoT-Daten sinnvoll mit Informationen aus anderen IT-Systemen (ERP-System etc.) verknüpfen, umfassend analysieren und direkt weiterverarbeiten. Edge-Computing regelt auch den Datenfluss. Je nach Bedarf können Daten vorgefiltert und, falls überflüssig, gelöscht werden. Dann fließen nur noch relevante Daten ins Rechenzentrum oder die Public Cloud, was etwaige Latenzen verringert.

Mesh-Computing treibt die dezentrale Datenverarbeitung auf die Spitze. „Mesh“ steht für ein Maschennetzwerk, bei dem jeder Netzwerkknoten (Node) mit einem oder mehreren anderen Knoten verbunden ist. Die größten Vorteile eines Mesh-Netzwerks: Nodes, wie etwa IoT-Geräte, können statt übers Internet direkt miteinander kommunizieren, und es gibt keinen Single Point of Failure. Dadurch sind Mesh-Topologien äußert fehlerresistent. Ist ein Node nicht erreichbar, beeinträchtigt das weder die Kommunikation der übrigen Nodes noch die Datenübertragung innerhalb des Netzwerks.

Neben alldem empfiehlt es sich, für IoT-Endpoints anstelle herkömmlicher Prozessoren moderne, stromsparende Spezial-Chips mit eingebetteten KI-Funktionen zu verwenden.

 

Edge-Computing

Stiefkind Datenschutz

Beim Umsetzen von IoT- oder IIoT-Szenarien sind Datenschutzaspekte von Anfang an zu berücksichtigen und ein datenschutzkonformer Betrieb der IoT-Geräte sicherzustellen. Werden personenbezogene Daten verarbeitet, greift die Datenschutzgrundverordnung (DSGVO).

Nach Ansicht der Management- und IT-Beratung Capgemini entwickeln sich IoT-Technologien und IoT-basierte Geschäftsmodelle heute so schnell, dass für Datenschutz oft nur wenig Zeit bleibt – Stichwort „Time to Market“. Wichtig sei, dass die „Data Protection by Design and by Default“ gemäß Art. 25 DSGVO fester Bestandteil der Unternehmens-DNA werde – und ihre Anwendung zur Selbstverständlichkeit: kombiniert mit den Prinzipien zur Minimierung wie Pseudonymisierung von Daten.

Innovative Storage-Konzepte für die wachsende Datenflut

Schon heute werden enorme Datenvolumen verarbeitet und analysiert, die exponentiell wachsen, Tag für Tag – Big Data eben. Das Analystenhaus IDC schätzt, dass die weltweit generierte Datenmenge bis 2025 auf 175 Zettabyte steigen wird (2018 waren es noch 33 ZB). Knapp zwei Drittel der Daten fallen in Unternehmen an. Das sind nicht nur strukturierte Daten, sondern immer öfter auch unstrukturierte. So etwa Bilder und Videos aus sozialen Medien oder IoT-Daten von Sensoren diverser Maschinen, Anlagen und Geräte.

Auf diese Daten stützen sich digitale Geschäftsmodelle und -prozesse. Deshalb müssen die vielen fragmentierten Daten möglichst in Echtzeit gesammelt, verarbeitet und validiert sowie sinnvoll verknüpft und analysiert werden: mit Business-Analytics und KI. Denn der Erfolg datengetriebener Geschäftsmodelle und -prozesse hängt wesentlich davon ab, dass die Daten, Analyseergebnisse etc. schnell und jederzeit verfügbar sind. Nur so können Unternehmen die Agilität und Flexibilität erzielen, die ihnen der digitale Wandel abverlangt.

On-Premise- und Cloud-Storage kombinieren

Das setzt nicht nur kurze Latenzzeiten voraus, sondern stellt auch hohe Anforderungen an die Storage-Infrastruktur und Speicherkapazität. Deshalb empfiehlt es sich, für Datenspeicherung und Datenmanagement neben Storage-Systemen im lokalen Rechenzentrum auch Speicherkapazität in der Public Cloud zu nutzen. Hybride Speicherszenarien wie diese sind heute State of the Art.

Das enorme Datenwachstum lässt sich nur bewältigen, wenn vorhandene Storage-Systeme durch Cloud-Speicher ergänzt und erweitert werden. Da sind sich alle namhaften Marktanalysten einig. On-Premise-Speichersysteme und Storage-Area-Networks (SANs) haben dennoch ihre Berechtigung. Etwa wenn es darum geht, sensible Geschäftsdaten zu schützen – Stichwort „Datenhoheit“ – oder weiterreichende Compliance-Anforderungen zu erfüllen.

Also empfiehlt es sich, Informationen gezielt im Rechenzentrum oder in der Cloud zu speichern, wodurch sich auch der Zugang zu häufig verwendeten Daten beschleunigen lässt. Für die nötige Performance sorgt ein intelligentes Storage- und Data-Tiering-Konzept, das unter anderem In-Memory-Lösungen nutzt: Diese speichern Daten in RAM-Bausteinen und ermöglichen dadurch einen schnellen Zugriff.

Für IT-Verantwortliche stellt sich also die Frage, wo sie welche Daten speichern. Meist entscheiden sie sich für eine hybride Cloud-Umgebung, die zahlreiche Vorteile bietet. Die leichte Skalierbarkeit, hohe Verfügbarkeit und ständige Weiterentwicklung von Public Clouds mit IaaS und PaaS bringen Flexibilität. Durch das Speichern geschäftskritischer Daten in einer Private Cloud behalten Unternehmen zudem die Datenhoheit und können regulatorische Vorgaben erfüllen.

Wie die Beispiele zeigen, werden Big Data und digitale Geschäftsmodelle das Rechenzentrum und die Storage-Strategien nachhaltig verändern. John Roese, CTO und Präsident von Dell EMC, und Glen Robson, Senior Vice President of Client Innovation von Dell Technologies, sind überzeugt: Daten werden künftig dort gespeichert und bereitgestellt, wo man sie braucht. Also in On-Premise-Rechenzentren und Edge-Locations sowie Private oder Public Clouds, die neben Speicher- und Server-Kapazität auch KI-basierte Big-Data- und Analytics-Tools bieten. Nach Einschätzung von Dell gehört die Zukunft solchen Multi-Tier-Cloud-Modellen.

Sie möchten wissen, wie andere namhafte Experten und IT-Entscheider die Sache sehen? Dann klicken Sie hier.

Schluss mit Ineffizienz durch veraltete Technologien

Legacy-Systeme bremsen die Prozessdigitalisierung aus und sind eine enorme Innovationshürde, da schon allein ihre Wartung einen Großteil des IT-Budgets verschlingt. Also kann es eine digitale, datengetriebene Zukunft für Unternehmen nur geben, wenn sie veraltete Systeme durch eine moderne IT-Infrastruktur ersetzen. Eine Infrastruktur, die in puncto Geschwindigkeit, Skalierbarkeit und Flexibilität den hohen Anforderungen des digitalen Business genügt. Das bestätigt auch eine aktuelle Studie von IDG Research: Knapp 60 Prozent der deutschen Unternehmen sind davon überzeugt, dass die erfolgreiche digitale Transformation eine Modernisierung der IT-Infrastruktur voraussetzt.   Doch ist es nicht damit getan, Altsysteme per Lift-and-Shift-Verfahren in eine Public-Cloud-Umgebung zu verlagern. Für die erfolgreiche Unternehmens- und IT-Transformation braucht es eine strategische Neuausrichtung der gesamten IT-Architektur und IT-Infrastruktur, inklusive Einbindung von Public-Cloud-Diensten. Im Durchschnitt investieren „transformierte“ Organisationen fast ihr halbes IT-Budget in Innovationen. Darauf verweist eine globale Umfrage bei knapp 4.000 IT-Entscheidern, durchgeführt von der Enterprise Strategy Group (ESG). Nichtsdestotrotz spielen die Kosten eine große Rolle, wie die ESG-Analysten anmerken: „Selbst transformierte IT-Organisationen werden daran gemessen, ob sie die Kosten niedrig halten und Projekte ohne Überschreitung des festgesetzten Budgetrahmens umsetzen können.“ Deshalb müssen IT-Führungskräfte ihre Ausgaben und den Return on Investment (ROI) stets im Blick haben. Erfahren Sie mehr über konkrete Modernisierungsvorteile und weitere Ergebnisse der ESG-Studie – mit nur einem Klick.

Exkurs: Zentrale Bausteine für die erfolgreiche IT-Transformation

Um die IT-Transformation zielgerichtet zum Erfolg zu führen, bedarf es einer ganzheitlichen Steuerung. Diese umfasst laut dem Beratungshaus Horvath & Partners unter anderem folgende drei Bausteine:

  • Entwicklung eines IT-Zielbildes, das sich am Business und an den Anforderungen orientiert, wie sie etwa mit der Digitalisierung einhergehen. Dazu werden im Rahmen des Transformationsdesigns detaillierte Maßnahmen nebst zugehörigem Business-Case definiert und dann in eine Transformation-Roadmap überführt.
  • Erarbeitung einer Transformationsstrategie, die zwar ambitioniert ist, das Unternehmen aber nicht überfordert. Im Idealfall erfolgt die Transformation im Sinne eines Continuous Transformation-Managements und wird laufend an etwaige neue Gegebenheiten angepasst.
  • Nutzung eines Enterprise-Architecture-Managements (EAM), um die Business-Anforderungen und das IT-Zielbild in einer optimal abgestimmten IT-Architekturstrategie abzubilden. Diese dient als Ausgangspunkt für die übergreifende IT-Architekturplanung, die ebenfalls laufend zu überprüfen und falls nötig anzupassen ist (Continuous Architecture-Management).

RZ-Modernisierung mit einem erfahrenen Partner

Wucht und Tempo, mit der die digitale Transformation inzwischen das Business durchdringt, markieren einen Wendepunkt für Unternehmen aller Branchen. Denn Markterfolg und Wettbewerbsfähigkeit setzen heute eine Digitalisierungsstrategie voraus, die Agilität, Flexibilität sowie Innovation ermöglicht und neue Markt- sowie Umsatzchancen eröffnet. Dafür müssen IT-Entscheider unter anderem all ihre RZ-Komponenten auf den Prüfstand stellen, um etwaige Ineffizienzen zu lokalisieren. Ausgehend davon können sie ihr Rechenzentrum im Rahmen eines ganzheitlichen Modernisierungskonzepts gezielt zukunftsfähig machen: mit Komponenten, die heute technologisch State of the Art sind.

Das Whitepaper „IT-Transformation und ihre Auswirkungen auf die Technologie“ liefert Tipps für die IT-Modernisierung. Außerdem zeigt es auf, wo versteckte Kosten lauern und wie sich Ineffizienzen über alle Instanzen hinweg verhindern lassen.

Um die RZ-Modernisierung effizient zu bewältigen, ist die Unterstützung durch einen erfahrenen Partner mit einschlägigem Know-how unerlässlich. Warum das so ist? Finden Sie’s heraus und lesen Sie jetzt den Artikel „Ineffizienzen beenden!“.

New call-to-action

So finden Sie die richtige Storage-Strategie

Heute hängt die Wettbewerbsfähigkeit eines Unternehmens wesentlich davon ab, wie schnell es strukturierte oder auch unstrukturierte Daten (etwa IoT-Daten) verarbeitet und analysiert. Solche Daten, die rapide zunehmen, sind ein wertvolles Asset. Denn sie bilden die Grundlage für digitale Geschäftsmodelle und -prozesse.

Um Datenkapital bestmöglich zu nutzen, brauchen Unternehmen eine effiziente Storage-Strategie, die konsequent an den individuellen Anforderungen ausgerichtet ist. Ausgangspunkt für ein tragfähiges Storage- und Datenmanagement-Konzept ist die detaillierte Analyse des kompletten Datenbestands. Zudem wollen eingesetzte Storage-Technologien optimal aufeinander abgestimmt sein. Cloud-Storage, Flash-Storage mit Solid-State-Drives (SSD), Software-Defined Storage (SDS) und Object-Storage – jede dieser Technologien hat ihre Vorteile:

New call-to-action

Cloud-Storage: Heute müssen nicht mehr alle Daten on Premise gespeichert und verarbeitet werden. Sie lassen sich auch in einzelnen oder mehreren Cloud-Speichern (Multi-Cloud) sowie an der Edge aufbewahren. Mit modernen Storage-Lösungen können Unternehmen außerdem dynamische Workloads in angebundene Storage-Clouds auslagern, was eine noch effizientere Datenspeicherung erlaubt.

Software-Defined Storage (SDS): SDS-Lösungen ermöglichen, Speicher-Ressourcen einfach und effizient zu allokieren, ganz nach Bedarf. Zudem versprechen softwarebasierte Storage-Funktionen kürzere Modernisierungszyklen und ein höheres Innovationstempo.

Full-Flash-Datacenter: Flash-Speicherlösungen bieten einen deutlich schnelleren Datenzugriff als klassische Plattensysteme, erleichtern die Datenverwaltung und bringen spürbare Kostenvorteile. Dank kurzer Latenz- und Wartezeiten ermöglichen Flash-Systeme außerdem, andere Infrastrukturkomponenten besser auszulasten.

All-Flash- und Hybrid-Flash-Storage: Moderne All-Flash-Speicher bieten Funktionen für Hochverfügbarkeit und Desaster-Recovery sowie Quality-of-Service-Merkmale und sind heute auch für mittelständische Unternehmen erschwinglich. Wer All-Flash-Lösungen durch NAND/NVMe-Speicher und neue Protokolle wie RDMA inklusive iWARP erweitert, beschleunigt die Storage-Prozesse zusätzlich.

Mehr zum Thema Flash-Speicher erfahren Sie im folgenden Kapitel. =

Auch unter Kostenaspekten spricht vieles für eine hybride Speicherlandschaft: bestehend aus einem schnellen, höherpreisigen Flash-Storage mit Solid-State-Drives (SSD) und langsameren, dafür aber preisgünstigeren Festplatten (Disks).

Bei Primärspeichern für anspruchsvolle Workloads geht der Trend zum All-Flash-Storage, fürs Konsolidieren von Speicherumgebungen hingegen zum Hybrid Storage. Mit fortschreitender Digitalisierung spielen auch Hyperscale-Speichersysteme eine zunehmende Rolle, da sie extrem leistungsstark sind. Damit lassen sich selbst riesige, stetig wachsende Datenmengen speichern und schnell analysieren.

Object-Storage: Der Objektspeicher gewinnt als Storage-Architektur an Bedeutung – vor allem im Kontext von Public-Cloud-Umgebungen und Enterprise-Storages, Stichwort „SDS“ oder „Scale-out“. Objektspeicher ermöglichen einen schnellen Datenzugriff und sind skalierbar. Sie basieren auf dem S3-Protokoll und lassen sich unabhängig vom Betriebssystem oder Client-Dateisystem nutzen – für alle Dateitypen. Zudem kommen sie ohne File-Locking aus.

Data-Protection, KI und High Performance

Damit sensible Geschäfts- und Kundendaten immer optimal geschützt sind, braucht es eine Data-Protection-Lösung – als  zentralen Baustein jeder Storage-Strategie. Speziell für Unternehmen mit kleinerer IT-Abteilung bieten sich schlüsselfertige Data-Protection-Appliances an. Sie bündeln Funktionen für Backup, Deduplizierung, Replikation sowie Recovery, lassen sich mit wenig Aufwand implementieren sowie administrieren und sind im Idealfall Cloud-fähig. Wird eine solche Appliance mit einem klassischen Bandspeicher (Tape) kombiniert, entsteht eine zukunftsorientierte Storage-Lösung.

Darüber hinaus ist es lohnend, auch über den Einsatz künstlicher Intelligenz (KI) nachzudenken. Dann müssen etwa Performance-Probleme nicht mehr manuell und zeitaufwendig durch IT-Mitarbeiter behoben werden, sondern lassen sich automatisch von selbstlernenden KI-Systemen lösen. Wichtig ist dabei ein zentrales Management über alle Ebenen hinweg.

Welche Punkte beim Entwickeln und Umsetzen einer individuellen Storage-Strategie zu beachten sind, erfahren Sie in dieser Infografik:

New call-to-action

All-Flash-Arrays und SDS: Speichertechnologien der Zukunft

All-Flash-Speicher, auch All-Flash-Arrays (AFA) genannt, und Software-Defined Storages (SDS) bieten bei großen Datenmengen viele Vorteile. Welche das sind, wird im Folgenden näher erläutert.

Was ist eigentlich ein All-Flash-Speicher?

All-Flash-Speicher bzw. All-Flash-Arrays nutzen statt klassischer Festplatten mit rotierenden Scheiben ausschließlich nichtflüchtigen NAND-Flash: in Form von Solid-State-Drives (SSD) oder proprietären Speichermodulen. Anders als bei Festplatten verbleiben dort die Daten auch bei unterbrochener Stromversorgung im Speicher, etwa während geplanter oder ungeplanter Downtimes.

Techniken zur Datenreduzierung, wie Komprimierung, Deduplizierung oder Thin Provisioning, minimieren den Speicherbedarf und sind beim All-Flash-Storage inzwischen Standard. Geringe Latenzen sorgen für extrem kurze Antwortzeiten, was datenintensive Anwendungen erheblich beschleunigt. Neue Chip-Designs, wie 3D-NAND, moderne Fertigungstechniken und verbesserte oder neu entwickelte Storage-Controller erhöhen die Schreibfestigkeit. Und das NVMe-Protokoll (Non-Volatile Memory Express) verhilft All-Flash-Speichern zu sehr hohen Geschwindigkeiten beim Lesen und Schreiben von Daten (IOPS).

In der heutigen digitalen Geschäftswelt mit ihren leistungshungrigen Datenbanken und zeitraubenden Datenanalysen bringt das echten Mehrwert. Hinzu kommen die gegenüber klassischen Storage-Verfahren niedrigeren Gesamtbetriebskosten bei Speichervorgängen. Laut dem IDC-Report „Legitimation eines Investments in All-Flash Arrays“ braucht ein All-Flash-System mit 200.000 IOPS nur 10 SSDs  statt 1.000 Festplatten. Zudem werden zwischen 5 und 30 Prozent weniger Server benötigt, was Geld für teure Lizenzen spart.

Ein weiteres Plus des All-Flash-Speichers ist seine geringe Fehleranfälligkeit. Anders als Festplattenlaufwerke kommt er ohne bewegliche Teile aus, weshalb die sonst typischen mechanischen Verschleißerscheinungen wegfallen.

In puncto All-Flash-Speicher bescheinigt der US-Marktforscher Forrester den Lösungen von Dell EMC einen hohen und quantifizierbaren Nutzen. So etwa in Bezug auf die IT oder Endnutzer-Produktivität – dank besserer Performance der Applikationen. Aber auch, was Kosteneinsparungen bei Speicher-Hardware sowie Wartung, Energie und Kühlung oder der schnellen Bereitstellung von Applikationen angeht.

Wie viel Sie mit All-Flash-Lösungen sparen können, verrät Ihnen das Forrester-Whitepaper „Total Economic Impact des Dell EMC All-Flash-Speicherportfolios“.

New call-to-action

Hybrid-Flash-Array – eine Alternative zum All-Flash-Array

Das Hybrid-Flash-Array kombiniert Flash-Laufwerke mit weiteren Speichermedien, in der Regel Festplatten (HDDs). Hybrid-Flash-Arrays punkten insbesondere, wenn Unternehmen für aktive wie inaktive Daten eine gemeinsame Storage-Plattform mit optimalem Verhältnis von Wirtschaftlichkeit und Performance wünschen. Beim Hybrid-Storage spielt auch das Data-Tiering eine wichtige Rolle. Dieses legt fest, nach welchen Kriterien Daten automatisch zwischen dem schnellen Flash-Speicher und den langsameren Festplatten hin- und hergeschoben werden.

Software-Defined Storage (SDS): Features, Vorteile und Szenarien

Ein Software-Defined Storage (SDS) macht die IT-Infrastruktur von Unternehmen programmierbar. Somit lässt sie sich stärker automatisieren, leichter skalieren und einfacher verwalten als klassische Infrastrukturen. Möglich ist das, weil SDS die Storage-Software von der Hardware entkoppelt. Dadurch können SDS-Lösungen auf Standard-Hardware oder x86-Systemen laufen. Die Entkoppelung verringert nicht nur die Abhängigkeit von proprietären Hardware-Plattformen erheblich. Sie bringt auch eine enorme Flexibilität in puncto Speicherkapazität, die sich durch Hardware-Upgrades oder ‑Downgrades jederzeit problemlos anpassen lässt.

Kapazität und Leistung sind beim SDS nach dem Scale-out-Prinzip horizontal skalierbar, also unabhängig voneinander. Das bedeutet eine hohe Kosteneffizienz, auch weil der Administrationsaufwand gegenüber herkömmlichen Storage-Systemen deutlich sinkt. Dies wiederum ist dem hohen Automatisierungsgrad zu verdanken, der manuelle Arbeiten auf ein Minimum reduziert, unter anderem durch Auto-Tiering-Funktionen.

SDS-Technologien machen es möglich, verteilte und heterogene physische Speichersysteme zentral zu managen – in einer virtuellen Speicherstruktur. Dadurch lassen sich Storage-Ressourcen flexibel und ganz nach Bedarf zur Verfügung stellen. Daneben sind SDS-Systeme uneingeschränkt skalierbar, da die virtuelle Architektur ein problemloses Einbinden weiterer Datenträger ermöglicht. Somit entfallen auch Einschränkungen durch Knoten, wie etwa beim SAN.

SDS: Die vier wichtigsten Einsatzmöglichkeiten

  • SDS bietet Skalierbarkeit und Agilität für Architekturen rund um Private, Public und Hybrid Cloud.
  • Im Big-Data-Kontext ermöglicht SDS eine schnelle, sichere Analyse von Data-Lakes und verbessert so die geschäftlichen Einblicke.
  • SDS legt das Fundament für eine hardwareunabhängige Hyper-Converged Infrastructure (HCI), die Computing, Storage und Networking in einem System vereint – und die RZ-Architektur vereinfacht.
  • Kombiniert mit Object-Storage ermöglicht SDS ein flexibles sowie zuverlässiges Speichern, Sichern und Wiederherstellen von Daten im Petabyte-Bereich.

Von SDS zum Software-Defined Datacenter (SDDC)

SDS schafft auch eine wichtige Grundlage für das Software-Defined Datacenter (SDDC) mit komplett virtualisierter IT-Infrastruktur. Ein SDDC vereint virtualisierte Computing-Ressourcen (Server), einen softwaredefinierten Massenspeicher (Software-Defined Storage, SDS) und ein softwaredefiniertes Netzwerk (Software-Defined Networking, SDN) samt Cybersecurity-Systemen.

Im SDDC läuft alles softwaregesteuert, automatisiert und entkoppelt von der physischen Hardware. Dadurch wird die IT agil und enorm skalierbar, was die Prozesse vereinfacht. Durch Abstraktion von Computing, Storage, Networking und Security sowie die Cloud-Verbindung sind Ressourcen bedarfsgerecht auf die Workloads verteilbar. Zudem lassen sich Anwendungen oder Services flexibel entwickeln und verändern sowie situativ bereitstellen.

Wie Hyperkonvergenz kritische Workloads optimal unterstützt

Mit einer hyperkonvergenten Infrastruktur (Hyper-Converged Infrastructure, HCI) lassen sich Datacenter hocheffizient modernisieren. Gleichzeitig schafft sie wichtige Voraussetzungen, um die IT-Transformation zu beschleunigen.

Die HCI integriert aufeinander abgestimmte Hardware-Komponenten, wie Server, Storage und Netzwerk, nebst Management-Software in einem System. Meist handelt es sich bei HCI-Systemen um Appliances, die für spezielle Workloads optimiert sind. Eine virtualisierte Server-Umgebung bildet die Grundlage der HCI.

Die Vorteile von HCI-Systemen auf einen Blick

Was vorkonfigurierte hyperkonvergente Systeme auszeichnet? Sie sind äußerst energieeffizient, skalierbar und leistungsstark. Zudem lassen sie sich leicht einrichten, implementieren, verwalten und automatisieren. Das beschleunigt und vereinfacht die Bereitstellung neuer IT-Services, was wiederum mehr Flexibilität bedeutet. Daneben überzeugt die HCI in puncto Gesamtbetriebskosten (TCO), da Speicher und Netzwerk nicht gesondert angeschafft werden müssen wie bei traditionellen Server-Umgebungen.

Dank dieser und weiterer Vorteile nutzen immer mehr Unternehmen eine hyperkonvergente Infrastruktur. Vor allem in IT-Umgebungen mit unterschiedlichen oder auch geschäftskritischen Workloads erfreut sich die HCI großer Beliebtheit. Der US-Marktforscher IDC prognostiziert für 2021 ein Marktvolumen von rund 7,6 Milliarden US-Dollar.

Welchen konkreten geschäftlichen Nutzen bringt eine Modernisierung mit hyperkonvergenten Systemen? IDC hat dazu Unternehmen befragt, die HCI-Lösungen von Dell EMC nutzen. Hier die wichtigsten Vorteile, die IDC in einem Whitepaper aufführt:

  • Bereitstellung leistungsfähiger Business-Apps und IT-Services an dezentralen Standorten
  • Schaffung einer hochflexiblen, automatisierten Infrastruktur, die nur wenige manuelle Eingriffe erfordert und das Business effizient unterstützt
  • Deutliche Erhöhung der Verfügbarkeit dank stark reduzierter ungeplanter Ausfallzeiten
  • Durchschnittliche Kostenersparnis von rund 25 Prozent im Vergleich zu anderen Infrastrukturkonzepten
New call-to-action

HCI im Kontext bestehender IT-Landschaften

Zu den Kernbausteinen klassischer Systemlandschaften zählen Server zur Datenverarbeitung, Speicher zur Datenhaltung sowie die verbindenden Netzwerkkomponenten. Werden diese drei Bausteine in einem System zusammengeführt, entsteht eine konvergierte Infrastruktur (Converged Infrastructure, CI). Im Prinzip fungiert schon jeder Standard-Server als konvergiertes System, da er Festplatten und SSD aufnehmen kann. Systeme wie der Dell PowerEdge VRTX beherbergen in einem Gehäuse bis zu vier Server und verfügen über eigene Speicher- wie Netzwerkkomponenten.

Das Besondere an einem hyperkonvergenten System ist, dass es viele Komponenten intelligent verknüpft. Ein hyperkonvergentes Datacenter besteht nur aus Servern, da externe Speicherkomponenten, wie Disk-Arrays oder SAN-Switches, nicht nötig sind. In einer hyperkonvergenten Umgebung lassen sich Daten einer Applikation automatisch und ohne zusätzlichen Administrationsaufwand von einem auf andere Server übertragen. Eine Virtualisierung ist allerdings Bedingung.

Wer den Kauf eines hyperkonvergenten Systems erwägt, sollte bei der Entscheidung Folgendes berücksichtigen: welche Anwendungsfelder es für den HCI-Einsatz gibt und ob sich die HCI-Vorteile bestmöglich ausschöpfen lassen. Übrigens lassen sich klassische IT-Infrastruktur und hyperkonvergente Umgebungen auch jederzeit kombinieren.

Konvergenz und Hyperkonvergenz: Wo liegen die Unterschiede?

Sowohl konvergente als auch hyperkonvergente Infrastrukturen führen folgende RZ-Komponenten in einem einzigen kompakten System zusammen: Computing, Storage, Networking und Server-Virtualisierung. Während eine konvergierte Lösung hardwareabhängig ist, läuft die HCI hardwareunabhängig: über eine Software, wie etwa einen Hypervisor.

Das hat Vor- und Nachteile: Die Speicherkapazität einer softwarebasierten HCI lässt sich quasi on demand erhöhen und das ohne Anschaffung weiterer Hardware – also mit überschaubaren Kosten. Bei der CI ist zur Erhöhung der Speicherkapazität das Kaufen und Installieren zusätzlicher Hardware nötig. Allerdings lassen sich CI-Komponenten, wie Server oder Storage-Einheiten, auch unabhängig voneinander nutzen, während HCI-Komponenten gemeinsam verwaltet werden müssen, zulasten der Flexibilität. Außerdem fallen die Einrichtungskosten bei der HCI höher aus als bei der CI – aufgrund der Software-Lizenzen, die für den HCI-Betrieb nötig sind.

Mediathek

Share on xing
Share on twitter
Share on linkedin
Share on email
Loading...