Skip to main content

Egal um welche Branche oder Unternehmensgröße es sich handelt: Daten sind unverzichtbar geworden, wenn es darum geht, fundierte Entscheidungen zu treffen oder Prozesse zu optimieren. Dazu müssen die gewaltigen Datenmengen, die Unternehmen heute ununterbrochen generieren allerdings erst erschlossen und nutzbar gemacht werden. Die Grundlage dafür bildet der Data Lake (Datensee), ein zentrales Repository, in dem sämtliche Daten gespeichert und verwaltet werden.

Seit die DSGVO in Kraft getreten ist, hat sich für Unternehmen im Umgang mit Daten vieles geändert. Oft fehlt ihnen eine effiziente Lösung, um den neuen Anforderungen gerecht zu werden. Ein Beispiel von Autodesk zeigt, wie die Herausforderung der DSGVO mithilfe von Datenvirtualisierung gemeistert werden kann.

Denodo, spezialisiert auf Datenvirtualisierung, bietet ab sofort eine kostenlose Testumgebung auf der Denodo-Plattform an. Diese soll mithilfe einer Schritt-für-Schritt-Anleitung in weniger als zwei Stunden einsatzbereit sein und Anwendern so in kurzer Zeit erste Eindrücke aus der Welt der Datenvirtualisierung vermitteln.

Denodo, ein führendes Unternehmen im Bereich der Datenvirtualisierung, hat für das Jahr 2019 drei Top-Tech-Trends identifiziert. Neben Künstlicher Intelligenz und modernen Datenvirtualisierungs-Tools wird sich auch die Cloud neu erfinden.

Die technische Entwicklung im Bereich Big Data verläuft nicht linear, sondern gleicht eher einer Achterbahnfahrt. Hadoop-Distributionen werden immer komplexer, die verfügbaren Technologien decken eine wachsende Zahl an Anwendungsfällen ab.

Im Zeitalter von Big Data und Cloud Computing, mit explodierendem Datenvolumen und zunehmender Datenvielfalt, können es sich Unternehmen nicht mehr leisten, zahlreiche Kopien und Reproduktionen der Daten zu speichern, die sie für ihr Geschäft benötigen. Deshalb werden bis 2020 mehr als ein Drittel (50 Prozent) der Unternehmen laut Gartner eine Form der Datenvirtualisierung als effiziente und kostensparende Option für die Datenintegration implementieren.

Im Zeitalter von Big Data und Cloud Computing, mit explodierendem Datenvolumen und zunehmender Datenvielfalt, können es sich Unternehmen nicht mehr leisten, zahlreiche Kopien und Reproduktionen der Daten zu speichern, die sie für ihr Geschäft benötigen. Deshalb werden bis 2020 mehr als ein Drittel (50 Prozent) der Unternehmen laut Gartner eine Form der Datenvirtualisierung als effiziente und kostensparende Option für die Datenintegration implementieren.

Big Data ist eine stetig wachsende Ressource. Das ist nicht neu. Diese „Rohdaten“ effizient zu verwalten und zu analysieren, bereitet Unternehmen jedoch noch immer große Probleme. Günther Derstroff, Senior Sales Director bei Denodo, nennt drei Gründe, warum Datenvirtualisierung die richtige Antwort darauf ist.

Um die betriebliche Effizienz zu optimieren, Fertigungsprozesse zu automatisieren und den Kunden On-Demand-Services anzubieten, war es bei Festo notwendig, Daten zu aggregieren und zu analysieren. Entwickelt wurde ein Big Data Analytics Framework mit der Denodo-Plattform als Schlüsselkomponente.

Die Redaktion im Gespräch mit Günther F. Derstroff, Senior Sales Director DACH bei Denodo Technologies über das Thema Datenvirtualisierung. Herr Derstroff, laut den Analysten von Gartner werden 35 Prozent der Unternehmen weltweit bis 2020 Datenvirtualisierung als eine Möglichkeit der Datenintegration implementieren. Warum ist Datenvirtualisierung so wichtig?

Denodo Free Trial

30-tägige Testversion in der Cloud, um die vollständige Denodo Standard zu testen

FREE TRIAL STARTEN

Denodo Express

Der kostenlose Einstieg in die Datenvirtualisierung

KOSTENLOS HERUNTERLADEN