SQL Server Codename Denali – Evolution oder Revolution?

Experten vermuten, dass in den nächsten 10 Jahren die Menge der gespeicherten Daten um mehr als das 40-fache steigen wird. Diese Datenexplosion erfordert es, dass Software zur Verwaltung dieser Daten diesen dadurch entstehenden höheren Ansprüchen gerecht wird. Einen Schritt in diese Richtung möchte Microsoft mit der neuen Version des SQL Servers, bisheriger Codename Denali gehen.

Wir haben uns schon einmal die Vorabversion angeschaut und möchten kurz auf ein paar Neuerungen eingehen:

Ein wichtiger Punkt bei der Entwicklung von Denali spielte die Verfügbarkeit des Servers und damit der Datenbanken. Mit der neuen Version ist es dank der AlwaysOn-Funktion möglich, das Ausfallrisiko zu vermindern, so dass (wie der Name schon vermuten lässt) die Server immer erreichbar sein sollen. Zudem werden die „Columnstore Indexes“ eingeführt, die die Abfragegeschwindigkeit bei großen Tabellen um den Faktor 10 erhöhen. Vorbei werden also die Zeiten sein, als man eine Abfrage gestartet hat und dann erst einmal in Ruhe ein Kaffee trinken konnte.

Neben diesen und weiteren kleinen Änderungen bzgl. der Datenbankverwaltung sind aber die Entwicklungen bei den Integration und Analysis Services viel bedeutender.

Ein häufig genannter Kritikpunkt an Business Intelligence-Lösungen ist die Datenqualität. Schaut man sich eine größere Kundendatenbank von irgendeinem Unternehmen genauer an, so wird man mit großer Sicherheit fehlerhafte Daten finden, sei es ein falsch geschriebener Name, eine fehlerhafte Postleitzahl , ein Wert, der in einer falschen Spalte steht oder ein mehrfach vorhandener Kunde. Solche schmutzigen Daten können zu fehlerhaften Analysen führen und von daher rückt die Frage der Datenqualität immer stärker in den Fokus. Um diesem Problem zu begegnen verfügt Denali über die Data Quality Services, mit deren Hilfe die Daten z.B. beim Laden in das Data Warehouse einfach und effizient gereinigt werden können.

Noch gravierender aber sind die Änderungen bei den Analysis Services. Hierbei wird ein erster Schritt weg vom dem multidimensionalen hin zu einem relationalen Modell gegangen, das ganze unter dem Stichwort „Business Intelligence Semantic Model“ (BISM). Zudem ist es dadurch möglich, das ganze Datenmodell in den Speicher zu laden. Doch was heißt das für den Benutzer? Äußerliche Unterschiede werden für ihn nicht wirklich ersichtlich, aber wenn er erst einmal eine vertraute Abfrage startet oder einen Report anfordert und er das Ergebnis bekommt, ehe er vielleicht seinen ersten Schluck vom Kaffee genommen hat offenbaren sich die Unterschiede und Vorteile dieser neuen Technik. Gerade unter Berücksichtigung der steigenden Datenmengen zeigt sich der Vorteil dieser neuen Entwicklung, wodurch auch in Zukunft effiziente Abfragen und Analysen ermöglicht werden.

Lange Rede, kurzer Sinn: Mit dem neuen SQL Server bringt Microsoft eine Software auf dem Markt, welche den neuen Anforderungen, die die Datenexplosion mit sich bringt, gerecht wird. Was die allgemeine Datenbankverwaltung betrifft ist Denali eher eine Evolution, aber für den Bereich Datenanalyse kann Denali als Revolution betrachtet werden.

Bleibt zum Schluss noch die Frage: Wann kommt er denn, der neue SQL Server? Die einzig exakte Antwort, die man auf diese Frage geben kann, lautet: „Wenn er fertig ist!“ Einen genauen Termin gibt es noch nicht, aber man darf davon ausgehen, dass er spätestens im Frühjahr 2012 offiziell erscheint.

Wir sind auf jeden Fall gespannt.

Patrick Rühmkorb

Hinterlasse eine Antwort

Du musst angemeldet sein, um einen Kommentar zu erstellen.


2 Besucher online
0 Gäste, 2 Bots, 0 Mitglied(er)
Meiste Besucher heute: 3 um/am 02:24 UTC
Diesen Monat: 28 um/am 12-04-2018 08:14 UTC
Dieses Jahr: 48 um/am 10-28-2018 05:14 UTC
Jederzeit: 48 um/am 10-28-2018 05:14 UTC