Archiv für die Kategorie ‘BI-Talk’

SQL Server 2008 R2 auf Windows Server 2008 langsam

Donnerstag, 01. September 2011

Langfristige Analysen, viel erwärmte Gehirnmasse und verschiedenste Versuche konnten nicht erklären, warum der SQL Server 2008 R2 (SP2) auf einer 48-Prozessormaschiene mit 128 GB Ram auf einem schnellen SAN unglaublich langsam reagierte.

Dies äußerte sich vor allem dadurch, dass dieselbe (triviale) Abfrage beim zweiten Ausführen deutlich langsamer (und insgesamt erheblich zu langsam) zurückkam als beim ersten Mal – also genau entgegen der Erwartungshaltung. Weder DiskIO noch CPU brachten Hinweise auf das Bottleneck. Also liegt die Vermutung nah, dass das Problem entweder auf Hardware oder Bertriebssystem zu suchen war…

Die Lösung (Dank an Michael Sperling, Point-Kollege) war: Service Pack 1 für Windows 2008. Nach dem Upgrade war wieder die volle (und in Anbetracht der Power dieses Hobels erwartete) Performance zu spüren.

Herzlichst, Torsten Katthöfer

Titanic-Effekt

Donnerstag, 19. Mai 2011

Vor einigen Tagen ist unsere für diese Saison frisch ins Wasser gebrachte uralte Holz-H-Jolle im Wedeler Yachthafen gesunken. Obwohl – für Holzboote in den ersten Tagen bis Wochen üblich – ein wenig Wasser ins Boot eindrang, kam der Untergang für mich sehr überrraschend, denn zum einen war die Menge des eindringenden Wassers sehr überschaubar, und zum anderen stand direkt neben dem “Leck” eine Tauchpumpe mit Schwimmschalter, welche mit 7000 Litern pro Stunde das Boot hätte leerpumpen können.

Nun ist mir im Nachhinein klargeworden (das Boot ist mittlerweile wieder auf dem Wasser), was passiert ist: Der Boden der Jolle hat Abteile (nach oben offene Schots – wie bei der Titanic). In einem der Abteile, in dem auch die Tauchpumpe steht, dringt Wasser ein. Der Wasserstand in dem Abteil reicht noch nicht, um den Schwimmschalter der Pumpe zu betätigen. Was passiert? Das Wasser läuft von einem Abteil ins nächste. Das wäre erstmal kein Problem, denn irgendwann würde ja die Tauchpumpe anspringen und das Wasserniveau auf einen mittleren Wert halten.

Die zwei Faktoren, die ich nicht bedacht hatte, sind zum einen die unterschiedlichen Auftriebskräfte vorne und hinten (Das Boot ist hinten deutlich breiter als vorne) und zum anderen die generelle Gewichtsverteilung im Boot (Das Boot ist durch den Mast vorne deutlich schwerer als hinten.

Was also passiert? Der Wasserstand in dem Abteil mit dem Leck steigt, irgendwann läuft das Wasser in die anderen Abteile weiter vorne und weiter hinten. Da  das Boot aber vorne weniger Auftriebskraft hat als hinten, kippt das Boot (erst einmal mininal) nach vorne. Das wiederum führt dazu, dass nachlaufendes Wasser tendenziell immer mehr nach vorne läuft, was das Boot noch mehr kippt. Der Wasserstand in dem Abteil, wo die Tauchpumpe steht (ziemlich in der Mitte), bleibt dabei niedrig, da das Wasser ja nach vorne abläuft.

Und so kippt das Boot immer weiter nach vorne weg und läuft dann schließlich über das Deck von vorne voll Wasser, wobei die Tauchpumpe dann letztendlich gewissenhaft versucht, die Elbe in die Elbe zu pumpen.

Jetzt fragen Sie sich, warum ich diese traurige Geschichte hier erzähle? Diese Geschichte macht deutlich, wie entscheidend selbst kleine Informationen sind – in diesem Fall ist es das Verhältnis der Auftriebskräfte vorne zu hinten. Das Nichtwissen bezüglich dieser Kennzahl fungiert hier als entscheidender Hebel, der letztendlich zum Untergang geführt hat.

In der realen Welt gibt es ebensolche Hebel auch, zum Beispiel unter exakt diesem Namen im Optionsscheinhandel. Um solche real existierende Hebel erkennen zu können, ist eine konsequente Beobachtung der Ereignisse notwendig – was auf Unternehmensicht bezogen nur über eine strategische Business Intelligence Lösung funktionieren kann.

Sollten Sie Fragen zum Thema BI oder Anregungen hinsichtlich leckender Schwertkästen auf Holz-H-Jollen haben, sprechen Sie mich gerne an.

Herzlichst, Torsten Katthöfer

Holzfäller

Donnerstag, 20. Januar 2011

Was hat ein Holzfäller mit BI zu tun? Erstmal relativ wenig. Dennoch ist mir vor kurzem eine interessante Allegorie zu Ohren gekommen, die es auf den Punkt bringt.

Ein Wanderer trifft im tiefen Wald auf einen Holzfäller, der fleißig und mit aller Kraft im Angesicht seines Schweißes einen Baumstamm zersägt. Er hat schon viele kleine Teile abgetrennt, aber es ist auch für den Laien erkennbar, dass die Säge schon bessere Zeiten erlebt hat – sie ist stumpf. Dem Wandersmann ist es ein Greul, eine solche Ineffizienz zu beobachten und bietet unaufgefordert seine fundierte Beratungsleistung an.  “Sagen Sie mal, werter Herr, würden Sie nicht viel schneller sägen können, und somit viel eher nach Hause gehen können, viel mehr Ertrag oder viel mehr Zeit für andere wichtige Dinge haben, wenn Sie ihre Säge schärfen würden?”

Darauf der pragmatische Holzfäller: “Keine Zeit, ich muss sägen”.

Die Moral der Geschichte liegt auf der Hand.

Torsten Katthöfer

P.S.: Wir bieten unsere Beratungsleistungen nur nach Aufforderung an…

Competetive Advantage

Freitag, 14. Januar 2011

Just hatte ich ein Gespräch mit einem Mitarbeiter der Gartner Group. Es war in vielerlei Hinsicht sehr interessant, insbesondere ein Gesprächspunkt bezüglich unserer “Competetive Advantage”. Ich übersetze das jetzt frech einmal als “Alleinstellungsmerkmal”, obwohl das nicht ganz korrekt ist (Siehe http://en.wikipedia.org/wiki/Competitive_advantage)

Was aber ist unser Alleinstellungsmerkmal? Gut, es gibt noch andere Unternehmen, die sich mit BI auskennen, einige davon sogar mit BI und Microsoft-Technologie. Ist die Größe des Unternehmens ein Alleinstellungsmerkmal? Wohl kaum. Sind es spezielle Technologien oder Produkte, die im Unternehmen entwickelt (oder eingekauft) worden sind? Kann sein.

Oder sind es nicht eher die Mitarbeiter, die alle unterschiedlichste Schwerpunkte haben und verschiedenste Erfahrungen mitbringen? Vielleicht ist es auch die Fähigkeit, Wissen weiterzugeben – also die Beratungskompetenz? Ich weiß es nicht.

Wir haben keine großen Maschienen, wir bauen keine gewaltigen Flugzeuge. Wir arbeiten mit Standardsoftware (SQL Server von Microsoft) – ein Produkt, welches unsere Kunden gekauft haben. Und daraus machen wir mit Hilfe langjähriger Erfahrungen, fundierter Ausbildung, den richtigen Fragen und einem gesunden Anspruch an unsere Arbeit das, was unsere Kunden brauchen. Und das sind in der Regel Antworten auf ihre Fragen (bzw. brandaktuelle und korrekte Unternehmenskennzahlen).

Vielleicht ist das ja ein Alleinstellungsmerkmal…?  

Es grüßt aus Hamburg,

Torsten Katthöfer

Die Conversion Rate – eine Kennzahl auf Knopfdruck?

Montag, 20. Dezember 2010

In fast allen Diskussionen um Webstatistiken, Webtracking, der Bewertung von Internet-Marketing-Kampagnen – kurz um Business Intelligence im eCommerce spielt eine Kennzahl die zentrale Rolle: die Conversion Rate bzw. die Frage wie die Conversion Rate gesteigert werden kann. Entsprechend können alle Webtracking Tools von Webtrekk bis Google Analytics „auf Knopfdruck“ einen KPI Conversion Rate liefern.

In der Theorie ist dieser KPI einfach und klar definiert:
In internet marketing, conversion rate is the ratio of visitors who convert casual content views or website visits into desired actions based on subtle or direct requests from marketers, advertisers, and content creators. The Conversion rate is defined as follows:

Conversion rate = Number of Goal Achievements / Visits
(Quelle: http://en.wikipedia.org/wiki/Conversion_rate)

Reicht diese Definition und ein Tracking Tool, um erfolgreiche eCommerce Analyse betreiben zu können?

In der Praxis der Bewertung von Kampagnen oder von Webseiten verhält es sich wie bei allen Kennzahlen in der BI: es kommt auf eine im konkreten Anwendungsfall passende und zielgerichtete Definition an. Es muss zum einen fachlich festgelegt werden, was das Ziel der Conversion ist, – Kauf, Bestellung eines Newsletters o.ä., vor allem aber ist bei der konkreten Definition der Kennzahl „Conversion Rate“ wichtig festzulegen, was unter „Visits“ verstanden wird: Sind tatsächlich Besuche gemeint oder etwa Besucher (Vistors), werden alle Visits eines Besuchers einbezogen oder werden verschiedene Aufrufe als ein Visit gezählt. Ein typisches Verhalten eines potentiellen Käufers im Internet ist folgendes: In der Mittagspause surft Hr. Müller von seinem Firmenrechner zur Information erst auf der Website A, dann auf Website B, danach kehrt noch mal zu Website A zurück.
Am Abend zu Hause kauft er dann von seinem privaten PC über Website A.

Damit die Conversion Rate tatsächlich eine Aussagekraft hat, müssen bei der Definition und Interpretation dieser KPI solche und viele andere Verhaltensmuster berücksichtigt werden. Eine einfache Knopfdruck-Lösung reicht daher nicht.

Als weiterführende Dokumente seien empfohlen:
http://www.ecommerce-leitfaden.de/lasst-zahlen-sprechen.html#anchor_3_2
http://www.iab.net/media/file/audience_reach_022009.pdf

Frohe Festtage und einen guten Start in das neue Jahr wünscht
Matthias Wedig

“Effizienzsteigerung” – Unwort des Jahres

Donnerstag, 09. September 2010

Vor einigen Jahren hat mir ein alter Freund – knapp 78 Jahre alt, erfolgreicher und erfahrener Unternehmer – den Unterschied zwischen effizient und effektiv so erklärt, dass ich es nie wieder vergessen habe (was übrigens auch einer seiner Prognosen war):

“Wenn unter deinem Schreibtisch der Papierkorb brennt, kannst Du das Feuer mit einer Flasche Champagner löschen. Das wäre effektiv. Alternativ könntest du ihn mit Wasser löschen – das wäre dann effizient”.

Wenn also in werbewirksamen Verkaufsprospekten und Powerpoints von “Effizienzsteigerung” die Rede ist, dann ist das aus meiner persönlichen Sicht gelinde gesagt, meist Unsinn. Wenn etwas bereits effizient ist, dann ist es gut. Es sei denn, die Umstände haben sich geändert. Hat sich die Technik soweit entwickelt, dass Champus aus dem Nichts erzeugt wird und gleichzeitig Wasser knapp ist, mag es effizient sein, mit Champus eines jungen Jahrgangs zu löschen, statt das Feuer lodern zu lassen - während die alten Schätze im Keller bleiben.

Wie komme ich darauf? Immer wieder werden mir schaurige Berichte angetragen, woher Marketing’ler oder Geschäftsführer ihre Zahlen bekommen. Um ganz unten anzufangen, gibt es Kontoauszüge, aus denen der Umsatz berechnet wird (Haben = Umsatz, Soll = [irgendwelche] Kosten). Dann gibt es Excel-Access-Kombinationen, die zwar korrekte Daten liefern (effektiv), die aber Veränderungen überhaupt nicht mögen – und im Fehlerfall nur noch von den Autoren angepasst werden können. Es gibt Datenbanken, die jeden Tag per Hand mit Zahlen aus Google Analytics gefüttert werden – wenn der wissende Mitarbeiter im Hause ist (ein bisschen effektiv).

Was wir unseren Kunden letztendlich verkaufen, ist Effizienz. Keine fehleranfällige Handarbeit, sondern qualitative Datenquellen, schnelle Verarbeitung, und eine einzige, korrekte und vergleichbare Sicht auf die Kennzahlen. Mehr nicht…

Herzlichst, Torsten Katthöfer

Google und die Zukunft

Donnerstag, 02. September 2010

Heute Mittag war ich bei Google zum Lunch eingeladen. Dies an sich ist noch nicht bemerkenswert, abgesehen davon, dass die Google eigene Kantine bequemst auch für ein nettes Freitagabend Dinner zu gebrauchen wäre – nur den Rotwein konnte ich nirgends entdecken.

Beeindruckt haben mich drei Dinge:

1. Ein aufgeregter älterer Herr, der sich bei der geduldigen Dame am Empfang vergewissern wollte, dass durch die Fahrzeuge von Google (StreetView) sein Haus nicht zusätzlich VERMESSEN wurde. Trotz aller Bemühungen konnten ihm nicht alle Zweifel genommen werden – und ich frage mich, was das Probleme WÄRE, selbst wenn auf den Autos zusätzlich LASERSTRAHLEN zur Vermessung eingesetzt WÜRDEN. 

2. Die im Empfangsbereich an eine Wand projezierten (und gefilterten, wie ich erfuhr) realen Suchanfragen – Live. Da kann man stundenlang zusehen…

3. Das Wissen um die Zukunft des Internets. Allein durch die sich verändernden Suchanfragen erkennt Google schon Trends, bevor sie welche sind. So mag es vielleicht dahingehen, dass bei einer Suche nicht mehr Links auf irgendwelche Seiten erscheinen, sondern direkt das gesuchte Produkt mit Preisen und Erwerbsmöglichkeiten. Es ist vorstellbar, das bei einer Suche eines Fluges von NewYork nach Hamburg direkt entsprechende Flüge vergleichbar und buchbar gezeigt werden, und dies auch auf mobilen Geräten. Was wird das für Konsequenzen auf unser Leben haben? Wieviel Zeit verbringen wir jetzt mit Recherchen, und wie viel davon ist eigentlich Zeitverschwendung?

In der Tat ist es ja spätestens seit dem suchmaschienenoptimierten Wikipedia so, das offene Fragen durch das Internet in der Regel innerhalb kürzester Zeit meist fundiert beantwortet werden können. Bislang muss man sich dafür aber noch an eine Tastatur bemühen. Schon vor einem Jahr sah ich eine App (Heißt das bei Android auch so?) im Google Phone, mit der man ein Foto von einem Logo oder einem Etikett aufnehmen konnte – und schon Sekunden später gab es reichlich brauchbare Informationen dazu. Wenn man das mal weiterspinnt (Gebäude, Pflanzen, Gesichter, …), dann wird es sicherlich interessant. Vermeidbar ist es ohnehin nicht.

Für uns natürlich brennend interssant sind die Unmengen von Daten, die anfallen. Der Wettbewerb im ECommerce wird nicht weinger, Livestatistiken der Website (Stichwort Website Usebility) ermöglichen, schnell auf Veränderungen im Kaufverhalten zu reagieren. 

Ich bin gespannt auf die Entwicklungen – und habe keine Angst vor Google StreetView…

Herzlichst, Torsten Katthöfer

Kombination Teradata / Analysis Services

Freitag, 11. Juni 2010

Teradata ist eine extrem schnelle Datenbank, die eigens für den hochvolumigen DWH-Bereich entwickelt wurde. Die zugrunde liegende Architektur arbeitet massiv parallel, erfordert deutlich weniger administrative Aufwände als Oracle, kann während des laufenden Betriebes gespeist werden und ist voll skalierbar.

Trotzdem entscheiden sich einige Kunden bei der Wahl der zukünftigen Datenbank gegen Teradata. Die folgenden Argumente werden oft angeführt:

- Man hätte den Pre-sales-Argumenten bezüglich Performance und Wartung nicht geglaubt

- zu hohe Einstiegskosten

- keine BI-Werkzeuge dabei, nur reine Datenbank und mit dem Partner MicroStrategy möchte man nicht zusammenarbeiten

- Stattdessen bringt Microsoft’s SQL-Server die Analyse-Werkzeuge mit

Entscheidet man sich für SQL-Server 2008 R2, sind zwar gute Analyse-Werkzeuge enthalten, die sich zudem gut mit Sharepoint und MS Office integrieren lassen, doch im hochvolumigen Bereich kann das Prozessen der Cubes durchaus viel Zeit in Anspruch nehmen – es sei denn, dies wird über entsprechende Hardware verteilt.

Gibt es eine Möglichkeit, von jedem das Beste zu wählen? Ja, die gibt es.

Denn wer die komfortablen Microsoft Werkzeuge nutzen und gleichzeitig eine leistungsfähige Datenbank im Hintergrund halten möchte, kann SQL-Server 2008 Analysis Services mit Teradata verheiraten.

Statt wie in SQL-Server-Manier im Hintergrund MOLAP-caches aufzubauen, definiert man in Teradata leistungsfähige Aggregate Join Indexes auf den Detaildaten. Teradata, auf hohen Durchsatz getrimmt und für Parallelität gebaut, stellt dann die Daten schneller zur Verfügung, als gefordert. 

Die Verknüpfung geschieht auf üblichen Wegen:

  1. Im Analysis Services werden die Data Sources definiert. Für Teradata wählt man „.NET Data Provider for Teradata“
  2. Die Data Source Views werden im Solution Explorer ausgewählt und die Beziehungen definiert
  3. Die Cubes werden erstellt.

 Nun lassen sich die Microsoft-BI-Werkzeuge (Excel PowerPivot, MDX, Reporting Services mit Sharepoint, usw.) gegen die wohl schnellste Datenbank der Welt direkt ausführen. 

Übrigens läuft Teradata auf mehreren Serverbetriebssystemen wie Windows, Solaris, AIX, Suse, etc.

Referenzen:

http://www.eti.com/news/pr_ETI_HPC_Teradata_SSIS.pdf

http://www.teradata.com/tdmo/v07n02/Tech2Tech/AppliedSolutions/IntelligentPartnership.aspx

http://www.teradata.com/t/videos/teradata-microsoft-lloyds/

Olaf Waskewitz

ECommerce Analysis

Sonntag, 06. Juni 2010

“ECommerce”- Unternehmen haben einen entscheidenen Vorteil zu Unternehmen, die Produkte auf herkömmliche Art vertreiben. Sie sind nämlich von Anfang an gezwungen gewesen, Daten vernüftig zu halten. Das ist aus BI-Sicht ganz hervorragend, da schon viele wesentliche strategische Kennzahlen direkt aus diesen Quellen, in der Regel irgendeine Form von Online-Shop, gewonnen werden können.

Da wir immer wieder mit Unternehmen dieser Kompetenz zu tun haben, war es an der Zeit, sich des Themas ECommerce-Analysis einmal gesondert anzunehmen. Wir haben einige Information dazu hier bereitgestellt: ECommerce-Analysis.

Übrigens: Mit dem Office 2010 und dem Excel-Powerpivot lassen sich ganz hervorragend Daten anlysieren – und das auch Offline.

Herzlichst,

Torsten Katthöfer

Google Analytics als Datenquelle – Teil 2

Donnerstag, 22. April 2010

Im ersten Teil dieser Serie habe ich versucht zu verdeutlichen, wie google sich eine Authentifizierung vorstellt und als Ergebnis dessen ein Token herausgibt, was für den weiteren Verlauf der Session benötigt wird.   

Nun ist es an der Zeit, Daten von google Analytics zu bekommen. Für die ”echte” Abfrage benötigt man die ProfilID des Profils, aus dem die Daten gelesen werden. Da sich diese ID an sich nicht ändert, braucht man sie nur einmal zu kennen, um sie als Parameter in die Anfrage einzufügen. Um sie aber zu kennen, muss man sie zumindest einmal gesehen haben – was zweck dieses Teil 2 ist.   

Es folgen zwei Funktionen. Die erste Funktion führt den echten Webrequest aus und konvertiert den zurückgebenen Text so, dass er später einfacher zu interpretieren ist:

GArequestResponseHelper

Die zweite Funktion erstellt die URL zur Abfrage der Daten und retourniert eine Liste mit Profilnamen und ID’s:   

getAccountInfo

Aufgerufen wird dann lediglich die Funktion getAccountInfo, gefüttert mit den Parametern Token und Mode:

Dim Token As String
Dim profiles As NameValueCollection
Public Enum mode
  ClientLogin
  AuthSub
End Enum


profiles = getAccountInfo(Token, mode.ClientLogin)
MsgBox(profiles.GetKey(1) + ": " + profiles.Get(1))

Um die Messagebox kann man natürlich auch eine Schleife bauen, um alle Profile zu zeigen – hier soll exemplarisch ein Profil ausreichen.

Msgbox in

Im nächsten Teil rufen wir dann echte Analytics Daten ab. Das “große Ganze”, also den kompletten Source Code, gibts übrigens im letzten Teil.

Sonnige Grüße,

Torsten Katthöfer


2 Besucher online
0 Gäste, 2 Bots, 0 Mitglied(er)
Meiste Besucher heute: 2 um/am 05:19 UTC
Diesen Monat: 14 um/am 04-07-2018 09:21 UTC
Dieses Jahr: 16 um/am 02-17-2018 03:42 UTC
Jederzeit: 40 um/am 09-24-2012 13:16 UTC