Archiv für Oktober 2009

Interessante Studie zu Hauptspeicherfehlern und Serverabstürzen

Dienstag, 27. Oktober 2009

Aus dem Nichts abstürzende Server haben schon Generationen von Entwicklern nervös gemacht. Nun hat Google in Zusammenarbeit mit der Universität Toronto eine Studie über Hauptspeicherfehler bei der Mehrheit der Google-Serverflotte veröffentlicht, die im Wesentlichen ergeben hat, dass Hauptspeicherfehler sehr viel Häufiger auftreten, als gemeinhin erwartet wird.

Die 12-seitige Studie kommt zu sieben wesentlichen Ergebnissen. Pro Jahr trat bei rund einem Drittel aller Server beziehungsweise bei 8 Prozent aller DIMMs mindestens ein korrigierbarer Fehler auf. Dieses Ergebnis liegt um ein Mehrfaches höher als von bisherigen Laborstudien und Untersuchungen zu weniger Maschinen bekannt. Die jährliche Rate nicht korrigierbarer Fehler, die üblicherweise zum Absturz oder zum Herunterfahren des Servers führen, betrug 1,3 Prozent pro Server beziehungsweise 0,22 Prozent pro DIMM.

Die Fehlerhäufigkeit verteilte sich sehr ungleichmäßig über die Systeme und es war kein klarer Zusammenhang zwischen bestimmten Speichertypen und Plattformen erkennbar. Allerdings produzierten Module, bei denen in der Vergangenheit bereits Fehler aufgetreten waren, mit sehr hoher Wahrscheinlichkeit später wieder Fehler. Das belegt auch, dass Soft Errors eine deutlich seltenere Fehlerquelle sind als Hardware-Probleme. Es ist also wichtig, auftretende Fehler zu protokollieren und die betroffenen Module auszutauschen. Die Häufigkeit der Speicherfehler nimmt außerdem mit wachsendem Alter der Speicherriegel zu.

Bereits 2006, im Vorfeld der Vista-Einführung, hatte Microsoft – wohl auch im Hinblick auf den bei Vista-x64-Installationen typischerweise größeren Hauptspeicherausbau – den Einsatz von ECC (Fehlerkorrekturverfahren) empfohlen, allerdings offenbar erfolglos. Non-ECC-DIMMs sind billiger; bei bestimmten Schreibzugriffen kann die Berechnung der ECC-Prüfbits zudem die Latenzzeiten des RAM verlängern. Intel-Prozessoren und -Chipsätze für Desktop-PCs und Notebooks unterstützen ECC nicht. Die AMD-Prozessorfamilien Athlon und Phenom unterstützen ECC, doch nicht jedes Mainboard-BIOS erlaubt die Nutzung dieser Funktion oder protokolliert korrigierte Fehler.

Quelle: Heise Online, Studie.

Herzlichst, Torsten Katthöfer

Microsoft kann auch ganz groß: Codename “Madison”

Samstag, 10. Oktober 2009

Microsofts Antwort auf die immer größer werdenden DWHs  soll die kommende Datawarehouse Technologie Madison sein.  Bei Madison handelt es sich um eine Datawarehouse Appliance Lösung, die sich aus Microsofts SQL Server 2008 und dem  DATAllegro v3 zusammensetzt. V3 ist eine flexible, offene Architektur welche ermöglicht, Hardware an die Bedürfnisse des Datawarehouses dynamisch anzupassen. Microsoft arbeitet dabei mit Server- und Storage Herstellern wie Bull, Dell, EMC und HP zusammen.

Madison verspricht eine hohe Performance und Skalierbarkeit bei der Verwaltung von großen Datenmengen bis in den Petabyte-Bereich und tausenden von Nutzern. Erreicht wird dies durch den effizienten Einsatz von MPP (Massively Parallel Processing) und Grid Technologien, die den hohen CPU- und Speicherbedarf  dynamisch auf Server verteilen. Nach Angaben von Microsoft ist Madison in der Lage bis zu 1 TByte Daten pro Stunde einzuladen, sowie 1,5 TByte pro Minute auszuwerten.

Weitere Aspekte der Madison DWH Appliance Lösung sind:

  • Integration von existierender SQL  Server 2008 Datawarehouses durch Hub und Spoke Architektur
  • Geringere Kosten bei Implementierung und Wartung  durch  Industriestandards
  • Durch Appliance Model einfache Entwicklung und Administration
  • Die Hardware kann mit den Anforderungen des Datawarehouses wachsen

Hier die offzielle Website zu Madison, sowie ein Video von Microsoft zum Thema: SQL 2008 R2 and code-named Madison.

Madison soll ab der ersten Jahreshälfte 2010 zusammen mit SQL Server 2008 R2 erscheinen und die nächste Generation von Microsofts SQL Datenbankplattform einläuten.

Wir sind gespannt und bleiben am Ball…

Marvin Bürkner

Sinnvolle Standards in Berichten

Mittwoch, 07. Oktober 2009

“Erfolgreiche Kommunikation basiert auf verbindlichen Regeln. Dies gilt auch und vor allem für Geschäftskommunikation. Kreativität und Beliebigkeit ist weder bei der verbalen Ausdrucksweise noch bei der visuellen Gestaltung gefragt. Stattdessen geht es um klare Botschaften, konsequente Standardisierung und Reduzierung auf das Wesentliche.”

Unsere Partnerfirma ITA-Consulting hat auf Basis der SUCCESS – Regeln nach Hichert ein prototypisches Berichtsportal gebaut. Es zeigt an Hand einiger Beispiele, wie standardisiertes Berichtswesen aussehen kann.

Zum Open Source Business Intelligence Demo-Portal 

Ich persönlich bin, nachdem ich die Entwicklung des Berichtswesen in unseren gemeinsamen Projekten mindestens mitverfolgt habe, ein absoluter Befürworter für eine solche Standardisierung geworden. Derart gestaltete Berichte erlauben es, innerhalb kürzester Zeit unglaubliche viele Informationen aufzunehmen und zu verstehen – und das, ohne Missverständnisse.

Herzlichst, Torsten Katthöfer


1 Besucher online
0 Gäste, 1 Bots, 0 Mitglied(er)
Meiste Besucher heute: 3 um/am 06:10 UTC
Diesen Monat: 6 um/am 09-06-2018 19:18 UTC
Dieses Jahr: 19 um/am 07-03-2018 05:26 UTC
Jederzeit: 40 um/am 09-24-2012 13:16 UTC