Windows Server 2012 R2: Einrichten eines Failover-Clusters am Beispiel Hyper-V

Ein Failover-Cluster ist eine gute Sache: Er sorgt für Hochverfügbarkeit! Damit lassen sich diverse Dienste geclustert betreiben. Mehrere Server teilen sich eine Aufgabe und die dazugehörige Last. Fällt nun einer der beteiligten sogenannten “Knoten” aus, so übernehmen die verbliebenen die Aufgabe sofort automatisch. Damit lässt sich beispielsweise auch Hyper-V bzw. die darauf laufenden virtuellen Maschinen gegen einen Ausfall absichern. Für eine Minimal-Konfiguration werden benötigt: Ein Domänencontroller Zwei weitere Server als Mitglied der Domäne Zentraler Speicher Für den zentralen Speicher kämen die beiden SAN-Technologien iSCSI und FiberChannel in Frage. Optional geht seit Server 2012 auch SMB3.0 (“Scale Out File Server”). Für eine Testumgebung ist iSCSI sehr gut geeignet. Wie man ein iSCSI-Target einrichtet und den dazugehörigen Initiator nutzt habe ich in einem meiner letzten Blogartikel beschrieben (Windows Server 2012 R2: iSCSI Target und Initiator einrichten). Der Domänencontroller sowie die beiden Member-Server laufen unter Windows Server 2012 R2. Es werden 2 iSCSI-Targets benötigt, eines mit min. 512MB Speicher, das zweite mit ausreichend Speicher für die vorgesehenen VMs und deren VHD(X)-Dateien, in meinem Fall 40GB. Die beiden Targets müssen bereits auf beiden Knoten eingebunden sein, die beiden Datenträger online geschaltet worden sein, initialisiert und formatiert (ohne Laufwerksbuchstaben). Weiterhin muss das Netzwerk sauber konfiguriert sein. Für eine Testumgebung reicht es, wenn die beiden Hosts über genau eine Netzwerkverbindung verfügen. Dort muss das selbe Subnetz eingerichtet sein, ebenso ein passender DNS-Server und ein Gateway. Für Produktivzwecke empfehlen sich deutlich mehr Netzwerkverbindungen, z.B. eine dedizierte für den Heartbeat (Link zwischen den Knoten), eine für die Anbindung an das Storage, eine für die Verwaltung, eine für die Anbindung an das reguläre Netzwerk und so weiter und so fort. Als nächstes muss auf allen künftigen Knoten das Feature “Failoverclustering” installiert werden. Dazu werden auch die Verwaltungstools angeboten, die zumindest auf einem System installiert sein müssen, um den Cluster einrichten zu können: Wenn die Installation auf beiden/allen künftigen Knoten abgeschlossen ist kann der “Failovercluster-Manager” gestartet werden, z.B. über “Tools” im Servermanager: Dort wird durch einen Rechtsklick auf das Wort “Failovercluster-Manager” im Baum links mittels “Cluster erstellen…” der Prozess begonnen: In den ersten Schritten sind die künftigen Knoten auszuwählen:   Danach folgt eine Abfrage bezüglich des “Konfigurationsvalidierungstests”. Dabei werden die beteiligten Server “auf Herz und Nieren geprüft”. Dieser Test dauert ca. 10 Minuten. Man könnte ihn abschalten – verzichtet dann auber auf den Support durch Microsoft und wertvoll Hinweise zur Konfiguration. Nicht zuletzt kann der Test einem auch Fehler aufzeigen, die man bei der Vorbereitung übersehen hat. Ich würde ihn also immer laufen lassen… Am Ende des Tests wird einem das Ergebnis angeboten (“Bericht anzeigen”): In diesem Fall liegt nur eine Warnung vor: Es gibt nur eine Netzwerkverbindung! Nun muss noch ein Name für den Cluster sowie eine entsprechende IP-Adresse bestimmt werden. Außerdem kann man auswählen, dass der gesamte verfügbare Speicher dem Cluster hinzugefügt werden soll: Danach beginnt die eigentliche Bildung des Clusters. Ist diese abgeschlossen, kann die Clusterkonfiguration verändert werden bzw. der Cluster mit Rollen ausgestattet werden. Dabei ist zum einen die Netzwerkkonfiguration zu prüfen: Wenn es einen dedizierten Link zwischen den Hosts geben soll, so ist bei dieser Netzwerkkonfiguration der Haken “Clients das Herstellen einer Verbindung…” zu entfernen. Weiterhin muss das zweite iSCSI-Target noch als “Cluster Shared Volume” (CSV) bzw. al “freigegebenes Clutservolume” hinzugefügt werden. Das sorgt dafür, dass dieses “Laufwerk” auf allen Clutserknoten unter C:\ClusterStorage eingebunden wird und dort genutzt werden kann (z.B. für die VMs und VHDs) Abschließend können nun VMs im Cluster erzeugt werden. Dabei ist darauf zu achten, das alle relevanten Daten unter C:\ClusterStorage liegen! Wenn die VM fertig konfiguriert ist und läuft, dann kann man ganz einfach die Funktionsfähigkeit des Clusters testen und einen einfachen Ausfall simulieren: Man zieht einfach das Netzwerkkabel aus dem Host heraus, auf dem die VM aktuell ausgeführt wird. Dann sollte sie in kurzer Zeit auf dem verbliebenen Host neu gestartet werden und dann kurz darauf wieder regulär zur Verfügung stehen! Weitere Informationen zum Thema Windows Server 2012 R2 finden Sie auch unter http://www.ppedv.de/R2 

Windows Server 2012 (R2): Wie man das "Tools"-Menü im Servermanager anpasst

Microsoft Premier Field Engineer Michael Hildebrand beschreibt in seinem Blog, wie man die Tools-Leiste oben rechts im Servermanager anpassen und um weitere Einträge ergänzen kann: http://blogs.technet.com/b/askpfeplat/archive/2014/01/27/how-to-customize-server-manager-in-windows-server-2012-and-2012-r2-get-creative.aspx Kern des Ganzen ist der Ordner "C:\ProgramData\Microsoft\Windows\Start Menu\Programs\Administrative Tools\" Dort kann man entsprechende Verknüpfungen ablegen: Das funktioniert sogar mit Ordnern, um besser strukturieren zu können! Einzig die Icons, die von anderen Systemen abgelegt worden sollte man nicht verändern, weil es sonst u.U. zu Problemen kommt, etwa beim entfernen der jeweiligen Funktion. Weitere Informationen zum Thema Windows Server 2012 R2 finden Sie auch unter http://www.ppedv.de/R2 

Hyper-V 4.0: Live Größenänderung von virtuellen Festplatten

Eine der wirklich praktischen Neuerungen im Hyper-V 4.0 unter Windows Server 2012 R2 ist die Möglichkeit, eine virtuelle Festplatte im laufenden Betrieb zu vergrößern oder zu verkleinern. Dies funktioniert, wenn: Die virtuelle Festplatte das VHDX-Format verwendet und Am SCSI-Controller angebunden ist Wenn man eine virtuelle Maschine der 2.Generation (Gen2-VM) verwendet, stellt sich die Frage nach der zweiten Bedingung nicht, da hier ja ohnehin nur noch SCSI zum Einsatz kommt. In der Abbildung ist eine Muster-VM zu sehen, die neben ihrer OS-Platte noch über eine zweite Platte (VHDX, SCSI-Controller) mit 30GB verfügt: Nun kann diese VHDX-Festplatte im laufenden Betrieb vergrößert werden. Dazu ist nur ein Klick auf “Bearbeiten” nötig: Der Assistent führt einen dann durch die notwendigen Schritte, bei dem schließlich auch die gewünschte neue Größe angegeben wird: (Klick auf Bild für Vergrößerung)     Am Ende steht dann eine Festplatte mit mehr Speicher zur Verfügung, bei der anschließend noch die Partition erweitert werden muss: PS: Die VHDX lässt sich auch verkleinern, allerdings nur, wenn die Partition im Inneren kleiner ist, als der Datenträger... Weitere Informationen: http://technet.microsoft.com/en-us/library/dn282286.aspx

Neuerungen im Überblick – Windows Server 2012 R2

Die aktuelle Version von Microsofts Server-Betriebssystem ist derzeit Windows Server 2012 R2. Einige Neuerungen habe ich bereits aus der Kursveranstaltung „Windows Server 2012 – Konfiguration, Verwaltung und Wartung“ kennengelernt und möchte euch kurz über die Veränderungen informieren. Die Neuerungen im Detail kommen später im Blogeintrag von Haiko Hertes.   Neuerungen Gegenüber seinem Vorgänger hat sich einiges verändert. 1. Microsoft stellte die neue Serverversion gleichzeitig mit Windows 8.1 vor. 2. Die Aktualisierung von der Vorgängerversion auf Windows Server 2012 R2 ist nicht kostenlos. Unternehmen müssen die neue Serverversion lizenzieren und bekommen diese Version mit Software Assurance-Vertrag umsonst. Mit Software Assurance erhalten Kunden Zugang zu den neuesten Microsoft-Produktversionen und können die aktuellste Technologie sofort bei Verfügbarkeit oder zu einem beliebigen späteren Zeitpunkt einsetzen. Der Kunde hat auch das Recht, die lizenzierte Software in der aktuellsten oder in einer früheren Version zu nutzen. 3. Eine weitere Neuerung ist das System Center 2012 R2, das mit Windows Server 2012 R2 zeitgleich erschienen ist. 4. Zu den Neuerungen gehört auch das Hyper-V 2012 R2. Microsoft hat den Zugriff auf den virtuellen Server (auf Basis von Remote Desktop Protocol (RDP)) verbessert. Per Remotedesktop kann man sich direkt mit einer virtuellen Maschine verbinden, selbst wenn diese keine zugehörige Client-Software geladen hat. (im Detail:  Die RDP-Sitzungen laufen in Windows Server 2012 R2 über den Host, eine direkte RDP-Verbindung zum virtuellen Server ist nicht mehr notwendig.) 5. In der neuen Version kann man die virtuellen Festplatten (VHDX) im laufenden Betrieb vergrößern und verkleinern (siehe Abbildung1). Abbildung1: Assistent zum Bearbeiten virtueller Festplatten Ein weiterer Punkt ist die Ausfallsicherheit beim VHDX-Format. Die VHDX-Dateien besitzen eine Log-Datei. Log-Dateien sind das Zugriffsprotokoll eines Webservers. Sie bestehen gewöhnlich aus ganz vielen Zeilen, von denen jede genau einen Zugriff wiedergibt. Wenn der Server ausfällt und kein sauberes Herunterfahren möglich war, ist mit Hilfe dieser Protokolldatei die Wiederherstellung der VHDX möglich. Dieses Protokoll bezieht sich allerdings nur auf die Metadaten der VHDX-Datei. Das Erzeugen einer VHDX-Datei ist über den Server Manager machbar. PowerShell beim Hyper-V 3 kann mit diesen Dateitypen auch umgehen (Hinweis: Es gibt Befehle, die beim Hyper-V 3 in der zugehörigen Bibliothek vorliegen. Der Admin muss dazu keine externen PowerShell-Module mehr herunterladen und sie separat importieren). 6. Eine weitere Neuerung im Hyper-V 2012 R2-Bereich ist das Verschieben von virtuellen Servern zwischen Hyper-V-Host im laufenden Betrieb – die Live Migration. Diese ermöglicht das Übertragen von virtuellen Servern im laufenden Betrieb, zum Beispiel für Wartungsarbeiten des Hyper-V-Hosts. Bei dieser Übertragung kopiert Hyper-V nicht nur die virtuellen Festplatten zwischen den Hosts, sondern auch den Inhalt des Arbeitsspeichers. Das heißt, die Anwender bekommen von der Übertragung nichts mit und der virtuelle Server steht während der Übertragung weiter zur Verfügung (siehe Abbildung2). Abbildung2: Die Live Migration In Windows Server 2012 verbessert Microsoft einige Schwächen der Live-Migration aus. Eine Schwäche der Übertragung in Windows Server 2008 R2 war bisher zum Beispiel die fehlende Möglichkeit, mehrere virtuelle Server auf einmal zu verschieben. Das kostet unnötig Zeit. In Windows Server 2012 können Unternehmen mehrere Server gleichzeitig übertragen. Die maximale Anzahl lässt sich auf jedem Host einstellen. Im Detail: Live Migration ist jetzt für 10 Gigabits-Netzwerke optimiert und kann in sehr schnellen Netzwerken mit Remote Direct Memory Access (RDMA) sehr schnell die Inhalte des Arbeitsspeichers zwischen den Hosts verschieben. Die neue Live Migration ist kompatibel zu Windows Server 2012, sodass sich virtuelle Server zwischen Hosts mit Windows Server 2012 und Windows Server 2012 R2 verschieben lassen. Bei Windows Server 2012 R2 Hyper-V hat die Live Migration an Geschwindigkeit zugelegt. Microsoft-Angaben zufolge kann bei Verwendung von 3 RDMA–Karten in beiden Hosts ein Transfer mit maximaler PCIv3-Geschwindigkeit respektive 16 Gigabyte pro Sekunde erfolgen. Davon profitiert auch die clusterfähige Aktualisierung zur Einspielung von Patches auf Clusterkonten. Benötigt dieser Vorgang bei Windows Server 2012 vielfach noch rund 12 Stunden, sinkt der Zeitbedarf schon durch die Datenkompression auf 3,5 Stunden. Mit RDMA ist gar nur noch eine Stunde erforderlich. 7. Eine weitere Neuerung ist, dass im laufenden Betrieb der Virtuelle Server sich importieren und kopieren lässt. Windows Server 2012 R2 berücksichtigt dabei auch Snapshots (also Prüfpunkte oder Checkpoints, wie wir im Kurs auch schon gehört haben). Vor dem Export muss man den virtuellen Server nicht mehr herunterfahren oder Snapshots löschen. Virtuelle Server kann man jetzt in Windows Server R2 im laufenden Betrieb exportieren und kopieren. 8. Die Aufhebung der bisherigen Beschränkungen der Copy & Paste-Funktion zwischen Host und Client auf Textinformationen gehört auch zu den Neuerungen. Mit Windows Server 2012 R2 Hyper-V kann man Dateien mittels Drag&Drop einfach kopieren. 9. Weitere Neuerungen sind die VMs (Virtuelle Maschine) – Generation 2. Dieser neue VM-Typ verzichtet auf die Komplettnachbildung eines physischen PCs. Detailliert: Emulierte/nachgebildete Geräte kennt Gen2-VM nicht, da er ohne PCI-Bus und ohne BIOS auskommt. Gen2-VM nutzt UEFI-Firmware (Unified Extensible Firmware Interface). Das ermöglicht, virtuelle SCSI-Festplatten und Netzwerkadapter zu booten und Secure-Boot zu verwenden, was für mehr Flexibilität und Sicherheit sorgt. 10. Hyper-V-Replikalässt bei Windows Server 2012 R2 die Erweiterung um zusätzliche Standorte zu. Hyper-V-Replika erlaubt jetzt auch die Replikation auf einen dritten Host. Windows Server 2012 beherrschte hier nur zwei Hosts. 11. Die neue Funktion Storage Quality of Service wurde in Windows Server 2012 R2 integriert. Admins können jetzt den Datendurchsatz für virtuelle Server steuern (siehe Abbildung 3 – Minimum/Maximum). Abbildung3: Datendurchsatz für virtuelle Server steuern Fazit: Windows Server 2012 bietet viele Neuerungen, vor allem im Bereich Hyper-V. Unternehmen und Kunden sollten sich eine Aktualisierung überlegen und die Vorteile von den Verbesserungen in Windows Server 2012 R2 nutzen. Quellen: http://www.tecchannel.de/server/windows/2040714/microsoft_betriebssystem_windows_server_2012_r2_bringt_viele_neue_features/index.html http://www.channelpartner.de/channelcenter/windows/2607817/index.html  

Tugce mittendrin: Tugce ist wieder in der Schule

Diese Woche hatte ich die Chance, bei der Kursveranstaltung  „Windows Server 2012 – Konfiguration, Verwaltung und Wartung“ von unserem ppedv-Trainer Haiko Hertes teilzunehmen. Ich hatte wieder einmal die Gelegenheit, den Kursleiter und einen Teilnehmer kurz zu interviewen.   Ich wollte einen Bericht aus einem Schulungstag schreiben, da es mich als Praktikantin interessiert hat, wie so eine Schulung bei ppedv AG abläuft. Ich möchte euch kurz meine Eindrücke schildern. Die Schulung fand am Montag, den 04.11.2013 um 09:00 Uhr in Burghausen statt. Die Seminarzeiten sind regelmäßig von 9:00 bis 17:00 Uhr in den einzelnen Seminarräumen. Wir hatten eine dreiviertel Stunde Mittagspause von 12.15 Uhr bis 13.00 Uhr sowie Vormittag und nach der Mittagspause einmal jeweils 15 Minuten Kaffeepause. Ein Teilnehmer hatte sich für diese Schulung angemeldet. Nach dem Seminar standen uns die Slides zur Verfügung. Lernen in Kleingruppen bietet diverse Vorteile: Der Kursleiter kann sich in einer Kleingruppe viel besser auf die Stärken, Schwächen und Bedürfnisse der einzelnen Teilnehmer konzentrieren und diese individuell fördern. Ein weiterer Vorteil besteht darin, dass wir sehr konzentriert arbeiten/zuhören konnten und die einzelnen Schritte, die uns erklärt wurden, nachvollziehen und später bei den Übungen selbstständig umsetzen konnten.   Die Teilnehmer lernen in einem unserer modernen Seminarräume. Der Trainer hatte nicht nur die Punkte aus seinen Slides besprochen, sondern hatte uns noch einige Beispiele auf den Flipchart aufgezeichnet. Diese verdeutlichte er mit bunten Farbstiften. Uns stand auch ein PC mit High-Speed Internet-Anschluss zur Verfügung. Schulung: Windows Server 2012 - Konfiguration, Verwaltung und Wartung Nach der Vorstellungsrunde haben wir über unsere Erfahrungen mit dem Windows Server 2012/2008 R2 und den Vorgängerprodukten gesprochen. Anschließend sind wir die Themen in der Agenda durchgegangen und hatten somit einen Überblick auf den Gesamtkurs bekommen.   Die Schulung von Heiko beinhaltet Wiederholungen der letzten Seminare, Demos und Übungen zu Windows Server 2012. Auch ich durfte bei den Übungen teilnehmen, was mir auch sehr Spaß gemacht hat. Bei Problemen habe ich auch Hilfestellung bekommen. Das Ziel dieser Schulung bestand darin, einen Überblick über den Windows Server 2012 mit den wichtigsten Komponenten zu erhalten. Im Detail wurde auf die Administration des Windows Servers 2012 eingegangen und die Aufgaben, welche ein Administrator kennen muss. Dazu gehört nicht nur die Installation, sondern auch die Konfiguration des Windows Servers – über den Server Manager. Auf die Änderungen des SQL Servers 2012 im Vergleich zu alten Versionen und auf die Neuerungen wurde im Speziellen eingegangen. Dabei wurde als erstes die einzelne Komponente des Windows Servers erläutert. Anschließend wurde uns die Frage gestellt, welche Serverrollen es gibt und welche für das Unternehmen des Teilnehmers von Interesse sind.   Weiterhin behandelte der Trainer die Neuerungen der Hyper-V 3.0 (Neuerungen seit Hyper-V 2.0.). Er zeigte uns die Zusammenfassung der Hyper-V 3.0 Verwaltung. Anschließend bekamen wir eine Übung dazu und mussten uns mit der Bedienung von Hyper-V vertraut machen.   Beim Thema Installation & erste Schritte sollten wir eine neue VM im Hyper-V-Manager anlegen und diese mit „LAN intern“ verbinden und einen Server 2012 Datacenter in dieser VM installieren. Im Bereich Oberfläche und Verwaltung wurden die Tastenkombinationen und der Aufbau der neuen Oberfläche gezeigt. Spannend fand ich das Tool „Schrittaufzeichnung“. Damit stellt Microsoft auch unter Windows 8 ein System-Tool bereit, das es ermöglicht, Vorgänge am Bildschirm aufzuzeichnen und später auszuwerten. Nach einem Druck auf dem roten Knopf für „Aufzeichnung starten“ werden alle Mausklicks und Bewegungen des Nutzers am Bildschirm aufgezeichnet. So kann zum Beispiel ein Systembetreuer die einzelnen Schritte des Nutzers protokollieren und nachvollziehen. Weiterhin wurde auf das Netzwerk eingegangen. Die Steuerung des SQL Servers über Windows Power Shell war ebenfalls Bestandteil des Kurses. Abgerundet wurde der Kurs durch DNS. Zum Schluss des Seminars fragte uns Haiko noch, ob wir alles verstanden und Fragen hätten - und dass wir bei Unklarheiten o.ä. möglichst sofort Fragen sollten. Fazit: Die Teilnehmer sollten die Schulungsangebote nutzen. Sie können viele praktische Beispiele erlernen, wie man z.B. ein Windows-basiertes Netzwerk plant, implementiert und verwaltet. Von Grundlagen des Active Directory bis zu Zertifikatsdiensten haben wir in angenehmer Atmosphäre den „neuen“ Server kennengelernt. Sowohl für die Praxis als auch für die Zertifizierungsprüfungen können sich die Teilnehmer fit machen (lassen). Die Windows Server 2012 Schulung war sehr gut gemacht. Die Inhalte wurden uns lebendig und anhand von Beispielen vermittelt. Der Teilnehmer konnte auch aus seiner eigenen Erfahrung berichten. Der Rahmen – Schulungsräume, Ausstattung, Verpflegung – war gut gestaltet. Ich würde diese Schulung weiterempfehlen.   1.Interview mit Kursteilnehmer: Tugce: Warum verwenden Sie Microsoft-Technologie? Kursteilnehmer: Der Hauptgrund ist, dass Microsoft technologisch gesehen Marktführer ist. Zu 95% läuft alles auf Microsoft. Und Microsofttechnologie ist zuverlässig. Tugce: Sehen Sie Unterschiede zu anderen Schulungsanbietern? Was unterscheidet die ppedv von anderen Schulungsanbietern? Kursteilnehmer: Das ist meine erste Schulung. Mein Chef hat mir die ppedv empfohlen, da das Unternehmen bekannt ist und auch nicht weit weg von uns ist. Tugce: Warum glauben Sie, dass es so wenige Frauen in der IT gibt? Und was glauben Sie, wann sich das ändern wird? Kursteilnehmer: Das ist schwer zu sagen. Ich denke aus historischen Gründen. (Frau muss kochen usw.) Bei meiner Ausbildung zur Fachinformatiker haben zwei Frauen abgebrochen, aber den Grund weiß ich auch nicht. 2. Interview mit Kursteilnehmer: Tugce: Warum verwenden Sie Microsoft-Technologie? Kursteilnehmer: Weil ich es im Unterricht brauche. Ich bin Lehrer an der Berufsfachschule für technische Assistenten. Da benutzen wir Microsoft regelmäßig. Tugce: Sehen Sie Unterschiede zu anderen Schulungsanbietern? Was unterscheidet die ppedv von anderen Schulungsanbietern? Kursteilnehmer: Was jetzt diesen Kurs betrifft – Nein, gibt es nicht. Was jetzt den Bereich Microsoft betrifft, hatte ich nur einen anderen Schulungsanbieter. Und da habe ich online-Kurse gemacht, also online mit Video und über das Internet verbunden. Die Qualität hängt maßgeblich vom Trainer ab. Tugce: Wie sind Sie auf die ppedv AG gekommen? Kursteilnehmer: Weil wir ppedv eben schon aufgrund unserer Schule her kennen. Und mein Kollege und Hannes Preishuber sich kennen. Dann war mal das Angebot, ppedv soll sich bei uns vorstellen als potenzieller Arbeitgeber. Und seit dieser Zeit ist es mir persönlich auch bekannt. Tugce: Kannten sie den Trainer bereits aus Konferenzen, Blogs etc. Kursteilnehmer: Nein, noch gar nicht. Ist das erste Mal. Tugce: Warum glauben Sie, dass es so wenige Frauen in der IT gibt? Und was glauben Sie, wann sich das ändern wird? Kursteilnehmer: Warum? Einfach von der Grunderziehung her, so wie es immer heißt: „Frauen können nicht Mathematik“ oder so. Das ist einfach nur eine Erziehungssache. Das sind einfache Hemmungen die von Hause aus da sind, und die werden immer weniger jetzt. 3. Interview mit Kursteilnehmer: Tugce: Warum verwenden Sie Microsoft-Technologie? Kursteilnehmer: Weil sich´s über die Jahre bewährt hat und natürlich, weil ich es für die Arbeit brauche. Tugce: Sehen Sie Unterschiede zu anderen Schulungsanbietern? Was unterscheidet die ppedv von anderen Schulungsanbietern? Kursteilnehmer: Ich hatte noch nicht die Möglichkeit andere Schulungsunternehmen kennen zu lernen. Tugce: Kannten sie den Trainer bereits aus Konferenzen, Blogs etc. Kursteilnehmer: Nein, ich kannte ihn vorher nicht. Tugce: Welches der Angebote (Schulung, Event, Blog, Magazin) der ppedv haben sie schon einmal genutzt oder werden jetzt dann noch nutzen? Kursteilnehmer: Ich schreibe ab und zu was im ppedv Blog. Ich bin immer auf SharePoint-Konferenz. Visual One lese ich natürlich auch. Also nutze ich alle Angebote. Interview mit Kursleiter Rolf Kirchner: Tugce: Sind IT-Trainer/ Entwickler anders als andere Lehrer? Rolf Kirchner: Ja Tugce: Inwiefern? Rolf Kirchner: Ja, es ist so, dass es zwischen Entwicklern und Administratoren schon auch persönliche Unterschiede gibt. Auch vom Berufsbild her. Die Administratoren sind ja oft auch Leute, die im Unternehmen viel Kommunikation pflegen müssen. Sie müssen beispielsweise rumlaufen und schauen, wie Maschinen laufen, und es gibt Steuerungen zu beseitigen usw. Das ist natürlich immer mit Interaktion mit den Usern verbunden. Der Entwickler hat eher seinen eigenen Arbeitsplatz und seine Aufgabe (durch Testen usw.), aber ist natürlich wesentlich weniger in Kommunikation. In der Administration ist Kommunikation usw. etwas häufiger. Der Entwickler-Trainer kommt ja eher aus der Entwickler-Branche und ist eher gewohnt, für sich zu arbeiten und ist nicht unbedingt so kommunikativ. Aber das ist nur ein grober Unterschied. Im Einzelfall kann das völlig anders aussehen. Im Einzelfall kann der Admin-Trainer oder Infrastruktur-Trainer introvertiert und der Entwickler-Trainer sehr extrovertiert und kommunikativer Mensch sein. Das sind nur allgemeine Trends. Tugce: Was müssen Trainer am ehesten noch lernen? Rolf Kirchner: Beim Entwickler-Trainer ist es manchmal diese Sache mit der Kommunikation, aber die Anforderungen der Teilnehmer sind auch anders. Zum Beispiel wenn wir Infrastruktur-Teilnehmer haben, die sind anders drauf. Sie wollen mehr unterhalten werden. Langweiliger Unterricht würde denen nicht gefallen. Entwickler haben ja wieder Entwickler als Teilnehmer, die vielleicht auch nicht so viel Wert auf solche Dinge legen. Da muss der Trainer hier vorne eigentlich fast so ein Lexikon sein, der muss ein sehr sehr gutes Wissen haben. Am besten alles wissen, wie Syntax, Parameter und alles was dazugehört. Tugce: Was ist am wichtigsten bei einem guten Trainer? Rolf Kirchner: Am wichtigsten ist seine fachliche Kompetenz natürlich, das ist sehr wichtig. Ein sicheres Auftreten ist wichtig, das er wirklich auch die Präsenz hat. Er muss natürlich in der Lage sein, eine gute Ordnung in seinem Unterricht zu haben, und strukturiert zu arbeiten. Aber es muss auch Platz für die Teilnehmer da sein. So dass die Teilnehmer Fragen stellen und ihren Raum haben können, das ist auch sehr wichtig. Ein ganz dominanter Trainer ist hier nicht gut/geeignet.

Wusstet ihr…

Noch vor gut 10 Jahren wurden dem SQL Server andere DB Systeme vorgezogen, die als „sicherer“ galten, wenn es um Ausfallsicherheit, Transaktionsgeschwindigkeit und große Datenmengen ging. Mittlerweile hat SQL Server nicht nur aufgeholt, sondern sich als Datenbanksystem etabliert. Gilt das nur für kleinere und mittelständische Betriebe, oder spielt der Microsoft SQL Server auch in der oberen Etage mit? Dieser Frage bin ich nachgegangen und habe ein paar Zahlen gefunden, bei denen man sich gut vorstellen kann, in welcher Liga nun SQL Server mitspielt. Die aktuelle Leistungsfähigkeit von Microsoft SQL Server – Top Statistik: Kategorie                                                                                                     Metric  Größte einzelne Datenbank:                                                                         350 Terabyte (TB) Größte Tabelle:                                                                                              1,5 Billionen Zeilen Größte Gesamtdaten pro Anwendung:                                                          88 Petabyte (PB) Höchste Datenbank-Transaktion pro Sekunde pro Server (von Performance Monitor):                                                      130.000 „Performance Monitor“: Systemmonitor ist ein Programm, das verwendet wird, um verschiedene Aktivitäten auf einem Computer wie CPU-Auslastung oder Speichernutzung zu überwachen. Betrifft: Windows 7, Windows Server 2008 R2, Windows Server 2012, Windows Vista. Schnellstes I/O-Subsystem in der Produktion  (SQLIO 64k buffer serial Lesetest):                                                              18 Gigabyte (GB) / Sekunde Schnellste Echtzeit-Cube:                                                                           Millisekunden Latenz Ein Echtzeit-Cube ist ein regulärer Cube, der beschäftigt relationale OLAP (ROLAP) Partitionen oder Dimensionen, die das Echtzeit-OLAP-Feature von Microsoft SQL Server 2000 Analysis Services unterstützen.   Laden von Daten für 1 Terabyte:                                                                    30 Minuten Größte MOLAP Cube:                                                                                    24 TB MOLAP steht für mehrdimensionales Online Analytical Processing. MOLAP ist eine Alternative zu der ROLAP (relationales OLAP)-Technologie. Die meisten MOLAP-Lösungen speichern Daten in einem optimierten mehrdimensionalen Array-Speicher anstatt in einer relationalen Datenbank (ROLAP). Wenigste anfällige Datenbank:                                                                      5 Jahre in Folge Meist verwendeten Datenbanken weltweit:                                                   46% Marktanteil Top Statistik – Azure SQL Server: Größte gemeinsame Datenbank:                                                                   20 TB Größte Anzahl von Datenbanken pro App:                                                     14.000 Die meisten gleichzeitigen Benutzer pro App:                                               3 Mio. Benutzer Größte Installation:                                                                                         *.cs = 14.832                                                                                                                          Web.config = 149                                                                                                                        *.csproj = 889 *.sln = 210 On-Premises: SQL Server-Fallstudien: On-Premises ist ein Nutzungsmodell für Computerprogramme (Software). Dabei erwirbt der Nutzer ein solches Computerprogramm und betreibt dieses selbst, also auf eigener Hardware. (In der Regel wird der Begriff On-Premise jedoch meist für Programme verwendet, die mehrbenutzerfähig und somit netzwerktauglich sind.) DATA WAREHOUSE/BI Erstellung eines Data-Warehouse 80 TB Sehr schneller Festplatten-subsystem OLTP Skalieren einer Datenbank Keine Ausfallzeiten erlaubt Über 16.000 Instanzen Microsoft CTP-Datenebene -Die Commerce-Transaktionsplattform unterstützt Abrechnung und Abonnements (eCommerce) für Microsoft-Produkte wie AdCenter, Xbox Live, Zune, Windows Live Hotmail Plus und Azure. -Die Commerce-Transaktionsplattform unterstützt Zahlungen mit 13 Zahlungsmethoden über 65 lokalisierten Märkte. -5 DBAs. Datenbankinfrastruktur (PROD) - 2 Rechenzentren - 5 Webstore Clusters - 220 2012 SQL Server (ohne VM) - 736 Datenbanken - 121 TB Datenfiles - 420 TB Speicher – DAS & SAN (EMC/HDS) - 12 TB monatliches Wachstum - 82 DB Mirror (Datenbankspiegelung ist die Erstellung und Pflege von redundante Kopien einer Datenbank) - 70 (paarweise) Protokollversand - 400 Datenverarbeitung-Abonnement-Streams, 6 Händler Große Health Care Provider (Krankenversicherungen) - 17 TB OLTP-Datenbank - 10.000 gleichzeitige Benutzerverbindungen BWIN - Weltweit größte börsennotierte Online-Gaming-Plattform - 15 Millionen Seitenabrufe und bis zu 980.000 individuelle User pro Tag Environment: - 5 DBAs & 1 Datenbankarchitekt - über 200 SQL Server-Instanzen - über 150 TB Daten - über 4.000 Datenbanken - über 2 PB Speicher - über 10 TB RAM - über 450.000 SQL-Anweisungen pro Sekunde auf einem einzelnen Server - über 500 Milliarden Datenbank Transaktionen pro Tag - Keine Ausfallzeiten erlaubt Bwin.party: Hohe Verfügbarkeit: - 3 Rechenzentren - (backup) 2 TB pro Stunde über das Netzwerk sichern Hardware für die wichtigsten SQL Server: - Fujitsu RX- 600 S5 - 64 Cores (Prozessorkern) - 1 TB RAM - Mehrere 1 Gbit NIC (Netzwerk-Interface-Controller, auch bekannt als Netzwerkkarte)    (Getrennte VLANs für Client-Zugriff, Cluster-Intercom, Backup) - FusionIO PCI-E Solid State-Geräte (SSD) für Transaktionslog SQL Server 2014 - Kunden wie EdgeNet und Bwin erzielen erhebliche Leistungssteigerungen durch die neue In-Memory-OLTP - Erhöhung der Skalierbarkeit auf bis zu 640 logische Prozessoren und 4 TB RAM (Speicher) in einer physischen Umgebung und bis zu 64 virtuelle Prozessoren und 1 TB Speicher pro VM. Quelle: http://channel9.msdn.com/Events/TechEd/NewZealand/2013/DBI309

Walk-Through: Bereitstellen einer IPAM-Umgebung unter Windows Server 2012

Mit dem Windows Server 2012 hält auch ein neues Werkzeug Einzug in den Administrations-Alltag: Der IP-Adress-Verwaltungsserver, kurz IPAM. Dieses Werkzeug ist in der Lage, die gewachsenen IP-Address-Strukturen zu verwalten, zu analysieren und auch abzufragen. Dabei greift er auf folgende Quellen zu: Domänen-Controller DHCP-Server DNS-Server NPS-Server Damit bietet er die Möglichkeit, die IP-Address-Verwaltung per Excel-Tabelle durch ein modernes, leistungsfähiges Werkzeug zu ersetzen. Leider ist die Installation bzw. Einrichtung nicht ganz trivial, daher möchte ich diese hier Schritt für Schritt erläutern. Bereits vorbereitet für dieses “Walk-through” ist eine kleine Demo-Umgebung bestehend aus einem Domänencontroller samt DNS (DC.hertes.lab), ein DHCP-Server samt Scope (DHCP.hertes.lab) sowie ein Member-Server für die künftig Aufgabe als IPAM (IPAM.hertes.lab). WICHTIG: IPAM darf nicht auf einem Domänencontroller installiert werden. Das TechNet liefert hierfür zwar keine Erklärung, ich vermute aber, dass dies an der nötigen Datenbank (hier: Windows Internal Database, WID) liegt. Ab Server 2012 R2 ist auch ein “richtiger” SQL-Server möglich. Als erstes muss der IPAM als Feature auf dem entsprechenden Server installiert werden. Dies geschieht über den Servermanager (alternativ per PowerShell): Die benötigten, abhängigen Komponenten wie eben die WID oder auch die GPO-Verwaltung, werden automatisch mit installiert: Ein Neustart nach der Installation ist im Allgemeinen nicht erforderlich. Selbst wenn man den Haken für den automatischen Reboot gesetzt hat, wird nur neugestartet, wenn dies nötig ist. Nach der Installation erfolgt die Einrichtung des IPAMs durch den entsprechenden Bereich im Servermanager (ein eigenständiges Werkzeug oder MMC-SnapIn existiert nicht). Die Administration inkl. Einrichtung kann auch remote erfolgen. Dazu ist über die Remoteserververwaltungstools (Feature) der IP-Adressverwaltungsclient zu installieren: Die Einrichtung selber besteht aus 6 (bzw. eigentlich 7) Schritten, welche in einer Art Assistenten im Servermanager (links im Menü unter “IPAM”) abzuarbeiten sind: Verbindung mit IPAM-Server herstellen IPAM-Server bereitstellen Serverermittlung konfigurieren Serverermittlung starten Server zum Verwalten und Überprüfen des IPAM-Zugriffs auswählen oder hinzufügen Daten von verwalteten Servern abrufen Nach dem Schritt 3 ist ein weiterer Schritt nötig, der hier nicht aufgeführt wird und nur per PowerShell erledigt werden kann. Darauf gehe ich später gesondert ein. Die GUI zeigt die 6 Schritte. Der erste Schritt wird automatisch ausgeführt, wenn die IPAM-Konsole auf dem IPAM-Server selber gestartet wird. Ansonsten ist durch einen Klick auf den ersten Punkt eine Verbindung mit dem gewünschten IPAM-Server herzustellen: Als nächstes wird der IPAM-Server bereitgestellt. Dies kann manuell (nicht zu empfehlen) oder per GPO (sehr komfortabel) erfolgen. Bei der GPO-Variante ist nur ein Präfix anzugeben, der den künftigen drei GPOs namentlich vorangestellt wird: Nach diesem Schritt existieren die GPOs nur auf dem IPAM-Server, noch nicht auf dem Domänencontroller. Dazu kommen wir gleich… In Schritt 3 werden die zu verwaltenden Domänen und Server ausgewählt: Hier findet sich auch – etwas unglücklich platziert – der Hinweis auf den (zwingend nötigen) “siebten Schritt”: Das Schreiben der GPOs auf den DC mittels PowerShell-Cmdlet “Invoke-IpamGpoProvisioning”: Schickt man den Befehl ohne Parameter ab, werden diese danach automatisch abgefragt. Wichtig: Das Ausführen dieses Cmdlets muss (interaktiv) auf dem IPAM-Server erfolgen. Es funktioniert weder per Enter-PSSession noch per Invoke-Command! Im Schritt 4 werden nun die Server der ausgewählten Umgebung ermittelt: Dabei wird eine “IP-Adress-Verwaltungsaufgabe” gestartet, deren Fertigstellung man abwarten muss: Nun können im Schritt 5 die zu verwaltenden Server ausgewählten werden. Dabei werden diese jeweils in den Zustand “Verwaltet” gesetzt. Dies muss für jeden Server separat erfolgen. Ist dies abgeschlossen, stehen die Server auf “Blockiert”. Die Blockierung wird aufgehoben, sobald die erzeugten und nun auch per Sicherheitsfilterung für die jeweiligen Server geltenden GPOs wirken. Am einfachsten kann man dies durch ein GPUpdate forcieren. Sobald die GPOs wirken, kann man durch einen Rechtsklick den “Status des Serverzugriffs aktualisieren”. Dies muss wieder für alle Server einzeln und nacheinander erfolgen. Wenn diese Aufgabe erledigt ist, kann man die Ansicht aktualisieren (Kringel / Kreisel oben rechts). Nun sollten alle Server “grün” sein: Falls nicht, hilft etwas warten bzw. müssen die jeweiligen Server evtl. noch einmal mit GPUpdate aktualisiert werden. Alternativ hilft “Invoke-GPUpdate SRVNAME –RandomDelayInMinutes 0 –Force”. Nun darf man den Schritt 6 nicht vergessen! Dieser ruft schließlich (einmalig manuell, später automatisch) die jeweiligen Daten von den verwalteten Servern ab. Auch hier muss man wieder auf Fertigstellung der IP-Adressverwaltungsaufgabe warten. Ist der Schritt 6 fertiggestellt, kann man sich nun den verschiedenen Möglichkeiten im Baum auf der linken Seite widmen. Unter IP-ADRESSRAUM / IP-Adressblöcke kann man z.B. den/die DHCP-Scope(s) sehen: Durch einen Rechtsklick auf diesen lässt sich die nächstfreie IP-Adresse suchen und zordnen: Hier kann man beispielsweise einen Eintrag in DNS oder auch eine DHCP-Reservierung vornehmen. Allerdings werden diese Daten vorerst nur am IPAM-Server gespeichert. Möchte man die Informationen auch auf die jeweiligen Server übertragen, so ist dies unter “IP-Adressbestand” möglich:   In der Rubrik “Überwachen und Verwalten” kann man u.a. den Zustand der involvierten Server und DHCP-Scopes sehen. Im Ereigniskatalog werden einerseits Konfigurationsereignisse angezeigt, andererseits kann man gezielt nach IP-Adressen, MAC-Adressen, Hostnamen und Benutzernamen suchen, um damit verbundene Vorgänge (DHCP-Lese-Generation, –Renewal, DC-Authentifizierung, …) zu finden: Da der IPAM seine Daten in einer Datenbank ablegt, kann man hier auch Daten der Vergangenheit abrufen. Die Daten werden 3 Jahre lang in der Datenbank vorgehalten.