Dank glücklicher Umstände (In mein Mietshaus wird das TV-Signal mittels FTTH geliefert) und einem sehr flexiblen und kundenorientierten Kabelnetzbetreiber, welcher mir, obwohl ich nur ein Privatkunde und dazu noch Mieter bin, eine über 4km lange, exklusive Faser zum POP meines Providers spleisste, bin ich nun seit gestern Nutzer des wohl defintitiv einzigen FTTH-Anschlusses in Frenkendorf BL. 🙂 🙂 🙂
Server 2015
Server 2015 erhielt 2 Nachfolger in Form von
Vegane Ryzkost und Server 2017
Nachdem ich in der Kategorie Projekt Server 2015 bereits ausführlichst über die Entstehungsgeschichte sowie die Hardware meines neuen Servers berichtete, folgt hier nun noch das Faktenblatt der Hard- und Software.
Hardware
- Gehäuse
- Silverstone GD07B
SST-LC10B-E Rackmontagebügel RA01B4x2x 80mm Gehäuselüfter Noctua NF-A8 FLX- 2x 120mm Gehäuselüfter Noctua NF-S12A ULN
- 4x HD-Wechselrahmen FANTEC MR-35SATA-A
- Silverstone GD07B
- Netzteil
- 500W be quiet! Straight Power 10 CM
- Mainboard
- Supermicro X10SRi-F
- CPU
- Intel Xeon E5-1650v3
E5-2620v3
- Intel Xeon E5-1650v3
- CPU-Kühler
- Noctua NH-U9S (Ventilator)
- Supermicro SNK-P0050AP4 (Kühler)
- Arbeitsspeicher
- Crucial DDR4 32GB 4-Kit 2133MHz Reg-ECC
- Storage
- Intel S3500 480GB SSD [C:\]
- HP P222/512MB Smart Array RAID-Kontroller
- 12TB RAID-5 [D:\]
- 4TB HDD Seagate ST4000DM003 @Port1
- 4TB HDD Seagate ST4000DM003 @Port2
- 4TB HDD Seagate ST4000DM003 @Port3
- 4TB HDD Seagate ST4000DM003 @Port4
- 12TB RAID-5 [D:\]
- Grafik
- ASUS AMD R9 Nano 4GB HBM
ASUS AMD Radeon STRIX R9 285 DC2OC 2GD5
- Bildschirm
- Dell U3415H [34″ | 21:9 | 3440×1400 | Onboard KVM-Switch]
- Backup
- 8TB USB3-HDD WD MyBook Duo
Betriebssystem
- Microsoft Windows Server 2012 R2 Standard
- Rollen
- Fileserver | Hyper-V | rsync
- Netzwerk
- 1 NIC @LAN @LACP-Trunk @2x Gbit LAN
- Rollen
Virtuelle Maschinen
- Windows Server 2012 R2 Standard
- Hardware
- 4 CPU | 8-16GB RAM | 60GB @C:\ | 1TB @D:\
- 4 CPU | 8-16GB RAM | 60GB @C:\ | 1TB @D:\
- Software/Rollen
- DC ad.STRUBAND.net | Essentials | Fileserver | DHCP | DNS | RRAS
- DC ad.STRUBAND.net | Essentials | Fileserver | DHCP | DNS | RRAS
- Netzwerk
- 1 NIC @LAN
- Hardware
- Ubuntu Server 14.04 LTS
- Hardware
- 2 CPU | 2GB RAM | 50GB @C:\
- Software
- Observium Professional | UniFi-Controller | PlexPy | IPerf
- Netzwerk
- 1 NIC @LAN
- Hardware
- Ubuntu Server 14.04 LTS
- Hardware
- 4 CPU | 4GB RAM | 50GB @C:\
- Software/Rollen
- Plex Media Server | Teamspeak 3
- Netzwerk
- 1 NIC @DMZ
- Hardware
- Windows XP
- Hardware
- 1 CPU | 512MB RAM | 20GB @C:\
- Software
- Dedicated Gameservers
- Netzwerk
- 1 NIC @DMZ
- Hardware
Energiebedarf [Idle]
- ~70 Watt
Weitere Details / Topologie / Bilder
Updates
- 17.09.15 Austausch Grafikkarte, Bilder
- 03.10.15 Austausch Gehäuse, HD-Wechselrahmen, Bilder
- 21.10.15 Austausch CPU
Dell Latitude E7450: WWAN unter Ubuntu
Wer ein Latitude E7450 mit eingebautem Mobilfunkmodul des Typs Sierra Wireless AirPrime EM7305 besitzt, stand vielleicht schon vor dem gleichen Problem:
Das Modul wird von Ubuntu 14.04 nicht erkannt.
Dieses Problem lässt sich auf der CLI mit folgenden Schritten einfach lösen:
sudo cp /lib/udev/rules.d/77-mm-ericsson-mbm.rules /etc/udev/rules.d/77-mm-ericsson-mbm.rules
sudo nano /etc/udev/rules.d/77-mm-ericsson-mbm.rules
Am Ende der Datei, vor der Zeile welche mit LABEL beginnt, folgende Zeilen einfügen:
# Dell 5809e ATTRS{idVendor}=="413c", ATTRS{idProduct}=="81b1", ENV{ID_MM_ERICSSON_MBM}="1"
Speichern und den PC neu starten. Nach erfolgtem Neustart sollte Ubuntu das Modul erkennen und ein SIM-PIN Eingabefenster erscheinen.
ESXi 6.0 GPU Passthrough
Angespornt durch diesen Artikel und wie bereits hier angetönt, wollte ich auf meinem neuen Server eine AMD R9 285 Grafikkarte per PCI-Passthrough in eine Workstation VM durchreichen. Anders als im Artikel, sollte bei mir jedoch ESXi 6.0 auf dem neusten Patchlevel 2715440 zum Einsatz kommen. Soweit schien alles klar und ich war auch optimistisch, dass dieses Vorhaben so machbar ist. Wie ihr vielleicht schon anhand der von mir gewählten Zeitform erahnt, klappte es nicht ganz so wie gewünscht, zuerst aber mal der Reihe nach.
Vorbereitungen
Als Erstes sei jedem sicher mal der oben bereits erwähnte Artikel ans Herz gelegt. Zusätzlich waren bei meinem Supermicro Board noch BIOS Einstellungen zu tätigen. Und zwar musste die AMD Grafikkarte priorisiert werden, da sonst das PCI-Passthrough nicht funktionieren wollte. Zudem sei noch der Download einer Windows 10 Insider Preview ISO angeraten.
VM einrichten
Grundsätzlich kann gleich vorgegangen werden wie im Artikel beschrieben:
- VM erstellen, PCI Geräte noch nicht hinzufügen
- BIOS der VM auf EFI umstellen
- VM starten
- Betriebssystem installieren
- VMWare-Tools installieren
- VM herunterfahren
- PCI-Geräte hinzufügen
- ESXi-Host neu starten
- VM starten
- Grafikkarten Treiber installieren
Der Punkt 5 des Artikels ist bei ESXi 6 nicht mehr vonnöten, ESXi scheint das „PCI hole“ nun selbstständig zu setzen:
2015-06-21T18:54:22.550Z| vmx| I120: Automatically adjusting PCI hole to 1976 MB for passthrough RMRR
Beim Betriebssystem sei auch noch angemerkt, dass es mit meiner HW-Konfiguration leider nur mit Windows 10 klappen wollte.
Hat man die Schritte soweit abgearbeitet, sollte man anschliessend auf dem Bildschirm vom Anmeldebildschirm begrüsst werden:
Der Gerätemanager zeigt, dass alles ordnungsgemäss installiert wurde:
Vom Handling her fühlt sich das System wie eine Baremetal-Installation an. Auch Tests mit diversen Games zeigten keine Performanceprobleme. Das alles klingt jetzt natürlich zu schön um wahr zu sein. So ist es leider auch, denn dieses Setup weist ein paar gravierende Nachteile auf:
- Der Start funktioniert nur ordnungsgemäss nach einem ESXi-Host Neustart. Das heisst, dass die VM selber nicht heruntergefahren, anschliessend wieder gestartet, oder einfach nur neu gestartet werden kann.
- Auch funktioniert ein Standbybetrieb oder auch einfach nur ein Bildschirm ausschalten durch Windows nicht.
- Zudem kann man mit dem Monitor nicht zu einer anderen Bildquelle springen und anschliessend wieder zurück.
All diese Punkte, ausser einem sauberen ESXi-Neustart, führen ins Nirvana und die VM muss anschliessend hart ausgeschaltet werden. Somit ist diese Lösung nicht praxistauglich. Ich werde nun in den nächsten Tagen auf eine Windows 2012 R2 Baremetal-Installation mit Hyper-V Rolle umstellen. Diese Baremetal Windows-Installation wird Desktop-tauglich konfiguriert und mir anschliessend auch als Workstation dienen.