Archiv der Kategorie: Hardware

Server 2017


Server 2017 erhielt einen Nachfolger:
Proxmoxserver – Edition 2024


Nach dem mehr oder weniger gescheiterten Projekt Server 2015 sollte es diesmal wieder ein reiner VM-Host werden:

Hardware

  • Gehäuse
    • Supermicro SC721TQ-250B Mini-ITX Tower, 250W Netzteil
  • Lüfter
    • Noctua NF-P12 PWM
    • Noctua NF-A6x25 PWM @CPU
  • Mainboard
    • Supermicro X10SDV-8C-TLN4F, Intel Xeon D-1541 (8C/16T, 2.1Ghz, 45W)
  • Arbeitsspeicher
    • 64GB Kingston DDR4-2133Mhz ECC-Registered [KVR21R15D4K4/64]
    • 32GB Kingston DDR4-2133Mhz ECC-Registered [KVR21R15D4/16]
  • Storage
    • 1TB ZFS RAID-1 [PVE]
      • 2x 1TB PCIe-SSD WD Red SN700
    • 512GB PCIe-SSD Toshiba XG3
    • 480GB SATA-SSD Intel S3500
    • TrueNAS Scale VM
      • 20TB ZFS RAID-10
        • PCI-Passthrough SATA-Controller
          • 10 TB Seagate 10000VN0004 @SATA1
          • 10 TB Seagate 10000VN0004 @SATA2
          • 10 TB Seagate 10000VN0004 @SATA3
          • 10 TB Seagate 10000VN0004 @SATA4
    • HP P222/512MB Smart Array RAID-Controller
      • 12TB RAID-5
        • 4TB HDD Seagate ST4000DM003 @Port1
        • 4TB HDD Seagate ST4000DM003 @Port2
        • 4TB HDD Seagate ST4000DM003 @Port3
        • 4TB HDD Seagate ST4000DM003 @Port4
    • 4TB 2.5″-HDD Seagate ST4000LM024

Betriebssystem

  • Proxmox Virtual Environment 5.0 5.27.1 7.2

ZFS Storage  [neu @ TrueNAS SCALE VM]

root@struband-nas01[~]# zpool status
  pool: TANK
 state: ONLINE
  scan: scrub repaired 0B in 10:09:23 with 0 errors on Sun Jan  1 10:09:25 2023
config:

    NAME                                      STATE     READ WRITE CKSUM
    TANK                                      ONLINE       0     0     0
      mirror-0                                ONLINE       0     0     0
        a6db614d-8aab-410e-95c0-e220966d5572  ONLINE       0     0     0
        f1a083ee-18e1-4943-aefd-08723313519c  ONLINE       0     0     0
      mirror-1                                ONLINE       0     0     0
        0e054d40-ded9-47dd-ae71-40ad416901f8  ONLINE       0     0     0
        39a92569-64a1-4911-b96d-ebd7ac0b42ee  ONLINE       0     0     0

errors: No known data errors

  pool: boot-pool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: scrub repaired 0B in 00:00:23 with 0 errors on Fri Dec 30 03:45:24 2022
config:

    NAME        STATE     READ WRITE CKSUM
    boot-pool   ONLINE       0     0     0
      sda3      ONLINE       0     0     0

errors: No known data errors

Energiebedarf [Idle]

  • ~50 Watt ~75 Watt

Weitere Details: Topologie, VMs…

Updates

  • 15.08.22     Umbau Storage, OS
  • 01.01.22     Aufrüstung RAM, OS
  • 18.04.19     Austausch Gehäuse-Lüfter
  • 05.07.18     Umbau Storage

Server 2015


Server 2015 erhielt 2 Nachfolger in Form von
Vegane Ryzkost und Server 2017


Nachdem ich in der Kategorie Projekt Server 2015 bereits ausführlichst über die Entstehungsgeschichte sowie die Hardware meines neuen Servers berichtete, folgt hier nun noch das Faktenblatt der Hard- und Software.

Hardware

  • Gehäuse
    • Silverstone GD07B SST-LC10B-E
    • Rackmontagebügel RA01B
    • 4x 2x 80mm Gehäuselüfter Noctua NF-A8 FLX
    • 2x 120mm Gehäuselüfter Noctua NF-S12A ULN
    • 4x HD-Wechselrahmen FANTEC MR-35SATA-A
  • Netzteil
    • 500W be quiet! Straight Power 10 CM
  • Mainboard
    • Supermicro X10SRi-F
  • CPU
    • Intel Xeon E5-1650v3 E5-2620v3
  • CPU-Kühler
    • Noctua NH-U9S (Ventilator)
    • Supermicro SNK-P0050AP4 (Kühler)
  • Arbeitsspeicher
    • Crucial DDR4 32GB 4-Kit 2133MHz Reg-ECC
  • Storage
    • Intel S3500 480GB SSD [C:\]
    • HP P222/512MB Smart Array RAID-Kontroller
      • 12TB RAID-5 [D:\]
        • 4TB HDD Seagate ST4000DM003 @Port1
        • 4TB HDD Seagate ST4000DM003 @Port2
        • 4TB HDD Seagate ST4000DM003 @Port3
        • 4TB HDD Seagate ST4000DM003 @Port4
  • Grafik
    • ASUS AMD R9 Nano 4GB HBM
    • ASUS AMD Radeon STRIX R9 285 DC2OC 2GD5
  • Bildschirm
    • Dell U3415H [34″ | 21:9 | 3440×1400 | Onboard KVM-Switch]
  • Backup
    • 8TB USB3-HDD WD MyBook Duo

Betriebssystem

  • Microsoft Windows Server 2012 R2 Standard
    •  Rollen
      • Fileserver | Hyper-V | rsync
    • Netzwerk
      • 1 NIC @LAN @LACP-Trunk @2x Gbit LAN

Virtuelle Maschinen

  • Windows Server 2012 R2 Standard
    • Hardware
      • 4 CPU | 8-16GB RAM | 60GB @C:\ | 1TB @D:\
    • Software/Rollen
      • DC ad.STRUBAND.net | Essentials | Fileserver | DHCP | DNS | RRAS
    • Netzwerk
      • 1 NIC @LAN
  • Ubuntu Server 14.04 LTS
    • Hardware
      • 2 CPU | 2GB RAM | 50GB @C:\
    • Software
    • Netzwerk
      • 1 NIC @LAN
  • Ubuntu Server 14.04 LTS
    • Hardware
      • 4 CPU | 4GB RAM | 50GB @C:\
    • Software/Rollen
      • Plex Media Server | Teamspeak 3
    • Netzwerk
      • 1 NIC @DMZ
  • Windows XP
    • Hardware
      • 1 CPU | 512MB RAM | 20GB @C:\
    • Software
      • Dedicated Gameservers
    • Netzwerk
      • 1 NIC @DMZ

Energiebedarf [Idle]

  • ~70 Watt

Weitere Details / Topologie / Bilder

Updates

  • 17.09.15     Austausch Grafikkarte, Bilder
  • 03.10.15     Austausch Gehäuse, HD-Wechselrahmen, Bilder
  • 21.10.15     Austausch CPU

Dell Latitude E7450: WWAN unter Ubuntu

Wer ein Latitude E7450 mit eingebautem Mobilfunkmodul des Typs Sierra Wireless AirPrime EM7305 besitzt, stand vielleicht schon vor dem gleichen Problem:
Das Modul wird von Ubuntu 14.04 nicht erkannt.

Dieses Problem lässt sich auf der CLI mit folgenden Schritten einfach lösen:

sudo cp /lib/udev/rules.d/77-mm-ericsson-mbm.rules /etc/udev/rules.d/77-mm-ericsson-mbm.rules
sudo nano /etc/udev/rules.d/77-mm-ericsson-mbm.rules

Am Ende der Datei, vor der Zeile welche mit LABEL beginnt, folgende Zeilen einfügen:

# Dell 5809e
ATTRS{idVendor}=="413c", ATTRS{idProduct}=="81b1", ENV{ID_MM_ERICSSON_MBM}="1"

Speichern und den PC neu starten. Nach erfolgtem Neustart sollte Ubuntu das Modul erkennen und  ein SIM-PIN Eingabefenster erscheinen.

ESXi 6.0 GPU Passthrough

Angespornt durch diesen Artikel und wie bereits hier angetönt, wollte ich auf meinem neuen Server eine AMD R9 285 Grafikkarte per PCI-Passthrough in eine Workstation VM durchreichen. Anders als im Artikel, sollte bei mir jedoch ESXi 6.0 auf dem neusten Patchlevel 2715440 zum Einsatz kommen. Soweit schien alles klar und ich war auch optimistisch, dass dieses Vorhaben so machbar ist. Wie ihr vielleicht schon anhand der von mir gewählten Zeitform erahnt, klappte es nicht ganz so wie gewünscht, zuerst aber mal der Reihe nach.

Vorbereitungen

Als Erstes sei jedem sicher mal der oben bereits erwähnte Artikel ans Herz gelegt. Zusätzlich waren bei meinem Supermicro Board noch BIOS Einstellungen zu tätigen. Und zwar musste die AMD Grafikkarte priorisiert werden, da sonst das PCI-Passthrough nicht funktionieren wollte. Zudem sei noch der Download einer Windows 10 Insider Preview ISO angeraten.

VM einrichten

Grundsätzlich kann gleich vorgegangen werden wie im Artikel beschrieben:

  • VM erstellen, PCI Geräte noch nicht hinzufügen
  • BIOS der VM auf EFI umstellen
  • VM starten
  • Betriebssystem installieren
  • VMWare-Tools installieren
  • VM herunterfahren
  • PCI-Geräte hinzufügen
  • ESXi-Host neu starten
  • VM starten
  • Grafikkarten Treiber installieren

Der Punkt 5 des Artikels ist bei ESXi 6 nicht mehr vonnöten, ESXi scheint das „PCI hole“ nun selbstständig zu setzen:

2015-06-21T18:54:22.550Z| vmx| I120: Automatically adjusting PCI hole to 1976 MB for passthrough RMRR

Beim Betriebssystem sei auch noch angemerkt, dass es mit meiner HW-Konfiguration leider nur mit Windows 10 klappen wollte.

Hat man die Schritte soweit abgearbeitet, sollte man anschliessend auf dem Bildschirm vom Anmeldebildschirm begrüsst werden:

Der Gerätemanager zeigt, dass alles ordnungsgemäss installiert wurde:

Vom Handling her fühlt sich das System wie eine Baremetal-Installation an. Auch Tests mit diversen Games zeigten keine Performanceprobleme. Das alles klingt jetzt natürlich zu schön um wahr zu sein. So ist es leider auch, denn dieses Setup weist ein paar gravierende Nachteile auf:

  • Der Start funktioniert nur ordnungsgemäss nach einem ESXi-Host Neustart. Das heisst, dass die VM selber nicht heruntergefahren, anschliessend wieder gestartet, oder einfach nur neu gestartet werden kann.
  • Auch funktioniert ein Standbybetrieb oder auch einfach nur ein Bildschirm ausschalten durch Windows nicht.
  • Zudem kann man mit dem Monitor nicht zu einer anderen Bildquelle springen und anschliessend wieder zurück.

All diese Punkte, ausser einem sauberen ESXi-Neustart, führen ins Nirvana und die VM muss anschliessend hart ausgeschaltet werden. Somit ist diese Lösung nicht praxistauglich. Ich werde nun in den nächsten Tagen auf eine Windows 2012 R2 Baremetal-Installation mit Hyper-V Rolle umstellen. Diese Baremetal Windows-Installation wird Desktop-tauglich konfiguriert und mir anschliessend auch als Workstation dienen.