Jeder mag fancy Dashboards…

Wer wie ich schon lange auf der Suche nach einer Möglichkeit ist, Zeitreihen möglichst einfach, schnell und vorallem schön darstellen zu können, der sollte sich unbedingt mal Grafana, bzw. die Kombination aus InfluxDB und Grafana näher anschauen. Mithilfe der offiziellen Docker-Images erstellt man sich innert Minuten seine eigene lauffähige Umgebung. Wurde die InfluxDB mit ersten Daten gefüttert, steht dem ersten Dashboard schon nichts mehr im Wege.

Hier nun meine ersten beiden Dashboards:

Smappee Dashboard (V3)

Wetter Dashboard


Schick, oder? 😉

Server 2017

Nach dem mehr oder weniger gescheiterten Projekt Server 2015 sollte es diesmal wieder ein reiner VM-Host werden:

Hardware

  • Gehäuse
    • Supermicro SC721TQ-250B Mini-ITX Tower, 250W Netzteil
  • Lüfter
    • Noctua NF-P12 PWM
    • Noctua NF-A6x25 PWM @CPU
  • Mainboard
    • Supermicro X10SDV-8C-TLN4F, Intel Xeon D-1541 (8C/16T, 2.1Ghz, 45W)
  • Arbeitsspeicher
    • 64GB Kingston DDR4-2133Mhz ECC-Registered [KVR21R15D4K4/64]
    • 32GB Kingston DDR4-2133Mhz ECC-Registered [KVR21R15D4/16]
  • Storage
    • 1TB ZFS RAID-1 [PVE]
      • 2x 1TB PCIe-SSD WD Red SN700
    • 512GB PCIe-SSD Toshiba XG3
    • 480GB SATA-SSD Intel S3500
    • TrueNAS Scale VM
      • 20TB ZFS RAID-10
        • PCI-Passthrough SATA-Controller
          • 10 TB Seagate 10000VN0004 @SATA1
          • 10 TB Seagate 10000VN0004 @SATA2
          • 10 TB Seagate 10000VN0004 @SATA3
          • 10 TB Seagate 10000VN0004 @SATA4
    • HP P222/512MB Smart Array RAID-Controller
      • 12TB RAID-5
        • 4TB HDD Seagate ST4000DM003 @Port1
        • 4TB HDD Seagate ST4000DM003 @Port2
        • 4TB HDD Seagate ST4000DM003 @Port3
        • 4TB HDD Seagate ST4000DM003 @Port4
    • 4TB 2.5″-HDD Seagate ST4000LM024

Betriebssystem

  • Proxmox Virtual Environment 5.0 5.27.1 7.2

ZFS Storage  [neu @ TrueNAS SCALE VM]

root@struband-nas01[~]# zpool status
  pool: TANK
 state: ONLINE
  scan: scrub repaired 0B in 10:09:23 with 0 errors on Sun Jan  1 10:09:25 2023
config:

    NAME                                      STATE     READ WRITE CKSUM
    TANK                                      ONLINE       0     0     0
      mirror-0                                ONLINE       0     0     0
        a6db614d-8aab-410e-95c0-e220966d5572  ONLINE       0     0     0
        f1a083ee-18e1-4943-aefd-08723313519c  ONLINE       0     0     0
      mirror-1                                ONLINE       0     0     0
        0e054d40-ded9-47dd-ae71-40ad416901f8  ONLINE       0     0     0
        39a92569-64a1-4911-b96d-ebd7ac0b42ee  ONLINE       0     0     0

errors: No known data errors

  pool: boot-pool
 state: ONLINE
status: Some supported and requested features are not enabled on the pool.
    The pool can still be used, but some features are unavailable.
action: Enable all features using 'zpool upgrade'. Once this is done,
    the pool may no longer be accessible by software that does not support
    the features. See zpool-features(7) for details.
  scan: scrub repaired 0B in 00:00:23 with 0 errors on Fri Dec 30 03:45:24 2022
config:

    NAME        STATE     READ WRITE CKSUM
    boot-pool   ONLINE       0     0     0
      sda3      ONLINE       0     0     0

errors: No known data errors

Energiebedarf [Idle]

  • ~50 Watt ~75 Watt

Weitere Details: Topologie, VMs…

Updates

  • 15.08.22     Umbau Storage, OS
  • 01.01.22     Aufrüstung RAM, OS
  • 18.04.19     Austausch Gehäuse-Lüfter
  • 05.07.18     Umbau Storage

IPSec-Throughput: ZBOX CI323 nano

Aufgrund des unbefriedigenden IPSec-Throughputs der APU2-Boards, suchte ich nach einer preisgünstigen Alternative welche mind. 100Mbps packt. Diese wurde mit der ZBOX CI323 nano gefunden. Unter Laborbedingungen konnten 110Mbps gemessen werden. Wie schaut es aber unter Praxisbedingungen, bzw. installiert an meinem Backupstandort aus?

ZBOX CI323 nano

  • Internetanbindung: Kabelinternet 150/10Mbps
  • Betriebssystem: pfSense 2.3.1_1
  • IPSec: IKEv2, AES256, SHA256
  • CPU-Type:
Intel(R) Celeron(R) CPU N3150 @ 1.60GHz
4 CPUs: 1 package(s) x 4 core(s)
  • Crypto-Support OpenVPN:
[2.3.1-RELEASE][admin@talweg18-router]/root: /usr/bin/openssl engine
(cryptodev) BSD cryptodev engine
(rsax) RSAX engine support
(rdrand) Intel RDRAND engine
(dynamic) Dynamic engine loading support
  • Hardware crypto:
AES-CBC,AES-XTS,AES-GCM,AES-ICM
  • IPerf-Messungen:

Wie man an der folgenden Messung sieht, hat die Latenz einen entscheidenden Einfluss auf den maximal möglichen Durchsatz einer Verbindung:

struband@struband-monitoring:~$ iperf3 -c talweg18-router -i 1 -V
iperf 3.0.7
- - - - - - - - - - - - - - - - - - - - - - - - -
Test Complete. Summary Results:
[ ID] Interval Transfer Bandwidth Retr
[ 4] 0.00-10.00 sec 28.0 MBytes 23.5 Mbits/sec 30 sender
[ 4] 0.00-10.00 sec 27.3 MBytes 22.9 Mbits/sec receiver
CPU Utilization: local/sender 0.5% (0.1%u/0.4%s), remote/receiver 0.5% (0.0%u/0.4%s)

Eine Messung der gleichen Verbindung mit 8 Streams:

struband@struband-monitoring:~$ iperf3 -c talweg18-router -i 1 -V -P 8
iperf 3.0.7
- - - - - - - - - - - - - - - - - - - - - - - - -
Test Complete. Summary Results:
[ ID] Interval Transfer Bandwidth Retr
[SUM] 0.00-10.00 sec 110 MBytes 92.4 Mbits/sec 234 sender
[SUM] 0.00-10.00 sec 108 MBytes 90.5 Mbits/sec receiver
CPU Utilization: local/sender 1.6% (0.3%u/1.3%s), remote/receiver 18.0% (0.5%u/17.5%s)

In der Praxis sind mit der ZBOX CI323 nano somit ~90Mbps (>10MBps) erzielbar -ein für mich akzeptabler Wert.

IPSec-Throughput: APU1D vs APU2C

Nach dem Upgrade meiner Internetanbindung stach mir als Erstes sofort der eher bescheidene, maximale IPSec-Durchsatz der APU1-Boards ins Auge. Dies war aufgrund der fehlenden AES-Einheit eigentlich auch nicht anders zu erwarten. Um nun diesen Flaschenhals beseitigen zu können, beschloss ich kurzerhand die Anschaffung eines APU2-Boards. Mit einer, gegenüber einem APU1-Board, nun hardwarebeschleunigten AES-Verschlüsselung und erst noch doppelt so vielen (4 Stk.) CPU-Kernen sollte der IPSec-Durchsatz doch deutlich zu steigern sein, oder etwa nicht?

Erste Messungen waren leider ziemlich ernüchternd, der Durchsatz steigerte sich lediglich um ca. 10Mbps. Über die Gründe tappe ich aktuell noch im Dunkeln. Unter Umständen liegt hier aber auch nur ein klassisches Layer-8 Problem vor. Ich bleib jedenfalls am Ball.

APU1D2

  • Betriebssystem: pfSense 2.2.6
  • IPSec: IKEv2, AES256, SHA256
  • Crypto-Support:
(cryptodev) BSD cryptodev engine
 [RSA, DSA, DH]
     [ available ]
(rsax) RSAX engine support
 [RSA]
     [ available ]
(dynamic) Dynamic engine loading support
     [ unavailable ]
  • IPerf-Messungen:
root@STRUBAND-E7450:~# iperf3 -c monitoring -i 1 -R                 
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec  42.7 MBytes  35.8 Mbits/sec   51          sender
[  4]   0.00-10.00  sec  42.7 MBytes  35.8 Mbits/sec               receiver

APU2C4

  • Betriebssystem: pfSense 2.2.6
  • IPSec: IKEv2, AES256, SHA256
  • Crypto-Support:
(cryptodev) BSD cryptodev engine
 [RSA, DSA, DH, AES-128-CBC, AES-192-CBC, AES-256-CBC]
     [ available ]
(rsax) RSAX engine support
 [RSA]
     [ available ]
(dynamic) Dynamic engine loading support
     [ unavailable ]
  • IPerf-Messungen:
root@STRUBAND-E7450:~# iperf3 -c monitoring -i 1 -R              
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec  54.2 MBytes  45.4 Mbits/sec   25          sender
[  4]   0.00-10.00  sec  51.3 MBytes  43.0 Mbits/sec               receiver