Quantcast
Channel: Andy – Andy's Blog
Viewing all 2168 articles
Browse latest View live

Aufstellpool mit Sandfilteranlage – Wie lange muss die Pumpe täglich laufen?

$
0
0

Schon vor Corona hatten wir das Thema Aufstellpool für uns entdeckt und die vergangenen Jahre immer einen im Garten stehen gehabt. Vorteil damals war das man in kein überfülltes Schwimmbad muss und aktuell, eben wegen Corona, Hygiene und Abstand kein Thema sind. Von der reinen Bequemlichkeit einfach mal schnell sich abkühlen zu können ganz zu Schweigen.

Dieses Jahr wurde die Fläche auf der der Pool steht weiter begradigt, bislang hatten wir da wieder aller Bemühungen etwas Schieflage, was mir trotz Sonnenschirm, Eincremen und Pausen einen halben Sonnenstich eingebracht hat. Jetzt kam noch der Punkt mit der Pumpenlaufzeit. Die vergangenen zwei-drei Jahre lief diese meist zwei Stunden täglich. Ich wollte das nun mal etwas genauer Wissen und habe kurz im Netz nachgeschmöckert.

Zum Thema Berechnen der Laufzeit gibt es solche Seite wie z.B.

Tippscout.de  – So errechnen Sie, wie lange Ihre Poolpumpe laufen muss

Man macht ein paar Angaben zum Pool und der Pumpe und bekommt einen Wert ausgespuckt:

Auf dem Typenschild unserer Vida XL (Type 90291) Pumpe war die Fördermenge allerdings in L/min angegeben, weswegen zuvor noch eine kurze Umrechnung in m³/h erfolgen musste:

Ganz einfach geht das unter

einheiten-umrechnen.de – Volumenstrom von L/min zu m³/h umrechnen

Wie man anhand des Ergebnisses sieht waren wir mit unseren zwei Stunden auf der sicheren Seite, berechnet sind 1,4 Stunden (1 Std. 24 Min.). Die Laufzeit kann man also etwas reduzieren was Strom spart und die Pumpe schont.

In unserem Fall steuert eine AVM FRITZ!BOX 7490 zusammen mit einem AVM FRITZ!DECT 210 die Filterpumpe, so muss niemand daran denken, diese ein- bzw. auszuschalten. Manuelles Übersteuern, d.h. Ein-/Ausschalten, geht jederzeit. Also wenn mal mehr Leute im Wasser sind bzw. waren oder zwecks zusätzlicher Bespaßung der Filter laufen soll, geht das.

Und noch ein kleiner Tipp zum Abschluss: Wen die Pumpengeräusche stören, der kann die Sandfilteranlage Schallschutz-mässig einschalen, das schont nicht nur die eigenen sondern auch die Nerven der Nachbarn. Ich habe ein entsprechendes Gehäuse vor Jahren gebaut und seitdem immer im Einsatz gehabt. Für die saison- und ggf. service-bedingte Montage wurden Flügelschrauben verwendet und der Deckel, genau genommen dessen Scharniere, ist nur gesteckt. So lässt sich das Ganze bequem De-/Montieren und ins Winterquartier bringen.


Hyper-V: Physische Festplatte an virtuellen Computer weiterreichen (Passthrough Disk)

$
0
0

Einzelne physische Festplatten bzw. SSDs, RAIDs und LUNs können unter Hyper-V direkt an virtuelle Computer weitergereicht werden.

Dabei nicht vergessen bzw. übersehen darf man die Nachteile bei der Anwendung von Passthrough-Disks:

  • Snapshots und VSS seitens des Hosts auf den virtuellen Computer angewendet funktioniert nicht bzw. wird nicht unterstützt.
  • Hyper-V Replica (Replikat), Live Migration und Shared Nothing Live Migration wird nicht unterstützt.

Da das physische Laufwerk an den Host gebunden ist, ist kein Cluster-Betrieb des virtuellen Computers möglich bzw. sinnvoll wie man im letzten Punkt herauslesen kann. Dennoch macht diese Funktion, wenn auch in Grenzen Sinn. Bei großen Laufwerken wie z.B. 4 TB und mehr wird man wohl kaum eine VHD(X) in dieser Größenordnung erstellen. Hat man ein entsprechendes Storage zur Verfügung würde man eher per iSCSI direkt im virtuellen Computer solch große Speicherbereiche anbinden. Hat man ein solches Storage nicht zur Hand und handelt es sich nur um einen stand-alone Hyper-V sind Passthrough-Disks durchaus eine Option.

Die Heransgehensweise zur Nutzung ist erfreulich einfach:

  • Das durchzureichende Laufwerk muss mit dem Host verbunden sein.
  • Dieses in der Datenträgerverwaltung Offline nehmen:
  • Die Einstellungen des virtuellen Computers bearbeiten und eine neue Festplatte hinzufügen, bei „Physische Festplatte“ die zuvor offline genommene Festplatte auswählen:
  • Im virtuellen Computer in der Datenträgerverwaltung die Festplatte auf Online setzen.

Das Ganze funktionert sogar mit bereits genutzten Festplatten, ein voriges (oder späteres) Partitionieren und Formatieren ist nicht notwendig. Vorhandene Daten bleiben erhalten.

Quelle:

Windows Pro –
Passthrough-Disk in Hyper-V: LUN oder HDD direkt mit VMs verbinden

Hyper-V: Debian 10 Buster installieren (Minimal-Anforderungen)

$
0
0

Bei der Migration von virtuellen Computern, die zuvor auf einer Test-Maschine unter VirtualBox und mit Debian 9 Stretch liefen zu Windows Server 2019 mit Hyper-V Rolle und Debian 10 Buster fielen ein paar Dinge auf.

Eigentlich wurde angenommen, man könnte ähnlich kompakte virtuelle Computer unter Hyper-V betreiben, dem ist allerdings nicht so. Genügte unter VirtualBox und Debian 9 Stretch als Minimal-Anforderung noch 256 MB Arbeitsspeicher und eine 8 GB große virtuelle Festplatte sehen die Anforderungen mit Debian 10 Buster und unter Hyper-V etwas anders aus.

Nach mehreren Versuchen konnte die Installation als virtueller Computer der Generation 2 mit folgenden Einstellungen erfolgreich durchgeführt werden:

  • „Sicheren Start aktivieren“ (aka Secure Boot) deaktiviert
  • Min. 1 GB Arbeitsspeicher
  • Min. 10 GB virtuelle Festplatte

Zudem hat sich als praktikabler erwiesen nicht die grafische, sondern die klassische text-basierte Installation auszuführen.

Ist das Setup soweit abgeschlossen, sollten noch die Gast-Erweiterungen installiert werden. Dies geht als root einfach mit

apt install hyperv-daemons

Die Auflösung der virtuellen Anzeige kann nach wie vor gemäss dieses Beitrags geändert werden:

Debian 9 Stretch: Auflösung der Konsolensitzung bei Hyper-V ändern

Quelle:

Microsoft – Docs – Supported Debian virtual machines on Hyper-V

Debian 10 Buster: Reverse Proxy und Certbot migrieren

$
0
0

Wie man einen Reverse Proxy samt Let’s Encrypt-Zertifikaten einrichtet wurde im Beitrag Debian 9 Stretch: Apache als Reverse Proxy mit Let’s Encrypt einsetzen beschrieben. Möchte man die Konfiguration nun einen neuen Server übertragen geht das recht einfach.

Im Rahmen einer Migration von Debian 9 Stretch zu Debian 10 Buster sowie dem gleichzeitigem Wechsel der zugrundeliegenden Infrastruktur sollten die relevanten Daten ebenfalls übernommen werden. Wie so oft in der Linux-Welt geht dies meist per Kopie der jeweiligen Dateien.

Mindestens Mitnehmen muss man folgendes:

  • /etc/apache2/
    Die entsprechenden Dateien unter „sites-available“.
    Ggf. sogar noch mehr, je nachdem was man am Apache alles verändert hat.
  • /etc/letsencrypt/
    In diesem Ordner gilt es zu beachten, das unter
    /etc/letsencrypt/live
    symlinks zu den aktuellen Dateien unter
    /etc/letsencrypt/archive
    vorhanden sind!

Sobald man die Konfigurationsdateien auf den neuen Server kopiert hat, kann man die Pakete wie gewohnt installieren und beim Apache Webserver die Seiten reaktivieren:

apt install apache2

a2enmod rewrite
a2enmod proxy
a2enmod proxy_http

a2ensite <Dateiname>.conf

systemctl restart apache2

Man könnte auch den gesammten „apache2“-Konfigurationsordner übernehmen, allerdings ist das mitunter wegen evtl. Altlasten oder geänderter Standards nicht unbedingt wünschenswert.

Im nächsten Schritt wird Certbot eingerichtet:

apt install python-certbot-apache -t stretch-backports

certbot –-apache

Nicht vergessen darf man bei geänderter IP-Adresse sowohl die DNS-Einträge sowie Firewall- und Port-Weiterleitungsregeln anzupassen!

Abschließend kann man die automatische Verlängerung der Let’s Encrypt-Zertifikate testen:

certbot renew --dry-run

Quelle:

Ivan Derevianko – 5 Simple Steps to Migrate Let’s Encrypt Certificates (certbot) to a New Server

ASUS ASMB8-iKVM meldet „cooling_fan_fault = true“

$
0
0

Per Server-Eye (Monitoring) wurde uns von einem Kundenserver gemeldet, das es einen Lüfterausfall gäbe. Bei der Überprüfung mittels BMC fiel allerdings kein Fehler auf. Alle Lüfter waren aktiv und innerhalb ihrer Toleranzen, im Log des BMC war zudem nichts vermerkt.

Ein Neustart des Server-Eye Sensors half nichts. Zur Sicherheit wurde direkt auf dem Server mit dem ipmiutil nochmals eine Abfrage durchgeführt:

C:\Program Files (x86)\Server-Eye\service\970\ipmi>ipmiutil health
ipmiutil health ver 3.12
BMC manufacturer = 000a3f (ASUS), product = 0e73
BMC version = 2.01, IPMI v2.0
BIOS Version = 3103
IPMI driver type = 10 (ms)
Power State = 00 (S0: working)
Selftest status = 0055 (OK)
Chassis Status = 01 01 48 00 (on, see below)
chassis_power = on
pwr_restore_policy = stay_off
last_power_event = ACfailed
chassis_intrusion = inactive
front_panel_lockout = inactive
drive_fault = false
cooling_fan_fault = true
Power On Hours = 23086 hours (961 days)
BMC LAN Channels = 1 8
Chan 1 AuthTypes = MD2 MD5 Straight_Passwd OEM
ipmiutil health, completed successfully

Wie man sieht, exakt der gemeldete Fehler. Nach einem Neustart des BMC („Maintainance – Reset BMC“) sowie ein paar Minuten Geduld zeigte eine erneute Abfrage keinen Fehler mehr:

C:\Program Files (x86)\Server-Eye\service\970\ipmi>ipmiutil health
ipmiutil health ver 3.12
BMC manufacturer = 000a3f (ASUS), product = 0e73
BMC version = 2.01, IPMI v2.0
BIOS Version = 3103
IPMI driver type = 10 (ms)
Power State = 00 (S0: working)
Selftest status = 0055 (OK)
Chassis Status = 01 01 40 00 (on, see below)
chassis_power = on
pwr_restore_policy = stay_off
last_power_event = ACfailed
chassis_intrusion = inactive
front_panel_lockout = inactive
drive_fault = false
cooling_fan_fault = false
Power On Hours = 23086 hours (961 days)
BMC LAN Channels = 1 8
Chan 1 AuthTypes = MD2 MD5 Straight_Passwd OEM
ipmiutil health, completed successfully

Der Server-Eye Sensor meldete dann etwas später, das alles wieder in Ordnung sei. Was allerdings auch vorkommt ist, das seitens Server-Eye im Rahmen von Sensor-Updates Fehler unterlaufen und dies zu Fehlalarmen führt.

Mach‘ mal schnell weitere SATA-Ports dazu

$
0
0

Im Rahmen eines internen Projekts schraube ich gerade an einem unserer Supermicro-Server rum. Das Mainboard hat bereits sechs SATA-Ports onboard, also nicht gerade wenig, aber das Gehäuse hat acht Wechselrahmen.

Klar möchte man die verbliebenen zwei Schächte ebenfalls nutzen können. Weil kein RAID-Controller zum Einsatz kommen soll wurde kurzerhand zu einer Delock 89270 gegriffen, diese PCI-Express-Erweiterungskarte bietet zwei interne SATA-Ports an.

Etwas skeptisch war ich, ob man diese unter Windows Server 2019 zum Laufen bekommt, da es sich hierbei nicht um Server-Hardware handelt und seitens des Herstellers keine offizielle Server-Unterstützung gegeben ist.

Kurz und knapp: Es läuft und das sogar mit keinen wirklich nennenswertem Aufwand.

  • Karte einbauen.
  • Im Geräte-Manager auf den Ordner „SATA6G_M9128“ der CD verweisen und der Treiber wird installiert.
  • Wer mag kann noch die grafische Verwaltungsoberfläche aus dem Ordner „GUI\Windows“ installieren. Diese ist Browser-basiert und verschafft einen schnellen Überblick.

Die RAID-Funktion habe ich nicht getestet, das dürfte bei dieser Preisklasse sowieso eher ein Fake-/Software-RAID sein. Gut finde ich neben dem Tray-Icon, das man eine E-Mail-Benachrichtigung einstellen kann.

Nebenbei bemerkt: Im SuperDoctor von Supermicro wird die Karte bzw. die dort angeschlossenen Laufwerke nicht erkannt. Monitoring ist also über das Marvell Story Utility, CLI, S.M.A.R.T. oder via Tray und E-Mail möglich.

Vor allem wenn man die Ausgabe der MarvellCLI auswertet gibt es Möglichkeiten zur Integration in Monitoring-Systeme.

Linux: Wann wird cron.hourly, cron.daily, cron.weekly und cron.monthly ausgeführt?

$
0
0

Kann man bei den cronjobs genau angeben, wann diese Laufen sollen, gibt es noch die stündlichen, täglichen, wöchentlichen und monatlichen Aufgaben. Aber wann genau werden diese ausgeführt?

Die Jobs an sich werden in die Ordner

/etc/cron.hourly
/etc/cron.daily
/etc/cron.weekly
/etc/cron.monthly

eingetragen, ihr jeweiligen exakter Ausführungszeitpunkt wird über die Datei

/etc/crontab

gesteuert. Hier mal ein Beispiel von einem Debian 10 Buster:

# /etc/crontab: system-wide crontab
# Unlike any other crontab you don't have to run the `crontab'
# command to install the new version when you edit this file
# and files in /etc/cron.d. These files also have username fields,
# that none of the other crontabs do.

SHELL=/bin/sh
PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin

# Example of job definition:
# .---------------- minute (0 - 59)
# | .------------- hour (0 - 23)
# | | .---------- day of month (1 - 31)
# | | | .------- month (1 - 12) OR jan,feb,mar,apr ...
# | | | | .---- day of week (0 - 6) (Sunday=0 or 7) OR sun,mon,tue,wed,thu,fri,sat
# | | | | |
# * * * * * user-name command to be executed
 17 * * * * root cd / && run-parts --report /etc/cron.hourly
 25 6 * * * root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.daily )
 47 6 * * 7 root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.weekly )
 52 6 1 * * root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.monthly )
#

Stündlich immer 17 Minuten nach der vollen Stunden, z.B. 10:17 Uhr.
Täglich immer um 06:25 Uhr.
Wöchentlich immer Sonntags um 06:47 Uhr
Monatlich immer 1. um 06:52 Uhr.

Quelle:

serverfault.com – When does `cron.daily` run?

NextCloudPi (VM) migrieren

$
0
0

Im Rahmen einer Migration sollte eine NextCloudPi-Instanz die als virtuelle Maschine unter VirtualBox lief zu einem Hyper-V Server migriert sowie von Debian 9 Stretch auf Debian 10 Buster umgestellt werden.

Entgegen der Vermutung aufgrund des Namens das sich NextCloudPi nur auf einem Raspberry Pi oder anderen Einplatinencomputern betreiben lässt, sei erwähnt das dieses ebenfalls wunderbar als virtuelle Maschine genutzt werden kann.

Eine Migration ist immer eine gute Gelegenheit um mal aufzuräumen. So wurde im Vorfeld via ssh der belegte Speicherplatz mittels

df -h

ermittelt, was für erstes Stirnruntzeln sorgte, war doch mehr belegt als erwartet. Im Detail wurde dann mittels

du -shc /var/www/nextcloud/*

geschaut, dies dauerte ein Weilchen und schnell war klar das im „data“-Ordner definitiv zu viel drin ist. So fanden sich alte Backups sowie ein in der Vergangenheit aus versehen kopierter Ordner. Ferner hatten die Papierkörbe eine gewisse Größe. Nachdem alles bereinigt war ging es an die eigentliche Migration.

In diesem Fall sollten die NCP-Einstellungen nicht direkt übernommen werden, da in der Vergangenheit das eine oder andere verbastelt wurde. Die Datensicherung sowie -wiederherstellung wurde über das NCP-Panel durchgeführt.

  • Auf dem Zielsystem ein Debian 10 Buster und mittels curl NextCloudPi installieren sowie weitere Vorbereitungen durchführen:
    apt install curl
    curl -sSL https://raw.githubusercontent.com/nextcloud/nextcloudpi/master/install.sh | bash
    apt install php-imagick
    systemctl reboot

    Ggf. eine feste IP-Adresse („nano /etc/network/interfaces“) konfigurieren.

  • Auf dem Quellsystem über das NCP-Panel („BACKUPS – Backup erstellen“) oder via console bzw. ssh („ncp-config“) zunächst eine Datensicherung erstellen und ggf. die NCP-Einstellungen exportieren.
    Hinweis: Während der Datensicherung ist das Panel zeitweise nicht erreichbar.
  • Das Quellsystem mindestens in den Maintenance Mode versetzen oder vom Netzwerk trennen bzw. herunterfahren.
  • Die Datensicherung auf das Zielsystem kopieren und über das Panel wiederherstellen („BACKUPS – Wiederherstellung“).
  • Die gewünschte NCP-Konfiguration über das Panel neu einstellen.
  • Sofern sich IP-Adresse, FQDN, etc. geändert haben, muss die Konfiguration entsprechend angepasst werden. Was nicht über das Panel durchgeführt werden kann oder soll, muss direkt z.B. in der Nextcloud-Konfigurationsdatei („/var/www/nextcloud/data/config/config.php“) geändert werden.
  • Weitere potentielle Nacharbeit ist notwendig wenn man z.B. E-Mail („/etc/postfix“) konfiguriert hat.
  • Der Cronjob für Nextcloud („crontab -u www-data -e“) sollte angepasst werden. Per Vorgabe wird dieser alle 15 Minuten ausgeführt, das führt allerdings zu einem Hinweis in Nextcloud, besser diesen auf 5 Minuten ändern.
  • Nach der Wiederherstellung findet sich ein Ordner „/var/www/nextcloud/data-<Datum>“, dieser kann Verschoben oder gelöscht werden.

Quellen:

NextCloudPi Documentation – Wiki – Home and Overview

NextCloudPi Documentation – Curl installer

NextCloud Pi Documentation – How to backup and restore a NextCloudPi instance using ncp-config

Nextcloud – Docs – Background jobs


Windows Server 2012 R2: Von MBR/BIOS auf GPT/UEFI migrieren

$
0
0

Im Zuge einer Umstellung sollte ein direkt auf dem Blech laufender Windows Server 2012 R2 zu einer virtuellen Maschine unter Hyper-V mit der Generation 2 werden. Dabei ging man einen recht kurzen und knackigen Weg.

  • Auf dem Hyper-V-Host kurzerhand eine neue virtuellen Maschine erstellen und mit Windows Server 2012 R2 installieren. Es genügt die reine Basis-Installation, da es primär nur um die Boot-Umgebung geht.
  • Anschließend einfach die C-Partition des Quellsystems auf die C-Partition des neuen Zielsystems wiederherstellen/kopieren/überschreiben, beispielsweise mit der verwendeten Datensicherungssoftware, Drive Snapshot, MiniTool Partition Wizard, etc. was man halt so hat.
    Hinweis: Möchte man die C-Partition kopieren, muss die C-Partition auf dem Zielsystem vorher gelöscht werden.
  • Die virtuelle Maschine starten.
  • Windows Server 2012 R2 erkennt neue Geräte und richtet diese ein.
    Bemerkung: Es kann vorkommen, das ganz zu Beginn kurz die automatische Reparatur zu sehen ist.
  • Nach einem weiteren (automatischen) Neustart kann man sich anmelden.
  • Im Rahmen der Nacharbeit die IP-Konfiguration wiederherstellen und die installierten Anwendungen samt Windows reaktivieren, alte bzw. nun nicht mehr benötigte Treiber deinstallieren und eine Runde Windows Update durchführen.

Nextcloud Papierkorb

$
0
0

Löscht man in Nextcloud Dateien oder Ordner, so werden diese (basierend auf der Voreinstellung) nicht sofort entfernt, sondern erstmal in den Papierkorb verschoben. Unter „Dateien – Gelöschte Dateien“ kann man diese einsehen oder ggf. Daten wiederherstellen.

Die Vorgabe besagt, das gelöschte Dateien nach 30 Tagen entfernt werden wenn Platz benötigt wird (also wenn das Quota erreicht wird). Ist kein Quota konfiguriert oder dessen Limit in weiter Ferne kann es vorkommen, das gelöschte Dateien deutlich länger als 30 Tage vorgehalten werden. Mitunter ist das allerdings nicht erwünscht und so lässt sich die Voreinstellung ändern.

Entscheidend ist der Wert von

 trashbin_retention_obligation

in der „config.php“. Bemerkung: Ist dieses nicht vorhanden, kann es nachgetragen werden.
Hilfreich ist die Erklärung in der Datei „config.sample.php“:

/**
* Deleted Items (trash bin)
*
* These parameters control the Deleted files app.
*/

/**
* If the trash bin app is enabled (default), this setting defines the policy
* for when files and folders in the trash bin will be permanently deleted.
* The app allows for two settings, a minimum time for trash bin retention,
* and a maximum time for trash bin retention.
* Minimum time is the number of days a file will be kept, after which it
* may be deleted. Maximum time is the number of days at which it is guaranteed
* to be deleted.
* Both minimum and maximum times can be set together to explicitly define
* file and folder deletion. For migration purposes, this setting is installed
* initially set to "auto", which is equivalent to the default setting in
* Nextcloud.
*
* Available values:
*
* * ``auto``
* default setting. keeps files and folders in the trash bin for 30 days
* and automatically deletes anytime after that if space is needed (note:
* files may not be deleted if space is not needed).
* * ``D, auto``
* keeps files and folders in the trash bin for D+ days, delete anytime if
* space needed (note: files may not be deleted if space is not needed)
* * ``auto, D``
* delete all files in the trash bin that are older than D days
* automatically, delete other files anytime if space needed
* * ``D1, D2``
* keep files and folders in the trash bin for at least D1 days and
* delete when exceeds D2 days (note: files will not be deleted automatically if space is needed)
* * ``disabled``
* trash bin auto clean disabled, files and folders will be kept forever
*
* Defaults to ``auto``
*/
'trashbin_retention_obligation' => 'auto',

Man könnte also beispielsweise dies so konfigurieren:

'trashbin_retention_obligation' => '7, 7',

Dann werden in jedem Fall nach sieben Tagen die gelöschten Dateien entfernt.

Quellen:

Nextcloud – Docs – Files & synchronisation – Managing deleted files

Nextcloud – Help – Config.php Automatisches Löschen

Nextcloud – Help – Trashbin_retention_obligation

3CX, wilhelm.tel und Watchguard

$
0
0

Bei einem Neukunden (Grüße nach Hamburg) gab es Schwierigkeiten mit der 3CX seit dem Wechsel des Telefonieanbieters zu Wilhelm.tel. Im Laufe des Support-Calls kamen weitere Punkte hinzu, letztlich war alles leicht zu lösen.

Seitens des SIP-Trunks kam es immer wieder zu folgender Fehlermeldung:

Call or Registration to wilhelm.tel has failed. sip:10001@wtsipfon.wtnet.de replied: 500 Registering glare condition; from IP:213.209.115.124:5060

Dies geschah meist nach Änderungen am Trunk, bei Anruf(versuchen), aber auch mal so. Laut Forum kommt diese Meldung vorallem seit 3CX V16 vor, abhilfe kann schaffen im SIP-Trunk die automatische Erkennung der Ports zu aktivieren.

Mitunter macht es zudem Sinn, die Einstellungen des SIP-Trunks, trotz der Verwendung der Vorlage zu überprüfen:

3CX – Docs – wilhelm.tel

wilhelm.tel – SIP-Trunk (wtSIPfon) (PDF)

Beim Ausführen des Firewall Checkers wurde zudem für mehrere Ports Full Cone NAT und für die freigebene RTP-Port-Range ein zu kleiner Bereich erkannt. Ersteres lag daran, das der Firewall-Administrator z.B. für Port 5060 (SIP) schlicht TCP statt UDP freigegeben hatte, letzteres war noch die Größe der alten Port-Range vor 3CX V16.

3CX – Docs – Adminhandbuch – Konfigurieren von Router und Firewall

Hinzu kommt das je nach Firewall-Hersteller und -Modell gezielte Konfigurationen, gerade bei NAT, zu beachten sind. In diesem Fall kommt eine Firewall von Watchguard zum Einsatz:

3CX – Docs – Configuring a WatchGuard XTM with 3CX

Zu guterletzt klappte die Registrierung eines snom D785-Telefons nicht, dieses wird im Homeoffice verwendet und nicht mittels Autoprovisionierung konfiguriert. Es geht dabei lediglich darum eine weitere Identität, also Rufnummer, zu verwenden. In der Konfiguration fehlte die Angabe der Auth.-ID, denn bei 3CX werden neben der Nebenstellen-Nummer und des Passworts auch die Auth.-ID verwendet. Hinzu kam, das dieses Telefon den DNS-Eintrag zur 3CX nicht auflösen konnte, bei Eingabe der IP-Adresse  als Registrar klappte die Anmeldung.

Wie dieses Fall-Beispiel zeigt, war es letztlich nichts dramatisches, schlicht nur eine Verkettung von mehreren Einzelbaustellen, die simple zu lösen waren.

Windows Server 2019: Defender automatisch aktualisieren

$
0
0

Neue Virendefinitionen erhält der Defender per Windows Update. Was evtl. auf einem Client noch (mehrmals) täglich so in Ordnung geht, sieht evtl. bei einem Server anders aus.

Denn ab Werk installiert der Windows Server 2019 keine Update automatisch, in Folge steht auch die Aktualisierung des Virenschutzes aus. Da das nicht unbedingt förderlich für die Sicherheit ist sollte soweit klar sein. Hat man einen WSUS im Einsatz, kann man die automatische Verteilung der Signaturupdates automatisieren, ist das nicht der Fall kann man sich mit einer Aufgabe behelfen.

Grundsätzlich kann der Defender mittels CLI gesteuert werden, dies schließt die Aktualisierung mit ein. Mit einer Aufgabe oder einem Skript kann regelmässig folgender Befehl ausgeführt werden:

"C:\Program Files\Windows Defender\MpCmdRun.exe" -signatureUpdate

Als Skript mit einer wenig Protokollierung kann das Ganze so aussehen:

@echo off

echo %date% - %time% >> AutoUpdate.log

"C:\Program Files\Windows Defender\MpCmdRun.exe" -signatureUpdate >> AutoUpdate.log

echo %errorlevel% >> AutoUpdate.log

So spontan konnte ich keine Angaben dazu finden in welcher Häufigkeit Microsoft die Signaturen aktualisiert und welche Rückgabewerte es gibt.

Quellen:

Deskmodder.de – Defender täglich updaten ohne Windows Update

Microsoft – Docs – Konfigurieren und Verwalten von Microsoft Defender Antivirus mit dem mpcmdrun.exe-Befehlszeilentool

Securepoint UTM: Alarm über verdächtige blockierte Verbindung

$
0
0

Über Nacht meldete die Securepoint UTM eines Kunden vier möglicherweise gefährliche Verbindungen und unterband diese. Wir gingen der Sache ein wenig nach.

Sozusagen der Kopf der Alert-Mail sieht so aus:

General
 
Firewall name: firewall.domain.local
Status: ALERT
Date: 15.07.2020 - 02:01:50
Source: spsysprocd
Message:
FORWARD - Potentially dangerous connection was blocked:
incoming interface eth1, outbound interface wan0,
source address 192.168.0.7, destination address 142.11.210.231,
protocol UDP, source port 58305, destination port 123

Kurzum: Ein Gerät aus dem LAN hat versucht eine unerwünschte Verbindung aufzubauen und wurde daran gehindert.

Hinter der IP-Adresse „192.168.0.7“ steckt in diesem Fall ein Cisco SPA112 (Analog-VoIP-ATA). Das alleine erschien uns schon merkwürdig. Der Port 123/udp wiederum ist altbekannt, da es sich dabei um NTP, also den Zeitsync, handelt.

Verdächtig ist das Ganze dennoch, also wurde die Konfiguration des ATAs überprüft. Die Firmware ist aktuell und auch sonst viel nichts negatives auf.

Als NTP-Quelle ist „0.ciscosb.pool.ntp.org“ im ATA hinterlegt, prüft man die Namensauflösung ergibt das folgendes:

C:\Users\administrator>nslookup 0.ciscosb.pool.ntp.org
Server: localhost
Address: 127.0.0.1

Nicht autorisierende Antwort:
Name: 0.ciscosb.pool.ntp.org
Addresses: 217.79.179.106
159.69.150.81
129.69.1.170
136.243.202.118

Die genannte externe IP ist also nicht (mehr) vorhanden. Die IP-Adresse „142.11.210.231“ ist bereits 2019 als Malware-URL in Erscheinung getreten.

Was genau nun geschehen ist konnte so spontan nicht ermittelt werden. Vermutlich, das ist allerdings reine Spekulation, war die Namensauflösung oder schlimmstenfalls der NTP-Pool kompromitiert, es kann allerdings auch nur dieser eine Server gewesen sein.

MDaemon Email Server: Nach Update landen alle Nachrichten in der Störungs-Warteschlange

$
0
0

Nach der Aktualisierung eines MDaemon Email Servers landeten alle eingehenden Nachrichten in der Störungswarteschlange. Wie es dazu kam und die Lösung dazu wird nachfolgend beschrieben.

Den MDaemon Email Server zu aktualisieren ist keine große Sache. Im Regelfall einfach den Dialogen folgen und ggf. mal die Dienste durchstarten wenn’s automatisch nicht klappt. Kleinere Schwierigkeiten wurden hier im Blog das eine oder andere Mal beschrieben, alles nichts Weltbewegendes. Das gilt letztlich auch für diesen Fall.

  • Das Update lief ohne Schwierigkeiten durch und der MDaemon Email Server startete.
  • Nach kurzer Zeit fiel auf das alle eingehenden Nachrichten in der Störungs-Warteschlange landeten. Dies ist immer ein Hinweis darauf, das etwas bei der Prüfung durch AntiVirus, AntiSpam oder den Inhaltsfilter schief läuft.
  • Ein Neustart der Dienste änderte nichts.
  • Ein Blick unter „Sicherheit – AntiSpam“ offenbarte dann ein Problem mit dem Spamfilter:
    Wed 2020-07-15 20:33:11.379: * MDSpamD Error: could not process c:\mdaemon\queues\local\md5001000173476.msg Could not connect to host.
  • Ein weiterer Blick in den Task-Manager zeigte, das der SpamFilter nicht lief, da keine „MDSpamD.exe“ gefunden wurde.
  • Die Konfiguration unter „Sicherheit – Spam-Filter“ wurde überprüt, hier war alles notwendige aktiviert und in Ordnung. Nach einem Klick auf „Spam-Filter neu starten“ passierte offenbar nichts.
  • Ein Blick in das Ereignisprotokoll von Windows zeigte dann auf, das der Spam-Filter-Prozess abstürzt:
    Protokollname: Application
    Quelle: Application Error
    Datum: 15.07.2020 20:43:07
    Ereignis-ID: 1000
    Aufgabenkategorie:(100)
    Ebene: Fehler
    Schlüsselwörter:Klassisch
    Benutzer: Nicht zutreffend
    Computer: SRV01
    Beschreibung:
    Name der fehlerhaften Anwendung: MDSpamD.exe, Version: 3.42.0.0, Zeitstempel: 0x544ec2d0
    Name des fehlerhaften Moduls: perl520.dll, Version: 0.0.0.0, Zeitstempel: 0x550b547c
    Ausnahmecode: 0xc0000005
    Fehleroffset: 0x00001427
    ID des fehlerhaften Prozesses: 0x1ce4
    Startzeit der fehlerhaften Anwendung: 0x01d65ad7c7caf7ed
    Pfad der fehlerhaften Anwendung: C:\MDaemon\SpamAssassin\MDSpamD.exe
    Pfad des fehlerhaften Moduls: C:\Windows\TEMP\pdk-SYSTEM\9edb19631b40514aed6b75eaf89e7593\perl520.dll
    Berichtskennung: 05b872c3-c6cb-11ea-8136-0cc47a82b9ec
    Vollständiger Name des fehlerhaften Pakets: 
    Anwendungs-ID, die relativ zum fehlerhaften Paket ist:
  • Da der zugrundeliegende Windows Server ohnehin wegen der Windows Update neu gestartet werden musste, folgte getreu dem Motto „Ein Boot tut gut“ ein Neustart und danach war alles wieder im Lot. Bislang haben wir dieses Fehlerbild nur einmal beobachtet, hoffen wir, das es dabei bleibt.

Windows: Primärer DNS-Suffix ändern

$
0
0

Unter Windows kann man neben verbindungs-spezifischen DNS-Suffixe das primäre DNS-Suffix eintragen bzw. ändern. Dadurch wird automatisch bei DNS-Abfragen an den Hostname das Suffix angehängt.

Das ist eher ein Thema für Standalone- oder Arbeitsgruppen-Computer, im Domänen-Netzwerk wir das primäre DNS-Suffix automatisch gesetzt und verwendet. Um in einer der genannten für gewöhnlich eher kleineren Umgebungen weniger Umstände mit der Namensauflösung zu haben, kann es also durchaus sinnvoll sein das primäre DNS-Suffix der DNS-Domäne entsprechend einzutragen:

  • Zu „Systemsteuerung – System“ wechseln,
  • Im Abschnitt „Einstellungen für Computername, Domäne und Arbeitsgruppe“ auf „Einstellungen ändern“ klicken.
  • Auf der Registerkarte „Computername“ auf „Ändern…“ klicken.
  • Auf „Weitere…“ klicken.
  • Im Feld „Primäres DNS-Suffix des Computers“ die DNS-Domäne eintragen.

Quelle:

EDV Lehrgang – Primäres DNS-Suffix


NextCloudPi: Automatische Backups

$
0
0

NextCloudPi ist bekannt für seine einfache Handhabung, kann durch das Panel oder auf der Konsole bzw. via ssh mittels ncp-config vieles sehr einfach geregelt werden. So auch die automatische Datensicherung.

Der Konfigurationsdialog ist dabei sehr übersichtlich:

Kurzum: Man aktiviert das Ganze, legt das Ziel fest, stellt ein was alles zu sichern ist, sowie wie oft und wie lange aufbewahrt wird.

Hat man E-Mail konfiguriert erhält man zudem Nachrichten wie diese:

Maintenance mode enabled
Nextcloud is in maintenance mode - no apps have been loaded

check free space...
Maintenance mode already enabled
backup database...
backup files...
backup /backup//nextcloud-bkp_20200715_1594774801.tar.gz generated Maintenance mode disabled Maintenance mode already disabled

Wann die Datensicherung ausgeführt wird, kann man im Cronjob unter

/etc/cron.d/ncp-backup-auto

nachlesen:

0 3 */7 * * root /usr/local/bin/ncp-backup-auto

In diesem Fall um 03:00 Uhr alle sieben Tage, kurz ausgedrückt also einmal die Woche.

Für etwas Verwirrung sorgt die Vorgabe das „nur“ alle sieben Tage eine Datensicherung stattfindet, man kann den Wert ändern. Soll die Datensicherung täglich stattfinden, einfach eine „1“ (* funktioniert im Panel nicht) eintragen oder den Cronjob nach den eigenen Wünschen direkt bearbeiten.

Quellen:

Wikipedia – Cron

crontab guru – Cron Examples

Brother MFC-9332CDW: Wartungszähler (Fixiereinheit) zurücksetzen

$
0
0

Büromaschinen sind ja eigentlich nicht so mein Ding. Klar, kleinere (Arbeitsgruppen-)Geräte werden ab und an verkauft, das war’s dann allerdings auch schon.

Toner, Kartuschen, Tinte & Wartungskits tauschen ist dabei kein Thema, Service im Sinne von Reparaturen ist dann etwas anderes. Wie das Pech es so wollte ist vor ein paar Tagen unser eigentliches Arbeitsgerät kaputt gegangen und befindet sich derzeit in der Werkstatt bei unserem neuen Büromaschinen-Partner. In der Zwischenzeit muss allerdings immer mal wieder etwas gedruckt und vor allem gescannt werden.

Sozusagen als Notnagel muss dafür ein Brother MFC-9332CDW herhalten, den uns ein Kunde überlassen hat, da zum einen die Fixiereinheit (genau genommen die obere Andruckrolle/-walze) defekt und zum anderen der Kunde eher Canon-Fan ist.

Scannen ist damit kein Thema, beim Drucken gab es immer aufgrund des Defekts unschöne Abdrücke im Papier. Nun haben wir günstig eine neue Fixiereinheit erhalten und diese war zudem schnell ausgetauscht. Länger hat dann das Zurücksetzen des Wartungszählers gedauert, denn es gibt verschiedene Stellen und je nach Modell(-Serie) unterscheiden sich die notwendigen Schritte für diesen Vorgang.

Lange Rede, kurze Links:

Timos Blog – Brother MFC-9140CDN Trommel und Transfereinheit zurücksetzen (Kommentar von Alexander Ehne 23. Mai 2017 um 11:56)

und

Fort Wayne Printer, Copier, and Fax Repair – Brother 9130, 9330, 9340 Replace Parts Fuser Unit Reset

Nach erfolgreichem Reset sieht man wieder 100% direkt am Gerät unter „Alle Einstellungen – Geräte-Info – Lebensdauer Teile“ sowie im Web-Interface unter „Allgemein – Wartungsinformationen“. An letztgenannter Stelle bekommt man zusätzlich angezeigt wie oft welche Teile bereits getauscht wurden.

Falls ich mal Zeit und Lust habe schaue ich mal, ob’s die Rolle einzeln gibt, denn die Fixiereinheit war an und für sich noch gar nicht verschließen (Restlebensdauer: 83%).

MDaemon: Flexible Abwesenheit (Autobeantworter)

$
0
0

Wegen Reise, Urlaub oder schlimmstenfalls Krankheit macht es durchaus Sinn eine Abwesenheitsbenachrichtung für E-Mails einzustellen. So erhält ein Absender automatisch die Info, das man nicht im Büro ist, wer ggf. Vertretung macht und wann man wieder da ist.

Im Regelfall handelt es sich dabei um gewisse Zeiträume, so das man von einem bestimmten Anfangs- und Enddatum ausgehen kann. In Verbindung mit dem MDaemon Email Server geht da allerdings noch mehr, wie beispielsweise das die Abwesenheitsbenachrichtigung nur an bestimmten Wochentagen gesendet oder ein Programm bzw. Befehl ausgeführt wird.

Bei einem Kunden kam die Frage auf, ob man für eine Mitarbeiterin die lediglich drei Tage die Woche da ist etwas einstellen könnte, damit Kunden entsprechend informiert sind. Der Trick neben dem richtigen Weg zur tage-weise Konfiguration (dazu gleich mehr) besteht darin das Enddatum in weiter Zukunft (z.B. 2099) zu setzen.

Die Konfigurationsmöglichkeiten unterscheiden sich je nach Weg. Soll heißen: Via MDaemon (Outlook) Connector können beispielsweise keine einzelnen Wochentage festgelegt werden:

Anders sieht es via MDaemon Webmail aus:

Und die meisten Optionen hat der Administrator via Verwaltungsoberfläche:

Tipp: Direkt in der Konfigurationsoberfläche von MDaemon bzw. dem jeweiligen Benutzerkonto Adressen bzw. Domänen hinterlegen, auf die der Autobeantworter nicht reagieren soll. Meist ist innerhalb des Büros oder der Firma ja bekannt, wann wer wie lange nicht da ist und in Folge macht es wenig Sinn das die Kollegen dann sozusagen ständig daran erinnert werden, wenn sie interne Nachrichten schicken.

Im Detail fehlt jetzt nur noch die Möglichkeit z.B. von Mittwochs 15:00 Uhr bis Montags 08:30 Uhr den Autobeantworter zu aktivieren, aber was nicht ist, kann ja noch werden.

Vielen Dank an den Support von EBERTLANG für den Tipp mit der MDaemon Verwaltungsoberfläche.

Nextcloud: Mail zeigt bereits gelöschte Nachrichten noch an

$
0
0

Seit Version 1.3 nutzt die Mail-App von Nextcloud einen Cache, dieser bietet eine bessere Performance und entlastet den Mail-Server sowie die Nextcloud-Instanz ansich, da nicht ständig via IMAP der Postfach-Inhalt abgefragt werden muss.

Allerdings kann es vorkommen, vorallem immer dann wenn von mehreren unterschiedlichen Clients (Mail-App, Rainloop, Smartphone, MailStore Server, usw.) aus auf das Postfach zugegriffen wird, das die Mail-App eine Veränderung nicht unbedingt mitbekommt. So wurden beispielsweise unlängst, teils bereits seit Tagen gelöschte Nachrichten noch immer angezeigt, obwohl diese definitiv nicht mehr vorhanden waren.

Lösbar ist das Ganze in dem man den Cache der Mail-App leert. Dies ist aktuell nur möglich, wenn zuvor der Debug-Mode von Nextcloud aktiviert wurde:

Nextcloud – Docs – Development environment – Enabling debug mode

Kurzum folgendes (gemeint ist ‚debug’…) unter „config/config.php“ eintragen bzw. ändern:

<?php
$CONFIG = array (
'debug' => true,
...

Ggf. den Webserver neuladen/-starten (z.B. „systemctl reload/restart apache2“).

Im Kontextmenü des jeweiligen Posteingangs steht nun der Menüpunkt „Cache löschen“ zur Verfügung:

Nach getaner Arbeit unbedingt den Debug-Mode wieder abschalten (true -> false oder den Eintrag entfernen und den Webserver neuladen/-starten)!

Ein erster Blick auf BackupAssist ER

$
0
0

Mit BackupAssist ER stellt Cortex I.T. eine neue Version des bewährten BackupAssist vor. Die bisherige Lösung erhält den Zusatz „Classic“ und bleibt bestehen.

Was ist neu und anders?

Geblieben ist eine schnelle sowie einfache Installation und Konfiguration. Allem voran besticht BackupAssist ER durch eine klare Oberfläche und vor allem durch die neue eigens entwickelte Backup Engine die im Gegensatz zur Classic-Ausgabe nicht mehr auf Microsoft’s Backup Engine basiert. Dies schafft Vorteile wie Unabhängigkeit, Deduplizierung, Verschlüsselung und Komprimierung. Quasi selbstverständlich ist der CryptoSafeGuard geblieben, der das Backup vor Ransomware schützt.

Es gibt allerdings deutlich mehr Unterschiede: Während bei Classic mehrere unterschiedliche Ziele (z.B. via Erweiterung Tape) sowie Backup-Techniken (Stichworte: File Backup, rsync) möglich sind, gibt es bei ER „lediglich“ das Bare-Metal-Recovery und die Volume-Sicherung. Als Backup-Ziel kann ein lokales Laufwerk oder eine Netzwerkfreigabe dienen und als Offsite- bzw. Cloud-Ziel sind AWS und Azure möglich. Kurzum: Entweder Disk-to Disk oder Disk-to-Disk-to-Cloud. Wobei die Zweite Disk lokal, per USB oder ein Server/NAS sein kann.

Info am Rande: Bei der Auswahl des lokalen Backup-Ziels kann nur das Laufwerk, nicht der (Unter-)Ordner angegeben werden! Der Ordner „BackupAssistBackups“ muss so benannt sein und darf nicht verändert werden!

Konfiguriert wird lokal, zentral kann man den Status über die MBC (Managed Backup Console), also Cloud-basiert, einsehen.

BackupAssist ER gibt es nur im Abo/MSP-Modell, es gibt also keine Kauf- bzw. Laufzeit-Lizenzen. Hinsichtlich des aktuellen Trends und vorallem in Sachen Aktualität (gemeint sind Updates) sowie der Sicherheit (CryptoSafeGuard) macht das Sinn.

Bare-Metal-Recovery Test

Mit dem eigens erstellten Rettungsmedium wurde eine Test-Wiederherstellung durchgeführt. Zu diesem Zweck wurde eine physikalische Maschine gesichert und sollte unter Hyper-V wiederhergestellt werden. Leider startete das Rettungsmedium nicht in einem virtuellem Computer der Generation 2, daher musste auf Generation 1 zurückgegriffen werden.

Es folgte nach erfolgreicher Auswahl der Datensicherung und aller erforderlichen Optionen ein Dämpfer:

Wie sich herausstellte ist BackupAssist ER etwas zickig was den Zugriff auf Netzwerkfreigaben angeht. Folgendes ist zu beachten:

  • Im Freigabenamen darf kein „$“ enthalten sein, denn sonst bekommt man zwar die Sicherungsen zur Auswahl angeboten, aber eine Wiederherstellung ist (wie im Screenshot zusehen) nicht möglich.
  • Es muss zwingend auf den Ordnernamen „BackupAssistBackups“ zugegriffen werden, direkt den Ordner freigeben funktioniert nicht. Offenbar wird gezielt nach dem Namen gesucht.

Hat man diese Stolpersteine aus dem Weg geräumt, klappt es auch mit der Wiederherstellung:

Nebenbei bemerkt: Wegen der Generation 1/2-Geschichte kann man die VHD(X) später an den finalen virtuellen Computer anhängen. BackupAssist ER benötigt zum Starten zwingend eine Internetverbindung.

Was aktuell noch fehlt oder unschön ist

Ein paar Punkte gibt es noch, die mir persönlich aufgefallen sind, wie z.B.

  • Zentrale Verwaltung via MBC, gemeint ist die Konfiguration der Backup-Jobs.
  • Ausschließen von Ordnern aus dem Backup.
  • Pre/Post-Commands bzw. Scripts vor/nach der Ausführung der Datensicherung.
  • Mehr Cloud-Ziele. Laut EBERTLANG soll sich hier noch einiges tun.
  • Bei der Wahl des Ziels kann nur das Laufwerk, nicht der (Unter-)Ordner angegeben werden.

Vorläufiges Fazit

Grundsätzlich hat Cortex I.T. einmal mehr einen guten Job gemacht. Das Produkt ist noch jung (v1.0.2) und es gibt noch Luft nach oben. Leider mussten wir den Test vorzeitig abbrechen, da es auf unserem System zu einem bislang nicht geklärten Memory Leak gekommen ist. Dieses Speicherleck muss allerdings nicht mit BackupAssist zusammenhängen, allerdings war ER die letzte Anwendung die installiert wurde und getreu dem Motto „Die Letzten werden die Ersten sein“ wurde dieses dann zuerst deinstalliert.

Quellen:

BackupAssist ER – Backup as a Service mit BackupAssist ER

BackupAssist ER – Getting Started

Viewing all 2168 articles
Browse latest View live