Quantcast
Channel: Andy – Andy's Blog
Viewing all 2168 articles
Browse latest View live

Mögliche Probleme mit ActiveSync zwischen Kerio Connect 9.2.6 und Apple iOS 11.3

$
0
0

Es scheint, als gäbe es evtl. (mal wieder) Schwierigkeiten beim Abgleich von Apple-Mobilgeräten (iPhone, iPad) mittels ActiveSync. Beim Kunden kommt Kerio Connect zum Einsatz, bislang lief dieser unauffällig.

Leider fehlt es mir an Vergleichswerten, da wir nur diese eine Kerio Connect-Installation haben. Jedenfalls beklagt der Kunde seit zwei, drei Wochen das der gemeinsame Kalender nicht mehr richtig synchronisiert wird. Mal fehlen Termine komplett, mal werden Änderungen (z.B. geänderter Zeitpunkt) nicht abgeglichen.

In Outlook und im WebMail sind diese allerdings zu sehen. Im „Kalender-Postfach“, dieses stellt hier den gemeinsamen Kalender dar, werden alle verbundenen Mobilgeräte im WebMail unter „Einstellungen – Mobilgeräte“ mit dem Status „OK“ angezeigt. In den Protokollen konnte so spontan leider nichts auffälliges festgestellt werden. Wäre sonst ja auch zu einfach gewesen.

Es bleibt der Verdacht, das es mit iOS 11.3 bzw. aktueller 11.3.1 und/oder der Kombi zusammenhängt, da dies die letzte bekannte/bewusste Änderung an der Infrastruktur war. Kerio Connect selbst ist mit Version 9.2.6 Patch 2 auf dem zu diesem Zeitpunkt aktuellem Stand.

Bei einem Test mit einem Android-Gerät von uns vielen keine Schwierigkeiten auf, allerdings war dies nur ein kurzer Test.

Oder liegt es vielleicht dich an Kerio Connect?

Es scheint, als gibt/gab es dennoch Schwierigkeiten mit Android-Geräten in Verbindung mit aktuellerem Kerio Connect-Versionen:

Kerio User Forums – Kerio Connect – Calendar sync issues with Android OS

Ferner scheint in Verbindung mit Outlook irgendetwas „buggy“ zu sein:

Deutschsprachige Kerio User Foren – DE Kerio Connect – Kalendereinträge von Handy werden nicht zu Outlook syncronisier

Der Recherche nach gibt es wohl noch mehr Ungemach mit Kerio Connect 9.2.6:

Kerio User Forums – Kerio Connect – Kerio 9.2.6 patch 1 and iphone

Kerio User Forums – Kerio Connect – DO NOT UPGRADE TO 9.2.6 – TOO MANY BUGS!!! (DO NOT UPGRADE TO 9.2.6 – TOO MANY BUGS!!!)

Wir bzw. dieser Kunde hatten bislang wohl Glück. Gefühlt hat man den Eindruck das es mit Kerio (Connect) seit der Übernahme durch GFI bergab geht. Schade.

So bleibt evtl. nur ein Downgrade des Kerio Connect-Servers oder der Umstieg auf CalDAV, CardDAV und IMAP für die Anbindung der mobilen Geräte. Ob’s dann besser läuft bleibt offen, anders ist es auf jeden Fall.

Update 24.05.2018

Besserung mit ActiveSync ist noch nicht in Sicht. Ein Testlauf mit CalDAV auf unserem iPad war zumindest schonmal relativ vielversprechend. Grundsätzlich gibt es zwei Möglichkeiten bei Kerio Connect Mobilgeräte mittels *DAV und ggf. IMAP anzubinden:

Über Kerio Connect WebMail-Seite provisionieren:

Technikblog – iPhone und Kerio Connect – Einrichten IMAP, CardDAV und CalDAV

Konten manuell anlegen:

inmotion hosting – How to Add CalDAV/CardDAV Accounts in iOS


Windows: IP- oder MAC-Adressen beim DHCP-Server per Befehl oder Script auslesen

$
0
0

Weiss man von einem Netzwerkgerät nur die MAC-Adresse und das dieses per DHCP seine IP-Adresse erhält, kann man über die grafische Oberfläche schauen, ob man die entsprechende Zuordnung findet oder zielgerichteter per Eingabeaufforderung suchen.

Auflisten aller aktuell vergebenen IP-Adressen:

netsh dhcp server scope <Bereich> show clients

Die Ausgabe lässt sich dann z.B. mit „find“ gezielt durchsuchen:

netsh dhcp server scope <Bereich> show clients | find /i "<MAC-Adresse>"

Beispiel:

netsh dhcp server scope 192.168.2.0 show clients | find /i "ab-cd-ef-gh-ij-kl"

Das Ganze funktioniert auch mit einem Teil der MAC-Adresse. Hilfreich ist dies vor allem bei großen Bereichen.

Getestet unter Windows Server 2012 R2 Standard.

Quelle:

OneManArmy – Windows – see DHCP leases on cmd or powershell with netsh

ASUS ASMB7-iKVM: Kein Update auf 2.03 möglich

$
0
0

Es scheint, es sei kein Update der Firmware der ASUS ASMB7 auf die aktuelle Version 2.03, zumindest bei den P9D-I Mainboards (z.B. Wortmann Terra Miniserver G2), möglich. Ganz gleich von welcher ursprünglichen Version man versucht zu aktualisieren, kommt es zu einem Fehler bei der Validierung der neuen Firmware.

So kann man im Moment höchstens auf die Version 2.01 umsteigen. Das Ganze ist dahingehend zusätzlich ärgerlich, da man so weiterhin in Java MD5 reaktivieren muss, damit man die Console verwenden kann:

ASUS ASMB8-iKVM und Java 8 Update 131 oder neuer <- Gilt auch für ASMB7

Diesen Fehler haben wir bei zwei Servern beobachtet.

Windows: MiniRunAs als RunAs-Alternative, der man das Passwort mitgeben kann

$
0
0

In der Eingabeaufforderung bzw. bedingt in Skripten lässt sich RunAs zum Ausführen als anderer Benutzer bzw. zum Erlangen von höheren Rechten verwenden. Leider kann man diesem Befehl das Kennwort nicht mitgeben.

Zwar ist das letztgenannte für die Sicherheit sinnvoll, aber bei bestimmten automatisierten Abläufen problematisch. Als genial einfache Alternative kann MiniRunAs von Christian d’Heureuse verwendet werden:

source-code.biz – MiniRunAs – A minimalist „run as“ for Windows

Syntax:

miniRunAs <Benutzername> <Kennwort> <Befehl>

Bei einem Skript-Projekt erwies sich das Tool als sehr nützlich. Möchte man das Kennwort nicht fest hinterlegen, lässt sich z.B. mit „set…“ eine Abfrage gestalten und das Kennwort als Variable bei mehreren Befehlen wiederverwenden:

rem Zugangsdaten festlegen bzw. abfragen

 set mRAUsername=Administrator
 set /p mRAPassword="Bitte das %mRAUsername%-Kennwort eingeben: "

rem Als Admin ausfuehren

 miniRunAs.exe" %mRAUsername% %mRAPassword% cmd.exe /c copy ...

rem NICHT als Admin ausfuehren

 ren ...

rem Als Admin ausfuehren

 miniRunAs.exe" %mRAUsername% %mRAPassword% cmd.exe /c del ...

Java-Konfiguration per Skript(e) anpassen

$
0
0

Am häufigsten findet man das Java Runtime Environment (JRE) oder für die meisten kurz und schlicht Java genannt neben Adobe’s Flash Player auf den PCs vor. Die Hintergründe sind vielfältig: Meist hängt irgendeine installierte Software, bestimmte Internet- oder Intranet-Seiten, das eine oder andere Server-Tool (z.B. vom RAID-Controller oder Management) oder so manches Management-Modul (BMC, KVM-over-LAN/IP) von Oracle’s Software ab.

Die nachfolgenden Zeilen beziehen sich auf Windows:

Gerade bei den zwei zuletzt genannten kann es lästig sein, ständig die Ausnahmeliste von zugelassenen Seiten manuell pflegen zu müssen. Gerade diese lässt sich sehr leicht per Skript ändern. Der Dateiname samt Speicherort lautet:

C:\Users\%username%\AppData\LocalLow\Sun\Java\Deployment\security\exception.sites

Der Pfad verrät einem schon ein mögliches Problem mit den Einstellungen, denn diese wandern bei servergespeicherten Profilen (Roaming Profiles) nicht mit, denn dazu müssten sie unter „C:\Users\%username%\AppData\Roaming\…“ liegen.

Die Ausnahmeliste (und andere Einstellungen) die innerhalb das Benutzerprofils liegen, können ohne erhöhte Rechte, also auch ohne Administrator, bearbeitet werden. Ein Kandidat wäre z.B. mittels Anmeldeskript.

Die Datei kann einfach überschrieben oder mittels echo „http:\\…“ >> exceptions.sites erweitert werden.

Erhöhte bzw. Administrator-Rechte benötigt man dann, wenn Einstellungen unter

C:\Program Files (x86)\Java\jre1.8.0_171\lib\security

geändert werden sollen. Per Skript liese sich das beispielsweise unter Zuhilfenahme von MiniRunAs oder als *.exe-Datei kompilierte AutoIt-Skripte (damit das Kennwort nicht so ohne weiteres ausgelesen werden kann) realisieren.

Wichtig ist in jedem Fall, das die Dateien mit der Codierung „ANSI“ gespeichert werden, denn mit Unicode kommt es zu Problemen! Beim Powershell-Kommande „oc“ kann dies mit „-Encoding Ascii“ erreicht werden.

Diverse andere Einstellungen, z.B. zum Update, finden sich zudem in der Registry:

HKEY_LOCAL_MACHINE\SOFTWARE\JavaSoft\
bzw.
HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\JavaSoft

Beim Zugriff auf HKLM (HKEY_LOCAL_MACHINE) werden erhöhte Rechte benötigt.

Drive Snapshot und/oder Windows belegen den kompletten freien Speicherplatz während der Datensicherung

$
0
0

Gelegentlich ist mir folgendes Phänomen schon untergekommen: Während die Datensicherung mit Drive Snapshot läuft, wird der gesamte freie Speicherplatz auf dem Ziellaufwerk belegt.

Die genauen Hintergründe bzw. unter welchen Umständen oder bei welchen Kombination dies konkret zustande kommt, wurde noch nicht näher untersucht. Auf einem Kundenserver (Windows Server 2012 R2) konnte dieses Verhalten nun reproduzierbar beobachtet werden.

Im Rahmen einer ausgelagerten Sicherung wird täglich eine differentielle Sicherung erstellt. Aus Platzgründen geschieht dies auf dem RAID1, auf dem sich auch die Nutzdaten befinden. In der Regel sind dort um die 200 GB frei, eine einzelne differentielle Sicherung belegt lediglich 6-10 GB, diese wird nach Abschluss der Sicherung in ein entferntes Rechenzentrum übertragen und lokal gelöscht.

Damit die Sicherung selbst nicht ins Backup gerät, wurde diese per

--exclude:"\Offsite-Backup"

ausgeschlossen.

Während die Datensicherung läuft wächst die *.sna-Datei allerdings auf den maximal freien Speicherplatz an und schrumpft nach Abschluss auf die eigentliche Größe zusammen. Das interessante dabei: Die Sicherung wird erfolgreich erstellt.

Wenig verwunderlich ist aber natürlich, das z.B. das Monitoring über den nicht mehr vorhandenen freien Speicherplatz während des Sicherungszeitraums meckert und die eine oder andere Anwendung ebenfalls Alarm schlägt (oder gar aus dem Tritt gerät).

Umgehen kann man das, in dem man als Sicherungsziel eine USB-Festplatte oder ein anderes Laufwerk verwendet. Hat man beides nicht zur Hand oder ist aus anderen Gründen nicht möglich, kann man das Ganze austricksen:

Man erstellt eine VHD(x), mountet diese vor der Sicherung, lässt Drive Snapshot darauf sichern, überträgt die Sicherung ins RZ und trennt die VHD(x) wieder.

Die VHD(x) sollte dabei kleiner sein als der freie Speicherplatz, darf dynamisch wachsen und sollte Puffer innerhalb (falls die differentielle Sicherung doch mal größer ist) und außerhalb haben.

Für dieses Szenario wurde in der Datenträgerverwaltung eine neue *.vhdx mit maximal 100GB erstellt und auf dem RAID1 gespeichert, anschließend initialisiert, partitioniert, formatiert und ein Laufwerksbuchstabe zugewiesen. Ferner wurde das Datensicherungsskript um die entsprechenden Befehle erweitert. Grundlage dafür war der Beitrag:

Windows-Datensicherung in eine VHD(X)-Datei

rem Virtuelle Festplatte verbinden

 diskpart /s attach-vhd.txt

rem Kleine Pause

 timeout /t 5 /nobreak

rem Sicherung durchfuehren

 snapshot.exe ...

rem Virtuelle Festplatte trennen

 diskpart /s detach-vhd.txt

Nach den ersten paar Tagen scheint das so zu funktionieren und umgeht das oben beschriebene Verhalten.

PartedMagic: Lokalen Bildschirm via VNC anzeigen

$
0
0

Möchte man den Fortschritt einer Datenrettung bei PartedMagic über’s Netzwerk beobachten, so bietet es sich an, einen VNC-Server zu starten.

Startet man in der Shell lediglich mit

vncserver

eine VNC-Server-Instanz, so wird auf dem entfernten Rechner eine neue/eigene Sitzung angezeigt, aber nicht die lokale bereits laufende Sitzung. Folglich kann man nicht den Status von z.B. testdisk, rsync oder ddrescue bzw. irgendwelchen GUI-Tools sehen.

Besser ist es hingegen mittels

x11vnc

eine VNC-Server-Instanz zu starten, denn dort wird die aktuelle lokale Sitzung remote zur Verfügung gestellt.

Achtung: Bei dem Aufruf von x11vnc ohne jegliche Parameter wird kein Passwort verwendet!

Ist die Gegenseite ein Windows kann z.B. der UltraVNC Viewer verwendet werden.

Alternativ kann man einen TeamViewer QuickSupport herunterladen und starten. Dies macht dann Sinn, wenn über’s Internet nach dem Stand der Dinge geschaut werden soll.

Quellen:

Ubuntuusers – Wiki – VNC

openmediavault – Forum – Headless system disk backup with PartedMagic (CloneZilla)

Linux: Daten von fehlerhaftem Laufwerk mit rsync retten

$
0
0

Ist das Boot- bzw. System-Laufwerk eines Computers fehlerhaft, kann es schwierig werden, die Daten zu retten. In der Vergangeheit wurden in diesem Blog bereits verschiedene Mittel und Wege vorgestellt.

Diesmal basiert der Beitrag auf einem Supportfall mit einer fehlerhaften SSD auf der Windows 8.1 installiert ist. Der Computer startet mir dieser nicht einmal mehr und hängt bereits beim BIOS, besser ausgedrückt: Er zeigt noch nicht mal das Logo an. Daher wurde die SSD ausgebaut und mittels USB-Adapter an einem anderen Computer angeschlossen. Windows konnte allerdings nicht auf die Daten zugreifen bzw. konnte die Partitionen noch nicht mal einhängen. Laufwerke, respektive Partitonen nur lesend einhängen, geht nur bei unixoiden Betriebssystemen wie z.B. Linux. Daher wurde ein anderer Computer mit PartedMagic gestartet, die fehlerhafte Festplatte und eine funktionierende USB-Festplatte (als Backup-Ziel) angeschlossen und zunächst die „Backup-Platte“ eingehängt:

  • Erst mit „fdisk -l“ schauen, wie die Festplatten benannt sind.
  • Dann einen Einhängepunkt mit „mkdir /media/sdXX“ erstellen und
    schließlich das Backup-Ziel mit „mount /dev/sdXX  /media/sdXX“ einhängen.

Die Bezeichnung der fehlerhaften SSD wurde ebenfalls bereits mit „fdisk – l“ ermittelt, so konnte ebenso ein Einhängepunkt erstellt werden, aber beim Mounten soll nur lesend (read-only) Verwendung finden:

mount -ro /media/sdXX /media/sdXX

Ist das soweit geschafft und erfolgreich kann mittels rsync versucht werden, die Daten zu kopieren. Z.B.

rsync -aP /media/sdXX /media/sdXX/Backup

Bevor man versucht alles von der „C-Partition“ zu kopieren, sollte man sich zunächst auf das Wichtigste konzentrieren. In der Regel sind das Daten aus dem Benutzerprofil. Hier z.B. die Bilder:

rsync -aP /media/sdXX/Users/<username>/Pictures /media/sdXX/Backup

Quelle:

ubuntuusers – Wiki – rsync


Windows: Ist der Administrator per RDP angemeldet und von wo aus?

$
0
0

Bei einem Kunden haben wir leider die Situation, das es nur das eine Administrator-Konto gibt, dieses aber von mehreren Leuten verwendet wird (von uns, dem hauseigenen Admin des Kunden, einem freiberuflichen Entwickler der beim Kunden sitzt, einem „Verantwortlichen“ und einer Mitarbeiterin aus der Buchhaltung).

Grundsätzlich bin ich kein Freund davon, das z.B. normale Mitarbeiter bzw. Anwender per Remotedesktopverbindung auf einen Server zugreifen. In der Vergangeheit gab das (auch bei anderen Kunden) teils böse Geschichten. Dabei geht es um nichts persönliches, sondern schlicht um die Fachkompetenz. Ein Beispiel: Einen PC mal neu starten ist im Tagesbetreib nicht weiter tragisch, einen Server an dem x Benutzer arbeiten hingegen schon, von den Eigenarten mancher Anwendung ganz zu schweigen.

Zurück zum Thema: Jedenfalls kommt es des öfteren vor, das man sich gegenseitig die RDP-Sitzung klaut. Nicht schön, vor allem, wenn man gerade am Tippen ist. Die saubere Lösung wäre unterschiedliche Admin-Konten zu verwenden. Eigentlich kein Ding, aber selbst nach jahrelangen Hick-Hack möchte man das aus unbekanntem Grund nicht.

Mit folgendem Skript kann man prüfen, ob gerade auf einem angegebennen Server der Administrator verbunden oder getrennt ist und von welchem Computer aus die letzte Verbindung aufgebaut wurde:

@echo off

title Ist der Administrator verbunden?

rem Konfiguration

 set server=
 set sid=

rem Sitzungen abfragen

 echo.
 echo Verbindungsstatus:
 echo.
 query session /server:%server% | find /i "Administrator"
 echo.

echo --------------------------------------------------------------------------------

rem Clientname des Administrator-PCs abfragen

 echo.
 echo Computername, von dem aus zuletzt der Administrator angemeldet war:
 echo.
 reg query "\\%server%\HKEY_USERS\%sid%\Volatile Environment\1" /v Clientname | find /i "Clientname"
 echo.

echo --------------------------------------------------------------------------------

echo.
pause

Damit das Ganze funktioniert, muss in den Variablen des Skripts der Server und die SID des Administrators eingetragen sein, der Dienst „Remoteregistrierung“ auf dem Ziel-Server muss laufen, ferner muss man als Administrator irgendwie von dem Server authentifiziert worden sein (z.B. „net use…“). Das Ergebnis sind dann so aus:

Das Ganze ist eine quick&dirty-Lösung von mir und hat mir heute im Laufe des Tages bereits mehrfach geholfen. So konnte immer die Zeit, wo kein anderer per RDP aktiv war genutzt werden, ohne das man sich in die Quere gekommen ist.

Lenovo V510-15IKB bzw. Windows 10 bleibt hängen

$
0
0

Ein ärgerliches Problem beschäftigte einen Kunden und in Folge mich: Ein wenige Monate altes Lenovo V510-15IKB Notebook blieb immer wieder hängen. Als das Gerät das erste Mal in der Werkstatt war, trat dieses Verhalten allerdings nicht auf, selbst nach tagelangem Dauertest nicht. Da ein Hardwareproblem vermutet wurde, ging das Gerät an den Lenovo Service. Zwei Wochen später kam es zurück, außer das es auf Werkseinstellung zurückgesetzt wurde, war nichts weiter gemacht worden.

Leider zeigte sich das Verhalten immer mal wieder, leider sporadisch, so das man es nicht näher eingrenzen konnte. Letztlich brachte der Kunde das Gerät wieder her. Man kann schon fasst sagen zum Glück zeigte sich das „Hängenbleiben“ dann endlich mal während es hier „herumstand“. Interessanterweise stürzte Windows 10 nicht komplett ab, sondern „nur“ zum großen Teil. Ich nenne es mal partielles Abstürzen:

Die Maus bzw. das Touchpad reagiert noch, d.h. der Mauszeiger bewegt sich, der Bildschirmschoner ändert auch noch das Bild, aber das war’s dann auch schon. Auf Tastatureingaben oder sonstiges erfolgt keine Reaktion.

Mit dieser Beobachtung war der Gedanke naheliegend, das es mit der SSD oder ggf. irgendwelchen Energiespareinstellungen zusammenhänge könnte. Generell gibt es zu diesem Notebook einen recht umfangreichen Thread im Lenovo Forum, wo von Hängern, Abstürzen und weiteren Probleme berichtet wird, das sogar unabhängig vom Betriebssystem (betrifft z.B. auch Linux):

English Community – Lenovo Notebooks – Lenovo C, E, K, M, N and V Series Notebooks – V510-15IKB Laptop Freeze

Das verhies zunächst nichts gutes, hätte es ja auch ein generelles Problem mit dieser Geräteserie sein können. Auf Englisch allerdings nach diesem Verhalten gesucht, gab’s dann einen (hoffentlich) passenden Treffer:

Microsoft Community – Windows 10 Freezes But Mouse Still Moves

Über die Antwort von „SirMoloth“ kommt man dahinter, das es mit dem Standard-AHCI-Treiber von Microsoft zusammenhängt. Der Original-Microsoft-Support-Artikel bezieht sich zwar auf ein anderes Verhalten, aber scheinbar gibt es einen Zusammenhang:

Task Manager might show 100% disk utilization on Windows 10 devices with Message Signaled Interrupt (MSI) mode enabled

Daraus ergeben sich dann zwei Optionen: Entweder die vorgeschlagene Änderung vornehmen und das Beste hoffen (der Lesart nach hilft es nicht bei jedem) oder den passenden AHCI-Treiber für den Chipsatz bzw. Festplattencontroller installieren.

Letzteres ist i.d.R. die bessere Idee, leider stellt Lenovo keine solchen Treiber zur Verfügung. Da es sich um einen Intel-Chipsatz handelt, konnte direkt beim Hersteller der passende Treiber heruntergeladen werden:

Downloads für Intel Rapid-Storage-Technik (Intel RST)

Nach weiteren mehrtägigen Dauerlauf ist bislang kein „partielles Abstürzen“ mehr aufgetreten. Ich hoffe, es bleibt dabei.

Windows/Hyper-V: VHDX verkleinern

$
0
0

Um eine virtuelle Festplatte im Microsoft VHDX-Format zu verkleinern bedarf es ein wenig Vorbereitung und ein paar Schritte.

Vorab-Bemerkung

Die einzelnen Vorgänge können je nach Größe, Hardware und Auslastung durchaus mehrere Stunden in Anspruch nehmen. Von daher sollte ein entsprechendes Zeitfenster mit Bedacht gewählt werden. Zudem empfiehlt es sich, vorab einen Testlauf mit einer Kopie oder aus einer Datensicherung heraus durchzuführen.

Datensicherung erstellen

Bevor man zu Tate schreitet, unbedingt eine Datensicherung erstellen, für den Fall das etwas schief läuft!

Defragmentierung durchführen

Vor dem verkleinern einer Partition bzw. einer *.vhdx sollte deren Inhalt defragmentiert werden. Das geht Online mit Bordmitteln, meist ist das Ergebnis allerdings Offline besser. Eine vorangehende Defragmentierung verhindert meist die Meldung beim Verkleinern der Partition, das nicht genügend Speicherplatz zur Verfügung stände oder, am Beispiel von Macronit Disk Partition Expert, eine Meldung erscheint, das es zuviele Fragmente gibt.

Bemerkung: Mit On-/Offline ist gemeint, ob der virtuelle Computer läuft oder nicht bzw. die VHDX verwendet wird oder nicht.

Partition verkleinern

Die Partition kann Online mit Bordmitteln von Windows verkleinert werden. Wenn’s nicht klappt, weil beispielsweise (immer noch trotz Defragmentierung) gemeckert wird, das nicht genügend Speicherplatz vorhanden wäre, dann Offline mit einem entsprechenden Partitionierer (z.B. Macrorit Disk Partition Expert, MiniTool Partition Wizard, etc.) arbeiten. Unter Hyper-V kann man z.B. einen virtuellen Computer der 1. Generation mit GParted Live starten und dann die Partition verkleinern. Letzteres hat bislang immer, selbst bei widerspenstigen Partitionen, erfolgreich funktioniert und ist gegenüber den Windows-Mitteln dank Schieberegler (imho) angenehmer.

VHDX verkleinern – Schritt 1

Damit der freie zur Verfügung stehende Speicherplatz innerhalb der VHDX reduziert wird, wird dieser wie folgt verringert:

  • Im „Hyper-V Manager“ auf „Datenträger bearbeiten…“ klicken.
  • Die gewünschte VHDX auswählen.
  • „Verkleinern“ auswählen und auf der Folgeseite die neue Größe angeben.

Dieser Schritt ändert allerdings (noch) nicht die Größe der Datei auf der Festplatte! Siehe dazu Schritt 2

VHDX verkleinern – Schritt 2

Spielt die physikalische Größe, also der belegte Speicherplatz, der *.vhdx keine Rolle, kann dieser Schritt übersprungen werden. Soll allerdings die Datei real verkleinert werden, so muss eine Komprimierung durchgeführt werden.

  • Im „Hyper-V Manager“ auf „Datenträger bearbeiten…“ klicken.
  • Die gewünschte VHDX auswählen.
  • „Komprimieren“ auswählen.

Abschlussbemerkung

Die einzelnen Vorgänge lassen sich per Skript (Powershell) vornehmen, siehe dazu die entsprechende Dokumentation und die Quellen.

Quellen:

Ben Armstrong’s Virtualization Blog – Shrinking a VHDX on a Running Virtual Machine

Dixin’s Blog – Shrink Virtual Hard Disk Image (VHD and VHDX) Files

Windows/Hyper-V: Zu welchem Zeitpunkt wurde die Bearbeitung einer VHDX abgeschlossen?

$
0
0

Führt man Arbeiten an einer VHDX durch, kann dies sowohl per GUI oder per Powershell geschehen. Bei letzterem lässt sich mittels weitere Befehle bzw. als komplettes Skript Startzeitpunkt und Abschluss ermitteln. Hat man allerdings per GUI einen Vorgang zum Bearbeiten einer VHDX gestartet, so ist dieser irgendwann abgeschlossen, ohne das man genau weiß wann das war.

Den Startzeitpunkt wenn man über die GUI (gemeint ist der Hyper-V Manager) arbeitet kann man manuell ohne Schwierigkeiten erfassen. Allerdings klappt das nicht mit dem Abschlusszeitpunkt, außer man starrt die gesamte Zeit über auf die Anzeige (und die Uhr natürlich;-))

Mit Hilfe eines kleines AutoIt-Skripts kann man sich Anzeigen lassen, wann der Vorgang abgeschlossen wurde. Als Basis dient dafür das Vorhandensein dies Fenster mit dem Titel „Virtueller Datenträger wird bearbeitet…“, welches nur vorhanden ist, während eine direkte Bearbeitung einer VHDX stattfindet:

Das Skript in seiner simplesten Form sieht dann z.B. so aus:

; Schleife

While 1

 ; Prüfen, ob das Fenster (noch) existiert

  If Not WinExists("Virtueller Datenträger wird bearbeitet...") Then
   MsgBox(0, "", "Abgeschlossen: " & @MDAY & "." & @MON & "." & @YEAR & " - " & @HOUR & ":" & @MIN)
   ExitLoop
  EndIf

 ; Pause
  Sleep(1000)

WEnd

Nachdem das zuvor genannte Fenster verschwunden ist, erscheint eine schmucklose MessageBox mit dem Zeitpunkt des Abschlusses:

Man könnte das nun weiter Stricken, in dem bestimmte Befehle, Aufgaben etc. nach Abschluss des Vorgangs durchgeführt werden.

Windows/Hyper-V: Virtuelle Computer mit Bvckup 2 in knappen Zeitfenstern umziehen

$
0
0

Verwendet man stand-alone Hyper-V Server und steht kein shared storage, shared nothing etc. für das Verschieben von virtuellen Computern zur Verfügung, kann man schnell und elegant mit Bvckup 2 diese umziehen.

Dieser Beitrag basiert auf zwei Windows Server 2012 R2 Standard.

Vorbereitung

Bvckup 2 auf dem Quell-Server installieren und den oder die Jobs anlegen. Ggf. muss auf dem Ziel-Server eine Freigabe des Speicherorts erstellt werden.

Da nur die Konfiguration (*.xml) und die virtuellen Festplatten (*.vhdx) der virtuellen Computer kopiert werden sollen, sollte man folgende Dateien auschließen:

<ID>.bin
<ID>.vsv

Diese Dateien existieren nur während der virtuelle Computer ausgeführt wird.

Zusätzlich die Archivierung von gelöschten Dateien deaktivieren:

Da es keine Datensicherung sein soll, dazu noch VSS deaktivieren:

Die Daten können im laufenden Betrieb ohne Probleme kopiert werden.

Erst-Abgleich

Den oder die Job(s) starten und bis zum Ende laufen lassen. Dies kommt einem vollständigen kopieren gleich, daher die Belastung der Netzwerkverbindung beachten. Idealerweise steht dafür eine eigenen Netzwerkkarte zur Verfügung, alternativ ein Zeitfenster wählen, in dem am wenigstens los ist.

Finaler Abgleich

Die betreffenden virtuellen Computer herunterfahren und anschließend nochmals die Bvckup 2-Job(s) laufen lassen. Im Gegensatz zum Erst-Abgleich werden nur die Änderungen übertragen. Das Programm macht dies auf Block-Ebene, so muss z.B. nicht die gesamte VHDX (neu) kopiert werden, sondern es werden nur die Änderungen innerhalb der virtuellen Festplatten synchronisiert. Dies geht deutlich schneller, als alles nochmal zu kopieren, in Folge wird viel Zeit gespart.

Virtuelle Computer importieren

Nachdem das Kopieren mit Bvckup 2 abgeschlossen ist, müssen die virtuellen Computer auf dem Ziel-Server noch importiert werden:

  • Im „Hyper-V Manager“ auf „Virtuellen Computer importieren..“ anklicken.
  • Den Ordner des jeweiligen virtuellen Computers auswählen.
  • Die ID kann beibehalten werden, ggf. muss der virtuelle Switch angepasst werden.
  • Nachdem der Import-Vorgang abgeschlossen ist kann der jeweilige virtuelle Computer gestartet werden.

Der Erfahrung nach bleibt in der Regel die Windows-Aktivierung erhalten, lediglich TeamViewer erhält eine neue ID.

Warum nicht Rsync?

Nichts gegen Rsync, aber im Vergleich zu Bvckup 2 arbeitet dieses: Rsync speichert die Prüfsummen für den Abgleich nicht, sondern erstellt diese bei jedem Durchlauf neu. Dies benötigt Zeit und ist gerade bei großen Dateien wie virtuellen Festplatten eher ungünstig. Ferner wird Rsync auf beiden Seiten benötigt. Als weiterer Punkt ist die Performance unter Windows eher mangelhaft.

Bvckup 2: Destination file timestamps have changed since the last run

$
0
0

Bei der täglichen Sicherung eines virtuellen Computers unter Hyper-V mit Bvckup 2 wurde die virtuelle Datenfestplatte immer vollständig und nicht wie vorgesehen das Delta (die Änderungen innerhalb der Datei) kopiert.

Im Log stand dazu folgendes:

2018.06.07 03:30:25.489 (UTC+1) 2 3 Destination file timestamps have changed since the last run
2018.06.07 03:30:25.489 (UTC+1) 3 4 Was: created 2016.04.20 10:34:58.204, modified 2018.06.06 03:30:21.933
2018.06.07 03:30:25.489 (UTC+1) 3 4 Now: created 2016.04.20 10:34:58.204, modified 2018.06.06 05:43:28.891
2018.06.07 03:30:25.489 (UTC+1) 2 3 Resetting delta state...
2018.06.07 05:38:32.315 (UTC+1) 3 3 Completed in 2 h 8 min, copied in full
2018.06.07 05:38:32.315 (UTC+1) 3 4 118.12 MBps | 271.70 reading, 338.85 hashing, 171.31 writing

Ein Blick in den Explorer zeigte ebenfalls, das der Zeitstempel sich geändert hatte. Unklar war bzw. ist, warum dies so ist, denn mit der System-VHDX des gleichen virtuellen Computers geschah dies nicht.

Auf Nachfrage bei Pipemetrics, den Machern von Bvckup 2, kam der Hinweis, das wohl irgendein Prozess auf die Datei zugreift und sich folglich der Zeitstempel ändert. Man könne dies mit dem Process Monitor bei entsprechend konfigurierten Filtern eingrenzen.

Im Process Monitor wurden daraufhin zwei Filter gesetzt:

Include - Path - contains - <Pfad und Dateiname zur gesicherten VHDX>
Exclude - Process Name - contains - Bvckup2.exe

Ersteres um nur die Zugriffe auf die gesicherte VHDX anzuzeigen und letzteres um die gewünschten Zugriffe durch Bvckup 2 auszufiltern. So sollten nur die unerwünschten Zugriffe und ggf. Aufrufe durch den Windows Explorer übrig bleiben.

Zwischenzeitlich viel beim Durchschauen des Hyper-V auf, das bei einem ausgeschaltetem virtuellen Computer die betreffende gesicherte Daten-VHDX verbunden war. Hintergrund dieses Umstands war ein Test mit den gesicherten Daten. Allerdings war dieser bereits mehrere Tage her, inzwischen hätte nach einen erneuten vollem Kopieren nur noch das Delta abgeglichen werden sollen.

Jedenfalls wurde die gesicherte VHDX von diesem ausgeschaltetem virtuellen Computer getrennt. Anschließend wurden mittlerweile mehrere Durchgänge mit Bvckup 2 durchlaufen, ohne das es nochmal zu einer ungewollten Veränderung des Zeitstempels bzw. ungewollten Zugriffs gekommen ist.

Soweit liegt der Gedanke nahe, das irgendwie über VSS und Hyper-V dieser Zugriff stattgefunden hat. Nachvollziehen konnten wir das leider nicht (mehr). Auf unserem Testserver mit gleicher Hyper-V Version konnten wir dieses ebenfalls nicht reproduzieren. Möglicherweise hing irgendwas im Hintergrund, was man so nicht ohne weiteres feststellen oder sehen kann.

Plan B (der Vollständigkeit halber)

Pipemetrics teilte zudem mit, das man, was die Zeitstempel betrifft, eine gewisse „Unschärfe“ einstellen kann:

If you are *confident* that the backup copy stays the same between the runs, you *can* suppress the delta state reset. This is done as follows:

  • 1. Right-click on the job in question, select “Open Folder” > “Configuration and Logging”
  • 2. Use Notepad to create there override.ini file and put the following line in it:
    conf.copying.ultra.delta.weak_dst_times 1
  • 3. Save the ini, exit Notepad, restart the program. If it’s running in service mode, restart the bvckup2 service.

Spaß mit Windows 10 und G Data

$
0
0

Es gibt schon kuriose Dinge mit Windows 10: So merkte G Data nach dem Upgrade von 1709 auf 1803 an, das die Lizenz bereits auf einem anderem Computer verwendet wird:

Die Kundin hat allerdings nur eine G Data-Lizenz die auch nur auf diesem einem Notebook installiert ist.

Auch „witzig“ ist das Windows Defender Security Center (fka Windows-Sicherheitscenter), dessen Aufgabe es sein sollte, auf potentielle Schwierigkeiten z.B. mit dem Virenschutz hinzuweisen. Dieses sah sich nicht dazu veranlasst zu meckern, das der Virenschutz deaktiviert ist:

Soweit sind diese beide Meldungen nicht weiter dramatisch, aber man wird doch etwas nachdenklich.


Firefox: Google in einen Container sperren

$
0
0

Ein Fork von Mozilla’s Facebook-Container-Erweiterung macht es möglich Google und weitere zugehörige Seiten wie z.B. YouTube in einen eigenen Container zu sperren.

Das Browser Addon Google Container von Perflyst macht es möglich. Ist dieses installiert und man öffnet beispielsweise die Google- oder YouTube-Startseite, so wird die Seite in einem eigenen Container geladen. Zu erkennen ist das an der roten Markierung des entsprechenden Tabs:

Befindet man sich auf einer Google-Seite, können Links ebenfalls in einem neuen „Google-Tab“ mittels Rechtsklick geöffnet werden:

Das Ganze funktioniert dann auch wenn man das Suchfeld verwendet, die Ergebnisse werden automatisch in einem entsprechenden Tab bzw. Container geöffnet.

Auf diese Weise kann man dem Tracking ein Stück weit(er) entgehen. Bei mir verhält es sich so, das ich im Regelfall kaum Google-Dienste nutze. Wenn dann doch mal die Suche oder YouTube aufgemacht wird, dann ab jetzt denk der Erweiterung automatisch im entsprechenden Container, so muss man nicht zwingend immer an ein privates Fenster denken.

Bvckup 2: Versionierung mittels mklink, net use oder mehrere Jobs

$
0
0

Bvckup 2 bringt von sich aus leider keine Möglichkeit mit, mehrere Versionen einer Datensicherung vorzuhalten.

Eine recht einfache Variante kann darin bestehen, mehrere Jobs anzulegen, die zu jeweils anderen Zielen verweisen. So auf die Art „Backup to“:

\Ziel\v1\
\Ziel\v2\
..

Statt Versionsnummern können z.B. Tage, Wochen, Monate, etc. verwendet werden. Es geht aber auch anders, wie die nachfolgenden Zeilen zeigen.

Jede Variante hat ihre Vor- und Nachteile: Bei „mklink“ und „net use“ ist leider kein delta copying möglich, da das Ziel jedes Mal neu gescannt werden muss. Das bedeutet, das geänderte Dateien als Ganzes kopiert werden und nicht nur die Änderungen innerhalb der betreffenden Dateien. Dies dauert in der Regel länger und kann bei langsamen Netzwerkverbindungen zum Problem werden. Abhilfe schafft da die Verwendung von mehreren Backup-Jobs mit jeweils eigenem Ziel, dazu am Ende mehr, aber zunächst der Reihe nach.

Die nachfolgenden Skripte liegen unter „C:\Backup“ und müssen den eigenen Bedürfnissen angepasst werden. Ferner muss bei der Verwendung von „mklink“ und „net use“ im Backup-Job unter „detecting changes“ „Re-scan destination on every run“ aktiviert sein:

Die Skripte werden dann im jeweiligen Job unter „More options – External commands & alerts“ eingebunden:

mklink (Verknüpfung)

Möchte man nur einen Job verwenden, so kann über ein „Pre-backup“-Skript das Ziel sozusagen umgebogen werden. Der Trick besteht darin, einen Link (aka Verknüpfung oder symbolische/n Verknüpfung/Link) zu verwenden. Verschiedene Beispiele finden sich im Bvckup 2 Support Forum:

Dynamically adjusting backup destination

Das Ziel muss dabei nicht zwangsläuffig lokal sein, der Link kann auch auf ein Ziel im Netzwerk, z.B. ein NAS, verweisen. Dann sollte allerdings der UNC-Pfad verwendet und die Anmeldung sichergestellt werden:

rem Anmeldung gegebenueber dem Ziel im Netzwerk

 net use \\<IP oder Hostname>\<Freigabe> <Kennwort> /user:<Benutzername> /persistent:no

rem Verknuepfung erstellen

 mklink C:\Backup\Current \\<IP oder Hostname>\<Freigabe>\<Version

Als „Post-backup“-Skript kann die Verknüpfung entfernt und die Anmeldung wieder aufgehoben werden:

rem Verknuepfung entfernen

 del C:\Backup\Current

rem Anmeldung aufheben

 net use \\<IP oder Hostname>\<Freigabe> /d

Idealerweise ist das Backup-Ziel nur während der Datensicherung erreichbar, um außerhalb des Sicherungszeitfensters nicht anfällig für z.B. CryptoTrojaner (aka Erpressungs- oder Verschlüsselungstrojaner) zu sein, daher die An-/Abmeldung.

Anbei ein Beispiel Pre- und Post-backup-Skript mit Versionsnummern:

Pre-backup.cmd:

@echo off

rem Ins Arbeitsverzeichnis wechseln

 cd C:\Backup

rem Konfiguration

 set Destination=\\<IP oder Hostname>\<Freigabe>
 set DestinationUser=<Benutzername>
 set DestinationPassword=<Kennwort>

 set NumberOfVersionsToKeep=3

rem Gegenueber dem Server oder NAS anmelden

 net use "%Destination%" "%DestinationPassword%" /user:"%DestinationUser%" /persistent:no

rem Version.txt erstellen, falls diese nicht existiert

 if not exist Version.txt echo %NumberOfversionsToKeep% > Version.txt

rem Aktuelle Version einlesen, hochzaehlen und in "Version.txt" schreiben

 set /p Version=< Version.txt set /A Version=Version %% NumberOfVersionsToKeep + 1 echo %Version% > Version.txt

rem Ziel-Verzeichnis erstellen, falls es nicht existiert

 if not exist "%Destination%\%Version%" mkdir "%Destination%\%Version%"

rem Symbolische Verknuepfung vom lokalen System zum Server oder NAS erstellen

 mklink /d "C:\Backup\Current" "%Destination%\%Version%"
Post-backup.cmd:

@echo off

rem Symbolische Verknuepfung entfernen

 rmdir C:\Backup\Current /q

rem Anmeldung gegenueber dem Server oder NAS entfernen

 net use "%Destination%" /d

net use (Netzlaufwerk)

Mittels „net use“ kann man nicht nur einfach zu einer Freigabe, sondern auch direkt zu einem Ordner innerhalb einer Freigabe ein Netzlaufwerk einrichten. Diesen Umstand kann man nutzen, mehrere Versionen zu sichern. Das dazugehörige „Pre-backup“-Skript ist dabei dem von „mklink“ sehr ähnlich:

Pre-backup.cmd:

@echo off

rem Ins Arbeitsverzeichnis wechseln

 cd C:\Backup

rem Konfiguration

 set Destination=\\<IP oder Hostname>\<Freigabe>
 set DestinationUser=<Benutzername>
 set DestinationPassword=<Kennwort>

 set NumberOfVersionsToKeep=3

rem Version.txt erstellen, falls diese nicht existiert

 if not exist Version.txt echo %NumberOfversionsToKeep% > Version.txt

rem Aktuelle Version einlesen, hochzaehlen und in "Version.txt" schreiben

 set /p Version=< Version.txt set /A Version=Version %% NumberOfVersionsToKeep + 1 echo %Version% > Version.txt

rem Ziel-Verzeichnis erstellen, falls es nicht existiert

 if not exist "%Destination%\%Version%" mkdir "%Destination%\%Version%"

rem Netzlaufwerk verbinden

 net use V: "%Destination%\%Version%" "%DestinationPassword%" /user:"%DestinationUser%" /persistent:no
Post-backup.cmd:

@echo off

rem Netzlaufwerk trennen

 net use V: /d

Mehrere Jobs mit Versionierung, automatischer Steuerung und delta copying

Damit man dennoch den Vorteil des delta copying nutzen kann, muss man zwangsläuffig mit mehreren Jobs und einem Skript arbeiten. Ausführen (lassen) muss man dabei nur einen Job, der die Anderen wiederum steuert. Das klingt nun komplizierter als es eigentlich ist. Lediglich die Ersteinrichtung und Erstbefüllung der Ziele benötigt mehr Zeit, danach geht es fix.

Folgende Ordnerstruktur wird benötigt:

C:\Backup
C:\Backup\VersionJobDst
C:\Backup\VersionJobSrc

Die Ordner „VersionJobDst“ und „VersionJobSrv“ dienen nur als Fake-Quelle und -Ziel für den Steuerungs-Job, da jeder Job zwingend „Backup from“ und „Backup to“ benötigt.

Als nächstes wird das „Pre-backup“-Skript benötigt, das die Versionierung und Job-Steuerung übernimmt:

ExternalVersion.cmd:

@echo off

rem Ins Arbeitsverzeichnis wechseln

 cd C:\Backup

rem Konfiguration

 set NumberOfVersionsToKeep=3

rem "Version.txt" erstellen, falls diese nicht existiert

 if not exist Version.txt echo %NumberOfversionsToKeep% > Version.txt

rem Aktuelle Version einlesen, hochzaehlen und in "Version.txt" schreiben

 set /p Version=< Version.txt set /A Version=Version %% NumberOfVersionsToKeep + 1 echo %Version% > Version.txt

rem Bvckup 2-Job der entsprechenden Version aktivieren und starten
rem WICHTIG: Zuvor unter "Options - Preferences - Backup Scheduling" "Enable concurrent backups" aktivieren!

 "C:\Program Files\Bvckup 2\bvckup2.exe" --command enable "%Version%"
 "C:\Program Files\Bvckup 2\bvckup2.exe" --command start "%Version%"

rem Den Status von Bvckup 2 in Schleife pruefen, ist der Job im Leerlauf, diesen (wieder) deaktivieren

 rem Schleife, um den Status zu pruefen
 rem Wenn der Status "idle" (entspricht Rueckgabewert "102") ist, dann die Schleife verlassen
  :loop
  timeout /t 1
  cmd /c "C:\Program Files\Bvckup 2\bvckup2.exe" --command status %Version%
  if not %errorlevel%==102 goto loop

 rem Backup-Job deaktivieren

  "C:\Program Files\Bvckup 2\bvckup2.exe" --command disable %Version%

Wie in den Kommentaren des Skripts zu lesen ist, ist es relevant, gleichzeitige Backups zuzulassen, da sonst immer nur ein Job laufen kann:

Unter "Options - Preferences - Backup Scheduling" "Enable concurrent backups" aktivieren.

Für diese Variante müssen allerdings zwei Jobs gleichzeitig laufen können (1x Steuerungs-Job, 1x der eigentliche Backup-Job). Damit man nicht mal aus versehen einen „Versions-Job“ startet, werden Diese nach ihrer Ausführung deaktiviert. Der jeweilige Job wird automatisch zur Sicherung hin aktiviert und ausgeführt.

Nun erstellt man den „Steuerungs-Job“, gibt als Quelle und Ziel die zuvor erstellten Ordner an und definiert das obige Skript als „Pre-backup-command“. Dieser Job kann z.B. über den integrierten Zeitplanungsdienst zu bestimmten Zeiten ausgeführt werden.

Als nächtes legt man den ersten „Versions-Job“ an. In diesem Beispiel wird als Name (Description) schlicht die jeweilige Versionsnummer verwendet. Die restlichen Einstellungen können je nach Anspruch auf den Vorgaben belassen werden:

Damit man nicht jeden einzelnen „Versions-Job“ händisch anlegen muss, reicht es aus, zunächst Einen sozusagen als Vorlage zu konfigurieren und Diesen dann zu Klonen („Rechtsklick – Clone…“). Dann nur noch die „Description“ und bei „Backup to“ ganz hinten die Versionsnummer ändern und fertig bzw. weiter zum nächsten Job.

Zu Überlegen ist, ob man gelöschte Elemente noch eine zeitlang aufbewahren möchte oder ob diese gleich gelöscht werden sollen. Per Vorgabe werden Diese zwei Wochen lang archiviert. Da man allerdings hier mehrere Versionen verwendet, könnte man auf diese Archivierung verzichten.

Am Ende sieht es in Bvckup 2 in etwa so aus:

Wie man im vorletzten Screenshot sehen kann, wird in diesem Beispiel auf eine FRITZ!BOX gesichert. Da Diese bis jetzt (gemeint ist pre FRITZ!OS 7.x) NTFS eher recht schlecht unterstützt, WLAN als weiterer Flaschenhals ebenfalls dazukommen kann und generell die NAS-Performance dieses Routers gemächlich ist, kann dank Bvckup 2 und dessen delta copying recht schnell die Nutzdaten gesichert werden. Für die Erstbefüllung oder Erstbestückung der Backup-Ziele sollte allerdings je nach Datenmenge entsprechend Zeit und nach Möglichkeit auf eine verkabelte Netzwerkverbindung zurückgegriffen werden.

Troubleshooting:

Beim Test stolperte man über folgendes Problem:

Bvckup 2: Destination file timestamps have changed since the last run

Abhilfe schafft bislang nur der dort genannte „Plan B“.

Outlook: Termin- oder Besprechungseinladungen werden nicht angezeigt

$
0
0

Bei einem Kunden (natürlich bei der Chefin, Murphy lässt grüßen) trat das Problem auf, das Termineinladungen im Outlook nicht angezeigt wurden, alle anderen Mails waren hingegen wie gewohnt zu sehen.

Das Ganze betraf ein gemeinsam genutztes Postfach. Bestätigte einer der Mitarbeiter den Termin, so wurde dieser im Kalender eingetragen oder war bei allen sichtbar. Im Webmail der Chefin war die Termineinladungsmail zu sehen. Somit war das „Problem“ auf Outlook eingegrenzt.

Abhilfe schaffte ein kurzes beherztes zurücksetzen der Ansicht.

Windows: dism oder sfc meldet Fehler mit CNBJ2530.DPB

$
0
0

Nach dem Überspielen einer Windows 8.1-Installation von einer defekten SSD auf eine Neue meldete sowohl dism als auch sfc bei der Prüfung des System eine fehlerhafte Datei „CNBJ2530.DPB“. Der Rest der Prüfungen und der sonstige Betrieb des Systems waren in Ordnung.

Sucht man nach diesem Fehlerbild erhält man einige Treffer, unbekannt oder selten ist es also nicht. Ein Ersetzen der Datei mit einer Kopie von einem anderen PC, mehrere Druchläufe von dism oder sfc helfen leider nicht.

Sowohl über BleepingComputer als auch über SysNative (vmtl. der eigentliche Ursprung) stolpert man über das Tool SFCFix:

[Win8/8.1] GUIDE: CNBJ2530.DPB and prncacla.inf Corruptions

CNBJ2530 Error – Cannot Fix with DISM or SFC

Einen Versuch, damit den Fehler zu beheben ist es auf jeden Fall wert. Im konkreten Fall half es leider nicht, obwohl es Erfolg vermeldete.

Windows: ext2- oder ext3-Partitionen erstellen und formatieren

$
0
0

Wie man unter Windows auf Linux-typische ext2- oder ext3-Dateisysteme zugreifen kann kann hatte ich bereits in der Vergangenheit beschrieben bzw. erwähnt:

Windows: Zugriff auf Linux-Partitionen

Linux-Dateisystem unter Windows einbinden

Möchte man nun solche Partitionen unter Windows erzeugen, benötigt man ein anderes Werkzeug.

Dieses Vorhaben gelingt z.B. mit MiniTool Partition Wizard, die Free Edition reicht dafür aus:

MiniTool Partition Wizard Free Edition

Dieses gibt es auch portable:

MiniTool Portable Partition Magic

Bei Techovity wird darüber hinaus neben MiniTools noch der EasyUs Partition Master erwähnt:

How To Create ext2/ext3 based Linux partition from Windows

Im aktuellen Testfall klappte alles mit MiniTools-Lösung schnell und einfach. Initiiert wurde das Ganze durch einen Versuch, die Performance von FRITZ!NAS etwas zu verbessern (NTFS wird eher schlecht unterstützt bis FRITZ!OS 6.x, daher sollte es ext2 sein):

Offiziell wird bei AVM kein ext2 oder höher erwähnt, funktionieren tut es dennoch, wie dieser Screenshot einer FRITZ!BOX 7490 zeigt:

Viewing all 2168 articles
Browse latest View live