Cloud-Backup virtueller Hyper-V-Maschinen über das Internet

Sind Sie auf der Suche nach einer Cloud-Backup-Lösung für virtuelle Maschinen mit Hyper-V?

Schauen Sie sich dieses Cloud-Backup für virtuelle Maschinen für Hyper-V an. Die Preise sind nicht nur wettbewerbsfähig, sondern auch allumfassend. Zusätzlich zum Cloud-Backup können Sie Ihre eigenen lokalen und Netzwerk-Backups einrichten, mit oder ohne Komprimierung und Verschlüsselung, und das ohne zusätzliche Kosten.
Cloud backup enthält eine proprietäre Technologie, die Backups von virtuellen Hyper-V-Maschinen selbst über langsame Bandbreitenverbindungen erheblich beschleunigt, und die integrierte Deduplizierung sorgt dafür, dass Ihre inkrementellen Backups die kleinstmögliche Größe haben. Diese Technologie bietet also zwei große Vorteile: schnellere Cloud-Backups und 95 % weniger Speicherplatzverschwendung. Dies wird dadurch erreicht, dass nur der Teil des Inhalts der virtuellen Festplatte hochgeladen wird, der sich zwischen den Sicherungszyklen geändert hat.

Wie sieht es mit der technischen Unterstützung aus? Viele Anbieter betreiben Preisdumping, bieten aber nach dem Verkauf keinen Service an. Der Zugang zum technischen Support vor Ort ist besonders wichtig, wenn Sie schnell Hilfe benötigen. Unser Team steht Ihnen nicht nur in Notfällen zur Verfügung, sondern nimmt sich auch die Zeit, um mit Ihnen Backup-Strategien zu besprechen, die die beste Lösung für Ihre spezifische Infrastruktur und Ihre Bedürfnisse bieten.

Informieren Sie sich noch heute über diese Cloud-Backup-Lösung und wenden Sie sich an unser Vertriebs- oder Technikteam, um Vorschläge zu erhalten, die perfekt auf Ihre Bedürfnisse zugeschnitten sind - und das zu den geringstmöglichen Kosten.


Ist Veeam ein russisches Unternehmen? Ist Veeam eine Hintertür für Putin?

Es ist März 2022 und wir könnten in den Dritten Weltkrieg verwickelt sein und es noch nicht einmal wissen. Zumindest scheint dies zum jetzigen Zeitpunkt ein sehr wahrscheinliches Ergebnis zu sein. Alle westlichen Volkswirtschaften sprechen über Sanktionen gegen Russland, um die russische Wirtschaft auszuhungern. Die Hoffnung ist, dass diese Sanktionen so viel wirtschaftliche Not verursachen werden, dass die russische Führung den Krieg freiwillig beendet.

Abgesehen davon, was die Regierungen tun, um Russland zu boykottieren, ist es nicht auch wichtig, wo Sie Ihr Geld ausgeben? Was können wir tun, um zur Beendigung dieses Krieges beizutragen? Ich denke, dass es sehr wohl eine Rolle spielt, wo wir unser Geld ausgeben, da der größte Teil des Handels wirklich mit dem Verbraucher beginnt.
Vorgeben, ein lokales Unternehmen zu sein, um Dollars direkt nach Russland zu pumpen

Die Europäer hatten keine Ahnung: Sie heizen ihr Haus und schicken ihr Geld direkt an Putin. Wie das? Der größte Teil des Gases in Europa kommt aus Putinland. Und die meisten Europäer waren ahnungslos, dass sie all die Jahre einen Diktator unterstützten. Jetzt können sie sich bei ihren korrupten Politikern dafür bedanken, denn sie können nicht einmal das Gas abstellen. Putin hat sie an den Eiern. Wie konnte das passieren? Jahrelange Lobbyarbeit durch den ehemaligen deutschen Bundeskanzler Schröder hat offenbar den Ausschlag gegeben. Gut gemacht, Putin!

Aber man muss nicht lange suchen, um weitere Beispiele zu finden. Es gibt viele ausländische Unternehmen im Land, die vorgeben, einheimisch und im Westen beheimatet zu sein, aber in Wirklichkeit sind sie es nicht. Eines von ihnen scheint Veeam zu sein. Ich spreche hier nicht nur von ein bisschen Outsourcing.

Das Forbes Magazine stellt fest, dass "... das gesamte Backoffice von Veeam Software" in Russland angesiedelt ist! (Forbes Magazine). Das sollten Sie vielleicht zweimal lesen.

Selbst wenn das Unternehmen angibt, dass sich sein Hauptsitz hier im Westen befindet, ist das wahrscheinlich nur eine Fassade. Ihr gesamtes Backoffice befindet sich in Russland! Ich habe mir das nicht ausgedacht. Das ist ein Geschäftsgebaren, das mich an ein Trojanisches Pferd erinnert, nicht wahr 😉 Man denkt, man kauft von einem einheimischen Unternehmen, aber offensichtlich profitieren nur die Investoren und die Verkäufer hier von der Transaktion. Der größte Teil der Belegschaft sitzt im Ausland, und zwar nicht irgendwo, sondern komplett in Russland!

Ein weiteres Beispiel ist Kaspersky. Erst vor wenigen Tagen haben wir gelesen, dass "Deutschland eine Hackerwarnung für Nutzer der russischen Antivirensoftware Kaspersky herausgibt". Acronis ist ein weiteres Softwarepaket, bei dem viele Leute bezweifeln, dass es wirklich im Westen betrieben wird. Ich habe die Leute schon vor Jahren auf die Sicherheitsrisiken von Kaspersky hingewiesen. Jeder, der kritisch denkt, wird schnell erkennen, dass Sabotage in der IT-Welt sehr real und sehr lebendig ist. Fragen Sie jemanden, der Opfer eines Ransomware-Angriffs geworden ist, wenn Sie wissen wollen, wie sich das anfühlt.
Einige Leute haben ernsthafte Sicherheitsbedenken... und sie könnten Recht haben

Ein weiteres Problem ist, dass einige Experten Sicherheitsbedenken haben: Ist es nicht ein wenig riskant - ich möchte nicht das Wort "verrückt" verwenden -, einer russischen Software Zugriff auf 100 % Ihrer vertraulichsten Geschäftsdokumente zu geben? Diese Entscheidung überlasse ich Ihnen. Die Deutschen dachten auch, dass der Kauf von russischem Gas eine wirtschaftlich vernünftige Entscheidung sei. Schließlich haben die Politiker mit dem Gasgeld viele Taschen gefüllt.

Aber da ich seit Jahrzehnten im Bereich der IT-Sicherheit tätig bin, kann ich Ihnen versichern, dass es technisch nicht sehr schwierig ist, ein stilles und schlafendes "Trojanisches Pferd" in ein Softwarepaket einzubauen und es bei Bedarf aus der Ferne zu aktivieren. Denken Sie daran, dass dies schon unzählige Male geschehen ist, z. B. in Form von Ransomware, Malware, Viren usw., aber jetzt, im Krieg, würde dies eine ganz neue Wendung bedeuten.
Putins potenzielle IT-"Atombombe": Sollen wir den Russen uneingeschränkten Zugang zu Ihrem Netzwerk, Ihren Servern und all Ihren Geschäftsdokumenten gewähren?

Stellen Sie sich das einmal vor: Putin könnte einfach einen Knopf drücken, und Tausende von Servern im Westen würden innerhalb von Minuten offline gehen. Exabytes an wichtigen Geschäftsdokumenten könnten in Minutenschnelle verschlüsselt oder vernichtet werden. Das wäre wie die IT-Version einer Atombombe. Übrigens haben wir ähnliche Angriffe in der Welt der Ransomware in den letzten Jahren schon oft erlebt, so dass der Gedanke nicht nur ein imaginäres Weltuntergangsszenario aus einem Science-Fiction-Film ist. Wie würde er das anstellen? Eigentlich ist es ganz einfach.

Bei Backup-Lösungen handelt es sich nicht nur um typische PC-Standardsoftware wie Microsoft Office: Backup-Lösungen haben systemweiten, organisationsweiten, totalen, 100 % uneingeschränkten Zugriff auf alles.

Würden Sie einem beliebigen Mann auf der Straße Ihre Hausschlüssel geben? Wenn Sie Software aus Russland herunterladen, die system- und unternehmensweiten Zugriff hat, geben Sie die Schlüssel an jemanden weiter, den Sie nicht einmal kennen. Und der Schaden tritt nicht unbedingt sofort ein. Eine Infektion kann jahrelang unentdeckt bleiben, bevor die Malware aktiviert wird.

Theoretisch könnte Russland mit Hilfe der Software, die Sie auf Ihren eigenen Servern installiert haben, alle Ihre Server und Dateien mit einem einzigen Klick aus der Ferne ausschalten und zerstören. Ein Blick auf die Software, den Task-Manager, die bisherige Leistung und sogar auf die Netzwerkspuren reicht nicht aus, um festzustellen, ob es sich um ein echtes Risiko handelt oder nicht. Es kommt also auf das Vertrauen an.

Haben wir Beweise? Bisher nicht. Die Wahrheit ist, dass absolut niemand das Gegenteil beweisen kann. Selbst wenn Sie den angeblichen Quellcode von Veeam, Kasperky oder einem anderen Unternehmen hätten, wüssten Sie nicht, was die Binärdateien enthalten. Sie können Ihr Netzwerk auf verdächtigen Datenverkehr überwachen, aber das hilft nicht, wenn das trojanische Pferd inaktiv ist und auf ein Aktivierungssignal wartet.

Woher könnte dieses aktivierende Signal kommen? Clevere und hinterhältige IT-Kryptografie kann für fast alles missbraucht werden. Es könnte sich in einer Software-Aktualisierungsanforderung verstecken, die vor einiger Zeit heruntergeladen wurde. Sie könnte sich in einer harmlos aussehenden Remote-Zeitstempelprüfung verstecken. Die Software muss nicht einmal eine Verbindung zu russischen Servern herstellen. Sie könnte eine Verbindung zu einer harmlos aussehenden, genehmigten, weiß gelisteten Domain herstellen, die die Russen indirekt kontrollieren. Sie könnten sie in Amazons Cloud hosten und alle geografischen Beschränkungen leicht umgehen. Der Server könnte dann mit einer harmlos aussehenden Antwort antworten, die die Zerstörung bei den Empfängern über die zuvor implantierte Malware auslöst. Die Wahrheit ist, dass Malware-Autoren extrem clever sind, und aus irgendeinem Grund scheinen Russland und China viele von ihnen zu haben.

Will ich damit sagen, dass Veeam unter der Kontrolle von Putin steht, dass es Malware enthält oder dass seine Mitarbeiter etwas Illegales oder Hinterhältiges tun? Nein, absolut nicht.

Aber warum sollten Sie russische Unternehmen (und ihre Diktatur) unterstützen, warum sollten Sie riskieren, ihre Software zu installieren und ihnen die Schlüssel zu Ihrem Unternehmen zu überlassen? Um ein paar Kröten zu sparen? Diese Mentalität der Kostenreduzierung und die völlige Blindheit gegenüber ihren langfristigen Auswirkungen könnten eines Tages zu unserem Untergang beitragen...

Warum sollte man irgendetwas vertrauen, das von Unternehmen und Arbeitnehmern kommt, die in einem Land tätig sind, das von einem totalitären Regime kontrolliert wird, das obendrein nukleare Drohungen gegen unser Land und unsere NATO-Verbündeten ausspricht?
Ist Veeam also ein russisches Unternehmen?

Wenn Sie also Veeam kaufen, wohin fließt das Geld wirklich? Auf dem Papier kann jeder auf der Welt mit wenig Geld innerhalb weniger Stunden ein Unternehmen gründen. Bedeutet das, dass es ein echtes lokales Unternehmen ist? Spielt es keine Rolle, wo die Arbeit geleistet wird und wie viel davon in unserem Land?  Aus steuerlichen und rechtlichen Gründen spielt das kaum eine Rolle. Aber aus vielen anderen Gründen ist es meiner Meinung nach wichtig.

Ich ziehe es vor, Produkte zu kaufen, die in meinem eigenen Land hergestellt werden, die hier hergestellt werden, und die Menschen zahlen hier ihre Steuern, und sie geben ihr Geld hier aus, um andere lokale Unternehmen und damit die Arbeitnehmer zu unterstützen. In einer gesunden Wirtschaft ist Geld für alle da. Ich bin kein Freund davon, Diktaturen zu unterstützen.

Die Frage, ob Veeam de facto ein russisches Unternehmen ist und ob es wirklich keine Verbindungen zur russischen Regierung hat, müssen Sie selbst entscheiden.  Es ist keine "Russophobie", Produkte und Dienstleistungen aus Russland abzulehnen.

Wir beziehen Stellung, um "Putin nicht zu unterstützen" und dazu beizutragen, den Krieg in der Ukraine so schnell wie möglich zu beenden und auch das Risiko eines Dritten Weltkriegs zu verringern.

Warum wählen Sie nicht ein anderes Produkt, das Sie nicht solchen Risiken aussetzt? Unser Land hat eine Menge zu bieten. Die US-Regierung nutzt McAfee schon seit geraumer Zeit, also hat sie eine Entscheidung in die richtige Richtung getroffen. Hungern Sie die Diktatoren aus, stärken Sie Ihre eigene Wirtschaft, und setzen Sie auf sichere und vertrauenswürdige Unternehmen in Ihrer Nähe, indem Sie vor Ort einkaufen.

Wenn Sie an Ihr Land glauben und Ihr Land und die Arbeitsplätze aller schützen wollen, dann kaufen Sie nur in Ihrem Land.

So einfach ist das.





Wie man einen Ordner in Windows Defender von einer Batch-Datei ausschließt

Für diejenigen unter Ihnen, die immer noch Skripte wie in den guten alten Zeiten mögen, hier ein Beitrag für Windows Defender.

Der Befehl zum Ausschließen eines Ordners in Windows Defender wird unten gezeigt. Der Aufruf der PowerShell kann aus einer Batch-Datei wie folgt erfolgen:

powershell -Command Add-MpPreference -ExclusionPath "C:\FolderToExclude"

Sie können mehrere dieser Befehle nacheinander ausführen oder stattdessen die PoweerShell-Skriptdatei aufrufen:

PowerShell c:\scripts\mypowershellfile.ps1
Hyper-V Backup

Nachteile der Veeam Backup Software & Probleme mit Veeam

Nachfolgend finden Sie eine Liste der Nachteile von Veeam Backup Software. Diese Probleme mit Veeam sind Meinungen, die von Veeam-Benutzern im Laufe der letzten Jahre gemeldet wurden.

Die Lizenz ist teuer
Sie drängen auf ein jährliches Abonnement anstelle einer unbefristeten Lizenzierung
Es ist schwierig, die Preisgestaltung für Lizenzen zu finden, zu bestimmen und zu verstehen
Sehr große Downloads erforderlich
Langwierige Installation, Installation mehrerer Dienste
Hohe Lernkurve erforderlich
Es ist schwierig, den Sicherungsspeicher von einem Gerät auf ein anderes zu verschieben
Unübersichtliche Benutzeroberfläche, reagiert nicht schnell genug
Lässt sich nicht gut mit Open Source NAS integrieren
Backups sind zu langsam
Begrenzte Unterstützung für physische Server und PCs
Benutzeroberfläche nicht so benutzerfreundlich
Benutzeroberfläche erfordert Zeit zum Erlernen
Laufwerksrotation ist schwierig einzurichten
Eingeschränkte Fähigkeit, Aktionen zu automatisieren, wenn Aufgaben fehlschlagen
Klonen von Aufgaben ist nicht möglich
Die Komprimierung ist nicht gut genug
Lokale Backup-Funktionen sind unzureichend
Insgesamt sehr kompliziert zu bedienen
Erfordert eine gründliche Online-Schulung
Wir hatten Schwierigkeiten bei der Wiederherstellung von VMs auf neuen Hosts
Verschlüsselungsfunktionen für Backups sind unzureichend
Fehlende Möglichkeit zur Konvertierung virtueller Image-Formate
Schwierig, externe Laufwerke zu verwalten
Unverständliche Fehlermeldungen
Die Installation ist nicht intuitiv
Sicherung auf FTP ist unzureichend
Datendeduplizierung ist schwierig zu implementieren
Updates sind nicht einfach zu finden und herunterzuladen
Die Installation dauert sehr lange
Verlangsamt das Starten des Servers
Langsames Mounten von Sicherungszielen
Sicherung und Wiederherstellung sind generell langsam
Fehlerbehebung bei der Datensicherung ist schwierig
Die Funktionen zur Drosselung der Bandbreite sind unzureichend
Sicherungsaufträge werden nicht schnell genug beendet
Deduplizierung muss verbessert werden
Die Funktionen zum Kopieren von Dateien sind unzureichend
Das Auffrischen alter Backups schlägt manchmal fehl
Die Unterstützung für Umgebungen ohne Domänenserver ist unzureichend
Timeout-Probleme sind häufig anzutreffen
Zu viele Bilder, zu viele Grafiken, zu lange Ladezeit des Bildschirms über Remote Desktop
Zusätzliche Funktionen sind teuer
Verwirrende Aufbewahrungsrichtlinien
Fehleranfällig bei Zeitplanungskonflikten
Das Entfernen von Snapshots ist tendenziell langsam
Fehlermeldungen sind oft zu allgemein und unspezifisch
Begrenzte Kontrolle über die Nutzung des Sicherungsspeichers
Gelegentliche Probleme mit inkrementellen Sicherungen (z. B. unterbrochene Sicherungsketten) können zu Datenverlusten führen
Inkrementelle Deltas sind im Vergleich zu anderen Tools zu groß
Die Unterstützung für PCs und Workstations ist begrenzt
Keine P2V-Konvertierungsfunktionen
Die Reaktionszeit des technischen Supports kann ein Problem darstellen
Physische Backups sind komplizierter als virtuelle
Dokumentation ist manchmal unzureichend
Generell schwierig zu implementieren
Die Dokumentation ist manchmal schwer zu verstehen
Erweiterte Optionen sind manchmal schwer zu finden
Physische Backups funktionieren nicht so gut
Cloud-Backup ist nicht so einfach einzurichten

Ist es an der Zeit, sich nach einer Veeam-Alternative umzusehen? Sehen Sie sich stattdessen BackupChain an:

    Erschwingliche Lizenzierung für kleine Unternehmen
    Unbefristete Lizenzen, keine Jahresabonnements
    Einfach zu installieren
    Sehr kleiner Download
    Einfache und übersichtliche Benutzeroberfläche
    UI lädt schnell bei Fernverbindungen
    Schnelle Sicherung und Wiederherstellung
    Einfache Sicherung und Wiederherstellung von physischen und virtuellen Maschinen
    FTP- und Cloud-Backups
    Backups auf Dateiebene
    Automatisierung mit externen Dienstprogrammen/Software
    Detaillierte Protokollierung und Nachverfolgung
    Zentralisierte Konsole
    Reaktionsschneller technischer Support
    Viele erweiterte Backup-Funktionen für fortgeschrittene IT-Profis
    Geplantes Klonen von Festplatten, Disk Imaging
    Backup-Funktionen für virtuelle Maschinen auf verschiedenen Plattformen
    Konvertierung von P2V, V2V, V2P und V2V, wie z.B. Hyper-V zu VMware zu VirtualBox in allen Kombinationen
    100% basiert und hergestellt in den USA

Möchten Sie BackupChain ausprobieren?
Laden Sie es hier herunter.


Warum in die Verifizierung und Validierung des Backup-Prozesses und der Backup-Daten investieren?

In diesem Artikel möchte ich ein neues Software-Tool und seinen Zweck für die Backup-Validierung besprechen (Backup Software). Viele Fachleute, die noch keinen totalen Datenverlust erlebt haben, gehen davon aus, dass die digitale Speicherung perfekt ist und die digitalen Geräte immer einwandfrei funktionieren; die Realität sieht jedoch ganz anders aus. Die Speicherung wird immer dichter und eine Festplatte enthält mehr Informationen als je zuvor. Gleichzeitig sinkt die Fehlerquote nicht dramatisch, so dass die Wahrscheinlichkeit eines Ausfalls pro Gerät in den letzten Jahren sogar gestiegen ist. Darüber hinaus sind andere Bedrohungen für Datenverluste häufiger geworden. Ransomware, Malware und Vandalismus durch unzufriedene Mitarbeiter sind beispielsweise externe Ursachen für Datenverluste, während Bitfäule, Festplatten- und RAM-Defekte das Gerät selbst betreffen.
Ein weiterer Trend der letzten Jahre ist die Verwendung von inkrementellen Backup-Schemata, um den Backup-Prozess zu beschleunigen. Was viele Fachleute leider nicht wissen, ist, dass inkrementelle Backups eine Abhängigkeit zum vorherigen Backup einführen. Wenn ein Backup in der Kette von Backups aus irgendeinem Grund beschädigt wird, wird die gesamte Kette oder zumindest Teile der Backup-Kette unlesbar. Der eigentliche Grund, warum das inkrementelle Schema populär wurde, ist, dass die Festplattenhersteller trotz der Fortschritte beim Speichervolumen die Durchsatzgeschwindigkeiten nicht im gleichen Tempo und mit der gleichen Technologie steigern konnten. SSD-Speicher haben eine viel bessere Durchsatzrate, aber leider auch eine viel höhere Fehlerrate, sowie einen viel schnelleren Verschleiß. Zellen in SSD-Laufwerken nutzen sich schnell ab und werden automatisch durch Ersatzzellen im Laufwerk selbst ersetzt. Der Prozess der Erkennung einer "bald ausfallenden Zelle" wird jedoch normalerweise aufgeschoben, bis die Zelle tatsächlich gelesen wird, was bei Backup-Laufwerken typischerweise nicht oft vorkommt.

Backup-Verifizierung
Das oben genannte Tool bietet Optionen zur Verifizierung von Backup-Dateien unmittelbar nach deren Fertigstellung. Diese Funktionen umgehen das Windows-Zwischenspeichersystem, um sicherzustellen, dass die Datendatei tatsächlich von der Festplatte zurückgelesen wird, auf der sie gespeichert wurde. Einzigartig an dem obigen Tool ist die Fähigkeit, dasselbe auch für Remote-Speicher zu tun. Die Daten werden erneut heruntergeladen, um sicherzustellen, dass jede Datei korrekt verarbeitet wurde. Es gibt zusätzliche Optionen, um diesen Schritt auf Dateien bis zu einer bestimmten Größe zu beschränken.

Backup-Validierung
Die einzigartigen Backup-Validierungsfunktionen des oben genannten Tools ermöglichen es dem Benutzer, Dateien zu validieren, lange nachdem sie verarbeitet wurden. Stellen Sie sich folgendes Szenario vor: Ein typischer Dateiserver eines kleinen Unternehmens enthält mehrere Terabytes an Dateien und Ordnern, typischerweise etwa 10 Millionen Dateien oder mehr. Typischerweise werden weniger als 1 % dieser Dateien im Laufe der Zeit geändert, insbesondere nach etwa einem Monat nach der letzten Bearbeitung. Im Durchschnitt ruhen diese Dateien jahrelang, ohne dass jemals darauf zugegriffen wird. Bitfäule, Festplattendefekte, Malware und einfache Löschungen oder Dateiveränderungen durch einen verärgerten Mitarbeiter können unbemerkt bleiben, bis Jahre später die Festplatten des Dateiservers komplett ausfallen und eine vollständige Wiederherstellung erforderlich ist. Wie kann ein solch großer Datenbestand effizient validiert werden?
Die oben genannte Software bietet eine einzigartige Lösung für dieses Problem, bei dem täglich Terabytes an Daten gesichert werden. Die Software verwendet eine Validierungsfunktion, die eine zufällige Validierung eines Prozentsatzes der Sicherungsdateien bei jedem Sicherungszyklus ermöglicht. Sie können die Software beispielsweise so konfigurieren, dass nur 1 % aller Sicherungsdateien Ihres Dateiservers validiert werden. Wenn Ihr Dateiserver derzeit 1 Million Dateien enthält, wären das 10.000 zu überprüfende Dateien. Wenn Sie eine zufällige Auswahl von 1 % aller Sicherungsdateien validieren, würde es im Durchschnitt 100 Zyklen dauern, jede Datei zu validieren. Wenn das Backup 10 Mal pro Tag läuft, würde es 10 Tage dauern, den gesamten Backup-Satz zu validieren.
Während kleine Backup-Sets innerhalb von Stunden vollständig gesichert und validiert werden können, ist es bei Millionen von Ordnern und Dutzenden von Terabyte Speicherplatz nicht mehr möglich, das gesamte Set bei jedem Backup-Zyklus zu validieren, da der Datendurchsatz der Netzwerkverbindung und der von mechanischen Festplatten begrenzt ist. Als Kompromiss decken die Funktionen des Tools das gesamte Backup-Gerät ab, indem bei jedem Backup-Zyklus eine zufällige Teilmenge ausgewählt wird.
Das erneute Einlesen der Backup-Dateien ist kritisch, da dabei alle Zellen und Sektoren auf dem Laufwerk aktualisiert werden. Durch die Verwendung der Backup-Validierung des Tools werden Ihre Daten vom Laufwerk "aktualisiert", d. h. das Laufwerk wird gezwungen, die Sektoren erneut zu überprüfen und bei Bedarf interne Reparaturen durchzuführen. Wenn Reparaturen nicht mehr möglich sind, sendet das Laufwerk ein Signal an Windows und das Tool protokolliert das Problem und sendet Warnmeldungen, um Sie über das Problem zu informieren. Darüber hinaus verwendet die Software Prüfsummen und/oder führt einen 1:1-Vergleich mit der Originaldatei durch, um den Inhalt jeder Sicherungsdatei zu validieren. Daher ist die Backup-Validierung eine wichtige "Versicherung": Sie haben den wiederholten Beweis, dass alle Dateien in Ihrem Backup-Speicher tatsächlich noch gültig und lesbar sind (Ransomware backup software)


Ist Hyper-V besser als VMware?

Wir hören es oft, aber ist Hyper-V besser als VMware? Das ist eine gute Frage, die dieser Artikel unmöglich in allen Einzelheiten beantworten kann; wir werden uns jedoch ein paar gemeinsame Aspekte der beiden Virtualisierungsplattformen ansehen und sie miteinander vergleichen.
Das Tolle an Hyper-V ist, dass es mit Windows Server und sogar Windows 10 Professional ausgeliefert wird; wenn Sie es also ausprobieren möchten, müssen Sie nur die Hyper-V-Rolle in Ihrer Windows-Installation aktivieren. Im Gegensatz zu VMware ist es nicht notwendig, einen dedizierten Server zu verwenden, um als VMware-Host zu dienen; wenn Sie jedoch diese Art von Setup bevorzugen, ist Hyper-V auch als kostenloses Betriebssystem verfügbar, das für eigenständige, kleine Hypervisor-Hosts gedacht ist.
Hyper-V bietet eine bessere Windows-Integration. Es arbeitet perfekt mit Windows-Gastbetriebssystemen zusammen und Windows wird bereits mit den Treibern ausgeliefert, die es für die Virtualisierung innerhalb von Hyper-V-Servern benötigt. VMware hingegen hinkt immer hinterher, wenn es um die neuesten Windows-Versionen geht, so dass Sie möglicherweise eine Weile warten müssen, bis sie ihre Integrationstools aktualisieren.
Die meisten Anwender finden, dass Hyper-V bei weitem einfacher zu bedienen ist als VMware. Ein Grund dafür ist, dass die Benutzeroberfläche und das Betriebssystem so funktionieren, wie sie es gewohnt sind und nicht die Kommandozeile oder Konzepte aus der UNIX-Welt beinhalten. Da Hyper-V in Windows integriert ist, ist es auch viel einfacher, VM-Dateien zwischen dem Host und anderen Computern hin und her zu verschieben.
Hyper-V hat aber auch große Nachteile. Linux und andere nicht so populäre Betriebssysteme werden nicht so gut unterstützt, und einige Leute vermuten, dass dies absichtlich geschieht. Wenn Sie eine sehr gute Unterstützung für Linux- und UNIX-Gastbetriebssysteme benötigen, ist es ohne Frage am besten, VMware zu verwenden.
Sogar das PC-Produkt von VMware, VMware Workstation, schneidet bei obskuren Betriebssystemen viel besser ab als Hyper-V, aber es gibt noch einen weiteren großen Vorteil für PC-Anwender, VMware zu verwenden: Die Grafik und die Leistung auf PCs ist generell besser. Wenn Sie Spiele oder 3D-Grafik innerhalb der VM verwenden, wäre es sinnvoll, die Leistung auf VMware zu vergleichen, bevor Sie Ihre Entscheidung treffen.
Ein weiterer Nachteil von Hyper-V ist ebenfalls nicht überraschend: ältere Windows-Betriebssysteme werden in neueren Versionen von Hyper-V nicht gut unterstützt. Schließlich will Microsoft Betriebssysteme verkaufen, VMware hingegen nicht, so dass hier ein klarer Interessenkonflikt besteht, der sehr offensichtlich ist. Wenn Sie sehr alte Windows-Versionen ausführen müssen, können Sie sich auf VMware verlassen und darauf, dass sie diese Funktionalität noch viele Jahre länger unterstützen als Microsoft.
Wenn wir uns schließlich groß angelegte Implementierungen ansehen, stellen wir fest, dass die von VMware verwendete Technologie Hyper-V wahrscheinlich immer noch weit voraus ist. Während Microsoft schnell daran arbeitet, den Rückstand aufzuholen, werden die Unternehmenskunden sehr wahrscheinlich bei VMware bleiben, da sich das Unternehmen bei großen virtuellen Rechenzentren bewährt hat.
Unabhängig davon, ob Sie sich für Hyper-V oder VMware entscheiden, sollten Sie auf jeden Fall darüber nachdenken, wie Ihre virtuellen Maschinen gesichert werden sollen. Aber wie genau wird der Host Ihrer virtuellen Maschinen gesichert? Vielleicht möchten Sie einen Blick auf BackupChain werfen. BackupChain ist eine All-in-One-Backup-Lösung, die Hyper-V-Backup, VMware-Backup sowie Host-Festplatten-Backup bietet, um auch den Host zu sichern. Installieren Sie BackupChain einfach auf jedem Host und Ihre VMs werden nach einer schnellen und einfachen, zweiminütigen Einrichtung gesichert und geschützt.


Eine Analyse von Frederick Taylors Scientific Management

Frederick W. Taylor war der Begründer der Scientific Management Bewegung in den frühen 1900er Jahren. Als Maschinenbauingenieur entwickelte er ein Interesse an der Verbesserung der Effizienz in der Stahlindustrie, mit der er zu dieser Zeit am meisten vertraut war. Drucker (1974) bezeichnete Taylor als "... den ersten Menschen in der aufgezeichneten Geschichte, der die Arbeit für würdig hielt, systematisch beobachtet und studiert zu werden". Drucker fügte auch hinzu, dass, obwohl Taylor nur die Grundlagen der Managementlehre schuf, "[n]icht viel zu ihnen hinzugefügt wurde seither - obwohl er schon sechzig Jahre tot ist". Taylors eigene Publikation zum Scientific Management zeigt deutlich Taylors Begeisterung für Effizienz und die Wissenschaft der Arbeit, aber auch seinen persönlichen Charakter als Philosoph und Philanthrop. Taylor (1911) gibt seine altruistischen Motive gleich im ersten Satz seines Buches an, indem er betont, dass das Hauptziel des Managements die Maximierung des Wohlergehens des Arbeitgebers wie auch jedes einzelnen Mitarbeiters sein sollte.

Die wichtigste Voraussetzung für Wohlstand, ob für den Arbeitgeber, den Arbeitnehmer oder die gesamte Wirtschaft, ist Effizienz (Taylor, 1911, S. 11). Indem er seine eigene Belegschaft über Jahrzehnte hinweg analysierte, nennt Taylor zwei Hauptgründe, warum die Effizienz litt. Erstens fehlte es den Arbeitern an formaler Ausbildung und standardisierten, systematischen Fähigkeiten. Zweitens und am wichtigsten war Taylor absolut sicher, dass die meisten Arbeiter glaubten, dass die Beziehung zwischen Arbeitgeber und Arbeitnehmer notwendigerweise antagonistisch ist (S. 10). Er glaubte, dass die Arbeiter es als gegen ihr Interesse wahrnahmen, ihrem Arbeitgeber die volle Initiative zu überlassen. Nach Taylors Ansicht verbünden sich die Arbeiter gegen ihren Arbeitgeber und arbeiten auf einem minimalen Produktivitätsniveau, gerade hoch genug, um nicht gefeuert zu werden. Diese feindselige und kontraproduktive Weltsicht der Arbeiter wurde als "Soldatentum" bezeichnet, und Taylor glaubte, dass dies die Hauptursache für die Arbeitslosigkeit in England zu dieser Zeit war, da die Arbeiter ernsthaft glaubten, dass es gegen ihr eigenes Interesse sei, so hart wie möglich zu arbeiten.

Um die beiden Haupthindernisse zu bekämpfen, die dem Erreichen eines höheren Effizienzniveaus im Wege stehen, glaubt Taylor (1911), dass die Arbeiter zusätzliche Anreize brauchen, um volle Initiative zu zeigen. Die "besonderen Anreize" können den Arbeitern auf vielfältige Weise gleichzeitig angeboten werden: Zum Beispiel, indem man den Arbeitern einen großzügigen Stückpreis zahlt, indem man sie kürzer arbeiten lässt, indem man ihre Arbeitsbedingungen verbessert, indem man persönliche Rücksichtnahme zeigt und einen freundlichen Kontakt pflegt. Taylor behauptete, dass ein freundliches Interesse am Wohlergehen des Arbeiters einen großen Beitrag zur Erhaltung einer hocheffizienten und zufriedenen Belegschaft leisten kann.

Die wissenschaftliche Methode auf das Management angewandt

Die wichtigste Errungenschaft von Taylors Managementtheorie ist jedoch die Anwendung der wissenschaftlichen Methode auf das Management. Wie Drucker (1974) feststellte, war Taylor der erste, der Arbeitsaufgaben auf methodische und wissenschaftliche Weise beobachtete und analysierte. Taylor entdeckte die Notwendigkeit der Anwendung der Wissenschaft auf das Studium der Arbeit während seiner Karriere in der Stahlindustrie, wo er alle Funktionen und Ebenen in den Fabriken durchlief. Er erwähnt, dass es in einem typischen Stahlwerk über 30 verschiedene Gewerke gab und dass sich die Fähigkeiten der Handwerker evolutionär entwickelten und von Generation zu Generation weitergegeben wurden. Da es keine Einheitlichkeit der Fertigkeiten, keine systematische Kodifizierung oder Analyse der Arbeitsprozesse gab, war es üblich, dass jeder Arbeiter nur über Teilkenntnisse verfügte und ihm entscheidende Fähigkeiten fehlten, um sein Effizienzniveau zu steigern. Außerdem war die Zeit Anfang 1900 grundlegend anders als heute - das Bildungsgefälle zwischen Arbeiterklasse und höheren Gesellschaftsschichten war enorm größer als heute. Darüber hinaus wurde fehlendes Wissen als mangelnde Intelligenz interpretiert und diejenigen, die das Glück hatten, gebildet zu sein, verspotteten die weniger Gebildeten aufs Schärfste. Es war daher nicht ungewöhnlich oder überraschend, in Taylors Buch harsche Aussagen zu finden, wie z. B. diese: "...der Arbeiter ist so dumm, dass das Wort 'Prozent' für ihn keine Bedeutung hat" (Taylor, 1911, S. 59). Taylor erkannte jedoch, dass er neben der wissenschaftlichen Optimierung der Arbeitsprozesse auch die pädagogischen Probleme in den Griff bekommen musste, wenn Scientific Management ein Erfolg werden sollte.

Taylor (1911) legt fest, dass vier Hauptprinzipien befolgt werden müssen, um die Initiative der Arbeiter, die Einheitlichkeit und letztendlich eine höhere Effizienz zu erreichen. Erstens muss jede ausgeführte Arbeit in eine Reihe von Aufgaben zerlegt werden. Für jede Aufgabe muss eine Wissenschaft entwickelt werden, indem Maßnahmen ergriffen, standardisiert, systematisiert und Routinen geschaffen werden. Daumenregeln und Vermutungen müssen eliminiert werden. Zweitens müssen für jede Aufgabe die geeigneten Auswahlkriterien für die Mitarbeiter gefunden werden. Dann ist jeder Mitarbeiter sorgfältig auszuwählen, zu schulen und zu unterrichten, damit er die Aufgabe auf eine standardisierte Weise ausführt. Drittens liegt es sowohl in der Verantwortung des Managements als auch der Arbeiter, sicherzustellen, dass die Arbeit gemäß dem entwickelten System ausgeführt wird. Diese gleichmäßige Verteilung der Verantwortung zwischen Arbeiter und Manager soll sicherstellen, dass jeder Arbeiter die Aufmerksamkeit, das Training und die Unterstützung erhält, die für eine gute Leistung notwendig sind. Viertens impliziert die gleiche Verteilung von Arbeit und Verantwortung zwischen Arbeitern und Management auch, dass das Management die Arbeit übernehmen sollte, für die es besser geeignet ist als die Arbeiter (S. 36).

Diese vier Prinzipien stellten eine große Veränderung im Vergleich zu den üblichen, gewöhnlichen Managementstilen der frühen 1900er Jahre dar und erzielten zahlreiche Effizienzsteigerungen. Aufgaben wurden in Aufgaben standardisiert, was wiederum den Arbeitern und dem Management ermöglichte, sich auf jede Aufgabe vorzubereiten und die für die Erledigung notwendigen Ressourcen zu planen. Die Segmentierung der Arbeit in routinemäßige Aufgabensequenzen öffnete auch die Tür für systematisches Experimentieren und Aufgabenoptimierung durch Versuch und Irrtum und aufeinanderfolgende Iterationen, die Taylor mit großem Interesse durchführte. Die aufgabenbasierte Arbeit erlaubt es dem Management auch, Ressourcen nach Bedarf zuzuweisen und Arbeiter zu rotieren, um einen konstanten und vorhersehbaren Arbeitsablauf zu gewährleisten. Taylor richtete eine Planungsabteilung ein, um die Arbeit jedes Einzelnen im Voraus zu planen und dadurch Leerlaufzeiten zu minimieren und die Ressourcenzuweisung zu maximieren. Die systematische Optimierung jeder Aufgabe durch wissenschaftliche Methoden verringerte auch Schwankungen in der Produktion, was wiederum Fehler und Verschwendung reduzierte. Da die meisten Teile in einer Fabrik zu dieser Zeit noch von Hand gefertigt wurden, war diese Erkenntnis zur Minimierung der Varianz grundlegend für das Erreichen neuer Effizienzniveaus.

Höhere Gewinne für alle Stakeholder

Deutlich höhere Löhne, die gemeinsame Verantwortung und die verbesserte intime Zusammenarbeit zwischen Management und Arbeitern führten dazu, dass sich die Arbeiter gestärkt fühlten und das Gefühl, missbraucht zu werden oder Opfer kapitalistischer Ausbeutung zu sein, änderten; so arbeiteten sie härter und übernahmen mehr Verantwortung. Taylors Kombination seiner vier Prinzipien erreichte so eine deutlich höhere Produktivität der Betriebe. Es gelang ihm, die Wahrnehmung, dass das Management die Arbeiter ausbeutet, zu beseitigen, indem er ihnen einen höheren Lohnsatz zahlte und ihnen zusätzliche Anreize gab, härter zu arbeiten, und indem er die Arbeits- und Fertigungsmethoden systematisierte. Die Systematisierung der Arbeit in Verbindung mit der verstärkten Unterstützung und Schulung des Managements sorgte dafür, dass die Arbeiter produktiver wurden und die Interessen von Management und Arbeitern angeglichen wurden, indem der Antagonismus beseitigt wurde. Infolgedessen konnte Taylors Unternehmen einen höheren Durchsatz, mehr Gewinn und qualitativ hochwertigere Produkte erzielen. Unter Taylors altem Plan umfasste seine Belegschaft zwischen 400 und 600 Arbeiter und die Kosten pro Tonne Eisen betrugen 0,072 $. Diese Kennzahlen wurden drastisch auf 140 bzw. $0,033 gesenkt, während der Verdienst pro Mann und Tag von $1,15 auf $1,88 stieg, was etwa 60% über dem Marktpreis lag (Taylor, 1911, S. 71).

Taylors Erfolg war zum Teil auf die vier Prinzipien des wissenschaftlichen Managements zurückzuführen, aber auch auf Taylors offensichtliche Besessenheit von Effizienz und seinen Drang, jeden einzelnen winzigen Aspekt zu verstehen, der den Arbeitsablauf in seiner Fabrik verbessern könnte. Auf der Suche nach dem "universellen Gesetz", das beschreibt, wie viel "foot-pounds" an Energie ein Arbeiter aufwenden kann, bevor er ermüdet, experimentierte er mehrmals, jedoch ohne Erfolg. Sein Streben nach Effizienz wurde durch seine tief verwurzelte Überzeugung unterstrichen, dass es ein präzises und eindeutiges Gesetz geben muss, um einen vollen Arbeitstag eindeutig zu quantifizieren. Dieses Gesetz, oder zumindest eine Annäherung daran, wurde von Carl Barth, einem von Taylor angeheuerten Mathematiker, entdeckt. Er fand heraus, dass ein Arbeiter, der ein Gewicht von 92 Pfund trägt, dieses Gewicht nur für 43 % der Zeit halten kann; die anderen 57 % werden für die Ruhephase benötigt. Wenn das Gewicht verringert wird, kann die Haltezeit erhöht und damit die Ruhezeit verkürzt werden; daraus wurde gefolgert, dass angemessene Ruhezeiten entscheidend sind, um ein Höchstmaß an Effizienz zu erreichen, indem verhindert wird, dass die Arbeiter zu schnell ermüden (Taylor, 1911, S. 59). Taylor gibt ein Beispiel dafür, wie weit die Bemühungen zur Aufgabenanalyse gehen sollten, indem er den Unterschied erörtert, den eine Schaufelbelastung auf den Arbeiter haben kann, und vergleicht die Belastung mit der maximalen Arbeitsdauer, wenn eine Schaufel mit fünf, 10, 20 oder mehr Pfund auf einmal belastet wird (S. 65).


Die Notwendigkeit der Aufzeichnungspflicht

Taylors Vorstellung, dass "jede einzelne Handlung oder jeder Arbeiter auf eine Wissenschaft reduziert werden kann" (Taylor, 1911, S. 64), spiegelt sich auch in den außerordentlich detaillierten Aufzeichnungsbemühungen in seiner Fabrik wider. Die detaillierte Projektplanung, die von seiner Planungsabteilung geleitet wurde, erstellte im Voraus Zeitpläne und Aufgabenbeschreibungen für jeden einzelnen Arbeiter. Taylor erwähnt, wie ein ehemaliger Angestellter zu Taylor zurückkehrte und ihm erklärte, wie unproduktiv die Konkurrenten zu dieser Zeit waren und warum dieser Arbeiter deshalb im Konkurrenzwerk viel weniger verdiente. Der Mann berichtete, dass die Arbeiter in der Fabrik des Wettbewerbers in unbeaufsichtigten Banden arbeiteten und daher die Produktivität auf ein Minimum sank. Taylor kam zu dem Schluss, dass sie nur einen Bruchteil ihrer Ressourcen effizient nutzten, weil die Aufzeichnungen des Konkurrenten unzureichend waren und das Management die zusätzliche Arbeit der Vorausplanung für jeden einzelnen Arbeiter und jede seiner Aufgaben nicht machen wollte. Außerdem konnten sie aufgrund der fehlenden Aufzeichnungen nicht erkennen, dass durch die Zuweisung jedes Arbeiters zu einem separaten Wagen und die genaue Überwachung des Arbeitsfortschritts weitere Gewinne erzielt werden konnten (S. 77).

Qualitätsmanagement-Techniken

Bei genauerer Analyse lässt sich feststellen, dass Taylor tatsächlich den Grundstein für das Qualitätsmanagement legte, indem er sich auf Effizienz, kontinuierliche Verbesserung und die Verteilung des Wohlstands an alle Beteiligten in der Organisation konzentrierte. Zunächst betonte er, dass selbst scheinbar einfache und bewährte Fertigkeiten wie das Maurerhandwerk weiter optimiert werden können, selbst für einen erfahrenen Maurer, indem seine Bewegungen schneller, kürzer und weniger ermüdend werden (S. 80). Dann erkennt Taylor die Notwendigkeit der persönlichen Verantwortlichkeit an, die auch heute noch eines der entscheidenden Elemente im Qualitätsmanagement ist, besonders wenn die Produktionsmenge erhöht wird. Er schlug vor, "es unmöglich zu machen, ihre Arbeit zu vernachlässigen, ohne entdeckt zu werden" (S. 90) und empfahl den Fabrikleitern, anonyme Inspektionen einzurichten, damit die Inspektoren nicht wissen, wessen Arbeit sie inspizieren. Um die Inspektoren bei der Stange zu halten, würde ein Vorarbeiter der Charge mehrere fehlerhafte Teile zuführen und später die Genauigkeit des Inspektors aufzeichnen (S. 91). Taylor reduzierte damit die Variation durch eine Kombination von Strategien, die auch in den heutigen statistischen Qualitätstechniken erhalten bleiben (Bothe, 2003).

Entdeckung der Notwendigkeit von Ruhepausen

Taylor beobachtete, dass durch die Verkürzung des Arbeitstages einer Gruppe von Frauen, die in seiner Fabrik arbeiteten, deren Output tatsächlich stieg und die Qualität sich erheblich verbesserte (Taylor, 1911, S. 92). Er bot ihnen zunächst kürzere Arbeitszeiten bei gleichem Lohn an und arrangierte später durch gezielte Experimente und Zusicherungen, dass ihr Lohn gleich bleibt, dass die Frauen nach jeweils 90 Minuten Arbeit eine Pause machen. Die Anordnung von 12 Minuten Pause pro Stunde funktionierte am besten, da sie zu einer höheren Konzentration führte. Um eine höhere Genauigkeit bei höherer Produktion zu fördern, kombinierte Taylor weiterhin die Lohnsätze in Abhängigkeit von Quantität und Qualität der Arbeit der Frauen und minimierte damit drastisch die Kosten pro Stück (S. 93). Der Gewinn für die Frauen war ebenso groß: Ihr Arbeitstag wurde von 10,5 auf 8,5 Stunden verkürzt, ihr Einkommen stieg auf 80 bis 100 % über das ihrer vorherigen Arbeit, und jeden Monat wurden zwei aufeinanderfolgende Ruhetage bezahlt (S. 95). Es wurde behauptet, dass Henry Fords Entscheidung, 1926 die 40-Stunden-Woche einzuführen, durch ähnliche Beobachtungen inspiriert wurde (Nyl, 1995).

Wissenschaftliches Management und aktuelle Managementprinzipien im Vergleich

Es kann argumentiert werden, dass Taylors Studien und Veröffentlichungen die Grundlage für die späteren Lehren des Qualitätsmanagements legten, die von Juran, Deming und anderen theoretisiert wurden. Taylors Philosophie ist jedoch noch weitreichender als seine vier Prinzipien, obwohl es erhebliche Überschneidungen gibt. Taylor betonte, dass sich das Management auf Wissenschaft und nicht auf Daumenregeln oder Vermutungen stützen sollte, dass Harmonie statt Zwietracht angestrebt werden sollte, dass Kooperation gefördert und Individualismus negiert werden muss und dass anstelle von begrenztem Output der maximale Output angestrebt werden sollte (Taylor, 1911, S. 140). Darüber hinaus geht Taylors Philosophie aber sogar über einige der heutigen Managementlehren hinaus. Taylor betonte, dass jeder Mensch zu größtmöglicher Effizienz und Wohlstand entwickelt werden sollte. War Taylor angesichts seines tiefen Verständnisses der menschlichen Motivation ein Pionier in der Vorstellung von der Selbstverwirklichung der Belegschaft?


Taylors philanthropischer Charakter wird in seiner Begründung für höhere Effizienz noch einmal unterstrichen. Taylor stellt fest, dass ein höheres Maß an Effizienz zu größerem Wohlstand für das gesamte Land führt, da die Öffentlichkeit letztlich am meisten von der Produktivitätssteigerung profitiert (Taylor, 1911, S. 141). Taylor unterstützt seine tiefgründige Beobachtung über wettbewerbsfähige Marktkräfte mit Beispielen, wie die industrielle Revolution der Menschheit weltweit zugute kam. Seine Argumentation, wie höhere Effizienz zu mehr Wohlstand für alle Beteiligten, einschließlich der Öffentlichkeit, führt, ähnelt auf einer abstrakten Ebene Michael Porters Rahmenwerk der "fünf Kräfte".

Taylor war ein Analytiker und Optimierer. Er analysierte jede Aufgabe und optimierte dann die Schritte, um die Effizienz und den Arbeitsablauf zu erhöhen. Taylors Bemühungen um mehr Planung, Standardisierung und Produktivität sind heute die Grundlage von Theorien und Richtlinien des Qualitätsmanagements, wie z. B. Six Sigma (Drake, Sutterfield, & Ngassam, 2008). Im Gegensatz zu Taylor und den nachfolgenden traditionellen Methoden beziehen moderne Qualitätssysteme das Verständnis der Kundennachfrage in ihre Definition von Qualität ein. Taylor war ein Pionier zur Stärkung der kontinuierlichen Verbesserung und Standardisierung, die nach wie vor wesentliche Strategien der heutigen Qualitätsideologien sind, und seine Beobachtungs- und Messverfahren wurden später durch statistische Methoden zur Steuerung und Quantifizierung von Qualität ersetzt. Die aktuelle Forschung unterstützt auch Taylors Ansicht, dass Mitarbeitermotivation und kontinuierliche Verbesserung sich gegenseitig verstärkende Phänomene sind (Cheser, 1998).

Jabnoun (2000) und Boje und Winsor (1993) argumentieren, dass Total Quality Management (TQM) als eine Form des Taylorismus interpretiert werden kann; dies würde jedoch nur für sogenannte mechanistische Managementstrukturen in der Organisation gelten, die typischerweise sehr formal, zentralisiert und ziemlich komplex sind. Während solche Managementstrukturen in den frühen 1900er Jahren in industriellen Produktionsumgebungen funktioniert haben, brauchten zukünftige Industrien eine flexiblere Managementstruktur. Organische Organisationen entstanden in der Mitte des 19. Jahrhunderts und beinhalten typischerweise weniger Formalismus und erfordern mehr Kommunikation zwischen den Abteilungen. Organische Strukturen sind heute besser geeignet, um komplexe Probleme zu lösen, die eine flexible Umstrukturierung der Belegschaft in Verbindung mit einer intensiven Interaktion zwischen Mitarbeitern, Management, Kunden und Partnerorganisationen erfordern.

Taylors Prinzipien und ihre Relevanz in heutigen Organisationen

 

Taylor stellte fest, dass sich das Management intensiver mit der Motivation der Mitarbeiter beschäftigen muss (Taylor, 1911, S. 119). Eine entscheidende Beobachtung, die Taylor machte, ist, dass es nicht möglich ist, Mitarbeiter dazu zu bringen, ihren Durchsatz zu erhöhen, wenn ihr Einkommen nicht erheblich und dauerhaft erhöht wird (S. 121). Heutige Organisationen können eine Vielzahl von Vergünstigungen anbieten, um Mitarbeiter zu locken und zu halten; das Einkommen ist jedoch nach neueren Untersuchungen immer noch der Hauptmotivator der Mitarbeiter (Rynes, Gerhart, & Minette, 2004).

Taylor bemerkte jedoch auch, dass andere Faktoren zur Mitarbeitermotivation beitragen. Er segmentierte jede Aufgabe so, dass sie in einen Tag passte, so dass die Mitarbeiter ihren eigenen Fortschritt selbst messen und ein Gefühl der Erfüllung verspüren konnten (S. 120) und ermutigte die Arbeiter, sich kontinuierlich zu verbessern, indem sie ihre eigene Originalität nutzen, um das Wissen der Organisation zu erweitern. Die Zusammenarbeit zwischen Management und Arbeitern wurde weiter gestärkt, indem die Arbeiter ermutigt wurden, Vorschläge einzureichen, und indem sie den Mitarbeitern volle Anerkennung zollten und ihnen für wertvolle Verbesserungen eine Geldprämie zahlten (S. 128). Taylors Managementstil nutzte also das menschliche Bedürfnis nach persönlicher Entwicklung und Wachstum, indem er die Mitarbeiter inspirierte und motivierte (Cheser, 1998). Organisationen, die heute die Kaizen-Philosophie anwenden, verwenden vielleicht fortschrittlichere statistische Techniken; dennoch ist das Kaizen-System eng mit dem wissenschaftlichen Managementgedanken verbunden.

Taylors Prinzipien und Philosophie wurden in den heutigen Qualitätsmanagement-Ideologien, wie Total Quality Management (TQM) und Six Sigma, um Teamarbeit in der gesamten Organisation, Kunden- und andere Stakeholder-Fokus und fortschrittliche statistische Techniken erweitert. Die wichtigsten Verallgemeinerungen von Taylors Prinzipien, die im Herzen aller aktuellen Qualitätssysteme verbleiben, sind der Stakeholder-Fokus und die Erfüllung der Kundenanforderungen (Drake, Sutterfield, & Ngassam, 2008).

Taylors Erkenntnis über die Notwendigkeit von Inspektionen und seine Methoden der Datenanalyse und -bewertung legten den Grundstein für das heutige statistische Denken in qualitätszentrierten Organisationen und ähneln diesem sehr (Bothe, 2003). Insbesondere konzentrierte sich Taylor auf die Eliminierung von Verschwendung, wobei er in seinem gesamten Buch auf die Notwendigkeit hinwies, die Variation durch die Standardisierung von Aufgaben und Werkzeugen zu reduzieren. Was Bothe (2003) als statistisches Denken bezeichnet, spiegelt sich in Taylors Qualitätsrezept wider: messen, Variation reduzieren und verfeinern.



Taylors Experimente in Bezug auf Mitarbeitereffizienz und Arbeitszeiten waren ebenfalls ein grundlegender Beitrag zum Wissensbestand des Managements (Nyl, 1995). Nachdem Taylor durch seine Experimente bewiesen hatte, dass mehr Arbeit mit weniger Ermüdung der Arbeiter und kürzeren Arbeitszeiten erledigt werden konnte, begannen andere Branchenführer, die Arbeitswoche zu verkürzen, wie zum Beispiel Henry Ford, der 1926 die 40-Stunden-Woche einführte (1995). Während die Diskussion über die Arbeitszeit bis heute andauern mag, haben Taylors Experimente den nötigen Anstoß gegeben, um diese wichtige Effizienzvariable in den Fokus der Managementliteratur zu rücken.

In jüngerer Zeit hat Ehrlich (2006) das wissenschaftliche Management auf die heutigen dienstleistungszentrierten Organisationen angewandt. Lean Service ist Ehrlichs Adaption der wissenschaftlichen Managementprinzipien auf moderne Dienstleistungsunternehmen. Ehrlich argumentiert, dass die Eliminierung von Verschwendung bei Kundendienstgesprächen erreicht werden kann, indem Nacharbeitsschleifen abgeschafft werden und ein Kunde nach dem anderen von Anfang bis Ende bedient wird. Ehrlich überträgt damit erfolgreich Taylors Prinzipien von der Fertigung auf den Service und von einer eher mechanistischen und routinierten Umgebung auf eine moderne, hochkomplexe und kundeninteraktive Umgebung. Damit widerspricht seine Forschung einigen der Hauptkritiker Taylors.

Kritiken an Taylors Prinzipien

Drake, Sutterfield und Ngassam (2008) beschreiben, wie Taylors Ideen aus heutiger Sicht aus mehreren Gründen begrenzt erscheinen. Erstens stellten die Autoren fest, dass in Taylors Fabriken den Mitarbeitern genau gesagt wurde, wie sie zu arbeiten hatten, und dass Teamarbeit und funktionsübergreifende Aufgaben selten vorkamen. Zweitens nutzte Taylor die Inspektion nach der Produktion und nicht die Inspektion während des Prozesses. Moderne Qualitätssysteme, wie z. B. Six Sigma, konzentrieren sich ebenfalls auf die Reduzierung von Verschwendung und Fehlern in jedem Teilprozess und Teilproduktionsschritt (2008). Außerdem berücksichtigen Taylors Ideen nicht, dass die Mitarbeiter die Anforderungen der Kunden kennen müssen. In der heutigen Zeit ist eine enge Interaktion zwischen Mitarbeiter und Kunde viel häufiger und wird wahrscheinlich auch von Mitarbeitern außerhalb der Kundendienstabteilungen durchgeführt.

Ein weiterer Hauptkritikpunkt ist, dass die banale Wiederholung von Aufgaben auch für die Arbeiter unattraktiv sein kann und die Arbeiter anfangen könnten, sich wie Maschinen behandelt zu fühlen. Diese Sichtweise hängt jedoch eher davon ab, wie die Arbeitsumgebung eingerichtet ist, als von den Taylor'schen Prinzipien. Die Arbeiter können rotieren und kontinuierlich geschult werden, so dass ihre Arbeit interessant und herausfordernd bleibt. Darüber hinaus hat Ehrlich (2006) gezeigt, wie die Standardisierung von Arbeit an das heutige Szenario von Wissensarbeitern in einer Dienstleistungsbranche angepasst werden kann; damit wirkt Ehrlich der Kritik entgegen, dass sich wiederholende Aufgaben schwer zu standardisieren und zu kontrollieren sind. Wissensarbeiter und sogar kreative Künstler sollten in der Lage sein, Taylors Qualitätsprinzipien auch dann anzuwenden, wenn es scheinbar keine Einheitlichkeit gibt. Die Strategie für Wissensarbeiter-Einstellungen könnte darin bestehen, Aufgabenrichtlinien abstrakter und weniger detailliert zu gestalten und dem Arbeiter mehr Flexibilität zu überlassen.

Einige Autoren haben Taylors Ideologie und Perspektive auf den Menschen als sowohl zu positiv als auch zu negativ kritisiert (Wagner-Tsukamoto, 2008). Taylor war der Meinung, dass Arbeiter inkompetent, geistig veranlagt, resistent gegen die Zusammenarbeit mit dem Arbeitgeber und faul sind. Auf der anderen Seite beschrieb Taylor Manager als vertrauenswürdige und kooperative Personen und suchte nicht nach "systematischem Soldatentum" bei seinen Managern (2008).

Nach intensiver Analyse historischer Dokumente fanden Wrege und Perroni (1974) heraus, dass Taylor die Geschichte über "Schmidt" fabrizierte und entdeckten, dass dieselbe Geschichte in aufeinanderfolgenden Publikationen mindestens dreimal verändert wurde. Taylor behauptete, dass Schmidt systematisch aufgrund seiner Fähigkeiten ausgewählt wurde, obwohl das in Wirklichkeit nicht der Fall war. Darüber hinaus behauptete Taylor, ein Verfechter von angemessenen Ruhezeiten zu sein, doch die Aufzeichnungen zeigen, dass er die Zeiten für den Rückweg als Ruhezeiten interpretierte, wenn die Arbeiter mit leeren Händen zurückkehrten, nachdem sie Eisen auf einen Wagen geladen hatten. Wrege und Perroni (1974) kamen zu dem Schluss, dass Taylors Geschichten über Ruhezeiten ein "Schwindel" waren, basierend auf den Aufzeichnungen über Taylors Experimente.

Wie haben Organisationen auf dem modernen Markt die besten Teile der Strategie adaptiert und gleichzeitig die durchschnittlichen Komponenten verbessert?

Rynes, Gerhart, & Minette (2004) entdeckten eine Diskrepanz zwischen dem, was Mitarbeiter berichten, dass sie motiviert sind, und dem, was sie wirklich motiviert. Taylors Annahme, dass die Bezahlung der wichtigste Mitarbeitermotivator ist, erwies sich auch heute noch als gültig. Während Unternehmen ihre Gewinnbeteiligungsmethoden durch andere Anreize für Mitarbeiter, wie Firmenwagen, längere Urlaube und Krankheitsurlaube, ergänzt haben, ist der Hauptmotivator derselbe geblieben.


Gronroos (1994) beschreibt den Übergang vom Taylorismus zu modernen Dienstleistungsmanagement-Perspektiven und TQM und schlägt vier allgemeine Verschiebungen im Management vor. Erstens soll sich das Management nun auf die gesamte Organisation und die Kundenerfahrung konzentrieren und nicht nur auf das Produkt. Zweitens: Langfristige Beziehungen sind jetzt wichtiger als kurzfristige Transaktionen. Drittens: Anstatt die Qualität auf das Produkt zu beschränken, wird die Qualität nun langfristig auf das gesamte Kundenerlebnis ausgedehnt. Viertens muss das Management Qualitätsprozesse in der gesamten Organisation schaffen und diese zu den Schlüsselprozessen machen, anstatt die Produktion.

Peaucelle (2000) vertrat die Ansicht, dass die Taylor'schen Prinzipien auf die Gewinnmaximierung durch Kostenreduzierung und Erhöhung des Stückzahldurchsatzes beschränkt waren; in der heutigen Welt muss das Management jedoch zusätzlich zu diesen alten Zielen mehrere gleichzeitige Ziele verfolgen. Kürzere Lieferzeiten, bessere Qualität, ein vielfältiges Produktangebot und eine flexible Fertigung sind neue Herausforderungen, die Manager meistern müssen, ohne die langfristigen Kosten zu erhöhen. Peaucelle schlägt daher vor, dass das Aufkommen des "Post-Taylorismus" die Hinzufügung neuer Herausforderungen durch den Einsatz zusätzlicher Aktivitäten bedeutet; das Prinzip, scheinbar sich gegenseitig ausschließende Ziele zu erfüllen, ohne die Kosten zu erhöhen, bleibt jedoch intakt. Auf einer abstrakten Ebene analysiert, zielen Taylors Prinzipien im Wesentlichen darauf ab, mehrere sich scheinbar gegenseitig ausschließende Managementziele zu befriedigen.

Die Anwendbarkeit der wissenschaftlichen Managementprinzipien in der Zukunft

Der Name "wissenschaftliches Management" mag aus der modernen Managementliteratur verschwunden sein; dennoch sind Taylors Prinzipien in den heutigen Organisationen immer noch lebendig (Freeman, 1996). Während sich das Umfeld des heutigen Arbeitnehmers drastisch verändert hat, scheinen Taylors Ideen unsterblich zu sein und dem Wandel durch neue Technologien und Globalisierung standzuhalten. Wie von Peaucelle (2000) vorgeschlagen, sind die heutigen Herausforderungen multidimensional und Manager müssen sich ständig verbessern und neue Wege finden, um alle Interessengruppen zufrieden zu stellen. Neue, erweiterte Versionen des Taylorismus, wie z. B. die statistische Prozesskontrolle (SPC), könnten jedoch in Zukunft in verschiedenen Arbeitsumgebungen eingesetzt werden, auch in solchen, die man sich zu diesem Zeitpunkt noch nicht vorstellen kann. Dies liegt vor allem daran, dass Taylors Prinzipien eher eine Arbeitsphilosophie als eine eng definierte Arbeitsspezifikation sind. Die Beseitigung von Verschwendung, die Minimierung des Ressourcenverbrauchs und die kontinuierliche Verbesserung der Organisation und der Belegschaft werden immer wichtige Ziele für alle Unternehmen auf der Welt bleiben, unabhängig vom Standort.

Brödner (2007) philosophierte, dass wir uns in einem Zeitalter der Transformation befinden, das sich vom Taylorismus bis hin zur kompetenzbasierten Entwicklung von Organisationen erstreckt. Die kontinuierliche Verbesserungs- und Arbeitsoptimierungstheorie Taylors wird also noch einmal auf ein sehr dynamisches Szenario ausgedehnt, in dem sich die Organisation ständig neu definieren und neue Kompetenzen schaffen muss, um zu überleben. In den frühen 1900er Jahren reichte es aus, effizienter zu produzieren, um einen Gewinn zu erzielen und auf dem Markt konkurrenzfähig zu sein. Der heutige hyperkompetitive, globalisierte Markt erfordert eine interne Flexibilität, bei der die Organisation selbst ständig hinterfragt werden muss - der globale Erfolg hängt also von der Fähigkeit ab, sich anzupassen und aus der Vergangenheit zu lernen. Nähern wir uns einer Ära, in der nur "intelligente" Organisationen erfolgreich sein werden?

 

Literatur

Boje, D. M, & Winsor, R. D. (1993). The resurrection of Taylorism: Total quality management's hidden agenda. Journal of Organizational Change Management, 6(4), 57.  Retrieved from http://proquest.umi.com

Brödner, P. (2007). From Taylorism to competence-based production. AI & Society, 21(4), 497-514. Retrieved from http://proquest.umi.com

Bothe, D. R. (2003). Improve service and administration. Quality Progress, 36(9), 53-57.  Retrieved from http://proquest.umi.com

Cheser, R. C. (1998). The effect of Japanese Kaizen on employee motivation in U.S. manufacturing. International Journal of Organizational Analysis, 6(3), 197-217. Retrieved from http://proquest.umi.com

Drake, D., Sutterfield, J., & Ngassam, C. (2008). The revolution of Six-Sigma: An analysis of its theory and application. Academy of Information and Management Sciences Journal, 11(1), 29-44. Retrieved from http://proquest.umi.com

Drucker, P. (1974). Management: Tasks, Responsibilities, Practices. New York, NY: Harper & Row.

Ehrlich, B. (2006). Service with a smile. Industrial Engineer: IE, 38(8), 40-44. Retrieved from http://proquest.umi.com

Freeman, M.  (1996). Scientific management: 100 years old; poised for the next century. S.A.M. Advanced Management Journal, 61(2), 35.  Retrieved from http://proquest.umi.com

Gronroos, C. (1994). From scientific management to service management: A management perspective for the age of service competition. International Journal of Service Industry Management, 5(1), 5.  Retrieved from http://proquest.umi.com

Jabnoun, N. (2000). Restructuring for TQM: a review. The TQM Magazine, 12(6), 395.  Retrieved from http://proquest.umi.com

Nyl, C.  (1995). Taylorism and hours of work. Journal of Management History, 1(2), 8-25.  Retrieved from http://proquest.umi.com

Peaucelle, J. L.  (2000). From Taylorism to post-Taylorism: Simultaneously pursuing several management objectives. Journal of Organizational Change Management, 13(5), 452.  Retrieved from http://proquest.umi.com

Rynes, S. L., Gerhart B., & Minette, K. A. (2004). The importance of pay in employee motivation: Discrepancies between what people say and what they do. Human Resource Management, 43(4), 381-394. Retrieved from http://proquest.umi.com

Wagner-Tsukamoto, S. (2008). Scientific Management Revisited: Did Taylorism fail because of a too positive image of human nature? Journal of Management History, 14(4), 348-372.  Retrieved from http://proquest.umi.com

Wrege, C., & Perroni, A. (1974). Taylor's Pig-Tale: A Historical Analysis of Frederick W. Taylor's Pig-Iron Experiments. Academy of Management Journal, 17(1), 6-27. Retrieved from http://ebscohost.com

Taylor, F. W. (1911). The Principles of Scientific Management. New York, NY: Harper and Brothers Publishers.

Backup-Strategien für große VMs mit und ohne Deduplizierung

Dieses Tool zum Hyper-V Sichern bietet viele Optionen, die es Ihnen ermöglichen, schnell mehrere Backup-Strategien zu implementieren, die Sie gleichzeitig verwenden können.
Wenn Sie es mit sehr großen Dateien zu tun haben, z. B. mit einer 1,6 TB großen VHDX, müssen Sie unter Umständen Wiederherstellungszeiten einplanen.
Eine durchschnittliche moderne Festplatte und ein Server bieten Ihnen Verarbeitungsgeschwindigkeiten von 50 MB/Sek. bis 100 MB/Sek. ohne die Verwendung von RAID.
Eine 1,6 TB große Datei würde also 1677721,6 MB -> 4,7 bis 9,5 Stunden benötigen, um sie wiederherzustellen, unabhängig davon, wie sie wiederhergestellt werden soll.

Die Verwendung einer externen Festplatte ohne Backup-Verarbeitung (keine Deduplizierung, keine Komprimierung) hat den Vorteil, dass man VMs bei Bedarf direkt von der externen Festplatte booten kann.
Diese Strategie erspart Ihnen eine Wiederherstellung von 5-10 Stunden für eine 1,6 TB VM.
Da jedoch jede Strategie einen Nachteil hat, erfordert diese Strategie 1,6 TB für jedes VM-Backup; daher können Sie nicht zu viele Backups aufbewahren. Wenn Sie in der Lage sein wollten, Dateien von vor einer Woche wiederherzustellen, bräuchten Sie 7 * 1,6TB = 11,2 TB Speicherplatz für nur eine VM!

Die meisten Anwender können sich das natürlich nicht leisten und entscheiden sich für ein Hybridsystem.

Hier ist, wie Sie es einrichten würden:
#1: Richten Sie einen Task ein, der jede Nacht ein vollständiges, unkomprimiertes, unbearbeitetes Backup auf eine dedizierte Festplatte schreibt. Auf diese Weise können Sie immer zurückgehen und die VM bei Bedarf sofort booten. Sie benötigen jedoch genügend Platz für mindestens 2 Voll-Backups auf Ihrer Festplatte, da die Software das alte Backup nicht löscht, bevor das neue Backup fertig ist.
#Nr. 2: Richten Sie einen zweiten Task ein, der anschließend mit Deduplizierung und mittlerer Komprimierung ausgeführt wird und auf eine andere Festplatte abzielt. Dieser Task sollte so konfiguriert werden, dass er eine Woche oder mehr an Backups aufbewahrt. Sie können sich dies speichertechnisch leisten, da es dedupliziert und komprimiert ist. Bei dieser Strategie werden etwa 50 % der 1,6 TB Daten für die anfängliche Vollsicherung verwendet (unter der Annahme, dass die VHD tatsächlich vollständig genutzt wird) und dann etwa 5 % für jedes tägliche Inkrement.

Grundsätzlich würden Sie Aufgabe 2 für die langfristige Speicherung von Wiederherstellungsdaten verwenden und Aufgabe 1 für sofortige Wiederherstellungen, wenn eine vollständige Wiederherstellung schnell durchgeführt werden muss.
So oder so sieht es so aus, dass selbst für das Szenario von Aufgabe 2 eine 2,7-TB-Festplatte nicht groß genug ist, um all diese Daten aufzunehmen.

Sie können sich entweder nach größeren USB-Laufwerken umsehen oder einen kleinen Windows-Netzwerkserver mit mehreren 2,7-TB-Laufwerken einrichten, die zu einem Software-RAID zusammengefasst sind. Das ist eine großartige und kostengünstige Möglichkeit, Speicherplatz hinzuzufügen.
NAS-Boxen, die intern nicht Windows und NTFS verwenden, können Ihnen Probleme mit großen Dateigrößen, langen Netzwerkverbindungen und tiefen Pfaden jenseits von 240 Zeichen bereiten.
Jede spezifische NAS-Box ist anders, daher muss von Fall zu Fall untersucht werden, ob sie geeignet ist oder nicht. Die NAS-Systeme mit Windows Storage Server OS sind zwar teurer, aber Sie können sicher sein, dass Sie einen Microsoft-Standard-konformen Speicher haben, der Ihnen keine Probleme bereitet.

7 Gründe, um ein IT-Administrator zu werden!

Denken Sie darüber nach, IT-Administrator zu werden? Oder suchen Sie vielleicht nach Argumenten, um sich bei Ihrer Berufswahl besser zu fühlen? Nun, ich habe ein wenig über den Karriereweg "IT-Administrator" nachgedacht und bin auf die folgenden Gründe gekommen, warum ich denke, dass es eine großartige Wahl für junge enthusiastische IT-versierte Menschen ist, die jetzt einsteigen wollen, aber auch für erfahrene Menschen, die sich beruflich verändern möchten.

Im Folgenden sind die Gründe aufgeführt, warum IT-Administratoren eine großartige Karriereperspektive für die Zukunft haben:
1. Computer und Anwendungen werden jeden Tag leistungsfähiger.

Denken Sie darüber nach, jeder Job auf der Welt wird bald auf die eine oder andere Weise Computerkenntnisse erfordern. Neue Anwendungen werden entwickelt und bestehende Apps werden ständig verbessert. Sogar alte Dinosaurier wie Microsoft Office und Windows erfinden sich selbst neu. Selbst in kleinen Unternehmen braucht man einen IT-Mann, der den Überblick behält und alles einrichtet.  Wer hat die Zeit, all das herauszufinden? Niemand...außer dem IT-Administrator, es ist sein/ihr Job!
2. Die IT-Infrastruktur wird immer größer und komplexer

Vorbei sind die Zeiten, in denen ein Computer für eine einzige Aufgabe angeschafft wurde, z. B. für die Buchhaltung. Heutzutage spielt es keine Rolle mehr, ob es sich um einen Server oder eine Workstation handelt: Er wird mit allen möglichen Anwendungen und Diensten bestückt sein. Server hosten jetzt virtuelle Maschinen mit noch mehr Servern auf der gleichen Hardware. Netzwerke müssen auf Last getestet und richtig geplant werden. Server müssen Benutzergruppen zugewiesen werden, und wenn etwas nicht mehr funktioniert oder eine neue Person zum Team stößt, ist der IT-Administrator derjenige, der dafür zuständig ist
3. Die IT wird zum Herzstück vieler Unternehmen. Und viele Unternehmen sind sich dessen noch nicht bewusst.

Nicht jeder Manager und Geschäftsinhaber ist sich bewusst, wie sehr er von der IT und Computern im Allgemeinen abhängig ist. Wenn Dinge ausfallen, kommen Geschäftsprozesse zum Stillstand. Denken Sie an ein Fließband in einer Fabrik, das plötzlich stoppt. Ich habe einmal miterlebt, wie ein einziger Virus (ich glaube, es war der Sasser-Wurm) über 30.000 PCs lahmgelegt hat. Mein Laptop war nicht betroffen, weil ich vorsichtig genug war, Windows regelmäßig zu aktualisieren. Außerdem war ich als Berater auf Besuch mit Zugriff auf das Netzwerk und voller Kontrolle über mein Gerät. Die 30.000 Benutzer konnten Windows nicht selbst aktualisieren, selbst wenn sie wollten. Ihre IT-Abteilung wollte niemandem Admin-Rechte dafür geben.

Als der Sasser-Wurm seinen Weg in das Netzwerk gefunden hatte, kam das gesamte Unternehmen zum Stillstand. Es war eine Katastrophe und dauerte einen ganzen Tag. Stellen Sie sich vor, wie viel Geld an diesem Tag verschwendet wurde. Das hätte verhindert werden können....durch den IT-Administrator!

Das erschreckt wahrscheinlich die Neulinge, aber hey, mit der Verantwortung kommen auch die Belohnungen... zumindest in der Theorie. Wie auch immer, einige Organisationen erkennen, wie viel Ausfallzeiten kosten oder kosten würden und finanzieren IT-Support-Abteilungen angemessen. Andererseits gibt es aber auch solche, die nicht auf ihre Administratoren hören und den IT-Betrieb völlig unterfinanzieren, ohne sich des Risikos bewusst zu sein, auf das sie sich einlassen.

Schon bald werden viel mehr Geschäftsinhaber die Abhängigkeit ihres Unternehmens von der IT verstehen und mit Sicherheit mehr Admins einstellen. Es braucht in der Regel nur eine große Katastrophe in einem Unternehmen.
4. IT-Ausrüstung wird immer kurzlebiger

Denken Sie, dass die IT manchmal zu schnell ist? Ich denke das auch. Und die meisten Leute haben nicht die Zeit, die Energie und die Fähigkeiten, um jedem neuen Hype auf dem Markt zu folgen. Die meiste Zeit schadet es nicht, diese Trends zu ignorieren. Aber der IT-Administrator ist dazu da, sich über diese Dinge zu informieren und den Führungskräften Vorschläge zu machen. Es gibt immer wieder neue Dinge, die das Leben eines jeden einfacher machen können. Neue Möglichkeiten, Geld zu sparen oder Geld zu verdienen, sind beim "Chef" immer willkommen 🙂 .....
5. IT-Geräte und Software werden zu komplex in der Bedienung

Bekommen Sie ein mulmiges Gefühl, wenn Sie eine neue Software installieren oder ein neues Gerät auspacken, das Sie kürzlich gekauft haben? Ja, heutzutage verbindet sich sogar eine Mikrowelle mit dem Internet, um die Fleischpreise und das Wetter in Beirut abzufragen, also ist es nicht verwunderlich, dass der durchschnittliche Benutzer völlig verwirrt ist. Der IT-Administrator ist dazu da, die Dinge zuerst zu lernen und dann das Durcheinander in einfaches Englisch zu "übersetzen", damit es jeder versteht. Außerdem würde der IT-Administrator all die Details überspringen wollen, für die sich niemand interessiert. Ich wünschte, ich hätte eine Mikrowelle von früher... Sie wissen schon, die ohne das schicke Display aus den guten alten einfachen Tagen.
6. Die IT-Ausrüstung ist heute vielleicht unzuverlässiger als früher

Denken Sie an Festplatten! Die haben früher immer gehalten. Heutzutage ist man froh, wenn man zwei Jahre aus ihnen herausbekommt. Sie glauben mir nicht? Wann haben Sie das letzte Mal ein Backup durchgeführt? ????
7. Datenverlust ist tödlich für eine Organisation

Niemand kümmert sich um die Sicherung von Daten... bis zu dem Tag, an dem Sie alles verlieren. Stellen Sie sich das Chaos vor. Der Chef rauft sich die letzten Haare. Es sind nicht nur IT-Unternehmen, die ihre Daten schützen müssen. Heutzutage hat jedes kleine Unternehmen jede Menge Dateien, in deren Erstellung Tausende von Euros an Arbeit geflossen sind. Der Verlust all dieser Daten kann das Unternehmen leicht irreparabel schädigen.

Die IT-Administratoren sind die Schlüsselfiguren, um all dies zu verhindern. Seien Sie ein Held!

Risiken des Datenverlustes mindern

Natürlich ist die Hauptfunktion von Backup-Software, Datenverluste so weit wie möglich zu verhindern. Sie müssen ein gutes Gespür für alle gängigen Risiken von Datenverlusten haben, da die meisten Formen von Datenverlusten vermeidbar sind.
Dies sind einige typische Ursachen für Datenverluste:
- Feuer.
- Stürme.
- Überschwemmungen.
- Softwarefehler und Fehler, einschließlich des Betriebssystems.
- Versehentliches Löschen durch Benutzer.
- Festplattenfehler: Head-Crash, Verschlechterung usw. Die erwartete Lebensdauer von Festplatten liegt normalerweise unter zwei Jahren.
- Viren-, Ransomware- und Malware-Schäden.
- Statische Entladung. Zum Beispiel an Tagen mit niedriger Luftfeuchtigkeit unter 40 % und Teppichböden im Büro. Staubsauger und andere Geräte können ebenfalls statisch aufgeladen sein. Seien Sie sich dessen bewusst, wenn Sie sich in der Nähe eines Computers befinden.
- Luftfeuchtigkeit und Kondensation. Die ideale Luftfeuchtigkeit sollte zwischen 40 % und 60 % liegen. Eine hohe Luftfeuchtigkeit kann zu Kondensation führen. Trockene Werte können elektronische Teile beschädigen.
- Stromschlag durch Blitzeinschlag in Außenanlagen in der Nähe des Gebäudes oder in Stromleitungen.
- Überspannung durch Blitzschlag oder defekte Elektrogeräte, die im selben Büro oder Haushalt angeschlossen sind.
- Wasserschäden. Sprinkleranlagen, Überschwemmungen oder andere Leckagen.
- Temperatur. Setzen Sie Computer nicht Temperaturen unter 15 Grad Celsius oder über 27 Grad Celsius aus, da elektronische Teile überhitzen können. Niedrige Temperaturen können zu Kondensation führen.
- Mechanischer Schock. Beispielsweise kann ein Notebook fallen gelassen oder ein Desktop versehentlich angestoßen werden, während sich die Festplatten drehen.
- Magnetische Felder. Magnetfelder, die von älteren Fernsehgeräten oder Kabeln verursacht werden, können die empfindlichen Platten in Festplatten oder elektronische Komponenten auf Hauptplatinen beschädigen.
- Unvollständiger Datentransport. Zum Beispiel werden Daten auf einen neuen Computer kopiert und der Benutzer bemerkt möglicherweise nicht, dass die Übertragung nicht vollständig war.

In diesem Artikel finden Sie weitere Informationen über Sicherungssoftware

Microsoft Hyper-V-Sicherung für VHD- und VHDX-VMs

Hier ist eine einfache und vollautomatische Hyper-V-Backup-Software mit mehreren Schlüsselfunktionen für die Notfallwiederherstellung. Sie hilft Ihnen, durch integrierte Deduplizierung und volle CPU-Kernnutzung Zeit und Speicherplatz zu sparen.

Die wichtigsten Vorteile

    Backup-Lösung wird pro Host lizenziert: Unbegrenzte VMs
    Sichern von virtuellen Hyper-V-Maschinen auf USB, Netzwerkfreigaben, NAS, FTP unter Verwendung von Deduplizierung und Komprimierung
    Hochgeschwindigkeits-Backup-Deduplizierung, inkrementell und differentiell
    Installierbar auf allen Hyper-V- und Windows Server-Versionen 2012/2008 R2/2008 inkl. Core mit vollständiger Benutzeroberfläche und Windows 8
    Es bietet Unterstützung für Cluster Shared Volume und angeschlossenen Speicher
    Granulare Sicherung für VHD-, VMDK- und VDI-Formate
    Granulare Wiederherstellung für VHDX- und VHD-Formate
    Es müssen keine Agenten in VMs installiert werden.
    Installiert in nur einer Minute
    24h professionelle technische Unterstützung mit Sitz in Baltimore, MD, USA

Gemeinsam genutzte Cluster-Volumes

Unterstützt werden VMs, die auf einem Cluster Shared Volume, einer lokalen Festplatte, einem Failover-Cluster und extern angeschlossenem Speicher gespeichert sind. VMs können gleichzeitig für VM-weite Konsistenz oder sequentiell (Standard) gesichert werden. Sequentieller Schutz stellt sicher, dass die Ressourcen Ihres Servers nur minimal genutzt werden. Durch den Schutz jeweils einer virtuellen Maschine auf einmal können die Auswirkungen auf den Server auf ein Minimum beschränkt werden; bei Bedarf können Sie jedoch auch gleichzeitig Backups erstellen. Dies ist eine großartige Funktion, insbesondere wenn Sie ein größeres System mit zahlreichen VMs haben und die Systemauswirkungen Ihrer Datensicherungsprozesse minimieren möchten.
Hyper-V-Schnappschüsse

Das Sichern und Wiederherstellen von Hyper-V-Snapshots ist automatisiert und kann sogar auf neuen Hosts durchgeführt werden; Sie müssen lediglich die VM im Wiederherstellungsbildschirm auswählen, und die Aufgabenkonfiguration wird automatisch aktualisiert.
Deduplizierung auf lokalen, USB-, NAS-, Netzwerklaufwerken und FTP

Virtuelle Maschinen können in einem lokalen Ordner oder auf einer lokalen Festplatte, einem externen Laufwerk, einer Netzwerkfreigabe oder über FTP mit einem effizienten Deduplizierungsalgorithmus gespeichert werden, der die Verarbeitungszeit, die Bandbreite und den Platzbedarf drastisch reduziert.

Die Deduplizierung erfolgt in einem komprimierten Format, inkrementell und differentiell.

 
Keine Agenten erforderlich

Sie können auf virtuelle Maschinen vollständig oder nur auf einige VM-Dateien vom Host aus zugreifen. Diese Methode des Zugriffs auf VM-Daten wird als "Granular Backup" bezeichnet und ist Bestandteil der Enterprise Edition.

Sie können virtuelle Maschinen auf verschiedenen Hosts klonen und wiederherstellen

Virtuelle Maschinen können überall und auch auf dem ursprünglichen Host in einer Side-by-Side-Konfiguration wiederhergestellt werden. Identifier-Kollisionen werden mit der Funktion BackupChain VM klonen beim Wiederherstellen automatisch vermieden (dies ist die Standardoption).
Sequentielle und gleichzeitige Backups virtueller Maschinen

Um die Systembelastung Ihres Hosts zu verringern, können Sie die Schutz-VMs nacheinander, eine nach der anderen, anstatt alle gleichzeitig auszuführen. Durch die sequentielle Ausführung von VM-Schutzaufgaben wird die Belastung Ihres Host-Servers drastisch reduziert. BackupChain enthält auch eine Simultanoption für Benutzer, die eine Point-in-Time-Konsistenz auf mehreren Rechnern benötigen. Dies ist nützlich, wenn VMs Software ausführen, die Transaktionen auf mehreren Rechnern verwendet.
Sofortige Wiederherstellung früherer Versionen virtueller Maschinen oder Datendateien

BackupChain kann so eingerichtet werden, dass eine beliebige Anzahl von Backups virtueller Maschinen aufbewahrt wird. Das bedeutet, dass Sie in der Zeit zu einer früheren Version Ihrer Datendatei oder sogar zu einer ganzen virtuellen Maschine zurückgehen können. Wenn Sie eine Wiederherstellung benötigen, können Sie ganze virtuelle Maschinen, einzelne Festplatten oder Dateien wiederherstellen, die zum Zeitpunkt des Kopierens oder der Verarbeitung innerhalb der VM gespeichert waren. Siehe Abschnitte Granulare Sicherung & Granulare Wiederherstellung weiter unten.
Automatische Sicherung und Wiederherstellung von Hyper-V-Snapshots

Virtuelle Maschinen mit Snapshot-Ketten werden vollständig unterstützt. Sie können sogar Snapshots auf neuen Host-Servern (mit ähnlicher CPU-Architektur und Windows-Version) wiederherstellen.
Option: VMs sofort von Ihrem Zielordner booten

Wenn Sie eine neue BackupChain-Aufgabe einrichten, können Sie Deduplizierung auf Dateiebene, ZIP-Komprimierung (oder Varianten der ZIP-Komprimierung), Verschlüsselung oder gar keine Verarbeitung verwenden. Letztere Option ermöglicht Ihnen das sofortige Booten von VMs direkt von Ihrem Zielordner, da alle Dateien in ihrem nativen Format gespeichert werden. Erstellen Sie einfach eine neue VM in der Hyper-V-Verwaltung und verweisen Sie auf die zum Booten benötigte VHD-/VHDX-Datei.

Virtuelle Maschinen mit Microsoft Exchange und Microsoft SQL Server sichern

BackupChain verwendet VSS, um anwendungskonsistente Backups Ihrer virtuellen Maschinen und anderer Datendienste, die auf Ihrem Server laufen, zu gewährleisten. Eine Live-Sicherung von Exchange 2007 oder höher und SQL Server 2005 und höher ist daher kein Problem, da es sich um VSS-fähige Dienste handelt. Sie können die unten beschriebenen Funktionen für granulare Sicherungen und granulare Wiederherstellungen verwenden, um Ordnersicherungen von Exchange- und SQL-Diensten vom Host zu übernehmen, ohne BackupChain in der VM zu installieren. Mit der Granular-Restore-Funktion können Sie Point-in-Time-Versionen von Exchange- oder SQL Server-Daten wiederherstellen, ohne die gesamte virtuelle Maschine wiederherstellen zu müssen.

Besuchen Sie die Website für weitere Informationen