Warum in die Verifizierung und Validierung des Backup-Prozesses und der Backup-Daten investieren?

In diesem Artikel möchte ich ein neues Software-Tool und seinen Zweck für die Backup-Validierung besprechen (Backup Software). Viele Fachleute, die noch keinen totalen Datenverlust erlebt haben, gehen davon aus, dass die digitale Speicherung perfekt ist und die digitalen Geräte immer einwandfrei funktionieren; die Realität sieht jedoch ganz anders aus. Die Speicherung wird immer dichter und eine Festplatte enthält mehr Informationen als je zuvor. Gleichzeitig sinkt die Fehlerquote nicht dramatisch, so dass die Wahrscheinlichkeit eines Ausfalls pro Gerät in den letzten Jahren sogar gestiegen ist. Darüber hinaus sind andere Bedrohungen für Datenverluste häufiger geworden. Ransomware, Malware und Vandalismus durch unzufriedene Mitarbeiter sind beispielsweise externe Ursachen für Datenverluste, während Bitfäule, Festplatten- und RAM-Defekte das Gerät selbst betreffen.
Ein weiterer Trend der letzten Jahre ist die Verwendung von inkrementellen Backup-Schemata, um den Backup-Prozess zu beschleunigen. Was viele Fachleute leider nicht wissen, ist, dass inkrementelle Backups eine Abhängigkeit zum vorherigen Backup einführen. Wenn ein Backup in der Kette von Backups aus irgendeinem Grund beschädigt wird, wird die gesamte Kette oder zumindest Teile der Backup-Kette unlesbar. Der eigentliche Grund, warum das inkrementelle Schema populär wurde, ist, dass die Festplattenhersteller trotz der Fortschritte beim Speichervolumen die Durchsatzgeschwindigkeiten nicht im gleichen Tempo und mit der gleichen Technologie steigern konnten. SSD-Speicher haben eine viel bessere Durchsatzrate, aber leider auch eine viel höhere Fehlerrate, sowie einen viel schnelleren Verschleiß. Zellen in SSD-Laufwerken nutzen sich schnell ab und werden automatisch durch Ersatzzellen im Laufwerk selbst ersetzt. Der Prozess der Erkennung einer "bald ausfallenden Zelle" wird jedoch normalerweise aufgeschoben, bis die Zelle tatsächlich gelesen wird, was bei Backup-Laufwerken typischerweise nicht oft vorkommt.

Backup-Verifizierung
Das oben genannte Tool bietet Optionen zur Verifizierung von Backup-Dateien unmittelbar nach deren Fertigstellung. Diese Funktionen umgehen das Windows-Zwischenspeichersystem, um sicherzustellen, dass die Datendatei tatsächlich von der Festplatte zurückgelesen wird, auf der sie gespeichert wurde. Einzigartig an dem obigen Tool ist die Fähigkeit, dasselbe auch für Remote-Speicher zu tun. Die Daten werden erneut heruntergeladen, um sicherzustellen, dass jede Datei korrekt verarbeitet wurde. Es gibt zusätzliche Optionen, um diesen Schritt auf Dateien bis zu einer bestimmten Größe zu beschränken.

Backup-Validierung
Die einzigartigen Backup-Validierungsfunktionen des oben genannten Tools ermöglichen es dem Benutzer, Dateien zu validieren, lange nachdem sie verarbeitet wurden. Stellen Sie sich folgendes Szenario vor: Ein typischer Dateiserver eines kleinen Unternehmens enthält mehrere Terabytes an Dateien und Ordnern, typischerweise etwa 10 Millionen Dateien oder mehr. Typischerweise werden weniger als 1 % dieser Dateien im Laufe der Zeit geändert, insbesondere nach etwa einem Monat nach der letzten Bearbeitung. Im Durchschnitt ruhen diese Dateien jahrelang, ohne dass jemals darauf zugegriffen wird. Bitfäule, Festplattendefekte, Malware und einfache Löschungen oder Dateiveränderungen durch einen verärgerten Mitarbeiter können unbemerkt bleiben, bis Jahre später die Festplatten des Dateiservers komplett ausfallen und eine vollständige Wiederherstellung erforderlich ist. Wie kann ein solch großer Datenbestand effizient validiert werden?
Die oben genannte Software bietet eine einzigartige Lösung für dieses Problem, bei dem täglich Terabytes an Daten gesichert werden. Die Software verwendet eine Validierungsfunktion, die eine zufällige Validierung eines Prozentsatzes der Sicherungsdateien bei jedem Sicherungszyklus ermöglicht. Sie können die Software beispielsweise so konfigurieren, dass nur 1 % aller Sicherungsdateien Ihres Dateiservers validiert werden. Wenn Ihr Dateiserver derzeit 1 Million Dateien enthält, wären das 10.000 zu überprüfende Dateien. Wenn Sie eine zufällige Auswahl von 1 % aller Sicherungsdateien validieren, würde es im Durchschnitt 100 Zyklen dauern, jede Datei zu validieren. Wenn das Backup 10 Mal pro Tag läuft, würde es 10 Tage dauern, den gesamten Backup-Satz zu validieren.
Während kleine Backup-Sets innerhalb von Stunden vollständig gesichert und validiert werden können, ist es bei Millionen von Ordnern und Dutzenden von Terabyte Speicherplatz nicht mehr möglich, das gesamte Set bei jedem Backup-Zyklus zu validieren, da der Datendurchsatz der Netzwerkverbindung und der von mechanischen Festplatten begrenzt ist. Als Kompromiss decken die Funktionen des Tools das gesamte Backup-Gerät ab, indem bei jedem Backup-Zyklus eine zufällige Teilmenge ausgewählt wird.
Das erneute Einlesen der Backup-Dateien ist kritisch, da dabei alle Zellen und Sektoren auf dem Laufwerk aktualisiert werden. Durch die Verwendung der Backup-Validierung des Tools werden Ihre Daten vom Laufwerk "aktualisiert", d. h. das Laufwerk wird gezwungen, die Sektoren erneut zu überprüfen und bei Bedarf interne Reparaturen durchzuführen. Wenn Reparaturen nicht mehr möglich sind, sendet das Laufwerk ein Signal an Windows und das Tool protokolliert das Problem und sendet Warnmeldungen, um Sie über das Problem zu informieren. Darüber hinaus verwendet die Software Prüfsummen und/oder führt einen 1:1-Vergleich mit der Originaldatei durch, um den Inhalt jeder Sicherungsdatei zu validieren. Daher ist die Backup-Validierung eine wichtige "Versicherung": Sie haben den wiederholten Beweis, dass alle Dateien in Ihrem Backup-Speicher tatsächlich noch gültig und lesbar sind (Ransomware backup software)


Ist Hyper-V besser als VMware?

Wir hören es oft, aber ist Hyper-V besser als VMware? Das ist eine gute Frage, die dieser Artikel unmöglich in allen Einzelheiten beantworten kann; wir werden uns jedoch ein paar gemeinsame Aspekte der beiden Virtualisierungsplattformen ansehen und sie miteinander vergleichen.
Das Tolle an Hyper-V ist, dass es mit Windows Server und sogar Windows 10 Professional ausgeliefert wird; wenn Sie es also ausprobieren möchten, müssen Sie nur die Hyper-V-Rolle in Ihrer Windows-Installation aktivieren. Im Gegensatz zu VMware ist es nicht notwendig, einen dedizierten Server zu verwenden, um als VMware-Host zu dienen; wenn Sie jedoch diese Art von Setup bevorzugen, ist Hyper-V auch als kostenloses Betriebssystem verfügbar, das für eigenständige, kleine Hypervisor-Hosts gedacht ist.
Hyper-V bietet eine bessere Windows-Integration. Es arbeitet perfekt mit Windows-Gastbetriebssystemen zusammen und Windows wird bereits mit den Treibern ausgeliefert, die es für die Virtualisierung innerhalb von Hyper-V-Servern benötigt. VMware hingegen hinkt immer hinterher, wenn es um die neuesten Windows-Versionen geht, so dass Sie möglicherweise eine Weile warten müssen, bis sie ihre Integrationstools aktualisieren.
Die meisten Anwender finden, dass Hyper-V bei weitem einfacher zu bedienen ist als VMware. Ein Grund dafür ist, dass die Benutzeroberfläche und das Betriebssystem so funktionieren, wie sie es gewohnt sind und nicht die Kommandozeile oder Konzepte aus der UNIX-Welt beinhalten. Da Hyper-V in Windows integriert ist, ist es auch viel einfacher, VM-Dateien zwischen dem Host und anderen Computern hin und her zu verschieben.
Hyper-V hat aber auch große Nachteile. Linux und andere nicht so populäre Betriebssysteme werden nicht so gut unterstützt, und einige Leute vermuten, dass dies absichtlich geschieht. Wenn Sie eine sehr gute Unterstützung für Linux- und UNIX-Gastbetriebssysteme benötigen, ist es ohne Frage am besten, VMware zu verwenden.
Sogar das PC-Produkt von VMware, VMware Workstation, schneidet bei obskuren Betriebssystemen viel besser ab als Hyper-V, aber es gibt noch einen weiteren großen Vorteil für PC-Anwender, VMware zu verwenden: Die Grafik und die Leistung auf PCs ist generell besser. Wenn Sie Spiele oder 3D-Grafik innerhalb der VM verwenden, wäre es sinnvoll, die Leistung auf VMware zu vergleichen, bevor Sie Ihre Entscheidung treffen.
Ein weiterer Nachteil von Hyper-V ist ebenfalls nicht überraschend: ältere Windows-Betriebssysteme werden in neueren Versionen von Hyper-V nicht gut unterstützt. Schließlich will Microsoft Betriebssysteme verkaufen, VMware hingegen nicht, so dass hier ein klarer Interessenkonflikt besteht, der sehr offensichtlich ist. Wenn Sie sehr alte Windows-Versionen ausführen müssen, können Sie sich auf VMware verlassen und darauf, dass sie diese Funktionalität noch viele Jahre länger unterstützen als Microsoft.
Wenn wir uns schließlich groß angelegte Implementierungen ansehen, stellen wir fest, dass die von VMware verwendete Technologie Hyper-V wahrscheinlich immer noch weit voraus ist. Während Microsoft schnell daran arbeitet, den Rückstand aufzuholen, werden die Unternehmenskunden sehr wahrscheinlich bei VMware bleiben, da sich das Unternehmen bei großen virtuellen Rechenzentren bewährt hat.
Unabhängig davon, ob Sie sich für Hyper-V oder VMware entscheiden, sollten Sie auf jeden Fall darüber nachdenken, wie Ihre virtuellen Maschinen gesichert werden sollen. Aber wie genau wird der Host Ihrer virtuellen Maschinen gesichert? Vielleicht möchten Sie einen Blick auf BackupChain werfen. BackupChain ist eine All-in-One-Backup-Lösung, die Hyper-V-Backup, VMware-Backup sowie Host-Festplatten-Backup bietet, um auch den Host zu sichern. Installieren Sie BackupChain einfach auf jedem Host und Ihre VMs werden nach einer schnellen und einfachen, zweiminütigen Einrichtung gesichert und geschützt.


Eine Analyse von Frederick Taylors Scientific Management

Frederick W. Taylor war der Begründer der Scientific Management Bewegung in den frühen 1900er Jahren. Als Maschinenbauingenieur entwickelte er ein Interesse an der Verbesserung der Effizienz in der Stahlindustrie, mit der er zu dieser Zeit am meisten vertraut war. Drucker (1974) bezeichnete Taylor als "... den ersten Menschen in der aufgezeichneten Geschichte, der die Arbeit für würdig hielt, systematisch beobachtet und studiert zu werden". Drucker fügte auch hinzu, dass, obwohl Taylor nur die Grundlagen der Managementlehre schuf, "[n]icht viel zu ihnen hinzugefügt wurde seither - obwohl er schon sechzig Jahre tot ist". Taylors eigene Publikation zum Scientific Management zeigt deutlich Taylors Begeisterung für Effizienz und die Wissenschaft der Arbeit, aber auch seinen persönlichen Charakter als Philosoph und Philanthrop. Taylor (1911) gibt seine altruistischen Motive gleich im ersten Satz seines Buches an, indem er betont, dass das Hauptziel des Managements die Maximierung des Wohlergehens des Arbeitgebers wie auch jedes einzelnen Mitarbeiters sein sollte.

Die wichtigste Voraussetzung für Wohlstand, ob für den Arbeitgeber, den Arbeitnehmer oder die gesamte Wirtschaft, ist Effizienz (Taylor, 1911, S. 11). Indem er seine eigene Belegschaft über Jahrzehnte hinweg analysierte, nennt Taylor zwei Hauptgründe, warum die Effizienz litt. Erstens fehlte es den Arbeitern an formaler Ausbildung und standardisierten, systematischen Fähigkeiten. Zweitens und am wichtigsten war Taylor absolut sicher, dass die meisten Arbeiter glaubten, dass die Beziehung zwischen Arbeitgeber und Arbeitnehmer notwendigerweise antagonistisch ist (S. 10). Er glaubte, dass die Arbeiter es als gegen ihr Interesse wahrnahmen, ihrem Arbeitgeber die volle Initiative zu überlassen. Nach Taylors Ansicht verbünden sich die Arbeiter gegen ihren Arbeitgeber und arbeiten auf einem minimalen Produktivitätsniveau, gerade hoch genug, um nicht gefeuert zu werden. Diese feindselige und kontraproduktive Weltsicht der Arbeiter wurde als "Soldatentum" bezeichnet, und Taylor glaubte, dass dies die Hauptursache für die Arbeitslosigkeit in England zu dieser Zeit war, da die Arbeiter ernsthaft glaubten, dass es gegen ihr eigenes Interesse sei, so hart wie möglich zu arbeiten.

Um die beiden Haupthindernisse zu bekämpfen, die dem Erreichen eines höheren Effizienzniveaus im Wege stehen, glaubt Taylor (1911), dass die Arbeiter zusätzliche Anreize brauchen, um volle Initiative zu zeigen. Die "besonderen Anreize" können den Arbeitern auf vielfältige Weise gleichzeitig angeboten werden: Zum Beispiel, indem man den Arbeitern einen großzügigen Stückpreis zahlt, indem man sie kürzer arbeiten lässt, indem man ihre Arbeitsbedingungen verbessert, indem man persönliche Rücksichtnahme zeigt und einen freundlichen Kontakt pflegt. Taylor behauptete, dass ein freundliches Interesse am Wohlergehen des Arbeiters einen großen Beitrag zur Erhaltung einer hocheffizienten und zufriedenen Belegschaft leisten kann.

Die wissenschaftliche Methode auf das Management angewandt

Die wichtigste Errungenschaft von Taylors Managementtheorie ist jedoch die Anwendung der wissenschaftlichen Methode auf das Management. Wie Drucker (1974) feststellte, war Taylor der erste, der Arbeitsaufgaben auf methodische und wissenschaftliche Weise beobachtete und analysierte. Taylor entdeckte die Notwendigkeit der Anwendung der Wissenschaft auf das Studium der Arbeit während seiner Karriere in der Stahlindustrie, wo er alle Funktionen und Ebenen in den Fabriken durchlief. Er erwähnt, dass es in einem typischen Stahlwerk über 30 verschiedene Gewerke gab und dass sich die Fähigkeiten der Handwerker evolutionär entwickelten und von Generation zu Generation weitergegeben wurden. Da es keine Einheitlichkeit der Fertigkeiten, keine systematische Kodifizierung oder Analyse der Arbeitsprozesse gab, war es üblich, dass jeder Arbeiter nur über Teilkenntnisse verfügte und ihm entscheidende Fähigkeiten fehlten, um sein Effizienzniveau zu steigern. Außerdem war die Zeit Anfang 1900 grundlegend anders als heute - das Bildungsgefälle zwischen Arbeiterklasse und höheren Gesellschaftsschichten war enorm größer als heute. Darüber hinaus wurde fehlendes Wissen als mangelnde Intelligenz interpretiert und diejenigen, die das Glück hatten, gebildet zu sein, verspotteten die weniger Gebildeten aufs Schärfste. Es war daher nicht ungewöhnlich oder überraschend, in Taylors Buch harsche Aussagen zu finden, wie z. B. diese: "...der Arbeiter ist so dumm, dass das Wort 'Prozent' für ihn keine Bedeutung hat" (Taylor, 1911, S. 59). Taylor erkannte jedoch, dass er neben der wissenschaftlichen Optimierung der Arbeitsprozesse auch die pädagogischen Probleme in den Griff bekommen musste, wenn Scientific Management ein Erfolg werden sollte.

Taylor (1911) legt fest, dass vier Hauptprinzipien befolgt werden müssen, um die Initiative der Arbeiter, die Einheitlichkeit und letztendlich eine höhere Effizienz zu erreichen. Erstens muss jede ausgeführte Arbeit in eine Reihe von Aufgaben zerlegt werden. Für jede Aufgabe muss eine Wissenschaft entwickelt werden, indem Maßnahmen ergriffen, standardisiert, systematisiert und Routinen geschaffen werden. Daumenregeln und Vermutungen müssen eliminiert werden. Zweitens müssen für jede Aufgabe die geeigneten Auswahlkriterien für die Mitarbeiter gefunden werden. Dann ist jeder Mitarbeiter sorgfältig auszuwählen, zu schulen und zu unterrichten, damit er die Aufgabe auf eine standardisierte Weise ausführt. Drittens liegt es sowohl in der Verantwortung des Managements als auch der Arbeiter, sicherzustellen, dass die Arbeit gemäß dem entwickelten System ausgeführt wird. Diese gleichmäßige Verteilung der Verantwortung zwischen Arbeiter und Manager soll sicherstellen, dass jeder Arbeiter die Aufmerksamkeit, das Training und die Unterstützung erhält, die für eine gute Leistung notwendig sind. Viertens impliziert die gleiche Verteilung von Arbeit und Verantwortung zwischen Arbeitern und Management auch, dass das Management die Arbeit übernehmen sollte, für die es besser geeignet ist als die Arbeiter (S. 36).

Diese vier Prinzipien stellten eine große Veränderung im Vergleich zu den üblichen, gewöhnlichen Managementstilen der frühen 1900er Jahre dar und erzielten zahlreiche Effizienzsteigerungen. Aufgaben wurden in Aufgaben standardisiert, was wiederum den Arbeitern und dem Management ermöglichte, sich auf jede Aufgabe vorzubereiten und die für die Erledigung notwendigen Ressourcen zu planen. Die Segmentierung der Arbeit in routinemäßige Aufgabensequenzen öffnete auch die Tür für systematisches Experimentieren und Aufgabenoptimierung durch Versuch und Irrtum und aufeinanderfolgende Iterationen, die Taylor mit großem Interesse durchführte. Die aufgabenbasierte Arbeit erlaubt es dem Management auch, Ressourcen nach Bedarf zuzuweisen und Arbeiter zu rotieren, um einen konstanten und vorhersehbaren Arbeitsablauf zu gewährleisten. Taylor richtete eine Planungsabteilung ein, um die Arbeit jedes Einzelnen im Voraus zu planen und dadurch Leerlaufzeiten zu minimieren und die Ressourcenzuweisung zu maximieren. Die systematische Optimierung jeder Aufgabe durch wissenschaftliche Methoden verringerte auch Schwankungen in der Produktion, was wiederum Fehler und Verschwendung reduzierte. Da die meisten Teile in einer Fabrik zu dieser Zeit noch von Hand gefertigt wurden, war diese Erkenntnis zur Minimierung der Varianz grundlegend für das Erreichen neuer Effizienzniveaus.

Höhere Gewinne für alle Stakeholder

Deutlich höhere Löhne, die gemeinsame Verantwortung und die verbesserte intime Zusammenarbeit zwischen Management und Arbeitern führten dazu, dass sich die Arbeiter gestärkt fühlten und das Gefühl, missbraucht zu werden oder Opfer kapitalistischer Ausbeutung zu sein, änderten; so arbeiteten sie härter und übernahmen mehr Verantwortung. Taylors Kombination seiner vier Prinzipien erreichte so eine deutlich höhere Produktivität der Betriebe. Es gelang ihm, die Wahrnehmung, dass das Management die Arbeiter ausbeutet, zu beseitigen, indem er ihnen einen höheren Lohnsatz zahlte und ihnen zusätzliche Anreize gab, härter zu arbeiten, und indem er die Arbeits- und Fertigungsmethoden systematisierte. Die Systematisierung der Arbeit in Verbindung mit der verstärkten Unterstützung und Schulung des Managements sorgte dafür, dass die Arbeiter produktiver wurden und die Interessen von Management und Arbeitern angeglichen wurden, indem der Antagonismus beseitigt wurde. Infolgedessen konnte Taylors Unternehmen einen höheren Durchsatz, mehr Gewinn und qualitativ hochwertigere Produkte erzielen. Unter Taylors altem Plan umfasste seine Belegschaft zwischen 400 und 600 Arbeiter und die Kosten pro Tonne Eisen betrugen 0,072 $. Diese Kennzahlen wurden drastisch auf 140 bzw. $0,033 gesenkt, während der Verdienst pro Mann und Tag von $1,15 auf $1,88 stieg, was etwa 60% über dem Marktpreis lag (Taylor, 1911, S. 71).

Taylors Erfolg war zum Teil auf die vier Prinzipien des wissenschaftlichen Managements zurückzuführen, aber auch auf Taylors offensichtliche Besessenheit von Effizienz und seinen Drang, jeden einzelnen winzigen Aspekt zu verstehen, der den Arbeitsablauf in seiner Fabrik verbessern könnte. Auf der Suche nach dem "universellen Gesetz", das beschreibt, wie viel "foot-pounds" an Energie ein Arbeiter aufwenden kann, bevor er ermüdet, experimentierte er mehrmals, jedoch ohne Erfolg. Sein Streben nach Effizienz wurde durch seine tief verwurzelte Überzeugung unterstrichen, dass es ein präzises und eindeutiges Gesetz geben muss, um einen vollen Arbeitstag eindeutig zu quantifizieren. Dieses Gesetz, oder zumindest eine Annäherung daran, wurde von Carl Barth, einem von Taylor angeheuerten Mathematiker, entdeckt. Er fand heraus, dass ein Arbeiter, der ein Gewicht von 92 Pfund trägt, dieses Gewicht nur für 43 % der Zeit halten kann; die anderen 57 % werden für die Ruhephase benötigt. Wenn das Gewicht verringert wird, kann die Haltezeit erhöht und damit die Ruhezeit verkürzt werden; daraus wurde gefolgert, dass angemessene Ruhezeiten entscheidend sind, um ein Höchstmaß an Effizienz zu erreichen, indem verhindert wird, dass die Arbeiter zu schnell ermüden (Taylor, 1911, S. 59). Taylor gibt ein Beispiel dafür, wie weit die Bemühungen zur Aufgabenanalyse gehen sollten, indem er den Unterschied erörtert, den eine Schaufelbelastung auf den Arbeiter haben kann, und vergleicht die Belastung mit der maximalen Arbeitsdauer, wenn eine Schaufel mit fünf, 10, 20 oder mehr Pfund auf einmal belastet wird (S. 65).


Die Notwendigkeit der Aufzeichnungspflicht

Taylors Vorstellung, dass "jede einzelne Handlung oder jeder Arbeiter auf eine Wissenschaft reduziert werden kann" (Taylor, 1911, S. 64), spiegelt sich auch in den außerordentlich detaillierten Aufzeichnungsbemühungen in seiner Fabrik wider. Die detaillierte Projektplanung, die von seiner Planungsabteilung geleitet wurde, erstellte im Voraus Zeitpläne und Aufgabenbeschreibungen für jeden einzelnen Arbeiter. Taylor erwähnt, wie ein ehemaliger Angestellter zu Taylor zurückkehrte und ihm erklärte, wie unproduktiv die Konkurrenten zu dieser Zeit waren und warum dieser Arbeiter deshalb im Konkurrenzwerk viel weniger verdiente. Der Mann berichtete, dass die Arbeiter in der Fabrik des Wettbewerbers in unbeaufsichtigten Banden arbeiteten und daher die Produktivität auf ein Minimum sank. Taylor kam zu dem Schluss, dass sie nur einen Bruchteil ihrer Ressourcen effizient nutzten, weil die Aufzeichnungen des Konkurrenten unzureichend waren und das Management die zusätzliche Arbeit der Vorausplanung für jeden einzelnen Arbeiter und jede seiner Aufgaben nicht machen wollte. Außerdem konnten sie aufgrund der fehlenden Aufzeichnungen nicht erkennen, dass durch die Zuweisung jedes Arbeiters zu einem separaten Wagen und die genaue Überwachung des Arbeitsfortschritts weitere Gewinne erzielt werden konnten (S. 77).

Qualitätsmanagement-Techniken

Bei genauerer Analyse lässt sich feststellen, dass Taylor tatsächlich den Grundstein für das Qualitätsmanagement legte, indem er sich auf Effizienz, kontinuierliche Verbesserung und die Verteilung des Wohlstands an alle Beteiligten in der Organisation konzentrierte. Zunächst betonte er, dass selbst scheinbar einfache und bewährte Fertigkeiten wie das Maurerhandwerk weiter optimiert werden können, selbst für einen erfahrenen Maurer, indem seine Bewegungen schneller, kürzer und weniger ermüdend werden (S. 80). Dann erkennt Taylor die Notwendigkeit der persönlichen Verantwortlichkeit an, die auch heute noch eines der entscheidenden Elemente im Qualitätsmanagement ist, besonders wenn die Produktionsmenge erhöht wird. Er schlug vor, "es unmöglich zu machen, ihre Arbeit zu vernachlässigen, ohne entdeckt zu werden" (S. 90) und empfahl den Fabrikleitern, anonyme Inspektionen einzurichten, damit die Inspektoren nicht wissen, wessen Arbeit sie inspizieren. Um die Inspektoren bei der Stange zu halten, würde ein Vorarbeiter der Charge mehrere fehlerhafte Teile zuführen und später die Genauigkeit des Inspektors aufzeichnen (S. 91). Taylor reduzierte damit die Variation durch eine Kombination von Strategien, die auch in den heutigen statistischen Qualitätstechniken erhalten bleiben (Bothe, 2003).

Entdeckung der Notwendigkeit von Ruhepausen

Taylor beobachtete, dass durch die Verkürzung des Arbeitstages einer Gruppe von Frauen, die in seiner Fabrik arbeiteten, deren Output tatsächlich stieg und die Qualität sich erheblich verbesserte (Taylor, 1911, S. 92). Er bot ihnen zunächst kürzere Arbeitszeiten bei gleichem Lohn an und arrangierte später durch gezielte Experimente und Zusicherungen, dass ihr Lohn gleich bleibt, dass die Frauen nach jeweils 90 Minuten Arbeit eine Pause machen. Die Anordnung von 12 Minuten Pause pro Stunde funktionierte am besten, da sie zu einer höheren Konzentration führte. Um eine höhere Genauigkeit bei höherer Produktion zu fördern, kombinierte Taylor weiterhin die Lohnsätze in Abhängigkeit von Quantität und Qualität der Arbeit der Frauen und minimierte damit drastisch die Kosten pro Stück (S. 93). Der Gewinn für die Frauen war ebenso groß: Ihr Arbeitstag wurde von 10,5 auf 8,5 Stunden verkürzt, ihr Einkommen stieg auf 80 bis 100 % über das ihrer vorherigen Arbeit, und jeden Monat wurden zwei aufeinanderfolgende Ruhetage bezahlt (S. 95). Es wurde behauptet, dass Henry Fords Entscheidung, 1926 die 40-Stunden-Woche einzuführen, durch ähnliche Beobachtungen inspiriert wurde (Nyl, 1995).

Wissenschaftliches Management und aktuelle Managementprinzipien im Vergleich

Es kann argumentiert werden, dass Taylors Studien und Veröffentlichungen die Grundlage für die späteren Lehren des Qualitätsmanagements legten, die von Juran, Deming und anderen theoretisiert wurden. Taylors Philosophie ist jedoch noch weitreichender als seine vier Prinzipien, obwohl es erhebliche Überschneidungen gibt. Taylor betonte, dass sich das Management auf Wissenschaft und nicht auf Daumenregeln oder Vermutungen stützen sollte, dass Harmonie statt Zwietracht angestrebt werden sollte, dass Kooperation gefördert und Individualismus negiert werden muss und dass anstelle von begrenztem Output der maximale Output angestrebt werden sollte (Taylor, 1911, S. 140). Darüber hinaus geht Taylors Philosophie aber sogar über einige der heutigen Managementlehren hinaus. Taylor betonte, dass jeder Mensch zu größtmöglicher Effizienz und Wohlstand entwickelt werden sollte. War Taylor angesichts seines tiefen Verständnisses der menschlichen Motivation ein Pionier in der Vorstellung von der Selbstverwirklichung der Belegschaft?


Taylors philanthropischer Charakter wird in seiner Begründung für höhere Effizienz noch einmal unterstrichen. Taylor stellt fest, dass ein höheres Maß an Effizienz zu größerem Wohlstand für das gesamte Land führt, da die Öffentlichkeit letztlich am meisten von der Produktivitätssteigerung profitiert (Taylor, 1911, S. 141). Taylor unterstützt seine tiefgründige Beobachtung über wettbewerbsfähige Marktkräfte mit Beispielen, wie die industrielle Revolution der Menschheit weltweit zugute kam. Seine Argumentation, wie höhere Effizienz zu mehr Wohlstand für alle Beteiligten, einschließlich der Öffentlichkeit, führt, ähnelt auf einer abstrakten Ebene Michael Porters Rahmenwerk der "fünf Kräfte".

Taylor war ein Analytiker und Optimierer. Er analysierte jede Aufgabe und optimierte dann die Schritte, um die Effizienz und den Arbeitsablauf zu erhöhen. Taylors Bemühungen um mehr Planung, Standardisierung und Produktivität sind heute die Grundlage von Theorien und Richtlinien des Qualitätsmanagements, wie z. B. Six Sigma (Drake, Sutterfield, & Ngassam, 2008). Im Gegensatz zu Taylor und den nachfolgenden traditionellen Methoden beziehen moderne Qualitätssysteme das Verständnis der Kundennachfrage in ihre Definition von Qualität ein. Taylor war ein Pionier zur Stärkung der kontinuierlichen Verbesserung und Standardisierung, die nach wie vor wesentliche Strategien der heutigen Qualitätsideologien sind, und seine Beobachtungs- und Messverfahren wurden später durch statistische Methoden zur Steuerung und Quantifizierung von Qualität ersetzt. Die aktuelle Forschung unterstützt auch Taylors Ansicht, dass Mitarbeitermotivation und kontinuierliche Verbesserung sich gegenseitig verstärkende Phänomene sind (Cheser, 1998).

Jabnoun (2000) und Boje und Winsor (1993) argumentieren, dass Total Quality Management (TQM) als eine Form des Taylorismus interpretiert werden kann; dies würde jedoch nur für sogenannte mechanistische Managementstrukturen in der Organisation gelten, die typischerweise sehr formal, zentralisiert und ziemlich komplex sind. Während solche Managementstrukturen in den frühen 1900er Jahren in industriellen Produktionsumgebungen funktioniert haben, brauchten zukünftige Industrien eine flexiblere Managementstruktur. Organische Organisationen entstanden in der Mitte des 19. Jahrhunderts und beinhalten typischerweise weniger Formalismus und erfordern mehr Kommunikation zwischen den Abteilungen. Organische Strukturen sind heute besser geeignet, um komplexe Probleme zu lösen, die eine flexible Umstrukturierung der Belegschaft in Verbindung mit einer intensiven Interaktion zwischen Mitarbeitern, Management, Kunden und Partnerorganisationen erfordern.

Taylors Prinzipien und ihre Relevanz in heutigen Organisationen

 

Taylor stellte fest, dass sich das Management intensiver mit der Motivation der Mitarbeiter beschäftigen muss (Taylor, 1911, S. 119). Eine entscheidende Beobachtung, die Taylor machte, ist, dass es nicht möglich ist, Mitarbeiter dazu zu bringen, ihren Durchsatz zu erhöhen, wenn ihr Einkommen nicht erheblich und dauerhaft erhöht wird (S. 121). Heutige Organisationen können eine Vielzahl von Vergünstigungen anbieten, um Mitarbeiter zu locken und zu halten; das Einkommen ist jedoch nach neueren Untersuchungen immer noch der Hauptmotivator der Mitarbeiter (Rynes, Gerhart, & Minette, 2004).

Taylor bemerkte jedoch auch, dass andere Faktoren zur Mitarbeitermotivation beitragen. Er segmentierte jede Aufgabe so, dass sie in einen Tag passte, so dass die Mitarbeiter ihren eigenen Fortschritt selbst messen und ein Gefühl der Erfüllung verspüren konnten (S. 120) und ermutigte die Arbeiter, sich kontinuierlich zu verbessern, indem sie ihre eigene Originalität nutzen, um das Wissen der Organisation zu erweitern. Die Zusammenarbeit zwischen Management und Arbeitern wurde weiter gestärkt, indem die Arbeiter ermutigt wurden, Vorschläge einzureichen, und indem sie den Mitarbeitern volle Anerkennung zollten und ihnen für wertvolle Verbesserungen eine Geldprämie zahlten (S. 128). Taylors Managementstil nutzte also das menschliche Bedürfnis nach persönlicher Entwicklung und Wachstum, indem er die Mitarbeiter inspirierte und motivierte (Cheser, 1998). Organisationen, die heute die Kaizen-Philosophie anwenden, verwenden vielleicht fortschrittlichere statistische Techniken; dennoch ist das Kaizen-System eng mit dem wissenschaftlichen Managementgedanken verbunden.

Taylors Prinzipien und Philosophie wurden in den heutigen Qualitätsmanagement-Ideologien, wie Total Quality Management (TQM) und Six Sigma, um Teamarbeit in der gesamten Organisation, Kunden- und andere Stakeholder-Fokus und fortschrittliche statistische Techniken erweitert. Die wichtigsten Verallgemeinerungen von Taylors Prinzipien, die im Herzen aller aktuellen Qualitätssysteme verbleiben, sind der Stakeholder-Fokus und die Erfüllung der Kundenanforderungen (Drake, Sutterfield, & Ngassam, 2008).

Taylors Erkenntnis über die Notwendigkeit von Inspektionen und seine Methoden der Datenanalyse und -bewertung legten den Grundstein für das heutige statistische Denken in qualitätszentrierten Organisationen und ähneln diesem sehr (Bothe, 2003). Insbesondere konzentrierte sich Taylor auf die Eliminierung von Verschwendung, wobei er in seinem gesamten Buch auf die Notwendigkeit hinwies, die Variation durch die Standardisierung von Aufgaben und Werkzeugen zu reduzieren. Was Bothe (2003) als statistisches Denken bezeichnet, spiegelt sich in Taylors Qualitätsrezept wider: messen, Variation reduzieren und verfeinern.



Taylors Experimente in Bezug auf Mitarbeitereffizienz und Arbeitszeiten waren ebenfalls ein grundlegender Beitrag zum Wissensbestand des Managements (Nyl, 1995). Nachdem Taylor durch seine Experimente bewiesen hatte, dass mehr Arbeit mit weniger Ermüdung der Arbeiter und kürzeren Arbeitszeiten erledigt werden konnte, begannen andere Branchenführer, die Arbeitswoche zu verkürzen, wie zum Beispiel Henry Ford, der 1926 die 40-Stunden-Woche einführte (1995). Während die Diskussion über die Arbeitszeit bis heute andauern mag, haben Taylors Experimente den nötigen Anstoß gegeben, um diese wichtige Effizienzvariable in den Fokus der Managementliteratur zu rücken.

In jüngerer Zeit hat Ehrlich (2006) das wissenschaftliche Management auf die heutigen dienstleistungszentrierten Organisationen angewandt. Lean Service ist Ehrlichs Adaption der wissenschaftlichen Managementprinzipien auf moderne Dienstleistungsunternehmen. Ehrlich argumentiert, dass die Eliminierung von Verschwendung bei Kundendienstgesprächen erreicht werden kann, indem Nacharbeitsschleifen abgeschafft werden und ein Kunde nach dem anderen von Anfang bis Ende bedient wird. Ehrlich überträgt damit erfolgreich Taylors Prinzipien von der Fertigung auf den Service und von einer eher mechanistischen und routinierten Umgebung auf eine moderne, hochkomplexe und kundeninteraktive Umgebung. Damit widerspricht seine Forschung einigen der Hauptkritiker Taylors.

Kritiken an Taylors Prinzipien

Drake, Sutterfield und Ngassam (2008) beschreiben, wie Taylors Ideen aus heutiger Sicht aus mehreren Gründen begrenzt erscheinen. Erstens stellten die Autoren fest, dass in Taylors Fabriken den Mitarbeitern genau gesagt wurde, wie sie zu arbeiten hatten, und dass Teamarbeit und funktionsübergreifende Aufgaben selten vorkamen. Zweitens nutzte Taylor die Inspektion nach der Produktion und nicht die Inspektion während des Prozesses. Moderne Qualitätssysteme, wie z. B. Six Sigma, konzentrieren sich ebenfalls auf die Reduzierung von Verschwendung und Fehlern in jedem Teilprozess und Teilproduktionsschritt (2008). Außerdem berücksichtigen Taylors Ideen nicht, dass die Mitarbeiter die Anforderungen der Kunden kennen müssen. In der heutigen Zeit ist eine enge Interaktion zwischen Mitarbeiter und Kunde viel häufiger und wird wahrscheinlich auch von Mitarbeitern außerhalb der Kundendienstabteilungen durchgeführt.

Ein weiterer Hauptkritikpunkt ist, dass die banale Wiederholung von Aufgaben auch für die Arbeiter unattraktiv sein kann und die Arbeiter anfangen könnten, sich wie Maschinen behandelt zu fühlen. Diese Sichtweise hängt jedoch eher davon ab, wie die Arbeitsumgebung eingerichtet ist, als von den Taylor'schen Prinzipien. Die Arbeiter können rotieren und kontinuierlich geschult werden, so dass ihre Arbeit interessant und herausfordernd bleibt. Darüber hinaus hat Ehrlich (2006) gezeigt, wie die Standardisierung von Arbeit an das heutige Szenario von Wissensarbeitern in einer Dienstleistungsbranche angepasst werden kann; damit wirkt Ehrlich der Kritik entgegen, dass sich wiederholende Aufgaben schwer zu standardisieren und zu kontrollieren sind. Wissensarbeiter und sogar kreative Künstler sollten in der Lage sein, Taylors Qualitätsprinzipien auch dann anzuwenden, wenn es scheinbar keine Einheitlichkeit gibt. Die Strategie für Wissensarbeiter-Einstellungen könnte darin bestehen, Aufgabenrichtlinien abstrakter und weniger detailliert zu gestalten und dem Arbeiter mehr Flexibilität zu überlassen.

Einige Autoren haben Taylors Ideologie und Perspektive auf den Menschen als sowohl zu positiv als auch zu negativ kritisiert (Wagner-Tsukamoto, 2008). Taylor war der Meinung, dass Arbeiter inkompetent, geistig veranlagt, resistent gegen die Zusammenarbeit mit dem Arbeitgeber und faul sind. Auf der anderen Seite beschrieb Taylor Manager als vertrauenswürdige und kooperative Personen und suchte nicht nach "systematischem Soldatentum" bei seinen Managern (2008).

Nach intensiver Analyse historischer Dokumente fanden Wrege und Perroni (1974) heraus, dass Taylor die Geschichte über "Schmidt" fabrizierte und entdeckten, dass dieselbe Geschichte in aufeinanderfolgenden Publikationen mindestens dreimal verändert wurde. Taylor behauptete, dass Schmidt systematisch aufgrund seiner Fähigkeiten ausgewählt wurde, obwohl das in Wirklichkeit nicht der Fall war. Darüber hinaus behauptete Taylor, ein Verfechter von angemessenen Ruhezeiten zu sein, doch die Aufzeichnungen zeigen, dass er die Zeiten für den Rückweg als Ruhezeiten interpretierte, wenn die Arbeiter mit leeren Händen zurückkehrten, nachdem sie Eisen auf einen Wagen geladen hatten. Wrege und Perroni (1974) kamen zu dem Schluss, dass Taylors Geschichten über Ruhezeiten ein "Schwindel" waren, basierend auf den Aufzeichnungen über Taylors Experimente.

Wie haben Organisationen auf dem modernen Markt die besten Teile der Strategie adaptiert und gleichzeitig die durchschnittlichen Komponenten verbessert?

Rynes, Gerhart, & Minette (2004) entdeckten eine Diskrepanz zwischen dem, was Mitarbeiter berichten, dass sie motiviert sind, und dem, was sie wirklich motiviert. Taylors Annahme, dass die Bezahlung der wichtigste Mitarbeitermotivator ist, erwies sich auch heute noch als gültig. Während Unternehmen ihre Gewinnbeteiligungsmethoden durch andere Anreize für Mitarbeiter, wie Firmenwagen, längere Urlaube und Krankheitsurlaube, ergänzt haben, ist der Hauptmotivator derselbe geblieben.


Gronroos (1994) beschreibt den Übergang vom Taylorismus zu modernen Dienstleistungsmanagement-Perspektiven und TQM und schlägt vier allgemeine Verschiebungen im Management vor. Erstens soll sich das Management nun auf die gesamte Organisation und die Kundenerfahrung konzentrieren und nicht nur auf das Produkt. Zweitens: Langfristige Beziehungen sind jetzt wichtiger als kurzfristige Transaktionen. Drittens: Anstatt die Qualität auf das Produkt zu beschränken, wird die Qualität nun langfristig auf das gesamte Kundenerlebnis ausgedehnt. Viertens muss das Management Qualitätsprozesse in der gesamten Organisation schaffen und diese zu den Schlüsselprozessen machen, anstatt die Produktion.

Peaucelle (2000) vertrat die Ansicht, dass die Taylor'schen Prinzipien auf die Gewinnmaximierung durch Kostenreduzierung und Erhöhung des Stückzahldurchsatzes beschränkt waren; in der heutigen Welt muss das Management jedoch zusätzlich zu diesen alten Zielen mehrere gleichzeitige Ziele verfolgen. Kürzere Lieferzeiten, bessere Qualität, ein vielfältiges Produktangebot und eine flexible Fertigung sind neue Herausforderungen, die Manager meistern müssen, ohne die langfristigen Kosten zu erhöhen. Peaucelle schlägt daher vor, dass das Aufkommen des "Post-Taylorismus" die Hinzufügung neuer Herausforderungen durch den Einsatz zusätzlicher Aktivitäten bedeutet; das Prinzip, scheinbar sich gegenseitig ausschließende Ziele zu erfüllen, ohne die Kosten zu erhöhen, bleibt jedoch intakt. Auf einer abstrakten Ebene analysiert, zielen Taylors Prinzipien im Wesentlichen darauf ab, mehrere sich scheinbar gegenseitig ausschließende Managementziele zu befriedigen.

Die Anwendbarkeit der wissenschaftlichen Managementprinzipien in der Zukunft

Der Name "wissenschaftliches Management" mag aus der modernen Managementliteratur verschwunden sein; dennoch sind Taylors Prinzipien in den heutigen Organisationen immer noch lebendig (Freeman, 1996). Während sich das Umfeld des heutigen Arbeitnehmers drastisch verändert hat, scheinen Taylors Ideen unsterblich zu sein und dem Wandel durch neue Technologien und Globalisierung standzuhalten. Wie von Peaucelle (2000) vorgeschlagen, sind die heutigen Herausforderungen multidimensional und Manager müssen sich ständig verbessern und neue Wege finden, um alle Interessengruppen zufrieden zu stellen. Neue, erweiterte Versionen des Taylorismus, wie z. B. die statistische Prozesskontrolle (SPC), könnten jedoch in Zukunft in verschiedenen Arbeitsumgebungen eingesetzt werden, auch in solchen, die man sich zu diesem Zeitpunkt noch nicht vorstellen kann. Dies liegt vor allem daran, dass Taylors Prinzipien eher eine Arbeitsphilosophie als eine eng definierte Arbeitsspezifikation sind. Die Beseitigung von Verschwendung, die Minimierung des Ressourcenverbrauchs und die kontinuierliche Verbesserung der Organisation und der Belegschaft werden immer wichtige Ziele für alle Unternehmen auf der Welt bleiben, unabhängig vom Standort.

Brödner (2007) philosophierte, dass wir uns in einem Zeitalter der Transformation befinden, das sich vom Taylorismus bis hin zur kompetenzbasierten Entwicklung von Organisationen erstreckt. Die kontinuierliche Verbesserungs- und Arbeitsoptimierungstheorie Taylors wird also noch einmal auf ein sehr dynamisches Szenario ausgedehnt, in dem sich die Organisation ständig neu definieren und neue Kompetenzen schaffen muss, um zu überleben. In den frühen 1900er Jahren reichte es aus, effizienter zu produzieren, um einen Gewinn zu erzielen und auf dem Markt konkurrenzfähig zu sein. Der heutige hyperkompetitive, globalisierte Markt erfordert eine interne Flexibilität, bei der die Organisation selbst ständig hinterfragt werden muss - der globale Erfolg hängt also von der Fähigkeit ab, sich anzupassen und aus der Vergangenheit zu lernen. Nähern wir uns einer Ära, in der nur "intelligente" Organisationen erfolgreich sein werden?

 

Literatur

Boje, D. M, & Winsor, R. D. (1993). The resurrection of Taylorism: Total quality management's hidden agenda. Journal of Organizational Change Management, 6(4), 57.  Retrieved from http://proquest.umi.com

Brödner, P. (2007). From Taylorism to competence-based production. AI & Society, 21(4), 497-514. Retrieved from http://proquest.umi.com

Bothe, D. R. (2003). Improve service and administration. Quality Progress, 36(9), 53-57.  Retrieved from http://proquest.umi.com

Cheser, R. C. (1998). The effect of Japanese Kaizen on employee motivation in U.S. manufacturing. International Journal of Organizational Analysis, 6(3), 197-217. Retrieved from http://proquest.umi.com

Drake, D., Sutterfield, J., & Ngassam, C. (2008). The revolution of Six-Sigma: An analysis of its theory and application. Academy of Information and Management Sciences Journal, 11(1), 29-44. Retrieved from http://proquest.umi.com

Drucker, P. (1974). Management: Tasks, Responsibilities, Practices. New York, NY: Harper & Row.

Ehrlich, B. (2006). Service with a smile. Industrial Engineer: IE, 38(8), 40-44. Retrieved from http://proquest.umi.com

Freeman, M.  (1996). Scientific management: 100 years old; poised for the next century. S.A.M. Advanced Management Journal, 61(2), 35.  Retrieved from http://proquest.umi.com

Gronroos, C. (1994). From scientific management to service management: A management perspective for the age of service competition. International Journal of Service Industry Management, 5(1), 5.  Retrieved from http://proquest.umi.com

Jabnoun, N. (2000). Restructuring for TQM: a review. The TQM Magazine, 12(6), 395.  Retrieved from http://proquest.umi.com

Nyl, C.  (1995). Taylorism and hours of work. Journal of Management History, 1(2), 8-25.  Retrieved from http://proquest.umi.com

Peaucelle, J. L.  (2000). From Taylorism to post-Taylorism: Simultaneously pursuing several management objectives. Journal of Organizational Change Management, 13(5), 452.  Retrieved from http://proquest.umi.com

Rynes, S. L., Gerhart B., & Minette, K. A. (2004). The importance of pay in employee motivation: Discrepancies between what people say and what they do. Human Resource Management, 43(4), 381-394. Retrieved from http://proquest.umi.com

Wagner-Tsukamoto, S. (2008). Scientific Management Revisited: Did Taylorism fail because of a too positive image of human nature? Journal of Management History, 14(4), 348-372.  Retrieved from http://proquest.umi.com

Wrege, C., & Perroni, A. (1974). Taylor's Pig-Tale: A Historical Analysis of Frederick W. Taylor's Pig-Iron Experiments. Academy of Management Journal, 17(1), 6-27. Retrieved from http://ebscohost.com

Taylor, F. W. (1911). The Principles of Scientific Management. New York, NY: Harper and Brothers Publishers.

Backup-Strategien für große VMs mit und ohne Deduplizierung

Dieses Tool zum Hyper-V Sichern bietet viele Optionen, die es Ihnen ermöglichen, schnell mehrere Backup-Strategien zu implementieren, die Sie gleichzeitig verwenden können.
Wenn Sie es mit sehr großen Dateien zu tun haben, z. B. mit einer 1,6 TB großen VHDX, müssen Sie unter Umständen Wiederherstellungszeiten einplanen.
Eine durchschnittliche moderne Festplatte und ein Server bieten Ihnen Verarbeitungsgeschwindigkeiten von 50 MB/Sek. bis 100 MB/Sek. ohne die Verwendung von RAID.
Eine 1,6 TB große Datei würde also 1677721,6 MB -> 4,7 bis 9,5 Stunden benötigen, um sie wiederherzustellen, unabhängig davon, wie sie wiederhergestellt werden soll.

Die Verwendung einer externen Festplatte ohne Backup-Verarbeitung (keine Deduplizierung, keine Komprimierung) hat den Vorteil, dass man VMs bei Bedarf direkt von der externen Festplatte booten kann.
Diese Strategie erspart Ihnen eine Wiederherstellung von 5-10 Stunden für eine 1,6 TB VM.
Da jedoch jede Strategie einen Nachteil hat, erfordert diese Strategie 1,6 TB für jedes VM-Backup; daher können Sie nicht zu viele Backups aufbewahren. Wenn Sie in der Lage sein wollten, Dateien von vor einer Woche wiederherzustellen, bräuchten Sie 7 * 1,6TB = 11,2 TB Speicherplatz für nur eine VM!

Die meisten Anwender können sich das natürlich nicht leisten und entscheiden sich für ein Hybridsystem.

Hier ist, wie Sie es einrichten würden:
#1: Richten Sie einen Task ein, der jede Nacht ein vollständiges, unkomprimiertes, unbearbeitetes Backup auf eine dedizierte Festplatte schreibt. Auf diese Weise können Sie immer zurückgehen und die VM bei Bedarf sofort booten. Sie benötigen jedoch genügend Platz für mindestens 2 Voll-Backups auf Ihrer Festplatte, da die Software das alte Backup nicht löscht, bevor das neue Backup fertig ist.
#Nr. 2: Richten Sie einen zweiten Task ein, der anschließend mit Deduplizierung und mittlerer Komprimierung ausgeführt wird und auf eine andere Festplatte abzielt. Dieser Task sollte so konfiguriert werden, dass er eine Woche oder mehr an Backups aufbewahrt. Sie können sich dies speichertechnisch leisten, da es dedupliziert und komprimiert ist. Bei dieser Strategie werden etwa 50 % der 1,6 TB Daten für die anfängliche Vollsicherung verwendet (unter der Annahme, dass die VHD tatsächlich vollständig genutzt wird) und dann etwa 5 % für jedes tägliche Inkrement.

Grundsätzlich würden Sie Aufgabe 2 für die langfristige Speicherung von Wiederherstellungsdaten verwenden und Aufgabe 1 für sofortige Wiederherstellungen, wenn eine vollständige Wiederherstellung schnell durchgeführt werden muss.
So oder so sieht es so aus, dass selbst für das Szenario von Aufgabe 2 eine 2,7-TB-Festplatte nicht groß genug ist, um all diese Daten aufzunehmen.

Sie können sich entweder nach größeren USB-Laufwerken umsehen oder einen kleinen Windows-Netzwerkserver mit mehreren 2,7-TB-Laufwerken einrichten, die zu einem Software-RAID zusammengefasst sind. Das ist eine großartige und kostengünstige Möglichkeit, Speicherplatz hinzuzufügen.
NAS-Boxen, die intern nicht Windows und NTFS verwenden, können Ihnen Probleme mit großen Dateigrößen, langen Netzwerkverbindungen und tiefen Pfaden jenseits von 240 Zeichen bereiten.
Jede spezifische NAS-Box ist anders, daher muss von Fall zu Fall untersucht werden, ob sie geeignet ist oder nicht. Die NAS-Systeme mit Windows Storage Server OS sind zwar teurer, aber Sie können sicher sein, dass Sie einen Microsoft-Standard-konformen Speicher haben, der Ihnen keine Probleme bereitet.

7 Gründe, um ein IT-Administrator zu werden!

Denken Sie darüber nach, IT-Administrator zu werden? Oder suchen Sie vielleicht nach Argumenten, um sich bei Ihrer Berufswahl besser zu fühlen? Nun, ich habe ein wenig über den Karriereweg "IT-Administrator" nachgedacht und bin auf die folgenden Gründe gekommen, warum ich denke, dass es eine großartige Wahl für junge enthusiastische IT-versierte Menschen ist, die jetzt einsteigen wollen, aber auch für erfahrene Menschen, die sich beruflich verändern möchten.

Im Folgenden sind die Gründe aufgeführt, warum IT-Administratoren eine großartige Karriereperspektive für die Zukunft haben:
1. Computer und Anwendungen werden jeden Tag leistungsfähiger.

Denken Sie darüber nach, jeder Job auf der Welt wird bald auf die eine oder andere Weise Computerkenntnisse erfordern. Neue Anwendungen werden entwickelt und bestehende Apps werden ständig verbessert. Sogar alte Dinosaurier wie Microsoft Office und Windows erfinden sich selbst neu. Selbst in kleinen Unternehmen braucht man einen IT-Mann, der den Überblick behält und alles einrichtet.  Wer hat die Zeit, all das herauszufinden? Niemand...außer dem IT-Administrator, es ist sein/ihr Job!
2. Die IT-Infrastruktur wird immer größer und komplexer

Vorbei sind die Zeiten, in denen ein Computer für eine einzige Aufgabe angeschafft wurde, z. B. für die Buchhaltung. Heutzutage spielt es keine Rolle mehr, ob es sich um einen Server oder eine Workstation handelt: Er wird mit allen möglichen Anwendungen und Diensten bestückt sein. Server hosten jetzt virtuelle Maschinen mit noch mehr Servern auf der gleichen Hardware. Netzwerke müssen auf Last getestet und richtig geplant werden. Server müssen Benutzergruppen zugewiesen werden, und wenn etwas nicht mehr funktioniert oder eine neue Person zum Team stößt, ist der IT-Administrator derjenige, der dafür zuständig ist
3. Die IT wird zum Herzstück vieler Unternehmen. Und viele Unternehmen sind sich dessen noch nicht bewusst.

Nicht jeder Manager und Geschäftsinhaber ist sich bewusst, wie sehr er von der IT und Computern im Allgemeinen abhängig ist. Wenn Dinge ausfallen, kommen Geschäftsprozesse zum Stillstand. Denken Sie an ein Fließband in einer Fabrik, das plötzlich stoppt. Ich habe einmal miterlebt, wie ein einziger Virus (ich glaube, es war der Sasser-Wurm) über 30.000 PCs lahmgelegt hat. Mein Laptop war nicht betroffen, weil ich vorsichtig genug war, Windows regelmäßig zu aktualisieren. Außerdem war ich als Berater auf Besuch mit Zugriff auf das Netzwerk und voller Kontrolle über mein Gerät. Die 30.000 Benutzer konnten Windows nicht selbst aktualisieren, selbst wenn sie wollten. Ihre IT-Abteilung wollte niemandem Admin-Rechte dafür geben.

Als der Sasser-Wurm seinen Weg in das Netzwerk gefunden hatte, kam das gesamte Unternehmen zum Stillstand. Es war eine Katastrophe und dauerte einen ganzen Tag. Stellen Sie sich vor, wie viel Geld an diesem Tag verschwendet wurde. Das hätte verhindert werden können....durch den IT-Administrator!

Das erschreckt wahrscheinlich die Neulinge, aber hey, mit der Verantwortung kommen auch die Belohnungen... zumindest in der Theorie. Wie auch immer, einige Organisationen erkennen, wie viel Ausfallzeiten kosten oder kosten würden und finanzieren IT-Support-Abteilungen angemessen. Andererseits gibt es aber auch solche, die nicht auf ihre Administratoren hören und den IT-Betrieb völlig unterfinanzieren, ohne sich des Risikos bewusst zu sein, auf das sie sich einlassen.

Schon bald werden viel mehr Geschäftsinhaber die Abhängigkeit ihres Unternehmens von der IT verstehen und mit Sicherheit mehr Admins einstellen. Es braucht in der Regel nur eine große Katastrophe in einem Unternehmen.
4. IT-Ausrüstung wird immer kurzlebiger

Denken Sie, dass die IT manchmal zu schnell ist? Ich denke das auch. Und die meisten Leute haben nicht die Zeit, die Energie und die Fähigkeiten, um jedem neuen Hype auf dem Markt zu folgen. Die meiste Zeit schadet es nicht, diese Trends zu ignorieren. Aber der IT-Administrator ist dazu da, sich über diese Dinge zu informieren und den Führungskräften Vorschläge zu machen. Es gibt immer wieder neue Dinge, die das Leben eines jeden einfacher machen können. Neue Möglichkeiten, Geld zu sparen oder Geld zu verdienen, sind beim "Chef" immer willkommen 🙂 .....
5. IT-Geräte und Software werden zu komplex in der Bedienung

Bekommen Sie ein mulmiges Gefühl, wenn Sie eine neue Software installieren oder ein neues Gerät auspacken, das Sie kürzlich gekauft haben? Ja, heutzutage verbindet sich sogar eine Mikrowelle mit dem Internet, um die Fleischpreise und das Wetter in Beirut abzufragen, also ist es nicht verwunderlich, dass der durchschnittliche Benutzer völlig verwirrt ist. Der IT-Administrator ist dazu da, die Dinge zuerst zu lernen und dann das Durcheinander in einfaches Englisch zu "übersetzen", damit es jeder versteht. Außerdem würde der IT-Administrator all die Details überspringen wollen, für die sich niemand interessiert. Ich wünschte, ich hätte eine Mikrowelle von früher... Sie wissen schon, die ohne das schicke Display aus den guten alten einfachen Tagen.
6. Die IT-Ausrüstung ist heute vielleicht unzuverlässiger als früher

Denken Sie an Festplatten! Die haben früher immer gehalten. Heutzutage ist man froh, wenn man zwei Jahre aus ihnen herausbekommt. Sie glauben mir nicht? Wann haben Sie das letzte Mal ein Backup durchgeführt? ????
7. Datenverlust ist tödlich für eine Organisation

Niemand kümmert sich um die Sicherung von Daten... bis zu dem Tag, an dem Sie alles verlieren. Stellen Sie sich das Chaos vor. Der Chef rauft sich die letzten Haare. Es sind nicht nur IT-Unternehmen, die ihre Daten schützen müssen. Heutzutage hat jedes kleine Unternehmen jede Menge Dateien, in deren Erstellung Tausende von Euros an Arbeit geflossen sind. Der Verlust all dieser Daten kann das Unternehmen leicht irreparabel schädigen.

Die IT-Administratoren sind die Schlüsselfiguren, um all dies zu verhindern. Seien Sie ein Held!

Risiken des Datenverlustes mindern

Natürlich ist die Hauptfunktion von Backup-Software, Datenverluste so weit wie möglich zu verhindern. Sie müssen ein gutes Gespür für alle gängigen Risiken von Datenverlusten haben, da die meisten Formen von Datenverlusten vermeidbar sind.
Dies sind einige typische Ursachen für Datenverluste:
- Feuer.
- Stürme.
- Überschwemmungen.
- Softwarefehler und Fehler, einschließlich des Betriebssystems.
- Versehentliches Löschen durch Benutzer.
- Festplattenfehler: Head-Crash, Verschlechterung usw. Die erwartete Lebensdauer von Festplatten liegt normalerweise unter zwei Jahren.
- Viren-, Ransomware- und Malware-Schäden.
- Statische Entladung. Zum Beispiel an Tagen mit niedriger Luftfeuchtigkeit unter 40 % und Teppichböden im Büro. Staubsauger und andere Geräte können ebenfalls statisch aufgeladen sein. Seien Sie sich dessen bewusst, wenn Sie sich in der Nähe eines Computers befinden.
- Luftfeuchtigkeit und Kondensation. Die ideale Luftfeuchtigkeit sollte zwischen 40 % und 60 % liegen. Eine hohe Luftfeuchtigkeit kann zu Kondensation führen. Trockene Werte können elektronische Teile beschädigen.
- Stromschlag durch Blitzeinschlag in Außenanlagen in der Nähe des Gebäudes oder in Stromleitungen.
- Überspannung durch Blitzschlag oder defekte Elektrogeräte, die im selben Büro oder Haushalt angeschlossen sind.
- Wasserschäden. Sprinkleranlagen, Überschwemmungen oder andere Leckagen.
- Temperatur. Setzen Sie Computer nicht Temperaturen unter 15 Grad Celsius oder über 27 Grad Celsius aus, da elektronische Teile überhitzen können. Niedrige Temperaturen können zu Kondensation führen.
- Mechanischer Schock. Beispielsweise kann ein Notebook fallen gelassen oder ein Desktop versehentlich angestoßen werden, während sich die Festplatten drehen.
- Magnetische Felder. Magnetfelder, die von älteren Fernsehgeräten oder Kabeln verursacht werden, können die empfindlichen Platten in Festplatten oder elektronische Komponenten auf Hauptplatinen beschädigen.
- Unvollständiger Datentransport. Zum Beispiel werden Daten auf einen neuen Computer kopiert und der Benutzer bemerkt möglicherweise nicht, dass die Übertragung nicht vollständig war.

In diesem Artikel finden Sie weitere Informationen über Sicherungssoftware

Microsoft Hyper-V-Sicherung für VHD- und VHDX-VMs

Hier ist eine einfache und vollautomatische Hyper-V-Backup-Software mit mehreren Schlüsselfunktionen für die Notfallwiederherstellung. Sie hilft Ihnen, durch integrierte Deduplizierung und volle CPU-Kernnutzung Zeit und Speicherplatz zu sparen.

Die wichtigsten Vorteile

    Backup-Lösung wird pro Host lizenziert: Unbegrenzte VMs
    Sichern von virtuellen Hyper-V-Maschinen auf USB, Netzwerkfreigaben, NAS, FTP unter Verwendung von Deduplizierung und Komprimierung
    Hochgeschwindigkeits-Backup-Deduplizierung, inkrementell und differentiell
    Installierbar auf allen Hyper-V- und Windows Server-Versionen 2012/2008 R2/2008 inkl. Core mit vollständiger Benutzeroberfläche und Windows 8
    Es bietet Unterstützung für Cluster Shared Volume und angeschlossenen Speicher
    Granulare Sicherung für VHD-, VMDK- und VDI-Formate
    Granulare Wiederherstellung für VHDX- und VHD-Formate
    Es müssen keine Agenten in VMs installiert werden.
    Installiert in nur einer Minute
    24h professionelle technische Unterstützung mit Sitz in Baltimore, MD, USA

Gemeinsam genutzte Cluster-Volumes

Unterstützt werden VMs, die auf einem Cluster Shared Volume, einer lokalen Festplatte, einem Failover-Cluster und extern angeschlossenem Speicher gespeichert sind. VMs können gleichzeitig für VM-weite Konsistenz oder sequentiell (Standard) gesichert werden. Sequentieller Schutz stellt sicher, dass die Ressourcen Ihres Servers nur minimal genutzt werden. Durch den Schutz jeweils einer virtuellen Maschine auf einmal können die Auswirkungen auf den Server auf ein Minimum beschränkt werden; bei Bedarf können Sie jedoch auch gleichzeitig Backups erstellen. Dies ist eine großartige Funktion, insbesondere wenn Sie ein größeres System mit zahlreichen VMs haben und die Systemauswirkungen Ihrer Datensicherungsprozesse minimieren möchten.
Hyper-V-Schnappschüsse

Das Sichern und Wiederherstellen von Hyper-V-Snapshots ist automatisiert und kann sogar auf neuen Hosts durchgeführt werden; Sie müssen lediglich die VM im Wiederherstellungsbildschirm auswählen, und die Aufgabenkonfiguration wird automatisch aktualisiert.
Deduplizierung auf lokalen, USB-, NAS-, Netzwerklaufwerken und FTP

Virtuelle Maschinen können in einem lokalen Ordner oder auf einer lokalen Festplatte, einem externen Laufwerk, einer Netzwerkfreigabe oder über FTP mit einem effizienten Deduplizierungsalgorithmus gespeichert werden, der die Verarbeitungszeit, die Bandbreite und den Platzbedarf drastisch reduziert.

Die Deduplizierung erfolgt in einem komprimierten Format, inkrementell und differentiell.

 
Keine Agenten erforderlich

Sie können auf virtuelle Maschinen vollständig oder nur auf einige VM-Dateien vom Host aus zugreifen. Diese Methode des Zugriffs auf VM-Daten wird als "Granular Backup" bezeichnet und ist Bestandteil der Enterprise Edition.

Sie können virtuelle Maschinen auf verschiedenen Hosts klonen und wiederherstellen

Virtuelle Maschinen können überall und auch auf dem ursprünglichen Host in einer Side-by-Side-Konfiguration wiederhergestellt werden. Identifier-Kollisionen werden mit der Funktion BackupChain VM klonen beim Wiederherstellen automatisch vermieden (dies ist die Standardoption).
Sequentielle und gleichzeitige Backups virtueller Maschinen

Um die Systembelastung Ihres Hosts zu verringern, können Sie die Schutz-VMs nacheinander, eine nach der anderen, anstatt alle gleichzeitig auszuführen. Durch die sequentielle Ausführung von VM-Schutzaufgaben wird die Belastung Ihres Host-Servers drastisch reduziert. BackupChain enthält auch eine Simultanoption für Benutzer, die eine Point-in-Time-Konsistenz auf mehreren Rechnern benötigen. Dies ist nützlich, wenn VMs Software ausführen, die Transaktionen auf mehreren Rechnern verwendet.
Sofortige Wiederherstellung früherer Versionen virtueller Maschinen oder Datendateien

BackupChain kann so eingerichtet werden, dass eine beliebige Anzahl von Backups virtueller Maschinen aufbewahrt wird. Das bedeutet, dass Sie in der Zeit zu einer früheren Version Ihrer Datendatei oder sogar zu einer ganzen virtuellen Maschine zurückgehen können. Wenn Sie eine Wiederherstellung benötigen, können Sie ganze virtuelle Maschinen, einzelne Festplatten oder Dateien wiederherstellen, die zum Zeitpunkt des Kopierens oder der Verarbeitung innerhalb der VM gespeichert waren. Siehe Abschnitte Granulare Sicherung & Granulare Wiederherstellung weiter unten.
Automatische Sicherung und Wiederherstellung von Hyper-V-Snapshots

Virtuelle Maschinen mit Snapshot-Ketten werden vollständig unterstützt. Sie können sogar Snapshots auf neuen Host-Servern (mit ähnlicher CPU-Architektur und Windows-Version) wiederherstellen.
Option: VMs sofort von Ihrem Zielordner booten

Wenn Sie eine neue BackupChain-Aufgabe einrichten, können Sie Deduplizierung auf Dateiebene, ZIP-Komprimierung (oder Varianten der ZIP-Komprimierung), Verschlüsselung oder gar keine Verarbeitung verwenden. Letztere Option ermöglicht Ihnen das sofortige Booten von VMs direkt von Ihrem Zielordner, da alle Dateien in ihrem nativen Format gespeichert werden. Erstellen Sie einfach eine neue VM in der Hyper-V-Verwaltung und verweisen Sie auf die zum Booten benötigte VHD-/VHDX-Datei.

Virtuelle Maschinen mit Microsoft Exchange und Microsoft SQL Server sichern

BackupChain verwendet VSS, um anwendungskonsistente Backups Ihrer virtuellen Maschinen und anderer Datendienste, die auf Ihrem Server laufen, zu gewährleisten. Eine Live-Sicherung von Exchange 2007 oder höher und SQL Server 2005 und höher ist daher kein Problem, da es sich um VSS-fähige Dienste handelt. Sie können die unten beschriebenen Funktionen für granulare Sicherungen und granulare Wiederherstellungen verwenden, um Ordnersicherungen von Exchange- und SQL-Diensten vom Host zu übernehmen, ohne BackupChain in der VM zu installieren. Mit der Granular-Restore-Funktion können Sie Point-in-Time-Versionen von Exchange- oder SQL Server-Daten wiederherstellen, ohne die gesamte virtuelle Maschine wiederherstellen zu müssen.

Besuchen Sie die Website für weitere Informationen


Kostenlos ist fast nie kostenlos

Irgendwann schauen Sie sich Veeam an und denken, dass ihre "freie" Backup-Software großartig ist. Aber es gibt einen großen Haken. Wenn Sie dem System Server und VMs hinzufügen, erreichen Sie schnell den Punkt, an dem "frei" nicht mehr "frei" ist. in der Tat, jetzt plötzlich, ihre kostenlose Lösung kostet Sie viele Tausende von Dollar, um es über das freie Niveau wachsen zu halten. Der Haken des Fangs ist, sie wollen viele tausend Dollar mehr als andere Lösungen da draußen, die unbemerkt blieben, weil das "freie" Label so eine große Ablenkung war.

Das Freemium-Modell ist etwas ein bösartiges, wenn nicht beleidigendes Marketingmodell. Der Eindruck ist, dass ein Produkt für den kostenlosen Gebrauch ohne Bezahlung erhalten wird. Sie beginnen, viel Zeit in sie zu investieren, sie zu installieren, zu lernen, sie zu benutzen, einzurichten, sie zu verwalten und so weiter. Ist Ihnen zeitweise etwas wert? Natürlich ist es so. Deshalb erkennen Sie nach Wochen oder Monaten der Nutzung der "kostenlosen Lösung" endlich, wo und wie sie verkrüppelt und begrenzt war, so dass Sie auf die echte, teure, überteuerte Lösung aktualisieren müssen. Das ist also, wo sie wirklich wollen, dass wir hingehen, zum teuren echten Produkt, das sie verkaufen wollen. Natürlich wissen wir das alle, und doch fallen wir immer wieder darauf herein.

Sie lockten uns mit "Oh, es ist frei, für immer". Jetzt, da wir merken, dass wir die ganze Zeit damit verschwendet haben, es auszuprobieren, es zu lernen, haben wir das Gefühl, dass all die Zeit und Mühe vergeudet würde, wenn wir das Produkt nicht kaufen würden. Und Gott bewahre, dass der Wechsel zu einem anderen Produkt noch mehr Arbeit und Zeitverschwendung verursachen wird, also neigen wir dazu, zu denken. Es ist so viel einfacher, nur in die Kugel zu beißen und das überteuerte Produkt zu kaufen und mit unserem Leben fortzufahren.

OK Freispiele sind fast das gleiche Gimmick, fast. Sie spielen, werden süchtig, dann müssen Sie "Token" kaufen, um das nächste Level freizuschalten, im echten Spiel. Zugegeben, es ist eine kostenlose Testversion. Aber das ist es nicht. Während ein Spiel unterhaltsam ist, auch wenn Sie es nicht kaufen, verschwenden Sie wirklich wertvolle Zeit mit dem Ausprobieren kostenloser Backup-Software. Zeit, die klug und effektiver hätte genutzt werden können. Schlimmer noch, Sie verschwenden auch Geld. Die Lösung ist einfach, wann immer die so genannte "freie Backup-Software für Hyper-V" Nachricht sie erreicht, oder was auch immer, es ist eine große Erinnerung und Investition, um sich umzusehen und zu sehen, welche anderen Optionen da draußen sind. Das freie Wort wurde wie kein anderes missbraucht. Die Coronavirus-Pandemie schneidet in alle unsere Brieftaschen, so dass wir doppelt gewinnen können, Sparen Sie Zeit und Geld, indem wir einige Forschung, wie in dem Artikel unten getan wurde, um Veeam, Acronis, Altaro, und Backup Exec Alternativen hervorzuheben.
Siehe diesen Artikel.

Ursachen der Koffein-Empfindlichkeit & mögliche natürliche Heilung

Bemerken Sie eine Zunahme der Koffeinempfindlichkeit? Vielleicht einen
Anstieg der Herzfrequenz und/oder des Blutdrucks nach dem Trinken einer
oder mehrerer Tassen Kaffee?

Es könnte auf eine Vielzahl von Dingen zurückzuführen sein. Eine der
selteneren Ursachen, über die berichtet wird, ist jedoch das, was ich in
diesem Beitrag ansprechen möchte:

    Vitamin-B-Mangel, insbesondere B12
    Kalziummangel
    Eisenmangel
    Magnesium-Mangel
    Kalium-Mangel
    Unbemerkte Dehydrierung

Wenn Sie unter starkem Stress stehen, brauchen Sie wahrscheinlich mehr
von dem oben Gesagten und vor allem mehr, als die Ernährung allein
bieten kann. Für alle oben genannten Punkte ist auf jeden Fall eine
Nahrungsergänzung erforderlich, außer vielleicht Kalzium, wenn Sie
einfach Ihre Tagebuchzufuhr erhöhen. Ein Glas Milch (250 ml) liefert
etwa 300 mg Kalzium, was nur 1/4 Ihrer empfohlenen Tagesdosis entspricht
(empfohlen werden 1.200 mg pro Tag). Wenn Sie Ihr gesamtes Kalzium über
die Nahrung aufnehmen wollten, sollten Sie auf jeden Fall auf die
Kalorien achten, da Milch und Käse ein bisschen zu schwer sind.

Die B12- und Eisenwerte sind mit der Ernährung allein unglaublich schwer
zu erhöhen. Meine Empfehlung ist, Folgendes zu nehmen:

    Magnesium 400-500 mg pro Tag
    Kalzium 500 mg pro Tag in Form einer Nahrungsergänzung oder
mindestens zwei Pints Milch pro Tag für eine Weile, dann ein Pint
täglich. Bedenken Sie, dass einige Mineralwässer wie S. Pellegrino etwa
170mg/l enthalten, während Deer Park lediglich 7 bis 70mg/l liefert.
Wenn Ihr Wasser nur sehr wenig Kalzium enthält, müssen Sie mehr
Milchprodukte zu sich nehmen oder mehr Milchprodukte zu sich nehmen, was
es erforderlich machen kann, dass Sie Ihr Training steigern müssen, um
die Kalorienlast auszugleichen.
    Kaubare Multivitamine für Kinder: Ich verwende Multivitamine für
Kinder, weil sie sehr gute Mengen an Eisen (18mg), Zink (15mg), Vitamin
D (600IU) und 100mg Kalzium enthalten. Sie werden feststellen, dass die
meisten erwachsenen Multis viel zu schwach sind, insbesondere Zink und
Eisen.
    Vitamin-B-Komplex mit zusätzlichem B12. Ich empfehle
Vitamin-B-Komplex 50 mg und 1.000 mcg B12 täglich. Einige Menschen
nahmen über einen Zeitraum von etwa zwei Monaten täglich 4.000 bis 7.000
mcg ein, um normale Werte zu erreichen.
    Vitamin C (3-5 Gramm pro Tag)
    Trinken Sie mindestens 3 Liter Wasser pro Tag
    Die empfohlene tägliche Zufuhr von Kalium beträgt 4.700 mg. Sie
müssten mehr als zwei Pfund pro Tag oder 1 Kilogramm essen, um den
Tagesbedarf von 4,7 Gramm zu erreichen. Bei den meisten Menschen besteht
in der Tat ein Kaliummangel, der sich in verschiedenen subklinischen
Symptomen wie erhöhtem Blutdruck und manchmal auch erhöhter Herzfrequenz
bemerkbar machen kann.

Anscheinend ist B12 wirklich schwer zu absorbieren. Ich verwende
sublinguales B12 und es funktioniert wirklich gut.

Zurück zur Koffeinempfindlichkeit kann ich sagen, dass bei Vorliegen
eines der oben genannten Mängel ein Anstieg des Blutdrucks beobachtet
werden kann. Sobald die oben genannten Mineralien und Vitamine auf ihrem
normalen Niveau sind, sollte die Empfindlichkeit verschwinden, es sei
denn, es sind noch weitere zugrunde liegende Probleme zu lösen. Das soll
natürlich nicht heißen, dass alle Koffeinempfindlichkeiten auf
Nährstoffmängel zurückzuführen sind; aber besonders wenn Sie lange
arbeiten, häufig trainieren und etwas mehr Kaffee trinken als der
Durchschnittsverbraucher, könnten Sie über die Heilung Ihrer
Koffeinempfindlichkeit hinaus in vielerlei Hinsicht von der
Nährstoffsteigerung profitieren.

Hoffentlich hilft das! Bitte benutzen Sie den Kommentarbereich, um Ihre
Gedanken mitzuteilen!

Die Top 16 Möglichkeiten, um Ihr digitales Leben zu verlieren

Nach einem Festplatten- oder Computerausfall können Sie nicht einfach die alten Bilder und Videos Ihrer Familie zurückbringen, es sei denn, Sie haben ein Sicherungsprogramm verwendet, um alle Ihre Daten vor dem Absturz zu speichern. Prävention ist die beste Strategie, wenn es um Computer- und Festplattenausfälle geht.
Können Sie es sich leisten , all Ihre Arbeit zu verlieren? Wie würden Sie sich fühlen, wenn Sie all Ihre Familienfotos verlieren würden?
Dieser Artikel hilft Ihnen dabei, potenzielle Gefahren zu identifizieren und Ideen zu finden, wie Sie diese vermeiden können.


1. Viren- und Malware-Angriffe.
Viren können ein großes Problem sein und häufig Datenverlust verursachen. Bevor Sie es wissen, übernehmen Hacker die Kontrolle über Ihren Computer über Trojaner, die im Hintergrund in Ihr System injiziert werden, während Sie im Internet surfen. Sie haben nichts heruntergeladen? Egal, diese Schadprogramme finden ihren Weg durch Ihr System.
  Ihr Browser warnt Sie nicht vor einem Virus, der auf Ihrer bevorzugten Nachrichtenseite versteckt ist, da die Leute, die diese Viren schreiben, wissen, wie Sie Ihren Browser und Ihren Virenscanner umgehen können. Virenscanner sind zwar ein Muss, schützen Ihre Daten jedoch nicht vor den neuesten und bahnbrechendsten Viren. Haben Sie jemals versucht, Ihren Computer mit zwei Virenscannern zu scannen? Sie werden überrascht sein, wie sich Viren tarnen können!


2. Diebstahl: in Ihrem Haus, bei der Arbeit, auf dem Weg zur Arbeit ...
Einbrüche sind nicht das einzige Problem. Da Laptops häufig im Freien mitgenommen werden und das Hauptthema für Diebe sind. Klein und leicht, perfekt!
  Risikobereiche: Flughäfen, öffentliche Plätze, Parks, Bars, wie Sie es nennen. Bürodiebstahl: Vergessen wir nicht, dass nicht alle Mitarbeiter Ihre Freunde sind. Leider sind Kleptomanen in allen sozioökonomischen Klassen und allen Organisationen der Welt präsent. Wenn Sie das nächste Mal mit Ihrem Laptop in einer Bar oder einem Café sind und ins Badezimmer gehen, sollten Sie sicherstellen, dass jemand Ihre Sachen beobachtet.


3. Versehentliche Löschungen
Wir haben alle den Papierkorb seit Windows 95… Und dennoch kommt es immer noch zu versehentlichen Löschungen. Ohne Backup können Sie es nicht auf Ihre Festplatte zurückbringen ...


4. Wasserschaden:
Julie hat heute Morgen sehr lange geduscht und ist dann zur Arbeit gegangen. Als Julie nach Hause zurückkehrt, stellt sie fest, dass die Pfeife oben im Badezimmer geplatzt ist. Das Wasser überflutete den gesamten Boden oben und unten… und ruinierte ihren Laptop!
Die Hausgarantie - falls vorhanden - kann den Schaden bezahlen. Aber Ihre Daten sind definitiv weg. Haben Sie jemals von einem wasserdichten Laptop gehört? Vergessen wir nicht, dass das gleiche Szenario in vielen Variationen möglich ist. Dachprobleme, Überschwemmungen, fehlerhafte Sprinkleranlage usw.

5. Kinder
Süß, nicht wahr?  Jimmy ging eines Tages nach Hause, seine Kinder spielten in seinem Bürobereich (er sagte ihnen, sie sollten es nicht tun, aber natürlich hören sie nicht zu) und anscheinend stolperte der kleine Johnny über das Netzkabel des Laptops und verletzte sich ein wenig. Junge, er hat geweint!
Dann kam sein Vater. Dann fing Papa an zu weinen! Nicht für den kleinen blauen Fleck von Johnny (den er kaum bemerkte); nein, weil sein Laptop gefallen ist und jetzt seine ganze Arbeit verloren gegangen ist.
Unfälle passieren und wenn Sie Kinder im Haushalt haben, müssen Sie aufpassen.


6. Feuer
  Setzen Sie sich nicht mit Ihrem Laptop an den Kamin. Es ist zu warm und die Temperatur kann schnell zu einer Brandgefahr werden. Die Batterien in Ihrem Laptop können heiß werden und direkt auf Ihrem Schoß oder schlimmer noch in Ihrem Gesicht explodieren. Brandgefahr ist überall, man kann sich nicht entziehen.
7. Unfälle
Unfälle passieren, also versuchen Sie, so viel wie möglich vorzubereiten und zu verhindern.
Laura war neulich in Eile, schnappte sich ihre Laptoptasche und rannte die Treppe hinunter, um den Bus zu erreichen. Anscheinend hat sie vergessen, die Laptoptasche zu schließen, und nach nur zwei Schritten öffnete sich die Hülle und ihr Laptop nahm seine erste Flugstunde. Es gibt kaum eine Chance für eine Festplatte, diese Art von mechanischem Schlag zu überstehen.
8. Staub
Es ist widerlich und ungesund: Teppiche, Kleidung, Haare, Pollen, Auspuffanlagen, es gibt viele Staubquellen in Haushalten und Büros, und Sie sollten alle zumutbaren Anstrengungen unternehmen, um Ihren Bereich sauber zu halten. Nicht nur, weil alle im Staub enthaltenen Giftstoffe gesundheitsschädlich sind, sondern auch, weil Staub im Allgemeinen auch für elektronische Geräte schädlich ist.
Die meisten Computer haben Lüfter und die modernen High-End-PCs sind mit einem Staubfilter ausgestattet. Die meisten Menschen sind sich dessen nicht bewusst, aber Sie müssen den Staubfilter häufig reinigen, um sicherzustellen, dass die Luftzirkulation im Computer ausreichend ist. Besonders an heißen Tagen oder wenn Sie in trockenen Gegenden leben, kann Ihr Computer aufgrund mangelnder Luftzirkulation überhitzen.
Eine andere zu berücksichtigende Sache ist, dass sich Staub auf Festplatten ansammelt. Möglicherweise können Sie Ihren PC im Inneren staubsaugen, aber Sie können die Festplatten nicht von innen reinigen. Ein IT-Netzwerkadministrator eines großen Unternehmens sagte uns: „Die Server laufen jahrelang, aber wenn wir sie zur Wartung ausschalten, werden sie nicht wieder eingeschaltet. Die Festplatten fallen aus, weil sich der Staub endlich absetzt. “
 

9. Luftfeuchtigkeit: Feuchte Luft, sehr niedrige und sehr hohe Luftfeuchtigkeit sind schlecht für Ihren Computer!
Haben Sie sich jemals gefragt, warum eine kalte Bierflasche nass wird, wenn Sie sie aus dem Kühlschrank nehmen? Während die meisten Menschen wissen, warum, wissen die meisten Menschen nicht, was im Winter passiert, wenn Sie Ihren Laptop von der Kälte auf Raumtemperatur bringen, Ihren Laptop auspacken und sofort einschalten.
Wenn Sie vor dem Einschalten nicht lange genug warten, bis sich der Laptop aufgewärmt hat, führt der Temperaturunterschied zu Kondensation in Ihrem Gerät, was wiederum zu dauerhaften elektronischen Schäden führt .
In Gebieten mit hoher Luftfeuchtigkeit ist dies sogar im Sommer ein Problem. Wenn Sie beispielsweise Ihre Kamera aus Ihrem kühlen, klimatisierten Hotelzimmer nehmen, um Bilder im Freien zu machen, wo es heiß und feucht ist, werden Sie die Kondensation auf dem Objektiv bemerken. Wie bei Ihrer Kamera sollten Sie aufpassen, wenn Sie Ihren Laptop von einer kalten in eine warme Umgebung und umgekehrt bewegen.
Trockene Luft mit Werten unter 40% Luftfeuchtigkeit ist ebenfalls ein Problem. Statische Entladungen treten wahrscheinlich unter trockenen Bedingungen (sowohl im Sommer als auch im Winter) auf und erzeugen Spannungen von über 10.000 Volt (überprüfen Sie hier, wenn Sie es nicht glauben: Statische Elektrizität und Computer ).
 

10. Verschütteter Kaffee:
Alle erfahrenen Computerbenutzer sind oft genug auf diese gestoßen:
Es ist eine wissenschaftliche Tatsache: Tastaturen und Kaffee ziehen sich natürlich an!
Möglicherweise können Sie Ihren Computer und Ihre Daten retten, wenn Sie diese Anweisungen sofort befolgen, um das Problem „Kaffee auf meinem Laptop“ zu beheben: 911 Coffee Spill Instructions

 
11. Stromstoß und andere Stromunterbrechungen = PC Blitzkrieg
Jedes elektronische Gerät sollte an einen Überspannungsadapter angeschlossen werden.
Idealerweise sollten Sie in eine gute USV (unterbrechungsfreie Stromversorgung) investieren, die auch als Batterie-Backup bezeichnet wird . Diese Vorsichtsmaßnahmen schützen Sie jedoch nur vor Spannungsschwankungen und -unterbrechungen (die ebenfalls sehr schädlich sein können, insbesondere bei nicht wahrnehmbaren Sekundenbruchteilen).
Ihr Computer wird höchstwahrscheinlich auch mit einem Modem oder einem kabelgebundenen Netzwerk verbunden sein, z. B. einem Kabelmodem. Diese Geräte sind möglicherweise nicht gegen Überspannungen abgeschirmt, und die Überspannung kann Ihren PC über diese Verkabelung erreichen. WLAN ist natürlich nicht betroffen, da keine Kabelverbindung besteht.
Am sichersten ist es, während eines Gewitters einfach alle Kabel von Ihrem Computer zu trennen, um Schäden zu vermeiden.
12. Verschleiß: Gönnen Sie Ihrem PC eine Pause!
Die Dinge halten nicht ewig an - je länger Ihre Geräte eingeschaltet sind, desto kürzer ist ihre erwartete Lebensdauer. Dies gilt insbesondere für Festplatten und Motherboards. Es ist nicht ungewöhnlich, dass Festplatten lautlos oder mit einem „lustigen“ Klopfgeräusch ausfallen. CPU-Lüfter können plötzlich anhalten, was zu einem überhitzten System führt.

 
13. Temperatur:
Weder zu heiß noch zu kalt ist gut für Ihren Laptop und Desktop-Computer.
Halten Sie Ihren Computer auch nicht im Sonnenlicht und von Fenstern fern. Stellen Sie außerdem sicher, dass genügend Luft zirkuliert. Genau wie Sie benötigt Ihr Computer frische Luft. Betreiben Sie Computer daher nicht in geschlossenen Bereichen wie Möbeln.
Festplatten und CPUs sind die stärksten Wärmeerzeuger in Ihrem PC oder Laptop und müssen ständig gekühlt werden. Das Kühlen erfordert große Mengen kälterer Luft, um effektiv zu sein. Wenn Sie also anfangen, die Lüfter zu hören, müssen Sie etwas langsamer fahren und dem armen Ding eine Pause geben.

 
14. Mechanischer Schock
Schlagen Sie nicht mit der Faust auf den Schreibtisch. Der mechanische Schlag und die folgenden Vibrationen können so stark werden, dass sie eine Kopfkollision in Ihrem Festplattenlaufwerk verursachen können. Festplatten enthalten winzige Köpfe, die für das Lesen und Schreiben von Informationen verantwortlich sind. Diese Köpfe drehen sich nur Bruchteile eines Millimeters über die Magnetzylinderscheiben. Vertikale Bewegung = sofortiger Tod für Ihre Festplatte!

 
15. Magnetfelder
Spielen Sie nicht mit Magneten in der Nähe Ihres Computers, Fernsehgeräts oder Monitors. Es kann Ihren Bildschirm magnetisieren und, noch schlimmer, Ihre Festplatten zerstören. Festplatten sind schließlich magnetische Speicher; Daher ist ein weiteres stärkeres Magnetfeld in der Nähe und… Ihre Dateien sind Geschichte! Magnetfelder werden auch von älteren Röhrenfernsehgeräten und Elektromotoren erzeugt, z. B. dem in Ihrem Staubsauger und anderen motorisierten Geräten und Spielzeugen.

 
16. Was noch? Wir wissen nur, dass die Ausfallraten von PCs und Festplatten rapide zunehmen.
Es mag mystisch klingen, aber es ist wahr: Festplatten und elektronische Geräte fallen aus und niemand weiß wirklich genau warum. Und die Wahrheit ist nicht, wie PC- und Festplattenhersteller es präsentieren: Eine kürzlich von der Carnegie Mellon University durchgeführte Studie ergab, dass Kunden ihre Festplatten 15 Mal (!) Öfter austauschen müssen, als die Hersteller zugeben. (Siehe PC World Artikel )

Die einzige Lösung besteht darin, Ihre Daten jetzt zu sichern!

Was verursacht eine Beschädigung des Dateisystems?

Was sind die Ursachen für die Beschädigung des Dateisystems?

Verwenden von Nicht-Windows-Tools zum Bearbeiten des Dateisystems. Konvertieren von Clustergrößen in MSFT mit Nicht-MS-Tools (die unterwegs abstürzen).
Insider-Einblick: Sehr hohe Systembelastung (dh verursacht durch MS-Dateisystemfehler), Beispiel: Wenn Sie den Server einer sehr hohen E / A- und Ressourcenlast aussetzen, kann dies unter bestimmten Umständen zu einer Beschädigung des Dateisystems führen, insbesondere in Situationen mit geringem RAM .
Lassen Sie daher niemals einen Server mit wenig RAM ausgehen! Schlimme Dinge werden passieren ...

Dann haben wir schlechte Festplattensektoren ... und Bit Rot !!!