Wie man einen Ordner in Windows Defender von einer Batch-Datei ausschließt

Für diejenigen unter Ihnen, die immer noch Skripte wie in den guten alten Zeiten mögen, hier ein Beitrag für Windows Defender.

Der Befehl zum Ausschließen eines Ordners in Windows Defender wird unten gezeigt. Der Aufruf der PowerShell kann aus einer Batch-Datei wie folgt erfolgen:

powershell -Command Add-MpPreference -ExclusionPath "C:\FolderToExclude"

Sie können mehrere dieser Befehle nacheinander ausführen oder stattdessen die PoweerShell-Skriptdatei aufrufen:

PowerShell c:\scripts\mypowershellfile.ps1
Hyper-V Backup

Nachteile der Veeam Backup Software & Probleme mit Veeam

Nachfolgend finden Sie eine Liste der Nachteile von Veeam Backup Software. Diese Probleme mit Veeam sind Meinungen, die von Veeam-Benutzern im Laufe der letzten Jahre gemeldet wurden.

Die Lizenz ist teuer
Sie drängen auf ein jährliches Abonnement anstelle einer unbefristeten Lizenzierung
Es ist schwierig, die Preisgestaltung für Lizenzen zu finden, zu bestimmen und zu verstehen
Sehr große Downloads erforderlich
Langwierige Installation, Installation mehrerer Dienste
Hohe Lernkurve erforderlich
Es ist schwierig, den Sicherungsspeicher von einem Gerät auf ein anderes zu verschieben
Unübersichtliche Benutzeroberfläche, reagiert nicht schnell genug
Lässt sich nicht gut mit Open Source NAS integrieren
Backups sind zu langsam
Begrenzte Unterstützung für physische Server und PCs
Benutzeroberfläche nicht so benutzerfreundlich
Benutzeroberfläche erfordert Zeit zum Erlernen
Laufwerksrotation ist schwierig einzurichten
Eingeschränkte Fähigkeit, Aktionen zu automatisieren, wenn Aufgaben fehlschlagen
Klonen von Aufgaben ist nicht möglich
Die Komprimierung ist nicht gut genug
Lokale Backup-Funktionen sind unzureichend
Insgesamt sehr kompliziert zu bedienen
Erfordert eine gründliche Online-Schulung
Wir hatten Schwierigkeiten bei der Wiederherstellung von VMs auf neuen Hosts
Verschlüsselungsfunktionen für Backups sind unzureichend
Fehlende Möglichkeit zur Konvertierung virtueller Image-Formate
Schwierig, externe Laufwerke zu verwalten
Unverständliche Fehlermeldungen
Die Installation ist nicht intuitiv
Sicherung auf FTP ist unzureichend
Datendeduplizierung ist schwierig zu implementieren
Updates sind nicht einfach zu finden und herunterzuladen
Die Installation dauert sehr lange
Verlangsamt das Starten des Servers
Langsames Mounten von Sicherungszielen
Sicherung und Wiederherstellung sind generell langsam
Fehlerbehebung bei der Datensicherung ist schwierig
Die Funktionen zur Drosselung der Bandbreite sind unzureichend
Sicherungsaufträge werden nicht schnell genug beendet
Deduplizierung muss verbessert werden
Die Funktionen zum Kopieren von Dateien sind unzureichend
Das Auffrischen alter Backups schlägt manchmal fehl
Die Unterstützung für Umgebungen ohne Domänenserver ist unzureichend
Timeout-Probleme sind häufig anzutreffen
Zu viele Bilder, zu viele Grafiken, zu lange Ladezeit des Bildschirms über Remote Desktop
Zusätzliche Funktionen sind teuer
Verwirrende Aufbewahrungsrichtlinien
Fehleranfällig bei Zeitplanungskonflikten
Das Entfernen von Snapshots ist tendenziell langsam
Fehlermeldungen sind oft zu allgemein und unspezifisch
Begrenzte Kontrolle über die Nutzung des Sicherungsspeichers
Gelegentliche Probleme mit inkrementellen Sicherungen (z. B. unterbrochene Sicherungsketten) können zu Datenverlusten führen
Inkrementelle Deltas sind im Vergleich zu anderen Tools zu groß
Die Unterstützung für PCs und Workstations ist begrenzt
Keine P2V-Konvertierungsfunktionen
Die Reaktionszeit des technischen Supports kann ein Problem darstellen
Physische Backups sind komplizierter als virtuelle
Dokumentation ist manchmal unzureichend
Generell schwierig zu implementieren
Die Dokumentation ist manchmal schwer zu verstehen
Erweiterte Optionen sind manchmal schwer zu finden
Physische Backups funktionieren nicht so gut
Cloud-Backup ist nicht so einfach einzurichten

Ist es an der Zeit, sich nach einer Veeam-Alternative umzusehen? Sehen Sie sich stattdessen BackupChain an:

    Erschwingliche Lizenzierung für kleine Unternehmen
    Unbefristete Lizenzen, keine Jahresabonnements
    Einfach zu installieren
    Sehr kleiner Download
    Einfache und übersichtliche Benutzeroberfläche
    UI lädt schnell bei Fernverbindungen
    Schnelle Sicherung und Wiederherstellung
    Einfache Sicherung und Wiederherstellung von physischen und virtuellen Maschinen
    FTP- und Cloud-Backups
    Backups auf Dateiebene
    Automatisierung mit externen Dienstprogrammen/Software
    Detaillierte Protokollierung und Nachverfolgung
    Zentralisierte Konsole
    Reaktionsschneller technischer Support
    Viele erweiterte Backup-Funktionen für fortgeschrittene IT-Profis
    Geplantes Klonen von Festplatten, Disk Imaging
    Backup-Funktionen für virtuelle Maschinen auf verschiedenen Plattformen
    Konvertierung von P2V, V2V, V2P und V2V, wie z.B. Hyper-V zu VMware zu VirtualBox in allen Kombinationen
    100% basiert und hergestellt in den USA

Möchten Sie BackupChain ausprobieren?
Laden Sie es hier herunter.


Warum in die Verifizierung und Validierung des Backup-Prozesses und der Backup-Daten investieren?

In diesem Artikel möchte ich ein neues Software-Tool und seinen Zweck für die Backup-Validierung besprechen (Backup Software). Viele Fachleute, die noch keinen totalen Datenverlust erlebt haben, gehen davon aus, dass die digitale Speicherung perfekt ist und die digitalen Geräte immer einwandfrei funktionieren; die Realität sieht jedoch ganz anders aus. Die Speicherung wird immer dichter und eine Festplatte enthält mehr Informationen als je zuvor. Gleichzeitig sinkt die Fehlerquote nicht dramatisch, so dass die Wahrscheinlichkeit eines Ausfalls pro Gerät in den letzten Jahren sogar gestiegen ist. Darüber hinaus sind andere Bedrohungen für Datenverluste häufiger geworden. Ransomware, Malware und Vandalismus durch unzufriedene Mitarbeiter sind beispielsweise externe Ursachen für Datenverluste, während Bitfäule, Festplatten- und RAM-Defekte das Gerät selbst betreffen.
Ein weiterer Trend der letzten Jahre ist die Verwendung von inkrementellen Backup-Schemata, um den Backup-Prozess zu beschleunigen. Was viele Fachleute leider nicht wissen, ist, dass inkrementelle Backups eine Abhängigkeit zum vorherigen Backup einführen. Wenn ein Backup in der Kette von Backups aus irgendeinem Grund beschädigt wird, wird die gesamte Kette oder zumindest Teile der Backup-Kette unlesbar. Der eigentliche Grund, warum das inkrementelle Schema populär wurde, ist, dass die Festplattenhersteller trotz der Fortschritte beim Speichervolumen die Durchsatzgeschwindigkeiten nicht im gleichen Tempo und mit der gleichen Technologie steigern konnten. SSD-Speicher haben eine viel bessere Durchsatzrate, aber leider auch eine viel höhere Fehlerrate, sowie einen viel schnelleren Verschleiß. Zellen in SSD-Laufwerken nutzen sich schnell ab und werden automatisch durch Ersatzzellen im Laufwerk selbst ersetzt. Der Prozess der Erkennung einer "bald ausfallenden Zelle" wird jedoch normalerweise aufgeschoben, bis die Zelle tatsächlich gelesen wird, was bei Backup-Laufwerken typischerweise nicht oft vorkommt.

Backup-Verifizierung
Das oben genannte Tool bietet Optionen zur Verifizierung von Backup-Dateien unmittelbar nach deren Fertigstellung. Diese Funktionen umgehen das Windows-Zwischenspeichersystem, um sicherzustellen, dass die Datendatei tatsächlich von der Festplatte zurückgelesen wird, auf der sie gespeichert wurde. Einzigartig an dem obigen Tool ist die Fähigkeit, dasselbe auch für Remote-Speicher zu tun. Die Daten werden erneut heruntergeladen, um sicherzustellen, dass jede Datei korrekt verarbeitet wurde. Es gibt zusätzliche Optionen, um diesen Schritt auf Dateien bis zu einer bestimmten Größe zu beschränken.

Backup-Validierung
Die einzigartigen Backup-Validierungsfunktionen des oben genannten Tools ermöglichen es dem Benutzer, Dateien zu validieren, lange nachdem sie verarbeitet wurden. Stellen Sie sich folgendes Szenario vor: Ein typischer Dateiserver eines kleinen Unternehmens enthält mehrere Terabytes an Dateien und Ordnern, typischerweise etwa 10 Millionen Dateien oder mehr. Typischerweise werden weniger als 1 % dieser Dateien im Laufe der Zeit geändert, insbesondere nach etwa einem Monat nach der letzten Bearbeitung. Im Durchschnitt ruhen diese Dateien jahrelang, ohne dass jemals darauf zugegriffen wird. Bitfäule, Festplattendefekte, Malware und einfache Löschungen oder Dateiveränderungen durch einen verärgerten Mitarbeiter können unbemerkt bleiben, bis Jahre später die Festplatten des Dateiservers komplett ausfallen und eine vollständige Wiederherstellung erforderlich ist. Wie kann ein solch großer Datenbestand effizient validiert werden?
Die oben genannte Software bietet eine einzigartige Lösung für dieses Problem, bei dem täglich Terabytes an Daten gesichert werden. Die Software verwendet eine Validierungsfunktion, die eine zufällige Validierung eines Prozentsatzes der Sicherungsdateien bei jedem Sicherungszyklus ermöglicht. Sie können die Software beispielsweise so konfigurieren, dass nur 1 % aller Sicherungsdateien Ihres Dateiservers validiert werden. Wenn Ihr Dateiserver derzeit 1 Million Dateien enthält, wären das 10.000 zu überprüfende Dateien. Wenn Sie eine zufällige Auswahl von 1 % aller Sicherungsdateien validieren, würde es im Durchschnitt 100 Zyklen dauern, jede Datei zu validieren. Wenn das Backup 10 Mal pro Tag läuft, würde es 10 Tage dauern, den gesamten Backup-Satz zu validieren.
Während kleine Backup-Sets innerhalb von Stunden vollständig gesichert und validiert werden können, ist es bei Millionen von Ordnern und Dutzenden von Terabyte Speicherplatz nicht mehr möglich, das gesamte Set bei jedem Backup-Zyklus zu validieren, da der Datendurchsatz der Netzwerkverbindung und der von mechanischen Festplatten begrenzt ist. Als Kompromiss decken die Funktionen des Tools das gesamte Backup-Gerät ab, indem bei jedem Backup-Zyklus eine zufällige Teilmenge ausgewählt wird.
Das erneute Einlesen der Backup-Dateien ist kritisch, da dabei alle Zellen und Sektoren auf dem Laufwerk aktualisiert werden. Durch die Verwendung der Backup-Validierung des Tools werden Ihre Daten vom Laufwerk "aktualisiert", d. h. das Laufwerk wird gezwungen, die Sektoren erneut zu überprüfen und bei Bedarf interne Reparaturen durchzuführen. Wenn Reparaturen nicht mehr möglich sind, sendet das Laufwerk ein Signal an Windows und das Tool protokolliert das Problem und sendet Warnmeldungen, um Sie über das Problem zu informieren. Darüber hinaus verwendet die Software Prüfsummen und/oder führt einen 1:1-Vergleich mit der Originaldatei durch, um den Inhalt jeder Sicherungsdatei zu validieren. Daher ist die Backup-Validierung eine wichtige "Versicherung": Sie haben den wiederholten Beweis, dass alle Dateien in Ihrem Backup-Speicher tatsächlich noch gültig und lesbar sind (Ransomware backup software)


Ist Hyper-V besser als VMware?

Wir hören es oft, aber ist Hyper-V besser als VMware? Das ist eine gute Frage, die dieser Artikel unmöglich in allen Einzelheiten beantworten kann; wir werden uns jedoch ein paar gemeinsame Aspekte der beiden Virtualisierungsplattformen ansehen und sie miteinander vergleichen.
Das Tolle an Hyper-V ist, dass es mit Windows Server und sogar Windows 10 Professional ausgeliefert wird; wenn Sie es also ausprobieren möchten, müssen Sie nur die Hyper-V-Rolle in Ihrer Windows-Installation aktivieren. Im Gegensatz zu VMware ist es nicht notwendig, einen dedizierten Server zu verwenden, um als VMware-Host zu dienen; wenn Sie jedoch diese Art von Setup bevorzugen, ist Hyper-V auch als kostenloses Betriebssystem verfügbar, das für eigenständige, kleine Hypervisor-Hosts gedacht ist.
Hyper-V bietet eine bessere Windows-Integration. Es arbeitet perfekt mit Windows-Gastbetriebssystemen zusammen und Windows wird bereits mit den Treibern ausgeliefert, die es für die Virtualisierung innerhalb von Hyper-V-Servern benötigt. VMware hingegen hinkt immer hinterher, wenn es um die neuesten Windows-Versionen geht, so dass Sie möglicherweise eine Weile warten müssen, bis sie ihre Integrationstools aktualisieren.
Die meisten Anwender finden, dass Hyper-V bei weitem einfacher zu bedienen ist als VMware. Ein Grund dafür ist, dass die Benutzeroberfläche und das Betriebssystem so funktionieren, wie sie es gewohnt sind und nicht die Kommandozeile oder Konzepte aus der UNIX-Welt beinhalten. Da Hyper-V in Windows integriert ist, ist es auch viel einfacher, VM-Dateien zwischen dem Host und anderen Computern hin und her zu verschieben.
Hyper-V hat aber auch große Nachteile. Linux und andere nicht so populäre Betriebssysteme werden nicht so gut unterstützt, und einige Leute vermuten, dass dies absichtlich geschieht. Wenn Sie eine sehr gute Unterstützung für Linux- und UNIX-Gastbetriebssysteme benötigen, ist es ohne Frage am besten, VMware zu verwenden.
Sogar das PC-Produkt von VMware, VMware Workstation, schneidet bei obskuren Betriebssystemen viel besser ab als Hyper-V, aber es gibt noch einen weiteren großen Vorteil für PC-Anwender, VMware zu verwenden: Die Grafik und die Leistung auf PCs ist generell besser. Wenn Sie Spiele oder 3D-Grafik innerhalb der VM verwenden, wäre es sinnvoll, die Leistung auf VMware zu vergleichen, bevor Sie Ihre Entscheidung treffen.
Ein weiterer Nachteil von Hyper-V ist ebenfalls nicht überraschend: ältere Windows-Betriebssysteme werden in neueren Versionen von Hyper-V nicht gut unterstützt. Schließlich will Microsoft Betriebssysteme verkaufen, VMware hingegen nicht, so dass hier ein klarer Interessenkonflikt besteht, der sehr offensichtlich ist. Wenn Sie sehr alte Windows-Versionen ausführen müssen, können Sie sich auf VMware verlassen und darauf, dass sie diese Funktionalität noch viele Jahre länger unterstützen als Microsoft.
Wenn wir uns schließlich groß angelegte Implementierungen ansehen, stellen wir fest, dass die von VMware verwendete Technologie Hyper-V wahrscheinlich immer noch weit voraus ist. Während Microsoft schnell daran arbeitet, den Rückstand aufzuholen, werden die Unternehmenskunden sehr wahrscheinlich bei VMware bleiben, da sich das Unternehmen bei großen virtuellen Rechenzentren bewährt hat.
Unabhängig davon, ob Sie sich für Hyper-V oder VMware entscheiden, sollten Sie auf jeden Fall darüber nachdenken, wie Ihre virtuellen Maschinen gesichert werden sollen. Aber wie genau wird der Host Ihrer virtuellen Maschinen gesichert? Vielleicht möchten Sie einen Blick auf BackupChain werfen. BackupChain ist eine All-in-One-Backup-Lösung, die Hyper-V-Backup, VMware-Backup sowie Host-Festplatten-Backup bietet, um auch den Host zu sichern. Installieren Sie BackupChain einfach auf jedem Host und Ihre VMs werden nach einer schnellen und einfachen, zweiminütigen Einrichtung gesichert und geschützt.


Eine Analyse von Frederick Taylors Scientific Management

Frederick W. Taylor war der Begründer der Scientific Management Bewegung in den frühen 1900er Jahren. Als Maschinenbauingenieur entwickelte er ein Interesse an der Verbesserung der Effizienz in der Stahlindustrie, mit der er zu dieser Zeit am meisten vertraut war. Drucker (1974) bezeichnete Taylor als "... den ersten Menschen in der aufgezeichneten Geschichte, der die Arbeit für würdig hielt, systematisch beobachtet und studiert zu werden". Drucker fügte auch hinzu, dass, obwohl Taylor nur die Grundlagen der Managementlehre schuf, "[n]icht viel zu ihnen hinzugefügt wurde seither - obwohl er schon sechzig Jahre tot ist". Taylors eigene Publikation zum Scientific Management zeigt deutlich Taylors Begeisterung für Effizienz und die Wissenschaft der Arbeit, aber auch seinen persönlichen Charakter als Philosoph und Philanthrop. Taylor (1911) gibt seine altruistischen Motive gleich im ersten Satz seines Buches an, indem er betont, dass das Hauptziel des Managements die Maximierung des Wohlergehens des Arbeitgebers wie auch jedes einzelnen Mitarbeiters sein sollte.

Die wichtigste Voraussetzung für Wohlstand, ob für den Arbeitgeber, den Arbeitnehmer oder die gesamte Wirtschaft, ist Effizienz (Taylor, 1911, S. 11). Indem er seine eigene Belegschaft über Jahrzehnte hinweg analysierte, nennt Taylor zwei Hauptgründe, warum die Effizienz litt. Erstens fehlte es den Arbeitern an formaler Ausbildung und standardisierten, systematischen Fähigkeiten. Zweitens und am wichtigsten war Taylor absolut sicher, dass die meisten Arbeiter glaubten, dass die Beziehung zwischen Arbeitgeber und Arbeitnehmer notwendigerweise antagonistisch ist (S. 10). Er glaubte, dass die Arbeiter es als gegen ihr Interesse wahrnahmen, ihrem Arbeitgeber die volle Initiative zu überlassen. Nach Taylors Ansicht verbünden sich die Arbeiter gegen ihren Arbeitgeber und arbeiten auf einem minimalen Produktivitätsniveau, gerade hoch genug, um nicht gefeuert zu werden. Diese feindselige und kontraproduktive Weltsicht der Arbeiter wurde als "Soldatentum" bezeichnet, und Taylor glaubte, dass dies die Hauptursache für die Arbeitslosigkeit in England zu dieser Zeit war, da die Arbeiter ernsthaft glaubten, dass es gegen ihr eigenes Interesse sei, so hart wie möglich zu arbeiten.

Um die beiden Haupthindernisse zu bekämpfen, die dem Erreichen eines höheren Effizienzniveaus im Wege stehen, glaubt Taylor (1911), dass die Arbeiter zusätzliche Anreize brauchen, um volle Initiative zu zeigen. Die "besonderen Anreize" können den Arbeitern auf vielfältige Weise gleichzeitig angeboten werden: Zum Beispiel, indem man den Arbeitern einen großzügigen Stückpreis zahlt, indem man sie kürzer arbeiten lässt, indem man ihre Arbeitsbedingungen verbessert, indem man persönliche Rücksichtnahme zeigt und einen freundlichen Kontakt pflegt. Taylor behauptete, dass ein freundliches Interesse am Wohlergehen des Arbeiters einen großen Beitrag zur Erhaltung einer hocheffizienten und zufriedenen Belegschaft leisten kann.

Die wissenschaftliche Methode auf das Management angewandt

Die wichtigste Errungenschaft von Taylors Managementtheorie ist jedoch die Anwendung der wissenschaftlichen Methode auf das Management. Wie Drucker (1974) feststellte, war Taylor der erste, der Arbeitsaufgaben auf methodische und wissenschaftliche Weise beobachtete und analysierte. Taylor entdeckte die Notwendigkeit der Anwendung der Wissenschaft auf das Studium der Arbeit während seiner Karriere in der Stahlindustrie, wo er alle Funktionen und Ebenen in den Fabriken durchlief. Er erwähnt, dass es in einem typischen Stahlwerk über 30 verschiedene Gewerke gab und dass sich die Fähigkeiten der Handwerker evolutionär entwickelten und von Generation zu Generation weitergegeben wurden. Da es keine Einheitlichkeit der Fertigkeiten, keine systematische Kodifizierung oder Analyse der Arbeitsprozesse gab, war es üblich, dass jeder Arbeiter nur über Teilkenntnisse verfügte und ihm entscheidende Fähigkeiten fehlten, um sein Effizienzniveau zu steigern. Außerdem war die Zeit Anfang 1900 grundlegend anders als heute - das Bildungsgefälle zwischen Arbeiterklasse und höheren Gesellschaftsschichten war enorm größer als heute. Darüber hinaus wurde fehlendes Wissen als mangelnde Intelligenz interpretiert und diejenigen, die das Glück hatten, gebildet zu sein, verspotteten die weniger Gebildeten aufs Schärfste. Es war daher nicht ungewöhnlich oder überraschend, in Taylors Buch harsche Aussagen zu finden, wie z. B. diese: "...der Arbeiter ist so dumm, dass das Wort 'Prozent' für ihn keine Bedeutung hat" (Taylor, 1911, S. 59). Taylor erkannte jedoch, dass er neben der wissenschaftlichen Optimierung der Arbeitsprozesse auch die pädagogischen Probleme in den Griff bekommen musste, wenn Scientific Management ein Erfolg werden sollte.

Taylor (1911) legt fest, dass vier Hauptprinzipien befolgt werden müssen, um die Initiative der Arbeiter, die Einheitlichkeit und letztendlich eine höhere Effizienz zu erreichen. Erstens muss jede ausgeführte Arbeit in eine Reihe von Aufgaben zerlegt werden. Für jede Aufgabe muss eine Wissenschaft entwickelt werden, indem Maßnahmen ergriffen, standardisiert, systematisiert und Routinen geschaffen werden. Daumenregeln und Vermutungen müssen eliminiert werden. Zweitens müssen für jede Aufgabe die geeigneten Auswahlkriterien für die Mitarbeiter gefunden werden. Dann ist jeder Mitarbeiter sorgfältig auszuwählen, zu schulen und zu unterrichten, damit er die Aufgabe auf eine standardisierte Weise ausführt. Drittens liegt es sowohl in der Verantwortung des Managements als auch der Arbeiter, sicherzustellen, dass die Arbeit gemäß dem entwickelten System ausgeführt wird. Diese gleichmäßige Verteilung der Verantwortung zwischen Arbeiter und Manager soll sicherstellen, dass jeder Arbeiter die Aufmerksamkeit, das Training und die Unterstützung erhält, die für eine gute Leistung notwendig sind. Viertens impliziert die gleiche Verteilung von Arbeit und Verantwortung zwischen Arbeitern und Management auch, dass das Management die Arbeit übernehmen sollte, für die es besser geeignet ist als die Arbeiter (S. 36).

Diese vier Prinzipien stellten eine große Veränderung im Vergleich zu den üblichen, gewöhnlichen Managementstilen der frühen 1900er Jahre dar und erzielten zahlreiche Effizienzsteigerungen. Aufgaben wurden in Aufgaben standardisiert, was wiederum den Arbeitern und dem Management ermöglichte, sich auf jede Aufgabe vorzubereiten und die für die Erledigung notwendigen Ressourcen zu planen. Die Segmentierung der Arbeit in routinemäßige Aufgabensequenzen öffnete auch die Tür für systematisches Experimentieren und Aufgabenoptimierung durch Versuch und Irrtum und aufeinanderfolgende Iterationen, die Taylor mit großem Interesse durchführte. Die aufgabenbasierte Arbeit erlaubt es dem Management auch, Ressourcen nach Bedarf zuzuweisen und Arbeiter zu rotieren, um einen konstanten und vorhersehbaren Arbeitsablauf zu gewährleisten. Taylor richtete eine Planungsabteilung ein, um die Arbeit jedes Einzelnen im Voraus zu planen und dadurch Leerlaufzeiten zu minimieren und die Ressourcenzuweisung zu maximieren. Die systematische Optimierung jeder Aufgabe durch wissenschaftliche Methoden verringerte auch Schwankungen in der Produktion, was wiederum Fehler und Verschwendung reduzierte. Da die meisten Teile in einer Fabrik zu dieser Zeit noch von Hand gefertigt wurden, war diese Erkenntnis zur Minimierung der Varianz grundlegend für das Erreichen neuer Effizienzniveaus.

Höhere Gewinne für alle Stakeholder

Deutlich höhere Löhne, die gemeinsame Verantwortung und die verbesserte intime Zusammenarbeit zwischen Management und Arbeitern führten dazu, dass sich die Arbeiter gestärkt fühlten und das Gefühl, missbraucht zu werden oder Opfer kapitalistischer Ausbeutung zu sein, änderten; so arbeiteten sie härter und übernahmen mehr Verantwortung. Taylors Kombination seiner vier Prinzipien erreichte so eine deutlich höhere Produktivität der Betriebe. Es gelang ihm, die Wahrnehmung, dass das Management die Arbeiter ausbeutet, zu beseitigen, indem er ihnen einen höheren Lohnsatz zahlte und ihnen zusätzliche Anreize gab, härter zu arbeiten, und indem er die Arbeits- und Fertigungsmethoden systematisierte. Die Systematisierung der Arbeit in Verbindung mit der verstärkten Unterstützung und Schulung des Managements sorgte dafür, dass die Arbeiter produktiver wurden und die Interessen von Management und Arbeitern angeglichen wurden, indem der Antagonismus beseitigt wurde. Infolgedessen konnte Taylors Unternehmen einen höheren Durchsatz, mehr Gewinn und qualitativ hochwertigere Produkte erzielen. Unter Taylors altem Plan umfasste seine Belegschaft zwischen 400 und 600 Arbeiter und die Kosten pro Tonne Eisen betrugen 0,072 $. Diese Kennzahlen wurden drastisch auf 140 bzw. $0,033 gesenkt, während der Verdienst pro Mann und Tag von $1,15 auf $1,88 stieg, was etwa 60% über dem Marktpreis lag (Taylor, 1911, S. 71).

Taylors Erfolg war zum Teil auf die vier Prinzipien des wissenschaftlichen Managements zurückzuführen, aber auch auf Taylors offensichtliche Besessenheit von Effizienz und seinen Drang, jeden einzelnen winzigen Aspekt zu verstehen, der den Arbeitsablauf in seiner Fabrik verbessern könnte. Auf der Suche nach dem "universellen Gesetz", das beschreibt, wie viel "foot-pounds" an Energie ein Arbeiter aufwenden kann, bevor er ermüdet, experimentierte er mehrmals, jedoch ohne Erfolg. Sein Streben nach Effizienz wurde durch seine tief verwurzelte Überzeugung unterstrichen, dass es ein präzises und eindeutiges Gesetz geben muss, um einen vollen Arbeitstag eindeutig zu quantifizieren. Dieses Gesetz, oder zumindest eine Annäherung daran, wurde von Carl Barth, einem von Taylor angeheuerten Mathematiker, entdeckt. Er fand heraus, dass ein Arbeiter, der ein Gewicht von 92 Pfund trägt, dieses Gewicht nur für 43 % der Zeit halten kann; die anderen 57 % werden für die Ruhephase benötigt. Wenn das Gewicht verringert wird, kann die Haltezeit erhöht und damit die Ruhezeit verkürzt werden; daraus wurde gefolgert, dass angemessene Ruhezeiten entscheidend sind, um ein Höchstmaß an Effizienz zu erreichen, indem verhindert wird, dass die Arbeiter zu schnell ermüden (Taylor, 1911, S. 59). Taylor gibt ein Beispiel dafür, wie weit die Bemühungen zur Aufgabenanalyse gehen sollten, indem er den Unterschied erörtert, den eine Schaufelbelastung auf den Arbeiter haben kann, und vergleicht die Belastung mit der maximalen Arbeitsdauer, wenn eine Schaufel mit fünf, 10, 20 oder mehr Pfund auf einmal belastet wird (S. 65).


Die Notwendigkeit der Aufzeichnungspflicht

Taylors Vorstellung, dass "jede einzelne Handlung oder jeder Arbeiter auf eine Wissenschaft reduziert werden kann" (Taylor, 1911, S. 64), spiegelt sich auch in den außerordentlich detaillierten Aufzeichnungsbemühungen in seiner Fabrik wider. Die detaillierte Projektplanung, die von seiner Planungsabteilung geleitet wurde, erstellte im Voraus Zeitpläne und Aufgabenbeschreibungen für jeden einzelnen Arbeiter. Taylor erwähnt, wie ein ehemaliger Angestellter zu Taylor zurückkehrte und ihm erklärte, wie unproduktiv die Konkurrenten zu dieser Zeit waren und warum dieser Arbeiter deshalb im Konkurrenzwerk viel weniger verdiente. Der Mann berichtete, dass die Arbeiter in der Fabrik des Wettbewerbers in unbeaufsichtigten Banden arbeiteten und daher die Produktivität auf ein Minimum sank. Taylor kam zu dem Schluss, dass sie nur einen Bruchteil ihrer Ressourcen effizient nutzten, weil die Aufzeichnungen des Konkurrenten unzureichend waren und das Management die zusätzliche Arbeit der Vorausplanung für jeden einzelnen Arbeiter und jede seiner Aufgaben nicht machen wollte. Außerdem konnten sie aufgrund der fehlenden Aufzeichnungen nicht erkennen, dass durch die Zuweisung jedes Arbeiters zu einem separaten Wagen und die genaue Überwachung des Arbeitsfortschritts weitere Gewinne erzielt werden konnten (S. 77).

Qualitätsmanagement-Techniken

Bei genauerer Analyse lässt sich feststellen, dass Taylor tatsächlich den Grundstein für das Qualitätsmanagement legte, indem er sich auf Effizienz, kontinuierliche Verbesserung und die Verteilung des Wohlstands an alle Beteiligten in der Organisation konzentrierte. Zunächst betonte er, dass selbst scheinbar einfache und bewährte Fertigkeiten wie das Maurerhandwerk weiter optimiert werden können, selbst für einen erfahrenen Maurer, indem seine Bewegungen schneller, kürzer und weniger ermüdend werden (S. 80). Dann erkennt Taylor die Notwendigkeit der persönlichen Verantwortlichkeit an, die auch heute noch eines der entscheidenden Elemente im Qualitätsmanagement ist, besonders wenn die Produktionsmenge erhöht wird. Er schlug vor, "es unmöglich zu machen, ihre Arbeit zu vernachlässigen, ohne entdeckt zu werden" (S. 90) und empfahl den Fabrikleitern, anonyme Inspektionen einzurichten, damit die Inspektoren nicht wissen, wessen Arbeit sie inspizieren. Um die Inspektoren bei der Stange zu halten, würde ein Vorarbeiter der Charge mehrere fehlerhafte Teile zuführen und später die Genauigkeit des Inspektors aufzeichnen (S. 91). Taylor reduzierte damit die Variation durch eine Kombination von Strategien, die auch in den heutigen statistischen Qualitätstechniken erhalten bleiben (Bothe, 2003).

Entdeckung der Notwendigkeit von Ruhepausen

Taylor beobachtete, dass durch die Verkürzung des Arbeitstages einer Gruppe von Frauen, die in seiner Fabrik arbeiteten, deren Output tatsächlich stieg und die Qualität sich erheblich verbesserte (Taylor, 1911, S. 92). Er bot ihnen zunächst kürzere Arbeitszeiten bei gleichem Lohn an und arrangierte später durch gezielte Experimente und Zusicherungen, dass ihr Lohn gleich bleibt, dass die Frauen nach jeweils 90 Minuten Arbeit eine Pause machen. Die Anordnung von 12 Minuten Pause pro Stunde funktionierte am besten, da sie zu einer höheren Konzentration führte. Um eine höhere Genauigkeit bei höherer Produktion zu fördern, kombinierte Taylor weiterhin die Lohnsätze in Abhängigkeit von Quantität und Qualität der Arbeit der Frauen und minimierte damit drastisch die Kosten pro Stück (S. 93). Der Gewinn für die Frauen war ebenso groß: Ihr Arbeitstag wurde von 10,5 auf 8,5 Stunden verkürzt, ihr Einkommen stieg auf 80 bis 100 % über das ihrer vorherigen Arbeit, und jeden Monat wurden zwei aufeinanderfolgende Ruhetage bezahlt (S. 95). Es wurde behauptet, dass Henry Fords Entscheidung, 1926 die 40-Stunden-Woche einzuführen, durch ähnliche Beobachtungen inspiriert wurde (Nyl, 1995).

Wissenschaftliches Management und aktuelle Managementprinzipien im Vergleich

Es kann argumentiert werden, dass Taylors Studien und Veröffentlichungen die Grundlage für die späteren Lehren des Qualitätsmanagements legten, die von Juran, Deming und anderen theoretisiert wurden. Taylors Philosophie ist jedoch noch weitreichender als seine vier Prinzipien, obwohl es erhebliche Überschneidungen gibt. Taylor betonte, dass sich das Management auf Wissenschaft und nicht auf Daumenregeln oder Vermutungen stützen sollte, dass Harmonie statt Zwietracht angestrebt werden sollte, dass Kooperation gefördert und Individualismus negiert werden muss und dass anstelle von begrenztem Output der maximale Output angestrebt werden sollte (Taylor, 1911, S. 140). Darüber hinaus geht Taylors Philosophie aber sogar über einige der heutigen Managementlehren hinaus. Taylor betonte, dass jeder Mensch zu größtmöglicher Effizienz und Wohlstand entwickelt werden sollte. War Taylor angesichts seines tiefen Verständnisses der menschlichen Motivation ein Pionier in der Vorstellung von der Selbstverwirklichung der Belegschaft?


Taylors philanthropischer Charakter wird in seiner Begründung für höhere Effizienz noch einmal unterstrichen. Taylor stellt fest, dass ein höheres Maß an Effizienz zu größerem Wohlstand für das gesamte Land führt, da die Öffentlichkeit letztlich am meisten von der Produktivitätssteigerung profitiert (Taylor, 1911, S. 141). Taylor unterstützt seine tiefgründige Beobachtung über wettbewerbsfähige Marktkräfte mit Beispielen, wie die industrielle Revolution der Menschheit weltweit zugute kam. Seine Argumentation, wie höhere Effizienz zu mehr Wohlstand für alle Beteiligten, einschließlich der Öffentlichkeit, führt, ähnelt auf einer abstrakten Ebene Michael Porters Rahmenwerk der "fünf Kräfte".

Taylor war ein Analytiker und Optimierer. Er analysierte jede Aufgabe und optimierte dann die Schritte, um die Effizienz und den Arbeitsablauf zu erhöhen. Taylors Bemühungen um mehr Planung, Standardisierung und Produktivität sind heute die Grundlage von Theorien und Richtlinien des Qualitätsmanagements, wie z. B. Six Sigma (Drake, Sutterfield, & Ngassam, 2008). Im Gegensatz zu Taylor und den nachfolgenden traditionellen Methoden beziehen moderne Qualitätssysteme das Verständnis der Kundennachfrage in ihre Definition von Qualität ein. Taylor war ein Pionier zur Stärkung der kontinuierlichen Verbesserung und Standardisierung, die nach wie vor wesentliche Strategien der heutigen Qualitätsideologien sind, und seine Beobachtungs- und Messverfahren wurden später durch statistische Methoden zur Steuerung und Quantifizierung von Qualität ersetzt. Die aktuelle Forschung unterstützt auch Taylors Ansicht, dass Mitarbeitermotivation und kontinuierliche Verbesserung sich gegenseitig verstärkende Phänomene sind (Cheser, 1998).

Jabnoun (2000) und Boje und Winsor (1993) argumentieren, dass Total Quality Management (TQM) als eine Form des Taylorismus interpretiert werden kann; dies würde jedoch nur für sogenannte mechanistische Managementstrukturen in der Organisation gelten, die typischerweise sehr formal, zentralisiert und ziemlich komplex sind. Während solche Managementstrukturen in den frühen 1900er Jahren in industriellen Produktionsumgebungen funktioniert haben, brauchten zukünftige Industrien eine flexiblere Managementstruktur. Organische Organisationen entstanden in der Mitte des 19. Jahrhunderts und beinhalten typischerweise weniger Formalismus und erfordern mehr Kommunikation zwischen den Abteilungen. Organische Strukturen sind heute besser geeignet, um komplexe Probleme zu lösen, die eine flexible Umstrukturierung der Belegschaft in Verbindung mit einer intensiven Interaktion zwischen Mitarbeitern, Management, Kunden und Partnerorganisationen erfordern.

Taylors Prinzipien und ihre Relevanz in heutigen Organisationen

 

Taylor stellte fest, dass sich das Management intensiver mit der Motivation der Mitarbeiter beschäftigen muss (Taylor, 1911, S. 119). Eine entscheidende Beobachtung, die Taylor machte, ist, dass es nicht möglich ist, Mitarbeiter dazu zu bringen, ihren Durchsatz zu erhöhen, wenn ihr Einkommen nicht erheblich und dauerhaft erhöht wird (S. 121). Heutige Organisationen können eine Vielzahl von Vergünstigungen anbieten, um Mitarbeiter zu locken und zu halten; das Einkommen ist jedoch nach neueren Untersuchungen immer noch der Hauptmotivator der Mitarbeiter (Rynes, Gerhart, & Minette, 2004).

Taylor bemerkte jedoch auch, dass andere Faktoren zur Mitarbeitermotivation beitragen. Er segmentierte jede Aufgabe so, dass sie in einen Tag passte, so dass die Mitarbeiter ihren eigenen Fortschritt selbst messen und ein Gefühl der Erfüllung verspüren konnten (S. 120) und ermutigte die Arbeiter, sich kontinuierlich zu verbessern, indem sie ihre eigene Originalität nutzen, um das Wissen der Organisation zu erweitern. Die Zusammenarbeit zwischen Management und Arbeitern wurde weiter gestärkt, indem die Arbeiter ermutigt wurden, Vorschläge einzureichen, und indem sie den Mitarbeitern volle Anerkennung zollten und ihnen für wertvolle Verbesserungen eine Geldprämie zahlten (S. 128). Taylors Managementstil nutzte also das menschliche Bedürfnis nach persönlicher Entwicklung und Wachstum, indem er die Mitarbeiter inspirierte und motivierte (Cheser, 1998). Organisationen, die heute die Kaizen-Philosophie anwenden, verwenden vielleicht fortschrittlichere statistische Techniken; dennoch ist das Kaizen-System eng mit dem wissenschaftlichen Managementgedanken verbunden.

Taylors Prinzipien und Philosophie wurden in den heutigen Qualitätsmanagement-Ideologien, wie Total Quality Management (TQM) und Six Sigma, um Teamarbeit in der gesamten Organisation, Kunden- und andere Stakeholder-Fokus und fortschrittliche statistische Techniken erweitert. Die wichtigsten Verallgemeinerungen von Taylors Prinzipien, die im Herzen aller aktuellen Qualitätssysteme verbleiben, sind der Stakeholder-Fokus und die Erfüllung der Kundenanforderungen (Drake, Sutterfield, & Ngassam, 2008).

Taylors Erkenntnis über die Notwendigkeit von Inspektionen und seine Methoden der Datenanalyse und -bewertung legten den Grundstein für das heutige statistische Denken in qualitätszentrierten Organisationen und ähneln diesem sehr (Bothe, 2003). Insbesondere konzentrierte sich Taylor auf die Eliminierung von Verschwendung, wobei er in seinem gesamten Buch auf die Notwendigkeit hinwies, die Variation durch die Standardisierung von Aufgaben und Werkzeugen zu reduzieren. Was Bothe (2003) als statistisches Denken bezeichnet, spiegelt sich in Taylors Qualitätsrezept wider: messen, Variation reduzieren und verfeinern.



Taylors Experimente in Bezug auf Mitarbeitereffizienz und Arbeitszeiten waren ebenfalls ein grundlegender Beitrag zum Wissensbestand des Managements (Nyl, 1995). Nachdem Taylor durch seine Experimente bewiesen hatte, dass mehr Arbeit mit weniger Ermüdung der Arbeiter und kürzeren Arbeitszeiten erledigt werden konnte, begannen andere Branchenführer, die Arbeitswoche zu verkürzen, wie zum Beispiel Henry Ford, der 1926 die 40-Stunden-Woche einführte (1995). Während die Diskussion über die Arbeitszeit bis heute andauern mag, haben Taylors Experimente den nötigen Anstoß gegeben, um diese wichtige Effizienzvariable in den Fokus der Managementliteratur zu rücken.

In jüngerer Zeit hat Ehrlich (2006) das wissenschaftliche Management auf die heutigen dienstleistungszentrierten Organisationen angewandt. Lean Service ist Ehrlichs Adaption der wissenschaftlichen Managementprinzipien auf moderne Dienstleistungsunternehmen. Ehrlich argumentiert, dass die Eliminierung von Verschwendung bei Kundendienstgesprächen erreicht werden kann, indem Nacharbeitsschleifen abgeschafft werden und ein Kunde nach dem anderen von Anfang bis Ende bedient wird. Ehrlich überträgt damit erfolgreich Taylors Prinzipien von der Fertigung auf den Service und von einer eher mechanistischen und routinierten Umgebung auf eine moderne, hochkomplexe und kundeninteraktive Umgebung. Damit widerspricht seine Forschung einigen der Hauptkritiker Taylors.

Kritiken an Taylors Prinzipien

Drake, Sutterfield und Ngassam (2008) beschreiben, wie Taylors Ideen aus heutiger Sicht aus mehreren Gründen begrenzt erscheinen. Erstens stellten die Autoren fest, dass in Taylors Fabriken den Mitarbeitern genau gesagt wurde, wie sie zu arbeiten hatten, und dass Teamarbeit und funktionsübergreifende Aufgaben selten vorkamen. Zweitens nutzte Taylor die Inspektion nach der Produktion und nicht die Inspektion während des Prozesses. Moderne Qualitätssysteme, wie z. B. Six Sigma, konzentrieren sich ebenfalls auf die Reduzierung von Verschwendung und Fehlern in jedem Teilprozess und Teilproduktionsschritt (2008). Außerdem berücksichtigen Taylors Ideen nicht, dass die Mitarbeiter die Anforderungen der Kunden kennen müssen. In der heutigen Zeit ist eine enge Interaktion zwischen Mitarbeiter und Kunde viel häufiger und wird wahrscheinlich auch von Mitarbeitern außerhalb der Kundendienstabteilungen durchgeführt.

Ein weiterer Hauptkritikpunkt ist, dass die banale Wiederholung von Aufgaben auch für die Arbeiter unattraktiv sein kann und die Arbeiter anfangen könnten, sich wie Maschinen behandelt zu fühlen. Diese Sichtweise hängt jedoch eher davon ab, wie die Arbeitsumgebung eingerichtet ist, als von den Taylor'schen Prinzipien. Die Arbeiter können rotieren und kontinuierlich geschult werden, so dass ihre Arbeit interessant und herausfordernd bleibt. Darüber hinaus hat Ehrlich (2006) gezeigt, wie die Standardisierung von Arbeit an das heutige Szenario von Wissensarbeitern in einer Dienstleistungsbranche angepasst werden kann; damit wirkt Ehrlich der Kritik entgegen, dass sich wiederholende Aufgaben schwer zu standardisieren und zu kontrollieren sind. Wissensarbeiter und sogar kreative Künstler sollten in der Lage sein, Taylors Qualitätsprinzipien auch dann anzuwenden, wenn es scheinbar keine Einheitlichkeit gibt. Die Strategie für Wissensarbeiter-Einstellungen könnte darin bestehen, Aufgabenrichtlinien abstrakter und weniger detailliert zu gestalten und dem Arbeiter mehr Flexibilität zu überlassen.

Einige Autoren haben Taylors Ideologie und Perspektive auf den Menschen als sowohl zu positiv als auch zu negativ kritisiert (Wagner-Tsukamoto, 2008). Taylor war der Meinung, dass Arbeiter inkompetent, geistig veranlagt, resistent gegen die Zusammenarbeit mit dem Arbeitgeber und faul sind. Auf der anderen Seite beschrieb Taylor Manager als vertrauenswürdige und kooperative Personen und suchte nicht nach "systematischem Soldatentum" bei seinen Managern (2008).

Nach intensiver Analyse historischer Dokumente fanden Wrege und Perroni (1974) heraus, dass Taylor die Geschichte über "Schmidt" fabrizierte und entdeckten, dass dieselbe Geschichte in aufeinanderfolgenden Publikationen mindestens dreimal verändert wurde. Taylor behauptete, dass Schmidt systematisch aufgrund seiner Fähigkeiten ausgewählt wurde, obwohl das in Wirklichkeit nicht der Fall war. Darüber hinaus behauptete Taylor, ein Verfechter von angemessenen Ruhezeiten zu sein, doch die Aufzeichnungen zeigen, dass er die Zeiten für den Rückweg als Ruhezeiten interpretierte, wenn die Arbeiter mit leeren Händen zurückkehrten, nachdem sie Eisen auf einen Wagen geladen hatten. Wrege und Perroni (1974) kamen zu dem Schluss, dass Taylors Geschichten über Ruhezeiten ein "Schwindel" waren, basierend auf den Aufzeichnungen über Taylors Experimente.

Wie haben Organisationen auf dem modernen Markt die besten Teile der Strategie adaptiert und gleichzeitig die durchschnittlichen Komponenten verbessert?

Rynes, Gerhart, & Minette (2004) entdeckten eine Diskrepanz zwischen dem, was Mitarbeiter berichten, dass sie motiviert sind, und dem, was sie wirklich motiviert. Taylors Annahme, dass die Bezahlung der wichtigste Mitarbeitermotivator ist, erwies sich auch heute noch als gültig. Während Unternehmen ihre Gewinnbeteiligungsmethoden durch andere Anreize für Mitarbeiter, wie Firmenwagen, längere Urlaube und Krankheitsurlaube, ergänzt haben, ist der Hauptmotivator derselbe geblieben.


Gronroos (1994) beschreibt den Übergang vom Taylorismus zu modernen Dienstleistungsmanagement-Perspektiven und TQM und schlägt vier allgemeine Verschiebungen im Management vor. Erstens soll sich das Management nun auf die gesamte Organisation und die Kundenerfahrung konzentrieren und nicht nur auf das Produkt. Zweitens: Langfristige Beziehungen sind jetzt wichtiger als kurzfristige Transaktionen. Drittens: Anstatt die Qualität auf das Produkt zu beschränken, wird die Qualität nun langfristig auf das gesamte Kundenerlebnis ausgedehnt. Viertens muss das Management Qualitätsprozesse in der gesamten Organisation schaffen und diese zu den Schlüsselprozessen machen, anstatt die Produktion.

Peaucelle (2000) vertrat die Ansicht, dass die Taylor'schen Prinzipien auf die Gewinnmaximierung durch Kostenreduzierung und Erhöhung des Stückzahldurchsatzes beschränkt waren; in der heutigen Welt muss das Management jedoch zusätzlich zu diesen alten Zielen mehrere gleichzeitige Ziele verfolgen. Kürzere Lieferzeiten, bessere Qualität, ein vielfältiges Produktangebot und eine flexible Fertigung sind neue Herausforderungen, die Manager meistern müssen, ohne die langfristigen Kosten zu erhöhen. Peaucelle schlägt daher vor, dass das Aufkommen des "Post-Taylorismus" die Hinzufügung neuer Herausforderungen durch den Einsatz zusätzlicher Aktivitäten bedeutet; das Prinzip, scheinbar sich gegenseitig ausschließende Ziele zu erfüllen, ohne die Kosten zu erhöhen, bleibt jedoch intakt. Auf einer abstrakten Ebene analysiert, zielen Taylors Prinzipien im Wesentlichen darauf ab, mehrere sich scheinbar gegenseitig ausschließende Managementziele zu befriedigen.

Die Anwendbarkeit der wissenschaftlichen Managementprinzipien in der Zukunft

Der Name "wissenschaftliches Management" mag aus der modernen Managementliteratur verschwunden sein; dennoch sind Taylors Prinzipien in den heutigen Organisationen immer noch lebendig (Freeman, 1996). Während sich das Umfeld des heutigen Arbeitnehmers drastisch verändert hat, scheinen Taylors Ideen unsterblich zu sein und dem Wandel durch neue Technologien und Globalisierung standzuhalten. Wie von Peaucelle (2000) vorgeschlagen, sind die heutigen Herausforderungen multidimensional und Manager müssen sich ständig verbessern und neue Wege finden, um alle Interessengruppen zufrieden zu stellen. Neue, erweiterte Versionen des Taylorismus, wie z. B. die statistische Prozesskontrolle (SPC), könnten jedoch in Zukunft in verschiedenen Arbeitsumgebungen eingesetzt werden, auch in solchen, die man sich zu diesem Zeitpunkt noch nicht vorstellen kann. Dies liegt vor allem daran, dass Taylors Prinzipien eher eine Arbeitsphilosophie als eine eng definierte Arbeitsspezifikation sind. Die Beseitigung von Verschwendung, die Minimierung des Ressourcenverbrauchs und die kontinuierliche Verbesserung der Organisation und der Belegschaft werden immer wichtige Ziele für alle Unternehmen auf der Welt bleiben, unabhängig vom Standort.

Brödner (2007) philosophierte, dass wir uns in einem Zeitalter der Transformation befinden, das sich vom Taylorismus bis hin zur kompetenzbasierten Entwicklung von Organisationen erstreckt. Die kontinuierliche Verbesserungs- und Arbeitsoptimierungstheorie Taylors wird also noch einmal auf ein sehr dynamisches Szenario ausgedehnt, in dem sich die Organisation ständig neu definieren und neue Kompetenzen schaffen muss, um zu überleben. In den frühen 1900er Jahren reichte es aus, effizienter zu produzieren, um einen Gewinn zu erzielen und auf dem Markt konkurrenzfähig zu sein. Der heutige hyperkompetitive, globalisierte Markt erfordert eine interne Flexibilität, bei der die Organisation selbst ständig hinterfragt werden muss - der globale Erfolg hängt also von der Fähigkeit ab, sich anzupassen und aus der Vergangenheit zu lernen. Nähern wir uns einer Ära, in der nur "intelligente" Organisationen erfolgreich sein werden?

 

Literatur

Boje, D. M, & Winsor, R. D. (1993). The resurrection of Taylorism: Total quality management's hidden agenda. Journal of Organizational Change Management, 6(4), 57.  Retrieved from http://proquest.umi.com

Brödner, P. (2007). From Taylorism to competence-based production. AI & Society, 21(4), 497-514. Retrieved from http://proquest.umi.com

Bothe, D. R. (2003). Improve service and administration. Quality Progress, 36(9), 53-57.  Retrieved from http://proquest.umi.com

Cheser, R. C. (1998). The effect of Japanese Kaizen on employee motivation in U.S. manufacturing. International Journal of Organizational Analysis, 6(3), 197-217. Retrieved from http://proquest.umi.com

Drake, D., Sutterfield, J., & Ngassam, C. (2008). The revolution of Six-Sigma: An analysis of its theory and application. Academy of Information and Management Sciences Journal, 11(1), 29-44. Retrieved from http://proquest.umi.com

Drucker, P. (1974). Management: Tasks, Responsibilities, Practices. New York, NY: Harper & Row.

Ehrlich, B. (2006). Service with a smile. Industrial Engineer: IE, 38(8), 40-44. Retrieved from http://proquest.umi.com

Freeman, M.  (1996). Scientific management: 100 years old; poised for the next century. S.A.M. Advanced Management Journal, 61(2), 35.  Retrieved from http://proquest.umi.com

Gronroos, C. (1994). From scientific management to service management: A management perspective for the age of service competition. International Journal of Service Industry Management, 5(1), 5.  Retrieved from http://proquest.umi.com

Jabnoun, N. (2000). Restructuring for TQM: a review. The TQM Magazine, 12(6), 395.  Retrieved from http://proquest.umi.com

Nyl, C.  (1995). Taylorism and hours of work. Journal of Management History, 1(2), 8-25.  Retrieved from http://proquest.umi.com

Peaucelle, J. L.  (2000). From Taylorism to post-Taylorism: Simultaneously pursuing several management objectives. Journal of Organizational Change Management, 13(5), 452.  Retrieved from http://proquest.umi.com

Rynes, S. L., Gerhart B., & Minette, K. A. (2004). The importance of pay in employee motivation: Discrepancies between what people say and what they do. Human Resource Management, 43(4), 381-394. Retrieved from http://proquest.umi.com

Wagner-Tsukamoto, S. (2008). Scientific Management Revisited: Did Taylorism fail because of a too positive image of human nature? Journal of Management History, 14(4), 348-372.  Retrieved from http://proquest.umi.com

Wrege, C., & Perroni, A. (1974). Taylor's Pig-Tale: A Historical Analysis of Frederick W. Taylor's Pig-Iron Experiments. Academy of Management Journal, 17(1), 6-27. Retrieved from http://ebscohost.com

Taylor, F. W. (1911). The Principles of Scientific Management. New York, NY: Harper and Brothers Publishers.

Backup-Strategien für große VMs mit und ohne Deduplizierung

Dieses Tool zum Hyper-V Sichern bietet viele Optionen, die es Ihnen ermöglichen, schnell mehrere Backup-Strategien zu implementieren, die Sie gleichzeitig verwenden können.
Wenn Sie es mit sehr großen Dateien zu tun haben, z. B. mit einer 1,6 TB großen VHDX, müssen Sie unter Umständen Wiederherstellungszeiten einplanen.
Eine durchschnittliche moderne Festplatte und ein Server bieten Ihnen Verarbeitungsgeschwindigkeiten von 50 MB/Sek. bis 100 MB/Sek. ohne die Verwendung von RAID.
Eine 1,6 TB große Datei würde also 1677721,6 MB -> 4,7 bis 9,5 Stunden benötigen, um sie wiederherzustellen, unabhängig davon, wie sie wiederhergestellt werden soll.

Die Verwendung einer externen Festplatte ohne Backup-Verarbeitung (keine Deduplizierung, keine Komprimierung) hat den Vorteil, dass man VMs bei Bedarf direkt von der externen Festplatte booten kann.
Diese Strategie erspart Ihnen eine Wiederherstellung von 5-10 Stunden für eine 1,6 TB VM.
Da jedoch jede Strategie einen Nachteil hat, erfordert diese Strategie 1,6 TB für jedes VM-Backup; daher können Sie nicht zu viele Backups aufbewahren. Wenn Sie in der Lage sein wollten, Dateien von vor einer Woche wiederherzustellen, bräuchten Sie 7 * 1,6TB = 11,2 TB Speicherplatz für nur eine VM!

Die meisten Anwender können sich das natürlich nicht leisten und entscheiden sich für ein Hybridsystem.

Hier ist, wie Sie es einrichten würden:
#1: Richten Sie einen Task ein, der jede Nacht ein vollständiges, unkomprimiertes, unbearbeitetes Backup auf eine dedizierte Festplatte schreibt. Auf diese Weise können Sie immer zurückgehen und die VM bei Bedarf sofort booten. Sie benötigen jedoch genügend Platz für mindestens 2 Voll-Backups auf Ihrer Festplatte, da die Software das alte Backup nicht löscht, bevor das neue Backup fertig ist.
#Nr. 2: Richten Sie einen zweiten Task ein, der anschließend mit Deduplizierung und mittlerer Komprimierung ausgeführt wird und auf eine andere Festplatte abzielt. Dieser Task sollte so konfiguriert werden, dass er eine Woche oder mehr an Backups aufbewahrt. Sie können sich dies speichertechnisch leisten, da es dedupliziert und komprimiert ist. Bei dieser Strategie werden etwa 50 % der 1,6 TB Daten für die anfängliche Vollsicherung verwendet (unter der Annahme, dass die VHD tatsächlich vollständig genutzt wird) und dann etwa 5 % für jedes tägliche Inkrement.

Grundsätzlich würden Sie Aufgabe 2 für die langfristige Speicherung von Wiederherstellungsdaten verwenden und Aufgabe 1 für sofortige Wiederherstellungen, wenn eine vollständige Wiederherstellung schnell durchgeführt werden muss.
So oder so sieht es so aus, dass selbst für das Szenario von Aufgabe 2 eine 2,7-TB-Festplatte nicht groß genug ist, um all diese Daten aufzunehmen.

Sie können sich entweder nach größeren USB-Laufwerken umsehen oder einen kleinen Windows-Netzwerkserver mit mehreren 2,7-TB-Laufwerken einrichten, die zu einem Software-RAID zusammengefasst sind. Das ist eine großartige und kostengünstige Möglichkeit, Speicherplatz hinzuzufügen.
NAS-Boxen, die intern nicht Windows und NTFS verwenden, können Ihnen Probleme mit großen Dateigrößen, langen Netzwerkverbindungen und tiefen Pfaden jenseits von 240 Zeichen bereiten.
Jede spezifische NAS-Box ist anders, daher muss von Fall zu Fall untersucht werden, ob sie geeignet ist oder nicht. Die NAS-Systeme mit Windows Storage Server OS sind zwar teurer, aber Sie können sicher sein, dass Sie einen Microsoft-Standard-konformen Speicher haben, der Ihnen keine Probleme bereitet.

7 Gründe, um ein IT-Administrator zu werden!

Denken Sie darüber nach, IT-Administrator zu werden? Oder suchen Sie vielleicht nach Argumenten, um sich bei Ihrer Berufswahl besser zu fühlen? Nun, ich habe ein wenig über den Karriereweg "IT-Administrator" nachgedacht und bin auf die folgenden Gründe gekommen, warum ich denke, dass es eine großartige Wahl für junge enthusiastische IT-versierte Menschen ist, die jetzt einsteigen wollen, aber auch für erfahrene Menschen, die sich beruflich verändern möchten.

Im Folgenden sind die Gründe aufgeführt, warum IT-Administratoren eine großartige Karriereperspektive für die Zukunft haben:
1. Computer und Anwendungen werden jeden Tag leistungsfähiger.

Denken Sie darüber nach, jeder Job auf der Welt wird bald auf die eine oder andere Weise Computerkenntnisse erfordern. Neue Anwendungen werden entwickelt und bestehende Apps werden ständig verbessert. Sogar alte Dinosaurier wie Microsoft Office und Windows erfinden sich selbst neu. Selbst in kleinen Unternehmen braucht man einen IT-Mann, der den Überblick behält und alles einrichtet.  Wer hat die Zeit, all das herauszufinden? Niemand...außer dem IT-Administrator, es ist sein/ihr Job!
2. Die IT-Infrastruktur wird immer größer und komplexer

Vorbei sind die Zeiten, in denen ein Computer für eine einzige Aufgabe angeschafft wurde, z. B. für die Buchhaltung. Heutzutage spielt es keine Rolle mehr, ob es sich um einen Server oder eine Workstation handelt: Er wird mit allen möglichen Anwendungen und Diensten bestückt sein. Server hosten jetzt virtuelle Maschinen mit noch mehr Servern auf der gleichen Hardware. Netzwerke müssen auf Last getestet und richtig geplant werden. Server müssen Benutzergruppen zugewiesen werden, und wenn etwas nicht mehr funktioniert oder eine neue Person zum Team stößt, ist der IT-Administrator derjenige, der dafür zuständig ist
3. Die IT wird zum Herzstück vieler Unternehmen. Und viele Unternehmen sind sich dessen noch nicht bewusst.

Nicht jeder Manager und Geschäftsinhaber ist sich bewusst, wie sehr er von der IT und Computern im Allgemeinen abhängig ist. Wenn Dinge ausfallen, kommen Geschäftsprozesse zum Stillstand. Denken Sie an ein Fließband in einer Fabrik, das plötzlich stoppt. Ich habe einmal miterlebt, wie ein einziger Virus (ich glaube, es war der Sasser-Wurm) über 30.000 PCs lahmgelegt hat. Mein Laptop war nicht betroffen, weil ich vorsichtig genug war, Windows regelmäßig zu aktualisieren. Außerdem war ich als Berater auf Besuch mit Zugriff auf das Netzwerk und voller Kontrolle über mein Gerät. Die 30.000 Benutzer konnten Windows nicht selbst aktualisieren, selbst wenn sie wollten. Ihre IT-Abteilung wollte niemandem Admin-Rechte dafür geben.

Als der Sasser-Wurm seinen Weg in das Netzwerk gefunden hatte, kam das gesamte Unternehmen zum Stillstand. Es war eine Katastrophe und dauerte einen ganzen Tag. Stellen Sie sich vor, wie viel Geld an diesem Tag verschwendet wurde. Das hätte verhindert werden können....durch den IT-Administrator!

Das erschreckt wahrscheinlich die Neulinge, aber hey, mit der Verantwortung kommen auch die Belohnungen... zumindest in der Theorie. Wie auch immer, einige Organisationen erkennen, wie viel Ausfallzeiten kosten oder kosten würden und finanzieren IT-Support-Abteilungen angemessen. Andererseits gibt es aber auch solche, die nicht auf ihre Administratoren hören und den IT-Betrieb völlig unterfinanzieren, ohne sich des Risikos bewusst zu sein, auf das sie sich einlassen.

Schon bald werden viel mehr Geschäftsinhaber die Abhängigkeit ihres Unternehmens von der IT verstehen und mit Sicherheit mehr Admins einstellen. Es braucht in der Regel nur eine große Katastrophe in einem Unternehmen.
4. IT-Ausrüstung wird immer kurzlebiger

Denken Sie, dass die IT manchmal zu schnell ist? Ich denke das auch. Und die meisten Leute haben nicht die Zeit, die Energie und die Fähigkeiten, um jedem neuen Hype auf dem Markt zu folgen. Die meiste Zeit schadet es nicht, diese Trends zu ignorieren. Aber der IT-Administrator ist dazu da, sich über diese Dinge zu informieren und den Führungskräften Vorschläge zu machen. Es gibt immer wieder neue Dinge, die das Leben eines jeden einfacher machen können. Neue Möglichkeiten, Geld zu sparen oder Geld zu verdienen, sind beim "Chef" immer willkommen 🙂 .....
5. IT-Geräte und Software werden zu komplex in der Bedienung

Bekommen Sie ein mulmiges Gefühl, wenn Sie eine neue Software installieren oder ein neues Gerät auspacken, das Sie kürzlich gekauft haben? Ja, heutzutage verbindet sich sogar eine Mikrowelle mit dem Internet, um die Fleischpreise und das Wetter in Beirut abzufragen, also ist es nicht verwunderlich, dass der durchschnittliche Benutzer völlig verwirrt ist. Der IT-Administrator ist dazu da, die Dinge zuerst zu lernen und dann das Durcheinander in einfaches Englisch zu "übersetzen", damit es jeder versteht. Außerdem würde der IT-Administrator all die Details überspringen wollen, für die sich niemand interessiert. Ich wünschte, ich hätte eine Mikrowelle von früher... Sie wissen schon, die ohne das schicke Display aus den guten alten einfachen Tagen.
6. Die IT-Ausrüstung ist heute vielleicht unzuverlässiger als früher

Denken Sie an Festplatten! Die haben früher immer gehalten. Heutzutage ist man froh, wenn man zwei Jahre aus ihnen herausbekommt. Sie glauben mir nicht? Wann haben Sie das letzte Mal ein Backup durchgeführt? ????
7. Datenverlust ist tödlich für eine Organisation

Niemand kümmert sich um die Sicherung von Daten... bis zu dem Tag, an dem Sie alles verlieren. Stellen Sie sich das Chaos vor. Der Chef rauft sich die letzten Haare. Es sind nicht nur IT-Unternehmen, die ihre Daten schützen müssen. Heutzutage hat jedes kleine Unternehmen jede Menge Dateien, in deren Erstellung Tausende von Euros an Arbeit geflossen sind. Der Verlust all dieser Daten kann das Unternehmen leicht irreparabel schädigen.

Die IT-Administratoren sind die Schlüsselfiguren, um all dies zu verhindern. Seien Sie ein Held!

Risiken des Datenverlustes mindern

Natürlich ist die Hauptfunktion von Backup-Software, Datenverluste so weit wie möglich zu verhindern. Sie müssen ein gutes Gespür für alle gängigen Risiken von Datenverlusten haben, da die meisten Formen von Datenverlusten vermeidbar sind.
Dies sind einige typische Ursachen für Datenverluste:
- Feuer.
- Stürme.
- Überschwemmungen.
- Softwarefehler und Fehler, einschließlich des Betriebssystems.
- Versehentliches Löschen durch Benutzer.
- Festplattenfehler: Head-Crash, Verschlechterung usw. Die erwartete Lebensdauer von Festplatten liegt normalerweise unter zwei Jahren.
- Viren-, Ransomware- und Malware-Schäden.
- Statische Entladung. Zum Beispiel an Tagen mit niedriger Luftfeuchtigkeit unter 40 % und Teppichböden im Büro. Staubsauger und andere Geräte können ebenfalls statisch aufgeladen sein. Seien Sie sich dessen bewusst, wenn Sie sich in der Nähe eines Computers befinden.
- Luftfeuchtigkeit und Kondensation. Die ideale Luftfeuchtigkeit sollte zwischen 40 % und 60 % liegen. Eine hohe Luftfeuchtigkeit kann zu Kondensation führen. Trockene Werte können elektronische Teile beschädigen.
- Stromschlag durch Blitzeinschlag in Außenanlagen in der Nähe des Gebäudes oder in Stromleitungen.
- Überspannung durch Blitzschlag oder defekte Elektrogeräte, die im selben Büro oder Haushalt angeschlossen sind.
- Wasserschäden. Sprinkleranlagen, Überschwemmungen oder andere Leckagen.
- Temperatur. Setzen Sie Computer nicht Temperaturen unter 15 Grad Celsius oder über 27 Grad Celsius aus, da elektronische Teile überhitzen können. Niedrige Temperaturen können zu Kondensation führen.
- Mechanischer Schock. Beispielsweise kann ein Notebook fallen gelassen oder ein Desktop versehentlich angestoßen werden, während sich die Festplatten drehen.
- Magnetische Felder. Magnetfelder, die von älteren Fernsehgeräten oder Kabeln verursacht werden, können die empfindlichen Platten in Festplatten oder elektronische Komponenten auf Hauptplatinen beschädigen.
- Unvollständiger Datentransport. Zum Beispiel werden Daten auf einen neuen Computer kopiert und der Benutzer bemerkt möglicherweise nicht, dass die Übertragung nicht vollständig war.

In diesem Artikel finden Sie weitere Informationen über Sicherungssoftware