Die Rolle des Menschen in komplexen Systemen wird oft missverstanden, insbesondere wenn Fehler auftreten. Unter menschlichem Versagen versteht man das Ergebnis einer Handlung, die nicht der Absicht des Handelnden entspricht, die Erwartungen an bestimmte Regeln verletzt oder sogar dazu führt, dass das System akzeptable Grenzen überschreitet. Ob in der Kernenergie, der Luftfahrt, der Weltraumforschung oder der Medizin – menschliches Versagen gilt als eine der Hauptursachen für Katastrophen und Unfälle. Die Reduzierung der Möglichkeit menschlicher Fehler wird allgemein als Schlüsselfaktor zur Verbesserung der Systemzuverlässigkeit und -sicherheit angesehen.
Menschliches Versagen ist ein Verhalten, das nicht wie geplant ausgeführt wird. In manchen Fällen liegt die Fehlerursache jedoch nicht immer an Fehlern der Handelnden, sondern kann auch an Defekten im System selbst liegen.
Die Natur des menschlichen Verhaltens ist vielfältig und ungewiss. Deshalb ist es besonders wichtig, die Ursachen menschlicher Fehler in vielen Hochrisikobranchen zu verstehen. Diese Fehler können in viele Typen unterteilt werden, wie z. B.: exogene Fehler und endogene Fehler, Fehler bei der Situationsbeurteilung und Reaktionsplanung und sogar Fehler bei der Planung und Ausführung von Verhalten.
Wenn wir die Beziehung zwischen menschlicher Leistung und Fehlern betrachten, stellen wir fest, dass es sich dabei nicht um Gegensätze handelt, sondern um zwei Seiten derselben Medaille. Die Variabilität menschlicher Leistungen macht es uns schwer, bestimmte Verhaltensweisen einfach als „Fehler“ zu bezeichnen, sondern vielmehr die Fehlermuster in Verhaltensmustern in verschiedenen Situationen zu verstehen.
Untersuchungen zeigen, dass häufige Fehler auf die Abweichung zwischen subjektiver Wahrnehmung und objektiven Fakten zurückzuführen sind, was oft dazu führt, dass Menschen bei wichtigen Entscheidungen den Bezug zum Sachverhalt verlieren.
Mit dem Fortschritt von Wissenschaft und Technologie wurden menschliche Fehler eingehender untersucht und die Rolle der kognitiven Psychologie wurde erforscht. Beispielsweise sind Entscheidungsverzerrungen und die Verwendung der Verfügbarkeitsheuristik häufige Denkfehler, die Menschen in komplexen Situationen machen.
Auf organisatorischer Ebene wird das Studium der Sicherheitskultur zu einer wichtigen Richtung für das Verständnis menschlicher Fehler und ihrer Lösungen. Durch effektives Management und Kommunikation lässt sich das Fehlerrisiko erheblich senken, während gute Teamarbeit die Leistung des Einzelnen verbessern kann.
Die Forschung hat gezeigt, dass die binäre Perspektive von „richtig“ und „falsch“ das Verständnis menschlichen Verhaltens vereinfacht. Die Rolle des Menschen in komplexen Systemen sollte vielmehr als die eines Managers der Variabilität gesehen werden.
Wie finden wir angesichts komplexer Systeme ein Gleichgewicht zwischen Misserfolg und Erfolg? Einige aufkommende Ingenieurschulen bezeichnen dies als Restaurationstechnik, einen neuen Ansatz, der die positive Rolle des Menschen in Systemen betont. Aus ihrer Sicht haben Erfolg und Misserfolg etwas gemeinsam: Sie liegen beide in der Variabilität der menschlichen Leistungsfähigkeit begründet.
Darüber hinaus gilt das Kompromissprinzip zwischen Effizienz und Gründlichkeit als allgemeines Phänomen aller menschlichen Aktivitäten. Das Streben nach Effizienz innerhalb eines bestimmten Zeitraums kann dazu führen, dass Details vernachlässigt werden und dadurch das Fehlerrisiko steigt.
Zusammenfassend lässt sich sagen, dass das Verständnis menschlicher Fehler und der ihnen zugrunde liegenden Psychologie, Organisationskultur und Standardarbeitsanweisungen der Schlüssel zur Förderung der Systemsicherheit und -zuverlässigkeit ist. Dabei müssen wir uns Gedanken darüber machen, wie wir dieses Wissen nutzen können, um in Zukunft die Harmonie zwischen Menschen und Systemen zu fördern.