Menschliches Versagen bei Flugzeugunfällen
Diagonal 17.10.2020, Lothar Bodingbauer, 7 min.

BEITRAG

Es war kein ganz normaler Flug. Schon von Beginn an. Kurz nachdem der Airbus der Hapag Lloyd am 12. Juli 2000 in Kreta gestartet war, ließ sich das Fahrwerk nicht einfahren. Kein allzu großes Problem eigentlich. Kommt vor, ist gut geübt und gut bekannt. Der Flug wurde fortgesetzt und landete nicht wie geplant in Hannover, sondern in Wien. Allerdings: am Acker vor der Landebahn. 143 Passagiere und 8 Besatzungsmitglieder mussten das Flugzeug über die Notrutschen verlassen. Alle haben überlebt, aber 26 Personen wurden verletzt. – Der Treibstoff war ausgegangen. Überraschend für die Piloten, denn der Flugrechner im Airbus-310 hätte eine geordnete Landung zumindest in München vorausberechnet. – Was war passiert? Luftwiderstand: Wer mit ausgefahrenem Fahrwerk fliegt, braucht um die Hälfte mehr Treibstoff. Das wussten die Piloten, sie dachten aber, dass der Flugrechner das auch weiß, und miteinbezieht in seine Berechnungen.

ZITAT

Was macht es? Warum macht es das? Und was macht es als nächstes?

Das fragen sich Pilotinnen und Piloten sehr häufig, wenn sie es mit komplexen Systemen zu tun haben, denen sie vertrauen müssen. Der Flugrechner ist so ein System.

Und jetzt kommt das „hätte“, dieses unscheinbare Wort, das die Verzweigungen des Schicksals in der Vergangenheit ermöglicht. „Hätte“ der Pilot nicht versucht herauszufinden, was der Flugrechner macht, warum er das macht, und was er als nächstes macht, hätte er seine Denkzeit verwenden können, eine bessere Lösung für das Problem „Fahrwerk lässt sich nicht einziehen“ zu finden. „BIAS“ heißt das auf Englisch, wenn Menschen ihre Gedanken in einem bestimmten Licht führen. Voreingenommenheit. BIAS, eine gedankliche Schlagseite, die man erhält, weil vielleicht die Zeit knapp ist. Es gibt mehrere davon: Den Bestätigungs-Bias zum Beispiel: Die Lösungssuche konzentriert sich auf bisherige Annahmen. Der Aufmerksamkeitszurodnungs-Bias, er tritt unter Stress auf, die Reihenfolge strukturierter Abläufe wird verworfen und der Bedrohung geopfert. Und neben diversen Biases gibt es noch den Tunneleffekt, die Konzentration auf das Problem statt der Rundumsicht; Aufgabeneliminierung: unter hoher Belastung werden ganze Handlungsketten ausgelassen. Und: das Vertrauen in die eigene Kontrollfähigkeit, vulgo: sich zu überschätzen; plus Autoritätsgefälle im Cockpit – dem Copiloten fällt’s auf, und fragt sich, wie sag ich`s dem Chef.

ZITAT

Die Stresszunahme des Kommandanten wird aus der Sprachauswertung evident …

… steht im Unfallbericht des Hapag Lloyd Flugs 3378 von Kreta zum Acker vor Wien …

ZITAT

… Symptome der Regression, Stottern und unvollständige Sätze, Äußerungen von Hoffnung und Angst sind in der Sprachauswertung nachweisbar.

Die Piloten wurden von Ereignissen überrascht, anstelle sie vorherzusehen. „Sie flogen hinter ihrem Flieger her“, so heißt es es in der Fliegersprache.

Was passiert ist, wird im Unfallbericht akribisch analysiert: Eigentlich war eine Kontermutter schuld, eine Befestigung, die die Fahrwerkseinziehungshydraulik justiert. Ein Fehler in der Wartung. Die Feinjustierung wurde immer schlabbriger über die Monate und Jahre hinweg, so dass nach 2000 klaglosen Starts und Landungen sich bei der 2001 das eingefahrene Fahrwerk nicht mehr verriegeln ließ. Der Pilot wollte das Flugzeug zurück nach Deutschland bringen – Stichwort: wirtschaftliche Anforderungen – und er verließ sich dabei auf den Flugrechner, der anzeigte, zumindest bis München kannst du fliegen.

„Getheritis“ wird ein sehr spezieller BIAS genannt, unter dem Piloten leiden, die viel fliegen. Sie möchten am Abend schleunigst zuhause ankommen, wenn sie schon 5 Flüge hatten.

„Getheritis, ankommen wollen“. Eigentlich kein Problem, wenn es nur das einzige Problem wäre. Sind aber: schlechte Sicht. Seitenwind und ein unstabilisierter Anflug noch mit im Spiel, dann könnte die letzte Entscheidung, die Landung nicht abzubrechen, zum Problem werden.

Unfallberichten listen auch auf, an welcher Stelle zeitlich zurück was getan hätte werden können, um ein Unglück zu verhindern. Beim Flug der Hapag Lloyd war diese Stelle in der Gegend um Graz, dort wäre eine sichere Landung noch möglich gewesen. Besser in Zagreb. Oder in Kreta, in aller Ruhe hätten die Checklisten abgearbeitet werden können, die extra dafür da sind, nichts zu vergessen.

Der Pilot hat seine Fluglizenz aufgrund dieses Unfalls verloren. Unter anderem weil er lange keine Luftnotlage erklärt hat, bis 22 km vor der Landebahn in Wien beide Triebwerke ausgefallen waren. Ob er auch ein Lob erhielt, dass er trotzdem noch landen konnte, und alle überlebten?

ZITAT

25 Minuten vor der Notlandung äußerte der Kommandant offen und erstmalig auch seine Skepsis hinsichtlich einer erfolgreichen Landung …

… steht im Unfallbericht …

ZITAT

… und zwei Minuten später räumte er auch ein, dass ihn die Umstände verblüffen. Als danach der Copilot aussprach, dass er zur Überzeugung gelangt sei, dass der Flugrechner den höheren Luftwiderstand doch nicht berücksichtigt, schlug sich die dadurch ausgelöste zusätzliche Überraschung und Belastung des Kommandanten in seiner Sprache nieder.

Selbst das Cockpit-Design kann mitverantwortlich sein, ob Pilotinnen und Piloten Fehler machen – im Krisenfall, wenn es eng wird mit der Aufmerksamkeit. Leuchten alle Lämpchen grün, wenn alles passt, und nur das eine rot? Oder leuchtet nichts, bis auf das Problematische? Welche Alarmmeldungen werden automatisiert ausgerufen? Schüttelt das Steuer, wenn die Strömung droht abzureißen – und sind die Steuerbewegungen des Piloten auch zu spüren vom Co-Piloten?

OT / Markus Völter 1

„Also was die Luftfahrt sehr gut kann erst mal, ist Kommunikation. Jeder Fehler führt nur einmal zu einem Unfall. Weil dann wird viel Aufwand in die Aufklärung gesteckt und es wird dann auch an alle Airlines kommuniziert und es wird gefordert, dass sie Procedures ändern.“

Markus Völter, Softwareingenieur und Autor des Buches „Once You Start Asking“. Er hat mit über 300 Technikerinnen und Technikern über ihren Beruf gesprochen, ihre Arbeit, und ihre Geräte. Und wenn sie versagen.

OT / Markus Völter 2

„Ein weiterer Punkt ist dann eben auch eine Fehlerkultur, dass man Fehler zugibt. Und eben nicht die Angst hat, das man dann als Depp dasteht oder gefeuert wird. Und was auch dabei hilft, ist dieses anonyme Reporting. Das man sagen kann, hey ich habe heute den Kapitän soundso beobachtet und das war echt übel, was der Mann getrieben hat, redet mal mit dem. Man muss solche Prozesse gut designen. Weil Fehlerkultur heißt ja, dass alle Willens sind, Fehler zuzugeben und damit konstruktiv umzugehen.“

Dazu kommt natürlich: Gutes Handwerk, und: trainieren, was sich trainieren lässt. – Rein technische Gebrechen, wie das plötzliche Ausfahren der Schubumkehr in vollem Reiseflug, wie das 1991 bei der abgestürzten Lauda Air Maschine im Westen Thailands der Fall war, sind meist völlig neu und nicht vorhersagbar, sonst würde man das ja verhindern.

Menschliches Versagen besteht aus menschlichen Unzulässigkeiten, die für sich ganz normal sind, aber in einer schicksalhaften Verbindung mit Technik zum Schweizer-Käse-Problem werden: wenn sich die Löcher darin zufällig in Linien aneinander reihen, dann fällt der Käse auseinander.

OT / Markus Völter 3

„Also der Punkt ist einfach, dass immer an solchen Grenzsituationen, wo man fast beschlossen hätte, durchzustarten, oder wo die Sicht fast zu schlecht war, oder der Wind fast zu hoch, das ist sozusagen eins von diesen Swiss Cheese-Löchern. – Wenn man es philosophisch betrachtet ist immer der Mensch schuld, weil jeder technische Fehler in der Maschine natürlich auch irgendwie von einem Menschen verursacht wurde, weil die Maschine nicht früh genug getauscht wurde, weil die Wartung fehlgeschlagen hat, weil im Design was kaputt ist. Wir kommen immer beim Menschen raus im Endeffekt.“