Ohne Software geht mittlerweile gar nichts mehr. Wie automatisiert unsere Welt mittlerweile ist, sehen allerdings die wenigsten. In jedem Auto steckt mittlerweile Hard- und Software, welche einem das Leben erleichtern soll. Ja, auch in den mittlerweile 20 Jahre alten Modellen. Sei es das Radio, in das man seine Lieblingsradiosender programmieren kann oder das ESP, welches einen auch in rutschigen Situationen auf der Straße halten soll. Um genau so ein Helfersystem geht es aktuell. Zwar nicht in Autos, aber in Flugzeugen.
Flugzeuge sind mittlerweile so komplex, dass ganze Serverschränke im Rumpf der Flieger untergebracht werden. Es müssen so viele Daten verarbeitet werden, Sensoren ausgelesen und interpretiert und letztendlich gleichzeitig die Eingaben der Piloten überwacht werden. In modernen Maschinen wie aktuell von Airbus oder Boeing in der Luft sind gibt es kaum noch direkte Verbindungen vom Cockpit zu den Hydrauliksystemen, welche das Flugzeug letztendlich steuern. Fly-by-Wire nennt sich das. Ein Computer interpretiert die Eingaben der Piloten und steuert das Flugzeug dementsprechend … oder auch nicht.
Wir schreiben den 29. Oktober 2018. Die 181 Passagiere steigen gerade in die Boeing 737 Max 8 von Lion Air und freuen sich auf einen entspannten Flug von Jakarta nach Pangkal Pinang. Doch das Ziel werden sie nie erreichen. Flug JT610 verschwand 13 Minuten nach dem Start vom Radar und stürzte ins kalte Meer um Indonesien. Von den 189 Personen an Bord überlebte niemand.
MCAS interpretierte Sensor falsch und überschrieb Piloten
Doch was war das Problem? Die Boeing 737 Max 8 war gerade mal 2 Monate alt, also quasi noch brandneu. Die Untersuchung ergab, dass der AoA-Sensor (Angle of Attack), also der Sensor, der den Anstellwinkel des Flugzeugs misst, falsche Daten geliefert hat. In Folge dessen ist der Autopilot davon ausgegangen, dass ein Strömungsabriss kurz bevorsteht. Um das zu verhindern drückte die Software die Nase des Flugzeuges nach unten, um Geschwindigkeit und damit Auftrieb zu generieren.
Die beiden Piloten der Lion Air Maschine versuchten ganze 26 Mal die Maschine wieder zu stabilisieren, doch aufgrund des defekten Sensors griff das sogenannte MCAS-System immer wieder ein. Das MCAS-System ist neu in der Boeing 737 Max und war in den älteren Versionen der 737 nicht vorhanden. Es soll dafür sorgen, dass sich das Flugzeug in der Luft ähnlich verhält, wie die älteren Modelle, damit Piloten ohne Umschulungen die neue Maschine fliegen können.
Normalerweise sind alle sicherheitsrelevanten Systeme zweifach oder dreifach redundant vorhanden. Allerdings liefert nur einer der beiden AoA-Sensoren Daten an den Bordcomputer. Im Falle der Lion Air Maschine leider der falsche. Ein großes Problem war daher, dass die Piloten nicht für das neue MCAS-System geschult wurden und daher nicht wussten, wie sie es abschalten konnten, da das System ihre Eingaben immer wieder überschrieben hatte.
Katastrophen wie der Lion Air Absturz im Oktober oder der aktuelle Absturz der Etiopian zeigen, wie fragil das Mensch-Maschine-Verhältnis in Krisensituationen ist. Welches System darf wessen Eingaben überschreiben? Darf die letzte Entscheidung wirklich beim Autopiloten liegen? Software bestimmt unser Leben in so vielen Situationen, sodass uns nur noch übrig bleibt den Softwareentwicklern zu vertrauen. Sei es das ESP oder der Autopilot im Flugzeug.
Aktuell sind aufgrund des Absturzes der Ethiopian die Lufträume rund um den Globus für die 737 Max gesperrt. Unter anderem in China, der Europäischen Union, Ethiopien, Indonesien, Kanada oder den Vereinigten Staaten von Amerika.
In diesem Sinne: Immer Happy Landings!
Schöner Beitrag! Trauriger Anlass….aber schöner Beitrag! Regt sehr zum Nachdenken an. Danke!
kein schöner beitrag, da bis dato kein offizielles statement zu lesen ist. auch wenn aller wahrscheinlichkeit die mutmaßungen hier stimmen dürften, sollte man bei solch ereignissen abwarten… just my 50 cent´s 🙁
gut, ein Fehler ist drin, aber der Kern des Beitrages trifft es. wir geben immer mehr Kontrolle ab, der nächste Schritt ist das selbstfahrende Auto. Tesla hat leider gezeigt, dass es noch nicht so weit ist
Tesla hat gezeigt, dass es soweit ist.
Wo? Bei den Unfällen die sie bauen?
Das tesla system ist kein autonomes fahrsystem, sondern ist es eher als unterstützendes system gedacht, bei dem der Fahrer immer noch überwachen und eingreifen muss, wenn was schief läuft. Es gibt noch kein serienmäßiges zugelassenes komplett autonomes system.
Ja, das Auto kann es aber. Es will dann nur den Finger am Lenkrad.
Die Unfälle, die Tesla gebaut hat, waren oftmals auf fehlerhafte Bedienung zurückzuführen, zB Autopilot mit zu hoher Geschwindigkeit in der Stadt fahren lassen. Und selbst mit diesen Unfällen baut der Autopilot weniger Unfälle als der Mensch. Er guckt halt nicht aufs Handy beim Fahren.
Wie du vllt gelesen hast beziehe ich mich allein auf den Absturz der Lion Air 😉 eben genau es dem Grund weil die Untersuchungen zur Ethiopian noch nicht abgeschlossen sind 🙂
Ich denke die zwei Unfälle sind klar auf unzureichende Mustereinweisung oder einfach sonstige Unfähigkeit im Cockpit zurückzuführen. Maschinen haben eben noch keinen Verstand, dafür einen Ausschalter !!!
Heute sind die Flugzeuge eindeutig sicherer geworden. Früher hat man sich rein auf die Mechanik verlassen, die noch mehr fehleranfällig gewesen ist. Hinzu kommt der Faktor Mensch. Bei den Piloten ist es eben wie überall mit den Menschen. Wie sehr sich ein Pilot für die technischen Details interessiert, ist letztlich des Piloten seine Angelegenheit. Natürlich bekommt jeder Pilot entsprechende Schulungen, jedoch um die Kenntnisse zu verdauen, muss man diese regelmäßig wiederholen. Genau das machen die Einen mehr, die Anderen weniger. Vielfach verlassen sich die Piloten nur noch auf den Autopiloten, weil der Ernstfall statistisch sehr selten Eintritt, wo man Detailkenntnisse… Weiterlesen »
Ich denke es ist falsch hier Piloten zu marginalisieren. Die Ausbildung zum Piloten kostet knapp 100.000 Euro und es gibt strenge Vorgaben seitens der Airlines. Piloten interessieren sich in der Regel auch für das, was sie da tun, sonst wären sie nicht Pilot geworden. Das ist kein Job den jemand gezwungenermaßen erledigt.
Piloten haben in der Vergangenheit bereits so einige gefährliche Situationen gemanaged, was eben an dem immer wiederkehrenden Training liegt. Ein Pilot absolviert tausende Stunden im Simulator, im Training und muss umfassende Prüfungen absolvieren. Sorry, aber zu sagen dass der Beruf Pilot überbewertet ist ist falsch!
Dein negativer Ansatz, die Softwareentwickler hier negativ zu generalisieren, ist, sorry, auch falsch. Ein Softwareentwickler absolviert an den Hochschulen und Universitäten tausende von Unterrichtsstunden und durchläuft zahlreiche Prüfungen. Das ist kei Job, der jemand gezwungenermaßen erledigt (bei einer Studienabbrecheerquote von über 80%). Ein Softwareentwickler interessiert sich für das, was er tut. Anders wäre eine Qualifikation an eine Hochschule oder Universität nicht möglich. Softwareentwickler haben durch ihre Produkte schon zahlreichen Piloten und Autofahrern aus gefährlichen Situationen verholfen, was auf einer hochen Verantwortung in der Softwareentwicklung liegt. Sorry, aber zu suggerieren, die Softwareentwicklung würde ein generelles Risiko darstellen ist falsch!
Um Softwareentwickler zu sein, muss man weder studiert noch überhaupt eine Ausbildung absolviert haben. Es gibt genug Softwareentwickler, welche sich das in Eigenregie beigebracht haben. Ich bin selbst einer und ich weiß, wie Software entwickelt wird. Und wie viele Softwareentwickler arbeiten. Und welche Fick sie auf Fehlerbehandlung, Wartbarkeit und Wiederverwendbarkeit von Code geben.
Das du keine Qualifikation hast, merke ich sonst würdest du ja kein „Fick“ kennen. Es gibt Hobbypiloton und Hobbysoftwareentwickler, die was vom „Fick“ sprechen können, mehr auch nicht. Ich komme von einer Uni, erzähle mir bitte nicht, was Sache ist. Ein Hobbypilot erzählt auch keinem professionellen Piloten, bei der Lufthansa, sonstige „Fick“ Storys.
Ein Hobbypilot fliegt keinen Linienjet.
Und über meine Qualifikation hast du keine Aussage zu treffen. Die Diskussion ist hiermit beendet. Herr Student.
Ich bin kein Student, sondern mit Master Abschluss (Informatik). Deine Qualifikation hast du selbst ins Gespräch gebracht! Ein Hobbysoftwareentwickler entwickelt keine sicherheitsrelevanten Softwaresysteme!
Ich bin selbst einer [ein Softwareentwickler]. Damit ist über meine Qualifikation noch keinerlei Aussage getroffen.
Ist klar, in Eigenregie beigebracht! Ich habe schon verstanden. Du bist aber kein Softwareingenieur, weil der Begriff durch eine Qualifikation geschützt ist!
Der Begriff Softwareentwickler (umgangssprachlich) ist ähnlich weit gefasst wie der Begriff Fahrzeugführer. Letzteres kann ein Pilot einer Linienmaschine sein, ein Fahrradfahrer oder ein Kind mit einem ferngesteuerten Spielzeug.
Als Softwareentwickler (umgangssprachlich) kannst du z.B. für die Systemarchitektur eines Flugzeugs verantwortlich sein, oder einfach eine Website programmieren.
Sowohl bei Fahrzeugführer als auch Softwareentwickler entscheidet die Qualifikation über deren Einsatzbereich.
So wie du das hier beschreibst hast du nur mit schlechten Programmierern (!= Softwareentwickler) zu tun.
Okay. Also Uniabsolventen entwickeln komplett fehlerfreie Software ohne Bugs ausgeliefert wird und nicht abstürzt. Mensch, was müssen die Jungs von Microsoft nur falsch machen? Stellen die nur Dilletanten ein?
Ich sage nicht (!), dass Softwareentwickler nur Mist bauen. Ich sage mit dem Artikel nur, dass wir unser Leben in die Verantwortung von Software geben. Ich habe keinster Weise irgendjemanden angegriffen. Dass aber gleich die Geschütztürme hochgefahren werden und ich persönlich angegriffen werde spricht Bände. Jetzt nicht von dir STP, aber von anderen Kommentatoren.
Also ich gehe davon aus, dass der erste Satz theoretisch gemeint war; aber ja, auch bei Microsoft arbeiten Holzköpfe. Jetzt weniger im Bereich des tatsächlichen Softwareengineerings, aber bei so manchen Fehlern merkt man, dass eine Komponente nicht sauber durchgetestet wurde. Nicht selten kommt sowas durch die Nicht-Nutzung des eigenen Produkts, wofür BTW viele früher in den Kommentaren Verständnis gezeigt haben (WP Entwickler nutzen keine WPs). Aber das ist ein anderes Thema. Bei Safety-Critical-Systems ist die Entwicklung schon mal eine komplett andere. Und da sind nicht nur Softwareentwickler involviert, sondern letztlich auch Behörden die die Freigabe erteilen. Dein Artikel und das… Weiterlesen »
@STP Sehr schön formuliert!
@thomas Freres Also „Tausende“ Simulatorstunden ist übertrieben, mit 500 hast Du mit etwas Glück schon Deine Lizenz. Eine vollwertige ATPL ab 1500 Stunden. Das mit den strengen Vorgaben ist zwar richtig, führt aber dann dazu, dass Angebote wie „Pay-to-Fly“ entstehen, die keineswegs gut für die Sicherheit sind (Zahlen um zu fliegen zwecks Ansammlung von Flugstunden und teils physische Ausbeutung junger Piloten (kein Hotel etc)).
Wow…. manchmal kann ich nicht glauben was ich lese. Hier ist ein Artikel der zum Nachdenken anregen sollte ob wir wirklich unser Leben blind vertrauend in die Hand von Programmen und KI’s legen sollen. Nicht mehr, nicht weniger soll dieser Artikel bewirken. Es geht NICHT darum eine Berufsgruppe schlecht zu machen, das ist wohl eher eine Interpretation mancher Poster. Ich Maße mir nicht an zu sagen ob ein Programm Fehlerlos programmiert wurde oder nicht. Was ich aber sehr wohl erwarte ist das wenn ich mein Leben in die Virtuelle Hand eines solchen Programmes lege das es dann zu 100% Fehlerfrei… Weiterlesen »
@arminSt Das Problem ist die steigende Komplexität der Zusammenhänge zwischen den verschiedenen Systemen außerhalb normaler Situationen. Es gibt eben (leider) einen Unterschied zwischen einem Team aus Chesley Sullenberger und Jeffrey Skiles und Piloten mit 1500 Flugstunden.
@Alle Ich hätte einen Rat: bitte sich mit dem Thema GRÜNDLICH auseinandersetzen oder es lassen. Zum Thema 737 MAX: Es gibt nach DERZEITIGEN Erkenntnissen einige VERMUTUNGEN und VERDACHTSMOMENTE bezüglich des MCAS, die dazu geführt haben, dass inzwischen fast alle 737 MAX gegroundet wurden. Die beiden Wikipedia-Artikel zu diesen Katastrophen (bitte vorzugsweise die englischen Versionen lesen) führen die bisher bekannten Fakten auf. Und bitte nach „TBC-19“ googlen, das ist ein „Flight Crew Operations Manual Bulletin“ vom 6. November 2018. Da stehen die Anweisungen, was in solchen Fällen zu tun ist. Für weitere Informationen und Expertenmeinungen gibt es AviationWeek.com und ähnliche Quellen…… Weiterlesen »
Das Problem an der Geschichte ist meiner Meinung nach, dass bei den älteren Baureihen der 737 der Autopilot durch manuelles Übersteuern ausgeschaltet wurde. MCAS wird allerdings selbst durch manuelles übersteuern nicht ausgeschaltet. In den Handbüchern wird das MCAS überhaupt nicht erwähnt und die Piloten dahingehend auch nicht geschult. Diese Information habe ich aus der Süddeutschen: „Ob der Hersteller die Käufer der neuen MAX-Maschinen und ihre Piloten ausreichend informiert hat, wird bei der Frage möglicher Strafen für Boeing ebenso relevant sein wie das Design: Nur einer der beiden Sensoren gibt die Fluglage-Daten an den Bordcomputer weiter – im Fall des abgestürzten… Weiterlesen »
„Software bestimmt unser Leben in so vielen Situationen, sodass uns nur noch übrig bleibt den Softwareentwicklern zu vertrauen.“ Der 2. Teil des Satzes ist schlichtweg falsch. Da ich als SW Entwickler in der Automobilbranche arbeite, kann ich nur empfehlen sich z.B. mit der ISO26262, dem V-Modell oder den A-SPICE Prozess vertraut zu machen. Ein solch komplexes System wie ein autonom fahrendes Auto wird auf sehr vielen Ebenen entwickelt und von abstrakten Level bis zu kleinen SW Einheiten heruntergebrochen. Genauso auf den selben Ebenen wiederum getestet. Da sind sehr viel mehr Entwickler auf allen Ebenen beteiligt. Ein SW Entwickler ist lediglich… Weiterlesen »
Als Software-Testmanager kann ich meinem Vorredner (-schreiber) nur zustimmen. Allerdings ist es so, dass aus Kostengründen oft bei der Detail tiefe von Software-Tests „gespart“ wird. In diesem Fall ist wohl der Systemintrgrationstest zu kurz gekommen oder eine Anforderung der Art „Sorge für die Flugstabilität, wenn der einzige Sensor falsche Daten liefert!“ ist vergessen oder unzureichend getestet worden. Traurig, dass das gleich so fatale Auswirkungen hat…
@DerModautaler Das entbindet aber weder den Hersteller davon, eine genaue Dokumentation dieses „Features“ ins Manual aufzunehmen, noch die Fluggesellschaften und die Piloten davon, den Ausfall eben auch dieses Features zu trainieren.
Als Software-Testmanager kann ich meinem Vorredner (-schreiber) nur zustimmen. Allerdings ist es so, dass aus Kostengründen oft bei der Detail tiefe von Software-Tests „gespart“ wird. In diesem Fall ist wohl der Systemintrgrationstest zu kurz gekommen oder eine Anforderung der Art „Sorge für die Flugstabilität, wenn der einzige Sensor falsche Daten liefert!“ ist vergessen oder unzureichend getestet worden. Traurig, dass das gleich so fatale Auswirkungen hat…
Also mein Astra ’95 hat bis auf Licht, Radio und ABS keine Elektronik. Gekuppelt wird mit Stange und Drahtseil, also quasi „drive by wire“ :DD zentral versagen kann eigentlich nur der Faktor Mensch – und der fühlt sich wesentlich sicherer, wenn er sein Leben nicht irgendeiner Software anvertrauen muss
Darum läuft er noch. Und alles ist gleich repariert.
Korrekt
Hier noch ein weiterer Artikel zum Thema:
https://www.zeit.de/wissen/2019-03/boeing-737-max-flugzeugabsturz-software-flugsicherheit