How the Boeing 737 Max Disaster Looks to a Software Developer
Come accade che 346 persone muoiano di software. <https://spectrum.ieee.org/aerospace/aviation/how-the-boeing-737-max-disaster...> [...] It is astounding that no one who wrote the MCAS software for the 737 Max seems even to have raised the possibility of using multiple inputs, including the opposite angle-of-attack sensor, in the computer’s determination of an impending stall. As a lifetime member of the software development fraternity, I don’t know what toxic combination of inexperience, hubris, or lack of cultural understanding led to this mistake. But I do know that it’s indicative of a much deeper problem. The people who wrote the code for the original MCAS system were obviously terribly far out of their league and did not know it. How can they can implement a software fix, much less give us any comfort that the rest of the flight management software is reliable? So Boeing produced a dynamically unstable airframe, the 737 Max. That is big strike No. 1. Boeing then tried to mask the 737’s dynamic instability with a software system. Big strike No. 2. Finally, the software relied on systems known for their propensity to fail (angle-of-attack indicators) and did not appear to include even rudimentary provisions to cross-check the outputs of the angle-of-attack sensor against other sensors, or even the other angle-of-attack sensor. Big strike No. 3. None of the above should have passed muster. None of the above should have passed the “OK” pencil of the most junior engineering staff, much less a DER. That’s not a big strike. That’s a political, social, economic, and technical sin. [...] It is likely that MCAS, originally added in the spirit of increasing safety, has now killed more people than it could have ever saved. It doesn’t need to be “fixed” with more complexity, more software. It needs to be removed altogether.
On Fri, Apr 19, 2019 07:02:00 AM +0000, Alberto Cammozzo wrote:
Come accade che 346 persone muoiano di software.
<[1]https://spectrum.ieee.org/aerospace/aviation/how-the-boeing-737-max-disaster...>
[...]
So Boeing produced a dynamically unstable airframe, the 737 Max. That is big strike No. 1. Boeing then tried to mask the 737’s dynamic instability with a software system. Big strike No. 2. Finally, the software [is] Big strike No. 3.
Hmm... un po' per completezza, un po' per fare l'avvocato del diavolo: sul punto 3 non discuto. Mi pare ci siano pochi dubbi sul fatto che questa **realizzazione** di quel software, e il conseguente ri-addestramento dei piloti che sarebbe stato necessario, non sono stati fatti come si deve. Sui punti 1 e 2, forse almeno in principio non sono di per sè degli errori. Progettare APPOSTA gli aerei in modo che siano instabili a meno che del software non li controlli più velocemente di quanto potrebbe mai fare un essere umano è lo standard nell'aviazione militare da decenni, mica una favola che si sono inventati i manager di Boeing: https://aviation.stackexchange.com/questions/8049/are-fighter-jets-designed-... https://www.quora.com/Why-are-some-fighter-jets-designed-as-unstable https://en.wikipedia.org/wiki/Relaxed_stability#Intentional_instability E se fosse un problema a prescindere, di aerei militari caduti per quello specifico motivo ce ne sarebbero a mucchi ormai. In altre parole: sembra estremamente probabile che Boeing abbia lasciato morire tante persone semplicemente per risparmiare due lire su stipendi di programmatori realmente esperti, e tempi di sviluppo e poi aggiornamento piloti. Cosa inaccettabile per cui deve pagare seriamente. Ma i punti 1 e 2 forse sono semplicemente qualcosa che, come tante altre tecnologie portate dal militare al civile, è inevitabile per rendere il trasporto aereo più economico, meno inquinante eccetera... di oggi. Marco -- M. Fioretti http://mfioretti.com http://stop.zona-m.net Your own civil rights and the quality of your life heavily depend on how software is used *around* you
Certo. Forse proprio i successi nel controllare aerei instabili ha dato proprio quella fiducia eccessiva nel software e il difetto di vigilanza che ha portato al disastro. Un aereo civile ha esigenze di stabilità diverse e le aspettative di rischio di un pilota da caccia non sono quelle dei passeggeri civili. E 346 persone sono una strage. Nel testo l'autore spiega che il software è stato usato per tagliare qualche angolo e fare presto e a minor costo invece di affrontare una riprogettazione maggiore, che sarebbe stata opportuna visto che tutto l'assetto di spinta è cambiato radicalmente. Anche escludere l'umano dal control loop ed evitare di dover addestrare i piloti è stato fatto per risparmiare e rendere più competitivo il 737 rispetto all'Airbus. Quanto al software nell'industria aeromilitare, non sono tutte success stories. Gli f35 sono protagonisti di episodi imbarazzanti, e temo che in caso di impiego bellico non sporadico lo sarebbero ancora di più... <https://www.defenseone.com/technology/2016/02/f-35s-terrifying-bug-list/1256...> Ciao, Alberto On April 19, 2019 8:18:51 AM UTC, "M. Fioretti" <mfioretti@nexaima.net> wrote:
On Fri, Apr 19, 2019 07:02:00 AM +0000, Alberto Cammozzo wrote:
Come accade che 346 persone muoiano di software.
<[1]https://spectrum.ieee.org/aerospace/aviation/how-the-boeing-737-max-disaster...>
[...]
So Boeing produced a dynamically unstable airframe, the 737 Max. That is big strike No. 1. Boeing then tried to mask the 737’s dynamic instability with a software system. Big strike No. 2. Finally, the software [is] Big strike No. 3.
Hmm... un po' per completezza, un po' per fare l'avvocato del diavolo:
sul punto 3 non discuto. Mi pare ci siano pochi dubbi sul fatto che questa **realizzazione** di quel software, e il conseguente ri-addestramento dei piloti che sarebbe stato necessario, non sono stati fatti come si deve. Sui punti 1 e 2, forse almeno in principio non sono di per sè degli errori. Progettare APPOSTA gli aerei in modo che siano instabili a meno che del software non li controlli più velocemente di quanto potrebbe mai fare un essere umano è lo standard nell'aviazione militare da decenni, mica una favola che si sono inventati i manager di Boeing:
https://aviation.stackexchange.com/questions/8049/are-fighter-jets-designed-...
https://www.quora.com/Why-are-some-fighter-jets-designed-as-unstable
https://en.wikipedia.org/wiki/Relaxed_stability#Intentional_instability
E se fosse un problema a prescindere, di aerei militari caduti per quello specifico motivo ce ne sarebbero a mucchi ormai.
In altre parole: sembra estremamente probabile che Boeing abbia lasciato morire tante persone semplicemente per risparmiare due lire su stipendi di programmatori realmente esperti, e tempi di sviluppo e poi aggiornamento piloti. Cosa inaccettabile per cui deve pagare seriamente. Ma i punti 1 e 2 forse sono semplicemente qualcosa che, come tante altre tecnologie portate dal militare al civile, è inevitabile per rendere il trasporto aereo più economico, meno inquinante eccetera... di oggi.
Marco
--
M. Fioretti http://mfioretti.com http://stop.zona-m.net
Your own civil rights and the quality of your life heavily depend on how software is used *around* you _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On Fri, Apr 19, 2019 09:08:56 AM +0000, Alberto Cammozzo wrote:
Certo. Forse proprio i successi nel controllare aerei instabili ha dato proprio quella fiducia eccessiva nel software e il difetto di vigilanza che ha portato al disastro.
che la **specifica** applicazione di Boeing di questo concetto sia stata fatta in maniera tanto approssimativa da essere criminale l'ho detto pure io. E l'F35 è un caso bacato a talmente tanti livelli precedenti (a partire dal mettere insieme per forza caratteristiche OPPOSTE fra loro, per far contente tutte le forze armate con un solo contratto) che probabilmente LUI non esiste modo di farlo funzionare decentemente senza software. Le rogne di F35 le ho bene in mente, ma non a caso ho osservato che l'idea è generale, applicata da prima di F35 senza problemi rilevant. In altre parole, nè il casino F35, talmente grosso da far categoria a parte, nè il casino che ha combinato Boeing con questo specifico aereo, potrebbero essere sufficienti per concludere che l'idea sia completamente inapplicabile nell'aviazione civile, lavorando come si deve. Solo questo volevo dire. Marco -- M. Fioretti http://mfioretti.com http://stop.zona-m.net Your own civil rights and the quality of your life heavily depend on how software is used *around* you
On 19/04/2019, M. Fioretti <mfioretti@nexaima.net> wrote:
In altre parole: sembra estremamente probabile che Boeing abbia lasciato morire tante persone semplicemente per risparmiare due lire su stipendi di programmatori realmente esperti, e tempi di sviluppo e poi aggiornamento piloti.
Non due lire ma diversi milioni. E comunque non puoi fare affidamento su software che è per definizione buggato. E' questo uno di quei casi in cui il linguaggio inganna: si parla spesso impropriamente di algoritmi mentre ciò che esiste nella realtà fisica è la loro rappresentazione, il software, che essendo artefatto umano, è inevitabilmente fallace. L'algoritmo, quale informazione nella mente del programmatore (o se preferite, Idea nel mondo dell'Essere, sebbene un'algoritmo intrinsecamente preveda un divenire, cosa cui Platone non aveva forse pensato), è perfetta (o sembra tale, fin tanto che non la si implementa), il software invece contiene SEMPRE bug. E se è così semplice che in un determinato momento della sua storia non ne contiene, è CERTO che o verranno introdotti i bug o il software verrà integrato in sistemi che violano le assunzioni del programmatore documentate nel manuale: Garbage In, Garbage Out.
Cosa inaccettabile per cui deve pagare seriamente.
Non pagare. Non è una questione economica, ma penale. Deve essere punita. E non la Boing (che è un'entità legale) ma le persone che hanno partecipato al processo decisionale di produzione di questo aereo. Si risponde alla domanda "cui prodest", si risponde alla domanda "chi ha deciso", si mette in carcere le risposte, e si butta via la chiave. Dopo un paio di CEO in galera, la sicurezza dei sistemi raggiungerà vette inimmaginabili oggi.
Ma i punti 1 e 2 forse sono semplicemente qualcosa che, come tante altre tecnologie portate dal militare al civile, è inevitabile per rendere il trasporto aereo più economico, meno inquinante eccetera... di oggi.
Anzitutto, un militare accetta di mettere a rischio la propria vita e viene retribuito per questo, un civile no. In secondo luogo, per rendere il trasporto più ecologico è sufficiente renderlo MENO economico. Se alzi i prezzi adeguatamente, i voli diminuiscono e con essi l'inquinamento. Come spesso accade con l'etica, qui l'ecologia è solo fumo negli occhi, una scusa, un paravento, una giustificazione buttata lì per massimizzare i profitti di un'azienda. Giacomo
On 19/04/2019, Alberto Cammozzo <ac+nexa@zeromx.net> wrote:
<https://spectrum.ieee.org/aerospace/aviation/how-the-boeing-737-max-disaster...>
Fantastica prospettiva. :-) Un must read dall'inizio alla fine per chiunque abbia a che fare con software, hardware... o aziende che operano in un sistema Capitalista.
Come accade che 346 persone muoiano di software.
Come accade che muoia una senza tetto investita da un'auto di 500 kg lanciata sulla strada senza un autista: https://www.ntsb.gov/investigations/AccidentReports/Reports/HWY18MH010-preli...
According to Uber, emergency braking maneuvers are not enabled while the vehicle is under computer control, to reduce the potential for erratic vehicle behavior.
Per ridurre "erratic vehicle behavior". Elaine Herzberg è stata uccisa per evitare il mal d'auto ai passeggeri di Uber. Queste 346 persone sono state uccise per analoghe ragioni commerciali:
“Everything about the design and manufacture of the Max was done to preserve the myth that ‘it’s just a 737.’ Recertifying it as a new aircraft would have taken years and millions of dollars. In fact, the pilot licensed to fly the 737 in 1967 is still licensed to fly all subsequent versions of the 737.”
E così in molti altri casi. Sempre però la responsabilità è riconducibile ad esseri umani. E non SOLO o NON PRIMARIAMENTE ad ingegneri. Il problema è a monte: se massimizzi il profitto, la vita umana è irrilevante perché non partecipa all'equazione. Ti preoccuperai di incidenti quel tanto che basta a non impattare sostanzialmente i profitti.
It is likely that MCAS, originally added in the spirit of increasing safety, has now killed more people than it could have ever saved. It doesn’t need to be “fixed” with more complexity, more software. It needs to be removed altogether.
Questo vale purtroppo per la stragrande maggioranza dell'infrastruttura software contemporanea. Ma senza profonda consapevolezza del problema non è possibile risolverlo. Chi ha abilitato il Boing 737 Max al decollo e al trasporto di persone ha applicato ciecamente le regole, come avrebbe fatto un computer. Purtroppo non è abbastanza.
That’s not a big strike. That’s a political, social, economic, and technical sin.
Il peccato originale, in questo caso, è l'Ignoranza. Su così tanti livelli, istituzionali e non, che è impossibile elencarli. L'ignoranza (ed ancor più la presunzione di conoscenza) è una terribile debolezza. Di conseguenza la Conoscenza diventa Potere. Per questo la Propaganda 2 insisteva così tanto sull'indebolimento della scuola pubblica. Perché se non hai consapevolezza di un problema, sia esso software, hardware, economico o sociale, non avrai MAI gli strumenti per gestirlo in modo efficace. E d'altro canto, se la vita umana non ha valore (e non esiste altro valore che il prezzo)... può essere sacrificata facilmente e senza rimpianti, sia essa su un volo di linea che sorvola Ustica, in una stazione ferroviaria a Bologna in un ospedale durante un aborto o su un 737 Max progettato male. Non c'è risarcimento che compensi il morto. Non c'è "redress" che compensi la società di cui faceva parte. Causare la morte di un essere umano dovrebbe SEMPRE portare in CARCERE, e MOLTO A LUNGO. Giacomo
Mi sembra interessante sottolineare anche questi passaggi dell'articolo ----- The 737 Max saga teaches us not only about the limits of technology and the risks of complexity, it teaches us about our real priorities. Today, safety doesn’t come first — money comes first, and safety’s only utility in that regard is in helping to keep the money coming. The problem is getting worse because our devices are increasingly dominated by something that’s all too easy to manipulate: software. ... Software defects, on the other hand, are easy and cheap to fix. All you need to do is post an update and push out a patch. What’s more, we’ve trained consumers to consider this normal, whether it’s an update to my desktop operating systems or the patches that get posted automatically to my Tesla while I sleep. ... I believe the relative ease — not to mention the lack of tangible cost — of software updates has created a cultural laziness within the software engineering community. ----- Il 19/04/2019 09:02, Alberto Cammozzo ha scritto:
Come accade che 346 persone muoiano di software.
<https://spectrum.ieee.org/aerospace/aviation/how-the-boeing-737-max-disaster...>
[...] It is astounding that no one who wrote the MCAS software for the 737 Max seems even to have raised the possibility of using multiple inputs, including the opposite angle-of-attack sensor, in the computer’s determination of an impending stall. As a lifetime member of the software development fraternity, I don’t know what toxic combination of inexperience, hubris, or lack of cultural understanding led to this mistake.
But I do know that it’s indicative of a much deeper problem. The people who wrote the code for the original MCAS system were obviously terribly far out of their league and did not know it. How can they can implement a software fix, much less give us any comfort that the rest of the flight management software is reliable?
So Boeing produced a dynamically unstable airframe, the 737 Max. That is big strike No. 1. Boeing then tried to mask the 737’s dynamic instability with a software system. Big strike No. 2. Finally, the software relied on systems known for their propensity to fail (angle-of-attack indicators) and did not appear to include even rudimentary provisions to cross-check the outputs of the angle-of-attack sensor against other sensors, or even the other angle-of-attack sensor. Big strike No. 3.
None of the above should have passed muster. None of the above should have passed the “OK” pencil of the most junior engineering staff, much less a DER.
That’s not a big strike. That’s a political, social, economic, and technical sin. [...]
It is likely that MCAS, originally added in the spirit of increasing safety, has now killed more people than it could have ever saved. It doesn’t need to be “fixed” with more complexity, more software. It needs to be removed altogether.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- EN ===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ ===================================================================== --
On April 20, 2019 4:10:54 PM UTC, Enrico Nardelli <nardelli@mat.uniroma2.it> wrote:
Software defects, on the other hand, are easy and cheap to fix. All you need to do is post an update and push out a patch. What’s more, we’ve trained consumers to consider this normal, whether it’s an update to my desktop operating systems or the patches that get posted automatically to my Tesla while I sleep.
Gli utenti sono stati addestrati ad ignorare i difetti del software, ad accettare di aggirarli. Sono stati resi ciechi alla qualità. Il virus del "Worse is better" ha contagiato l'intera informatica commerciale, con ovvie conseguenze: http://jehanne.io/2018/11/15/simplicity-awakes.html#the-curse-of-frankenstei...
I believe the relative ease — not to mention the lack of tangible cost — of software updates has created a cultural laziness within the software engineering community.
Il problema è a monte. Gli update automatici servono solo a ridurre la dissonanza cognitiva nell'utente, ad impedire che si chieda "Come è possibile che ci siano così tante correzioni da fare?". Ma per curare la malattia invece di alleviare i sintomi, bisogna insegnare a riconoscere il software di qualità. E dunque insegnare a leggerlo e scriverlo. Giacomo
On 20/04/2019 18:10, Enrico Nardelli wrote:
Mi sembra interessante sottolineare anche questi passaggi dell'articolo
----- The 737 Max saga teaches us not only about the limits of technology and the risks of complexity, it teaches us about our real priorities. Today, safety doesn’t come first — money comes first, and safety’s only utility in that regard is in helping to keep the money coming. The problem is getting worse because our devices are increasingly dominated by something that’s all too easy to manipulate: software.
a me sembra che "sopravvivenza comes first". non credo che i margini di boeing ed airbus siano radicalemente diversi (non ho controllato). boeing pare aver cercato la strada breve del sw (compromettendo la sicurezza) per poter rimanere competitiva nei confronti di airbus che (apparentemente) questi problemi di sicurezza non ha. se boeing avesse dovuto rifare tutto il processo come un velivolo nuovo, sarebbe stata fuori mercato e quindi (probabilmente) morta...
... Software defects, on the other hand, are easy and cheap to fix. All you need to do is post an update and push out a patch. What’s more, we’ve trained consumers to consider this normal, whether it’s an update to my desktop operating systems or the patches that get posted automatically to my Tesla while I sleep. ... I believe the relative ease — not to mention the lack of tangible cost — of software updates has created a cultural laziness within the software engineering community. -----
Il 19/04/2019 09:02, Alberto Cammozzo ha scritto:
Come accade che 346 persone muoiano di software.
<https://spectrum.ieee.org/aerospace/aviation/how-the-boeing-737-max-disaster...>
[...] It is astounding that no one who wrote the MCAS software for the 737 Max seems even to have raised the possibility of using multiple inputs, including the opposite angle-of-attack sensor, in the computer’s determination of an impending stall. As a lifetime member of the software development fraternity, I don’t know what toxic combination of inexperience, hubris, or lack of cultural understanding led to this mistake.
But I do know that it’s indicative of a much deeper problem. The people who wrote the code for the original MCAS system were obviously terribly far out of their league and did not know it. How can they can implement a software fix, much less give us any comfort that the rest of the flight management software is reliable?
So Boeing produced a dynamically unstable airframe, the 737 Max. That is big strike No. 1. Boeing then tried to mask the 737’s dynamic instability with a software system. Big strike No. 2. Finally, the software relied on systems known for their propensity to fail (angle-of-attack indicators) and did not appear to include even rudimentary provisions to cross-check the outputs of the angle-of-attack sensor against other sensors, or even the other angle-of-attack sensor. Big strike No. 3.
None of the above should have passed muster. None of the above should have passed the “OK” pencil of the most junior engineering staff, much less a DER.
That’s not a big strike. That’s a political, social, economic, and technical sin. [...]
It is likely that MCAS, originally added in the spirit of increasing safety, has now killed more people than it could have ever saved. It doesn’t need to be “fixed” with more complexity, more software. It needs to be removed altogether.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- EN
===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ =====================================================================
-- reserve your meeting with me at http://cal.quintarelli.it
On April 21, 2019 8:58:03 AM UTC, Stefano Quintarelli <stefano@quintarelli.it> wrote:
a me sembra che "sopravvivenza comes first". non credo che i margini di boeing ed airbus siano radicalemente diversi (non ho controllato).
boeing pare aver cercato la strada breve del sw (compromettendo la sicurezza) per poter rimanere competitiva nei confronti di airbus che (apparentemente) questi problemi di sicurezza non ha. se boeing avesse dovuto rifare tutto il processo come un velivolo nuovo, sarebbe stata fuori mercato e quindi (probabilmente) morta...
Eccetto che un'azienda non è viva, i passeggeri invece lo erano. In effetti la metafora dell'organizzazione come organismo in questo caso è illuminante: la Boing cerca di sopravvivere ed accetta di sacrificare qualcuno dei suoi simbionti. Il problema è che certe organizzazioni smettono di servire esseri umani? O forse che servono solo CERTI esseri umani? In qualunque caso, il mercato è un ecosistema sintetico, creato dall'uomo per servire l'uomo. Così come tutte le organizzazioni che lo abitano. L'uomo non è più al vertice di tale catena alimentare, ma alla base. Ci va bene così? Giacomo
In data domenica 21 aprile 2019 09:42:30 CEST, Giacomo ha scritto:
In qualunque caso, il mercato è un ecosistema sintetico, creato dall'uomo per servire l'uomo. Così come tutte le organizzazioni che lo abitano. Intendi dire che le company sono degli agenti del tipo "intelligenza artificiale" nel senso ampio che i media attribuiscono a quell'espressione? mm.. Mi hai convinto. m.c.
On April 22, 2019 9:29:57 AM UTC, Marco Ciurcina <ciurcina@studiolegale.it> wrote:
In data domenica 21 aprile 2019 09:42:30 CEST, Giacomo ha scritto:
In qualunque caso, il mercato è un ecosistema sintetico, creato dall'uomo per servire l'uomo. Così come tutte le organizzazioni che lo abitano. Intendi dire che le company sono degli agenti del tipo "intelligenza artificiale" nel senso ampio che i media attribuiscono a quell'espressione?
Sì, ma con alcune importanti differenze. Anzitutto i dipendenti di una azienda hanno (almeno formalmente) il diritto di scioperare e ci sono stati casi in cui hanno persino osato contestare pubblicamente le decisioni della azienda (ovvero della dirigenza). I componenti di un robot autonomo, invece, non protestano e non scioperano. Inoltre alle AI non viene riconosciuta alcuna personalità giuridica e dunque alcuna responsabilità, alle aziende sì (e ne vediamo le conseguenze). Per contro, entrambi i tipi di agente condividono una caratteristica: SEMBRANO autonomi ma in realtà c'è sempre almeno un umano alla guida. Giacomo
Dalla pagna wikipedia [1] pare che Boeing abbia valutato di progettare un nuovo velivolo, ma ha esitato finché non è stato troppo tardi, cioè quando Airbus ha raccolto (molti) ordini per A320neo. A quel punto si sarebbe decisa al retrofit del 737 per non lasciare parte del mercato di American Airlines a Airbus, il cui successo con A320neo non era stato previsto, e soffiando l'ordine a Airbus. Non si tratterebbe quindi di una lotta competitiva per i margini, ma un autentico errore strategico a cui si è cercato di rimediare in fretta cercando scorciatoie. Il resto ha seguito l'aureo principio che (scusate il francesismo) "la fretta passa, la merda resta". L'aspetto più criminale è stato non rendere il dispositivo automatico software escludibile per non dover riaddestrare i piloti e poter spacciare il nuovo velivolo come un semplice upgrade del vecchio. Decisione mantenuta irresponsabilmente anche dopo il primo crash. Vediamo cosa succede dopo le inchieste. Alberto [1] <https://en.wikipedia.org/wiki/Boeing_737_MAX> On December 1, 2010, Boeing's competitor, Airbus, launched the Airbus A320neo family to improve fuel burn and operating efficiency with new engines: the CFM International LEAP and Pratt & Whitney PW1000G.[17] In February 2011, Boeing's CEO Jim McNerney maintained "We're going to do a new airplane."[18] At the March 2011 ISTAT conference, BCA President James Albaugh was not sure about a 737 re-engine, like Boeing CFO James A. Bell stated at the JP Morgan Aviation, Transportation and Defense conference the same month.[19] The A320neo gathered 667 commitments at the June 2011 Paris Air Show for a backlog of 1,029 units since its launch, setting an order record for a new commercial airliner.[20] On July 20, 2011, American Airlines announced an order for 460 narrowbody jets including 130 A320ceos and 130 A320neos, and intended to order 100 re-engined 737s with CFM LEAPs, pending Boeing confirmation.[21] The order broke Boeing's monopoly with the airline and forced Boeing into a re-engined 737.[22] As this sale included a Most-Favoured-Customer Clause, Airbus has to refund any difference to American if it sells to another airline at a lower price, so the European manufacturer can not give a competitive price to competitor United Airlines, leaving it to a Boeing-skewed fleet.[23] On April 21, 2019 8:58:03 AM UTC, Stefano Quintarelli <stefano@quintarelli.it> wrote: On 20/04/2019 18:10, Enrico Nardelli wrote: Mi sembra interessante sottolineare anche questi passaggi dell'articolo ------------------------------------------------------------------------ The 737 Max saga teaches us not only about the limits of technology and the risks of complexity, it teaches us about our real priorities. Today, safety doesn’t come first — money comes first, and safety’s only utility in that regard is in helping to keep the money coming. The problem is getting worse because our devices are increasingly dominated by something that’s all too easy to manipulate: software. a me sembra che "sopravvivenza comes first". non credo che i margini di boeing ed airbus siano radicalemente diversi (non ho controllato). boeing pare aver cercato la strada breve del sw (compromettendo la sicurezza) per poter rimanere competitiva nei confronti di airbus che (apparentemente) questi problemi di sicurezza non ha. se boeing avesse dovuto rifare tutto il processo come un velivolo nuovo, sarebbe stata fuori mercato e quindi (probabilmente) morta... ... Software defects, on the other hand, are easy and cheap to fix. All you need to do is post an update and push out a patch. What’s more, we’ve trained consumers to consider this normal, whether it’s an update to my desktop operating systems or the patches that get posted automatically to my Tesla while I sleep. ... I believe the relative ease — not to mention the lack of tangible cost — of software updates has created a cultural laziness within the software engineering community. ------------------------------------------------------------------------ Il 19/04/2019 09:02, Alberto Cammozzo ha scritto: Come accade che 346 persone muoiano di software. <https://spectrum.ieee.org/aerospace/aviation/how-the-boeing-737-max-disaster...> [...] It is astounding that no one who wrote the MCAS software for the 737 Max seems even to have raised the possibility of using multiple inputs, including the opposite angle-of-attack sensor, in the computer’s determination of an impending stall. As a lifetime member of the software development fraternity, I don’t know what toxic combination of inexperience, hubris, or lack of cultural understanding led to this mistake. But I do know that it’s indicative of a much deeper problem. The people who wrote the code for the original MCAS system were obviously terribly far out of their league and did not know it. How can they can implement a software fix, much less give us any comfort that the rest of the flight management software is reliable? So Boeing produced a dynamically unstable airframe, the 737 Max. That is big strike No. 1. Boeing then tried to mask the 737’s dynamic instability with a software system. Big strike No. 2. Finally, the software relied on systems known for their propensity to fail (angle-of-attack indicators) and did not appear to include even rudimentary provisions to cross-check the outputs of the angle-of-attack sensor against other sensors, or even the other angle-of-attack sensor. Big strike No. 3. None of the above should have passed muster. None of the above should have passed the “OK” pencil of the most junior engineering staff, much less a DER. That’s not a big strike. That’s a political, social, economic, and technical sin. [...] It is likely that MCAS, originally added in the spirit of increasing safety, has now killed more people than it could have ever saved. It doesn’t need to be “fixed” with more complexity, more software. It needs to be removed altogether. ------------------------------------------------------------------------ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa -- EN ------------------------------------------------------------------------ Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ ------------------------------------------------------------------------
participants (7)
-
Alberto Cammozzo -
Enrico Nardelli -
Giacomo -
Giacomo Tesio -
M. Fioretti -
Marco Ciurcina -
Stefano Quintarelli