Fired by Bot at Amazon: 'It's You Against the Machine'
Online retailing giant Amazon's Flex contract drivers say their jobs are at the mercy of software that can unfairly rate their performance. Algorithms mine data on performance patterns and assign drivers routes, or deactivate them, with little human feedback. One source says the Flex algorithms do not account for human nature, setting up good drivers for failure. A former engineer who helped design Flex says Amazon believes the program's benefits offset the collateral damage; a former manager says the company knew the software would lead to errors and bad press, but felt addressing such issues was unnecessarily expensive, as long as drivers could easily be replaced. Full article: https://www.bloomberg.com/news/features/2021-06-28/fired-by-bot-amazon-turns... *Full Article <https://orange.hosting.lsoft.com/trk/click?ref=znwrbbrs9_6-2bad7x32c185x0718...> * -- EN ===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ ===================================================================== --
Ciò conferma che, di fatto, chi consegna non è un lavoratore autonomo nello svolgimento della propria mansione.. Il gio 1 lug 2021, 10:37 AM Enrico Nardelli <nardelli@mat.uniroma2.it> ha scritto:
Online retailing giant Amazon's Flex contract drivers say their jobs are at the mercy of software that can unfairly rate their performance. Algorithms mine data on performance patterns and assign drivers routes, or deactivate them, with little human feedback. One source says the Flex algorithms do not account for human nature, setting up good drivers for failure. A former engineer who helped design Flex says Amazon believes the program's benefits offset the collateral damage; a former manager says the company knew the software would lead to errors and bad press, but felt addressing such issues was unnecessarily expensive, as long as drivers could easily be replaced.
Full article:
https://www.bloomberg.com/news/features/2021-06-28/fired-by-bot-amazon-turns... <https://www.bloomberg.com/news/features/2021-06-28/fired-by-bot-amazon-turns...> * Full Article <https://orange.hosting.lsoft.com/trk/click?ref=znwrbbrs9_6-2bad7x32c185x0718...> * -- EN
===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ ===================================================================== --
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
La profezia di Warren Bennis si avvicina: "The factory of the future will have only two employees, a man and a dog. The man will be there to feed the dog. The dog will be there to keep the man from touching the equipment". La notizia che hai segnalato riguarda Amazon Flex che, ricordiamolo, è un servizio on-demand. Una semplice app sullo smartphone e ogni cittadino può diventare fattorino (uau). Negli stabilimenti Amazon essere licenziati da un algoritmo è prassi ormai da anni (v. The Verge [1]) Certo, c'è chi dice che: " - licenziato dall’algoritmo -, è solo uno dei tipici esempi di giornalismo che fa volano sulla propria incompetenza per terrorizzare le persone" o chi asserisce che "i posti di lavoro sono problemi socioeconomici, non è un problema tecnico per tecnici" e va beh, "continuiamo così, facciamoci del male" (cit. Nanni Moretti). Il lavoro non scomparirà, si trasformerà (in peggio). Se prima i lavori seriali e ripetitivi erano svolti da macchine/robot e quelli creativi dalle donne e dagli uomini, nel futuro il paradigma si rovescierà, i lavori seriali e ripetitivi dalle persone e quelli creativi dalle macchine/robot. Intentendo per creatività quello scritto da Davide qualche giorno fa: "o visto dei pattern elaborativi usciti da reti neurali, che non avevano nulla di "umano", ossia nessun umano avrebbe mai pensato ad un procedimento elaborativo di quel tipo", appunto ... creativo. Antonio [1] https://www.theverge.com/2019/4/25/18516004/amazon-warehouse-fulfillment-cen... On Thu, Jul 1, 2021 at 10:37 AM Enrico Nardelli <nardelli@mat.uniroma2.it> wrote:
Online retailing giant Amazon's Flex contract drivers say their jobs are at the mercy of software that can unfairly rate their performance. Algorithms mine data on performance patterns and assign drivers routes, or deactivate them, with little human feedback. One source says the Flex algorithms do not account for human nature, setting up good drivers for failure. A former engineer who helped design Flex says Amazon believes the program's benefits offset the collateral damage; a former manager says the company knew the software would lead to errors and bad press, but felt addressing such issues was unnecessarily expensive, as long as drivers could easily be replaced.
Full article:
https://www.bloomberg.com/news/features/2021-06-28/fired-by-bot-amazon-turns... Full Article
-- EN
===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ ===================================================================== --
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Enrico Nardelli <nardelli@mat.uniroma2.it> writes:
Online retailing giant Amazon's Flex contract drivers say their jobs are at the mercy of software that can unfairly rate their performance. Algorithms mine data on performance patterns and assign drivers routes, or deactivate them, with little human feedback.
Se Amazon fosse obbligata a pubblicare l'intera base dati e tutto il sorgente del software utilizzato per produrre il "rating disumano" (e fosse costretta a usare i binari riproducibili e certificati) tutto questo /semplicemente/ non esisterebbe, perché rendere trasparente il processo sarebbe devastante sia dal punto di vista aziendale che sociale. Fossi io obbligherei tutti a pubblicare il sorgente del software che produce tali determinazioni nei confronti delle vite delle persone... ma io non sono nessuno e Amazon & Co. sono i PADRONI del vapore. Saluti. Giovanni. [...] -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Ciao Giovanni, On Fri, 02 Jul 2021 11:20:08 +0200 380° wrote:
Fossi io obbligherei tutti a pubblicare il sorgente del software che produce tali determinazioni nei confronti delle vite delle persone...
Non credo che sarebbe sufficiente. E la "configurazione"? E le matrici[1] di pesi e soglie delle eventuali ANN impiegate? Non dovrebbero essere anche loro disponibili e riproducibili? Senza gli altri dati (configurazioni etc...) il sorgente di un software non lo rende di per sé trasparente. Giacomo [1] Matrici che sono binari eseguiti meccanicamente dalla ANN stessa, il cui sorgente è costituito dai dati utilizzati durante la calibrazione della ANN stessa (il "training", nella parlata AI). Il "training" di una rete neurale artificiale è sostanzialmente un processo di compilazione statistica dei dati, usati come codice. L'atto di programmare del "data scientist" consiste in attività statistiche, come selezionare gli attributi e le osservazioni da considerare come input o come output atteso/desiderato, inizializzare le diverse matrici in un modo piuttosto che un altro, ridurre la dimensionalità dei dataset disponibili etc... E ovviamente anche progettare la topologia della rete, ovvero l'architettura della macchina virtuale che eseguirà il programma finito. Ma quel codice siamo già abituati a definirlo "sorgente".
Giacomo Tesio <giacomo@tesio.it> writes:
On Fri, 02 Jul 2021 11:20:08 +0200 380° wrote:
Fossi io obbligherei tutti a pubblicare il sorgente del software che produce tali determinazioni nei confronti delle vite delle persone...
Non credo che sarebbe sufficiente.
E la "configurazione"?
E le matrici[1] di pesi e soglie delle eventuali ANN impiegate? Non dovrebbero essere anche loro disponibili e riproducibili?
Sì sì sì: nel mio commento sono stato volutamente naif, quando mi si chiederà di scrivere la legge (ROTFL) cercherò di essere più preciso... anche perché la versione UFFICIALE di /ogni/ legge sarebbe scritta in RDF combinato con codice Scheme e disponibile sul repo git ufficiale del Parlamento, aperta a pull-request da parte di ogni cittadino :-D Ciao! [...] -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
participants (5)
-
380° -
Antonio Iacono -
Enrico Nardelli -
Giacomo Tesio -
Luigi Scorca