Evidentemente ho espresso male il mio pensiero. Vado al punto centrale del fraintendimento: io sono assolutamente favorevole al dibattito Etico e alla ricerca sull'Etica, sulla sua relazione con l'azione individuale e quella collettiva nelle diverse organizzazioni e tra diverse organizzazioni. Di più, sostengo da tempo e in contesti in cui questa affermazione è apertamente osteggiata, che l'Etica guida SEMPRE lo sviluppo tecnologico, anche quando gli autori di tale sviluppo ne negano l'esistenza o la rilevanza: stanno SEMPRE esprimendo la propria Etica, che non è nemmeno "tecnicamente" mancanza di Etica, ma Etica allineata con la loro percezione della totalità dell'Umanità. Semplicemente sostengono che tutti farebbero lo stesso, qualunque cosa stiano facendo. Ancora di più, sostengo che la creazione Tecnologica è la più prorompente forza Politica che abbia mai agito nella storia, abilitando o disabilitando certi decorsi che solo DOPO la creazione tecnologica sono diventati pensabili per l'uomo. Da questi fatti sostengo che la creazione tecnologica comporta una ENORME responsabilità Etica e Politica, responsabilità su cui ogni sviluppatore si deve confrontare PRIMA di iniziare a sviluppare un sistema. Dunque io discuto e voglio discutere di Etica. Non solo non voglio che venga delegata ad altri, ma voglio che sia una scelta consapevole del processo di ideazione tecnologica. Perché se la Tecnologia è Politica, allora è nostra responsabilità e nostro potere decidere cosa (cercare di) creare e cosa no. Tutte queste considerazioni, per quanto ovvie appaiano dalla mia prospettiva culturale, risultano scandalose per la maggior parte del settore IT, internazionale e anche spesso italiano, per due ragioni: 1. si assume che l'etica sia incompatibile con il profitto (a meno di diventare appiattito fattore di differenziazione pubblicitaria) che è lo scopo fondamentale di qualunque impresa umana 2. si pretende che gli sviluppatore pensino ESCLUSIVAMENTE al codice, che "semplicemente" facciano quello che i manager e gli azionisti non sanno fare da soli, come se fossimo una specie di macchine che producono programmi La prima è in sé una affermazione etica (diffusa quanto miope). La seconda è una baggianata pazzesca che sta in piedi solo grazie alla retorica messa su dalla Silicon Valley negli ultimi decenni. Chiarita la mia posizione sull'Etica (su cui immagino troverai diversi punti di incontro), la mia affermazione dovrebbe risultare più chiara. On 11/03/2019, Arturo Di Corinto <arturo.dicorinto@uniroma1.it> wrote:
Il giorno dom 10 mar 2019 alle ore 12:52 Giacomo <giacomo@tesio.it> ha scritto:
Delegare l'etica alle cose ha due effetti socialmente inaccettabili:
Non so chi auspichi di delegare l'etica a qualcun altro. Ne discutiamo qui proprio per non delegarla a nessuno.
Se tu inietti una funzione "etica" in un tostapane (ammettiamo che si possa fare), stai delegando l'applicazione dell'etica al suo funzionamento. Il tostapane poverino, non ha alcuna consapevolezza dell'etica o del pane. Ma tu, guardando il tuo tostapane che sulla base della temperatura e dell'umidità ambientale sceglie quando iniziare a tostare il pane per minimizzare il consumo di energia elettrica stai facendo due cose: - delegando l'etica al tostapane (nel suo piccolo) - interiorizzando, dall'interazione con il tostapane alcuni concetti etici e fisici complessi, anche se non sei in grado di esprimerli consapevolmente. Fingiamo di non considerare che il tostapane deve consumare energia per i propri sensori e per il calcolo dell'ottimo, per cui alla fine un tostapane stupido acceso da un umano semi addormentato potrebbe essere molto più ecologico (e dunque ecologicamente etico) del tuo super tostapane dotato di intelligenza artificiale. Fingiamo di non considerare anche i costi ecologici di produzione del tostapane "ecologicamente intelligente" rispetto a quello scemo, che probabilmente lo rendono la scelta peggiore ecologicamente sul mercato. Fingiamo che funzioni davvero. Fingiamo che tutte queste "applicazioni intelligenti" siano dotate di un'etica E che funzionino. (e FIDATI, è fantascienza) La prima obbiezione è che delegando la tua etica ecologista (supponiamo) alle macchinette intorno a te, la svuoti di significato, te ne lavi le mani. La seconda è però più insidiosa perché avviene poco a poco in modo impercettibile. Vogliamo davvero distribuire capillarmente nelle case? Vogliamo davvero circondare le persone di agenti che riproducono continuamente UNA etica (quale che sia)? Vogliamo davvero avviare questa enorme campagna di lavaggio del cervello attraverso l'interazione continua con tale etica? Le macchine non si adattano davvero all'uomo, anche le AI che in qualche modo modificano i propri parametri attraverso nuovi input, cambiano comunque molto poco del loro funzionamento. Quando si parla di "narrow AI" la gente guarda all'hype e immagina sia un atto di umiltà intellettuale, ma le AI sono così "narrow" che anche solo sentirle definire "intelligenza" tout court dovrebbe far ridere gli esperti. Ma evidentemente non sono poi così esperti. ;-) L'uomo invece naturalmente si adatta a ciò che lo circonda. Dunque la mia preoccupazione è che discutendo di mettere l'etica NELLE macchine avviamo un lavaggio del cervello di massa. So che è impensabile che qualcuno possa usare il software per manipolare i comportamenti delle persone, chiamatemi pure paranoico... non mi offendo! :-D D'altro canto, chiedere alle aziende di autoregolarsi, ripeto è un gettare la spugna. Lasciar fare, sperando poi di correggere il tiro se qualcosa va troppo storto. I malati di cancro a Taranto, i morti della Thyssen... abbiamo decine di esempi di quanto bene questo approccio funzioni... nel semplice. L'informatica, in quanto materia assolutamente ai primordi, è decine di ordini di grandezza più potente ed instabile di qualunque impresa l'uomo abbia avviato. E dunque più "pericolosa". L'etica non è pronta. Lontanamente. Non ha salvato nessuno... sebbene tutti gli imprenditori e i manager che hanno gestito le aziende che hanno causato questi disastri fossero persone ben integrate nella società circostante e dovessero operare con problemi molto più semplici concettualmente. Dunque, c'è un solo modo efficace di affrontare la questione: educazione di massa, estrema cautela legislativa, responsabilità forti in capo alle aziende e ai loro stakeholder, sanzioni esagerate. Se un'auto guidata da un simulatore di Uber avesse ucciso una cittadina italiana in Italia, l'intero consiglio di amministrazione (e probabilmente qualche ingegnere) avrebbero dovuto finire il carcere per omicidio colposo. Semplice, chiaro, efficace nel perseguire la sicurezza e molto educativo. L'educazione informatica (e storica) di massa è l'unico modo per preparare la futura generazione di politici a far fronte con maggiore consapevolezza (e dunque minore cautela) alla innovazione tecnologica. Saper programmare deve diventare una conoscenza di base condivisa, come leggere e scrivere. Uno strumento di libertà, invece che rimanere uno strumento di potere. Per questo se fatta bene, l'educazione informatica, gioverebbe la democrazia tutta. Giacomo