In pratica il trolley problem sarebbe falsante perché focalizza l'attenzione sul carrello e non sul contesto in cui opera. Si tratterebbe dunque di una questione di framing: il contesto e l'impatto quantitativo della novità tecnologica possono essere eticamente molto più rilevanti dell'elemento qualitativo. Chi ha messo il carrello dove, e perché? E' una metropolitana o un tram per strada? Chi ha deciso che deve avere una guida autonoma e perché? Discutere della sola "intelligenza della macchina" inquadra il problema in modo tecnocentrico elidendo le decisioni ed azioni _umane_, inclusa quella di delegare o meno la decisione alla macchina; il che dipende dal contesto, come sembra suggerire il ragionamento di Meehl: accettabile delegare in una metropolitana, inaccettabile per un tram. Restando nel framing tecnocentrico ci si concentra sull'elemento di novità tecnologica (l'AI) ma si da per implicito che il contesto sia dato (inevitabile) e le scelte umane (opposte a quelle della macchina) siano un vecchio problema (risolto), e così il vero problema morale va sullo sfondo. Le tabulatrici Hollerith (macchine per nulla autonome) furono usate nel censimento tedesco del 1933 e consentirono ai nazisti una formidabile efficienza nell'identificare e selezionare le vittime del loro programma di sterminio. Le tabulatrici non introdussero un elemento qualitativamente diverso (lo stesso lavoro poteva essere fatto più lentamente a mano), ma farlo velocemente ha consentito azioni qualitativamente diverse. Il dramma etico del loro impiego fu determinato dal contesto di odio razziale in cui macchine di per se innocue furono usate. Conoscendo il loro futuro uso, un ingegnere della allora IBM avrebbe potuto obiettare alla loro progettazione, costruzione, riparazione, ecc. Ignorandolo, le tabulatrici non avrebbero mai posto per lui un problema morale. Esempi di questo tipo in cui gli elementi di contesto e quantitativi sono più rilevanti di quelli qualitativi sono innumerevoli. Il problema è attualissimo e per me perfino urgente: quello che oggi tecnici come me sono chiamati a fare ogni giorno è fornire strumenti per fare esattamente quello che facevano le tabulatrici Hollerith: selezionare persone e gruppi in base ad informazioni che esse stesse hanno fornito. Possiamo risolvere tali questioni etiche con un framing tecnocentrico prescindendo dal contesto? La nostra società ha maturato posizioni tali da farci escludere che qualcosa di simile possa mai più verificarsi? Abbiamo bandito l'odio razziale, la discriminazione? Non direi. Sto lavorando a un progetto di data Analytics per un comune del Nord Est che mira a facilitare le scelte del decisore pubblico in un quadro di trasparenza, accountability e partecipazione. Non posso però ignorare che il mio progetto potrà altrettanto efficacemente servire, nelle mani di una amministrazione meno etica di quella attuale, per scopi diametralmente opposti, e perciò sono orientato a non svilupparlo affatto. Non è il timore di violare norme a preoccuparmi, e forse nemmeno quello di un giudizio morale, ma le concrete possibilità di impiego che lo strumento apre. In un contesto sociale in cui il senso comune e il giudizio diffuso tutelano dei valori e rendono almeno improbabili queste derive il problema si pone come scrupolo; ma in un contesto di disinteresse assiologico e di inconsapevolezza diffuse le tutele giuridiche non bastano. In sintesi quello che il trolley problem contribuisce a nascondere, mettendo in evidenza il problema della decisione _della macchina_, è lo sfondo di decisioni _umane_ assistite dalle macchine. Le AI introducono elementi di novità qualitativa, ma le sole differenze quantitative bastano a definire gli aspetti etici rilevanti. Incidentalmente, aggiungo che questo reframing che includa il contesto obbligherebbe a riconsiderare molte scelte passate sostanziamente per tecniche. In Italia: anagrafe centralizzata, fatturazione elettronica, fascicolo sanitario elettronico. Schedatura Sari e Sari real-time. Nessuno di questi sistemi esplicitamente decide in modo autonomo e tutti fanno cose che già fanno altri sistemi decentrati o analogici, solo in modo più efficiente e centralizzato. Ma che azioni *qualitativamente* diverse consentono questi sistemi che prima non erano possibili o erano troppo dispendiose? E in quale contesto? Nelle mani di chi va questo potere? Scusate la lunghezza... Alberto On 11/11/2018 14:33, Carlo Blengino wrote:
Provo, per puro spirito dialettico (e per una sorta di disagio che sento leggendo questo tread) a dare un diverso punto di vista, forse"eccessivo" e un po' grezzo: chiedo venia anticipatamente.
L'avversione per l'idea che degli algoritmi prendano decisioni capaci di influenzare più o meno profondamente la nostra vita è tenace e radicata in tutti noi, a dispetto della realtà che già viviamo. Mi viene in mente la vicenda dei prezzi del vino Bordeaux e dell'algoritmo di Orley Ashenfelter: l'algoritmo messo a punto dall'economista di Princeton per calcolare i prezzi futuri delle varie annate di Boreaux era, ed è, efficace ed accurato ma la reazione nei circoli di viticoltori francesi (ovvero tra i sistemi umani esperti del settore) "oscillò tra la violenza e l'isteria". Per i sommelier francesi l'algoritmo era "ridicolo e assurdo" e nessuna "combinazione meccanica" di variabili poteva sostituire l'intuito umano ( e soprattutto il fatto di assaggiare il vino!) . La storia fu raccontata dal NYT qui: https://www.nytimes.com/1990/03/04/us/wine-equation-puts-some-noses-out-of-j... ed interessante.
Siamo temo tutti un po' vittime di quella che Kahaneman chiama l'illusione di abilità. E sebbene decisioni umane cagionino quotidianamente la morte di bambini innocenti, immagino lo sconcerto e l'orrore che ci coglierà quando un bambino morirà per un errore (o una scelta, magari assai logica e razionale) di un algoritmo (o di una AV). La differenza di intensità emozionale si tradurrà immediatamente in preferenza morale ed in elevate e tetragone valutazioni etiche o addirittura religiose.
Il problema del carrello applicato ai veicoli autonomi mi pare falsante, utile perlopiù a dotte disquisizioni filosofiche che lascio a chi ne sa, ma sono inquieto se le risposte saranno quelle,irrazionali ed emozionali di Marco (Marco, so che mi perdonerai!) che vorrebbe costituzionalizzare il pensiero di Weizenbaum citato da Norberto. Dio ce ne scampi.
Cosa ci fa dire che la scelta dell'algoritmo sarà meno efficace e rassicurante della fallacia del giudizio umano? Meehl ritiene immorale affidarsi a giudizi intuitivi (di un carrellista aggiungo io) per decisioni importanti quando è disponibile un algoritmo esperto che può elaborare molte più informazioni in ambienti a basa validità (ovvero con un notevole grado di incertezza e imprevedibilità).
Un'ultima osservazione per Maria Chiara: perchè usi il condizionale parlando dello "ius necessitatis"? Lo stato di necessità (art. 54 c.p.) esclude la punibilità, anche in caso di omicidio dell'innocente. L'alpinista che taglia la corda del fidato compagno condannandolo a morte certa per salvar se stesso, là dove non abbia dato causa alla situazione di necessità creatasi, non viene punito. Poi possiamo fare mille pregevoli considerazioni etiche e morali e fin anche teologiche, che leggo con piacere ma a cui però mi sottraggo non arrischiandomi a pattinare su di un ghiaccio per me assai sottile.
Buona domenica a tutti. CB
Il giorno sab 10 nov 2018 alle ore 16:09 Alberto Cammozzo <ac+nexa@zeromx.net <mailto:ac%2Bnexa@zeromx.net>> ha scritto:
On 09/11/2018 18:41, Maria Chiara Pievatolo wrote: > Scusate il ritardo nel rispondere. Mi ripromettevo di farlo prima. > > On 11-10-2018 00:34, Giacomo Tesio wrote: > >> Io invece obbietto QUALE ETICA? >> Quale delle 10 miliardi di etiche presenti sul pianeta vogliamo >> insegnare alle macchine e dunque imporre a tutti coloro che le >> adoperano? > > La questione è molto pertinente, perché ci permette di passare > dall'etica alla meta-etica, che si pone una domanda di un livello > superiore a "che cosa è giusto fare?", vale a dire: > > che cosa ci rende possibile chiederci che cosa è giusto fare? > > La risposta di Kant alla questione meta-etica è la seguente: questa > domanda ha senso solo se presupponiamo che chi se lo chiede sia un > agente libero. Meta-eticamente, cioè, l'etica non è (solo) un > algoritmo per fare la cosa giusta (secondo questo o quel parametro) ma > il discorso di un essere libero. Banale? No, perché questo mette dei > limiti a tutte le etiche che non rispettano questa condizione, vale a > dire negano la dignità del soggetto morale in quanto essere libero, > capace di scegliere e di rispondere sui suoi propri progetti, cioè, in > linguaggio kantiano, di essere fine in sé. Senza esseri liberi non si > dà etica, perché non si dà scelta, responsabilità e senso (soggettivo). > > Pertanto, meta-eticamente: (1) un algoritmo per fare la cosa giusta > che nega la libertà dei soggetti e dunque la loro pari dignità in > quanto liberi portatori di senso non può essere etico. Ma (2) questo > comporta che ci possano essere situazioni - quelle tipiche dello ius > necessitatis (mors tua vita mea)- per le quali non sia possibile > formulare un algoritmo per fare la cosa giusta che ci salvi la vita e > rispetti allo stesso modo tutti i soggetti morali in gioco. > > Per questo la risposta kantiana al problema del trolley sarebbe, > secondo me, simile a quella di Giacomo Tesio: evitare di progettare > sistemi che prevedibilmente producano quelle situazioni
Chiarissimo, grazie. Condivido pienamente.
Ma perché -- anche se spero di sbagliarmi -- la nostra società non sarà in grado di produrre questo genere di moratoria se non troppo tardi e troppo poco? Questi ultimi interventi sollevano una questione di fondo: da molti dei messaggi in questa lista traspare (almeno ai miei occhi) un senso di impotenza sull'erosione tecnologica delle libertà, velocissima al pari di quella del ghiaccio delle calotte polari. "Quod licet" ha lasciato il passo a "quod potest", la filosofia non confina la tecnica, al massimo ne lima (fiaccamente) gli abusi più maldestri quando questi oltrepassano i confini del diritto, come se l'unica filosofia rimasta sia quella sedimentata (per ora) nelle norme giuridiche; nel frattempo il senso comune gioiosamente abbraccia l'asservimento. Aveva forse ragione Marcuse, nel considerare il nostro principio di libertà inscindibile da una società (quella greca antica) che considera la fatica un disvalore e perciò necessita degli schiavi? Ma uno schiavo al quale non puoi rinunciare sarà presto il tuo padrone...
Un saluto,
Alberto
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa