ethical AI (era "It’s time to admit, self-driving cars aren’t going to happen")
...continuando a pensare su questo tema, al di là dei titoli dei thread, credo che la questione artefatto - responsabilità - progettisti - utilizzatori sia centrale. perciò ripensando a questo passaggio
[L'artefatto non ha etica. Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne riproduce la volontà. Ne diffonde i valori.]
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso. trovo problematico affermare che "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante." chi utilizza un coltello per uccidere la compagna, o i contractors di Wagner che usano un martello per uccidere un compagno; non mi paiono eticamente irrilevanti; e quindi direi al contrario che nella stragrande maggioranza dei casi l’utilizzatore di un artefatto è eticamente rilevante. poi capisco che l'argomentazione sia venuta nella forma inversa "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante" perché essa preparava la presentazione del caso "Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata" in cui sì certo l'utilizzatore dell'artefatto è utilizzato dall'artefatto. ma è un caso particolare. il caso generale rimane che l’utilizzatore di un artefatto è eticamente rilevante (in caso contrario assolviamo tutti gli assassini che per uccidere usano artefatti) e come in tutti i casi di responsabilità etica, la conoscenza e la consapevolezza contano. se sappiamo che le auto autonome possono uccidere mentre ci trasportano possiamo pensare che esse ci esautorano dalla responsabilità per i danni che possono causare mentre ci trasportano; _o possiamo decidere di non usarle_ fintantoché la situazione non cambi. quindi è chiaro che oggi abbiamo artefatti (con o senza IA) che complicano la questione della responsabilità dell'utilizzatore; ma il principio generale non mi pare che possa cambiare. Maurozoo
Il 31/10/22 09:01, Giacomo Tesio <giacomo@tesio.it> ha scritto:
Date: Sun, 30 Oct 2022 23:12:30 +0100 From: Giacomo Tesio<giacomo@tesio.it> To: maurizio lana<maurizio.lana@uniupo.it> Cc:nexa@server-nexa.polito.it Subject: Re: [nexa] ethical AI (era "It’s time to admit, self-driving cars aren’t going to happen") Message-ID:<20221030231230.00007a38@tesio.it> Content-Type: text/plain; charset=ISO-8859-1
Salve Maurizio,
On Sun, 30 Oct 2022 18:44:36 +0100 maurizio lana wrote:
anche se ne hai poi parlato sotto, mi pare che è qui che per te si pone l'impossibilità di un'«etica delle AI» perché in senso stretto essa implicherebbe che l'AI sia un soggetto autonomo, capace di scelte autonome, di cui quindi si può valutare l'etica. ma questo implicherebbe che l'AI sia dotata di agency come un soggetto umano adulto senziente e ragionante, senza limitazioni. Esatto.
Preferisco parlare di libero arbitrio o autonomia, ma in entrambi i casi il software (e qualsiasi altra macchina) non ne ha.
Parlare di "etica delle AI" è esattamente come parlare di "etica dei sassi" o di "etica delle macchine".
L'etica, così come l'intelligenza o l'informazione, sono peculiarità del homo sapiens sapiens. Letteralmente: parte della sua definizione.
Se parlassimo di intelligenza dei sassi, sarebbe evidente a tutti che stiamo antropomorfizzando i sassi. Se parlassimo di etica dei sassi a qualcuno verrebbe da ridere.
Ma anche quando parliamo di macchine novecentesche parlare di "etica" appare subito evidentemente strumentale.
Immaginate l'industriale che, all'ennesimo morto sul lavoro schiacciato da una pressa, proponesse come alternativa all'introduzione di normative sulla sicurezza delle presse, l'adozione di un'etica delle presse.
Con il software, a valle di un lungo lavoro di propaganda che Daniela ha descritto benissimo nel suo saggio [1], invece la gente può parlare di "etica delle AI" senza che tutti inizino a ridergli in faccia.
Vengono persino invitati a parlare a conferenze, pubblicati su riviste di filosofia etc...
Dal punto di vista oggettivo, i loro argomenti hanno la stessa solidità delle teorie terrapiattiste.
E un po' come avvenne in passato con il sistema tolemaico, queste teorizzazioni servono gli interessi di chi comprende benissimo la loro fallacia, ma trae vantaggio dalla loro diffusione.
mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte come progettista sia a valle come utilizzatore e non nell'artefatto. L'artefatto non ha etica. Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo.
Ne riproduce la volontà. Ne diffonde i valori.
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso.
Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata, come ingranaggio, come capro espiatorio. Non era la prima volta che si "distraeva"... "alla guida". Tali "distrazioni" erano già state registrate da Uber che misurava, per massimizzarlo, il grado di confidenza dei passeggeri nella guida automatica (NON autonoma!).
In altri termini per Uber le "distrazioni" di Rafaela Vasquez erano una feature, non un problema.
Dunque Rafaela Vasquez era eticamente irrilevante. Era già stata ridotta ad una cosa, ad un ingranaggio inconsapevole, ad un topo di laboratorio e ad un capro espiatorio alla bisogna.
Ma la Volvo di Uber non aveva alcuna etica (o alcuna intelligenza).
Aveva percepito Elaine in tempo per evitarla, ma era stata configurata per non effettuare frenate di emergenza durante la guida "autonoma" in modo da "evitare un comportamento erratico del mezzo" che avrebbe provocato il mal d'auto ai passeggeri.
Insomma, quella Volvo stava letteralmente applicando al mondo i valori di Uber, per cui la vita umana vale nettamente meno dei propri profitti.
Ma invece di arrestare tutto il consiglio di amministrazione di Uber per omicidio, negli USA parlano di "Etica delle AI".
La vita di Elaine Herzberg o di Rafaela Vasquez sono irrilevanti. Sono cose, insomma. Cose di scarso valore, peraltro.
E' questo l'etica delle AI: una narrazione alienante costruita su un'altra narrazione alienante.
a quel punto la valutazione di capacità etica riguarda i progettisti e gli utilizzatori e non è più questione di etica dell'AI in senso proprio, ma di come si fa una progettazione di prodotti che sia etica e un utilizzo di prodotti che sia etico. No, non è una questione di etica, ma di cultura e politica.
Anzitutto bisogna comprendere come funzionano questi software.
Per arrivarci dobbiamo abolire al più presto questo linguaggio antropomorfizzante (quando non religioso). Smettere di parlare di "intelligenza" o "allenamento" o "apprendimento" o "etica".
Una volta compreso questo, si potrà smettere serenamente e consapevolmente di applicarli a persone o a dati di origine umana.
Con la clonazione l'abbiamo fatto, con il software programmato statisticamente dobbiamo fare lo stesso. [2]
A valle di tale moratoria internazionale, potremo decidere una normativa adeguata per le molte applicazioni che non riguardano direttamente esseri umani.
Ad esempio, il trasporto merci su strade dedicate (magari sotterranee ed inaccessibili all'uomo). La massimizzazione della produzione agricola e così via...
Dovremo solo sempre tenere a mente che l'antropomorfizzazione delle cose serve solo gli interessi di chi le controlla.
Dunque, non parliamo di etica delle AI. Semplicemente perché già le AI stesse non esistono! ;-)
Parliamo piuttosto di etica delle aziende? Ok! Allora limitiamo superiormente il loro profitto, così che una volta raggiunto il tetto, la massimizzazione dei profitti smetta di prevalere su qualsiasi altra considerazione.
Giacomo
PS: non sono certo di aver risposto a ciò che chiedevi... scusa.
[1]: https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na...
[2]: Ci sono rarissimi contesti in cui può aver senso utilizzarli sotto attenta e addestratissima supervisione di gruppi multidisciplinari, che potremo elencare esplicitamente.
Penso ad esempio all'uso medico: nessun medico, da solo, può comprendere i pericoli dell'uso di un sistema programmato statisticamente, ma un team di medici e informatici molto preparati, insieme, potrebbe.
Personalmente non riesco a pensare un'altro caso d'uso in cui l'uso (sotto attenta e scrupolosa supervisione umana) di questi strumenti possa giustificare i pericoli che comportano.
Per assicurarci che nessuno ne abusi, potremmo però stabilire che nessun profitto può essere ottenuto dall'uso di dati umani, neanche in quei rarissimi casi in cui è autorizzato.
------------------------------------------------------------------------ the knowledge gap between rich and poor is widening witten and bainbridge, how to build a digital library ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
On 11/18/22 19:12, maurizio lana wrote:
...continuando a pensare su questo tema, al di là dei titoli dei thread, credo che la questione artefatto - responsabilità - progettisti - utilizzatori sia centrale. perciò ripensando a questo passaggio
[L'artefatto non ha etica. Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne riproduce la volontà. Ne diffonde i valori.]
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso. trovo problematico affermare che "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante." chi utilizza un coltello per uccidere la compagna, o i contractors di Wagner che usano un martello per uccidere un compagno; non mi paiono eticamente irrilevanti; e quindi direi al contrario che nella stragrande maggioranza dei casi l’utilizzatore di un artefatto è eticamente rilevante. poi capisco che l'argomentazione sia venuta nella forma inversa "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante" perché essa preparava la presentazione del caso "Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata" in cui sì certo l'utilizzatore dell'artefatto è utilizzato dall'artefatto. ma è un caso particolare. il caso generale rimane che l’utilizzatore di un artefatto è eticamente rilevante (in caso contrario assolviamo tutti gli assassini che per uccidere usano artefatti) e come in tutti i casi di responsabilità etica, la conoscenza e la consapevolezza contano. se sappiamo che le auto autonome possono uccidere mentre ci trasportano possiamo pensare che esse ci esautorano dalla responsabilità per i danni che possono causare mentre ci trasportano; _o possiamo decidere di non usarle_ fintantoché la situazione non cambi. quindi è chiaro che oggi abbiamo artefatti (con o senza IA) che complicano la questione della responsabilità dell'utilizzatore; ma il principio generale non mi pare che possa cambiare. Maurozoo
Approfitto del thread refresh per alimentare le riflessioni. 1) Premesso che la riduzione di ogni aspetto della vita a funzione ottimizzabile è limitante e pericoloso, l'automobile è l'esempio sbagliato. Per me (ripeto: per me) l'automobile è un mezzo che trasporta persone da A a B e come tale può essere efficacemente ottimizzato per un numero di parametri: tempi, consumi, traffico, uccisioni, ferimenti, danneggiamenti... Di essere ucciso da un'automobile guidata da una IA o da un persona in carne ed ossa, a me, personalmente, cambia poco. Se complessivamente, con la guida autonoma, muoiono meno persone ogni anno, ben venga la mia morte per mano inorganica. Ricordo che l'automobile è la ottava causa di morte (3700 persone al giorno, 1,35 milioni l'anno) e la prima per persone tra i 5 e i 29 anni [1]. Se poi qualcun ritiene che l'automobile sia anche un mezzo per fare passeggiate piacevoli o per gareggiare in velocità, e in quanto tale vettore di espressione umana, abbiamo due visioni del mondo diverse e non mi viene altro che consigliare di svolgere tali attività (per me marginali, ma rispetto chi la pensa diversamente) con guida umana, e, però, a questo punto, in luoghi adatti ad evitare danni, disagi e morte. 2) Rubo da Harari (che non va né incensato, né vituperato, ma più semplicemente letto con i filtri di cui ci ritengo più che capaci) un dilemma etico-automobilistico piuttosto interessante (tratto dal principio del rasoio di Occam). Una persona è alla guida su una strada ad alto scorrimento. Un bambino con un pallone si getta improvvisamente in carreggiata. In una frazione di secondo, la persona deve scegliere se sterzare per evitarlo e morire con probabilità pari ad 1 schiacciata da un TIR che arriva in direzione opposta, oppure proseguire senza sterzare e uccidere il bambino sempre con probabilità pari ad 1. Non esistono altre possibilità. Come scegliere? Una persona in carne ed ossa fa la sua scelta, dettata dal suo vissuto, dalla sua etica, dalla sua personalità... In una parola: dal suo essere una persona umana, diversa da qualcunque altra persona umana. Una IA può scegliere in base a come è stata programmata, in base a calcoli che è in grado di eseguire in quella frazione di secondo, in base a funzioni di ottimizzazione. Tutte le IA tra loro uguali, lo faranno allo stesso identico modo. Potrebbero ottimizzare sulla speranza di vita della vittima (meglio che muoia la persona adulta che è nella vettura piuttosto che un bambino) oppure rispetto a quanto pagherebbe l'assicurazione nei due casi. Supponiamo che quando acquistiamo l'automobile ci sottopongano una situazione di questo tipo in forma di opzione da selezionare per istruire la IA. Cosa sceglieremmo? E cosa sceglierebbe il nostro partner che trascorrerà molto tempo con noi in auto? E come cambierebbe il premio della nostra assicurazione automobilistica? E quella sanitaria? I sistemi politico-filosofici informano, in modo diverso ma analogo, persone umane (collettivamente e debolmente) e macchine (individualmente e fortemente). Ma le macchine sono in mano di pochi, almeno fino ad ora. E questi pochi adottano e promuovono sistemi capitalistici. Le persone umane possono sempre autorganizzarsi e cambiare le cose. D. [1] https://www.cdc.gov/injury/features/global-road-safety/index.html (null)
Buonasera. Ritengo che sia stato geniale, come strategia di marketing, accompagnare i primi disastrosi viaggi delle auto a guida (non) autonoma con una rivisitazione del dilemma del trolley, quasi che quei veicoli che continuano a schiantarsi, ancora oggi (dati dei test) contro un terzo dei ciclisti e contro tutte le altre auto che siano, pur lentamente, in arrivo, siano in grado di sciogliere dilemmi su questioni di vita e di morte in modo più sofisticato di una roulette russa. Analogamente, ritengo che la tesi che occorra interrogarsi su chi uccidere, in caso di incidenti inevitabili, perché il diritto non conterrebbe le risposte a simili domande, sia uno specchietto per le allodole. Il diritto degli stati con costituzioni che tutelino alcuni diritti fondamentali vieta infatti simili domande e questa è già una precisa risposta. Del resto, se volessi farmi costruire una casa, in un terreno libero tra un supermercato e un asilo nido, e l'ingegnere incaricato mi chiedesse se preferisco che, in caso di crollo, la casa frani, uccidendoli, sui bambini del nido o sui clienti del supermercato, cambierei senz'altro ingegnere. Ho provato a ricostruire alcuni aspetti morali e giuridici di questa questione qualche tempo fa (in un articolo non a accesso libero, di cui allego perciò il preprint), quando ancora non erano emersi dati su vere e proprie truffe, come le auto programmate per disattivare l'autopilot subito prima delle collisioni, così da far ricadere la colpa sul conducente umano, e quando ancora non avevo capito che non vedremo auto a guida autonoma se non in strade dedicate, entro contesti che non richiedano il senso comune. Il fatto che si stia costruendo oggi una strada liscissima, ex novo, per i test di tali auto, mi pare promettente: superati i test, basterà riasfaltare tutte le strade del mondo... (https://www.highwaysmagazine.co.uk/ , numero di novembre 2022) Grazie molte di aver condiviso le riflessioni su questo tema. Buona serata, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di D. Davide Lamanna <davide.lamanna@binarioetico.it> Inviato: domenica 20 novembre 2022 16:46 A: nexa@server-nexa.polito.it Oggetto: [DKIM Failed] Re: [nexa] ethical AI (era "It’s time to admit, self-driving cars aren’t going to happen") On 11/18/22 19:12, maurizio lana wrote:
...continuando a pensare su questo tema, al di là dei titoli dei thread, credo che la questione artefatto - responsabilità - progettisti - utilizzatori sia centrale. perciò ripensando a questo passaggio
[L'artefatto non ha etica. Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne riproduce la volontà. Ne diffonde i valori.]
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso. trovo problematico affermare che "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante." chi utilizza un coltello per uccidere la compagna, o i contractors di Wagner che usano un martello per uccidere un compagno; non mi paiono eticamente irrilevanti; e quindi direi al contrario che nella stragrande maggioranza dei casi l’utilizzatore di un artefatto è eticamente rilevante. poi capisco che l'argomentazione sia venuta nella forma inversa "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante" perché essa preparava la presentazione del caso "Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata" in cui sì certo l'utilizzatore dell'artefatto è utilizzato dall'artefatto. ma è un caso particolare. il caso generale rimane che l’utilizzatore di un artefatto è eticamente rilevante (in caso contrario assolviamo tutti gli assassini che per uccidere usano artefatti) e come in tutti i casi di responsabilità etica, la conoscenza e la consapevolezza contano. se sappiamo che le auto autonome possono uccidere mentre ci trasportano possiamo pensare che esse ci esautorano dalla responsabilità per i danni che possono causare mentre ci trasportano; _o possiamo decidere di non usarle_ fintantoché la situazione non cambi. quindi è chiaro che oggi abbiamo artefatti (con o senza IA) che complicano la questione della responsabilità dell'utilizzatore; ma il principio generale non mi pare che possa cambiare. Maurozoo
Approfitto del thread refresh per alimentare le riflessioni. 1) Premesso che la riduzione di ogni aspetto della vita a funzione ottimizzabile è limitante e pericoloso, l'automobile è l'esempio sbagliato. Per me (ripeto: per me) l'automobile è un mezzo che trasporta persone da A a B e come tale può essere efficacemente ottimizzato per un numero di parametri: tempi, consumi, traffico, uccisioni, ferimenti, danneggiamenti... Di essere ucciso da un'automobile guidata da una IA o da un persona in carne ed ossa, a me, personalmente, cambia poco. Se complessivamente, con la guida autonoma, muoiono meno persone ogni anno, ben venga la mia morte per mano inorganica. Ricordo che l'automobile è la ottava causa di morte (3700 persone al giorno, 1,35 milioni l'anno) e la prima per persone tra i 5 e i 29 anni [1]. Se poi qualcun ritiene che l'automobile sia anche un mezzo per fare passeggiate piacevoli o per gareggiare in velocità, e in quanto tale vettore di espressione umana, abbiamo due visioni del mondo diverse e non mi viene altro che consigliare di svolgere tali attività (per me marginali, ma rispetto chi la pensa diversamente) con guida umana, e, però, a questo punto, in luoghi adatti ad evitare danni, disagi e morte. 2) Rubo da Harari (che non va né incensato, né vituperato, ma più semplicemente letto con i filtri di cui ci ritengo più che capaci) un dilemma etico-automobilistico piuttosto interessante (tratto dal principio del rasoio di Occam). Una persona è alla guida su una strada ad alto scorrimento. Un bambino con un pallone si getta improvvisamente in carreggiata. In una frazione di secondo, la persona deve scegliere se sterzare per evitarlo e morire con probabilità pari ad 1 schiacciata da un TIR che arriva in direzione opposta, oppure proseguire senza sterzare e uccidere il bambino sempre con probabilità pari ad 1. Non esistono altre possibilità. Come scegliere? Una persona in carne ed ossa fa la sua scelta, dettata dal suo vissuto, dalla sua etica, dalla sua personalità... In una parola: dal suo essere una persona umana, diversa da qualcunque altra persona umana. Una IA può scegliere in base a come è stata programmata, in base a calcoli che è in grado di eseguire in quella frazione di secondo, in base a funzioni di ottimizzazione. Tutte le IA tra loro uguali, lo faranno allo stesso identico modo. Potrebbero ottimizzare sulla speranza di vita della vittima (meglio che muoia la persona adulta che è nella vettura piuttosto che un bambino) oppure rispetto a quanto pagherebbe l'assicurazione nei due casi. Supponiamo che quando acquistiamo l'automobile ci sottopongano una situazione di questo tipo in forma di opzione da selezionare per istruire la IA. Cosa sceglieremmo? E cosa sceglierebbe il nostro partner che trascorrerà molto tempo con noi in auto? E come cambierebbe il premio della nostra assicurazione automobilistica? E quella sanitaria? I sistemi politico-filosofici informano, in modo diverso ma analogo, persone umane (collettivamente e debolmente) e macchine (individualmente e fortemente). Ma le macchine sono in mano di pochi, almeno fino ad ora. E questi pochi adottano e promuovono sistemi capitalistici. Le persone umane possono sempre autorganizzarsi e cambiare le cose. D. [1] https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211201546210821340... (null) _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211201546210821340...
On Sun, Nov 20, 2022 17:01:54 PM +0000, Daniela Tafani wrote:
Buonasera.
Ritengo che sia stato geniale, come strategia di marketing, accompagnare i primi disastrosi viaggi delle auto a guida (non) autonoma con una rivisitazione del dilemma del trolley, quasi che quei veicoli che continuano a schiantarsi, ancora oggi (dati dei test) contro un terzo dei ciclisti e contro tutte le altre auto che siano, pur lentamente, in arrivo, siano in grado di sciogliere dilemmi su questioni di vita e di morte in modo più sofisticato di una roulette russa.
Analogamente, ritengo che la tesi che occorra interrogarsi su chi uccidere, in caso di incidenti inevitabili,
perché il diritto non conterrebbe le risposte a simili domande, sia uno specchietto per le allodole. Il diritto degli stati con costituzioni che tutelino alcuni diritti fondamentali vieta infatti simili domande e questa è già una precisa risposta...
grazie per un'autorevole conferma di un sospetto che mi era venuto tempo fa: https://stop.zona-m.net/2019/09/let-self-driving-cars-kill-pedestrians.-or-n... Marco -- Help me write my NEXT MILLION WORDS for digital awareness: https://stop.zona-m.net/2021/10/funding-2021-2022/
Salve Maurizio, hai ragione, mi sono espresso male, dando per scontata una contestualizzazione ed una equivalenza (in quel contesto) che non erano sufficientemente chiare nella mia mail. [1] On Fri, 18 Nov 2022 19:12:25 +0100 maurizio lana wrote:
[L'artefatto non ha etica. Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne riproduce la volontà. Ne diffonde i valori.]
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso. trovo problematico affermare che "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante." chi utilizza un coltello per uccidere la compagna, o i contractors di Wagner che usano un martello per uccidere un compagno; non mi paiono eticamente irrilevanti; e quindi direi al contrario che nella stragrande maggioranza dei casi l’utilizzatore di un artefatto è eticamente rilevante.
Ho parlato di "artefatto" avendo in mente la società cibernetica. Gli agenti cibernetici si distinguono in due categorie: quelli autonomi (ovvero gli esseri umani o le organizzazioni di esseri umani) e quelli automatici (gli automatismi, creati da alcuni uomini). Il coltello, un'auto o una vecchia fotocopiatrice, estendono le capacita fisiche dell'uomo (tagliare, muoversi, copiare): sono certamente artefatti (ovvero oggetti progettati e costruiti dall'uomo, ma non sono (di per sé) agenti cibernetici. La fotocopiatrice è un esempio particolarmente illuminante sulla differenza fra automatismo novecentesco e agente cibernetico automatico. La fotocopiatrice non fotocopia tutto ciò che le capita a tiro. Non fotocopia neanche tutto ciò che le capita a tiro che rispetta un certo criterio (ad esempio, una certa intestazione o un certo colore) E' sempre l'uomo a decidere cosa deve fotocopiare. Magari può lasciarla a fotocopiare centinaia di pagine senza supervisione, ma la fotocopiatrice non avrà alcuna autonomia. Non deciderà cosa fotocopiare e cosa no e non potrà fotocopiare qualcosa che non le sia stato messo nel cassetto di ingresso. L'auto, il trattore o l'escavatore novecentesco fanno la stessa cosa: estendono la forza o la velocità dell'uomo, ma è sempre l'uomo a decidere precisamente ed esaustivamente cosa fanno. Così come il coltello, notepad, il mail user agent o la mitragliatrice. Sono artefatti che non sono agenti cibernetici, ed in quanto tali, l'utente non è affatto moralmente irrilevante e anzi: quando la persona che usa un artefatto ne ha piena comprensione e pieno controllo, diventa il maggiore (o l'unico) responsabile delle azioni che compie attraverso di esso, come se le compisse con le proprie mani. Tuttavia una prima distinzione esiste fra gli artefatti informatici e quelli fisici: la straordinaria flessibilità del software stabilisce diverse asimmetrie fra coloro che usano e corono che creano l'artefatto: - anzitutto, l'interfaccia utente determina fortemente gli schemi di pensiero dell'utilizzatore, favorendo, sfavorendo, impedendo o determinando le cose che l'utilizzatore potrà pensare di fare o meno - poi a livello di comprensione del funzionamento: quella dello sviluppatore può essere completa (almeno per software non da buttare) quella dell'utente potrebbe non esserlo (e quanto lo sia dipende in larga parte dall'interfaccia) Confronta due casi estremi: - modificare un testo con un word processor non impone che tu abbia un modello mentale dell'esecuzione del software - modificare lo stesso testo con sed [2], sì. Non solo: leggere e comprendere completamente sed [3] richiede più o meno un paio di giorni, leggere e comprendere completamente un word processor moderno (ammesso che sia legale e non impedito da leggi oscurantiste) richiede mesi di studio (NB: "completamente" è la parola chiave qui). Dunque l'asimmetria di potere (e di responsabilità morale) può essere esacerbata o minimizzata. Ma solo chi crea può decidere se esacerbarla (attraverso licenze, brevetti complessità etc...) o minimizzarla. Dunque è chi crea l'artefatto a definire con grande precisione gli spazi di libertà entro cui chi lo usa potrà esprimere la propria moralità. Se questi spazi sono ristretti, l'utente diventa solo un ingranaggio del sistema cibernetico: il software riproduce esclusivamente la volontà dei suoi creatori e la persona che vi è cognitivamente imprigionata diventa un mero ingranaggio. L'agente cibernetico automatico però è un artefatto ancora diverso: non solo le persone che vi interagiscono non ne comprendono il funzionamento, ma spesso non sanno nemmeno che esista, che sia in esecuzione sull'hardware che si portano dietro e non hanno alcuna idea (o una idea estremamente parziale di ciò che quell'automatismo fa). L'artefatto non ha alcuna autonomia, ma l'essere umano, evolutosi per milioni di anni in un contesto in cui ciò che si muoveva da sé di solito era anche dotato di una minima autonomia (il pesce può scappare, il cinghiale attaccare e soprattutto l'uomo può ribellarsi all'ingiustizia) continua a proiettare questa esperienza atavica sugli automatismi che sembrano agire da sé. E naturalmente tutta la propaganda sulla AI da decenni serve proprio a rafforzare questa proiezione. Tuttavia l'artefatto che è anche agente cibernetico reagisce alle variazioni ambientali misurate dai suoi sensori in modo automatico: l'autonomia dell'essere umano che vi è connesso è molto ridotta, come nel caso del passeggero dell'auto a guida autonoma o della persona dipendente dalla dopamina prodotta dall'interazione con il social network. Nella mia frase ho collassato artefatto con agente cibernetico automatico. usando il primo come sinonimo del secondo, e compiendo almeno due errori: - uno di contestualizzazione (era chiaro solo nella mia testa che tutti gli agenti cibernetici automatici sono artefatti e quindi potevo usare i due termini come sinonimi) - l'altro di banalizzazione: se è vero che l'utilizzatore è moralmente irrilevante se non comprende pienamente il funzionamento degli agenti cibernetici automatici con cui interagisce, è altrettanto vero che la sua rilevanza morale varia enormemente anche quando interagisce con automatismi che non sono agenti cibernetici (ad esempio il CMS, l'editor o il sito web)
il caso generale rimane che l’utilizzatore di un artefatto è eticamente rilevante (in caso contrario assolviamo tutti gli assassini che per uccidere usano artefatti) e come in tutti i casi di responsabilità etica, la conoscenza e la consapevolezza contano.
Non è più tanto generale purtroppo. Il numero degli agenti cibernetici che girano sul tuo cellulare sommato a quello degli agenti cibernetici che vi sono connessi, supera di gran lunga gli artefatti inerti (non agenti cibernetici) di cui disponi in casa tua. Solo che i coltelli li vedi, i software di routing dei pacchetti, i firewall, i sistemi di profilazione, i sistemi di realtime-bidding degli ads, o i sistemi di previsione del tuo comportamento, di selezione dei contenuti etc... non li vedi, non sai che esistano, e quindi non li conti. Io purtroppo ne sono drammaticamente consapevole. Questo senza voler scusare il mio errore di cui sopra, ma per volerlo spiegare: ho inavvertitamente ignorato la minoranza degli artefatti. Una minoranza sempre più rara, mano a mano che il software pervade ogni cosa, dal microonde, al frigorifero, alla stampante, al frullatore etc... Dunque sì, per gli artefatti che non sono agenti cibernetici automatici hai ragione: l'utilizzatore non era moralmente irrilevante. Bisognerà spiegarlo bene... sui libri di Storia! (quelli stampati su carta: data volant, scripta manent ;-) Ma se vogliamo parlare del presente o del futuro, dobbiamo scegliere se vogliamo essere ingranaggi o persone. E se scegliamo di essere persone, dobbiamo costruire e diffondere esclusivamente tecnologie di cui tutti possano effettivamente comprendere il funzionamento in modo esaustivo ed in tempi ragionevoli. A molti non interesserà? Amen! A qualcuno interesserà ogni tanto. A qualcuno interesserà sempre. Ma è irrilevante. La possibilità di comprendere completamente il funzionamento come prerequisito alla diffusione di un agente cibernetico automatico è semplicemente un prerequisito della democrazia. Non insegnamo a tutti a leggere e scrivere perché tutti diventino parlamentari. Ma perché se qualcuno non lo potesse diventare, non vivremmo in una democrazia. Lo stesso vale deve valere per l'informatica. Coloro non sanno programmare e debuggare il software che li utilizza diventeranno presto meno che cittadini di serie B, meno che sudditi, meno che un "consumatori" o "utenti". Diventeranno ingranaggi, marionette. Se non lo sono già, ovviamente. Giacomo [1] https://server-nexa.polito.it/pipermail/nexa/2022-October/024300.html [2] http://man.9front.org/1/sed [3] http://git.9front.org/plan9front/plan9front/27ca3c1b0c109cb15fb3aa2baa152eaf...
participants (5)
-
D. Davide Lamanna -
Daniela Tafani -
Giacomo Tesio -
M. Fioretti -
maurizio lana