ciao Giacomo, la tua frase
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso. mi fa capire che non mi sono espresso bene usando il termine "utilizzatore". o che il termine ha un ventaglio di significati a cui non pensavo. il significato a cui pensavo era di questo tipo: software di IA che definisce chi può stipulare un contatto di assicurazione vita abbiamo i progettisti del software, e poi abbiamo l'agente di assicurazione che lo usa. a mio modo di vedere l'agente (che qui è l'utilizzatore) è responsabile per l'uso di quel software. proprio perché (ti cito) L'uomo è autonomo, l'artefatto no. Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le regole di funzionamento del sistema cibernetico in cii opera, rendendolo imprevedibile. Può essere convinto a non esercitare questa autonomia, "perché non è giusto", "perché il padrone è buono", "perché we shall do no evil", "perché funziona così", per paura, [/perché non vuole/non può perdere il lavoro/], etc... Ma continua ontologicamente ad essere autonomo. mentre nello specifico dell'utilizzatore di un'auto a guida autonoma, di cui dici Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso. non sono d'accordo. l'utilizzatore dell'auto a guida autonoma può decidere /non/ utilizzare un'auto a guida autonoma proprio perché è consapevole che in tal caso "può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso". se la usa, con più consapevolezza o meno decide di obbedire al produttore dell'auto (è detto in termini un po' brevi e rozzi ma il senso è chiaro).
molto si gioca tra consapevolezza/inconsapevolezza e cautela/sprovvedutezza: se /so/ che i dispositivi a input vocale più spesso che no ascoltano ininterrottamente l'ambiente e quindi ascoltano ciò che dico anche quando non do comandi vocali, consapevolezza e cautela mi porteranno a non acquistare quel tipo di prodotti e ove disponibili preferirò le versioni dumb a quelle smart. non perché sono un troglodita rimasto al tempo delle caverne, ma proprio perché conosco il mondo digitale, la tecnologia, eccetera e scelgo quale tecnologia voglio usare. e quindi ad un successivo più alto livello tutto si gioca sul so/non so, dove il so/non so non riguarda necessariamente lo specifico prodotto, ma tipi di prodotti, tipi di questioni problematiche, eccetera. che è poi una questione di literacy, di information literacy: quanto ogni cittadino è attrezzato per vivere e operare in questa società dell'informazione, e dell'informazione digitale? molti sono come gli analfabeti che firmavano i contratti mettendo una croce e fidandosi di ciò che il proponente gli diceva. c'è molto da fare in formazione - che è poi uscire dalla caverna e liberarsi dal dominio delle ombre. Maurizio Il 30/10/22 23:12, Giacomo Tesio ha scritto:
Salve Maurizio,
On Sun, 30 Oct 2022 18:44:36 +0100 maurizio lana wrote:
anche se ne hai poi parlato sotto, mi pare che è qui che per te si pone l'impossibilità di un'«etica delle AI» perché in senso stretto essa implicherebbe che l'AI sia un soggetto autonomo, capace di scelte autonome, di cui quindi si può valutare l'etica. ma questo implicherebbe che l'AI sia dotata di agency come un soggetto umano adulto senziente e ragionante, senza limitazioni. Esatto.
Preferisco parlare di libero arbitrio o autonomia, ma in entrambi i casi il software (e qualsiasi altra macchina) non ne ha.
Parlare di "etica delle AI" è esattamente come parlare di "etica dei sassi" o di "etica delle macchine".
L'etica, così come l'intelligenza o l'informazione, sono peculiarità del homo sapiens sapiens. Letteralmente: parte della sua definizione.
Se parlassimo di intelligenza dei sassi, sarebbe evidente a tutti che stiamo antropomorfizzando i sassi. Se parlassimo di etica dei sassi a qualcuno verrebbe da ridere.
Ma anche quando parliamo di macchine novecentesche parlare di "etica" appare subito evidentemente strumentale.
Immaginate l'industriale che, all'ennesimo morto sul lavoro schiacciato da una pressa, proponesse come alternativa all'introduzione di normative sulla sicurezza delle presse, l'adozione di un'etica delle presse.
Con il software, a valle di un lungo lavoro di propaganda che Daniela ha descritto benissimo nel suo saggio [1], invece la gente può parlare di "etica delle AI" senza che tutti inizino a ridergli in faccia.
Vengono persino invitati a parlare a conferenze, pubblicati su riviste di filosofia etc...
Dal punto di vista oggettivo, i loro argomenti hanno la stessa solidità delle teorie terrapiattiste.
E un po' come avvenne in passato con il sistema tolemaico, queste teorizzazioni servono gli interessi di chi comprende benissimo la loro fallacia, ma trae vantaggio dalla loro diffusione.
mi sembra di capire che tu l'agency la vedi nell'uomo sia a monte come progettista sia a valle come utilizzatore e non nell'artefatto. L'artefatto non ha etica. Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo.
Ne riproduce la volontà. Ne diffonde i valori.
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso.
Rafaela Vasquez, a bordo dell'auto di Uber che uccise Elaine Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata, come ingranaggio, come capro espiatorio. Non era la prima volta che si "distraeva"... "alla guida". Tali "distrazioni" erano già state registrate da Uber che misurava, per massimizzarlo, il grado di confidenza dei passeggeri nella guida automatica (NON autonoma!).
In altri termini per Uber le "distrazioni" di Rafaela Vasquez erano una feature, non un problema.
Dunque Rafaela Vasquez era eticamente irrilevante. Era già stata ridotta ad una cosa, ad un ingranaggio inconsapevole, ad un topo di laboratorio e ad un capro espiatorio alla bisogna.
Ma la Volvo di Uber non aveva alcuna etica (o alcuna intelligenza).
Aveva percepito Elaine in tempo per evitarla, ma era stata configurata per non effettuare frenate di emergenza durante la guida "autonoma" in modo da "evitare un comportamento erratico del mezzo" che avrebbe provocato il mal d'auto ai passeggeri.
Insomma, quella Volvo stava letteralmente applicando al mondo i valori di Uber, per cui la vita umana vale nettamente meno dei propri profitti.
Ma invece di arrestare tutto il consiglio di amministrazione di Uber per omicidio, negli USA parlano di "Etica delle AI".
La vita di Elaine Herzberg o di Rafaela Vasquez sono irrilevanti. Sono cose, insomma. Cose di scarso valore, peraltro.
E' questo l'etica delle AI: una narrazione alienante costruita su un'altra narrazione alienante.
a quel punto la valutazione di capacità etica riguarda i progettisti e gli utilizzatori e non è più questione di etica dell'AI in senso proprio, ma di come si fa una progettazione di prodotti che sia etica e un utilizzo di prodotti che sia etico. No, non è una questione di etica, ma di cultura e politica.
Anzitutto bisogna comprendere come funzionano questi software.
Per arrivarci dobbiamo abolire al più presto questo linguaggio antropomorfizzante (quando non religioso). Smettere di parlare di "intelligenza" o "allenamento" o "apprendimento" o "etica".
Una volta compreso questo, si potrà smettere serenamente e consapevolmente di applicarli a persone o a dati di origine umana.
Con la clonazione l'abbiamo fatto, con il software programmato statisticamente dobbiamo fare lo stesso. [2]
A valle di tale moratoria internazionale, potremo decidere una normativa adeguata per le molte applicazioni che non riguardano direttamente esseri umani.
Ad esempio, il trasporto merci su strade dedicate (magari sotterranee ed inaccessibili all'uomo). La massimizzazione della produzione agricola e così via...
Dovremo solo sempre tenere a mente che l'antropomorfizzazione delle cose serve solo gli interessi di chi le controlla.
Dunque, non parliamo di etica delle AI. Semplicemente perché già le AI stesse non esistono! ;-)
Parliamo piuttosto di etica delle aziende? Ok! Allora limitiamo superiormente il loro profitto, così che una volta raggiunto il tetto, la massimizzazione dei profitti smetta di prevalere su qualsiasi altra considerazione.
Giacomo
PS: non sono certo di aver risposto a ciò che chiedevi... scusa.
[1]: https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na...
[2]: Ci sono rarissimi contesti in cui può aver senso utilizzarli sotto attenta e addestratissima supervisione di gruppi multidisciplinari, che potremo elencare esplicitamente.
Penso ad esempio all'uso medico: nessun medico, da solo, può comprendere i pericoli dell'uso di un sistema programmato statisticamente, ma un team di medici e informatici molto preparati, insieme, potrebbe.
Personalmente non riesco a pensare un'altro caso d'uso in cui l'uso (sotto attenta e scrupolosa supervisione umana) di questi strumenti possa giustificare i pericoli che comportano.
Per assicurarci che nessuno ne abusi, potremmo però stabilire che nessun profitto può essere ottenuto dall'uso di dati umani, neanche in quei rarissimi casi in cui è autorizzato.
------------------------------------------------------------------------ many of us believe the EU remains the most extraordinary, ambitious, liberal political alliance in recorded history. where it needs reform, where it needs to evolve, we should be there to help turn that heavy wheel i. mcewan, the guardian, 2/6/2017 ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli