Salve Maurizio, hai ragione, mi sono espresso male, dando per scontata una contestualizzazione ed una equivalenza (in quel contesto) che non erano sufficientemente chiare nella mia mail. [1] On Fri, 18 Nov 2022 19:12:25 +0100 maurizio lana wrote:
[L'artefatto non ha etica. Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne riproduce la volontà. Ne diffonde i valori.]
L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante. Se non può alterare concretamente e consapevolmente il funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e pensare solo ciò che il creatore dell'artefatto stesso ha deciso. trovo problematico affermare che "l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente irrilevante." chi utilizza un coltello per uccidere la compagna, o i contractors di Wagner che usano un martello per uccidere un compagno; non mi paiono eticamente irrilevanti; e quindi direi al contrario che nella stragrande maggioranza dei casi l’utilizzatore di un artefatto è eticamente rilevante.
Ho parlato di "artefatto" avendo in mente la società cibernetica. Gli agenti cibernetici si distinguono in due categorie: quelli autonomi (ovvero gli esseri umani o le organizzazioni di esseri umani) e quelli automatici (gli automatismi, creati da alcuni uomini). Il coltello, un'auto o una vecchia fotocopiatrice, estendono le capacita fisiche dell'uomo (tagliare, muoversi, copiare): sono certamente artefatti (ovvero oggetti progettati e costruiti dall'uomo, ma non sono (di per sé) agenti cibernetici. La fotocopiatrice è un esempio particolarmente illuminante sulla differenza fra automatismo novecentesco e agente cibernetico automatico. La fotocopiatrice non fotocopia tutto ciò che le capita a tiro. Non fotocopia neanche tutto ciò che le capita a tiro che rispetta un certo criterio (ad esempio, una certa intestazione o un certo colore) E' sempre l'uomo a decidere cosa deve fotocopiare. Magari può lasciarla a fotocopiare centinaia di pagine senza supervisione, ma la fotocopiatrice non avrà alcuna autonomia. Non deciderà cosa fotocopiare e cosa no e non potrà fotocopiare qualcosa che non le sia stato messo nel cassetto di ingresso. L'auto, il trattore o l'escavatore novecentesco fanno la stessa cosa: estendono la forza o la velocità dell'uomo, ma è sempre l'uomo a decidere precisamente ed esaustivamente cosa fanno. Così come il coltello, notepad, il mail user agent o la mitragliatrice. Sono artefatti che non sono agenti cibernetici, ed in quanto tali, l'utente non è affatto moralmente irrilevante e anzi: quando la persona che usa un artefatto ne ha piena comprensione e pieno controllo, diventa il maggiore (o l'unico) responsabile delle azioni che compie attraverso di esso, come se le compisse con le proprie mani. Tuttavia una prima distinzione esiste fra gli artefatti informatici e quelli fisici: la straordinaria flessibilità del software stabilisce diverse asimmetrie fra coloro che usano e corono che creano l'artefatto: - anzitutto, l'interfaccia utente determina fortemente gli schemi di pensiero dell'utilizzatore, favorendo, sfavorendo, impedendo o determinando le cose che l'utilizzatore potrà pensare di fare o meno - poi a livello di comprensione del funzionamento: quella dello sviluppatore può essere completa (almeno per software non da buttare) quella dell'utente potrebbe non esserlo (e quanto lo sia dipende in larga parte dall'interfaccia) Confronta due casi estremi: - modificare un testo con un word processor non impone che tu abbia un modello mentale dell'esecuzione del software - modificare lo stesso testo con sed [2], sì. Non solo: leggere e comprendere completamente sed [3] richiede più o meno un paio di giorni, leggere e comprendere completamente un word processor moderno (ammesso che sia legale e non impedito da leggi oscurantiste) richiede mesi di studio (NB: "completamente" è la parola chiave qui). Dunque l'asimmetria di potere (e di responsabilità morale) può essere esacerbata o minimizzata. Ma solo chi crea può decidere se esacerbarla (attraverso licenze, brevetti complessità etc...) o minimizzarla. Dunque è chi crea l'artefatto a definire con grande precisione gli spazi di libertà entro cui chi lo usa potrà esprimere la propria moralità. Se questi spazi sono ristretti, l'utente diventa solo un ingranaggio del sistema cibernetico: il software riproduce esclusivamente la volontà dei suoi creatori e la persona che vi è cognitivamente imprigionata diventa un mero ingranaggio. L'agente cibernetico automatico però è un artefatto ancora diverso: non solo le persone che vi interagiscono non ne comprendono il funzionamento, ma spesso non sanno nemmeno che esista, che sia in esecuzione sull'hardware che si portano dietro e non hanno alcuna idea (o una idea estremamente parziale di ciò che quell'automatismo fa). L'artefatto non ha alcuna autonomia, ma l'essere umano, evolutosi per milioni di anni in un contesto in cui ciò che si muoveva da sé di solito era anche dotato di una minima autonomia (il pesce può scappare, il cinghiale attaccare e soprattutto l'uomo può ribellarsi all'ingiustizia) continua a proiettare questa esperienza atavica sugli automatismi che sembrano agire da sé. E naturalmente tutta la propaganda sulla AI da decenni serve proprio a rafforzare questa proiezione. Tuttavia l'artefatto che è anche agente cibernetico reagisce alle variazioni ambientali misurate dai suoi sensori in modo automatico: l'autonomia dell'essere umano che vi è connesso è molto ridotta, come nel caso del passeggero dell'auto a guida autonoma o della persona dipendente dalla dopamina prodotta dall'interazione con il social network. Nella mia frase ho collassato artefatto con agente cibernetico automatico. usando il primo come sinonimo del secondo, e compiendo almeno due errori: - uno di contestualizzazione (era chiaro solo nella mia testa che tutti gli agenti cibernetici automatici sono artefatti e quindi potevo usare i due termini come sinonimi) - l'altro di banalizzazione: se è vero che l'utilizzatore è moralmente irrilevante se non comprende pienamente il funzionamento degli agenti cibernetici automatici con cui interagisce, è altrettanto vero che la sua rilevanza morale varia enormemente anche quando interagisce con automatismi che non sono agenti cibernetici (ad esempio il CMS, l'editor o il sito web)
il caso generale rimane che l’utilizzatore di un artefatto è eticamente rilevante (in caso contrario assolviamo tutti gli assassini che per uccidere usano artefatti) e come in tutti i casi di responsabilità etica, la conoscenza e la consapevolezza contano.
Non è più tanto generale purtroppo. Il numero degli agenti cibernetici che girano sul tuo cellulare sommato a quello degli agenti cibernetici che vi sono connessi, supera di gran lunga gli artefatti inerti (non agenti cibernetici) di cui disponi in casa tua. Solo che i coltelli li vedi, i software di routing dei pacchetti, i firewall, i sistemi di profilazione, i sistemi di realtime-bidding degli ads, o i sistemi di previsione del tuo comportamento, di selezione dei contenuti etc... non li vedi, non sai che esistano, e quindi non li conti. Io purtroppo ne sono drammaticamente consapevole. Questo senza voler scusare il mio errore di cui sopra, ma per volerlo spiegare: ho inavvertitamente ignorato la minoranza degli artefatti. Una minoranza sempre più rara, mano a mano che il software pervade ogni cosa, dal microonde, al frigorifero, alla stampante, al frullatore etc... Dunque sì, per gli artefatti che non sono agenti cibernetici automatici hai ragione: l'utilizzatore non era moralmente irrilevante. Bisognerà spiegarlo bene... sui libri di Storia! (quelli stampati su carta: data volant, scripta manent ;-) Ma se vogliamo parlare del presente o del futuro, dobbiamo scegliere se vogliamo essere ingranaggi o persone. E se scegliamo di essere persone, dobbiamo costruire e diffondere esclusivamente tecnologie di cui tutti possano effettivamente comprendere il funzionamento in modo esaustivo ed in tempi ragionevoli. A molti non interesserà? Amen! A qualcuno interesserà ogni tanto. A qualcuno interesserà sempre. Ma è irrilevante. La possibilità di comprendere completamente il funzionamento come prerequisito alla diffusione di un agente cibernetico automatico è semplicemente un prerequisito della democrazia. Non insegnamo a tutti a leggere e scrivere perché tutti diventino parlamentari. Ma perché se qualcuno non lo potesse diventare, non vivremmo in una democrazia. Lo stesso vale deve valere per l'informatica. Coloro non sanno programmare e debuggare il software che li utilizza diventeranno presto meno che cittadini di serie B, meno che sudditi, meno che un "consumatori" o "utenti". Diventeranno ingranaggi, marionette. Se non lo sono già, ovviamente. Giacomo [1] https://server-nexa.polito.it/pipermail/nexa/2022-October/024300.html [2] http://man.9front.org/1/sed [3] http://git.9front.org/plan9front/plan9front/27ca3c1b0c109cb15fb3aa2baa152eaf...