Ciao Enrico, Daniela e Nexa.
Grazie per questa splendida conversazione.
On October 29, 2022 4:38:13 PM UTC, Enrico Nardelli wrote:
> in contesti in qualche modo "chiusi" tali sistemi possono essere superiori agli esseri
> umani, mentre in situazioni "generaliste" le loro prestazioni continuano a
> rimanere indietro.
Vi sono almeno due problemi in questa frase Enrico:
1. la riduzione della persona ad una funzione
2. la riduzione del problema ad una questione di complessita computazionale
Nessuna cosa che l'uomo costruisce può essere paragonata (e dunque essere
qualificata come "superiore") all'uomo.
Non è solo una questione etica o politica, ma proprio ontologica.
Chi costruisce un artefatto, esprime sé stesso, la proprie idee ee i propri interessi
di quel momento.
Ma una volta costruito, l'artefatto ne rimane espressione invariabile (se non secondo
le regole impostegli da quella stesaa volontà) e continua ad applicare quella volontà
al mondo, fino ad ulteriore intervento umano (che si tratti di spegnerlo, romperlo o modificarlo).
L'artefice invece ha una libertà che l'artefatto non può avere e che non gli può essere
attribuita (così come una responsabilità) senza prima aver dimostrato non solo che
è in grado di simulare intelligenza, ma che è dotato di libero arbitrio.
L'artefice può cambiare idea.
L'artefatto non ha idee.
Dunque un artefatto è ontologicamente... una cosa.
"Superiore all'uomo" non sarà mai, neanche in contesti chiusi.
E questo perché l'uomo non esiste per svolgere una funzione.
L'uomo è autonomo, l'artrfatto no.
Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le regole
di funzionamento del sistema cibernetico in cii opera, rendendolo imprevedibile.
Può essere convinto a non esercitare questa autonomia, "perché non è giusto",
"perché il padrone è buono", "perché we shall do no evil", "perché funziona così",
per paura etc...
Ma continua ontologicamente ad essere autonomo.
Lo so, sembra una lunga supercazzola per due parole, ma l'uso di certe riduzioni
(soprattutto da parte di figure autorevoli come te) alimenta l'alienazione cibernetica di molti.
Alienazione che consiste nel processo di riduzione dell'autonomia delle persone sia
attraverso la loro automatizione (pensa al burocrate senza compassione) sia
attraverso l'antropomorfizzazione dell'automatismo che viene presentato
come "autonomo" e antropomorfo.
> Il 29/10/2022 08:00, Daniela Tafani ha scritto:
> >
> > Abbiamo il senso comune, che vale molto di più dell'essere precisi.
Soprattutto abbiamo il buon senso (che è cosa sempre meno comune, purtroppo).
Non siamo solo capaci di prevedere conseguenze, ma di empatizzare con
chi sarà affetto da tali conseguenze.
Quand'anche riuscissimo a superare i limiti computazionali che impediscono la previsione
potremmo ottenere un "senso comune" applicato meccanicamente.
Un "senso comune" indipendente dalla comunità.
Un "senso comune" immutabile, che non può evolvere se non nel solco del programma
(ovvero degli interessi di chi l'ha creato).
Un "sensi comune" privo di "senso" giacché le macchine elaborano dati cui solo la
mente umana può attribuire un significato.
Non è dunque un problema di quantità, di disponibilità di dati o di potenza di calcolo.
È una questione di essenza.
Gli automatismi trasformano meccanicamente dati, non informazioni.
Segni privi di un significato intrinseco, che solo l'uomo vi può attribuire.
E non parlo solo dell'input o dell'output: il software stesso è privo di un significato
intrinseco, tant'è che processori diversi reagiscono a segni diversi nello stesso
modo e a segni uguali in modo diverso.
E tant'è che possiamo persino progettare macchine per reagire in un determinato
modo a segni (dati) cui non proviamo nemmeno ad attribuire un significato.
Acquisire questa consapevolezza ha profonde implicazioni pratiche.
Per esempio rende evidente l'assurdità di parlare di "etica delle AI" o di "Explainable AI".
Il software è debuggabile.
Ciò che puoi spiegare al limite sono le intenzioni e gli errori di chi l'ha scritto.
E quando non è perfettamente debuggabile, allora è da buttare, perché troppo pericoloso:
la sua esecuzione è letteralmente "irresponsabile".
Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202210301134080621907&URLID=1&ESV=10.0.17.7319&IV=5395DDFA13D1581308E39E5C7165C6B3&TT=1667129649616&ESN=FJ3yy4La6od5SXyTpAooxiP9han5pK0J0Kc%2FE7xeMOs%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=52B671C15A298A32A3B4763AF7A55A0C4A37E42AEC06608E37D51FE3A41622CA