Sì, hai ragione, Giacomo:
lo smascheramento delle imposture sul piano teorico è utile, naturalmente, è un atto di resistenza.
Volevo solo dire che mi sembra sempre opportuno distinguere i piani:
- empirico: ci sono cose (alcuni sistemi di IA) che vengono presentate come se potessero svolgere specifiche attività umane,
come guidare un'auto nel traffico cittadino o comprendere un discorso e rispondere sulla base di tale comprensione;
- le cose non sono persone e le persone non sono cose
- assiologico: le persone hanno un valore incondizionato, una dignità, le cose no
- morale: le persone non devono essere trattate come cose
- politico: trattare le persone come cose equivale a privarle di ogni diritto
(ad esempio, etichettandole e affidando a sistemi di ML decisioni che abbiano effetti rilevanti sulle loro vite)
- giuridico: la responsabilità per i danni causati da cose che sono prodotti (e i sistemi di IA lo sono senz'altro)
è da ascriversi nel rispetto del principio cuius commoda, eius et incommoda;
l'eventuale impossibilità di risalire alla responsabilità è una forma di negligenza del produttore.
Con il mio accenno al senso comune, restavo al livello più basso, al piano meramente empirico, per sostenere che l'attuale tecnologia
non consente la guida autonoma, come non può riprodurre la comprensione del linguaggio.
Condivido tutto quello che hai scritto, ma credo che la distinzione dei piani sia a volte utile:
mi pare che gli studenti colgano benissimo l'enormità dell'impostura a livello empirico,
non appena qualcuno spieghi loro, ad esempio, la distinzione tra manipolare stringhe di testo e comprenderne il significato
e che a quel punto tutti gli incantamenti, le imposture o gli atti di ingiustizia e oppressione ai livelli successivi, pur sostenuti dalla narrazione dominante,
cadano quasi da soli, come un castello di carte.
In ogni caso, dopo aver chiarito che una certa macchina non funziona, si riesce almeno a scansare l'accusa di luddista.
Grazie di questa conversazione.
Un saluto,
Daniela
Da: Giacomo Tesio <giacomo@tesio.it>
Inviato: domenica 30 ottobre 2022 15:30
A: Daniela Tafani; Enrico Nardelli; Nexa
Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars aren’t going to happen"
On October 30, 2022 1:36:58 PM UTC, Daniela Tafani wrote:
>
> Credo però che la riduzione degli uomini a cose sia un gesto politico, più che un errore teorico.
È naturalmente un gesto politico, ma necesita di un errore teorico per giustificarsi e normalizzarsi.
> E non sono sicura che una lezione teorica sia sufficiente a dissuadere un nazista.
Come non è sufficiente a dissuadere uno dei tanti lobbisti di Google & friends.
Non è per dissuadere chi trae vantaggio dall'errore teorico, che
dobbiamo smascherarlo come tale.
È per allertare i tantissimi che se la bevono.
> Quanto alle auto a guida autonoma, cercavo di mettere in discussione il minor
> numero possibile di concetti impegnativi, come la libertà,
> considerato che, al momento, la tecnologia si ferma decisamente molto prima.
Solo se la consideri in isolamento.
Se ragioni in termini di agenti cibernetici invece che dei singoli elementi che li costituiscono,
se non perdi di vista gli uomini dietro l'automatismo, che si chiami "AI", Google Classroom o 9front, la libertà diventa rilevante.
Compreso che l'automatismo non ce l'ha, dobbiamo chiederci chi poteva scegliere
o creare un automatismo diverso, perché non l'ha fatto e perché eventualmente cerca
di nascondere tale libertà e responsabilità.
> Concordo anche sull'insensatezza dell'etica dell'IA, ma ritengo,
> come ho provato ad argomentare nell'articolo che vi ho sottoposto, che la narrazione sull'etica dell'IA
> assecondi sì alcune tendenze umane spontanee,
> ma sia deliberatamente costruita e diffusa per interesse.
Ho trovato talmente illuminante ed importante il tuo articolo da non
avere trovato ancora il tempo di risponderti come merita.
Posso però ringraziarti per averlo scritto e sperare che abbia ampia diffusione.
Giacomo