Caro Guido,
la "coraggiosa assertività" sarebbe arroganza se questo dibattito
non fosse già avvenuto diverse volte in almeno 40 anni di ricerca
in ambito socio-politico e non solo, nel tentativo di superare le
posizioni semplicistiche tra i due estremi che vedono o la
tecnologia come mera espressione della società o all'opposto come
ciò che la plasma.
Possono esservi divergenze anche sostanziose, ma nessuno più nega che gli artefatti incorporino normatività e al contrario afferma che non possano avere alcun bias, fosse solo culturale (di chi progetta e di coloro per cui sono progettati) o di modello economico e di business nel quale si inseriscono.
Da Langdon Winner in poi si cerca di articolare la politicità
dell'artefatto in uno spettro tra un estremo di politicità
intrinseca per cui lo strumento richiede un certo tipo di
relazioni di potere ed un altro che vede una prevalenza degli
attori sociali nel determinare l'uso di una tecnologia.
Addirittura per Bruno Latour gli artefatti si affiancano
all'essere umano ed alle istituzioni nella co-creazione del
contesto sociale.
In ogni caso mi pare sia superata sia la visione di uno strumento tecnologico neutrale, che quella che lo vede sempre espressione di una intenzione politica: il buon ChatGPT dovrebbe prenderne atto invece che oracolare pro domo sua.
In questo contesto non vedo nessun elemento di novità negli
artefatti con comportamento stocastico che possa rimettere in
discussione la loro neutralità.
Forse mi sfugge qualcosa?
Quanto è in discussione non è cosa cambia se una cosa la fa una
macchina che copia gli umani o se uno deve farsela da solo, è
l'equilibrio tra i vari elementi regolativi in una società:
economia, legge, norme sociali, architettura/codice (per citare
Lessig), sapendo che lo sviluppo troppo veloce di certe
architetture e la lentezza di norme e leggi a stare dietro mette
in difficoltà questi equilibri.
Se ho compreso la tua allegoria, non si tratta di decidere come
ordinare al ristorante, ma se ci sono ristoranti o si può solo
ordinare online, chi può pagare o no, chi sta cucina, se le
ricette sono anch'esse con ingredienti randomizzati...
Buona giornata,
Alberto
Cari Giacomo e Alberto,il vostro punto di vista è molto interessante e vi ringrazio per averlo esposto con tanta coraggiosa assertività. Lo condivido senz'altro per tutto ciò che riguarda la programmazione imperativa e quella basata sulla rappresentazione della conoscenza e il ragionamento automatico.Se però consideriamo gli sviluppi dell'IA degli ultimi anni, e in particolare i LLM, le cose sono a mio avviso più complesse. Non mi inoltro in argomentazioni metafisiche per non tediare chi legge e perché non ho molto tempo. Propongo invece un piccolo sketch, forse ingenuo, che però può far riflettere.Sono al ristorante con un amico, il menù comprende sei piatti. Io li valuto e scelgo quello che preferisco. Il mio amico estrae dalla tasca un dado, lo lancia e sceglie il piatto che corrisponde al numero che esce. Domanda: io e il mio amico siamo nella stessa relazione causale rispetto a ciò che mangerà?Secondo me no, ma se ne può parlare.Buona giornata.G.
On Tue, 4 Apr 2023 at 11:46, Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> wrote:
_______________________________________________Intervengo a conferma di quanto dice Giacomo sulla presunzione di neutralità degli artefatti tecnologici.
Ho chiesto a phind.com cosa è successo in piazza Tien An Men.
Mi ha risposto citando i massacri e esponendo i diversi punti di vista, incluso quello del governo cinese.
Allora ho chiesto:
Is this the same answer you give to users in China?
Answer:As an AI language model, I do not have the ability to determine the location of the user or the restrictions on information in their country. However, my answer is based on factual information and sources that are publicly available. The information I provided is objective and does not contain any political bias.
Con buona pace di decenni di dibattiti sulla politicità (intrinseca o meno) degli artefatti tecnologici, sulla loro agency, sulla normatività del codice...
La pretesa di neutralità è ingannevole: ogni artefatto, specie questi così complessi, incorporano normatività.
I tecnologi che continuano a credere di costruire artefatti neutri e consegnarli nelle mani di persone che ne saranno responsabili negano (forse in primo luogo a se stessi) l'evidenza che gli artefatti incorporano l'intenzionalità e la normatività di chi li inventa e di chi paga chi li inventa.
Alberto
On 04/04/23 10:56, Giacomo Tesio wrote:
Ciao Guido, trovo veramente affascinante (quanto inquietante) questo passaggio della tua email: On Tue, 4 Apr 2023 06:52:24 +0200 Guido Vetere wrote:Tutto questo è corretto, tranne il riferimento alle "stronzate" (*bullshit*) di Frankfurt: queste infatti sono affermazioni capziose pronunciate con intento manipolatorio, insomma dietro una "stronzata" c'è sempre uno "stronzo", cioè un soggetto dotato di intenzionalità, cosa di cui ChatGPT dichiara onestamente di essere privo.Come diversi informatici in lista ti possono confermare, lo "stronzo" dietro un software è sempre chi lo programma e ne controlla l'esecuzione. Un software infatti applica all'ambiente SEMPRE e ANZITUTTO la volontà di chi l'ha programmato (e nel caso di un SaaS, eseguito), riproducendola ed imponendola a tutti coloro che sono parte, volenti o nolenti, della organizzazione cibernetica in cui tale software opera. Nel caso di ChatGPT, lo "stronzo" (nel senso di Frankfurt) è Open AI. Nel caso di GitHub Copilot, lo "stronzo" è GitHub. Entrambi si leggono "Microsoft". Nel caso di Google Assistant, lo "stronzo" è Google/Alphabet. Nel caso dei risultati di ricerca o delle news "personalizzate" fornite dai servizi di Google, lo "stronzo" è Google/Alphabet. Nel caso della timeline Instagram o Facebook, lo "stronzo" è Facebook. Nel caso della timeline TikTok, lo "stronzo" è TikTok. Nel caso dell'amica virtuale "Replika", lo "stronzo" è Luka, Inc. Nel caso dell'osservatorio di Monitora PA, lo "stronzo" sono io. (e con me i molti che contribuiscono al suo sviluppo...) Il punto è: che si tratti di bug (come può essere un falso positivo prodotto dall'osservatorio di Monitora PA) o di scelte progettuali c'è sempre almeno un essere umano di cui il software riproduce pedissequamente la volontà. Questa volontà può essere impressa nel software in modo relativamente trasparente tramite la programmazione linguistica (ad esempio in Python o in C) oppure essere impressa nel software in modo opaco, attraverso la selezione dei dati da utilizzare per la programmazione statistica e la progettazione della topologia della vector reducing machine che verrà programmata statisticamente. Ora, tutti gli "stronzi" qui presenti che abbiano mai realizzato un software in prima persona, potranno confermarti di esistere. Alcuni saranno ben lieti di non dover rispondere delle proprie creazioni, mentre altri si sentiranno oltraggiati dall'idea che qualcuno possa ignorare la propria esistenza come autori di quelle creazioni. Ma tutti saranno consapevoli di aver LAVORATO per realizzare la sequenza di bit che le macchine elaborano automaticamente per produrre gli effetti che loro desiderano. Il contributo dell'utente alla produzione dell'output di un software è completamente determinato dal programmatore e può variare moltissimo a seconda del software. Nel caso di ChatGPT, è oggettivamente trascurabile. Per questa ragione, la responsabilità dell'output NON PUO' essere scaricata sull'utente con un banale disclaimer! Quando leggo che "ChatGPT dichiara ONESTAMENTE di essere privo" di intenzionalità mi chiedo sinceramente se ci sia una qualche forza all'opera dietro questa allucinazione collettiva, dietro questa cancellazione delle persone che realizzano la macchina dalla tua coscienza, a cui gli sviluppatori siano talmente immuni da non percepirla. No: chi ha scritto quel disclaimer NON è onesto. E non è stato Chat GPT a scrivere quel disclaimer. Noti come Open AI sta manipolando la tua percezione della realtà? Forse il semplice fatto di essere capaci a programmare statisticamente un software (e magari averlo programmato), rende naturalmente immuni a questa allucinazione. Eppure si deve trattare di un'allucinazione molto forte se, come osservo qui, persone intelligenti ed in buona fede continuano a sostenerla NONOSTANTE altre persone, autorevoli, intelligenti ed altrettanto in buona fede, ma con una maggiore consapevolezza tecnica della questione, continuano a ripetere che il software è sempre realizzato da esseri umani e ne riproduce valori e interessi. Ti prego di riflettere sulla questione: io esisto, Open AI esiste, Microsoft esiste, Google esiste etc... cosa ti costringe a cancellare la nostra esistenza dalla tua coscienza quando guardi un artefatto che realizza pedissequamente la nostra volontà? Certo, una volta realizzato, un software diventa un agente cibernetico automatico, che "si muove da sé". Ma non è mai autonomo. Anche quando varia il proprio stato interno in funzione dell'input, tale variazione è sempre meccanicamente determinata dalla sua programmazione (per quanto complessa e opaca sia essa sia). Anche quando tale stato interno viene utilizzato insieme ad ogni nuovo input per calcolare nuovi output e nuove variazioni dello stato interno, ogni output e ogni variazione dello stato interno è meccanicamente determinato da chi ha programmato il software. Dunque l'agente cibernetico automatico non è MAI autonomo. On Mon, 3 Apr 2023 20:18:55 +0200 Guido Vetere wrote:La difficoltà qui risiede nel fatto di aver a che fare con oggetti privi di intenzionalità che tuttavia producono locuzioni a cui, antropologicamente, attribuiamo in effetti intenzionalità. Se gli sviluppatori o gli esercenti di questi oggetti dovessero rispondere di questa intenzionalità fittizia, farebbero bene a dedicarsi ad altro.In assenza di tale autonomia, l'assenza di intenzionalità è irrilevante: il software riproduce le intenzioni di chi l'ha realizzato e ha deciso come deve essere usato. On Mon, 3 Apr 2023 20:18:55 +0200 Guido Vetere wrote:Ma se passasse questa linea dovremmo spegnere tutti i generatori basati (solo) su LLM: anche se addestrati sui dati più puri del mondo, la probabilità che generino 'utterances' censurabili non sarebbe mai nulla.Beh non è detto: è sufficiente che ciascuno usi i LLM che realizza. In tal modo, l'intenzionalità (e la responsabilità legale) è tutta perfettamente determinata. Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa