Carissimi,
condivido quanto più volte sottolineato da diverse persone in
lista riassunto da Enrico: "non ci sono strumenti e loro usi la
responsabilità dei quali non sia riconducibile ad esseri umani".
Mi pare possa essere il punto di partenza per evidenziare due
aspetti critici attorno alle parole "responsabilità"e "umano",
comparsi in vari interventi, che mi permetto di sintetizzare e
discutere, sperando di contribuire alla ricerca di un discorso
condiviso tra le posizioni opposte che vanno evidenziandosi.
1) L'umanizzazione della macchina.
Spesso leggiamo che "la tecnologia X fa Y a Z" e non che "tizio
usa X per fare Y a Z.": questo linguaggio ostacola la attribuzione
di responsabilità.
L'oggetto di per se non è responsabile di nulla, ma i vari attori che costruiscono l'ecosistema del suo impiego lo sono: chi progetta/programma/vende/impiega, ciascuno per la parte di azione compiuta attraverso la macchina che gli compete.
Se al contrario attribuiamo alla tecnologia una data azione, deresponsabilizziamo questi attori, schivando la vera difficoltà che risiede nell'identificare e ripartire i profili di responsabilità tra loro.
Il rendere intenzionalmente antropomorfa ('autonoma',
'intelligente'), o sfruttare l'inclinazione umana di considerare
come tale qualsiasi tecnologia equivale a un esplicito tentativo
di fuga dalla propria responsabilità, inducendo a credere che
esista un soggetto che di fatto non esiste come tale.
L'industria del software ha sempre sfuggito tale responsabilità
(vedasi i vari standard disclaimers e l'argomento del
"tech exceptionalism").
All'aumentare degli effetti sul mondo, chi progetta e vende
queste tecnologie non può esimersi dal considerarsi in una
ragionevole misura responsabile dei possibili impieghi di ciò che
costruisce.
Il che naturalmente porta anche a riflettere su cosa i vari attori di una determinata industria fanno collettivamente al resto della società. Mentre nel caso della mobilità ciò mi pare avvenga, nel caso delle ICT fatichiamo ancora a rendercene conto, nonostante le molteplici evidenze.
2) La reificazione (macchinizzazione) dell'umano
Parliamo di dati, di dati personali, di trattamento, ma perdiamo
di vista che stiamo parlando, in primo luogo ed in ultima istanza,
sempre di persone.
Dimentichiamo anche che gli attori che automatizzano la
produzione linguistica sono gli stessi che compongono l'ecosistema
dell'industria della sorveglianza, che usano l'esperienza umana
come materia prima (S.Zuboff) per mettere sul mercato prodotti e
servizi atti a condizionare altro comportamento umano, dalla
pubblicità ai voti, secondo dun modello brutalmente skinneriano.
E' logico aspettarsi che questi attori impieghino l'automazione della lingua per monetizzare analogamente gli stessi dati e la lingua stessa, vendendo ai propri clienti i comportamenti basati su determinati usi della lingua, basandoli sulla conoscenza estratta da testi messi a disposizione da altri utenti inconsapevoli di questi nuovi impieghi, che non hanno mai espressamente consentito all'uso della propria competenza linguistica a tali scopi.
Questo business model basato sulla appropriazione dei contenuti
messi online dagli utenti è contrastato solo dalle leggi sulla
privacy (e il copyright?) che in buona parte si applicano a
contesti in cui dati personali vengono condivisi per scopi
specifici che non includono il training dei modelli statistici.
Ancora una volta il far west? Le colonie?
Ciò che va contestato è il diritto di appropriazione
auto-attribuitosi da tali imprese all'uso dell'esperienza umana
come se si trattasse di dati meteorologici o contabili, e l'uso
del comportamento umano come mezzo.
Le imprese di cui parliamo (come molte altre, del resto) vendono
comportamenti umani, sfruttano i lavoratori, inibiscono la
sindacalizzazione, non pagano le tasse, fuggono dalle loro
responsabilità, mirano al monopolio, si inchinano a regimi
autoritari e manipolano o mentono a quelli democratici, e tutto
questo non incidentalmente, ma seguendo una presa di posizione
ideologica in molti casi coordinata. Queste accuse sono passate in
questa stessa lista in questi anni e comunque sono coerenti con i
comportamenti di analoghe imprese in altri ambiti industriali
(fossile, tabacco).
Se si trattasse di persone, non esiteremmo a considerarle
sociopatiche.
Dare loro il potere di influenzare la lingua, che è ciò che regge
letteralmente la società, non può che dar loro un altra enorme
fetta di potere. E' ciò che vogliamo?
Esempio grossolano: se un nostro governo richiedesse (anche
pagando) la produzione algoritmica di testi che favorisca il "voi"
al posto del "lei" non violerebbe né la legge né la grammatica, né
il GDPR, ma i testi generati automaticamente cambierebbero
progressivamente anche la lingua parlata.
A queste imprese, e a chi lavora per loro direttamente o indirettamente, va detto: "Fermiamoci! Riflettiamo!".
Dato che l'ambiente in cui operano è la lingua, e che la lingua è
quanto di più umano ci sia, qual è la valutazione di impatto di un
GPT*? Qual è il principio di precauzionalità usato?
Queste due criticità diventano due fallacie del ragionamento, per
cui da una parte demonizziamo le tecnologie invece di concentrarci
sulla responsabilità delle imprese, dall'altra ammettiamo che
quelli umani siano dati come gli altri e che l'esperienza umana e
la società possa continuare ad essere una miniera da sfruttare
industrialmente. Così accettiamo l'eccezionalismo IT e ammettiamo
l'uso dell'umano come mezzo.
L'industrializzazione del linguaggio, come ogni altro processo
industriale non regolato, non può che degradare l'ambiente che
tocca.
Il modello culturale su cui si basa l'attuale 'progresso' è
quello sul quale si sono basati molti dei progressi industriali
precedenti: senza negarne i benefici, dobbiamo riconoscere che
hanno comportato la svalutazione e lo sfruttamento della persona
umana e la fuga dalle responsabilità.
Per una volta, cerchiamo di evitare il percorso passato e non
aspettiamo i danni ambientali e umani per regolare. Fermiamoci e
facciamolo subito.
Non invochiamo la scienza e il progresso per giustificare avidità
di denaro e potere, come è avvenuto con imperialismo,
colonialismo, schiavismo.
Il progresso vero è assumersi la responsabilità, non 'move fast
and break things'.
La vasta polemica attorno agli LLM, che segue quella di Cambridge Analytica, quella sul riconoscimento facciale e molte altre riuscirà finalmente a rendere chi produce software responsabile in qualche misura di ciò che fa e rispettare le persone?
Forse no, dovremo attendere un altro passo, mi azzardo a prevedere che forse sarà l'applicazione degli LLM alla produzione di oggetti, di cui anticipo un episodio:
GPT9000: Cosa posso fare per te?
Io: Vorrei costruire una automobile a tre posti e sei ruote di cui due anteriori e quattro motrici, con motore elettrico e pannelli solari.
GPT9000: Certo ci sono molti progetti di automobili sui quali ho elaborato quello che cerchi. Avrai bisogno di una stampante 3d e di alcuni componenti che puoi trovare online. Troverai l'elenco dei negozi in cui comprare il tutto in area download, assieme al progetto e ai brevetti consultati: non dimenticarti di pagare le fees e di far omologare il veicolo nel tuo paese.
IO: Wow, grazie. Avrei anche bisogno di una macchina per far scodinzolare i cani.
GPT9000: Ho trovato solo un progetto in un vecchio libro francese ma dovrebbe andare bene. In compenso non ci sono fees per i brevetti da pagare.
IO: Grazie. Avrei anche bisogno di una macchina del tempo.
GPT9000: Sono spiacente, non ho progetti affidabili per una macchina del tempo, ma se ti interessa posso fornirti i progetti per una macchina per la criogenia, che alcuni considerano un efficace mezzo per viaggiare nel futuro. Devo metterti però in guardia: non è stata testata estesamente per questo scopo e non si può tornare al presente.
IO: Fantastico! La voglio. Servono permessi?
GPT9000: Dalle informazioni in mio possesso nel tuo paese la criogenesi non è regolata espressamente.
IO: Benone! Cosa può andare storto?
GPT9000: Mi spiace, solo solo un agente software, non posso fare previsioni su cosa può accadere se usi una macchina per la criogenia non testata per viaggiare nel futuro. Buona fortuna!
...
Ciao,
Alberto
Grazie Marco, molto bello!
La riflessione finale
«This is all an old story, though: It reminds us that many of the bad uses of AI are a reflection of humanity more than they are a reflection of AI technology itself. »
sottolinea ancora una volta che non ci sono strumenti e loro usi la responsabilità dei quali non sia riconducibile ad esseri umani (punto che Giacomo Tesio giustissimamente enfatizza sempre).
Ciao, Enrico
Il 11/04/2023 10:02, Marco A. Calamari ha scritto:
Un interessante saggio di Bruce Schneier sugli usi criminali e manipolatori degli LLM,che dovrebbe farci scendere ogni tanto dai ragionamenti troppo filosofici a quelli più pratici.
Consigliato.
Marco
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
![]()
======================================================
Prof. Enrico Nardelli
Presidente di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 Roma
home page: https://www.mat.uniroma2.it/~nardelli
blog: https://link-and-think.blogspot.it/
tel: +39 06 7259.4204 fax: +39 06 7259.4699
mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it
online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
======================================================
--
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa