Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste.
Sottoscrivo, per non lasciare Guido solo, nel suo sforzo di invitare a riflettere anche sugli aspetti tecnici, che sono rilevanti e innovativi, e non solo su quelli normativi. Ci sono stati 3 breakthrough scientifici nel campo dei LLM in soli 10 anni. Se non si affronta la questione tenendo conto della derivata e si guarda solo allo stato attuale, si perde di vista il quadro prospettico. Paradossalmente è più sensata la richiesta di fermare lo sviluppo dei LLM che quella di regolamentarli oggi con le scarse conoscenze che abbiamo del loro funzionamento e dei loro potenziali benefici. Anche se ovviamente fermare il progresso è oscurantista e pericoloso, se affidato solo ai governi o a coloro che essi scelgono. AStefano ribatto che rallentare il "progressivo sviluppo (di qualche megacorporate)” non è l'unica scelta possibile, ma c'è anche quella di accelerare lo sviluppo della scienza e della tecnologia da parte della comunità scientifica internazionale. Per l’energia atomica, abbiamo da una parte firmato trattati di non proliferazione delle armi nucleari, ma dall’altra abbiamo costruito il CERN, con fondi pubblici, per permettere di studiare la scienza delle particelle e della costituzione dell’universo. — Beppe
On 13 Apr 2023, at 12:00, <nexa-request@server-nexa.polito.it> <nexa-request@server-nexa.polito.it> wrote:
From: Guido Vetere <vetere.guido@gmail.com <mailto:vetere.guido@gmail.com>> To: Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>> Cc: Nexa <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> Subject: Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste. Message-ID: <CAD3hHB494OGr98BxTs7RDzz_Dem_O7JrsRzWpPKEikVE-W0A_w@mail.gmail.com <mailto:CAD3hHB494OGr98BxTs7RDzz_Dem_O7JrsRzWpPKEikVE-W0A_w@mail.gmail.com>> Content-Type: text/plain; charset="utf-8"
Caro Stefano, queste facili ironie (per glissare sugli insulti) rivelano il sottofondo ideologico della questione. Si interpreta la vicenda come la difesa dei diritti contro il profitto, e ci si compiace per la propria democraticità. Benissimo. Questo però offusca una visione chiara della cosa, e rischia di fornire l'alibi per continuare a non capire certi aspetti tecnici. Il punto non è tanto che rifare il training ogni 6 mesi costa 80M (e svariati gigawatt), il punto è che bonificare terabyte di dati testuali da tutto ciò che può riguardare il sig, Mario Rossi che ha fatto opt-out è un'impresa abbastanza ardua (cosa facciamo col Mario Rossi che ha fatto opt-in?), e in ogni caso nulla garantisce che un sistema generativo basato su trasformers non possa comunque inventare storielle su 'Mario Rossi' sulla base di analogie ('somiglianze di famiglia' per usare una metafora wittgensteiniana) Non vorrei sembrare arrogante, e mi scuso in anticipo, ma credo davvero che la questione vada studiata più a fondo. G.
On Thu, 13 Apr 2023 at 07:46, Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>> wrote:
eh gia', quelle cose fastidiose chiamate regole, che impongono limiti al magnifico e progressivo sviluppo (di qualche megacorporate). non sono questi i veri problemi. il problema e' che magari ci sfugge di mano e schiavizza l'umanita'! di quello ci dovremmo occupare! mica di impatti sulla societa', sui lavoratori, fiscali, ecc. ecc.
scusa la facile ironia, ma dissento.
On 12/04/23 22:57, Guido Vetere wrote:
non credo che Google e Microsoft stiano lì a rivedere i loro piani sulla base degli ultimatum del Garante italiano, più verosimilmente tutta questa vicenda sarà solo una annoyance per chi in Italia continuerà a usare quei servizi per lavoro, del tutto disinteressati alla tua e alla mia biografia
premesso che la cosa non e' IT ma UE, ma anche mmettendo fosse solo IT, dipenderebbe solo se in IT fanno piu' soldi di quanto gli costerebbe e la risposta ovvia e' si. (e gia' successo e succedera' ancora)
supponiamo il garante trovi proporzionale che l'opt out sia entro 60 giorni e non entro 30.
supponiamo che - un retraining del modello costi 20M - ne facciano di per se' gia uno ogni sei mesi - sono 4 retraining aggiuntivi, pari a 80M
bazzeccole. rinuncio al fatturato IT per bazzeccole ? (cosa che tra l'altro mi metterebbe al riparo da fastidi analoghi in altri paesi)
ciao, s.
On Thu, Apr 13, 2023 at 9:16 AM Giuseppe Attardi <attardi@di.unipi.it> wrote:
Per l’energia atomica, abbiamo da una parte firmato trattati di non proliferazione delle armi nucleari, ma dall’altra abbiamo costruito il CERN, con fondi pubblici, per permettere di studiare la scienza delle particelle e della costituzione dell’universo.
Concordo anche io con Giuseppe e Guido. E aggiungo che dobbiamo fare in modo che gli LLM non siano solo appannaggio delle mega corp e dei governi. Questi hanno facile accesso ai gigabyte di dati necessari mentre agli altri alcuni gruppi (da Getty ai massimalisti della privacy e del copyright) stanno opponendo ogni tipo di ostacolo... C'è un delicato equilibrio da raggiungere per consentire a gruppi senza fini di lucro ben intenzionati come Laion e Eleuther AI e alle classiche università di creare conoscenza liberamente accessibile in questo settore. Parlando di CERN, LAION sta facendo circolare una proposta quantomeno stuzzicante: https://laion.ai/blog/petition/
Non ci vorrebbe molto in effetti per fare un EU-GPT, con allucinazioni garantite da procedure e regolamenti. Il problema è che tedeschi e francesi impiegherebbero un paio di anni solo per spartirsi l'organigramma. L'Italia potrebbe avere il Direttore Generale dell'Etica (in realtà, però, nominato dal Vaticano). Ma mettiamo da parte le facezie. Se guardiamo dentro GPT-4, ci troviamo almeno una ventina di lingue tra cui il coreano e il fiammingo, e un numero enorme di competenze specialistiche, per lo più nell'ambito della programmazione, ma estese praticamente a tutto lo scibile, dalla filosofia teoretica alle ricette di cucina. Tutto contenuto nel campo di forze generato da non si sa (letteralmente) quante centinaia di miliardi di parametri. Se decomponiamo questo spazio sulle assi delle lingue e delle competenze, forse riusciamo a vedere che, ad esempio, non essendo interessati alle conversazioni di filosofia teoretica in coreano, ci basta un modello più piccolo e maneggevole. Insomma: GPT-4 può essere "fatto a pezzi", e ciascun pezzo può essere gestito in modo "aperto e democratico", realizzando così gli scopi (umoristicamente) dichiarati da OpenAI. Io credo che questo processo sia già spontaneamente in corso (non solo nelle università) e credo che la UE dovrebbe dare supporto all'affermazione di questo nuovo modello di sviluppo, più che cercare di inibire i soggetti privati statunitensi (gli stessi che piazzano i loro VP nella nostra Amministrazione) con improbabili richieste. G. On Fri, 14 Apr 2023 at 01:34, Stefano Maffulli <smaffulli@gmail.com> wrote:
On Thu, Apr 13, 2023 at 9:16 AM Giuseppe Attardi <attardi@di.unipi.it> wrote:
Per l’energia atomica, abbiamo da una parte firmato trattati di non proliferazione delle armi nucleari, ma dall’altra abbiamo costruito il CERN, con fondi pubblici, per permettere di studiare la scienza delle particelle e della costituzione dell’universo.
Concordo anche io con Giuseppe e Guido. E aggiungo che dobbiamo fare in modo che gli LLM non siano solo appannaggio delle mega corp e dei governi. Questi hanno facile accesso ai gigabyte di dati necessari mentre agli altri alcuni gruppi (da Getty ai massimalisti della privacy e del copyright) stanno opponendo ogni tipo di ostacolo... C'è un delicato equilibrio da raggiungere per consentire a gruppi senza fini di lucro ben intenzionati come Laion e Eleuther AI e alle classiche università di creare conoscenza liberamente accessibile in questo settore.
Parlando di CERN, LAION sta facendo circolare una proposta quantomeno stuzzicante: https://laion.ai/blog/petition/
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Ottimi principi, lucidi e pratici, grazie Guido. Si tende alla "network society" (van Dijk, Jan (2006) The Network Society. Sage Publications. pp. 28, 39. ISBN 1-4129-0867-1) e la sua applicazione anche nel contesto di GPT-4 sarebbe assai utile, garantendo rilevanza, qualità e "democrazia". La dimensione Europea è ancora troppo debole, ad esempio, la ricerca diretta comune Europea - EU Science Hub homepage (europa.eu) <https://joint-research-centre.ec.europa.eu/index_en>, non decolla, prevalgono quelle nazionali. Allora, con la stessa logica, si potrebbe passare a dei modelli "federativi" su tre dimensioni, oltre a quelle che proponi, aggiungendo la dimensione dei paesi UE, ma su una architettura dei parametri coordinata a livello EU. In effetti un approccio europeo puramente difensivistico, seppur importante per il rispetto delle legge, rimane parziale e in prospettiva inadeguato, anche, e soprattutto, per garantire i principi e diritti digitali promessi ai cittadini europei - Europe’s Digital Decade: digital targets for 2030 (europa.eu) <https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe...> . Alessandro On Fri, 14 Apr 2023 at 09:06, Guido Vetere <vetere.guido@gmail.com> wrote:
Non ci vorrebbe molto in effetti per fare un EU-GPT, con allucinazioni garantite da procedure e regolamenti. Il problema è che tedeschi e francesi impiegherebbero un paio di anni solo per spartirsi l'organigramma. L'Italia potrebbe avere il Direttore Generale dell'Etica (in realtà, però, nominato dal Vaticano). Ma mettiamo da parte le facezie. Se guardiamo dentro GPT-4, ci troviamo almeno una ventina di lingue tra cui il coreano e il fiammingo, e un numero enorme di competenze specialistiche, per lo più nell'ambito della programmazione, ma estese praticamente a tutto lo scibile, dalla filosofia teoretica alle ricette di cucina. Tutto contenuto nel campo di forze generato da non si sa (letteralmente) quante centinaia di miliardi di parametri. Se decomponiamo questo spazio sulle assi delle lingue e delle competenze, forse riusciamo a vedere che, ad esempio, non essendo interessati alle conversazioni di filosofia teoretica in coreano, ci basta un modello più piccolo e maneggevole. Insomma: GPT-4 può essere "fatto a pezzi", e ciascun pezzo può essere gestito in modo "aperto e democratico", realizzando così gli scopi (umoristicamente) dichiarati da OpenAI. Io credo che questo processo sia già spontaneamente in corso (non solo nelle università) e credo che la UE dovrebbe dare supporto all'affermazione di questo nuovo modello di sviluppo, più che cercare di inibire i soggetti privati statunitensi (gli stessi che piazzano i loro VP nella nostra Amministrazione) con improbabili richieste.
G.
On Fri, 14 Apr 2023 at 01:34, Stefano Maffulli <smaffulli@gmail.com> wrote:
On Thu, Apr 13, 2023 at 9:16 AM Giuseppe Attardi <attardi@di.unipi.it> wrote:
Per l’energia atomica, abbiamo da una parte firmato trattati di non proliferazione delle armi nucleari, ma dall’altra abbiamo costruito il CERN, con fondi pubblici, per permettere di studiare la scienza delle particelle e della costituzione dell’universo.
Concordo anche io con Giuseppe e Guido. E aggiungo che dobbiamo fare in modo che gli LLM non siano solo appannaggio delle mega corp e dei governi. Questi hanno facile accesso ai gigabyte di dati necessari mentre agli altri alcuni gruppi (da Getty ai massimalisti della privacy e del copyright) stanno opponendo ogni tipo di ostacolo... C'è un delicato equilibrio da raggiungere per consentire a gruppi senza fini di lucro ben intenzionati come Laion e Eleuther AI e alle classiche università di creare conoscenza liberamente accessibile in questo settore.
Parlando di CERN, LAION sta facendo circolare una proposta quantomeno stuzzicante: https://laion.ai/blog/petition/
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Beh, è facile concordare sui finanziamenti alla ricerca. Talmente facile che temo sia uno strawman piuttosto banalotto. Non c'è alcuna contrapposizione fra ricerca e diritti umani. Possiamo tranquillamente garantire entrambi. SE vogliamo. Chi prova a contrapporli, non difende la ricerca, ma la strumentalizza per proteggere gli interessi privati di soggetti che non intendono rispondere dei danni che causano con applicazioni specifiche. Sarebbe bello se, almeno qui ove simili fallacie retoriche hanno vita breve, potessimo evitare di perdere tempo a smontarle. On Fri, 14 Apr 2023 09:05:48 +0200 Guido Vetere wrote:
Io credo che questo processo sia già spontaneamente in corso (non solo nelle università) e credo che la UE dovrebbe dare supporto all'affermazione di questo nuovo modello di sviluppo, più che cercare di inibire i soggetti privati statunitensi (gli stessi che piazzano i loro VP nella nostra Amministrazione) con improbabili richieste.
Io invece auspico che l'UE anteponga sempre i diritti umani a qualsiasi narrazione su "modelli di sviluppo". Perché dietro le promesse di magnifiche sorti e progressive, dietro i software di cui parliamo, ci sono persone che DEVONO rispondere di ciò che fanno attraverso i propri artefatti, come chiunque altro. Nessuna azione che sia vietata per un essere umano deve essere consentita quando effettuata tramite l'uso di una macchina. Siamo d'accordo su questo principio? Se sì, ne deriva che la costruzione di macchine che non possano tecnicamente garantire il rispetto dei diritti umani va semplicemente vietata. Il che non limita in alcun modo la ricerca! Anzi! La incoraggia! E la orienta verso soluzioni... "degne di fiducia" ;-) Giacomo On Thu, 13 Apr 2023 16:34:08 -0700 Stefano Maffulli wrote:
On Thu, Apr 13, 2023 at 9:16 AM Giuseppe Attardi <attardi@di.unipi.it> wrote:
Per l’energia atomica, abbiamo da una parte firmato trattati di non proliferazione delle armi nucleari, ma dall’altra abbiamo costruito il CERN, con fondi pubblici, per permettere di studiare la scienza delle particelle e della costituzione dell’universo.
Concordo anche io con Giuseppe e Guido. E aggiungo che dobbiamo fare in modo che gli LLM non siano solo appannaggio delle mega corp e dei governi.
Salve a tutti, sono venuto a conoscenza di questa lista tramite un tweet di Floridi e da allora sono stato solo un lurker, ma leggendo più volte determinate argomentazioni ho deciso di saltare il fosso e fare il mio primo post. Il giorno ven 14 apr 2023 alle ore 10:20 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Beh, è facile concordare sui finanziamenti alla ricerca. Talmente facile che temo sia uno strawman piuttosto banalotto.
Non c'è alcuna contrapposizione fra ricerca e diritti umani. Possiamo tranquillamente garantire entrambi. SE vogliamo.
I "diritti umani" sono stati tirati in ballo più e più volte in questa e altre conversazioni analoghe ma, per restare nel reame delle fallacie logiche, a me questo pare un vero e proprio "red herring". Pur conoscendo la dichiarazione universale dei diritti umani a menadito, non riesco a comprendere a quale di quei diritti si faccia riferimento. Potrei fare ipotesi, ma preferisco domandare. Si potrebbe quindi sapere a cosa, con rigorosa esattezza, si fa riferimento? Fabio
On 14/04/23 11:31, Fabio Alemagna wrote:
Potrei fare ipotesi, ma preferisco domandare. Si potrebbe quindi sapere a cosa, con rigorosa esattezza, si fa riferimento?
il nostro lavoro fu ispirato a queste: B. A Framework for Trustworthy AI (21) These Guidelines articulate a framework for achieving Trustworthy AI based on fundamental rights as enshrined in the Charter of Fundamental Rights of the European Union (EU Charter), and in relevant international human rights law. Below, we briefly touch upon Trustworthy AI’s three components... https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustwort... ciao, s.
Il giorno ven 14 apr 2023 alle ore 16:42 Stefano Quintarelli <stefano@quintarelli.it> ha scritto:
On 14/04/23 11:31, Fabio Alemagna wrote:
Potrei fare ipotesi, ma preferisco domandare. Si potrebbe quindi sapere a cosa, con rigorosa esattezza, si fa riferimento?
il nostro lavoro fu ispirato a queste:
B. A Framework for Trustworthy AI (21) These Guidelines articulate a framework for achieving Trustworthy AI based on fundamental rights as enshrined in the Charter of Fundamental Rights of the European Union (EU Charter), and in relevant international human rights law. Below, we briefly touch upon Trustworthy AI’s three components... https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustwort...
Grazie per il link, ma la domanda verteva specificatamente su ChatGPT, nella fattispecie era volta a conoscere quali sono i diritti umani che violerebbe. Fabio
Salve Fabio, e... benvenuto! :-) On Fri, 14 Apr 2023 11:31:49 +0200 Fabio Alemagna wrote:
I "diritti umani" sono stati tirati in ballo più e più volte in questa e altre conversazioni analoghe ma, per restare nel reame delle fallacie logiche, a me questo pare un vero e proprio "red herring". Pur conoscendo la dichiarazione universale dei diritti umani a menadito, non riesco a comprendere a quale di quei diritti si faccia riferimento.
Potrei fare ipotesi, ma preferisco domandare. Si potrebbe quindi sapere a cosa, con rigorosa esattezza, si fa riferimento?
Visto che rispondevi a me, posso spiegarti a quali diritti umani vengono violati da Open AI tramite ChatGPT al momento. Mi limito (per mancanza di tempo, perdonami) a questa caratterizzazione dei diritti umani, pur consapevole che ne esistono altre [1]: https://www.ohchr.org/sites/default/files/UDHR/Documents/UDHR_Translations/i... Articolo 1: Tutti gli esseri umani nascono liberi ed EGUALI in dignità e diritti. ESSI sono dotati di ragione e di coscienza e DEVONO agire gli uni verso gli altri in spirito di FRATELLANZA. Articolo 7: Tutti sono EGUALI dinanzi alla legge e hanno diritto, senza alcuna discriminazione, ad una eguale tutela da parte della legge. Tutti hanno diritto ad una eguale tutela contro ogni discriminazione che violi la presente Dichiarazione come contro qualsiasi incitamento a tale discriminazione. Articolo 12: Nessun individuo potrà essere sottoposto ad interferenze arbitrarie nella sua vita privata, nella sua famiglia, nella sua casa, nella sua corrispondenza, né A LESIONE DEL SUO ONORE E DELLA SUA REPUTAZIONE. Ogni individuo ha diritto ad essere tutelato dalla legge contro tali interferenze o lesioni. Articolo 18: Ogni individuo ha diritto alla libertà di pensiero, di coscienza e di religione; tale diritto include la libertà di cambiare di religione o di credo, e la libertà di manifestare, isolatamente o in comune, e sia in pubblico che in privato, la propria religione o il proprio credo nell'insegnamento, nelle pratiche, nel culto e nell'osservanza dei riti. Articolo 19: Ogni individuo ha diritto alla libertà di opinione e di espressione incluso il diritto di NON ESSERE MOLESTATO per la propria opinione e quello di cercare, ricevere e diffondere informazioni e idee attraverso ogni mezzo e senza riguardo a frontiere. Articolo 27: 1. Ogni individuo ha diritto di prendere parte liberamente alla vita culturale della comunità, di godere delle arti e di partecipare al progresso scientifico ed ai suoi benefici. 2. Ogni individuo ha diritto alla protezione degli interessi morali e materiali derivanti da ogni produzione scientifica, letteraria e artistica di cui egli sia autore. Articolo 28: Ogni individuo ha diritto ad un ordine sociale e internazionale nel quale i diritti e le libertà enunciati in questa Dichiarazione possano essere pienamente realizzati. In questo thread (come altrove) alcuni sostengono l'urgenza di esenare Open AI dal rispondere delle violazioni dei diritti descritti dagli articolo 12, 18, 19 e 27 operate tramite ChatGPT, in ragione di una violazione decennale ed ormai evidentemente normalizzata del diritto enunciato all'articolo 28. Se tali argomentazioni dovessero prevalere, oltre ai diritti di cui agli articoli 12, 18, 19, 27 e 28, subiremmo tutti una violazione dei diritti di cui all'articolo 1 e 7: gli esseri umani non sarebbero più equali di fronte alla Legge, che alcuni potrebbero violare liberamente attraverso costosi automatismi come GPT-4. Potrebbero sfuggirmi altri diritti rilevanti, ovviamente. Ad esempio, l'uso di sistemi come GPT-4 in ambito scolastico o educativo potrebbe produrre diverse violazioni del diritto all'istruzione descritto all'articolo 26, ed in particolare ai commi 2 e 3. Ma attenzione Fabio, non è ChatGPT a violare i diritti umani. ChatGPT è solo un software che qualcuno ha programmato ed esegue. Fa esattamente ciò per cui è programmato. E' Open AI che deve rispondere di tali violazioni. E deve farlo perché la legge deve restare uguale per tutti. Giacomo [1]: ad esempio https://www.europarl.europa.eu/charter/pdf/text_it.pdf
On 14 Apr 2023, at 10:20, Giacomo Tesio <giacomo@tesio.it> wrote:
Beh, è facile concordare sui finanziamenti alla ricerca.
Talmente facile che non viene fatto. La voce “Intelligenza Artificiale” non era nemmeno presente nei progetti Horizon fino a 3 anni fa, dove, udite udite, sono stati stanziati 50 milioni per 5 progetti ICT-48. Non si trova nemmeno nel nuovo workprogram, se non associata alla robotica e alla data science, al punto che è stata costituita persino un’associazione ADRA (Association for Data, Robotics and AI), per suggerire alla commissione come orientare i finanziamenti verso i primi due settori, da tempo dominanti, a scapito del terzo. I documenti strategici della UE, che nel 2018 si occupavano di come sviluppare la disciplina, sono stati disattesi e l’attenzione della commissione è virata verso questioni di regolamentazione (European AI Act), di Explainable AI (XAI), completamente tralasciando ogni minimo tentativo di investire nello sviluppo della tecnologia e dei suoi fondamenti. Del resto i LLM vengono detti Foundation Models perché sono il fondamento di altri sistemi più articolati e complessi. È miope pensare di fermare la ricerca sui LLM, senza capire che così si blocca la possibilità di sviluppare sistemi con capacità superiori di ragionamento, controllo dei risultati, ecc. — Beppe PS. A proposito di XAI, gli approcci proposti per fornire spiegazioni a posteriori dei risultati degli attuali sistemi di ML, semplicemente non funzionano, perché non scalano alle dimensiini di modelli costituiti da miliardi di parametri. Del resto, se esistesse una spiegazione semplice e comprensibile per un problema complesso e difficile, il problema non sarebbe complesso e difficile. D’altra parte, con le tecniche di prompting cone il Chain of Thought, si può chiedere agli stessi modelli come ChatGPT di fornire un filo logico dei passaggi che hanno portato alla risposta.
Talmente facile che temo sia uno strawman piuttosto banalotto.
Non c'è alcuna contrapposizione fra ricerca e diritti umani. Possiamo tranquillamente garantire entrambi. SE vogliamo.
Chi prova a contrapporli, non difende la ricerca, ma la strumentalizza per proteggere gli interessi privati di soggetti che non intendono rispondere dei danni che causano con applicazioni specifiche.
Sarebbe bello se, almeno qui ove simili fallacie retoriche hanno vita breve, potessimo evitare di perdere tempo a smontarle.
On Fri, 14 Apr 2023 09:05:48 +0200 Guido Vetere wrote:
Io credo che questo processo sia già spontaneamente in corso (non solo nelle università) e credo che la UE dovrebbe dare supporto all'affermazione di questo nuovo modello di sviluppo, più che cercare di inibire i soggetti privati statunitensi (gli stessi che piazzano i loro VP nella nostra Amministrazione) con improbabili richieste.
Io invece auspico che l'UE anteponga sempre i diritti umani a qualsiasi narrazione su "modelli di sviluppo".
Perché dietro le promesse di magnifiche sorti e progressive, dietro i software di cui parliamo, ci sono persone che DEVONO rispondere di ciò che fanno attraverso i propri artefatti, come chiunque altro.
Nessuna azione che sia vietata per un essere umano deve essere consentita quando effettuata tramite l'uso di una macchina.
Siamo d'accordo su questo principio?
Se sì, ne deriva che la costruzione di macchine che non possano tecnicamente garantire il rispetto dei diritti umani va semplicemente vietata.
Il che non limita in alcun modo la ricerca! Anzi! La incoraggia! E la orienta verso soluzioni... "degne di fiducia" ;-)
Giacomo
On Thu, 13 Apr 2023 16:34:08 -0700 Stefano Maffulli wrote:
On Thu, Apr 13, 2023 at 9:16 AM Giuseppe Attardi <attardi@di.unipi.it> wrote:
Per l’energia atomica, abbiamo da una parte firmato trattati di non proliferazione delle armi nucleari, ma dall’altra abbiamo costruito il CERN, con fondi pubblici, per permettere di studiare la scienza delle particelle e della costituzione dell’universo.
Concordo anche io con Giuseppe e Guido. E aggiungo che dobbiamo fare in modo che gli LLM non siano solo appannaggio delle mega corp e dei governi.
On Fri, 14 Apr 2023 11:34:14 +0200 Giuseppe Attardi wrote:
On 14 Apr 2023, at 10:20, Giacomo Tesio <giacomo@tesio.it> wrote:
Beh, è facile concordare sui finanziamenti alla ricerca.
Talmente facile che non viene fatto.
La voce “Intelligenza Artificiale” non era nemmeno presente nei progetti Horizon fino a 3 anni fa, dove, udite udite, sono stati stanziati 50 milioni per 5 progetti ICT-48.
Vuoi dire che l'hanno messa? Bah... che posso dire, farà il paio con la blockchain! Il fatto che la voce "Intelligenza Artificiale" non fosse presente lasciava in effetti ben sperare: la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica cui troppi, non comprendendone il funzionamento, attribuiscono una qualche forma di "intelligenza". Ben vengano dunque i finanziamenti alla ricerca di nuove tecniche di programmazione statistica che producano risultati più affidabili! Ma ben vengano anche finanziamenti alla ricerca di nuovi framework interpretativi di queste tecnologie, un po' meno allucinati e allucinogeni! :-D Al termine dell'ultimo Mercoledì di Nexa [1], in cui Enrico Nardelli ha presentato le tesi del suo libro "La rivoluzione informatica", Juan Carlos ha detto una cosa importantissima: "sicuramente non esiste indipendenza, non esiste sovranità, senza la possibilità di controllare, produrre e sviluppare tutte le tecnologie fondamentali che servono per una società moderna" Condivido pienamente il concetto. Vedo però un'enorme vulnerabilità nella formulazione: chi decide cosa significa "società moderna"? chi decide quali siano le tecnologie fondamentali che servono per realizzarla? In Europa arranchiamo solo perché inseguiamo, invece di guidare. I software della Silicon Valley sono progettati per realizzare una specifica idea di società. Dobbiamo davvero competere con loro, solo se vogliamo imporre all'Europa esattamente quella idea di società (e vogliamo farlo meglio di loro). Ma se decidessimo invece di provare a creare una società democratica, libera ed equa, di quali strumenti avremmo bisogno?
PS. A proposito di XAI, gli approcci proposti per fornire spiegazioni a posteriori dei risultati degli attuali sistemi di ML, semplicemente non funzionano, perché non scalano alle dimensiini di modelli costituiti da miliardi di parametri. Del resto, se esistesse una spiegazione semplice e comprensibile per un problema complesso e difficile, il problema non sarebbe complesso e difficile.
Ecco un'evidenza concreta dei gravi danni che la narrazione della "Intelligenza Artificiale" causa alla ricerca scientifica. Anzitutto, io non ho parlato di XAI, ma di dimostrare in modo semplice (ancorché estremamente costoso) di non aver selezionato scientemente il dataset in modo da causare specifiche discriminazione. Non ho mai detto che ciò garantisca l'assenza di discriminazioni. Salvare tutti quei dati serve solo a poter dimostrare l'assenza di dolo, ma non rimuove la responsabilità per i danni causati dal software.
D’altra parte, con le tecniche di prompting cone il Chain of Thought, si può chiedere agli stessi modelli come ChatGPT di fornire un filo logico dei passaggi che hanno portato alla risposta.
Stai confondendo (come tanti, purtroppo) giustificazione e spiegazione. ChatGPT può sicuramente produrre una stringa di testo che la tua mente interpreti come una valida GIUSTIFICAZIONE di un proprio output. Ma tale stringa di testo non costituisce una SPIEGAZIONE di come tale output sia stato calcolato. Il calcolo effettuato potrebbe essere del tutto diverso: nessun informatico (o scienziato) con un minimo di serietà potrebbe accontentarsi di una tale giustificazione NON VERIFICABILE. Quando si parla di spiegare l'output delle "AI" bisogna aver ben chiaro l'obiettivo: non ci interessa trovare un'argomentazione più o meno soddisfacente a sostegno dell'output (ciò che tira fuori ChatGPT se gli si chiede il "Chain of Thought"), ma sapere ESATTAMENTE cosa è stato preso in considerazione durante l'elaborazione E COSA NO, nonché capire ESATTAMENTE come. Giacomo [1]: https://inv.bp.projectsegfau.lt/watch?v=E7SMZ4WbG1c
participants (7)
-
Alessandro Brolpito -
Fabio Alemagna -
Giacomo Tesio -
Giuseppe Attardi -
Guido Vetere -
Stefano Maffulli -
Stefano Quintarelli