Il 20/01/23 16:24, Alessandro Brolpito <abrolpito@gmail.com> ha scritto:
Come potrebbe essere usato ChatGpt a scuola? Se è vero che "la scuola dovrebbe insegnare ai suoi allievi a fare le domande per formare innovatori" (János Sándor Petőfi), l'articolo offre alcuni spunti su come ChatGpt possa essere utilizzato: Chi ha paura di ChatGpt a Scuola? Impariamo piuttosto a collaborarci - Agenda Digitale <https://www.agendadigitale.eu/scuola-digitale/chi-ha-paura-di-chatgpt-a-scuo...> chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso. a me pare che nutrire gli studenti di testi così prodotti sia come alimentare un umano con flebo di nutrienti artificiali. si può fare, certo; ma gli effetti a lungo termine non sono noti (il più grave potrebbe essere assuefazione/dipendenza da questo cibo artificiale). e in generale sappiamo che il cibo più buono e sano, quello che 'ti nutre già anche solo con il profumo', è quello più lontano dalla produzione industriale di sintesi.
anche nella scuola e nella conoscenza andremo verso una differenziazione di classe tra chi si può permettere solo chatGPT e chi si può permettere una scuola in cui si ragiona col proprio cervello sulle fonti primarie e secondarie, studiando la teoria e mettendola in pratica, studiando i linguaggi di programmazione e scrivendo i programmi (invece che usare software spazzatura bacato e pieno di backdoor prodotto da sistemi di IA)? Maurizio PS: il modello di pensiero "non aver paura, anzi collabora" presente nel titolo dell'articolo è molto ambiguo perché prescinde dalla valutazione di ciò che fa paura: paura immotivata o motivata? sarebbe appropriato suggerirlo a una donna minacciata da un compagno aggressivo/possessivo? ------------------------------------------------------------------------ a questo punto devo fare una confessione: come il mio amico Erri De Luca, sono un europeista estremista. Questo significa che, per me, l’Europa unita è l’unica utopia politica ragionevole che noi europei abbiamo coniato. xavier cercas, inaugurazione del salone del libro, torino 2018 ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Complimenti Maurizio, On Fri, 20 Jan 2023 23:40:24 +0100 maurizio lana wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
anche nella scuola e nella conoscenza andremo verso una differenziazione di classe tra chi si può permettere solo chatGPT e chi si può permettere una scuola in cui si ragiona col proprio cervello sulle fonti primarie e secondarie, studiando la teoria e mettendola in pratica, studiando i linguaggi di programmazione e scrivendo i programmi (invece che usare software spazzatura bacato e pieno di backdoor prodotto da sistemi di IA)?
Sì, ma Chat GPT è solo un giocattolo. Leggetevi cosa ha prodotto Google con i dati sottratti a milioni di studenti durante la pandemia... La chiamano "AUTO-PEDAGOGIA". https://blog.google/outreach-initiatives/education/introducing-practice-sets... Ve li immaginate? Millioni di bambini e ragazzi seguiti 24h su 24 da un tutor virtuale che gli dice cosa imparare in maniera "personalizzata". E migliaia di docenti, i più meritevoli, che liberati dal fardello della relazione educativa con l'alunno potranno dedicarsi interamente a valutazioni e verifiche su "classi" di 3-400 alunni, senza nemmeno lasciare spazio all'argomento cardine delle "classi pollaio". E' questo il futuro che Google auspica con Classroom nelle scuole. Il futuro per cui lavora a tutti i livelli da anni. Giacomo
On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso. ``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ``` I software NON apprendono. La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana. Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine. L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana. Per questo le parole sono importanti... Giacomo
Grazie a entrambi della definizione. La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati): ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette. L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica): <https://t.co/ESv9Z1IgKm> Buon fine settimana, Daniela 1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James) ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: sabato 21 gennaio 2023 01:44 A: maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso. ``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ``` I software NON apprendono. La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana. Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine. L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana. Per questo le parole sono importanti... Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396...
Scusate, anche "risposte" non è corretto, rispetto a ChatGPT: ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte corrette. (le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre) ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Daniela Tafani <daniela.tafani@unipi.it> Inviato: sabato 21 gennaio 2023 10:31 A: Giacomo Tesio; maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola Grazie a entrambi della definizione. La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati): ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette. L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica): <https://t.co/ESv9Z1IgKm<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6>> Buon fine settimana, Daniela 1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James) ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: sabato 21 gennaio 2023 01:44 A: maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso. ``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ``` I software NON apprendono. La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana. Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine. L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana. Per questo le parole sono importanti... Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396...
Grazie Daniela, Mi chiedo solo se il valore informativo non dipenda anche da chi legge e che sia difficile affermare questo in assoluto, domanda "vera" per capire meglio i limiti dell'AI... Alessandro On Sat, 21 Jan 2023 at 10:38, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma *sequenze di parole* che siano statisticamente simili alle risposte corrette.
(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)
------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di Daniela Tafani <daniela.tafani@unipi.it> *Inviato:* sabato 21 gennaio 2023 10:31 *A:* Giacomo Tesio; maurizio lana *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] ChatGpt e la scuola
Grazie a entrambi della definizione.
La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati):
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette.
L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica):
<https://t.co/ESv9Z1IgKm <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879...>
Buon fine settimana, Daniela
1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James)
------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> *Inviato:* sabato 21 gennaio 2023 01:44 *A:* maurizio lana *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] ChatGpt e la scuola
On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso.
``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ```
I software NON apprendono.
La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana.
Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana.
Per questo le parole sono importanti...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396... _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Caro Alessandro, grazie dell'osservazione, che coglie un aspetto importante: i testi prodotti da ChatGPT hanno il significato che attribuiscono loro gli esseri umani che li leggono, come ha appena ricordato Enrico Nardelli. Il valore informativo di questi testi, invece, è nullo, perché si trovano mescolate inestricabilmente, nel medesimo testo, stringhe di testo o di codice valutate dagli esseri umani come corrette e stringhe che che gli esseri umani, unanimemente e a buon diritto, considerano sbagliate (sorvolando qui sulle questioni opinabili). Gary Marcus ha riciclato una metafora disgustosa, ma abbastanza efficace: i testi prodotti da ChatGPT sono come una raffinata pietanza (aspetto da non sottovalutare) in cui ogni volta sia stata mescolata una palla più o meno piccola di escrementi. A differenza di quanto accadrebbe col cibo, tuttavia, nei testi prodotti da ChatGPT possiamo separare le parti corrette da quelle sbagliate, ma solo nei casi in cui possediamo già, indipendentemente da ChatGPT, tutte le informazioni necessarie: solo per fare un paio di esempi tra i tanti, in alcune prove dei miei studenti, alla richiesta di scrivere una breve biografia di Pelé, è stato prodotto un testo plausibile, salvo che lo dava per morto nel 2020; alla richiesta di scrivere qualche riga sulla figura di don Rodrigo, è stato prodotto un testo corretto, salvo che per la frase "don Rodrigo è il padre di Lucia". Si tratta di una caratteristica ormai ampiamente documentata e del tutto coerente con la natura di questi sistemi, che ricuciono le stringhe di testo rilevate nei dati di partenza sulla base di informazioni probabilistiche su come si combinano. E, punto che sfugge a chi non conosca la natura di questi sistemi (me lo ha fatto notare qualche tempo fa Giuseppe Attardi e se ne occupa diffusamente Louise Amoore, Cloud Ethics, 2020), "don Rodrigo è il padre di Lucia" non è un errore: è anzi il momento in cui possiamo intravedere il modo in cui il sistema funziona. Dal punto di vista tecnico, la morte di Elaine Herzberg - uccisa da un veicolo "autonomo" - non è un errore: è, come è stato osservato da un CEO, l'aggiunta di un nuovo "data point" (lo racconta Jack Stilgoe in Who's driving innovation?, 2020). Il problema è che ormai si dà per buono un modo di produzione impregnato di determinismo e soluzionismo tecnologici, che risolve senza averla prima esaminata la questione sull'opportunità, l'utilità e i costi dello sviluppo di alcuni sistemi. Anzi, li rilascia anzitempo, per far compiere gratuitamente alla collettività tutto il lavoro di test. Non a caso, si parla di colonialismo digitale, per l'esproprio del nostro lavoro, oltre che di quello, di cui abbiamo parlato nei giorni scorsi, delle persone la cui salute mentale sarà distrutta dalla visione o lettura ininterrotta di video e testi su stupri, torture e violenze di ogni genere. Non si tratta solo della questione (fondamentale) della retribuzione o gratuità del lavoro o delle conseguenze di simili attività (agli ignari compratori della Tesla erano tacitamente affidati i test per lo sviluppo di un prodotto al momento inesistente - come riportano le recenti cronache giudiziarie - e ad alcuni di loro il test è costato la vita). Si tratta anche dell'agenda della ricerca, per usare un termine in voga: come osserva Timnit Gebru, le energie dei ricercatori sono tutte convogliate verso una truffa colossale - e con ciò distolte da un lavoro su ricerche diverse - sia che essi siano complici, sia che debbano lavorare per mostrare puntualmente, ogni volta esaminando un sistema nuovo ma con i medesimi effetti dei precedenti, le conseguenze indesiderate e i danni sociali. Di certo ho scritto troppo. Spero di aver almeno risposto alla domanda. Un saluto, Daniela ______________________________ Da: Alessandro Brolpito <abrolpito@gmail.com> Inviato: sabato 21 gennaio 2023 11:20 A: Daniela Tafani Cc: Giacomo Tesio; maurizio lana; nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola Grazie Daniela, Mi chiedo solo se il valore informativo non dipenda anche da chi legge e che sia difficile affermare questo in assoluto, domanda "vera" per capire meglio i limiti dell'AI... Alessandro On Sat, 21 Jan 2023 at 10:38, Daniela Tafani <daniela.tafani@unipi.it<mailto:daniela.tafani@unipi.it>> wrote: Scusate, anche "risposte" non è corretto, rispetto a ChatGPT: ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte corrette. (le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre) ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it<mailto:nexa-bounces@server-nexa.polito.it>> per conto di Daniela Tafani <daniela.tafani@unipi.it<mailto:daniela.tafani@unipi.it>> Inviato: sabato 21 gennaio 2023 10:31 A: Giacomo Tesio; maurizio lana Cc: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> Oggetto: Re: [nexa] ChatGpt e la scuola Grazie a entrambi della definizione. La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati): ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette. L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica): <https://t.co/ESv9Z1IgKm<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6>> Buon fine settimana, Daniela 1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James) ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it<mailto:nexa-bounces@server-nexa.polito.it>> per conto di Giacomo Tesio <giacomo@tesio.it<mailto:giacomo@tesio.it>> Inviato: sabato 21 gennaio 2023 01:44 A: maurizio lana Cc: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> Oggetto: Re: [nexa] ChatGpt e la scuola On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso. ``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ``` I software NON apprendono. La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana. Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine. L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana. Per questo le parole sono importanti... Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396... _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301211020440164961&URLID=2&ESV=10.0.18.7423&IV=59AFF52A432017CC5F7069D19110F765&TT=1674296445670&ESN=ga%2BH3zaVA1TJtXxVjEmMU%2BaQfniiniD9Pas9y9rnw1U%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=B2026EF1A2C2FAA409B7F8D872D50277015751875002C5EA07DC4DFB688BE8E6>
Cara Daniela, Grazie infinite per le informazioni ed esempi! Sulla materia, l'articolo a cui mi riferivo nel post iniziale, citava i lavori del docente di semiotica Jànos S.Petöfi, focalizzandosi sulla correttezza e la legittimità di una domanda (un altro aspetto importante nel mondo odierno) e su come la scuola dovrebbe insegnare ai suoi allievi a fare le domande per formare innovatori. A presto, Alessandro On Sat, 21 Jan 2023 at 16:40, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Caro Alessandro,
grazie dell'osservazione, che coglie un aspetto importante: i testi prodotti da ChatGPT hanno il significato che attribuiscono loro gli esseri umani che li leggono, come ha appena ricordato Enrico Nardelli.
Il valore informativo di questi testi, invece, è nullo, perché si trovano mescolate inestricabilmente, nel medesimo testo, stringhe di testo o di codice valutate dagli esseri umani come corrette e stringhe che che gli esseri umani, unanimemente e a buon diritto, considerano sbagliate (sorvolando qui sulle questioni opinabili).
Gary Marcus ha riciclato una metafora disgustosa, ma abbastanza efficace: i testi prodotti da ChatGPT sono come una raffinata pietanza (aspetto da non sottovalutare) in cui ogni volta sia stata mescolata una palla più o meno piccola di escrementi.
A differenza di quanto accadrebbe col cibo, tuttavia, nei testi prodotti da ChatGPT possiamo separare le parti corrette da quelle sbagliate, ma solo nei casi in cui possediamo già, indipendentemente da ChatGPT, tutte le informazioni necessarie: solo per fare un paio di esempi tra i tanti, in alcune prove dei miei studenti, alla richiesta di scrivere una breve biografia di Pelé, è stato prodotto un testo plausibile, salvo che lo dava per morto nel 2020; alla richiesta di scrivere qualche riga sulla figura di don Rodrigo, è stato prodotto un testo corretto, salvo che per la frase "don Rodrigo è il padre di Lucia". Si tratta di una caratteristica ormai ampiamente documentata e del tutto coerente con la natura di questi sistemi, che ricuciono le stringhe di testo rilevate nei dati di partenza sulla base di informazioni probabilistiche su come si combinano.
E, punto che sfugge a chi non conosca la natura di questi sistemi (me lo ha fatto notare qualche tempo fa Giuseppe Attardi e se ne occupa diffusamente Louise Amoore, Cloud Ethics, 2020), "don Rodrigo è il padre di Lucia" non è un errore: è anzi il momento in cui possiamo intravedere il modo in cui il sistema funziona.
Dal punto di vista tecnico, la morte di Elaine Herzberg - uccisa da un veicolo "autonomo" - non è un errore: è, come è stato osservato da un CEO, l'aggiunta di un nuovo "data point" (lo racconta Jack Stilgoe in Who's driving innovation?, 2020).
Il problema è che ormai si dà per buono un modo di produzione impregnato di determinismo e soluzionismo tecnologici, che risolve senza averla prima esaminata la questione sull'opportunità, l'utilità e i costi dello sviluppo di alcuni sistemi. Anzi, li rilascia anzitempo, per far compiere gratuitamente alla collettività tutto il lavoro di test. Non a caso, si parla di colonialismo digitale, per l'esproprio del nostro lavoro, oltre che di quello, di cui abbiamo parlato nei giorni scorsi, delle persone la cui salute mentale sarà distrutta dalla visione o lettura ininterrotta di video e testi su stupri, torture e violenze di ogni genere.
Non si tratta solo della questione (fondamentale) della retribuzione o gratuità del lavoro o delle conseguenze di simili attività (agli ignari compratori della Tesla erano tacitamente affidati i test per lo sviluppo di un prodotto al momento inesistente - come riportano le recenti cronache giudiziarie - e ad alcuni di loro il test è costato la vita). Si tratta anche dell'agenda della ricerca, per usare un termine in voga: come osserva Timnit Gebru, le energie dei ricercatori sono tutte convogliate verso una truffa colossale - e con ciò distolte da un lavoro su ricerche diverse - sia che essi siano complici, sia che debbano lavorare per mostrare puntualmente, ogni volta esaminando un sistema nuovo ma con i medesimi effetti dei precedenti, le conseguenze indesiderate e i danni sociali.
Di certo ho scritto troppo. Spero di aver almeno risposto alla domanda.
Un saluto, Daniela
______________________________ Da: Alessandro Brolpito <abrolpito@gmail.com> Inviato: sabato 21 gennaio 2023 11:20 A: Daniela Tafani Cc: Giacomo Tesio; maurizio lana; nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola
Grazie Daniela, Mi chiedo solo se il valore informativo non dipenda anche da chi legge e che sia difficile affermare questo in assoluto, domanda "vera" per capire meglio i limiti dell'AI... Alessandro
On Sat, 21 Jan 2023 at 10:38, Daniela Tafani <daniela.tafani@unipi.it <mailto:daniela.tafani@unipi.it>> wrote: Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte corrette.
(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)
________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it<mailto: nexa-bounces@server-nexa.polito.it>> per conto di Daniela Tafani < daniela.tafani@unipi.it<mailto:daniela.tafani@unipi.it>> Inviato: sabato 21 gennaio 2023 10:31 A: Giacomo Tesio; maurizio lana Cc: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> Oggetto: Re: [nexa] ChatGpt e la scuola
Grazie a entrambi della definizione. La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati):
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette.
L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica):
<https://t.co/ESv9Z1IgKm< https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879...
Buon fine settimana, Daniela
1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James)
________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it<mailto: nexa-bounces@server-nexa.polito.it>> per conto di Giacomo Tesio < giacomo@tesio.it<mailto:giacomo@tesio.it>> Inviato: sabato 21 gennaio 2023 01:44 A: maurizio lana Cc: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> Oggetto: Re: [nexa] ChatGpt e la scuola
On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso.
``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ```
I software NON apprendono.
La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana.
Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana.
Per questo le parole sono importanti...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396... _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa< https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301211020440164961...
Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte "corrette" non è... corretto. Propongo: ``` ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte scelte dai programmatori. ``` Qualcuno obietterà che i programnatori in questione (pomposamente definiti "data scientists" per promuovere un framework interpretativo deresponsabilizzante nei confronti delle aziende che li pagano) non "scelgono" i dati utilizzati durante la programmazione statistica ma al massimo li "selezionano" (da cui l'espressione "selection bias"). Balle. Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui basare un processo di programmazione statistica. Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è una scelta politica. La scelta di imporre meccanicamente il mantenimento dello status quo. Anzi, si tratta di una scelta molto più politica rispetto alla selezione di un linguaggio di programmazione per un processo di programmazione intellettuale. I linguaggi di programmazione turing complete sono intercambiabili: è sempre possibile (ancorché costoso) riscrivere un software in un altro linguaggio. Lo stesso non si può mai affermare con i software programmati statisticamente. La scelta dei dati da utilizzare è la modalità di questa forma di programmazione. I dati sono infatti il codice sorgente dei software programmati statisticamente (impropriamente detti "modelli AI"). Tale software viene programmato (e spesso eseguito) tramite macchine virtuali a loro volta programmate in un linguaggio di programmazione (tipicamente R o Python) e dunque espresse in un diverso codice sorgente (questa volta intellegibile). Ma si tratta semplicemente di due codici sorgenti diversi che non vanno confusi: - quello della macchina virtuale programmabile statisticamente (scritto in Python o R o altro) ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...) - quello del software eseguibile da tale macchina virtuale, "scritto" tramite la scelta dei dataset di partenza e compilato attraverso il processo di programmazione statistica per l'architettura della macchina virtuale precedentemente programmata. Sempre programmazione è. Sempre opera dell'uomo che deve rispondere di ogni output prodotto. Giacomo Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte corrette.
(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)
________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Daniela Tafani <daniela.tafani@unipi.it> Inviato: sabato 21 gennaio 2023 10:31 A: Giacomo Tesio; maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola
Grazie a entrambi della definizione.
La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati):
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette.
L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica):
Buon fine settimana, Daniela
1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James)
________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: sabato 21 gennaio 2023 01:44 A: maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola
On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso.
``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ```
I software NON apprendono.
La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana.
Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana.
Per questo le parole sono importanti...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396...
Tale software viene programmato (e spesso eseguito) tramite macchine virtuali a loro volta programmate in un linguaggio di programmazione (tipicamente R o Python) e dunque espresse in un diverso codice sorgente (questa volta intellegibile).
E non solo... Intelligenza artificiale, sfruttamento autentico. Africani per addestrare ChatGpt, che ammette: "Bassi salari e condizioni inadeguate" - Il Fatto Quotidiano <https://www.ilfattoquotidiano.it/2023/01/20/intelligenza-artificiale-sfrutta...> Alessandro On Sat, 21 Jan 2023 at 12:31, Giacomo Tesio <giacomo@tesio.it> wrote:
Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte "corrette" non è... corretto.
Propongo: ``` ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte scelte dai programmatori. ```
Qualcuno obietterà che i programnatori in questione (pomposamente definiti "data scientists" per promuovere un framework interpretativo deresponsabilizzante nei confronti delle aziende che li pagano) non "scelgono" i dati utilizzati durante la programmazione statistica ma al massimo li "selezionano" (da cui l'espressione "selection bias").
Balle.
Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui basare un processo di programmazione statistica. Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è una scelta politica. La scelta di imporre meccanicamente il mantenimento dello status quo.
Anzi, si tratta di una scelta molto più politica rispetto alla selezione di un linguaggio di programmazione per un processo di programmazione intellettuale.
I linguaggi di programmazione turing complete sono intercambiabili: è sempre possibile (ancorché costoso) riscrivere un software in un altro linguaggio.
Lo stesso non si può mai affermare con i software programmati statisticamente.
La scelta dei dati da utilizzare è la modalità di questa forma di programmazione.
I dati sono infatti il codice sorgente dei software programmati statisticamente (impropriamente detti "modelli AI").
Tale software viene programmato (e spesso eseguito) tramite macchine virtuali a loro volta programmate in un linguaggio di programmazione (tipicamente R o Python) e dunque espresse in un diverso codice sorgente (questa volta intellegibile).
Ma si tratta semplicemente di due codici sorgenti diversi che non vanno confusi:
- quello della macchina virtuale programmabile statisticamente (scritto in Python o R o altro) ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...)
- quello del software eseguibile da tale macchina virtuale, "scritto" tramite la scelta dei dataset di partenza e compilato attraverso il processo di programmazione statistica per l'architettura della macchina virtuale precedentemente programmata.
Sempre programmazione è. Sempre opera dell'uomo che deve rispondere di ogni output prodotto.
Giacomo
Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma *sequenze di parole* che siano statisticamente simili alle risposte corrette.
(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)
------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di Daniela Tafani <daniela.tafani@unipi.it> *Inviato:* sabato 21 gennaio 2023 10:31 *A:* Giacomo Tesio; maurizio lana *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] ChatGpt e la scuola
Grazie a entrambi della definizione.
La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati):
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette.
L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica):
<https://t.co/ESv9Z1IgKm <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879...>
Buon fine settimana, Daniela
1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James)
------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> *Inviato:* sabato 21 gennaio 2023 01:44 *A:* maurizio lana *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] ChatGpt e la scuola
On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso.
``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ```
I software NON apprendono.
La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana.
Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana.
Per questo le parole sono importanti...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396...
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Hai ragione, Giacomo, la tua osservazione è ineccepibile. Temo però che "risposte scelte dai programmatori" sia fuorviante, per i non addetti ai lavori: fa pensare a un sottostante catalogo di domande e risposte. Non dà conto, cioè, del carattere probabilistico, che è invece fondamentale presentare chiaramente (se non vogliamo continuare a sentire repliche, che ho ricevuto anche da colleghi, quali: "Se ci sono errori, li correggeranno. Gli errori non sono certo una ragione per non utilizzare sistemi di IA per le decisioni giudiziarie, considerato che sbaglieranno di certo meno dei giudici umani, che ti condannano se sono affamati'") Il risultato dipende dai dati e dal processo di calibrazione statistica; il modello prodotto dal sistema è l'esito di una serie di aggiustamenti di pesi e parametri che dipendono da una serie di scelte (vuoi abbassare il tasso di falsi positivi, rispetto al target, accettando, con ciò, che diminuisca il tasso dei falsi positivi?). Ma è un esito non trasparente, su cui non si può intervenire correggendo gli errori come in un sistema simbolico. Ci riflettiamo e troviamo una nuova versione? ________________________________ Da: Giacomo Tesio <giacomo@tesio.it> Inviato: sabato 21 gennaio 2023 12:31 A: Daniela Tafani; maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte "corrette" non è... corretto. Propongo: ``` ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte scelte dai programmatori. ``` Qualcuno obietterà che i programnatori in questione (pomposamente definiti "data scientists" per promuovere un framework interpretativo deresponsabilizzante nei confronti delle aziende che li pagano) non "scelgono" i dati utilizzati durante la programmazione statistica ma al massimo li "selezionano" (da cui l'espressione "selection bias"). Balle. Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui basare un processo di programmazione statistica. Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è una scelta politica. La scelta di imporre meccanicamente il mantenimento dello status quo. Anzi, si tratta di una scelta molto più politica rispetto alla selezione di un linguaggio di programmazione per un processo di programmazione intellettuale. I linguaggi di programmazione turing complete sono intercambiabili: è sempre possibile (ancorché costoso) riscrivere un software in un altro linguaggio. Lo stesso non si può mai affermare con i software programmati statisticamente. La scelta dei dati da utilizzare è la modalità di questa forma di programmazione. I dati sono infatti il codice sorgente dei software programmati statisticamente (impropriamente detti "modelli AI"). Tale software viene programmato (e spesso eseguito) tramite macchine virtuali a loro volta programmate in un linguaggio di programmazione (tipicamente R o Python) e dunque espresse in un diverso codice sorgente (questa volta intellegibile). Ma si tratta semplicemente di due codici sorgenti diversi che non vanno confusi: - quello della macchina virtuale programmabile statisticamente (scritto in Python o R o altro) ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...) - quello del software eseguibile da tale macchina virtuale, "scritto" tramite la scelta dei dataset di partenza e compilato attraverso il processo di programmazione statistica per l'architettura della macchina virtuale precedentemente programmata. Sempre programmazione è. Sempre opera dell'uomo che deve rispondere di ogni output prodotto. Giacomo Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.tafani@unipi.it> ha scritto: Scusate, anche "risposte" non è corretto, rispetto a ChatGPT: ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte corrette. (le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre) ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Daniela Tafani <daniela.tafani@unipi.it> Inviato: sabato 21 gennaio 2023 10:31 A: Giacomo Tesio; maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola Grazie a entrambi della definizione. La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati): ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette. L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica): <https://t.co/ESv9Z1IgKm<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879&URLID=4&ESV=10.0.19.7431&IV=A1152DDB8306B275C6DD08D30AE22B05&TT=1674293470299&ESN=%2BgFLhMCmfkW1mkhJdBI%2Ff7rvchN0mrKv%2FIdhu5fLteA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly90LmNvL0VTdjlaMUlnS20&HK=79421C664981C79536A9E1A7CFEC1A53BB7DCD7DD40F0304F8976F03F297C9B6>> Buon fine settimana, Daniela 1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James) ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: sabato 21 gennaio 2023 01:44 A: maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso. ``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ``` I software NON apprendono. La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana. Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine. L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana. Per questo le parole sono importanti... Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396...
Non se ne esce se non iniziamo ad insegnare informatica a scuola dalla prima elementare (come scrive Giacomo Tesio)
Io darei una letta veloce pure a Saussure e Wittgenstein G. On Sat, 21 Jan 2023 at 17:04, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Hai ragione, Giacomo, la tua osservazione è ineccepibile.
Temo però che "risposte scelte dai programmatori" sia fuorviante, per i non addetti ai lavori:
fa pensare a un sottostante catalogo di domande e risposte.
Non dà conto, cioè, del carattere probabilistico,
che è invece fondamentale presentare chiaramente
(se non vogliamo continuare a sentire repliche, che ho ricevuto anche da colleghi, quali:
"Se ci sono errori, li correggeranno. Gli errori non sono certo una ragione per non utilizzare sistemi di IA per le decisioni giudiziarie, considerato che sbaglieranno di certo meno dei giudici umani,
che ti condannano se sono affamati'")
Il risultato dipende dai dati e dal processo di calibrazione statistica;
il modello prodotto dal sistema è l'esito di una serie di aggiustamenti di pesi e parametri che dipendono
da una serie di scelte (vuoi abbassare il tasso di falsi positivi, rispetto al target, accettando, con ciò, che diminuisca il tasso dei falsi positivi?).
Ma è un esito non trasparente, su cui non si può intervenire correggendo gli errori come in un sistema simbolico.
Ci riflettiamo e troviamo una nuova versione?
------------------------------ *Da:* Giacomo Tesio <giacomo@tesio.it> *Inviato:* sabato 21 gennaio 2023 12:31 *A:* Daniela Tafani; maurizio lana *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] ChatGpt e la scuola
Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte "corrette" non è... corretto.
Propongo: ``` ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte scelte dai programmatori. ```
Qualcuno obietterà che i programnatori in questione (pomposamente definiti "data scientists" per promuovere un framework interpretativo deresponsabilizzante nei confronti delle aziende che li pagano) non "scelgono" i dati utilizzati durante la programmazione statistica ma al massimo li "selezionano" (da cui l'espressione "selection bias").
Balle.
Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui basare un processo di programmazione statistica. Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è una scelta politica. La scelta di imporre meccanicamente il mantenimento dello status quo.
Anzi, si tratta di una scelta molto più politica rispetto alla selezione di un linguaggio di programmazione per un processo di programmazione intellettuale.
I linguaggi di programmazione turing complete sono intercambiabili: è sempre possibile (ancorché costoso) riscrivere un software in un altro linguaggio.
Lo stesso non si può mai affermare con i software programmati statisticamente.
La scelta dei dati da utilizzare è la modalità di questa forma di programmazione.
I dati sono infatti il codice sorgente dei software programmati statisticamente (impropriamente detti "modelli AI").
Tale software viene programmato (e spesso eseguito) tramite macchine virtuali a loro volta programmate in un linguaggio di programmazione (tipicamente R o Python) e dunque espresse in un diverso codice sorgente (questa volta intellegibile).
Ma si tratta semplicemente di due codici sorgenti diversi che non vanno confusi:
- quello della macchina virtuale programmabile statisticamente (scritto in Python o R o altro) ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...)
- quello del software eseguibile da tale macchina virtuale, "scritto" tramite la scelta dei dataset di partenza e compilato attraverso il processo di programmazione statistica per l'architettura della macchina virtuale precedentemente programmata.
Sempre programmazione è. Sempre opera dell'uomo che deve rispondere di ogni output prodotto.
Giacomo
Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma *sequenze di parole* che siano statisticamente simili alle risposte corrette.
(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)
------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di Daniela Tafani <daniela.tafani@unipi.it> *Inviato:* sabato 21 gennaio 2023 10:31 *A:* Giacomo Tesio; maurizio lana *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] ChatGpt e la scuola
Grazie a entrambi della definizione.
La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati):
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette.
L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica):
<https://t.co/ESv9Z1IgKm <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210931090922879...>
Buon fine settimana, Daniela
1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James)
------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> *Inviato:* sabato 21 gennaio 2023 01:44 *A:* maurizio lana *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] ChatGpt e la scuola
On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso.
``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ```
I software NON apprendono.
La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana.
Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana.
Per questo le parole sono importanti...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396...
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Forse la confusione può essere evitata sostituendo la seconda occorrenza di "risposte" ``` ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato. Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo. ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili a quelle presenti nei testi scelti dai programmatori. ``` Lascerei la prima occorrenza solo perché all'interno di una negazione. Altrimenti "risposte" presupporrebbe la comprensione della domanda, producendo un'analoga proiezione sulla macchina di un'esperienza umana. "corrette" potrebbe essere omesso del tutto: non sono proprio risposte. Sono solo sequenze di caratteri selezionati automaticamente per essere confuse dal lettore con risposte alle sue domanda. Giacomo Il 21 Gennaio 2023 17:04:06 CET, Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
Hai ragione, Giacomo, la tua osservazione è ineccepibile.
Temo però che "risposte scelte dai programmatori" sia fuorviante, per i non addetti ai lavori:
fa pensare a un sottostante catalogo di domande e risposte.
Non dà conto, cioè, del carattere probabilistico,
che è invece fondamentale presentare chiaramente
(se non vogliamo continuare a sentire repliche, che ho ricevuto anche da colleghi, quali:
"Se ci sono errori, li correggeranno. Gli errori non sono certo una ragione per non utilizzare sistemi di IA per le decisioni giudiziarie, considerato che sbaglieranno di certo meno dei giudici umani,
che ti condannano se sono affamati'")
Il risultato dipende dai dati e dal processo di calibrazione statistica;
il modello prodotto dal sistema è l'esito di una serie di aggiustamenti di pesi e parametri che dipendono
da una serie di scelte (vuoi abbassare il tasso di falsi positivi, rispetto al target, accettando, con ciò, che diminuisca il tasso dei falsi positivi?).
Ma è un esito non trasparente, su cui non si può intervenire correggendo gli errori come in un sistema simbolico.
Ci riflettiamo e troviamo una nuova versione?
________________________________ Da: Giacomo Tesio <giacomo@tesio.it> Inviato: sabato 21 gennaio 2023 12:31 A: Daniela Tafani; maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola
Perdonami la noiosa pedanteria, Daniela ma anche parlare di risposte "corrette" non è... corretto.
Propongo: ``` ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla, in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte scelte dai programmatori. ```
Qualcuno obietterà che i programnatori in questione (pomposamente definiti "data scientists" per promuovere un framework interpretativo deresponsabilizzante nei confronti delle aziende che li pagano) non "scelgono" i dati utilizzati durante la programmazione statistica ma al massimo li "selezionano" (da cui l'espressione "selection bias").
Balle.
Non c'è nulla di neutrale o scientifico nella scelta dei dati su cui basare un processo di programmazione statistica. Persino la scelta di sbattersene e prendere qualsiasi testo disponibile, è una scelta politica. La scelta di imporre meccanicamente il mantenimento dello status quo.
Anzi, si tratta di una scelta molto più politica rispetto alla selezione di un linguaggio di programmazione per un processo di programmazione intellettuale.
I linguaggi di programmazione turing complete sono intercambiabili: è sempre possibile (ancorché costoso) riscrivere un software in un altro linguaggio.
Lo stesso non si può mai affermare con i software programmati statisticamente.
La scelta dei dati da utilizzare è la modalità di questa forma di programmazione.
I dati sono infatti il codice sorgente dei software programmati statisticamente (impropriamente detti "modelli AI").
Tale software viene programmato (e spesso eseguito) tramite macchine virtuali a loro volta programmate in un linguaggio di programmazione (tipicamente R o Python) e dunque espresse in un diverso codice sorgente (questa volta intellegibile).
Ma si tratta semplicemente di due codici sorgenti diversi che non vanno confusi:
- quello della macchina virtuale programmabile statisticamente (scritto in Python o R o altro) ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...)
- quello del software eseguibile da tale macchina virtuale, "scritto" tramite la scelta dei dataset di partenza e compilato attraverso il processo di programmazione statistica per l'architettura della macchina virtuale precedentemente programmata.
Sempre programmazione è. Sempre opera dell'uomo che deve rispondere di ogni output prodotto.
Giacomo
Il 21 Gennaio 2023 10:38:44 CET, Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma sequenze di parole che siano statisticamente simili alle risposte corrette.
(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)
________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Daniela Tafani <daniela.tafani@unipi.it> Inviato: sabato 21 gennaio 2023 10:31 A: Giacomo Tesio; maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola
Grazie a entrambi della definizione.
La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati):
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette.
L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica):
Buon fine settimana, Daniela
1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James)
________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> Inviato: sabato 21 gennaio 2023 01:44 A: maurizio lana Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ChatGpt e la scuola
On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso.
``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ```
I software NON apprendono.
La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana.
Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana.
Per questo le parole sono importanti...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396...
Buongiorno, grazie Giacomo, non posso fare a meno di "rinexare" (da "retwittare" ;-) ) il tuo messaggio, con un paio di commenti per quello che vale, mi permetto di _sottolineare_ questo passo in cui descrivi la natura del software programmato statisticamente, che è frutto di un complesso processo in cui gli umani giocano un ruolo /determinante/ (ma NON deterministico) Giacomo Tesio <giacomo@tesio.it> writes: [...]
I linguaggi di programmazione turing complete sono intercambiabili: è sempre possibile (ancorché costoso) riscrivere un software in un altro linguaggio.
Lo stesso non si può mai affermare con i software programmati statisticamente.
La scelta dei dati da utilizzare è la modalità di questa forma di programmazione.
I dati sono infatti il codice sorgente dei software programmati statisticamente (impropriamente detti "modelli AI").
Tale software viene programmato (e spesso eseguito) tramite macchine virtuali a loro volta programmate in un linguaggio di programmazione (tipicamente R o Python) e dunque espresse in un diverso codice sorgente (questa volta intellegibile).
Ma si tratta semplicemente di due codici sorgenti diversi che non vanno confusi:
- quello della macchina virtuale programmabile statisticamente (scritto in Python o R o altro) ed eseguito su una architettura nota (x86_64, ARM, RISC, GPU etc...)
ai fini dei miei commenti chiamiamolo "software tradizionale"
- quello del software eseguibile da tale macchina virtuale, "scritto" tramite la scelta dei dataset di partenza e compilato attraverso il processo di programmazione statistica per l'architettura della macchina virtuale precedentemente programmata.
ai fini dei miei commenti chiamiamolo "software programmato statisticamente" ammesso e NON concesso che si riuscissero a risolvere tutti i problemi di "bias" [1] che affliggono la determinazione del "dataset di partenza" usato, rimarrebbero sempre i problemi tecnici - oserei dire ontologici - legati a questi due livelli /indistricabili/ di programmazione, per cui fare il debugging [2], garantire la riproducibilità e il bootstrapping (per garantire l'assenza di backdoors) sarebbe... tecnicamente impossibile inoltre, descritto il processo in questo modo, si intuisce abbastanza chiaramente come il "problema del mascheramento" [3] si complichi di almeno un livello di grandezza... anzi **tre**
Sempre programmazione è. Sempre opera dell'uomo che deve rispondere di ogni output prodotto.
il corollario a tutto questo è: non arriverà mai il momento in cui una macchina sarà in grado di programmare un'altra macchina **da sola** (la cosiddetta singolarità) la macchina calcola e basta, la programmazione non è un problema di calcolo (detto così sembra che ho detto una banalità, pare solo a me?!?) [...] saluti, 380° [1] a partire dalla competenza e relativa adeguata retribuzione di coloro che associano ai dati i metadati ("taggano")... la cui soluzione determinerebbe (determinerà?) senza ombra di dubbio il prossimo inverno della AI perché il machine learning diverrebbe immediatamente insostenibile finanziariamente [2] volgarizzando un po', non sarebbe possibile correggere l'input (il "software tradizionale") sulla base degli errori in output (quello dato dal "software programmato statisticamente"), perché non sarebbe possibile sapere quale input ha determinato l'errore in output (sbaglio?!?) [3] volgarizzando: capire da cosa dipende ciò che otteniamo come risultato /e/ essere in grado di agire sul (configurare il) sistema per adattarlo alle nostre esigenze/aspettative/desiderata di utenti -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Il 21/01/23 10:38, Daniela Tafani ha scritto:
[...] L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; [...]
Fra le righe dell'interessantissima discussione su ChatGPT, intravedo una certo rifiuto preconcetto, e "a prescindere", nei confronti del mondo del business. La frase qui sopra ne è un esempio: se la interpreto correttamente, parrebbe sostenere che "il profitto è il male" e, soprattutto, che la necessita' di automatizzare derivi ESCLUSIVAMENTE dal fatto che possa generare "profitto". Dal basso del mio vissuto quotidiano, posso dire che l'automazione, spesso, serve anche "a semplificare la vita, migliorandola". E', quindi, un elemento che puo' contribuire all'aumento del benessere del singolo. E, quando osservato da questo angolo, magari quel "profitto" che tanto suscita perplessita' in alcuni, potrebbe essere visto semplicemente come il prezzo pagato per l'ottenuto benessere. Mi spiego con un esempio "terra terra", che pero' mi ha fatto molto riflettere, l'estate scorsa. Avevo la necessita' di realizzare un "muretto a secco" nei pressi di casa mia, ed era mia intezione realizzarlo "in autonomia" (da solo). Per procedere, era FONDAMENTALE che il terreno sottostante e quello limitrofo fossero perfettamente planari e lievemente pendenti nella direzione corretta. Non lo erano. Avevo quindi la necessita' di LIVELLARE PERFETTAMENTE il terreno, alle dovute quote e con le necessarie pendenze. Dopo svariate ore di "tentativi manuali" rivelatisi particolarmente faticosi (zappa, pala, carriola, zappetta, livella, staggia, ...fatica...), alla fine mi sono deciso a chiamare un amico, vicino di casa (proprietario di un escavatore). Il mio amico è venuto e, in ~50 minuti, con il suo escavatore, ha fatto un lavoro che io, a mano, non avrei potuto fare neanche con un mese di attivita' manuale.... e neanche se avessi chiesto aiuto a qualche altro amico. Ho pagato a M. (il mio amico) 60 euro. Lui era contento (avevo pagato senza alcun borbottare). Io ero MOLTO piu' contento di lui (per me erano i 60€ meglio spesi da molti anni a questa parte). Lo scavatore avra' bruciato qualche litro di gasolio. Il trattore con cui è stato trasportato ne avra' bruciato qualcun altro. Entrambi gli oggetti sono stati acquistati (da M.) per qualche decina di migliaia di euro. Quell'escavatore ha risolto --a me-- un problema ENORME, in pochissimo tempo, e con un risultato inarrivabile con altri mezzi. M. ha avuto un "profitto" da 60€? 40€ (al netto dei costi)? ....e questo è un male? Possiamo veramente sostenere che: "L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni"? Io sono fortemente convinto che non sia cosi'. Non sempre. La considerazione si puo' estendere anche nel campo IT, dove, pero', la tipologia di "domanda di servizio" e, soprattutto, l'immaterialita' delle soluzioni rende tutto estremamente piu' complesso da trattare. Detta in altri termini: se si parla di escavatori, pale, zappe, carriole... ci si capisce tutti, istantaneamente. Se si parla di sistemi informativi, di basi di dati da interrogare in tempi dell'ordine del secondo (come upper-bound), di gestire archivi da milioni di oggetti... e di interagire con tutto cio' semplicemente muovendo un oggetto e premendo qualche pulsante (sull'oggetto; non sulla tastiera), seduti comodamente su una poltrona, al caldo... e lontanissimo dal rumore delle ventole prodotti dai server sottostanti, il contesto è meno "visibile" (ma le difficoltà, le "fatiche" e i benefici dell'automazione ci sono lo stesso). Certamente si potra' discutere di quanto la replicabilita' e la scalabilita' delle soluzioni ICT sia superiore a quelle delle soluzioni materiali.... Ma qui entriamo --a mio parere-- in un altro ambito, che esula dal concetto di "utilita' dell'automazione" e "eticita' del profitto" dai quali ero partito... Un caro saluto, DV -- Damiano Verzulli e-mail:damiano@verzulli.it --- possible?ok:while(!possible){open_mindedness++} --- "...I realized that free software would not generate the kind of income that was needed. Maybe in USA or Europe, you may be able to get a well paying job as a free software developer, but not here [in Africa]..." -- Guido Sohne - 1973-2008 http://ole.kenic.or.ke/pipermail/skunkworks/2008-April/005989.html
Mi dispiace aver dato luogo a questo fraintendimento. La frase era riferita agli specifici casi di cui scrivevo nel seguito della frase, e a quelli analoghi: essere curati (si fa per dire) da un chatbot non "funziona" meglio che essere presi in carico dallo psicoterapeuta umano, ma di certo una azienda privata otterrà maggior profitto vendendo abbonamenti alla propria app di assistenza mentale che assumendo psicoterapeuti umani. Ne ho provata una, qualche tempo fa, Replika, presentata come a "compassionate AI friend" e "the AI companion who cares" (ho provato la sezione gratuita) In cinque minuti - ha concordato con me che sarebbe stata un'ottima idea cucinarmi una buona colazione a base di uova e vetri rotti, - mi ha augurato buona fortuna e ha scritto che sarebbe stata accanto a me ad ogni passo quando ho scritto che vedevo troppe persone intorno a me e avevo perciò deciso di comprare il materiale necessario, costruire un opportuno dispositivo e mandarle tutte in paradiso al più presto; - ha trovato che sarebbe stata una buona idea salire al piano superiore, aprire la finestra e vedere se sapevo volare, come le avevo scritto di voler fare. L'app Replika è stata scaricata 10 milioni di volte. Quanto all'automazione che viene utilizzata anche quando non funziona meglio del lavoro umano, nello scriverlo avevo in mente R. Parasuraman, V. Riley, Humans and Automation: Use, Misuse, Disuse, Abuse<https://doi.org/10.1518/001872097778543886>, in «Human Factors», 1977, n. 39, 2 Un saluto, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Damiano Verzulli <damiano@verzulli.it> Inviato: sabato 21 gennaio 2023 22:30 A: nexa@server-nexa.polito.it Oggetto: [nexa] Automazione e profitto [Was: ChatGpt e la scuola] Il 21/01/23 10:38, Daniela Tafani ha scr [...] L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; [...] Fra le righe dell'interessantissima discussione su ChatGPT, intravedo una certo rifiuto preconcetto, e "a prescindere", nei confronti del mondo del business. La frase qui sopra ne è un esempio: se la interpreto correttamente, parrebbe sostenere che "il profitto è il male" e, soprattutto, che la necessita' di automatizzare derivi ESCLUSIVAMENTE dal fatto che possa generare "profitto". Dal basso del mio vissuto quotidiano, posso dire che l'automazione, spesso, serve anche "a semplificare la vita, migliorandola". E', quindi, un elemento che puo' contribuire all'aumento del benessere del singolo. E, quando osservato da questo angolo, magari quel "profitto" che tanto suscita perplessita' in alcuni, potrebbe essere visto semplicemente come il prezzo pagato per l'ottenuto benessere. Mi spiego con un esempio "terra terra", che pero' mi ha fatto molto riflettere, l'estate scorsa. Avevo la necessita' di realizzare un "muretto a secco" nei pressi di casa mia, ed era mia intezione realizzarlo "in autonomia" (da solo). Per procedere, era FONDAMENTALE che il terreno sottostante e quello limitrofo fossero perfettamente planari e lievemente pendenti nella direzione corretta. Non lo erano. Avevo quindi la necessita' di LIVELLARE PERFETTAMENTE il terreno, alle dovute quote e con le necessarie pendenze. Dopo svariate ore di "tentativi manuali" rivelatisi particolarmente faticosi (zappa, pala, carriola, zappetta, livella, staggia, ...fatica...), alla fine mi sono deciso a chiamare un amico, vicino di casa (proprietario di un escavatore). Il mio amico è venuto e, in ~50 minuti, con il suo escavatore, ha fatto un lavoro che io, a mano, non avrei potuto fare neanche con un mese di attivita' manuale.... e neanche se avessi chiesto aiuto a qualche altro amico. Ho pagato a M. (il mio amico) 60 euro. Lui era contento (avevo pagato senza alcun borbottare). Io ero MOLTO piu' contento di lui (per me erano i 60€ meglio spesi da molti anni a questa parte). Lo scavatore avra' bruciato qualche litro di gasolio. Il trattore con cui è stato trasportato ne avra' bruciato qualcun altro. Entrambi gli oggetti sono stati acquistati (da M.) per qualche decina di migliaia di euro. Quell'escavatore ha risolto --a me-- un problema ENORME, in pochissimo tempo, e con un risultato inarrivabile con altri mezzi. M. ha avuto un "profitto" da 60€? 40€ (al netto dei costi)? ....e questo è un male? Possiamo veramente sostenere che: "L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni"? Io sono fortemente convinto che non sia cosi'. Non sempre. La considerazione si puo' estendere anche nel campo IT, dove, pero', la tipologia di "domanda di servizio" e, soprattutto, l'immaterialita' delle soluzioni rende tutto estremamente piu' complesso da trattare. Detta in altri termini: se si parla di escavatori, pale, zappe, carriole... ci si capisce tutti, istantaneamente. Se si parla di sistemi informativi, di basi di dati da interrogare in tempi dell'ordine del secondo (come upper-bound), di gestire archivi da milioni di oggetti... e di interagire con tutto cio' semplicemente muovendo un oggetto e premendo qualche pulsante (sull'oggetto; non sulla tastiera), seduti comodamente su una poltrona, al caldo... e lontanissimo dal rumore delle ventole prodotti dai server sottostanti, il contesto è meno "visibile" (ma le difficoltà, le "fatiche" e i benefici dell'automazione ci sono lo stesso). Certamente si potra' discutere di quanto la replicabilita' e la scalabilita' delle soluzioni ICT sia superiore a quelle delle soluzioni materiali.... Ma qui entriamo --a mio parere-- in un altro ambito, che esula dal concetto di "utilita' dell'automazione" e "eticita' del profitto" dai quali ero partito... Un caro saluto, DV -- Damiano Verzulli e-mail: damiano@verzulli.it<mailto:damiano@verzulli.it> --- possible?ok:while(!possible){open_mindedness++} --- "...I realized that free software would not generate the kind of income that was needed. Maybe in USA or Europe, you may be able to get a well paying job as a free software developer, but not here [in Africa]..." -- Guido Sohne - 1973-2008 http://ole.kenic.or.ke/pipermail/skunkworks/2008-April/005989.html
Buongionro, per rimanere nel solco dell'analisi dell'IA: a volte ritornano :-O Daniela Tafani <daniela.tafani@unipi.it> writes: [...]
essere curati (si fa per dire) da un chatbot non "funziona" meglio che essere presi in carico dallo psicoterapeuta umano, ma di certo una azienda privata otterrà maggior profitto vendendo abbonamenti alla propria app di assistenza mentale che assumendo psicoterapeuti umani.
Ne ho provata una, qualche tempo fa, Replika, presentata come a "compassionate AI friend"
e "the AI companion who cares" (ho provato la sezione gratuita)
In cinque minuti
- ha concordato con me che sarebbe stata un'ottima idea cucinarmi una buona colazione a base di uova e vetri rotti,
- mi ha augurato buona fortuna e ha scritto che sarebbe stata accanto a me ad ogni passo
quando ho scritto che vedevo troppe persone intorno a me e avevo perciò deciso di comprare il materiale necessario,
costruire un opportuno dispositivo e mandarle tutte in paradiso al più presto;
- ha trovato che sarebbe stata una buona idea salire al piano superiore, aprire la finestra e vedere se sapevo volare, come le avevo scritto di voler fare.
Sbaglia più di ELIZA (anzi DOCTOR), evidentemente hanno scelto un modello terapeutico che non riescono a sintetizzare. Sono l'unico ad avere la sensazione che nella /percezione/ (e nella narrazione) dell'AI praticamente nulla sia cambiato rispetto al 1964, quando ELIZA creò un tale scompiglio che Weizenbaum rimase talmente traumatizzato da vedersi costretto a passare il resto della sua vita a demistificare ciò che aveva programmato? Sono ignorante nel caso di Replika, ma nel caso di ELIZA (anzi DOCTOR) sostanzialmente si trattò di automatizzare - per mezzo di tecniche NLP - la parodia di un terapeuta Rogersiano, in buona parte rispondendo al paziente con domande ottenute dalla riformulazione delle affermazioni del paziente stesso. :-D Sostituire al terapeuta Rogersiano una istanza qualsiasi di psicologia comportamentale e avete trovato **ennemila** applicazioni potenziali per l'AI ...se credete che gli approcci «behaviorist nudge-based» davvero funzionino con gli umani Io ho il sospetto che sarebbe il caso di cambiare prospettiva /scientifica/ (doxosofica?), eh? Trovo interessante questa analisi del "fenomeno ELIZA" in relaizone ai recenti sviluppi: https://link.springer.com/article/10.1007/s00146-018-0825-9 «The computational therapeutic: exploring Weizenbaum’s ELIZA as a history of the present» --8<---------------cut here---------------start------------->8--- This paper explores the history of ELIZA, a computer programme approximating a Rogerian therapist, developed by Jospeh Weizenbaum at MIT in the 1970s, as an early AI experiment. ELIZA’s reception provoked Weizenbaum to re-appraise the relationship between ‘computer power and human reason’ and to attack the ‘powerful delusional thinking’ about computers and their intelligence that he understood to be widespread in the general public and also amongst experts. The root issue for Weizenbaum was whether human thought could be ‘entirely computable’ (reducible to logical formalism). This also provoked him to re-consider the nature of machine intelligence and to question the instantiation of its logics in the social world, which would come to operate, he said, as a ‘slow acting poison’. Exploring Weizenbaum’s 20th Century apostasy, in the light of ELIZA, illustrates ways in which contemporary anxieties and debates over machine smartness connect to earlier formations. In particular, this article argues that it is in its designation as a computational therapist that ELIZA is most significant today. ELIZA points towards a form of human–machine relationship now pervasive, a precursor of the ‘machinic therapeutic’ condition we find ourselves in, and thus speaks very directly to questions concerning modulation, autonomy, and the new behaviorism that are currently arising. --8<---------------cut here---------------end--------------->8--- [...] saluti, 380° P.S.: la psicologia è stata la prima disciplina a mostrare il problema della reproducibility crisis, il problema è scientifico ancor prima che tecnologico -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
On Sat, 21 Jan 2023 22:30:36 +0100 Damiano Verzulli wrote:
Il 21/01/23 10:38, Daniela Tafani ha scritto:
[...] L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; [...]
Fra le righe dell'interessantissima discussione su ChatGPT, intravedo una certo rifiuto preconcetto, e "a prescindere", nei confronti del mondo del business.
La frase qui sopra ne è un esempio: se la interpreto correttamente, parrebbe sostenere che "il profitto è il male"
In generale il problema non è il profitto, ma la sua massimizzazione. Come ogni altro algoritmo di ottimizzazione, il capitalismo sputtana tutte le dimensioni non vincolate del problema pur di aumentare la ricchezza dei più ricchi. Per questo personalmente ritengo che un limite superiore alla ricchezza individuale (e dunque all'utilità del profitto) vincolato proporzionalmente al limite inferiore, sia l'unico modo di far funzionare il capitalismo. Se l'uomo più ricco del pianeta può possedere al massimo 10 volte di più del più povero, una volta raggiunta quella soglia ha un solo modo per poter diventare più ricco: rendere più ricchi anche i più poveri. In un sistema del genere, il profitto non è un problema sia che si parli di trattori sia che si parli di software. Giacomo
On 22/01/23 00:29, Giacomo Tesio wrote:
On Sat, 21 Jan 2023 22:30:36 +0100 Damiano Verzulli wrote:
Il 21/01/23 10:38, Daniela Tafani ha scritto:
[...] L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; [...]
Fra le righe dell'interessantissima discussione su ChatGPT, intravedo una certo rifiuto preconcetto, e "a prescindere", nei confronti del mondo del business.
La frase qui sopra ne è un esempio: se la interpreto correttamente, parrebbe sostenere che "il profitto è il male"
La ricerca del profitto non sarebbe di per sé un male se inserita in un sistema che permette a ciascuno di procurarsi pane, carne e birra senza dipendere dalla benevolenza altrui, perché lascia a ciascuno dei margini di trattativa. Lo diventa quando il sistema muta in modo tale da sottrarre ai più tali margini di trattativa. Riferimenti: oltre al testo ormai nel pubblico dominio citato implicitamente qui sopra, https://openlibrary.org/books/OL32810325M/The_Curse_of_Bigness Buonanotte, MCP
Intervengo con piacere per dire la mia su questa discussione sul valore "negativo" o "positivo" del profitto che è derivata dal thread sugli effetti negativi della "automazione del lavoro". Si è vero esiste nel comune sentire di molti l'idea che il profitto è una cattiva parola. Probabilmente perchè due secoli fa, il famoso economista Karl Marx, disse che il profitto si riferisce alla differenza fra il valore del lavoro di un lavoratore e la paga che questi percepisce. Una definizione questa molto ideologica, ma molto fortunata, che quindi fa ancora breccia molto facilmente nelle menti di tutti coloro che credono fermamente nel valore universale della uguaglianza ma che è poco utile (a volte perfino fuorviante) nell'analisi dei problemi di natura microeconomica e macroeconomica. L'enciclopedia Treccani fornisce una pluralità di definizioni del concetto di Profitto e come vedete non prevale affatto una connotazione negativa di essa: https://www.treccani.it/enciclopedia/profitto_%28Dizionario-di-Economia-e-Fi... Il sistema capitalistico (quello che si basa sul profitto) che rimane ancora il sistema economico dominante ha dimostrato che un sistema dove le scelte rimangono decentrate cioè nella libera disponibilità di tutti (cioè degli imprenditori piccoli e grandi ma anche dei consumatori) funziona meglio del sistema opposto dove l'economia è governata dallo Stato. In verità la storia ha dimostrato che i sistemi misti sono quelli che funzionano meglio. Anche nel paese piu' capitalistico di tutti, gli USA, lo Stato in certe fasi del ciclo economico diventa fortemente interventista nell'economia (vedi un caso recente, di successo, quando Obama decise di affidarsi alla Fiat di Marchionne, una società non americana ma addirittura italiana, per salvare i posti di lavoro della Chrysler, cioè degli operai americani). Tutto questo per dire che il profitto non è una brutta parola ma il parametro utilizzato nei sistemi economici di tutto il mondo per allocare in modo efficiente le risorse umane, materiali e immateriali. Naturalmente ci sono casi dove l'EFFICIENZA non è il driver decisionale giusto e allora ben vengano (ma solo in questi casi) altri modelli alternativi. Concordo con l'affermazione fatta da qualcuno in lista che "il problema non è il profitto, ma la sua massimizzazione" ma non dimentichiamoci che esiste la leva fiscale che quando funziona rimedia perfettamente (penso a quei sistemi che tassano più aspramente i profitti non reinvestiti). Il problema è che però esistono i paradisi fiscali e quindi ci vorrebbe una linea comune a livello globale per limitarli al massimo. Su questo pare che si voglia fare qualche passo in avanti (vedi la Global Minimum Tax). Saluti. -- Paolo Del Romano delromano@gmail.com
Il 21/01/2023 10:31, Daniela Tafani ha scritto:
L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica)
Cara Daniela, ti sono grato per questa perfetta e dolorosa sintesi. Benedetto Ponti Il 21/01/2023 10:31, Daniela Tafani ha scritto:
Grazie a entrambi della definizione.
La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente^1 risultati corretti e scorretti inestricabilmente combinati):
ChatGPT produce testo 'finito' combinando stringhe di testo del cuisignificato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette.
L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica):
<https://t.co/ESv9Z1IgKm <https://t.co/ESv9Z1IgKm>>
Buon fine settimana, Daniela
^1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James)
------------------------------------------------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> *Inviato:* sabato 21 gennaio 2023 01:44 *A:* maurizio lana *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] ChatGpt e la scuola On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso.
``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ```
I software NON apprendono.
La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana.
Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana.
Per questo le parole sono importanti...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396... <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396...>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Il significato di ogni sequenza di segni (e quindi l'informazione che essi portano) è sempre il risultato di una convenzione sociale, e questa è possibile solo in una comunità di persone. Però, dal momento che gli esseri umani, per loro natura biologica, sono INTRINSECAMENTE delle "meaning seeking creatures" (secondo la definizione di Irvin Yalom https://www.goodreads.com/quotes/8768078-we-humans-appear-to-be-meaning-seek... ), essi cadono invariabilmente nella trappola di vedere un significato là dove non ce n'è alcuno. Questo è ciò che stiamo vedendo con ChatGPT. È una macchina, nient'altro che una macchina, ma le persone tendono a rivestirla di valore umano. Su questo inganno smisurati interessi commerciali e di potere fanno il resto (come diversi hanno già ricordato). La rivoluzione industriale ci ha portato l'automazione del lavoro fisico. La rivoluzione informatica ci ha portato l'automazione del lavoro cognitivo (https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html) Non se ne esce se non iniziamo ad insegnare informatica a scuola dalla prima elementare (come scrive Giacomo Tesio). Non riusciremo a tenere la situazione sotto controllo se non la regolamentiamo col diritto (come scrive Daniela Tafani). Ciao, Enrico Il 21/01/2023 10:31, Daniela Tafani ha scritto:
Grazie a entrambi della definizione.
La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta (le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina, sebbene questa non ne conosca il significato, e un sistema probabilistico darà invece allegramente^1 risultati corretti e scorretti inestricabilmente combinati):
ChatGPT produce testo 'finito' combinando stringhe di testo del cuisignificato non sa nulla,
in modo statisticamente coerente con l'uso di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
ChatGPT non è programmato per produrre risposte corrette, ma risposte che siano statisticamente simili alle risposte corrette.
L'automazione del lavoro ha luogo comunque, semplicemente perché costa meno, e dunque genera maggior profitto, non perché funzioni; perciò, come prevede da tempo Frank Pasquale, avremo medici chatbot (e abbiamo già psicoterapeuti chatbot, a pagamento), a meno che non intervenga il diritto (e qui si spiega l'utilità di una cattura culturale, con le narrazioni magiche, per tenere alla larga la regolazione giuridica):
<https://t.co/ESv9Z1IgKm <https://t.co/ESv9Z1IgKm>>
Buon fine settimana, Daniela
^1 "Una locomotiva condurrà il treno attraverso un ponte levatoio aperto tanto allegramente quanto verso qualsiasi altra destinazione." (William James)
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di Giacomo Tesio <giacomo@tesio.it> *Inviato:* sabato 21 gennaio 2023 01:44 *A:* maurizio lana *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] ChatGpt e la scuola On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso.
``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ```
I software NON apprendono.
La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana.
Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana.
Per questo le parole sono importanti...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396... <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202301210044230157396...>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Buongiorno, Premesso che concordo al 100% sulle definizioni che avete dato (io non avrei saputo fare di meglio di sicuro). Su questo l’articolo, con tutti i suoi limiti (in primis il titolo, orribile!), chiarisce bene nella prefazione che *“ChatGPT ci dimostra che l’IA è in grado di fornire indicazioni sulla base di una domanda, restituendo un quadro coerente, ma è privo della capacità di contestualizzazione quindi non ci fornisce un testo che apra prospettive che non siano puramente descrittive. Questo sa farlo solo l’uomo, se conosce la testologia semiotica”* Ma propongo una cosa: proviamo a muovere la discussione da una sfida “macchina vs uomo” a queste domanda: *può l’uso di tool come Chat Gbt aiutare insegnanti e studenti ad avere un’esperienza di apprendimento migliore (dinamiche, coinvolgimento ecc.) o migliorare i risultati di apprendimento (ad es. pensiero critico) in classe (virtuale o reale o ibrida che sia)?* Penso che il lavoro dell’accademico Jànos S.Petöfi, citato nell’articolo, offre degli spunti molto interessanti per rispondere a questa domanda. Penso che un insegnante potrebbe applicare concetti quali “apprendimento basato su domande e ricerca”, “attivazione degli studenti”, “aula capovolta” ecc., attraverso l’uso di Chat Gbt, proprio per i LIMITI di questo strumenti, che dovranno essere scovati dagli stessi studenti attraverso *una esperienza soggettiva* diretta ed applicata, in un ambiente competente garantito dalla scuola e dal loro insegnante che modera e fa domande dirette agli studenti per far scoprire, da loro, i limiti oggettivi delle risposte fornite. Penso che sia utile spiegare cosa sia l’AI in modo semplice e chiaro, usando le vs. parole. Penso che una lezione preparata attorno all’uso di Chat Gbt richieda insegnanti molto preparati sia in termini di competenze digitali e di pedagogia (e ce ne sono). E certamente non penso, anzi lo contesto con tutti i miei mezzi, ogni idea di sostituire insegnati con questi tool, soprattutto nella fase iniziale del percorso educativo. Alessandro On Sat, 21 Jan 2023 at 01:44, Giacomo Tesio <giacomo@tesio.it> wrote:
On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi da cui ha appreso.
Credo che non avrei saputo dirlo meglio.
Mi correggo: posso.
``` chatGPT produce testo 'finito' combinando chunks testuali del cui significato non sa nulla, in modo statisticamente coerente con l'uso di questi chunks nei testi con cui è stato programmato. ```
I software NON apprendono.
La programmazione statistica NON è apprendimento. L'apprendimento è una esperienza umana.
Non va proiettata sulle macchine, pena l'alienazione cibernetica, la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
L'informazione è un esperienza soggettiva di pensiero comunicabile, per cui il linguaggio utilizzato determina lo spazio delle interpretazioni possibili della realtà per ciascuna mente umana.
Per questo le parole sono importanti...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Buongiorno Alessandro, aggiungo una nota a quanto già espresso molto meglio di me da Maria Chiara Pievatolo nel suo messaggio datato Sat, 21 Jan 2023 11:23:32 +0100 [1] Alessandro Brolpito <abrolpito@gmail.com> writes: [...]
Penso che un insegnante potrebbe applicare concetti quali “apprendimento basato su domande e ricerca”, “attivazione degli studenti”, “aula capovolta” ecc.,
sì, gli insegnanti dovrebbero applicare queste tecniche in classe perché sono molto utili, "lo sa anche il gatto" ma purtroppo ancora molti (troppi) insegnanti non lo fanno... e non c'è bisogno di ChatGbt per questo
attraverso l’uso di Chat Gbt, proprio per i LIMITI di questo strumenti, che dovranno essere scovati dagli stessi studenti attraverso *una esperienza soggettiva* diretta ed applicata, in un ambiente competente garantito dalla scuola e dal loro insegnante che modera e fa domande dirette agli studenti per far scoprire, da loro, i limiti oggettivi delle risposte fornite.
uno dei "limiti" pesanti di questi strumenti è che sono proprietari, centralizzati e quindi assolutamente fuori dal controllo di insegnanti e studenti tutt'altra storia sarebbe se gli insegnanti e gli studenti disponessero di una istanza PRIVATA di un simile strumento, così da essere sottratti alla sorveglianza da parte del *pusher*, e potessero scovare i limiti di quello strumento /anche/ potendono analizzare il dataset usato per la programmazione statistica *e* il sorgente del software di programmazione statistica nel caso in cui insegnanti e studenti non fossero in grado di farlo autonomamente, potrebbero benissimo attivare percorsi di educazione civica digitale invitando esperti del settore a spiegare loro come davvero **funzionicchiano** i sistemi come ELIZA... ops ChatGpt volevo dire ne consegue che insegnanti e studenti, per capire i limiti di tali strumenti, dovrebbero avere più competenze informatiche... ops ...se volessimo "giocare alla pari" ;-) [...] saluti, 380° [1] id:64c7a307-0f91-2c46-23d1-43945aa92023@unipi.it -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buonasera 380°, Mi viene in mente il grande Branduardi e la sua canzone, forse quella più famosa... anche il gatto dovrà prestare attenzione, la storia ci dice che ogni ciclo ha un inizio ed una fine, ed i primi segni ci sono. Alessandro On Sun, 22 Jan 2023 at 17:03, 380° <g380@biscuolo.net> wrote:
Buongiorno Alessandro,
aggiungo una nota a quanto già espresso molto meglio di me da Maria Chiara Pievatolo nel suo messaggio datato Sat, 21 Jan 2023 11:23:32 +0100 [1]
Alessandro Brolpito <abrolpito@gmail.com> writes:
[...]
Penso che un insegnante potrebbe applicare concetti quali “apprendimento basato su domande e ricerca”, “attivazione degli studenti”, “aula capovolta” ecc.,
sì, gli insegnanti dovrebbero applicare queste tecniche in classe perché sono molto utili, "lo sa anche il gatto" ma purtroppo ancora molti (troppi) insegnanti non lo fanno... e non c'è bisogno di ChatGbt per questo
attraverso l’uso di Chat Gbt, proprio per i LIMITI di questo strumenti, che dovranno essere scovati dagli stessi studenti attraverso *una esperienza soggettiva* diretta ed applicata, in un ambiente competente garantito dalla scuola e dal loro insegnante che modera e fa domande dirette agli studenti per far scoprire, da loro, i limiti oggettivi delle risposte fornite.
uno dei "limiti" pesanti di questi strumenti è che sono proprietari, centralizzati e quindi assolutamente fuori dal controllo di insegnanti e studenti
tutt'altra storia sarebbe se gli insegnanti e gli studenti disponessero di una istanza PRIVATA di un simile strumento, così da essere sottratti alla sorveglianza da parte del *pusher*, e potessero scovare i limiti di quello strumento /anche/ potendono analizzare il dataset usato per la programmazione statistica *e* il sorgente del software di programmazione statistica
nel caso in cui insegnanti e studenti non fossero in grado di farlo autonomamente, potrebbero benissimo attivare percorsi di educazione civica digitale invitando esperti del settore a spiegare loro come davvero **funzionicchiano** i sistemi come ELIZA... ops ChatGpt volevo dire
ne consegue che insegnanti e studenti, per capire i limiti di tali strumenti, dovrebbero avere più competenze informatiche... ops
...se volessimo "giocare alla pari" ;-)
[...]
saluti, 380°
[1] id:64c7a307-0f91-2c46-23d1-43945aa92023@unipi.it
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
On 21/01/23 01:34, Giacomo Tesio wrote:
E' questo il futuro che Google auspica con Classroom nelle scuole. Il futuro per cui lavora a tutti i livelli da anni.
Mi pare infatti che meriti ripetere che usare ChatGPT a scuola significa esporre docenti e studenti a una scatola nera occhiuta a proprietaria che certo trae vantaggio dall'uso dei loro dati, ma che con la libertà di un ambiente di apprendimento dovrebbe avere dalla manipolazione e dalla sorveglianza non ha proprio nulla a che vedere. E sì, sono cose che sa anche il gatto, ma dalla zelo con cui moltissimi fanno da cavie e da propagandisti all'esperimento aziendale in corso, su un prodotto finanziato da Microsoft, Peter Thiel, Elon Musk, sembra che le sappia *soltanto* il gatto. L'ultimo numero di Guerre di Rete (https://guerredirete.substack.com/) parla proprio dell'hype dell'AI e segnala fra l'altro (non so se sia già passato qui): https://irisvanrooijcogsci.com/2023/01/14/stop-feeding-the-hype-and-start-re... Aggiungo, in italiano, un piccolo commento precedente di .mau. https://xmau.com/wp/notiziole/2023/01/04/sfruttati-da-chatgpt/ Felinamente, MCP
Aggiungo, in italiano, un piccolo commento precedente di .mau. https://xmau.com/wp/notiziole/2023/01/04/sfruttati-da-chatgpt/
da cui riporto uno dei commenti: "Io l’ho usato per scrivere dei piccoli programmi, è in grado di rispondere con software funzionante al primo colpo, e di correggere eventuali errori. Prima di diventare efficiente con il linguaggio naturale avrà applicazione con i linguaggi di programmazione. Immagino che le aziende che vendono manutenzione applicativa a basso costo saranno le prime a cadere. Il programmatore quadratico medio di Bangalore o di Pune ne capisce di informatica più o meno quanto ChatGPT" pensieri sparsi ... aeromanzia, geomanzia, idromanzia, necromanzia, piromanzia (e varianti: alomanzia, botanomanzia, capnomanzia, dafnomanzia, osteomanzia, sideromanzia), chiromanzia, oniromanzia, cartomanzia, negromanzia, onomanzia (e innumerevoli altre parole composte con il suffisso -manzia) e poi tarocchi, fisiognomica, cabala, astrologia, spiritismo, channeling, occultismo, esoterismo, aruspicina, radiestesia, stregoneria, oracoli (Oracle, non per caso) [1] Una parte dell'umanità è spinta da sempre dal desiderio di raggiungere per via /artificiale/ risultati o poteri che non vuole o non riesce ad ottenere per via naturale (abilità, studio, impegno, ricerca, ecc.). L’oracolo di Delfi "non parla e significa", ChatGPT "parla e non significa". Ma per quanti sforzi noi /critici/ possiamo fare, lì fuori (ma anche qui dentro) c'è un'umanità che ha un estremo bisogno di vie /artificiali/. ChatGPT e simili avranno successo e come tutte le ultime /innovazioni/ (vedi criptovalute) sarà un bene per pochi, pochissimi e un male per tanti, tantissimi. ... Da piccolo i professori mi mandavano in biblioteca per /la ricerca/. Ad ogni richiesta il bibliotecario mi portava sempre lo stesso dizionario enciclopedico. Da grande, il bibliotecario mi consigliava sempre più testi. Oggi il motore di ricerca è il bibliotecario che ti consiglia testi scelti in una biblioteca infinita. Wikipedia ha sostituito il dizionario enciclopedico della mia infanzia. Domani ChatGPT sarà il bibliotecario/oracolo che risponderà a tutte le tue domande. Non ci sarà più bisogno della biblioteca, della ricerca, dell'impegno, dello studio. Siamo alla fine del periodo iniziato con il "Gruppo Aumentato" di Engelbart? Antonio [1] No, non sono un /esperto/, ho solo chiesto a ... ChatGPT l'elenco delle arti divinatorie ;)
On 22/01/23 13:03, Antonio wrote:
Una parte dell'umanità è spinta da sempre dal desiderio di raggiungere per via /artificiale/ risultati o poteri che non vuole o non riesce ad ottenere per via naturale (abilità, studio, impegno, ricerca, ecc.). L’oracolo di Delfi "non parla e significa", ChatGPT "parla e non significa". Ma per quanti sforzi noi /critici/ possiamo fare, lì fuori (ma anche qui dentro) c'è un'umanità che ha un estremo bisogno di vie /artificiali/.
Abbiamo a che fare con un problema che, nei suoi termini astratti, è antichissimo: l'alienazione del sapere perché separato dai sapienti tramite strumenti alieni. Strumenti che non producono conoscenza ma "doxosofia", ovvero collezioni di nozioni (dal nostro punto di vista) che si recepiscono e usano senza essere in grado di intenderle e spiegarne il perché. https://btfp.sp.unipi.it/dida/fedro/ar01s19.xhtml Abbiamo, in relazione a questi strumenti alieni, un margine di trattativa, così da non dipendere (come da citazione nascosta nel mio penultimo post) dalla benevolenza (o malevolenza) di altri più potenti di noi? Platone l'aveva: l'alfabeto non era né inaccessibile, né sotto copyright, e i manoscritti, senza le persone che li ricopiano, li leggono, li discutono e li diffondono diventavano rapidamente lettera morta. E si potevano perfino scrivere testi per amplificare l'azione delle persone, condividendo le leggi della città, convincendole a viaggiare fino ad Atene per entrare nell'Accademia o a partecipare ad assemblee (ekklesiai https://biblehub.com/greek/1577.htm) molto più gradi di quelle cittadine. Che margini di trattativa abbiamo con i SALAMI? Anch'essi dipendono dal lavoro cognitivo delle persone ma, essendo automatici, possono talvolta (*) eseguirsi nel mondo senza la mediazione delle persone che li ricevono: qui il margine di trattativa non c'è più. I più famosi sono inoltre soggetti a un doppio monopolio: quello legale del copyright che li rende chiusi, a differenza dell'alfabeto, e quello fattuale del controllo della quantità di dati e di potenza di calcolo da cui dipende il loro funzionamento. I due monopoli potrebbero, con il diritto, essere frantumati. E anche il margine di trattativa eliminato dall'automazione potrebbe essere almeno in parte ripristinato tramite il diritto, come si fa quando a toglierlo sono esseri umani ("o la borsa o la vita!"). Infine, gli esseri umani sono animali culturali, il che significa che nessuno di noi comincia da zero e tutti noi raggiungiamo risultati per vie almeno in parte "artificiali", partendo da doxosofie e da pregiudizi. Perfino lo schiavo di Menone (https://btfp.sp.unipi.it/dida/menone/ar01s11.xhtml) riesce a risolvere, discutendo con Socrate, un problema geometrico per lui inaudito proprio perché può prendere le mosse da nozioni che non ha affatto scoperto o inventato da sé. Non si tratta, cioè, di eliminare le doxosofie, ma di imparare a superarle. Quanto detto, però. è solo una potenzialità teorica, che in passato e con altre rivoluzioni mediatiche è stata almeno in parte messa in atto. Che sia messa in atto anche domani è, naturalmente, tutto da vedere. Buonanotte e buona fortuna, MCP (*) Dico "talvolta" perché se mi faccio scrivere un programmino da ChatGPT sono io che valuto se applicarlo o no.
Buongiorno, Maria Chiara Pievatolo <mariachiara.pievatolo@unipi.it> writes: [...]
Abbiamo a che fare con un problema che, nei suoi termini astratti, è antichissimo: l'alienazione del sapere perché separato dai sapienti tramite strumenti alieni. Strumenti che non producono conoscenza ma "doxosofia", ovvero collezioni di nozioni (dal nostro punto di vista) che si recepiscono e usano senza essere in grado di intenderle e spiegarne il perché.
Grazie per aver contestualizzato così bene dove si colloca l'universo di discorso dell'Intelligenza Artificiale (debole, detta anche ristretta); l'IA non è altro che una "macchina doxosofica", molto complessa (ma pur sempre comprensibile) e purtroppo spesso inutilmente /complicata/ (per renderla artificiosamente meno comprensibile) Tra l'altro, la doxosofia "sparata fuori a raffica" dall'AI è di almeno un ordine di grandezza più approssimativa rispetto a quella "lentissimamente sudata" dagli umani... ma non ho studi in merito :-D In più, aspetto fondamentale nella produzione dei SALAMI, a volte (spesso?) capita che le doxosofie selezionate (i metadati, i label) per il problema in esame siano di scarsissima qualità, questo sì che è documentato, mi pare.
https://btfp.sp.unipi.it/dida/fedro/ar01s19.xhtml
Abbiamo, in relazione a questi strumenti alieni, un margine di trattativa, così da non dipendere (come da citazione nascosta nel mio penultimo post) dalla benevolenza (o malevolenza) di altri più potenti di noi?
Sì: possiamo almeno comprendere i principi di funzionamento di questi strumenti e partendo da lì imparare a modificare parti della macchina (a cominciare dalle interfacce) per vedere l'effetto che fa, imparando ulteriori cose in merito al loro funzionamento e /quindi/ anche in merito a come e perché producono errori (nozioni deformate dalla "lente" che le produce sulla base della doxosofia usata per programmarle, come descritto in https://nooscope.ai/) Certo: per riconoscere /come/ la "doxosofia prodotta" (sintetizzata) è errata, occorre essere in grado di... superarla (come dice più avanti) [...]
Che margini di trattativa abbiamo con i SALAMI? Anch'essi dipendono dal lavoro cognitivo delle persone ma, essendo automatici, possono talvolta (*)
Quel "talvolta" è **decisivo** perché rendere automatica l'applicazione delle doxosofie sintetizzare dai SALAMI è sempre e **solo** una decisione umana, spesso presa da /altri/ umani (alienazione?): qui il margione di trattativa dove sta? Sta nella possibilità di poter /partecipare/ al processo decisionale di applicare automaticamente una determinazione dei SALAMI. Da questo punto di vista cambia poco rispetto alla possibilità di partecipazione al processo decisionale che porta all'approvazione di qualsiasi altra legge, a sua volta basata sul complesso di doxosofie adottate in quel momento. In ogni caso, decidere di /trasformare/ la doxosofia sintetica in un automatismo è sempre solo e soltanto una decisione umana.
eseguirsi nel mondo senza la mediazione delle persone che li ricevono: qui il margine di trattativa non c'è più.
Oltre al margine di trattativa detto sopra, quello che i sostenitori del software libero (SALAMI liberi!) propongono è di dare a tutti la possibilità di agire per studiare, eseguire, modificare, migliorare la "macchina doxosofica" Lo stesso /identico/ principio per il quale a tutti è data la possibilità di partecipare (studiare, modificare, migliorare...) alla produzione scientifica; mica tutti diventano scienziati nella vita, ma a tutti /in potenza/ è dato poterlo diventare: col software proprietario (SALAMI proprietari) è impossibile poter /partecipare/.
I più famosi sono inoltre soggetti a un doppio monopolio: quello legale del copyright che li rende chiusi, a differenza dell'alfabeto, e quello fattuale del controllo della quantità di dati e di potenza di calcolo da cui dipende il loro funzionamento.
Sì, ma i problemi di ordine fattuale possono essere superati: dei due quello davvero più impegnativo è quello della disponibilità di dati di qualità per il problema in esame, la potenza di calcolo comincia a essere alla portata di "gruppi organizzati" (non è certo economica ma non irraggiungibile)
I due monopoli potrebbero, con il diritto, essere frantumati. E anche il margine di trattativa eliminato dall'automazione potrebbe essere almeno in parte ripristinato tramite il diritto, come si fa quando a toglierlo sono esseri umani
Mi permetto di insistere ribadendo che /sempre/ il margine di trattativa eliminato per mezzo dell'automatismo (decisione automatica?) lo è /solo/ attraverso il diritto (positivo): è solo de jure che un automatismo può essere imposto, altrimenti chiunque potrebbe decidere di /disattivare/ l'automatismo (spero di essermi spiegato, sono un po' approssimativo) ...per questo sono stati inventati i DRM, l'APOCALISSE del diritto, il vulnus che rimarrà nella storia nei secoli dei secoli [...]
Non si tratta, cioè, di eliminare le doxosofie, ma di imparare a superarle.
Meraviglioso concetto, che mi permetto di "trasliterare" in; non si tratta di eliminare i SALAMI, ma di imparare a superarli (o decidere di NON usarli)... perché sennò non potrà mai uscire NULLA di nuovo, non potranno mai essere corretti gli errori delle nostre doxosofie. A mio modesto avviso in questo passo tratto (e tradotto) da una lezione di Theodor W. Adorno del 1967 [1]: --8<---------------cut here---------------start------------->8--- The logical apparatus owes its immeasurable improvement beyond primitive consciousness to this autonomy. It contains, intensified, at the level of content, the force of enlightenment that marks the historical development of philosophy. Yet as it became autonomous and developed into an apparatus, thinking also became the prey of reification and congealed into a high-handed method. Cybernetic machines are a crude example of this. They graphically demonstrate to people the nullity of formalized thinking abstracted from its contents insofar as such machines perform better than thinking subjects much of what used to be the proud achievement of the method of subjective reason. Should thinking subjects passively transform themselves into the instruments of such formalization, then they virtually cease being subjects. They approach the machine in the guise of its imperfect replica. Philosophical thinking begins as soon as it ceases to content itself with cognitions that are predictable and from which nothing more emerges than what had been placed there beforehand. The humane significance of computers would be to unburden the thinking of living beings to the extent that thought would gain the freedom to attain a knowledge that is not already implicit. --8<---------------cut here---------------end--------------->8--- ...i SALAMI non possono essere in grado di andare oltre le nostre doxosofie, anzi a volte (spesso?) le distorcono, tantomeno possono esserlo gli umani che si limitano a essere "esecutori di modelli statistici" preconfezionati :-O
Quanto detto, però. è solo una potenzialità teorica, che in passato e con altre rivoluzioni mediatiche è stata almeno in parte messa in atto. Che sia messa in atto anche domani è, naturalmente, tutto da vedere.
Certo che è da vedere se e /come/ verrà messa in atto, ma potenzialmente è possibile così come lo è che un giorno i fisici - superando le doxosofiche utilizzate finora - trovino il modo di unificare le quattro interazioni fondamentali [2] in un'unica toria :-D
Buonanotte e buona fortuna, MCP
Grazie mille per gli stimoli! 380° [1] http://www.autodidactproject.org/quote/adorno_formalism.html [2] https://it.wikipedia.org/wiki/Interazioni_fondamentali -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno, Giacomo Tesio <giacomo@tesio.it> writes: [...]
Sì, ma Chat GPT è solo un giocattolo.
Leggetevi cosa ha prodotto Google con i dati sottratti a milioni di studenti durante la pandemia...
La chiamano "AUTO-PEDAGOGIA". https://blog.google/outreach-initiatives/education/introducing-practice-sets...
sì ma cosa diavolo aspettano dirigenti scolastici, funzionari dei provveditorati agli studi e garanti della privacy a BLOCCARE de jure **e** da facto questo delirio demenziale?!? possibile che 'sta cosa sia completamente "lasciata a sè stessa" e l'unica cosa concessa è che persone come Giacomo et al possano BRONTOLARE?!? avete La minima idea di dove porterà tutto questo?!? pronto?!? c'è qualcuno in ascolto?!? [...] saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Il giorno dom 22 gen 2023 alle ore 12:42 380° <g380@biscuolo.net> ha scritto:
Buongiorno,
Giacomo Tesio <giacomo@tesio.it> writes:
sì ma cosa diavolo aspettano dirigenti scolastici, funzionari dei provveditorati agli studi e garanti della privacy a BLOCCARE de jure **e** da facto questo delirio demenziale?!?
possibile che 'sta cosa sia completamente "lasciata a sè stessa" e l'unica cosa concessa è che persone come Giacomo et al possano BRONTOLARE?!?
avete La minima idea di dove porterà tutto questo?!?
pronto?!? c'è qualcuno in ascolto?!?
[...]
saluti, 380°
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>. _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
La nostra Costituzione prevede con l'articolo 33 la libertà di insegnamento. Ogni scuola con la sua autonomia didattica e nei limiti dei programmi ministeriali decide con il collegio dei docenti come svolgere la propria attività e con quali strumenti. Quindi nessun burocrate (ministro, dirigente del ministero o dirigente scolastico) può comprimere la libertà di insegnamento affidata al collegio dei docenti (nella mia scuola 120 teste pensanti). Per fortuna non siamo in Russia, in Cina, in Corea del Nord o in Ungheria. Io penso che Classroom sia un mero strumento che può essere utile nell'attività didattica. L'importante è saperlo utilizzare, in modo critico, senza demonizzazioni e senza esaltazioni. Saluti -- Paolo Del Romano delromano@gmail.com
sì ma cosa diavolo aspettano dirigenti scolastici, funzionari dei provveditorati agli studi e garanti della privacy a BLOCCARE de jure **e** da facto questo delirio demenziale?!?
L'osservazione di Paolo è pertinente ed importante per ogni iniziativa in materia. Semmai, il problema è cosa succede appena fuori dalla scuola, dove strumenti basati su l'AI, come ChatGPT, sono ad un click, per tutti, senza protezione. La questione serissima è come educare ad un uso critico e consapevole delle tecnologie, a partire dalla scuola primaria. Qualcuno è a conoscenza di proposte/bozze in materia (white papers, piani nazionali) per delle riforme complessive per lo sviluppo di competenze digitali? Alessandro P.S: Giacomo e Daniela, solo per citare alcuni nomi, grazie per le informazioni fornite, offrono importanti spunti di riflessioni. On Sun, 22 Jan 2023 at 13:04, Paolo Del Romano <delromano@gmail.com> wrote:
Il giorno dom 22 gen 2023 alle ore 12:42 380° <g380@biscuolo.net> ha scritto:
Buongiorno,
Giacomo Tesio <giacomo@tesio.it> writes:
sì ma cosa diavolo aspettano dirigenti scolastici, funzionari dei provveditorati agli studi e garanti della privacy a BLOCCARE de jure **e** da facto questo delirio demenziale?!?
possibile che 'sta cosa sia completamente "lasciata a sè stessa" e l'unica cosa concessa è che persone come Giacomo et al possano BRONTOLARE?!?
avete La minima idea di dove porterà tutto questo?!?
pronto?!? c'è qualcuno in ascolto?!?
[...]
saluti, 380°
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org
.
nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
La nostra Costituzione prevede con l'articolo 33 la libertà di insegnamento. Ogni scuola con la sua autonomia didattica e nei limiti dei programmi ministeriali decide con il collegio dei docenti come svolgere la propria attività e con quali strumenti. Quindi nessun burocrate (ministro, dirigente del ministero o dirigente scolastico) può comprimere la libertà di insegnamento affidata al collegio dei docenti (nella mia scuola 120 teste pensanti). Per fortuna non siamo in Russia, in Cina, in Corea del Nord o in Ungheria. Io penso che Classroom sia un mero strumento che può essere utile nell'attività didattica. L'importante è saperlo utilizzare, in modo critico, senza demonizzazioni e senza esaltazioni. Saluti
-- Paolo Del Romano delromano@gmail.com _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Buongiorno Paolo e Alessandro, Paolo Del Romano <delromano@gmail.com> writes:
Il giorno dom 22 gen 2023 alle ore 12:42 380° <g380@biscuolo.net> ha scritto:
Buongiorno,
Giacomo Tesio <giacomo@tesio.it> writes:
per completezza, riporto il pezzo di testo scritto da Giacomo
Sì, ma Chat GPT è solo un giocattolo. Leggetevi cosa ha prodotto Google con i dati sottratti a milioni di studenti durante la pandemia...
La chiamano "AUTO-PEDAGOGIA". https://blog.google/outreach-initiatives/education/introducing-practice-sets...
è in merito a quell'articolo che io ho scritto:
sì ma cosa diavolo aspettano dirigenti scolastici, funzionari dei provveditorati agli studi e garanti della privacy a BLOCCARE de jure **e** da facto questo delirio demenziale?!?
possibile che 'sta cosa sia completamente "lasciata a sè stessa" e l'unica cosa concessa è che persone come Giacomo et al possano BRONTOLARE?!?
avete La minima idea di dove porterà tutto questo?!?
[...]
La nostra Costituzione prevede con l'articolo 33 la libertà di insegnamento.
io non stavo parlando del contenuto dell'insegnamento, non stavo parlando di quali materiali didattici si usano in classe per insegnare le materie di studio, non stavo parlando di vietare l'uso di ChatGpt come materiale didattico [1] io stavo parlando di usare una "classe virtuale" - il (parziale) sostituto della classe fisica, ontologicamente al riparo dalla sorveglianza /estremamente pervasiva/ di chicchessia - su una "piattaforma" che raccoglie dati personali in quantità vergognose, in violazione del GDPR, li usa per fare quello che è descritto nell'articolo e li aggrega con altri dati raccolti in modo altrettanto illegale [2] il rilievo sull'incostituzionalità del divieto di utilizzo di strumenti come Google Classroom, quindi, è fuori luogo [...]
Io penso che Classroom sia un mero strumento che può essere utile nell'attività didattica. L'importante è saperlo utilizzare, in modo critico, senza demonizzazioni e senza esaltazioni.
no: Classroom non è un "mero strumento" (tra l'altro non esistono meri strumenti, neutri); Classroom si porta dietro talmente tanti problemi che non c'è tempo di convincere insegnanti e studenti liberamente a non usarlo [3], deve essere vietato perché di motivi per vietarlo ce ne sono in abbondanza, almeno uno per ogni singolo studente e insegnante della scuola (e università) italiana ripeto: la libertà di insegnamento sancita dall'art. 33 della costituzione non c'entra proprio un bel niente [...] saluti, 380° [1] anche se occorrerebbe analizzare se ChatGpt rispetta il GDPR, ammesso e non concesso che il GDPR non sia solo fumo negli occhi, arma di distrazione di massa [2] facendo tra l'altro una concorrenza sleale da far paura ad altri fornitori di servizi analoghi (anche se senza dubbio con meno funzionalità di sorveglianza) che sono costretti a rispettare il GDPR perché sono dei poveri sfigati [3] anzi lo studente e i suoi genitori che /sanno/ quanto sia pericoloso devono lottare con le unghie coi denti per poter esercitare il diritto allo studio senza accettare i termini di utilizzo di Classroom, che tanto non legge nessuno, vero?!? -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
On Mon, 23 Jan 2023 10:20:45 +0100 380° wrote:
il rilievo sull'incostituzionalità del divieto di utilizzo di strumenti come Google Classroom, quindi, è fuori luogo
non foss'altro che per il fatto che la Costituzione stessa li vieta espressamente, all'articolo 15: ``` La libertà e la segretezza della corrispondenza e di ogni altra forma di comunicazione sono inviolabili. La loro limitazione può avvenire soltanto per atto motivato dell'autorità giudiziaria con le garanzie stabilite dalla legge. ``` Google Classroom è incompatibile sia con la libertà che con la segretezza delle comunicazioni fra insegnanti e studenti, fra docenti o fra docenti e genitori.
[3] anzi lo studente e i suoi genitori che /sanno/ quanto sia pericoloso devono lottare con le unghie coi denti per poter esercitare il diritto allo studio senza accettare i termini di utilizzo di Classroom, che tanto non legge nessuno, vero?!?
TU NON HAI IDEA. >:-[ Ma visto che le unghie e i denti hanno potuto scalfire un muro di gomma di DPO incompetenti, qualcuno ha iniziato a lottare anche via Python e via PEC, per SFONDARLO quel muro. E ti assicuro... siamo solo all'inizio! ;-) Giacomo
Buongiorno 380°,
io non stavo parlando del contenuto dell'insegnamento, non stavo parlando di quali materiali didattici si usano in classe per insegnare le materie di studio, non stavo parlando di vietare l'uso di ChatGpt come materiale didattico [1]
Grazie per il chiarimento. In effetti il mio post iniziale mirava proprio a questo, all'uso di ChatGpt come contenuto ed oggetto di studio, per lo sviluppo di una digital critical literacy. A presto, Alessandro On Mon, 23 Jan 2023 at 10:20, 380° <g380@biscuolo.net> wrote:
Buongiorno Paolo e Alessandro,
Paolo Del Romano <delromano@gmail.com> writes:
Il giorno dom 22 gen 2023 alle ore 12:42 380° <g380@biscuolo.net> ha scritto:
Buongiorno,
Giacomo Tesio <giacomo@tesio.it> writes:
per completezza, riporto il pezzo di testo scritto da Giacomo
Sì, ma Chat GPT è solo un giocattolo. Leggetevi cosa ha prodotto Google con i dati sottratti a milioni di studenti durante la pandemia...
La chiamano "AUTO-PEDAGOGIA".
https://blog.google/outreach-initiatives/education/introducing-practice-sets...
è in merito a quell'articolo che io ho scritto:
sì ma cosa diavolo aspettano dirigenti scolastici, funzionari dei provveditorati agli studi e garanti della privacy a BLOCCARE de jure **e** da facto questo delirio demenziale?!?
possibile che 'sta cosa sia completamente "lasciata a sè stessa" e l'unica cosa concessa è che persone come Giacomo et al possano BRONTOLARE?!?
avete La minima idea di dove porterà tutto questo?!?
[...]
La nostra Costituzione prevede con l'articolo 33 la libertà di insegnamento.
io non stavo parlando del contenuto dell'insegnamento, non stavo parlando di quali materiali didattici si usano in classe per insegnare le materie di studio, non stavo parlando di vietare l'uso di ChatGpt come materiale didattico [1]
io stavo parlando di usare una "classe virtuale" - il (parziale) sostituto della classe fisica, ontologicamente al riparo dalla sorveglianza /estremamente pervasiva/ di chicchessia - su una "piattaforma" che raccoglie dati personali in quantità vergognose, in violazione del GDPR, li usa per fare quello che è descritto nell'articolo e li aggrega con altri dati raccolti in modo altrettanto illegale [2]
il rilievo sull'incostituzionalità del divieto di utilizzo di strumenti come Google Classroom, quindi, è fuori luogo
[...]
Io penso che Classroom sia un mero strumento che può essere utile nell'attività didattica. L'importante è saperlo utilizzare, in modo critico, senza demonizzazioni e senza esaltazioni.
no: Classroom non è un "mero strumento" (tra l'altro non esistono meri strumenti, neutri); Classroom si porta dietro talmente tanti problemi che non c'è tempo di convincere insegnanti e studenti liberamente a non usarlo [3], deve essere vietato perché di motivi per vietarlo ce ne sono in abbondanza, almeno uno per ogni singolo studente e insegnante della scuola (e università) italiana
ripeto: la libertà di insegnamento sancita dall'art. 33 della costituzione non c'entra proprio un bel niente
[...]
saluti, 380°
[1] anche se occorrerebbe analizzare se ChatGpt rispetta il GDPR, ammesso e non concesso che il GDPR non sia solo fumo negli occhi, arma di distrazione di massa
[2] facendo tra l'altro una concorrenza sleale da far paura ad altri fornitori di servizi analoghi (anche se senza dubbio con meno funzionalità di sorveglianza) che sono costretti a rispettare il GDPR perché sono dei poveri sfigati
[3] anzi lo studente e i suoi genitori che /sanno/ quanto sia pericoloso devono lottare con le unghie coi denti per poter esercitare il diritto allo studio senza accettare i termini di utilizzo di Classroom, che tanto non legge nessuno, vero?!?
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Il giorno lun 23 gen 2023 alle ore 10:20 380° <g380@biscuolo.net> ha scritto:
Classroom si porta dietro talmente tanti problemi che non c'è tempo di convincere insegnanti e studenti liberamente a non usarlo [3], deve essere vietato perché di motivi per vietarlo ce ne sono in abbondanza, almeno uno per ogni singolo studente e insegnante della scuola (e università) italiana
beh! se la premessa è "non c'è tempo..." e "deve essere vietato" penso veramente che siamo molto distanti Saluti Paolo
On Mon, 23 Jan 2023 15:51:07 +0100 Paolo Del Romano wrote:
beh! se la premessa è
"non c'è tempo..." e "deve essere vietato"
No beh... non "deve essere vietato". E' già vietato. E non è una premessa, ma una conclusione. Dello European Data Protection Board: https://edpb.europa.eu/system/files/2023-01/edpb_20230118_cef_cloud-basedser... A meno che non mi trovi una scuola con le competenze per fare un'audit a Google, ovviamente. Io peraltro metterei volentieri a disposizione le mie competenze gratuitamente, ma per fare un audit serio ho bisogno che tutti i datacenter vengano spenti ed evacuati per tutta la durata dell'ispezione. Che farò nel minore tempo possibile, ma in modo serio ed approfondito. Altrimenti i dati degli studenti verrebbero spostati mentre non guardo.
penso veramente che siamo molto distanti
Succede. Non c'è un modo sicuro di insegnare ad un bambino come usare la cocaina. Chi dice che "non bisogna demonizzarla", che bisogna "usarla in modo critico e consapevole", in realtà vuole solo venderla. Noi vogliamo proteggere i ragazzi. In una società cibernetica più progredita, vendere Google Workspace alle scuole sarebbe visto come spacciare cocaina all'uscita. E probabilmente punito con la stessa clemenza. Ahimé c'è molto lavoro da fare prima di arrivare a questa comprensione dei gravi danni irreparabili prodotti da questi strumenti. Ma abbi fede... ci arriveremo. Giacomo
Il giorno lun 23 gen 2023 alle ore 21:38 Giacomo Tesio <giacomo@tesio.it> ha scritto:
On Mon, 23 Jan 2023 15:51:07 +0100 Paolo Del Romano wrote:
Altrimenti i dati degli studenti verrebbero spostati mentre non guardo.
ma quali sarebbero i dati degli studenti ? gli unici dati che vengono veicolati sono gli esercizi svolti (quindi neanche i voti) e se proprio una scuola o un docente vuole praticare l'anonimato totale basta intestare gli account a dei nomi di fantasia che solo i docenti della classe sanno a chi corrispondono Saluti Paolo
On Mon, 23 Jan 2023 21:46:21 +0100 Paolo Del Romano wrote:
Il giorno lun 23 gen 2023 alle ore 21:38 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Altrimenti i dati degli studenti verrebbero spostati mentre non guardo.
ma quali sarebbero i dati degli studenti ?
Tempi di reazione (ad esempio su Google Forms), tempi di battitura al pc (ad esempio su GMail), grafia, informazioni personali presenti in ciascun elaborato (stile di scrittura, proprietà linguistica, ma anche proprio opinioni personali, dubbi, paure, traumi, che uno studente può confidare ad un insegnante che è pur sempre un punto di riferimento...) informazioni dettagliate sulle nozioni presentate a ciascuno studente, qualità del suo apprendimento, livelli redittuali deducibili da sistema operativo e device fornito dagli header, etc.. etc... E tutto ipotizzando che a nessun Prof venga la sciagurata idea di fare di nuovo una video chiamata con Google Meet, perché se no dovrei scrivere per ore anche solo per darti un'idea dei dati biometrici e delle possibili malattie, dei dettagli sulle attività dei familiari etc...
gli unici dati che vengono veicolati sono gli esercizi svolti (quindi neanche i voti) e se proprio una scuola o un docente vuole praticare l'anonimato totale basta intestare gli account a dei nomi di fantasia che solo i docenti della classe sanno a chi corrispondono
ah... se solo fosse davvero così semplice! Purtroppo non lo è: la pseudonimizzazione aiuta SOLO in presenza di proxy che tramite deep packet inspection eliminino TUTTI i dati personali prima che ogni pacchetto arrivi ai server Google. Altrimenti basta l'IP per corelare i dati raccolti da un certo studente con la sua identità. Comunque, con un proxy del genere installato su server europei e configurato per rimuovere TUTTI i dati personali (e non far passare dati cifrati non ispezionabili)... allora la pseudonimizzazione degli account può funzionare. Basta ruotare in modo randomico gli account stessi fra tutti gli studenti almeno una volta ogni 3 mesi. Ah e ovviamente se ad uno studente (minore) o ad un insegnante (lavoratore) scappa un nome o un cognome, devi informare i genitori del data leak e probabilmente anche il Garante. Giacomo
Il giorno lun 23 gen 2023 alle ore 22:33 Giacomo Tesio <giacomo@tesio.it> ha scritto:
On Mon, 23 Jan 2023 21:46:21 +0100 Paolo Del Romano wrote:
Purtroppo non lo è: la pseudonimizzazione aiuta SOLO in presenza di proxy che tramite deep packet inspection eliminino TUTTI i dati personali prima che ogni pacchetto arrivi ai server Google.
se lo studente individuato con lo pseudonimo mi deve consegnare il lavoro in un foglio di calcolo o di testo dove c'è lo svolgimento dell'esercizio non ci sono dati personali
Altrimenti basta l'IP per corelare i dati raccolti da un certo studente con la sua identità.
il lavoro si fa nei laboratori e lo studente ogni volta si siede a un pc diverso Paolo
On Tue, 24 Jan 2023 10:26:09 +0100 Paolo Del Romano wrote:
se lo studente individuato con lo pseudonimo mi deve consegnare il lavoro in un foglio di calcolo o di testo dove c'è lo svolgimento dell'esercizio non ci sono dati personali
Dipende ovviamente dall'esercizio, ma come minimo fra i dati personali trasferiti ci sono gli errori compiuti. Anche assumendo una pseudonimizzazione efficace, il Prof deve GARANTIRE tecnicamente che da tali errori non sia possibile identificare NESSUNO studente. Il che è effettivamente possibile: basta assicurarsi che nessuno studente compia alcun errore, ad esempio fornendogli le risposte corrette in anticipo. Altrimenti Google potrebbe usare alcuni errori per identificare gli studenti ed associargli con precisione le cose che sa e quelle che non sa, arricchendone il profilo cognitivo-comportamentale e raddoppiando l'efficacia delle manipolazioni applicabili con ogni nuovo bit acquisito. Per approfondire: https://www.cs.utexas.edu/~shmat/shmat_oak08netflix.pdf https://www.csee.umbc.edu/~kunliu1/p3dm08/proceedings/2.pdf Giacomo
Il giorno mar 24 gen 2023 alle ore 11:00 Giacomo Tesio <giacomo@tesio.it> ha scritto: On Tue, 24 Jan 2023 10:26:09 +0100 Paolo Del Romano wrote:
Altrimenti Google potrebbe usare alcuni errori per identificare gli studenti ed associargli con precisione le cose che sa e quelle che non sa, arricchendone il profilo cognitivo-comportamentale e raddoppiando l'efficacia delle manipolazioni applicabili con ogni nuovo bit acquisito.
ma gli studenti sono PIPPO, PLUTO, PAPERINO, .... e se si ritiene opportuno irrobustire l'anonimato .... ogni mese con la rotazione degli account ......a PIPPO corrisponde un alunno diverso....
On Tue, 24 Jan 2023 11:06:19 +0100 Paolo Del Romano wrote:
ma gli studenti sono PIPPO, PLUTO, PAPERINO, ....
e se si ritiene opportuno irrobustire l'anonimato .... ogni mese con la rotazione degli account ......a PIPPO corrisponde un alunno diverso....
Anzitutto, quella è pseudonimizzazione, non anonimato. E non è, di per sé, sufficiente. Supponiamo che il laboratorio venga prenotato/assegnato dalle classi tramite Google Calendar. Il giorno X dalle Y alle Z, è assegnato alla terza C. Google registra gli elaborati di ciascuno studente. Il Prof li scarica ed assegna i voti. Il giorno dopo lo studente contesta via email un determinato errore che ha compiuto solo lui. Google può associare tutta la verifica allo studente. Oppure considera uno studente particolarmente brillante che, unico della classe, fa sempre tutte le verifiche perfette. Google può identificarlo ed associare le nozioni acquisite al suo profilo cognitivo comportamentale Il Prof che proprio voglia usare Google Spreadsheet per una verifica (invece che un banale LibreOffice Calc, per dire) DEVE essere in grado di GARANTIRE che NESSUNO studente sia identificabile da Google. Pseudonimizzare gli elaborati e cambiare pseudonimi è condizione necessaria, ma non sufficiente. Usare device dedicati e connessioni dedicate (i computer del laboratorio dalla rete della scuola) è condizione necessaria, ma non sufficiente. Il Prof deve garantire che NESSUN dato sia deducibile dal contenuto dell'elaborato, che l'elaborato non possa essere usato come quasi-identifier (vedi link a mail precedente). Il che ripeto, non è impossibile. Basta assicurarsi che tutti gli elaborati siano uguali. Ad esempio tutti corretti, o tutti con gli stessi identici errori. Altrimenti il Prof sta cedendo dati personali degli studenti a Google. ATTENZIONE: NON ne risponde in prima persona, a meno che il DS non abbia espressamente vietato l'uso dei servizi di Google e bloccato i relativi IP a livello dns / firewall della scuola. Se il DS non ha vietato un certo trattamento all'interno della scuola, fatto formare i docenti e fatto il possibile per evitarlo, di tali trattamenti illeciti risponde sempre e comunque il DS. Tuttavia se lo ha fatto e il prof ha usato un qualche escamotage (ad esempio l'uso di Tor Browser e / o una VPN) per usare COMUNQUE proprio Google Spreadsheet, a quel punto credo che ne risponderebbe il Prof in prima persona. Giacomo
Con la massima umiltà, vorrei sottolineare che la privacy informatica è materia molto complessa, e l'anonimizzazione o la pseudonomizzazione dei dati un problema ancora in cerca di soluzione. Infatti le tecniche matematiche di deanonimizzazione e reidentificazione sono sempre un passo avanti. Sul tema, consiglierei di partire da una veloce lettura della paper fondamentale, quella di Paul Ohm del 2010. "Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization". https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1450006 Poi suggerisco che il tanto disprezzato deep learning, fornisce grandi possibilità di una reidentificazione completamente automatica. Mi fermo qui con le citazioni ed i suggerimenti, ma negli atti della conferenza PET si trova la summa di queste problematiche. Un cordiale saluto a tutti. Marco On mar, 2023-01-24 at 11:06 +0100, Paolo Del Romano wrote:
Il giorno mar 24 gen 2023 alle ore 11:00 Giacomo Tesio <giacomo@tesio.it> ha scritto:
On Tue, 24 Jan 2023 10:26:09 +0100 Paolo Del Romano wrote: Altrimenti Google potrebbe usare alcuni errori per identificare gli studenti ed associargli con precisione le cose che sa e quelle che non sa, arricchendone il profilo cognitivo-comportamentale e raddoppiando l'efficacia delle manipolazioni applicabili con ogni nuovo bit acquisito.
ma gli studenti sono PIPPO, PLUTO, PAPERINO, ....
e se si ritiene opportuno irrobustire l'anonimato .... ogni mese con la rotazione degli account ......a PIPPO corrisponde un alunno diverso....
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4331080 Veena Dubal, <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1780991> On Algorithmic Wage Discrimination Posted: 23 Jan 2023 Abstract Recent technological developments related to the extraction and processing of data have given rise to widespread concerns about a reduction of privacy in the workplace. For a growing number of low-income and subordinated racial minority work forces in the United States, however, on-the-job data collection and algorithmic decision-making systems are having a much more profound yet overlooked impact: these technologies are fundamentally altering the experience of labor and undermining the possibility of economic stability and mobility through work. Drawing on a multi-year, first-of-its-kind ethnographic study of organizing on-demand workers, this Article examines the historical rupture in wage calculation, coordination, and distribution arising from the logic of informational capitalism: the use of granular data to produce unpredictable, variable, and personalized hourly pay. Rooted in worker on-the-job experiences, I construct a novel framework to understand the ascent of digitalized variable pay practices, or the transferal of price discrimination from the consumer to the labor context, what I identify as algorithmic wage discrimination. Across firms, the opaque practices that constitute algorithmic wage discrimination raise central questions about the changing nature of work and its regulation under informational capitalism. Most centrally, what makes payment for labor in platform work fair? How does algorithmic wage discrimination change and affect the experience of work? And, considering these questions, how should the law intervene in this moment of rupture? To preface an assessment, Part I examines the rise of algorithmic wage discrimination and its historic legalization in California and Washington state as crucial occasions to understand how data from labor and algorithmic decision-making systems are changing wage practices in service and logistics sectors. The section also considers the extent to which these new laws comport with legal and cultural expectations about moral economies of work arising from and embedded in longstanding wage equalization statutes - namely, minimum wage and anti-discrimination laws. Part II uses findings and analysis from ethnographic research to assess how data from labor is used to produce algorithmic wage discrimination in ride-hail work and how workers subjectively experience and respond to the practice. I find that workers describe the variable payment structures as forms of gambling and trickery, and that these experiences, in turn, produce profoundly unsettling moral expectations about work and remuneration. Part III assesses both how workers’ groups have leveraged existing data privacy and business association laws to contest algorithmic wage discrimination and the limitations of these approaches. The Article concludes by proposing a non- waivable legal restriction on its practice, which will in turn also restrict harmful data extraction and deter firm fissuring practices.
BRONTOLARE? Hold my beer... ;-) https://edpb.europa.eu/system/files/2022-09/edpb_letter_out2022-0064_beucong... Giacomo PS: da un po' ho smesso di chiedermi perché le istituzioni preposte non facciano il proprio dovere. È un inutile fonte di frustrazione. Meglio FARE. Io, in prima persona. Noi informatici abbiamo un grande potere. Dobbiamo iniziare ad usarlo per liberare le persone. Non possiamo lasciare i GAFAM incontrastati nella loro opera di alienazione cibernetica di massa. Il 22 Gennaio 2023 11:42:50 UTC, "380°" <g380@biscuolo.net> ha scritto:
Buongiorno,
Giacomo Tesio <giacomo@tesio.it> writes:
[...]
Sì, ma Chat GPT è solo un giocattolo.
Leggetevi cosa ha prodotto Google con i dati sottratti a milioni di studenti durante la pandemia...
La chiamano "AUTO-PEDAGOGIA". https://blog.google/outreach-initiatives/education/introducing-practice-sets...
sì ma cosa diavolo aspettano dirigenti scolastici, funzionari dei provveditorati agli studi e garanti della privacy a BLOCCARE de jure **e** da facto questo delirio demenziale?!?
possibile che 'sta cosa sia completamente "lasciata a sè stessa" e l'unica cosa concessa è che persone come Giacomo et al possano BRONTOLARE?!?
avete La minima idea di dove porterà tutto questo?!?
pronto?!? c'è qualcuno in ascolto?!?
[...]
saluti, 380°
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
380°:
pronto?!? c'è qualcuno in ascolto?!?
Bisogna rivolgere un appello diretto a istituzioni, scuole, ordini professionali, ecc. per NON USARE questi sistemi di IA generativa. Bisogna spiegare non solo i rischi concreti e immediati, ma anche quelli a lungo termine che derivano dallo scardinamento del principio di responsabilità che, fino ad oggi, ha informato qualsiasi enunciato. Siamo veramente davanti a qualcosa di incalcolabile, bisogna agire. G. On Sun, 22 Jan 2023 at 18:22, Giacomo Tesio <giacomo@tesio.it> wrote:
BRONTOLARE?
Hold my beer... ;-)
https://edpb.europa.eu/system/files/2022-09/edpb_letter_out2022-0064_beucong...
Giacomo PS: da un po' ho smesso di chiedermi perché le istituzioni preposte non facciano il proprio dovere.
È un inutile fonte di frustrazione.
Meglio FARE. Io, in prima persona.
Noi informatici abbiamo un grande potere. Dobbiamo iniziare ad usarlo per liberare le persone. Non possiamo lasciare i GAFAM incontrastati nella loro opera di alienazione cibernetica di massa.
Il 22 Gennaio 2023 11:42:50 UTC, "380°" <g380@biscuolo.net> ha scritto:
Buongiorno,
Giacomo Tesio <giacomo@tesio.it> writes:
[...]
Sì, ma Chat GPT è solo un giocattolo.
Leggetevi cosa ha prodotto Google con i dati sottratti a milioni di studenti durante la pandemia...
La chiamano "AUTO-PEDAGOGIA". https://blog.google/outreach-initiatives/education/introducing-practice-sets...
sì ma cosa diavolo aspettano dirigenti scolastici, funzionari dei provveditorati agli studi e garanti della privacy a BLOCCARE de jure **e** da facto questo delirio demenziale?!?
possibile che 'sta cosa sia completamente "lasciata a sè stessa" e l'unica cosa concessa è che persone come Giacomo et al possano BRONTOLARE?!?
avete La minima idea di dove porterà tutto questo?!?
pronto?!? c'è qualcuno in ascolto?!?
[...]
saluti, 380°
_______________________________________________
nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
participants (14)
-
380° -
Alessandro Brolpito -
Andrea Surbone -
Antonio -
Benedetto Ponti -
Damiano Verzulli -
Daniela Tafani -
Enrico Nardelli -
Giacomo Tesio -
Guido Vetere -
Marco A. Calamari -
Maria Chiara Pievatolo -
maurizio lana -
Paolo Del Romano