Buongiorno,
Premesso che concordo al 100% sulle definizioni che avete dato (io non avrei saputo fare di meglio di sicuro).
Su questo l’articolo, con tutti i suoi limiti (in primis il titolo, orribile!), chiarisce bene nella prefazione che “ChatGPT ci dimostra che l’IA è in grado di fornire indicazioni sulla base di una domanda, restituendo un quadro coerente, ma è privo della capacità di contestualizzazione quindi non ci fornisce un testo che apra prospettive che non siano puramente descrittive. Questo sa farlo solo l’uomo, se conosce la testologia semiotica”
Ma propongo una cosa: proviamo a muovere la discussione da una sfida “macchina vs uomo” a queste domanda: può l’uso di tool come Chat Gbt aiutare insegnanti e studenti ad avere un’esperienza di apprendimento migliore (dinamiche, coinvolgimento ecc.) o migliorare i risultati di apprendimento (ad es. pensiero critico) in classe (virtuale o reale o ibrida che sia)?
Penso che il lavoro dell’accademico Jànos S.Petöfi, citato nell’articolo, offre degli spunti molto interessanti per rispondere a questa domanda.
Penso che un insegnante potrebbe applicare concetti quali “apprendimento basato su domande e ricerca”, “attivazione degli studenti”, “aula capovolta” ecc., attraverso l’uso di Chat Gbt, proprio per i LIMITI di questo strumenti, che dovranno essere scovati dagli stessi studenti attraverso una esperienza soggettiva diretta ed applicata, in un ambiente competente garantito dalla scuola e dal loro insegnante che modera e fa domande dirette agli studenti per far scoprire, da loro, i limiti oggettivi delle risposte fornite.
Penso che sia utile spiegare cosa sia l’AI in modo semplice e chiaro, usando le vs. parole.
Penso che una lezione preparata attorno all’uso di Chat Gbt richieda insegnanti molto preparati sia in termini di competenze digitali e di pedagogia (e ce ne sono).
E certamente non penso, anzi lo contesto con tutti i miei mezzi, ogni idea di sostituire insegnati con questi tool, soprattutto nella fase iniziale del percorso educativo.
Alessandro
On Sat, 21 Jan 2023 01:34:31 +0100 Giacomo Tesio wrote:
> > chatGPT produce testo 'finito' combinando chunks testuali del cui
> > significato non sa nulla, in modo statisticamente coerente con l'uso
> > di questi chunks nei testi da cui ha appreso.
>
> Credo che non avrei saputo dirlo meglio.
Mi correggo: posso.
```
chatGPT produce testo 'finito' combinando chunks testuali del cui
significato non sa nulla, in modo statisticamente coerente con l'uso
di questi chunks nei testi con cui è stato programmato.
```
I software NON apprendono.
La programmazione statistica NON è apprendimento.
L'apprendimento è una esperienza umana.
Non va proiettata sulle macchine, pena l'alienazione cibernetica,
la riduzione ad ingranaggi nelle mani di chi controlla quelle macchine.
L'informazione è un esperienza soggettiva di pensiero comunicabile,
per cui il linguaggio utilizzato determina lo spazio delle
interpretazioni possibili della realtà per ciascuna mente umana.
Per questo le parole sono importanti...
Giacomo
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa