A una domanda fattuale come nell’esempio non c’è modo di “sovvertire le credenze dell’insegnante”: o sai la risposta o non la sai. Quanto a “individuare le lacune nella disciplina”, i LLM sono maestri a inventarsi nuove risposte dove non ce ne sono. Lo fanno anche in modo molto credibile per gli umani: il problema è distinguere quali sono quelle valide o quanto meno interessanti. — Beppe
On 17 Feb 2023, at 18:46, Giacomo Tesio <giacomo@tesio.it> wrote:
On Fri, 17 Feb 2023 12:43:32 +0100 Giuseppe Attardi wrote:
Quindi un sistema generativo come ChatGPT, genera risposte su ciò che non sa inventandosele. Inutile insistere, come cercare una risposta da uno studente che non ha studiato.
No.
Lo studente che non ha studiato può far leva sulla propria intelligenza per sovvertire le credenze dell'insegnante che lo interroga persino individuare lacune nella disciplina su cui viene interrogato.
Per ChatGPT questo è impossibile.
E' più simile ad uno studente che sia stato addestrato esclusivamente a ripetere il libro di testo a memoria, senza comprendere nulla di ciò che c'è scritto.
Non risponderà sbagliato più di quanto non risponderà giusto. Tutto sta in quanto sia disattento il Prof durante l'interrogazione.
Giacomo