On dom, 2023-02-19 at 19:51 +0100, Andrea Bolioli via nexa wrote:
Oggi ho avuto un'altra brutta sorpresa da ChatGPT e GPT-3 che vi segnalo: ha inventato riferimenti bibliografici a libri e articoli inesistenti, combinando autori, titolo, anno, rivista, editore a caso non corretti, a volte inesistenti.
Non riporto i dialoghi, che ho salvato.Â
All'inizio mi hanno fatto ridere, sembravano le risposte di un simpatico cialtrone... ( - "Puoi indicarmi dei riferimenti a libri e articoli scientifici che parlano del tema XX?" - "Certamente! Bla bla bla"). Ho scritto a GPT che si sbagliava, si è scusato più volte e mi ha proposto altri riferimenti a libri e articoli, alcuni corretti, alcuni inesistenti. Ho provato in italiano e inglese, stesso comportamento.
Ho lasciato perdere.
Questo tipo di errore non me l'aspettavo, perché non è molto difficile controllare la correttezza (o perlomeno l'esistenza) dei riferimenti bibliografici. Evidentemente non era tra le priorità di OpenAI finora, non avranno ancora integrato banche dati bibliografiche?
C'è un problema di fondo.Â
Quello di ritenere che, avendo fornito della conoscenza, dei fatti, ad una IA generativa, questa conoscenza esista ancora al suo interno.
Non è cosi.
E' stata digerita, bruciata, e sono rimaste delle nuvole di coefficienti statistici.
Non c'è nessun motivo per cui la risposta giusta debba riapparire se fai la domanda giusta.
GPT-3 non funziona così. Non immagazzina conoscenza, ma si perfeziona nell'abilità di mettere in fila le parole. Solo quello.
Ed invece, prima o poi, ce lo dimentichiamo.
JM2EC. Â Marco