Oggi ho avuto un'altra brutta sorpresa da ChatGPT e GPT-3 che vi segnalo: ha inventato riferimenti bibliografici a libri e articoli inesistenti, combinando autori, titolo, anno, rivista, editore a caso non corretti, a volte inesistenti.
Non riporto i dialoghi, che ho salvato.
All'inizio mi hanno fatto ridere, sembravano le risposte di un simpatico cialtrone... ( - "Puoi indicarmi dei riferimenti a libri e articoli scientifici che parlano del tema XX?" - "Certamente! Bla bla bla"). Ho scritto a GPT che si sbagliava, si è scusato più volte e mi ha proposto altri riferimenti a libri e articoli, alcuni corretti, alcuni inesistenti. Ho provato in italiano e inglese, stesso comportamento.
Ho lasciato perdere.
Questo tipo di errore non me l'aspettavo, perché non è molto difficile controllare la correttezza (o perlomeno l'esistenza) dei riferimenti bibliografici. Evidentemente non era tra le priorità di OpenAI finora, non avranno ancora integrato banche dati bibliografiche?
Buona serata,
AB