I Language model sono notoriamente dissociati (Mahowald et al, 2023, Dissociating language and thought in large language models,
https://arxiv.org/abs/2301.06627) e in difficoltà con i conteggi. Fino a qualche tempo fa sbagliavano perfino a contare le occorrenze di una lettera in una frase, figuriamoci le parole nelle canzoni di Jovanotti. Questo accade perché, come ormai sappiamo tutti, la loro capacità di base è quella di predire il prossimo token, il resto viene dalle successive 'istruzioni'. Non ho dubbi che sistemi capaci di 'ragionare' (so to say) su ampi contesti saranno istruiti a fare quello che si faceva cinquant'anni fa con i primi lemmatizzatori (il lessico di frequenza di De Mauro è fatto con IBM a Pisa negli anni '70).
Questo significa che un giorno li potremo considerare 'oracoli'? Certo che no. Tuttavia, per citare un aneddoto personale, senza GPT4 ieri non me la sarei cavata facilmente con un problema di configurazione del mio laptop. Né avrei avuto tempo e voglia di andare a compulsare manuali. Che mi importa se non sa contare le parole di Jovanotti? (lo capisco pure, eh, che palle!)
Morale: dovremo imparare a usare questi sistemi in modo tattico e con le dovute cautele. La sfida portata dall'IA generativa è epistemica, più che etica.
G.