Interessante osservare quanto sia persistente la percezione che i sistemi basati sui Large Language Model "sappiano" qualcosa, e come ci si stupisca e ci si interroghi sugli strani errori che commettono, ad onta della razionale consapevolezza che essi non "sappiano" far altro che generare su basi raffinatamente statistiche la continuazione di una frase.
Strano leggere sui social commenti del tipo: 'beh, in fondo anche Socrate sapeva di non sapere'.
E' come se la potenza persuasiva dei monopolisti digitali fosse tale da scardinare le nozioni basilari del nostro senso comune.
Il capitalismo monopolista è entrato in una fase allucinatoria, questo non l'aveva previsto neanche il filosofo di Treviri.
G.