Ciao Fabio, scusa il delay... ma ho potuto leggere l'articolo solo ora. On Wed, 3 Jul 2024 16:12:14 +0200 Fabio Alemagna <falemagn@gmail.com> wrote:
Il giorno mer 3 lug 2024 alle ore 14:55 Giacomo Tesio <giacomo@tesio.it> ha scritto:
ROTFL! :-D
Il giorno Wed, 3 Jul 2024 14:29:07 Guido Vetere ha scritto:
un algoritmo che fa uso di numeri casuali è generalmente considerato non deterministico, full stop
I vari GPT* sono non-deterministici: https://152334h.github.io/blog/non-determinism-in-gpt-4/
Beh... l'autore cita in proposito gli sviluppatori di Open AI: ``` We think there might be some bug in our systems, or some non-determinism in optimized floating point calculations... ``` "Qualche bug" :-D [1] Non nego che va apprezzato il progresso: solo un anno fa avrebbero sicuramente pubblicato da qualche parte un paper blaterando di scintille di senso critico, dubbio o altre sciocchezze... Ricorderai https://arxiv.org/abs/2303.12712 che qualcuno ancora si beve. Fortunatamente il primo commento all'articolo svela il mistero: https://github.com/openai/summarize-from-feedback/blob/master/summarize_from... Il codice aggiunge sempre 1e-7 alla "temperatura", rendendo impossibile eseguire Chat GPT in modo palesemente deterministico. Perché? Per evitare un if? O per ingannare gli utenti sulla natura di Chat GPT? A posteri l'ardua sentenza... ;-) Giacomo [1] anche le inconsistenze fra operazioni float ottimizzate in modo diverso su macchine diverse sono bug del processo di build. Una buona sintesi con diversi riferimenti per approfondire la questione si trova qui: https://gafferongames.com/post/floating_point_determinism/