L'articolo è rilevante da vari punti di vista, anche l'aspetto economico. La nuova azienda di Mira Murati ha già raccolto parecchi miliardi di finanziamenti. 

AB

On Mon, Sep 15, 2025 at 12:40 PM Giacomo Tesio <giacomo@tesio.it> wrote:
Ciao Stefano

On Sun, 14 Sep 2025 14:27:56 +0000 Stefano Borroni Barale wrote:

> mi sembra che si stia facendo un po' troppo rumore per nulla. O quasi.
>
> Se anche riuscissero a produrre un LLM che a temperatura 0 ritorna ad
> essere deterministico [...]

Ci sono riusciti, appunto. L'articolo spiega come hanno fatto.


Comunque, sebbene da un punto di vista teorico abbiano "scoperto l'acqua
calda", l'articolo è rilevante da un punto di vista tecnico e giuridico.


Da un punto di vista giuridico, sostenere che la vector mapping machine
(aka "rete neurale artificiale") sia imprevedibile perché autonoma e
che quindi chi la realizza ed esegue non va considerato responsabile
del suo output, si rivela per la menzogna che era.

L'output di un LLM o di qualsiasi altro software, basato su "reti
neurali artificiali" o meno, è deterministico a meno di bug
assolutamente correggibili.
Dunque chi lo pubblica su un sito web (come https://chatgpt.com/
https://gemini.google.com/ ) o lo fornisce a terze parti, ne deve
rispondere come per qualsiasi altro software rilasciato con bug
noti al produttore.


Se è _possibile_ rendere perfettamente deterministico il LLM, allora
_non_ renderlo deterministico è una scelta di opacità cui si deve
tener conto nella valutazione della pericolosità del modello.
In altri termini, se possiamo riprodurre il processo di compilazione
del modello (impropriamente detto "training") a partire dai dati
sorgente, possiamo verificare che effettivamente il fornitore ha fatto
tutto il possibile per evitare, ad esempio, di diffamare qualcuno.
O che non ha usato dati di cui non disponeva dei diritti.
O che non ha introdotto dati fittizzi per danneggiare un gruppo etnico
o una nazione avversaria.

Per contro, se il produttore di un LLM ha _scelto_ di rendere opaco il
proprio prodotto, si potrà ritenere quel prodotto ad alto rischio,
perché non è possibile escludere backdoor non identificabili ex-post
(vedi [1] e il più recente [2])

Il che ovviamente è il maggiore contributo tecnico dell'articolo: se
possiamo verificare che il binario prodotto dal training corrisponde
esattamente al sorgente, possiamo verificare che il sorgente non
contenga backdoor, garantendo un livello minimo di sicurezza del
"modello".


> Sarebbe forse interessante dal punto di vista della "explainable Ai"

Beh di certo la disponibilità completa dei dati sorgente, la
riproducibilità del processo di compilazione ("training") e output
("inferenze") deterministici, sono condizioni necessarie per spiegare
il comportamento di quel tipo di software.

A "temperatura 0" potremo spiegare come una determinata sequenza di
token è stata prodotta a partire dal prompt, dai testi sorgente, dai
seed pseudocasuali etc, e potremo ritenere responsabile il produttore
per il significato _apparente_ dell'output, in quanto interamente
determinato dalle sue scelte.

Ma le informazioni veicolate da quel output continueranno a ridursi a
tali scelte: l'atto comunicativo del produttore inizia con la
produzione del "modello" e del software di contorno e finisce con
l'output inviato all'utente in risposta al suo prompt.


D'altrone è ovvio: i LLM sono solo software ottimizzato per ingannare
chi non ne comprende il funzionamento, ma non hanno né intelligenza né
capacità o intenzionalità comunicativa.


> quello che per OSI è LLM open source io non riesco a distinguerlo
> da quello che da giovani chiamavamo "freeware"

Eddai, la Open Washing Initiative di Maffulli ha fatto un ottimo lavoro!
La differenza sta tutta nella confezione! ;-)


Grazie all'OSI ora il freeware è open source!

Infatti, secondo la OSAID qualsiasi BINARIO che sia rilasciato con una
licenza OSI compliant è open source se è opensource il compilatore
utilizzato per produrlo e fornisci una descrizione del sorgente.


Per gli utenti e gli sviluppatori non c'è alcuna differenza fra
freeware e OSAID, ma per le BigTech quella definizione è una linea di
difesa contro i pochi obblighi imposti alle aziende dall'AI Act.



Giacomo


[1]
https://ieee-focs.org/FOCS-2022-Papers/pdfs/FOCS2022-4Bu7jGV9xIcveUWYj3oWoi/551900a931/551900a931.pdf

[2]
https://www.cs.ru.nl/masters-theses/2025/T_van_Harskamp___Implementing_undetectable_backdoor_attacks_in_AI_models.pdf