Ciao Giacomo!
Da un punto di vista giuridico, sostenere che la vector mapping machine (aka "rete neurale artificiale") sia imprevedibile perché autonoma e che quindi chi la realizza ed esegue non va considerato responsabile del suo output, si rivela per la menzogna che era.
L'output di un LLM o di qualsiasi altro software, basato su "reti neurali artificiali" o meno, è deterministico a meno di bug assolutamente correggibili. Dunque chi lo pubblica su un sito web (come https://chatgpt.com/ https://gemini.google.com/ ) o lo fornisce a terze parti, ne deve rispondere come per qualsiasi altro software rilasciato con bug noti al produttore.
Se è possibile rendere perfettamente deterministico il LLM, allora non renderlo deterministico è una scelta di opacità cui si deve tener conto nella valutazione della pericolosità del modello. In altri termini, se possiamo riprodurre il processo di compilazione del modello (impropriamente detto "training") a partire dai dati sorgente, possiamo verificare che effettivamente il fornitore ha fatto tutto il possibile per evitare, ad esempio, di diffamare qualcuno. O che non ha usato dati di cui non disponeva dei diritti. O che non ha introdotto dati fittizzi per danneggiare un gruppo etnico o una nazione avversaria.
Per contro, se il produttore di un LLM ha scelto di rendere opaco il proprio prodotto, si potrà ritenere quel prodotto ad alto rischio, perché non è possibile escludere backdoor non identificabili ex-post (vedi [1] e il più recente [2])
Il che ovviamente è il maggiore contributo tecnico dell'articolo:
Non avevo realizzato immediatamente questo risvolto legale. In effetti questo è un effetto molto rilevante.
Eddai, la Open Washing Initiative di Maffulli ha fatto un ottimo lavoro!
As usual. D'altronde alcune dinamiche erano chiare fin dal remoto 2001. Per quanto mi dispiaccia l'open source ha provato di essere peggio del software proprietario. Stef