Understanding Artificial Neural Networks: Mysterianism about Known Mechanism is Mysticism
Una demistificazione della tesi per cui le reti neurali artificiali sarebbero scatole nere. Understanding Artificial Neural Networks: Mysterianism about Known Mechanism is Mysticism Guest, Olivia - Nuñez Hernández, Nancy Abigail - Blokpoel, Mark May 7, 2026 Abstract Mysterianism is the idea that human cognition, mind, cannot be understood. Taking this concept and applying it to known mechanism — such that claims are made that we do not know how engineered systems, such as artificial neural networks (ANNs), work, or that they constitute black boxes that we can only open with difficulty — is inappropriate at best and malicious at worst. We do know the mechanistic structure of such models because we designed and built them. We also do know their functional role (what they are for) as well as the mathematical function they are asked to approximate (map inputs to target outputs). Because mysterianist beliefs about known systems, such as ANNs, are often expressed, scientists need to sit up and take notice. We provide an error theory as to what is going on to help unpick this metatheoretical blunder. Ultimately, the problem is that 'understanding' is not a technical term in these cases: the word is co-opted for a specific narrative to sell 'artificial intelligence' through mystification. All computational systems, from pendulums to databases, will behave in ways we cannot predict or control — this is not a unique property of ANNs — and experts do indeed grasp the computational properties of these systems nonetheless. https://zenodo.org/records/20071869
Understanding Artificial Neural Networks: Mysterianism about Known Mechanism is Mysticism Guest, Olivia - Nuñez Hernández, Nancy Abigail - Blokpoel, Mark May 7, 2026
Scusa Daniela ma questo articolo non mi convince del tutto. Il termine da usare non è "comprensione", certo che è comprensibile una rete neurale, è il risultato di formule matematiche. Riesegui le formule e otterrai lo stesso risultato, nessun "mistero", nessuna black box. Giacomo in passato ha parlato in questa lista dei "trucchi" usati per far rispondere ai GPT sempre in modo diverso, anche con le stesse domande. Il termine da utilizzare, semmai, è "riproducibilità". Le reti neurali (ovviamente non quelle minimali ad uso didattico) sono riproducibili nel proprio computer, in quello dell'azienda in cui si lavora o nell'università in cui si studia/insegna? La risposta è NO (forse, un giorno, con i computer quantistici potremo riprodurre a casa, in tempi ragionevoli, il primo chatgpt). "More data is what changed — that is “what's new” — from nine thousand data points in 1988 to ImageNet’s 14 million in 2018 (Cardon et al. 2018) to essentially the totality of internet-accessible human data in 2025" No, non è una questione di numerosità di data points, 9000, 14 milioni o miliardi. Per un software di database cercare in una tabella di 14 milioni o miliardi di record è un attimo, nelle reti neurali, quei 14 milioni (o miliardi) sono il risultato di miliardi di miliardi di operazioni matematiche, sta proprio lì l'irriproducibilità. Questo nanoLLaMA [1] che ho scritto tre anni fa, ha "solo" 260000 data points, per ottenere i quali il computer ha dovuto effettuare milioni di calcoli, e anche l'inferenza, non è una "semplice" ricerca in un database ma l'esecuzione di migliaia di moltiplicazioni di matrici. E stiamo parlando del nulla, di un esempio didattico. "All computational systems, from pendulums to databases, will behave in ways we cannot predict or control — this is not a unique property of ANNs — and experts do indeed grasp the computational properties of these systems nonetheless." No Il pendolo è comprensibile e riproducibile Il database è comprensibile e riproducibile L'ANN gigantesca è comprensibile e NON riproducibile A. [1] https://github.com/opensignature/stories
Buongiorno Daniela, ti chiedo una cortesia... On 2026-05-09, Daniela Tafani via nexa wrote:
Una demistificazione della tesi per cui le reti neurali artificiali sarebbero scatole nere.
Understanding Artificial Neural Networks: Mysterianism about Known Mechanism is Mysticism Guest, Olivia - Nuñez Hernández, Nancy Abigail - Blokpoel, Mark May 7, 2026
ho letto l'abstract, nel PDF non sono riuscito a trovare le "conclusions" e faccio davvero troppa fatica a leggere la prosa che usano: riusciresti per favore a riassumere perché gli autori ritengono che le ANN non siano delle black box? Grazie, 380° [...] -- 380° (lost in /traslation/) «Welcome to the chaos of the times If you go left and I go right Pray we make it out alive This is Karmageddon»
Caro 380°, l'articolo si occupa di reti neurali artificiali (ANN), così definite: "ANN is an umbrella term for models of the data or of cognition that involve matrix multiplications followed by squashing functions" La tesi a cui mi riferivo è molto semplice (traduco liberamente o parafraso di seguito alcuni passi dell'articolo): non è vero che non comprendiamo come funzioni una rete neurale artificiale, si tratta di equazioni e meccanismi conosciuti o conoscibili. Quello che non conosciamo sono i dati (e il mondo). Nessun modello statistico inferenziale, dalla regressione logistica alle ANN, per il solo fatto di essere applicato ai dati, fornisce spiegazioni. Una spiegazione scientifica di un set di dati è il prodotto di qualcosa di più di un semplice modello adattato ai dati. In senso scientifico — dove siamo alla ricerca di una teoria — la mera applicazione di un modello statistico non è né più né meno esplicativa dei dati stessi. Fornisce una visione dei dati, ad esempio su come le diverse variabili si relazionano tra loro e se tali relazioni sono statisticamente significative, ma non rivela nulla che non sapessimo o almeno sospettassimo prima. Ed è proprio questo lo scopo della statistica: confermare o meno un'ipotesi che potremmo avere sul set di dati. Le teorie sono una questione completamente diversa. Sono i dati a far sì che una rete neurale artificiale (ANN), proprio come qualsiasi modello statistico, funzioni per un determinato caso d'uso. Ciò che non comprendiamo sono i dati e i processi che, nel mondo, generano quei dati. In altre parole, non comprendiamo la realtà e i suoi riflessi e le sue distorsioni nei set di dati. Ciò che non comprendiamo e da cui l’IA contemporanea basata sulle ANN dipende è il set di dati (e i fenomeni che sospettiamo generino quei dati). E quindi possiamo e dobbiamo ammettere che applicare un test statistico, che si tratti di una singola regressione logistica o di un miliardo, a un set di dati non porterà mai alla comprensione del set di dati e del mondo. Solo la scienza può farlo. ________________________________ Da: 380° Inviato: Mercoledì, 13 Maggio, 2026 14:35 A: Daniela Tafani; nexa@server-nexa.polito.it Oggetto: Re: [nexa] Understanding Artificial Neural Networks: Mysterianism about Known Mechanism is Mysticism Buongiorno Daniela, ti chiedo una cortesia... On 2026-05-09, Daniela Tafani via nexa wrote:
Una demistificazione della tesi per cui le reti neurali artificiali sarebbero scatole nere.
Understanding Artificial Neural Networks: Mysterianism about Known Mechanism is Mysticism Guest, Olivia - Nuñez Hernández, Nancy Abigail - Blokpoel, Mark May 7, 2026
ho letto l'abstract, nel PDF non sono riuscito a trovare le "conclusions" e faccio davvero troppa fatica a leggere la prosa che usano: riusciresti per favore a riassumere perché gli autori ritengono che le ANN non siano delle black box? Grazie, 380° [...] -- 380° (lost in /traslation/) «Welcome to the chaos of the times If you go left and I go right Pray we make it out alive This is Karmageddon»
participants (3)
-
380° -
antonio -
Daniela Tafani