... ... ... «Le reti neurali artificiali spesso vengono definite “black box”
perché è difficile capire cosa avviene al loro interno: sappiamo cosa
entra e cosa esce, ma non sempre riusciamo a interpretare come si arriva
a certe conclusioni. Nel nostro caso, però, non è proprio così.
Analizzando lo spazio latente – cioè le rappresentazioni interne che la
rete costruisce per interpretare i dati – siamo riusciti a individuare
una struttura ben precisa, che riflette alcune proprietà fisiche delle
galassie, incluse alcune mai mostrate al modello durante
l’addestramento. Un esempio? La rete distingue spontaneamente tra
galassie passive ed attive, una caratteristica che non era parte del
processo di apprendimento. È come se la rete avesse imparato da sola a
identificare nuovi pattern e simmetrie nei dati, suggerendo informazioni
emergenti. Questo non solo rende la pipeline più interpretabile, ma apre anche la strada a nuove scoperte». ... ... ...
Nessuno ha definito l'intelligenza, ma quasi ogni giorno veniamo a conoscenza di "operazioni mentali" che non sono più nostra esclusiva come ritenevamo.
Cordiali auguri.