black box in ricerche astronomiche
... ... ... «Le reti neurali artificiali spesso vengono definite “*black box*” perché è difficile capire cosa avviene al loro interno: sappiamo cosa entra e cosa esce, ma non sempre riusciamo a interpretare come si arriva a certe conclusioni. Nel nostro caso, però, non è proprio così. Analizzando lo spazio latente – cioè le rappresentazioni interne che la rete costruisce per interpretare i dati – siamo riusciti a individuare una struttura ben precisa, che riflette alcune proprietà fisiche delle galassie, incluse alcune mai mostrate al modello durante l’addestramento. Un esempio? La rete distingue spontaneamente tra galassie passive ed attive, una caratteristica che non era parte del processo di apprendimento. È come se la rete avesse imparato da sola a identificare nuovi pattern e simmetrie nei dati, suggerendo informazioni emergenti. Questo non solo rende la *pipeline* più interpretabile, ma apre anche la strada a nuove scoperte». ... ... ... https://www.media.inaf.it/2024/12/17/m-topnet-ginolfi/ Nessuno ha definito l'intelligenza, ma quasi ogni giorno veniamo a conoscenza di "operazioni mentali" che non sono più nostra esclusiva come ritenevamo. Cordiali auguri. Duccio (Alessandro Marzocchi)
Ciao Alessandro, grazie della segnalazione. Aspetto di leggere l'articolo scientifico vero e proprio, per capire come abbiano analizzato lo "spazio latente" [1] ma mi sembra evidente che se questi ricercatori smettessero di pensare in termini AI e studiassero il software che hanno programmato statisticamente come una forma compressa (con perdita) dei dati utilizzati durante il processo, otterrebbero risultati migliori (ma forse, meno finanziamenti). Ad esempio la distinzione fra galassie passive ed attive ha molte possibili spiegazioni anche in assenza di qualsiasi intelligenza: la prima fra tutte, i dati (sintetici, se ho capito bene) potrebbero contenere variabili fortemente correlate alla distinzione. Ti faccio un esempio terra terra: se programmo una vector mapping machine per prevedere il bmi degli islandesi fra i 20 e i 40 anni sulla base della marca e della taglie degli indumenti che hanno indossato in un anno, è probabile che la vmm in qualche layer interno finisca per trattare in modo diverso gli esempi che hanno indossato un reggiseno da quelli che non l'hanno indossato. Un ricercatore ottenebrato dalla propaganda della AI ti direbbe che la rete neurale ha imparato a distinguere abbastanza bene maschi e femmine anche se il sesso non era presente nei dati di addestramento. Un ricercatore lucido ti spiegherebbe che il bmi dipende da peso e altezza di un individuo, i quali, all'interno di una certa etnia, correlano fortemente con il sesso a parità di altre taglie. Al contempo, l'uso del reggiseno, fra i 20 e i 40, è un forte predittore del sesso di un individuo, per cui è in forte correlazione con i bmi probabili per ciascuna taglia. Ciò non toglierebbe nulla all'utilità pratica della ricerca, soprattutto se permette di individuare questo tipo di classificazioni interne operate dai layer nascosti di una vector mapping machine (aka "rete neurale arificiale") generica. Ma rende un po' imbarazzanti certe affermazioni nell'intervista, come il paragone fra il processo di programmazione statistica e un corso di cucina. Tuttavia, aspettando di leggere l'articolo, ti ricordo che l'intelligenza sta negli occhi di chi guarda [2] Giacomo [1] <https://www.baeldung.com/cs/dl-latent-space> [2] <https://www.tesio.it/2018/01/19/the-delusions-of-neural-networks.html>
participants (2)
-
alessandro marzocchi -
Giacomo Tesio