Buongiorno, Stefano,
Da: Stefano Quintarelli <stefano@quintarelli.it> anche OpenAI: "We use the term “hallucinations,” though we recognize ways this framing may suggest anthropomorphization, which in turn can lead to harms or incorrect mental models of how the model learns."
Già. Nel frattempo, però, il CEO della medesima, su Twitter, assimilava per deumanizzazione gli LLM alle persone: "i'm a stochastic parrot, and so r u". Qualche descrizione onesta si trova in genere nei rapporti tecnici di incidente. Quello di OpenAI del 21 febbraio 2024, ad esempio: "LLMs generate responses by randomly sampling words based in part on probabilities. Their “language” consists of numbers that map to tokens." <https://status.openai.com/incidents/ssg8fh7sfyz3> Se qualcuno credesse seriamente che questo sia ciò faccio quando parlo, preferirei stargli alla larga. Nel rapportarsi alle persone come se fossero solo cose sta infatti la radice della crudeltà (oltre che Kant, cfr. Simon Baron Cohen, La scienza del male. L'empatia e le origini della crudeltà, Raffaello Cortina Editore, 2012). Un saluto, Daniela On 21/12/24 10:40, Daniela Tafani wrote:
Buongiorno,
gli esseri umani NON apprendono come le macchine che siamo in grado di costruire oggi.
Solo un preliminare e inconsapevole processo di antropomorfizzazione della macchina e deumanizzazione della persona induce a scambiare metafore e similitudini per reali somiglianze. Possiamo, ad esempio, anche chiamare "memoria" la nostra e quella di una macchina, ma sono del tutto eterogenee. Rinvio, su questo, a Giuseppe Longo, Uomini e macchine: come riconoscere una caricatura, in Idem, Matematica e senso. Per non divenire macchine, Milano-Udine, Mimesis, 2021 pp. 11-28.; la versione originale francese è disponibile qui: <https://www.di.ens.fr/users/longo/files/ReconnaitreCaricature.pdf>
Sulla questione in un senso più ampio, Van Rooij, I., Blokpoel, M., Kwisthout, J., Wareham, T. (2019). Intractability and Cognition: A guide to classical and parameterized complexity analysis. Cambridge: Cambridge University Press.
e anche il classico Joseph Weizenbaum, Computer Power and Human Reason. From Judgement to Calculation, San Francisco, W.H. Freeman & Company, 1976, https://archive.org/details/computerpowerhum0000weiz_v0i3; trad.it. Il potere del computer e la ragione umana. I limiti dell’intelligenza artificiale, a cura di F. Tibone, Torino, Edizioni Gruppo Abele, 1987.
Un saluto, Daniela ________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Alessandro Brolpito <abrolpito@gmail.com> Inviato: sabato 21 dicembre 2024 09:53 A: alessandro marzocchi Cc: nexa Oggetto: Re: [nexa] black box in ricerche astronomiche
Buongiorno Duccio e Giacomo, Nexa
In fondo mi pongo spesso la stessa domanda, qual è la differenza tra un uomo e un elaboratore nell'apprendere?
Senza entrare in tecnicismi (non sono in grado), faccio fatica a vederli: alla fine ciò che sappiamo e siamo dipende da chi abbiamo incontrato, letto, interpretato con il nostro bagaglio. Ci esprimiamo, ad esempio per iscritto, mettendo, una dopo l'altra delle parole, come sto facendo ora, al meglio delle mie possibilità e dello strumento (il piccolo schermo del mio smartphone - perdonate eventuali refusi). Un processo limitato dai miei pregiudizi e da quello che non so.
L'unica grande differenza che vedo é che nell'uomo l'apprendimento avviene attraverso una emozione, occhi negli occhi.
Ed un elaboratore?
Naturalmente vedo tutti i rischi che Daniela e Giacomo evidenziano, sapere é potere. Ma quella é una questione più politica, che le organizzazione umane, simili alle ns società, potranno regolamentare, rimango fiducioso.
Cordiali saluti e auguri di buone feste, Alessandro
Il Ven 20 Dic 2024, 11:09 alessandro marzocchi <alemarzoc@gmail.com<mailto:alemarzoc@gmail.com>> ha scritto: Ciao Giacomo, sono d'accordo: l'intelligenza sta negli occhi di chi guarda. Domando: come nasce e si evolve l'intelligenza negli occhi di chi guarda? Educhi le figlie ed insegni alle macchine. L'etimologia di educare racconta l'azione di condurre fuori, quella di insegnare racconta l'azione di imprimere un segno, mi sono fatto l'idea che la differenza fra noi umani e macchine sta qui, ma non ho competenze né esperienze di programmazione. Continuo ad avere dubbi che 'ste macchine siano così diverse da noi, certamente lo sono ma, domando, i nostri modi di apprendimento, di formare la nostra intelligenza sono tanto diversi da quelli di "queste" macchine? Un cucciolo di umano come conosce un gatto? Conoscere è già una porta verso l'infinito, non apro per la vastità dell'impegno; con questa prudenza ipotizzo che il cucciolo di umano "conosce" come "gatto" un'apparizione davanti ai suoi occhi, non la prima apparizione ma l'ennesima e dopo avere fatto un gran numero di analisi, confronti, memorizzazioni, errori, correzioni, approssimazioni, aggiustamenti ecc. Immagino che similmente riconosca un gatto-gatto come diverso da un gatto-riprodotto-in-foto. A me pare che in entrambi casi la "statistica" ha un ruolo fondamentale, tu invece ritieni che la statistica opera soltanto con le macchine e non con gli umani. Tutto questo ci porta lontano, ma rimango ai primissimi passi: come e cosa facciamo di analogo, e di diverso, nell'educare i figli rispetto a insegnare a macchine? Andando all'osso, forse noi umani siamo banali ed abbiamo paura a riconoscerci tali. Sulle altre questioni che hai introdotto so ancora meno però mi piacerebbe tu cercassi di dibattere con gli astronomi autori della ricerca. Se ci provi grazie! due volte grazie se aggiorni sul dibattito. Ci avviciniamo a giorni topici solo per noi umani: auguri cordiali. Duccio (Alessandro Marzocchi)
Il giorno gio 19 dic 2024 alle ore 10:31 <nexa-request@server-nexa.polito.it<mailto:nexa-request@server-nexa.polito.it>> ha scritto:
Date: Wed, 18 Dec 2024 23:14:13 +0000 From: Giacomo Tesio <giacomo@tesio.it<mailto:giacomo@tesio.it>> To: nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> Subject: Re: [nexa] black box in ricerche astronomiche Message-ID: <C7F2E8FB-3C5C-4927-866E-EB5D3F5FC453@tesio.it<mailto:C7F2E8FB-3C5C-4927-866E-EB5D3F5FC453@tesio.it>> Content-Type: text/plain; charset=utf-8
Ciao Alessandro, grazie della segnalazione. Aspetto di leggere l'articolo scientifico vero e proprio, per capire come abbiano analizzato lo "spazio latente" [1] ma mi sembra evidente che se questi ricercatori smettessero di pensare in termini AI e studiassero il software che hanno programmato statisticamente come una forma compressa (con perdita) dei dati utilizzati durante il processo, otterrebbero risultati migliori (ma forse, meno finanziamenti).
Ad esempio la distinzione fra galassie passive ed attive ha molte possibili spiegazioni anche in assenza di qualsiasi intelligenza: la prima fra tutte, i dati (sintetici, se ho capito bene) potrebbero contenere variabili fortemente correlate alla distinzione.
Ti faccio un esempio terra terra: se programmo una vector mapping machine per prevedere il bmi degli islandesi fra i 20 e i 40 anni sulla base della marca e della taglie degli indumenti che hanno indossato in un anno, è probabile che la vmm in qualche layer interno finisca per trattare in modo diverso gli esempi che hanno indossato un reggiseno da quelli che non l'hanno indossato.
Un ricercatore ottenebrato dalla propaganda della AI ti direbbe che la rete neurale ha imparato a distinguere abbastanza bene maschi e femmine anche se il sesso non era presente nei dati di addestramento.
Un ricercatore lucido ti spiegherebbe che il bmi dipende da peso e altezza di un individuo, i quali, all'interno di una certa etnia, correlano fortemente con il sesso a parità di altre taglie. Al contempo, l'uso del reggiseno, fra i 20 e i 40, è un forte predittore del sesso di un individuo, per cui è in forte correlazione con i bmi probabili per ciascuna taglia.
Ciò non toglierebbe nulla all'utilità pratica della ricerca, soprattutto se permette di individuare questo tipo di classificazioni interne operate dai layer nascosti di una vector mapping machine (aka "rete neurale arificiale") generica.
Ma rende un po' imbarazzanti certe affermazioni nell'intervista, come il paragone fra il processo di programmazione statistica e un corso di cucina.
Tuttavia, aspettando di leggere l'articolo, ti ricordo che l'intelligenza sta negli occhi di chi guarda [2]
Giacomo
[1] <https://www.baeldung.com/cs/dl-latent-space>
[2] <https://www.tesio.it/2018/01/19/the-delusions-of-neural-networks.html>
------------------------------
-- You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)