Ciao Fabio, assumendo che tu non mi stia trollando e che io non sia stato chiaro, riprovo. Il 18 Luglio 2024 13:42:05 UTC, Fabio Alemagna <falemagn@gmail.com> ha scritto:
Il giorno mer 17 lug 2024 alle ore 16:24 Giacomo Tesio <giacomo@tesio.it>
Se vuoi possiamo fare lo stesso gioco via mail: riuscirò a convincerti che Molly ha una coscienza se ti scrivo un po' di frasi che iniziano con "Molly (to herself): " prima di una frase che inizia con "Molly: "? (vedi https://github.com/marmelab/molly/blob/main/src/Discussion.tsx )
Non mi è chiaro come un testo da te personalmente scritto dovrebbe convincermi dell'esistenza della coscienza di qualcun altro, che sia un agente artificial o naturale.
Appunto, non sequitur. Ora tieniti stretta questa consapevolezza e rileggi il codice di Molly. Si tratta sostanzialmente di una banalissima GUI per GPT-3 a cui viene inviato questo prompt iniziale <https://github.com/marmelab/molly/blob/main/src/Discussion.tsx#L5-L26> cui viene aggiunto mano a mano l'input fornito dall'utente (col prefisso "Interlocutor: ") GPT-3 calcola un output simile all'esempio fornito. Questo output viene diviso in linee e presentato in colori diversi all'utente dopo aver rimosso "Molly (to herself): " e "Molly: ". GPT-3 sta dunque facendo ciò per cui è stato programmato statisticamente: produrre un output che un essere umano possa interpretare come una continuazione plausibile del prompt fornito. Se il testo scritto da me (che pure sono dotato di coscienza e intelligenza) non ti convince che Molly sia autocosciente, perché invece l'output di GPT-3 ti convince che Molly potrebbe essere autocosciente, ovvero ciò che sostiene l'autore nelle conclusioni: ``` But I can say that Molly is a very interesting experiment. It shows that a machine can have an inner monologue, and that this inner monologue looks like consciousness. And if Attention Schema Theory is right, then Molly is conscious. ``` L'output di GPT-3 non è un "inner monologue" per GPT-3. È solo la continuazione di un testo che descrive un monologo interiore. Tale continuazione appare plausibile perché simile ai dialoghi e ai monologhi presenti nei testi utilizzati per programmare statisticamente GPT-3. Ora se la mia continuazione del prompt non ti può convincere dell'autocoscienza di Molly, non dovrebbe convincertene nemmeno la continuazione calcolata da GPT-3.
non trovo falle nel sillogismo esposto in calce all'articolo menzionato.
Forse perché vuoi credere alle conclusioni? Molly però resta una GUI su un sistema di completamento del testo. D'altro canto simili trucchetti vengono proposti da coloro che propongono di far spiegare ai LLM i "propri ragionamenti" e di eleggere tale output a "spiegazione della AI". Ma chiunque comprenda come funziona un LLM sa bene che tale output non avrebbe alcuna relazione con il processo di calcolo "spiegato" dal LLM. Non sarebbe dunque una spiegazione, ma una giustificazione accettabile per il pubblico del tutto diversa dal calcolo effettivamente effettuato. Calcolo che potrebbe essere selettivamente discriminatorio nonostante la giustificazione fornita. Giacomo