On Wed, 17 Jul 2024 12:39:12 Fabio Alemagna <falemagn@gmail.com> wrote:
> > I've developed Molly, a conversational agent with an inner
> > monologue, using OpenAI's Large Language Model (LLM).
Ehm... no.
L'autore ha sviluppato un agente che _simula_ un monologo interiore.
Ogni modello che viene elaborato da un computer è una simulazione, ma l'appunto appare irrilevante, specialmente nel contesto di questa specifica discussione in cui si parte dall'assunto che una simulazione di coscienza È essa stessa coscienza, come teorizzato dall'Attention Schema Theory.
Ma... lool! :-D
Quello non è il dialogo interiore di Molly, ma un testo generato da
GPT-3 sulla base di un prompt a partire da un dialogo di esempio.
Le due cose non si escludono a vicenda, fino a dimostrazione contraria. Puoi fornire questa dimostrazione?
> PS: ho replicato l'esperimento con ChatGPT-4. con risultati del tutto
> analoghi, se non migliori.
Se vuoi possiamo fare lo stesso gioco via mail: riuscirò a convincerti
che Molly ha una coscienza se ti scrivo un po' di frasi che iniziano
con "Molly (to herself): " prima di una frase che inizia con "Molly: "?
(vedi https://github.com/marmelab/molly/blob/main/src/Discussion.tsx )
1. Non sono convinto che Molly abbia una coscienza, non salto così velocemente a conclusioni. La discussione però è affascinante, non falle nel sillogismo esposto in calce all'articolo menzionato.
2. Non mi è chiaro come un testo da te personalmente scritto dovrebbe convincermi dell'esistenza della coscienza di qualcun altro, che sia un agente artificial o naturale.
E se cambiassimo il prompt descrivendo una Molly schizofrenica,
sosterresti che GPT è schizofrenico? Se la nostra Molly fosse
un'assassina psicopatica, crederesti GPT psicopatico?
Non vedo perché no, non mi stai dando alcuna ragione per non farlo. L'apparente assurdità di una conclusione, sulla base di una personale definizione di "assurdo", non è prova della erroneità di quella conclusione.
Fabio