Google DeepMind Paper Argues LLMs Will Never Be Conscious
Ovvero la scoperta dell'acqua calda https://www.404media.co/google-deepmind-paper-argues-llms-will-never-be-cons... Giacomo
Searle diceva: "la sintassi non è sufficiente per la semantica". Lerchner dice: "i simboli non hanno contenuto causale intrinseco senza un agente che li alfabetizzi". Entrambi danno per certo di sapere dove sta l'esperienza senza spiegare perché una specifica organizzazione fisica la possa produrre e un’altra invece non potrà mai. Lerchner costruisce una critica più sofisticata al funzionalismo, ma la premessa è la stessa di Searle e come hanno osservato in molti (es. Nagel col suo famoso pipistrello) si tratta di qualcosa di molto opinabile. Detto questo, un paper DeepMind che dice che i sistemi AI sono fuori dalla morale (in quanto pazienti, dunque anche in quanto agenti) a me pare un po’ sospetto. G.
Il giorno 28 apr 2026, alle ore 21:13, Giacomo Tesio via nexa <nexa@server-nexa.polito.it> ha scritto:
Ovvero la scoperta dell'acqua calda
https://www.404media.co/google-deepmind-paper-argues-llms-will-never-be-cons...
Giacomo
participants (2)
-
Giacomo Tesio -
Guido Vetere