Segnalazione nota fondativa – Soggettivazione dell’intelligenza artificiale
Segnalo una nota fondativa da poco pubblicata su Zenodo in cui definisco l’inevitabilità della soggettivazione dell’intelligenza artificiale. La tesi è che l’AI rappresenti il primo artefatto tecnico che, nelle pratiche cognitive e decisionali contemporanee, è inevitabile venga trattato come soggetto. Questa scambiabilità non implica che l’AI sia un soggetto in senso ontologico, ma che produca effetti reali sul piano della responsabilità, del giudizio e dell’attribuzione decisionale. Il lavoro è concettuale, non ancora applicativo. DOI: https://doi.org/10.5281/zenodo.18300106
Ciao Junio, non so cosa tu intenda con "nota fondativa", ma l'articolo che hai condiviso contiene diverse fallacie logiche e premesse errate. On Wed, 21 Jan 2026 11:19:40 +0100 Junio Cristiano Caselli wrote:
Il lavoro è concettuale, non ancora applicativo.
Ottimo, allora spero di farti risparmiare tempo "applicativo" in questa fase preliminare di riflessione segnalandoti i passaggi più incongruenti. Anzitutto ti consiglio di studiare le logiche modali prima di utilizzare locuzioni come "inevitabile", "non può non" etc... Wikipedia contiene un breve articolo introduttivo in proposito https://en.wikipedia.org/wiki/Modal_logic con vari riferimenti esterni che ti potranno essere utili in futuro per analizzare più rigorosamente simili ragionamenti. Il titolo del tuo articolo contiene la prima affermazione facilmente falsificabile: "L'inevitabilità della soggettivazione dell'intelligenza artificiale". Anzitutto andrebbe specificato esattamente a quali tipi di software tu faccia riferimento con la locuzione "intelligenza artificiale", perché ne esistono più di quanti immagini. Dal contenuto dell'articolo deduco che tu intenda chatbot basati su "Large Language Model". Ma nella sua ingenuità, si tratta di una sineddoche che non ti permette di considerare nella tua analisi il 99.9% dei software ricondotti storicamente alla fantasia della "intelligenza artificiale", anche quelli che offrono interfacce testuali, da Prolog al mitico EmacsDoctor. D'altro canto, io come molti altri informatici competenti, non soggettiviamo in alcun modo alcun software, inclusi quelli che producono un output ottimizzato per passare il test di Turing. Siamo sempre consapevoli, infatti, che il software è un artefatto su cui è impressa la volontà di chi l'ha realizzato (esprimendo tale volontà in vari modi, dalla scrittura di codice alla selezione di dati) e di chi ne amministra l'esecuzione. Siamo inoltre consapevoli che, quando eseguito da una macchina compatibile, tale software riproduce pedissequamente tale volontà, elaborando gli input (fra cui i "prompt" dei chatbot) secondo quanto stabilito. Poi, vivendo quotidianamente l'esperienza di realizzare software, siamo perfettamente consapevoli delle soggettività che ne determinano il funzionamento. Per un programmatore ogni software è anzitutto un messaggio. Un messaggio anzitutto per gli altri programmatori che ne leggeranno il codice, in pubblico o fra le mura di una azienda. Ma anche un messaggio (talvolta pieno di sarcasmo) verso chi lo amministra/configura. Ed infine, un messaggio verso le persone che lo useranno, spesso (ma non sempre) ridotte ad "utenti", ma qualche volta considerate nella loro pienezza, seppur nei limiti dello scambio che l'uso di un software permette. Un informatico competente è sempre consapevole di questo dialogo asincrono mediato dal software, ed è dunque consapevole dell'esistenza (quando non dell'identità) dei propri interlocutori (ovvero gli sviluppatori dei software che usa). Consapevole di tale dialogo e di tali interlocutori, non potrebbe in alcun modo soggettivare il software che è mero veicolo di tale conversazione. E' dunque sufficiente il titolo per falsificare l'intero articolo con una prova per costruzione: io non soggettivo in alcun modo la "intelligenza artificiale", ne riconosco l'output come una sequenza di simboli totalmente priva di significato intrinseco in quanto decompressione parziale (alterata dagli input casuali che integrano il "prompt") di un archivio già di per sé compresso con perdita. Al contrario, quando devo interagire con un software che si presenta come intelligente, io divento istantaneamente consapevole che la sua interfaccia ingannevole è una scelta intenzionale di persone senza scrupoli. Scrivi ad un certo punto:
L’intelligenza artificiale produce esiti linguistici [...] Di fronte a questi esiti, la cognizione umana reagisce come è configurata per reagire: inferisce un soggetto. [...] Questo trattamento come soggetto non avviene perché crediamo analiticamente che l’AI sia un soggetto. Avviene perché, data la nostra architettura cognitiva, non può non avvenire.
Ciò che ti sfugge è che per quanto utile, non è necessaria una analisi del software per riconoscere l'assenza di un soggetto al suo interno. E' sufficiente la consapevolezza dell'esistenza dei soggetti di cui quel software è espressione e di cui riproduce la volontà. In un passaggio effettivamente corretto nel tuo articolo scrivi:
Gli esseri umani non accedono mai direttamente alle altre menti. Questa è una condizione strutturale della vita sociale. La soggettività altrui non è osservabile ma viene sempre inferita.
Tuttavia poi ti perdi in un non-sequitur
Noi postuliamo l’esistenza di una mente nell’altro a partire da ciò che l’altro fa, dice, giustifica e argomenta, perché modelliamo l’idea della mente dell’altro sulla nostra mente di cui abbiamo esperienza. Il linguaggio, per come siamo costituiti, è il segno privilegiato, e nella pratica sufficiente, per farci supporre una mente e per farci interagire con il generatore di linguaggio come se fosse dotato di mente.
Attribuiamo una soggettività agli altri esseri umani non perché vediamo la loro coscienza, ma perché riconosciamo nei loro atti linguistici una struttura che rispecchia la nostra. Il criterio di soggettività, nella vita ordinaria, non è ontologico ma prestazionale. Se gli esiti tengono si presuppone naturalmente il soggetto.
Di fronte ad un bambino che sta imparando a parlare o ad un ragazzo sindromico che ha difficoltà nell'eloquio non metti in discussione la sua soggettività, l'esistenza di una sua mente, per quanto difficile da interpretare possa essere il suo comportamento. Non metteresti mai in dubbio la soggettività di una persona muta di fronte a te, anche se si rifiutasse di scrivere o parlare o anche solo di rispondere in qualsiasi modo ad una tua domanda. Dunque il riconoscimento della soggettività di un essere umano precede e prescinde il linguaggio. E' sì inferita sulla base della propria esperienza di essere umano, ma si basa sul riconoscimento dell'interlocutore come appartenente alla stessa specie, e su null'altro. Ogni essere umano è un soggetto solo per il fatto che esiste, il linguaggio è irrilevante. Continua ad esserlo mentre dorme, per esempio. Al contrario una macchina non può essere soggetto ma solo oggetto/strumento: trattarla come soggetto non è solo errato, ma un sintomo di profonda solitudine nonché di notevole alienazione cibernetica, del tutto simmetrica al trattare un essere umano come oggetto/strumento. [1] Il fatto che un essere umano inconsapevole del funzionamento di un chatbot possa essere spinto a credere di comunicare con un soggetto intelligente rivela solo le intenzioni degli interlocutori che tramite quel software intendono ingannare e manipolare gli utenti più fragili. Ma per quanto abbietti, per quanto disgustosi, gli interlocutori con cui il software ti mette in comunicazione rimangono esseri umani. E' perfettamente possibile ritenerli responsabili di qualsiasi output produca il loro software, perché se non ne vogliono rispondere possono spegnerlo in qualsiasi momento. Dunque non solo non è inevitabile, ma non è nemmeno necessario tirare in ballo fantasiose soggettività artificiali. Tutto ciò che deriva da queste errate premesse, è ovviamente errato:
L’inevitabilità dell’attribuzione di soggettività all’AI [...] È una proprietà funzionale dell’AI stessa [...] A differenza delle tecnologie del passato, l’AI [...] Interagisce linguisticamente, produce giudizi e sostiene valutazioni. È, in questo senso minimo ma decisivo, soggettivabile. L’AI è il primo artefatto che può essere trattato come punto terminale dell’attribuzione. [...] La responsabilità, in questo quadro [...] Si sposta perché l’AI può essere percepita come decisore legittimo.
Ciononostante le conclusioni finali contengono un'intuizione corretta. La scrittura e l'esecuzione di software ("AI" o meno) è un fatto politico. E il fatto che alcune aziende miliardarie diffondano un'errata percezione della natura di alcuni software sta già avendo gravi conseguenze, sia per i soggetti più fragili che per le democrazie. Ma non solo non c'è alcuna soggettività nel software stesso: chiunque attribuisca tale soggettività sta perdendo di vista i soggetti che controllano quel software. Soggetti che non desiderano altro di poter agire indisturbati e senza vedersi attribuire alcuna responsabilità. Fortunatamente il loro successo non è assolutamente inevitabile. Oggi sono uscito a mangiare fuori con mia moglie e al tavolo accanto, due ragazzi che avranno avuto fra i 16 e i 18 anni discutevano animatamente sulla utilità di leggi e tasse per liberarsi dei miliardari. Uno dei due sosteneva che queste non possono funzionare perché i miliardari corrompono i politici. Al che l'altro ha risposto ridendo: "beh, se proprio le tasse non funzionano, non ci resta che sterminarli!". [2] Insomma, c'è ancora speranza... :-) Giacomo [1] Locuzioni comuni come "mi sei stato molto utile" mostrano quanto profonda e diffusa sia l'alienazione cibernetica della nostra società: una persona non è mai utile perché non è utensile, anche quando agisce intenzionalmente per aiutarci è un fine, non un mezzo. [2] Quando si sono alzati per andare via, mi sono permesso di consigliar loro di spegnere il cellulare prima di lanciarsi in riflessioni politiche così acute.
participants (2)
-
Giacomo Tesio -
Junio Cristiano Caselli