Grazie Alfredo, concordo: lo scaricabarile è sempre esistito a ogni livello del potere. Quando si scarica verso un’altra persona è facile da credere. Le persone sono responsabilizzatili. Quando si scarica verso procedure e dispositivi, non viene accettata serenamente. Perché non è specifica proprio per il singolo caso e poi qualcuno l’avrà pure scritta quella procedura. Con l’AI le cose sono peggiori, perché per come è con figurato l’essere umano ha una tendenza a soggettivizzare (ad attribuire mente e responsabilizzabilità) ad enti linguistici. E allora di fronte a una risposta del modello le persone si trovano a crederci, a attribuire la responsabilità al modello: hanno come trovato un punto di chiusura psicologica sostenibile. "L’ ha detto la procedura! Chiamiamo il responsabile qualcuno l’avrà scritta la procedura. Potrà essere modificata." "L’ha detto il modello! OK, chiaro." Al massimo: "non si può chiederglielo di nuovo?” La decisione appare come risposta ragionevole di un soggetto che capisce in sé, contestuale, che ha già tenuto conto della particolarità del caso di specie. E persino depurata dai bias dell’umano (anche se l’umano c’è eccome). l’AI è un ulteriore schermo a disposizione del potere, solo che non è mai esistito uno schermo così potente.
Il giorno 7 feb 2026, alle ore 09:38, Alfredo Bregni <abregni@iperv.it> ha scritto:
Non vorrei essere banale / banalizzante, ...ma lo scaricabarile è antico come il mondo, almeno verso l'esterno delle organizzazioni (poi è vero anche l'inverso, come il caso del capo che manda avanti qualcuno, per tenersi dei gradi di libertà per sconfessarne le affermazioni). L'AI -- continuo a ripeterlo -- è solo un comodo schermo IN PIU' per certi comportamenti UMANI, ...e finalmente ho trovato qualcun altro che lo dice (poi dovremmo addentrarci nelle pratiche organizzative, che non sempre esprimono il meglio dell'essere umano, ...ma sarebbe tutta un'altra storia).
----- Original Message ----- From: Junio Cristiano Caselli To: nexa@server-nexa.polito.it Sent: Friday, February 06, 2026 12:56 PM Subject: [nexa] Abbiamo bombardato dove ha detto il sistema.
“Abbiamo bombardato dove ha detto il sistema.” “È il sistema che dice che lei non è idoneo.” “Il sistema dice che la dobbiamo trattenere.”
Ho provato a chiarire cosa accade alla decisione umana e al potere quando l’intelligenza artificiale linguistica occupa il posto funzionale del soggetto responsabilizzabile: non per ciò che è, ma per come viene trattata nell’interazione, come un soggetto in cui è psicologicamente accettabile fermarsi nel risalire la catena delle responsabilità.