Il giorno lun 12 nov 2018 alle ore 16:07 Alberto Cammozzo <ac+nexa@zeromx.net> ha scritto:
Le tabulatrici Hollerith (macchine per nulla autonome) furono usate nel censimento tedesco del 1933 e consentirono ai nazisti una formidabile efficienza nell'identificare e selezionare le vittime del loro programma di sterminio.
Su discorsi come questo io ho riscontrato un enorme resistenza in molte delle comunità tecniche internazionali che frequento. L'idea che la creazione tecnologica comporti una responsabilità morale, etica e dunque politica risulta impensabile in quel contesto e viene attivamente osteggiata. L'idea DOMINANTE è che la tecnologia debba essere neutrale ed irresponsabile. La responsabilità va sempre e solo assegnata a chi la usa, mai a chi la crea. Dire che è nostra responsabilità scegliere accuratamente quali problemi risolvere, che possiamo dire "No", sembra una bestemmia. Naturalmente vi sono eccezioni, ma non molte, nella mia esperienza. E questo modello culturale viene esportato sistematicamente con le tecnologie che produce. Sarà probabilmente Filosofia (malattia cronica dei curiosi :-D), ma credo si tratti di una tensione fra due caratteristiche proprie dell'uomo, determinate dalla sua evoluzione: - da un lato l'esigenza primordiale di competere, favorita dalla capacità di calcolo dell'uomo (che le macchine aumentano) - dall'altro l'esigenza successiva di collaborare, favorita da norme condivise Da un lato l'organismo, dall'altro l'organizzazione. Lungo 4 milioni di anni, non so dire se a portarci fino qui sia stata più l'una, più l'altra, o proprio la tensione fra le due. D'altro canto, la mia impressione, confrontando batteri unicellulari a organismi multicellulari come l'uomo, è che la direzione su cui siamo lanciati sia chiara. Ci pensavo leggendo questo passaggio di Maria Chiara: Il giorno Dom 11 Nov 2018 21:30 Maria Chiara Pievatolo <mariachiara.pievatolo@unipi.it> ha scritto:
Molto prima che si discutesse di carrelli, infatti, i filosofi politici discutevano del problema della guerra giusta: organizzazioni umane con un certo grado di meccanicità - i soldati degli eserciti devono obbedire agli ordini e in molti luoghi e molti tempi non viene o veniva riconosciuto loro il diritto all'obiezione di coscienza - possono o no uccidere innocenti avendo delle ragioni morali per farlo?
I giusnaturalisti che rispondevano di sì sostenevano in sostanza che è accettabile costruire un'organizzazione, o una serie di organizzazioni legittimate a uccidere per ragioni morali; quelli che rispondevano di no - lo stesso Kant, per esempio - scrivevano progetti filosofici per costruire una sfera internazionale nella quale fosse possibile risolvere le controversie fra stati senza ricorrere alla guerra. Si chiedevano, cioè, se fossero pensabili sistemi per evitare che cittadini e popoli si trovassero di fronte a dilemmi - predisposti da organizzazioni umane - del tipo mors tua /vita mea.
Individui con una spiccata tendenza a collaborare tenderanno a costruire organizzazioni più complesse, basate su strutture valoriali capaci di sostenerle ed inglobare le organizzazioni più piccole. Individui con una spiccata tendenza a competere tenderanno a minimizzare la dimensione di tali organizzazioni al minimo necessario per massimizzare il proprio vantaggio, e di conseguenza a minare quelle strutture valoriali che sottendono a organizzazioni più vaste. D'altro canto stiamo parlando di tecnologie che sono anzitutto militari.
Nessuno di questi sistemi esplicitamente decide in modo autonomo e tutti fanno cose che già fanno altri sistemi decentrati o analogici, solo in modo più efficiente e centralizzato. Ma che azioni *qualitativamente* diverse consentono questi sistemi che prima non erano possibili o erano troppo dispendiose? E in quale contesto?
Il pericolo infatti non viene dall'intelligenza artificiale, ma dall'uomo. L'informatica TUTTA va considerata come uno strumento potenzialmente pericoloso. Rivoluzionario. Come la scrittura o la stampa. Strumento ancora grezzo, molto primitivo, ma comunque potentissimo.
Nelle mani di chi va questo potere?
Beh, al momento, nei fatti, è nelle mani di noi informatici. Poi noi lo cediamo facilmente perché siamo sostanzialmente inconsapevoli di tale potere. E siamo indottrinati a rifiutarne la responsabilità.
Scusate la lunghezza...
ROTFL! ! ! :-D Giacomo