Re: [nexa] Oscurità digitale (alessandro marzocchi)
Grazie per queste domande stimolanti. più che risposte, propongo alcune riflessioni, frutto delle formazioni di autodifesa digitale, pedagogia hacker ecc. che portiamo avanti da un paio di decadi con vari gruppi informali di ricerca. nel corpo del messaggio:
Message: 1 Date: Wed, 19 Apr 2023 23:51:15 +0200 From: alessandro marzocchi <alemarzoc@gmail.com> To: nexa@server-nexa.polito.it, giuseppe.attardi@unipi.it, daniela.tafani@unipi.it, Giacomo Tesio <giacomo@tesio.it>, vetere.guido@gmail.com Subject: [nexa] Oscurità digitale Message-ID: <CAG5xczd0ombVjFnSzCSFk_6a5UYGxftn4HbY4Vj0pn7nZE9rxA@mail.gmail.com> Content-Type: text/plain; charset="utf-8"
Mi riferisco alle opinioni manifestate soprattutto da Beppe Attardi e Giacomo Tesio, in qualche modo portabandiera di valutazioni opposte. Qualche domanda sull'argomento. * 1 * il digitale incide oppure no in modo significativo sul nostro modo di essere umani? Ci fornisce oppure no "informazioni" che influenzano scelte finora autonome? A volte "decide" oppure no al nostro posto?
sì, "decide". ma come non esiste l'autonomia umana assoluta (sarebbe solipsismo psicotico), così "il digitale" non decide "al posto" nostro: decide "insieme" a noi, re-agendo insieme. "decide" nel senso che promuove attivamente determinate visioni del mondo perché re-agisce (ciberneticamente, retroattivamente) con vulnerabilità umane, zone sensibili personali e collettive di cui è importante avere consapevolezza, e di cui prendersi cura (bias cognitivi sfruttati dalle interfacce, sensibilità personali, abitudini culturali, ecc.). In termini poetici e filosofici, i sistemi tecnici contemporanei hanno delle "voci", cioè dei demoni socratici che le muovono, e che evolvono. queste voci "spingono" (nudge, gamification) gli umani a reagire in un certo modo. OVVIAMENTE si può: resistere; imparare; smontare e rimontare; rifiutare; limitare la manipolazione; usare in maniera difforme (ma implica maggior sforzo); evolvere diversamente; ecc ecc però è importante ricordare che "(NON) dipende (SOLO) da noi", cioè non dipende solo dall'uso. I sistemi tecnici hanno affordances, che sono ideologicamente sviluppate. "Ideologico" nel senso di "portatore di una certa visione del mondo, con certe idee-cardine" (che possono cambiare nel tempo) un esempio, da una presentazione-laboratorio tenuta l'altro ieri sera a Roma: Youtube ora spinge a VEDERE video, NON A CARICARE video. Infatti l'interfaccia dell'altro ieri NON E' come quella degli inizi: https://web.archive.org/web/20230418000009/https://www.youtube.com/ https://web.archive.org/web/20050614234128/http://www.youtube.com/ nella seconda, del 2005, "UPLOAD YOUR VIDEO" è molto evidente... nella prima, del 2023, è scomparsa. ciò mostra che la voce del demone di Youtube si è evoluta, saperlo e notarlo ci aiuta a relazionarci in maniera accorta a questo sistema, a ridurre l'alienazione tecnica, a limitare gli stati di flusso in cui si interagisce "senza decidere" :D
* 2 * la possibilità di "leggere il programma" è opportuna / necessaria?
IMHO è importante poter comprendere a grandi linee come funziona il programma e poter intervenire in quello svolgimento. se non direttamente, attraverso gli occhi e le competenze di qualcuno di cui ci fidiamo. esempio assai istituzionale: https://nextcloud.eucommeet.eu è un H2020 di cui curiamo la parte tecnica. perché far la fatica di utilizzare una VM su OpenStack del GARR invece che un AWS o Azure public cloud? perché avvalersi di un accrocchio nextcloud + jitsi invece che M$ Teams, Google Suite, ecc.? si fa fatica, anche perché poi gli utenti si lamentano che "è più difficile da usare di Zoom, di google docs!" (qualcuno direbbe: perché è GDPR compliant... ma tanto a quanto pare non è la preoccupazione principale dei progetti europei!) personalmente non ho tempo, né voglia, né competenze per leggere TUTTO il programma. e nemmeno penso che Openstack o nextcloud o jitsi siano la panacea (anche perché il codice, soprattutto dell'ultimo... che caos!); però continuo a pensare che sia meglio del software proprietario. soprattutto perché è possibile sviluppare una relazione alla pari con chi sviluppa e manutiene; forkare; fare altro sulla base dell'operato di chi è venuto prima di noi. così come è possibile sviluppare una relazione alla pari, istituzionalmente e umanamente parlando, con le persone che stanno dietro alle macchine del GARR, e, in caso di problemi e necessità, chiedere a loro. Non è lo stesso tipo di relazione che si può sviluppare con Amazon, Google o Microsoft. è una questione di scalabilità federata umani-macchine, non di completa leggibilità/controllo del programma, IMHO. inoltre, questa fatica ha un senso perché i denari pubblici dovrebbero come minimo tornare a favore del digitale pubblico e non di quello privato. Anche questa è, evidentemente, una ragione ideologica. Il mainstream attuale, governi compresi, fa esattamente l'inverso: con denari pubblici si finanzia il digitale privato perché "funziona meglio" alias "lo usano già tutt* certo nulla è perfetto, ma ci sono cose davvero peggio di altre.
* 3 * aiuterebbe un eventuale obbligo di "nessuna profilazione di default"?
"nessuna profilazione di default" sarebbe bello, ma, forse, molte persone lo troverebbero scomodo, proprio come trovano scomodo che il browser non abbia lo storico della navigazione in sessione anonima... l'automazione è una questione rilevante, capire chi, come e perché promuove certe automazioni invece di altre è forse ancora più rilevante. buona giornata k.
Specifici servizi andrebbero richiesti di volta in volta, ribaltando l'attuale abitudine. Off topic mi viene in mente l'esperienza bancaria: man mano che aumenta l'importo di contante chiesto al cassiere, automaticamente il sistema aumenta i tempi di attesa.
Il digitale non è facile ma non è soltanto un artefatto tecnologico complesso e potente, sempre più spesso e di fatto svolge funzioni analoghe al sistema parola, al sistema lingua. Mi rendo conto che la sintesi "il digitale" non è perfetta ed affido la mia semplificazione alla vostra comprensione. Grazie e cordialità. Duccio (Alessandro Marzocchi)
Buongiorno, Grazie per lo scambio, che trovo molto interessante. Avrei un paio di domande, molto ampie: 1) esistono esempi di "modelli di business" sostenibili per il mondo privato che garantisca un valore economico del "modello open" (che non sia ad esclusivo carico della spesa pubblica/cittadini)? 2) esistono esempi di bandi/linee guida per l'istruzione pubblica nei quali "il modello open" e' indicato formalmente come un criterio di qualità, distintivo per la scelta di risorse (libri, educational software, ect.) per l'istruzione e la formazione (obbligatoria)? Grazie per ogni informazione a riguardo, Alessandro On Thu, 20 Apr 2023 at 13:02, karlessi <karlessi@alekos.net> wrote:
Grazie per queste domande stimolanti. più che risposte, propongo alcune riflessioni, frutto delle formazioni di autodifesa digitale, pedagogia hacker ecc. che portiamo avanti da un paio di decadi con vari gruppi informali di ricerca. nel corpo del messaggio:
Message: 1 Date: Wed, 19 Apr 2023 23:51:15 +0200 From: alessandro marzocchi <alemarzoc@gmail.com> To: nexa@server-nexa.polito.it, giuseppe.attardi@unipi.it, daniela.tafani@unipi.it, Giacomo Tesio <giacomo@tesio.it>, vetere.guido@gmail.com Subject: [nexa] Oscurità digitale Message-ID: < CAG5xczd0ombVjFnSzCSFk_6a5UYGxftn4HbY4Vj0pn7nZE9rxA@mail.gmail.com> Content-Type: text/plain; charset="utf-8"
Mi riferisco alle opinioni manifestate soprattutto da Beppe Attardi e Giacomo Tesio, in qualche modo portabandiera di valutazioni opposte. Qualche domanda sull'argomento. * 1 * il digitale incide oppure no in modo significativo sul nostro modo di essere umani? Ci fornisce oppure no "informazioni" che influenzano scelte finora autonome? A volte "decide" oppure no al nostro posto?
sì, "decide". ma come non esiste l'autonomia umana assoluta (sarebbe solipsismo psicotico), così "il digitale" non decide "al posto" nostro: decide "insieme" a noi, re-agendo insieme. "decide" nel senso che promuove attivamente determinate visioni del mondo perché re-agisce (ciberneticamente, retroattivamente) con vulnerabilità umane, zone sensibili personali e collettive di cui è importante avere consapevolezza, e di cui prendersi cura (bias cognitivi sfruttati dalle interfacce, sensibilità personali, abitudini culturali, ecc.). In termini poetici e filosofici, i sistemi tecnici contemporanei hanno delle "voci", cioè dei demoni socratici che le muovono, e che evolvono. queste voci "spingono" (nudge, gamification) gli umani a reagire in un certo modo. OVVIAMENTE si può: resistere; imparare; smontare e rimontare; rifiutare; limitare la manipolazione; usare in maniera difforme (ma implica maggior sforzo); evolvere diversamente; ecc ecc
però è importante ricordare che "(NON) dipende (SOLO) da noi", cioè non dipende solo dall'uso. I sistemi tecnici hanno affordances, che sono ideologicamente sviluppate. "Ideologico" nel senso di "portatore di una certa visione del mondo, con certe idee-cardine" (che possono cambiare nel tempo)
un esempio, da una presentazione-laboratorio tenuta l'altro ieri sera a Roma: Youtube ora spinge a VEDERE video, NON A CARICARE video. Infatti l'interfaccia dell'altro ieri NON E' come quella degli inizi:
https://web.archive.org/web/20230418000009/https://www.youtube.com/
https://web.archive.org/web/20050614234128/http://www.youtube.com/
nella seconda, del 2005, "UPLOAD YOUR VIDEO" è molto evidente... nella prima, del 2023, è scomparsa. ciò mostra che la voce del demone di Youtube si è evoluta, saperlo e notarlo ci aiuta a relazionarci in maniera accorta a questo sistema, a ridurre l'alienazione tecnica, a limitare gli stati di flusso in cui si interagisce "senza decidere" :D
* 2 * la possibilità di "leggere il programma" è opportuna / necessaria?
IMHO è importante poter comprendere a grandi linee come funziona il programma e poter intervenire in quello svolgimento. se non direttamente, attraverso gli occhi e le competenze di qualcuno di cui ci fidiamo.
esempio assai istituzionale:
https://nextcloud.eucommeet.eu
è un H2020 di cui curiamo la parte tecnica. perché far la fatica di utilizzare una VM su OpenStack del GARR invece che un AWS o Azure public cloud? perché avvalersi di un accrocchio nextcloud + jitsi invece che M$ Teams, Google Suite, ecc.? si fa fatica, anche perché poi gli utenti si lamentano che "è più difficile da usare di Zoom, di google docs!"
(qualcuno direbbe: perché è GDPR compliant... ma tanto a quanto pare non è la preoccupazione principale dei progetti europei!)
personalmente non ho tempo, né voglia, né competenze per leggere TUTTO il programma. e nemmeno penso che Openstack o nextcloud o jitsi siano la panacea (anche perché il codice, soprattutto dell'ultimo... che caos!);
però continuo a pensare che sia meglio del software proprietario. soprattutto perché è possibile sviluppare una relazione alla pari con chi sviluppa e manutiene; forkare; fare altro sulla base dell'operato di chi è venuto prima di noi.
così come è possibile sviluppare una relazione alla pari, istituzionalmente e umanamente parlando, con le persone che stanno dietro alle macchine del GARR, e, in caso di problemi e necessità, chiedere a loro. Non è lo stesso tipo di relazione che si può sviluppare con Amazon, Google o Microsoft. è una questione di scalabilità federata umani-macchine, non di completa leggibilità/controllo del programma, IMHO.
inoltre, questa fatica ha un senso perché i denari pubblici dovrebbero come minimo tornare a favore del digitale pubblico e non di quello privato. Anche questa è, evidentemente, una ragione ideologica. Il mainstream attuale, governi compresi, fa esattamente l'inverso: con denari pubblici si finanzia il digitale privato perché "funziona meglio" alias "lo usano già tutt*
certo nulla è perfetto, ma ci sono cose davvero peggio di altre.
* 3 * aiuterebbe un eventuale obbligo di "nessuna profilazione di default"?
"nessuna profilazione di default" sarebbe bello, ma, forse, molte persone lo troverebbero scomodo, proprio come trovano scomodo che il browser non abbia lo storico della navigazione in sessione anonima... l'automazione è una questione rilevante,
capire chi, come e perché promuove certe automazioni invece di altre è forse ancora più rilevante.
buona giornata
k.
Specifici servizi andrebbero richiesti di volta in volta, ribaltando l'attuale abitudine. Off topic mi viene in mente l'esperienza bancaria: man mano che aumenta l'importo di contante chiesto al cassiere, automaticamente il sistema aumenta i tempi di attesa.
Il digitale non è facile ma non è soltanto un artefatto tecnologico complesso e potente, sempre più spesso e di fatto svolge funzioni analoghe al sistema parola, al sistema lingua. Mi rendo conto che la sintesi "il digitale" non è perfetta ed affido la mia semplificazione alla vostra comprensione. Grazie e cordialità. Duccio (Alessandro Marzocchi)
Ciao Karlessi, ripercorro anche io le tue risposte (giacché sono, in effetti, risposte) per metterle a confronto con quelle che darei io. On 20.04.2023 11:01, karlessi wrote:
Date: Wed, 19 Apr 2023 23:51:15 +0200 * 1 * il digitale incide oppure no in modo significativo sul nostro modo di essere umani? Ci fornisce oppure no "informazioni" che influenzano scelte finora autonome? A volte "decide" oppure no al nostro posto?
sì, "decide".
no, non decide. il software calcola. ripete pedissequamente, meccanicamente, la propria programmazione. che tale programmazione sia ignota (per ragioni di licenza o per inadeguatezza delle tecniche di programmazione adottate) è irrilevante. il software effettua SEMPRE ed ESCLUSIVAMENTE ciò che è definito nel proprio programma. anche quando modifica la propria configurazione (che come osservava 380° in passato, è semplicemente una parte della programmazione differita rispetto alla compilazione del binario), in funzione dell'input ricevuto, tale variazione è predeterminata. e di nuovo, il fatto che tale determinazione sia o pretenda di essere irresponsabile, è totalmente irrilevante rispetto al fatto che sussista. quand'anche un software fosse connesso ad una sorgente randomica in grado di alterarne la configurazione per simulare una sorta di libero arbitrio, la forma della configurazione stessa e la sua interpretazione da parte del programma sarebbe comunque predeterminato. dunque "il digitale" non decide. MAI. Siamo sempre noi che interpretiamo il suo output. Talvolta, in evidente stato confusionale, lo interpretiamo come "decisione" ma non lo è: la decisione è SOLO nostra e dobbiamo assumercene la piena responsabilità, perché siamo noi ad interpretare l'output.
ma come non esiste l'autonomia umana assoluta (sarebbe solipsismo psicotico), così "il digitale" non decide "al posto" nostro: decide "insieme" a noi, re-agendo insieme. "decide" nel senso che promuove attivamente determinate visioni del mondo perché re-agisce (ciberneticamente, retroattivamente) con vulnerabilità umane, zone sensibili personali e collettive di cui è importante avere consapevolezza, e di cui prendersi cura (bias cognitivi sfruttati dalle interfacce, sensibilità personali, abitudini culturali, ecc.).
No, non decide "il digitale", ma chi lo programma e lo integra nella società cibernetica, distribuendolo, eseguendolo etc...
In termini poetici e filosofici, i sistemi tecnici contemporanei hanno delle "voci", cioè dei demoni socratici che le muovono, e che evolvono. queste voci "spingono" (nudge, gamification) gli umani a reagire in un certo modo. OVVIAMENTE si può: resistere; imparare; smontare e rimontare; rifiutare; limitare la manipolazione; usare in maniera difforme (ma implica maggior sforzo); evolvere diversamente; ecc ecc
Mi correggeranno i filosofi in lista, ma ho sempre inteso il demone di Socrate come la sua Coscienza, qualcosa che agli automatismi manca. Infatti, se non erro, Socrate diceva che il suo demone lo dissuadeva dal fare ciò che stava per fare, ma non gli imponeva mai di fare qualcosa. Il software non è una "voce interiore" dell'automatismo che lo incita a resistere ai propri impulsi. Il software determina completamente e precisamente ciò che l'automatismo farà e ciò che non farà. E di conseguenza, determina completamente gli effetti che avrà sull'ecosistema in cui viene introdotto e sulle persone con cui interagirà.
però è importante ricordare che "(NON) dipende (SOLO) da noi", cioè non dipende solo dall'uso. I sistemi tecnici hanno affordances, che sono ideologicamente sviluppate. "Ideologico" nel senso di "portatore di una certa visione del mondo, con certe idee-cardine" (che possono cambiare nel tempo)
Non dipende affatto dall'uso, perché l'uso stesso è pre-determinato. Gli hacker sono in grado di alterare il funzionamento di tali artefatti perché ne comprendono il funzionamento tanto da smontarli e rimontarli in modo diverso. Ma alla fine dell'hack, l'automatismo continuerà a ripetere pedissequamente la volontà di chi l'ha programmato (in questo caso, l'hacker).
un esempio, da una presentazione-laboratorio tenuta l'altro ieri sera a Roma: Youtube ora spinge a VEDERE video, NON A CARICARE video. Infatti l'interfaccia dell'altro ieri NON E' come quella degli inizi:
https://web.archive.org/web/20230418000009/https://www.youtube.com/
https://web.archive.org/web/20050614234128/http://www.youtube.com/
nella seconda, del 2005, "UPLOAD YOUR VIDEO" è molto evidente... nella prima, del 2023, è scomparsa. ciò mostra che la voce del demone di Youtube si è evoluta, saperlo e notarlo ci aiuta a relazionarci in maniera accorta a questo sistema, a ridurre l'alienazione tecnica, a limitare gli stati di flusso in cui si interagisce "senza decidere" :D
Bell'esempio, pessima interpretazione. :-) YouTube non è "evoluto": è stato sostituito con una nuova versione. E' un software, non ha una identità. GOOGLE, che lo realizza e amministra, decide cosa l'utente (terribile riduzione della persona umana) possa o non possa fare. E decide con quale probabilità e frequenza. Così come deciderà chi vedrà i video caricati. Oltre ovviamente a decidere che video vedrà la maggioranza delle persone, quali diventeranno virali etc... YouTube, in sé, non esiste. Durante i continui A/B test, persone diverse usano software diversi. Attribuirgli un'identità è di per sé alienante. E' una cosa: un artefatto costruito dall'uomo per scopi precisi. Ogni artefatto può essere utile. Ma a nessuno va attribuita alcuna dignità intrinseca. Per questo parlare di "intelligenza artificiale", "macchine cognitive" (come fa Enrico Nardelli nel suo ottimo libro) o anche solo "esseri tecnici" è pericolosamente alienante! Sono cose. Solo cose. Se le trattiamo come qualcosa di diverso, se gli attribuiamo una qualsiasi dignità, sottraiamo inevitabilmente tale dignità all'uomo. Un software è un testo che può determinare il comportamento di una macchina. Niente di più. Devo poterlo smembrare e rimontare senza ritegno o rispetto. Il rispetto, la dignità, è solo per le persone, non per l'artefatto. Quelle che l'hanno scritto e che lo modificheranno, così come quelle che lo eseguiranno. Ma non per l'artefatto. Se non funziona, si cancella o si "martella"... è una cosa insomma. Come artefatto, il suo unico criterio di valore è l'utilità. Criterio che non va mai applicato alle persone.
* 2 * la possibilità di "leggere il programma" è opportuna / necessaria?
IMHO è importante poter comprendere a grandi linee come funziona il programma e poter intervenire in quello svolgimento. se non direttamente, attraverso gli occhi e le competenze di qualcuno di cui ci fidiamo.
Io direi fondamentale. In una società cibernetica in cui il rapporto numerico fra esseri umani ed automatismi è di uno a 3-400 (contando solo gli automatismi in esecuzione su un comune cellulare android), si potrebbe argomentare che sia persino più importante di saper leggere e scrivere una lingua umana. Ma sarebbe un argomento alienante! ;-) Infatti, sono esseri umani a realizzare e controllare quegli automatismi! Invece è fondamentale saper programmare e debuggare gli automatismi che ci circondano esattamente quanto è importante saper leggere, scrivere e far di conto. Chi non imparerà a farlo, si troverà nostro malgrado ad essere un cittadino di serie B nella società cibernetica in cui viviamo. E ciò renderà tale società oppressiva ed alienante per tutti. Ed ovviamente non democratica. Per questo, la terza via democratica allo sviluppo tecnologico che l'Europa DEVE intraprendere, deve essere focalizzata sulla realizzazione di tecnologie perfettamente comprensibili e debuggabili da qualsiasi cittadino. E sull'educazione informatica e cibernetica di tutti i cittadini. Bisogna lavorare su entrambi i fronti, insomma. Da un lato sostituire la tecnologia oppressiva del presente con una più democratica, dall'altro educare la cittadinanza affinché possa averne il pieno controllo.
esempio assai istituzionale:
https://nextcloud.eucommeet.eu
è un H2020 di cui curiamo la parte tecnica. perché far la fatica di utilizzare una VM su OpenStack del GARR invece che un AWS o Azure public cloud? perché avvalersi di un accrocchio nextcloud + jitsi invece che M$ Teams, Google Suite, ecc.? si fa fatica, anche perché poi gli utenti si lamentano che "è più difficile da usare di Zoom, di google docs!"
Di nuovo, ottimo esempio ma analisi insufficiente. Perché è più difficile? Perché è meno integrato? Perché si fa più fatica? Non perché è open source (o GDPR compliant) ma perché questi software hanno ricevuto una frazione irrisoria degli investimenti effettuati sulle alternative proprietarie. E molti dei soldi di quegli investimenti vengono dalle tasse dei cittadini di tutto il mondo, sottratti alla pubblica amministrazione (ed all'economia di quei paesi) tramite evasione^W "ottimizzazione" fiscale, pratiche commerciali scorrette, da cattura culturale e spesso da vera e propria corruzione: https://www.reuters.com/article/us-microsoft-settlement-idUSKCN1UH1P3 https://www.theverge.com/2022/3/25/22995144/microsoft-foreign-corrupt-practi... Se il software libero ha dei problemi, basta investire qualche migliaio di euro all'anno e finanziarne più seriamente lo sviluppo.
(qualcuno direbbe: perché è GDPR compliant... ma tanto a quanto pare non è la preoccupazione principale dei progetti europei!)
Sì sembra che i diritti umani non godano di grande considerazione in questo periodo. Vedono visti come un fastidioso intralcio. Anche da esseri umani! L'alienazione cibernetica è a livelli impensabili solo pochi anni fa. C'è da sperare di poter recuperare tutte queste persone! Ma la disintossicazione non è mai facile. E spesso è dolorosa.
però continuo a pensare che sia meglio del software proprietario. soprattutto perché è possibile sviluppare una relazione alla pari con chi sviluppa e manutiene; forkare; fare altro sulla base dell'operato di chi è venuto prima di noi.
così come è possibile sviluppare una relazione alla pari, istituzionalmente e umanamente parlando, con le persone che stanno dietro alle macchine del GARR, e, in caso di problemi e necessità, chiedere a loro. Non è lo stesso tipo di relazione che si può sviluppare con Amazon, Google o Microsoft.
Vero. E' una questione di relazioni tra PERSONE. (i computer sono meri specchi... ;-)
è una questione di scalabilità federata umani-macchine, non di completa leggibilità/controllo del programma, IMHO.
La completa leggibilità del programma è condizione necessaria, non sufficiente. Infatti molto codice opensource è reso scientemente complicato, per vanificare le libertà formalmente garantite dalla licenza (tipicamente permissiva). Ad OGGI, l'informatica è intrinsecamente elitaria e classista. E' progettata per massimizzare la concentrazione del potere, nelle sue varie forme. Per questo appare impensabile che tutti possano dominarla. Ed è questa la controproposta che è stata definita "oscurantista" da Giuseppe perché alternativa alla ricerca di un'alternativa all'uomo. Perché cercare di simulare l'intelligenza umana in una macchina in modo talmente realistico da ingannare chi ne comprende il funzionamento, investendo miliardi di euro in una ridicola allucinazione collettiva a metà fra hubris da "costruiamoci un vitello d'oro e adoriamolo" e animismo? Non sarebbe meglio invece investire gli stessi soldi per creare strumenti informatici in grado di emancipare le persone? Sistemi operativi, linguaggi di programmazione, software vari in grado di essere letti e compresi completamente da chiunque abbia finito la scuola dell'obbligo. Per quanto possa sembrare costoso, sarà comunque una frazione infinitesimale dei soldi necessari a "vincere" una gara alla ricerca della singolarità oppressiva!
* 3 * aiuterebbe un eventuale obbligo di "nessuna profilazione di default"?
"nessuna profilazione di default" sarebbe bello, ma, forse, molte persone lo troverebbero scomodo, proprio come trovano scomodo che il browser non abbia lo storico della navigazione in sessione anonima...
Lo trovano scomodo perché il browser e il Web sono progettato per farglielo trovare scomodo. DEVONO trovare la privacy scomoda, anche quella poca (pochissima) fornita dalla navigazione anonima. Non è un problema tecnico o culturale, è una scelta POLITICA! Una scelta presa in modo anti-democratico e applicata alle persone tramite gli "esseri tecnici" che ne diventano attuatori, mascherando completamente i veri responsabili di tale scelta POLITICA.
l'automazione è una questione rilevante, capire chi, come e perché promuove certe automazioni invece di altre è forse ancora più rilevante.
Perfettamente d'accordo. Ragion per cui è FONDAMENTALE trattare gli automatismi come cose prive di identità o dignità alcuna, ma estensioni della volontà di chi li costruisce e li mette in opera. SEMPRE. Che si chiamino Google Chrome, Office 365, Android, Classroom o ChatGPT. Ricordando sempre la domanda fondamentale della cibernetica: cui prodest? Giacomo
Buongiorno Giacomo e Karlessi, giacomo@tesio.it writes: [...]
A volte "decide" oppure no al nostro posto?
Che definizione diamo al concetto di "decidere"? Che differenza c'è tra "decidere" e "scegliere"? («we should not be loath to undertake the grueling work of philosophy») [1]
sì, "decide".
no, non decide.
il software calcola.
Non ho ancora letto "Computer Power and Human Reason: From Judgment to Calculation" di Weizenbaum ma, almeno a quanto dice l'articolo su Wikipedia [2] fu (anche?) lui a introdurre nel suo ragionamento la distinzione fra "deciding" e "choosing" quando si parla di computer: --8<---------------cut here---------------start------------->8--- Deciding is a computational activity, something that can ultimately be programmed. Choice, however, is the product of judgment, not calculation. --8<---------------cut here---------------end--------------->8--- Siccome nel linguaggio naturale il significato delle parole dipende... da un sacco di cose, per amor di brevità, in _questo_ contesto potremmo /scegliere/ di attribuire a ciascun termine una e una sola delle definizioni disponibili oggi sul Merriam Webster: - "decide": 1.b to select as a course of action —used with an infinitive - "choose": 1.a to select freely and after consideration [...]
il software effettua SEMPRE ed ESCLUSIVAMENTE ciò che è definito nel proprio programma. anche quando modifica la propria configurazione (che come osservava 380° in passato, è semplicemente una parte della programmazione differita rispetto alla compilazione del binario), in funzione dell'input ricevuto, tale variazione è predeterminata.
Cioè: la decisione è "computational activity" nella misura in cui un **processo** (programma in esecuzione sulla macchina) esegue un /branch/ [3] causato da un /conditional/ [4]... che è /stato programmato/. I /conditional/ sono sempre programmati da umani, anche se il processo di "compilazione" (in senso molto ampio) del binario è complesso (o /complicato/) come nel caso della programmazione statistica detta "machine learning". Quindi la decisione (to select as a course of action) è sì effettuata dal processo ma dipende da come è stato programmato _e_ dell'ambiente di esecuzione (configurazione, input... "perturbazioni varie" [5]). [...]
quand'anche un software fosse connesso ad una sorgente randomica in grado di alterarne la configurazione per simulare una sorta di libero arbitrio, la forma della configurazione stessa e la sua interpretazione da parte del programma sarebbe comunque predeterminato.
Cioè: anche se /simulassimo/ una configurazione frutto di "libero arbitrio" (ammettiamo sia possibile con reti neurali e "machine learning"), il **processo** eseguirebbe solo e soltanto i branch _determinati_ dai conditionals inseriti nel programma. Sia i branch che i conditionals possono essere tantissimi, tanti da essere umanamente difficili anche solo da concepire, figuriamoci da (ri)calcolare, ma la loro natura è quella.
dunque "il digitale" non decide. MAI.
Ma sì: il digitale decide Tutt'altra cosa è scegliere.
Siamo sempre noi che interpretiamo il suo output.
Talvolta, in evidente stato confusionale, lo interpretiamo come "decisione" ma non lo è: la decisione è SOLO nostra e dobbiamo assumercene la piena responsabilità, perché siamo noi ad interpretare l'output.
"Signora mia, non sono io a scegliere di non accordarle XYZ: è il computer che lo ha deciso" In effetti ci sono tanti funzionari che hanno l'ordine di non scegliere ma di applicare le decisioni che escono dal computer. [...]
Il software determina completamente e precisamente ciò che l'automatismo farà e ciò che non farà.
Se con software intendi il **processo** allora sì, se con software intendi il programma allora no, perché l'ambiente di esecuzione *e* - se c'è - l'undefined behaviour [5] hanno una parte altrettanto rilevante nel determinare la decisione (uso questo termine apposta) dell'automatismo. [...]
Ogni artefatto può essere utile. Ma a nessuno va attribuita alcuna dignità intrinseca.
Per questo parlare di "intelligenza artificiale", "macchine cognitive" (come fa Enrico Nardelli nel suo ottimo libro) o anche solo "esseri tecnici" è pericolosamente alienante!
Possiamo anche perdonarci a vicenda per l'uso improprio di certe definizioni, che come abbiam visto nel caso di "deciding" sono /multiformi/, ma per non farsi alienate è importante non fermarsi alle "etichette sulle scatole" ma aprirle queste benedette scatole, capire cosa c'è dentro, a cosa serve il contenuto, se ci piace, /come/ possiamo _usarlo_, ecc... Avere una mentalità hacker, insomma, a partire dalle etichette :-) [...]
Un software è un testo che può determinare il comportamento di una macchina. Niente di più.
Devo poterlo smembrare e rimontare senza ritegno o rispetto.
Bella questa: me la segno! [...]
è una questione di scalabilità federata umani-macchine, non di completa leggibilità/controllo del programma, IMHO.
La completa leggibilità del programma è condizione necessaria, non sufficiente.
Sì questo credo che sia il più grosso malinteso, talmente grosso che non ci permette di passare finalmente _oltre_; è da molti anni che osservo questo malinteso e non riesco a farmene una ragione. La mia personalissima /volgarizzazione/ del concetto espresso è: "Che ce ne frega a noi del codice sorgente tanto non lo capiamo... mica vorrete che impariamo tutti a programmare?!?" (ditemi che ho capito male, dai!) Sarebbe come dire che a noi non interessa la verificabilità della ricerca scientifica sulla fisica perché tanto "noi" non capiamo niente di fisica... mica vorrete che diventiamo tutti fisici?!? (Ci vuole un fisico bestiale) ...o peggio che non ci interessa la trasparenza del processo legislativo sulla pesca perché tanto "noi" non capiamo niente di pesca, mica vorrete che diventiamo tutti pescatori?!? É tutta roba da esperti, no? La verificabilità della ricerca sulla fisica sta alla scienza come il sorgente sta al software. La trasparenza del processo legislativo sta alla democrazia come il sorgente sta al software. La libertà sta alla scienza _esattamente_ come la libertà sta al software. Poi è chiaro che la verificabilità della ricerca scientifica non basta a non fare errori o quella del processo legislativo a non fare norme stupide: e allora?!? [...]
"nessuna profilazione di default" sarebbe bello, ma, forse, molte persone lo troverebbero scomodo, proprio come trovano scomodo che il browser non abbia lo storico della navigazione in sessione anonima...
Lo trovano scomodo perché il browser e il Web sono progettato per farglielo trovare scomodo. DEVONO trovare la privacy scomoda, anche quella poca (pochissima) fornita dalla navigazione anonima.
Anche qui non riesco a farmene una ragione: Internet (non il web) non /prevede/ alcuna "navigazione anonima", ma non è così per /sua natura/... diciamo che a voler essere buoni è stato progettato male, senza MINIMAMENTE pensare alla privacy, a partire dal diritto all'anonimità. Ma quella è stata una /scelta/, non è inevitabile, specialmente oggi che la ricerca in questo ambito ha fatto molti passi avanti. E invece non solo la privacy è scomoda "by design" ma... «eh ma rifare tutto costa troppo, e chi paga?!?» :-O [...] saluti, 380° [1] «Choosing, Deciding & Doing» (18/11/2013» http://www.psy.vanderbilt.edu/courses/psy216/ChoosingDecidingDoing.htm [2] https://en.wikipedia.org/wiki/Joseph_Weizenbaum#Difference_between_Deciding_... [3] https://en.wikipedia.org/wiki/Branch_(computer_science) che in alternativa può essere implementata attraverso la "branch predication", in funzione dell'architettura di computer usata: https://en.wikipedia.org/wiki/Predication_(computer_architecture) [4] https://en.wikipedia.org/wiki/Conditional_(computer_programming) [5] https://en.wikipedia.org/wiki/Undefined_behavior -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Ciao 380°, On Fri, Apr 21, 2023 at 05:43:41PM +0200, 380° wrote:
Deciding is a computational activity, something that can ultimately be programmed. Choice, however, is the product of judgment, not calculation. [...] Siccome nel linguaggio naturale il significato delle parole dipende... da un sacco di cose, per amor di brevità, in _questo_ contesto potremmo /scegliere/ di attribuire a ciascun termine una e una sola delle definizioni disponibili oggi sul Merriam Webster:
- "decide": 1.b to select as a course of action —used with an infinitive
- "choose": 1.a to select freely and after consideration
Interessante distinzione che evidenzia come io non sia stato chiaro. Riprovo: - decidere è un'azione uomana. - segliere anche. sono azioni diverse, ma entrambe umane. Il burocrate che, vittima di una poderosa alienazione cibernetica, applica le regole senza buon senso o compassione, decide non sceglie. Ma decide sempre e comunque sotto la propria responsabilità (che magari cerca di eludere appunto comportandosi COME un automa che esegue un programma). Il computer NON decide. Esattamente come non conta, non vede, non legge etc... Persino la mia precedente affermazione secondo cui "il software calcola" è una affermazione inesatta: non calcola nemmeno. Il software è un dato. E' espressione di uno o più esseri umani che collaborativamente determinano il comportamento di una macchina. La macchina (il computer che esegue il software) non calcola, non conta non produce numeri casuali etc... esegue meccanicamente il software. Per il computer cicli e condizioni non hanno alcun significato. La CPU risponde alle variazioni di tensione sul bus senza avere alcuna comprensione del loro significato. Dunque il computer non decide. Dunque l'hardware che esegue il software non decide alcunché: esegue meccanicamente il programma (che è dato, espressione dell'uomo interpretabile dall'uomo) e produce un output che pur essendo determinato dal programma non ha alcun significato fin tanto che una mente umana non lo interpreta. Esattamente come i byte che il tuo MUA rappresenterà sullo schermo quando leggerai questa mail: pur essendo auspicabilmente espressione della mia coscienza, non hanno alcun significato intrinseco fintanto che una mente umana non li interpreta sulla base delle informazioni che già la caratterizzano (nota: ho scritto informazioni, non dati). L'atto di interpretare un dato è talmente istintivo per l'uomo che non riusciamo facilmente ad diventarne consapevoli. Puoi provare a distinguere i segni che vedi sul tuo schermo dalle informazioni che gli attribuisci nella tua mente? Lo stesso accade per qualsiasi output. C'è sempre qualcuno che lo intepreta. Quindi dire che un software decide (o persino calcola) è sbagliato. E' una scorciatoia comunicativa (e cognitiva) comoda, ma è sbagliato. E con le "intelligenze artificiali" diventa propriamente pericoloso. Un software non può decidere e non deve mai sembrare che lo faccia. Può essere utile per verificare la correttezza formale di una decisione, ma solo debuggandolo pazientemente passo passo, in modo che una singola mente interpreti input, programma che la riproduce e output. Tale correttezza formale ovviamente non garantisce la correttezza della decisione: ad esempio potrebbero esserci errori nella selezione dell'input. Ma solo così il software diventa un ausilio alla decisione: come specchio per la mente umana che decide, non come suo sostituto.
il software effettua SEMPRE ed ESCLUSIVAMENTE ciò che è definito nel proprio programma. anche quando modifica la propria configurazione (che come osservava 380° in passato, è semplicemente una parte della programmazione differita rispetto alla compilazione del binario), in funzione dell'input ricevuto, tale variazione è predeterminata.
Cioè: la decisione è "computational activity" nella misura in cui un **processo** (programma in esecuzione sulla macchina) esegue un /branch/ [3] causato da un /conditional/ [4]... che è /stato programmato/.
No, la decisione è computational activity nel senso che devono essere sufficienti capacità logico-deduttive (aritmetiche direi) per determinarla. Ma un computer non ha capacità logico-deduttive: è una macchina! :-D
I /conditional/ sono sempre programmati da umani, anche se il processo di "compilazione" (in senso molto ampio) del binario è complesso (o /complicato/) come nel caso della programmazione statistica detta "machine learning".
I /conditional/ sono espressione umana, ordine ad una macchina di eseguire una certa transizione di stato che produrrà un output che un'altra persona interpreterà come risultato di una condizione.
Quindi la decisione (to select as a course of action) è sì effettuata dal processo ma dipende da come è stato programmato _e_ dell'ambiente di esecuzione (configurazione, input... "perturbazioni varie" [5]).
Non è una decisione, ma uno stato applicativo (o una transazione fra stati applicativi) che produce un output che poi TU intepreti. Che poi queste perturbazioni varie determinino tale stato applicativo insieme al binario, all'input, alla configurazione etc... siamo d'accordo. Rimane uno stato di una certa macchina, che non ha significato di per sé fintanto che non gli viene attribuito da una mente umana. Mente che non è razionale (tant'è che spesso interpreta l'output come qualcosa che non è, vedi ChatGPT) rendendo intrinsecamente non razionale anche il sistema cibernetico composto da software + umano, per quanto perfetto possa essere il software. L'interpretazione dell'output è SEMPRE un atto politico. E deve essere responsabile e consapevole.
quand'anche un software fosse connesso ad una sorgente randomica in grado di alterarne la configurazione per simulare una sorta di libero arbitrio, la forma della configurazione stessa e la sua interpretazione da parte del programma sarebbe comunque predeterminato.
Cioè: anche se /simulassimo/ una configurazione frutto di "libero arbitrio" (ammettiamo sia possibile con reti neurali e "machine learning"), il **processo** eseguirebbe solo e soltanto i branch _determinati_ dai conditionals inseriti nel programma.
Sia i branch che i conditionals possono essere tantissimi, tanti da essere umanamente difficili anche solo da concepire, figuriamoci da (ri)calcolare, ma la loro natura è quella.
Precisamente. (almeno su questo sono stato chiaro :-D)
dunque "il digitale" non decide. MAI.
Ma sì: il digitale decide
No, non decide. Una macchina che esegue un software non decide. Reagisce meccanicamente a variazioni di corrente determinati dal binario in memoria, dal pointer counter, dallo stato dello stack, dello heap, etc... Un essere umano ha scritto quel software perché qualcuno interpreti l'output in un determinato modo... e l'interprete deve essere pienamente consapevoli della PROPRIA responsabilità nel prendere LUI una decisione sulla base dell'output di quel programma scritto da quella persona. Ma la decisione (e la responsabilità) non è del programma, ma solo delle persone che lo usano per comunicare (programmatori e utenti).
Tutt'altra cosa è scegliere.
Vero. E se le macchine non decidono, figurati scegliere! ;-)
Siamo sempre noi che interpretiamo il suo output.
Talvolta, in evidente stato confusionale, lo interpretiamo come "decisione" ma non lo è: la decisione è SOLO nostra e dobbiamo assumercene la piena responsabilità, perché siamo noi ad interpretare l'output.
"Signora mia, non sono io a scegliere di non accordarle XYZ: è il computer che lo ha deciso"
In effetti ci sono tanti funzionari che hanno l'ordine di non scegliere ma di applicare le decisioni che escono dal computer.
Esatto: esempio "da manuale" di alienazione cibernetica. L'alienazione è al limite del ridicolo se il funzionario non sa nemmeno spiegare precisamente e completamente il processo che ha portato alla decisione di cui LUI è responsabile. Perché la decisione è sua: il computer gli ha solo disegnato una serie di segni sullo schermo.
Il software determina completamente e precisamente ciò che l'automatismo farà e ciò che non farà.
Se con software intendi il **processo** allora sì, se con software intendi il programma allora no, perché l'ambiente di esecuzione *e* - se c'è - l'undefined behaviour [5] hanno una parte altrettanto rilevante nel determinare la decisione (uso questo termine apposta) dell'automatismo.
Ne determinano l'output (e durante l'esecuzione lo stato della macchina che esegue il software) ma non determinano alcuna decisione. Io posso sempre decidere di ignorare quell'output o di interpretarlo al contrario o di alterare l'input finché non ottengo l'output desiderato... Posso persino interpretare gli 1 come l e gli 0 come O o viceversa. :-p la decisione è SEMPRE dell'uomo.
Ogni artefatto può essere utile. Ma a nessuno va attribuita alcuna dignità intrinseca.
Per questo parlare di "intelligenza artificiale", "macchine cognitive" (come fa Enrico Nardelli nel suo ottimo libro) o anche solo "esseri tecnici" è pericolosamente alienante!
Possiamo anche perdonarci a vicenda per l'uso improprio di certe definizioni, che come abbiam visto nel caso di "deciding" sono /multiformi/, ma per non farsi alienate è importante non fermarsi alle "etichette sulle scatole" ma aprirle queste benedette scatole, capire cosa c'è dentro, a cosa serve il contenuto, se ci piace, /come/ possiamo _usarlo_, ecc...
Non è questione di perdono, né di ambiguità linguistica: è questione di usare un linguaggio alienante o meno. Insisto sull'inadeguatezza di certi termini (e provo a proporne di alternativi, come "programmazione statistica") perché ne vedo chiaramente i danni cognitivi inflitti alla società. I ragazzini che soffrono perché Replika dismette le funzioni erotiche. Autorevoli giuristi che giustificano le violazioni dei diritti umani fatte da Open AI tramite Chat GPT perché... "è solo una povera AI!" E così via. Io sono CERTO della buona fede di Giuseppe nell'uso della locuzione "intelligenza artificiale". Così come sono CERTO della buona fede di Enrico nell'uso della locuzione "macchine cognitive" o in quella di kerlessi nell'uso della locuzione "esseri tecnici" E capisco benissimo cosa intendono. Ma poiché quelle locuzioni (ancor più se usata e difese da persone tanto autorevoli) danneggiano tutti, sono costretto a smontarle, guardarci dentro, rivoltarle e mostrare a tutti che... sono solo scatole vuote. A presto! Giacomo
Caro Giacomo, Giacomo Tesio <giacomo@tesio.it> writes:
Ciao 380°,
On Fri, Apr 21, 2023 at 05:43:41PM +0200, 380° wrote:
Deciding is a computational activity, something that can ultimately be programmed. Choice, however, is the product of judgment, not calculation. [...] Siccome nel linguaggio naturale il significato delle parole dipende... da un sacco di cose, per amor di brevità, in _questo_ contesto potremmo /scegliere/ di attribuire a ciascun termine una e una sola delle definizioni disponibili oggi sul Merriam Webster:
- "decide": 1.b to select as a course of action —used with an infinitive
- "choose": 1.a to select freely and after consideration
Interessante distinzione che evidenzia come io non sia stato chiaro.
O forse io non sono stato chiaro? Le definizioni che ho scritto sopra sono due tra quelle possibili, non sono io che faccio una distinzione, è il Merriam Webster. Non sono io che ho scritto "Deciding is a computational activity", anche se lo condivido. Anche nelle neuroscienze e in psicologia ci sono trattati che /fanno distinzione/ tra il processo di decisione e di scelta... la differenza è che il primo può essere automatizzato (che è una scelta .).
Riprovo:
- decidere è un'azione uomana. - segliere anche.
sono azioni diverse, ma entrambe umane.
La decisione può essere guidata attraverso l'applicazione di linee guida, protocolli, ecc. fino ad arrivare alla definizione di algoritmi (che applicano /protocolli/) che eventualmente sfociano in sviluppo di software DSS [1] (decision support system) o ADM [2] (automated decision-making). Concedere o meno l'accesso attraverso un "tornello automatico", tipo quelli delle metropolitane milanesi o dei caselli automatici autostradali, è una decisione totalmente automatizzata... decidere di installare un sistema controllo accessi automatizzato è una scelta [3]. ...anche un filtro della posta elettronica è un sistema di decisione automatizzato. Da molto tempo ci sono diversi sistemi ADM poco controversi, ultimamente ce ne sono un sacco /estremamente/ controversi. L'art. 22 del GDPR si intitola «Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione» L'ICO UK parla di "automated individual decision-making" e lo definisce così: --8<---------------cut here---------------start------------->8--- Automated decision-making is the process of making a decision by automated means without any human involvement. These decisions can be based on factual data, as well as on digitally created profiles or inferred data. Examples of this include: - an online decision to award a loan; and - an aptitude test used for recruitment which uses pre-programmed algorithms and criteria. Automated decision-making often involves profiling, but it does not have to. --8<---------------cut here---------------end--------------->8--- [...]
L'interpretazione dell'output è SEMPRE un atto politico. E deve essere responsabile e consapevole.
L'atto politico è scegliere di usare sistemi di decisione automatizzata, il cui output determina un "course of action" prestabilito. L'atto politico è l'identificazione "senza se e senza ma" delle persone con i dati che chi ha potere sceglie debbano rappresentarli. L'atto politico è scegliere che i sistemi di decisione automatizzata possano essere delle "black box" i cui meccanismi non sono pubblici. L'atto politico è scegliere di usare software binario (IA inclusa) senza pretendere che l'intero processo di build sia trasparente, riproducibile *e* bootstrappable. L'atto politico è scegliere di ignorare tutte le cose che ho scritto sopra. [...]
Possiamo anche perdonarci a vicenda per l'uso improprio di certe definizioni,
[...]
Non è questione di perdono, né di ambiguità linguistica: è questione di usare un linguaggio alienante o meno.
Insisto sull'inadeguatezza di certi termini
Insisto sull'invito a non limitarci (andare oltre?) alle etichette e sul perdono a vicenda :-D [...] Ciao, 380° [1] https://en.wikipedia.org/wiki/Decision_support_system [2] https://en.wikipedia.org/wiki/Automated_decision-making [3] l'ultima volta che sono stato a Berlino non era necessario lassare per un tornello automatico per accedere alla metropolitana e mi pare che storicamente sia sempre stato così [4] https://ico.org.uk/for-organisations/guide-to-data-protection/guide-to-the-g... -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Ciao 380°, in effetti l'informatica è talmente primitiva che il linguaggio che la caratterizza era già inadeguato ben prima dell'avvento della locuzione "intelligenza artificiale". "Automated decision-making technologies" è un'altra di quelle definizioni confuse che andrebbero sostituite al più presto. La tecnologia non decide. Nessuna macchina decide. Come nessuna calcolatrice calcola, d'altronde. Al massimo può riprodurre un'elaborazione dati che un essere umano può interpretare come un processo decisionale. Analogamente alla calcolatrice elettronica che non calcola, ma riproduce elettronicamente una serie di transizioni elettriche predeterminate che una mente umana può interpretare come un calcolo. Ma può interpretarla anche come un'avance un po' goffa via calcolatrice: 0.7738135 On Thu, Apr 27, 2023 at 09:14:27AM +0200, 380° wrote:
Concedere o meno l'accesso attraverso un "tornello automatico", tipo quelli delle metropolitane milanesi
Di nuovo questione di interpretazione: c'è chi lo interpreta come un sistema di controllo dell'accesso alla metropolitana e chi invece come un punto d'appoggio per il parkour! :-D Il punto comunque è che le cose (hardware e software) non decidono. Al limite possono riprodurre meccanicamente gli effetti di decisioni prese da altri esseri umani.
...anche un filtro della posta elettronica è un sistema di decisione automatizzato.
no, non decide alcunché. sposta dei messaggi fra cartelle riproducendo elettronicamente transizioni che tu, come essere umano, interpreti come decisioni (anche perché, auspicabilmente, il risultato coincide con le decisioni che tu prenderesti in proposito). Ma non decide (ed ancor meno sceglie, ovviamente). Si tratta infatti di una applicazione informatica, ovvero di quel campo della conoscenza umana che studia come l'informazione possa essere trasferita, preservata, rappresentata, interpretata e trasformata, nonché l'insieme di tecniche che applicano tale conoscenza (ai dati che rappresentano tale informazione).
Da molto tempo ci sono diversi sistemi ADM poco controversi, ultimamente ce ne sono un sacco /estremamente/ controversi.
In altri termini: fino a poco tempo fa potevamo permetterci una locuzione inappropriata (ADM), adesso non possiamo più.
L'interpretazione dell'output è SEMPRE un atto politico. E deve essere responsabile e consapevole.
L'atto politico è scegliere di usare sistemi di decisione automatizzata, il cui output determina un "course of action" prestabilito.
L'atto politico è l'identificazione "senza se e senza ma" delle persone con i dati che chi ha potere sceglie debbano rappresentarli.
L'atto politico è scegliere che i sistemi di decisione automatizzata possano essere delle "black box" i cui meccanismi non sono pubblici.
L'atto politico è scegliere di usare software binario (IA inclusa) senza pretendere che l'intero processo di build sia trasparente, riproducibile *e* bootstrappable.
L'atto politico è scegliere di ignorare tutte le cose che ho scritto sopra.
Tutto vero, ma anche l'interpretazione dell'output è un atto politico. Lo puoi interpretare come decisione altrui (di chi ha programmato il software), come suggerimento, come decisione imperscrutabile della "IA", come un output di un software bacato e in molti altri modi. La _scelta_ di come interpretare quell'output è un atto politico. Per cui è sempre politica anche la sua interpretazione.
Possiamo anche perdonarci a vicenda per l'uso improprio di certe definizioni,
[...]
Non è questione di perdono, né di ambiguità linguistica: è questione di usare un linguaggio alienante o meno.
Insisto sull'inadeguatezza di certi termini
Insisto sull'invito a non limitarci (andare oltre?) alle etichette
Famose a capisse! :-D Ogni etichetta (il significante) produce determinate variazioni nel nostro cervello, permettendo una sincronizzazione fra le nostre menti che noi chiamiamo "comunicazione". Ma poiché le informazioni non sono dati, l'interpretazione dipende sempre dalla conoscenza e dalle opinioni pregresse e non sono qualcosa che la mente "possiede" ma qualcosa di cui la mente umana è costituita, la scelta di un significante rispetto ad un altro è importante. "Le parole sono importanti!" :-D "Blockchain" è un termine che (almeno per un italiano) non produce confusione alienante: appare come qualcosa di freddo e tecnico. "Criptovaluta" è già molto più ingannevole. "Intelligenza Artificiale" richiama alla mente un'esperienza umana e per quanto qualsiasi informatico competente comprenda benissimo che non si tratta di intelligenza, alcuni informatici hanno interesse a giocare sulla confusione che induce nelle menti meno preparate. "Automated Decision-Making" analogamente richiama alla mente un'esperienza umana (il decidere) e produce analoghe aberrazioni (seppur su scala minore) "Programmazione statistica" è al momento la mia locuzione preferita non solo perché fredda e tecnica, ma perché presuppone la presenza di programmatori che debbano rispondere del programma. Un aspetto fondamentale che deve essere sempre ben chiaro nella mente delle persone che trattano di questi agenti cibernetici automatici, tanto che embeddarlo nel linguaggio credo sia una buona idea. A presto! Giacomo
Ciao, certo, la questione è ampia e complessa, e l'oscurità parecchia con l'obiettivo di far luce a modo nostro, abbiamo appena pubblicato qualche riflessione sulle cosiddette "IA" qui https://mondodigitale.aicanet.net/2023-1/ARTICOLI/02_AI-automazione_Milani.p... ad ogni modo, non sono interessato a difendere a spada tratta l'espressione "esseri tecnici", che (purtroppo) non ho inventato, ma ho mutuato dal filosofo della tecnica Gilbert Simondon, introdotta AFAIK nel 1958 "Du mode d'existence des objets techniques". Il testo è un po' complicato e poteva essere scritto in maniera più potabile. Più abbordabile e piacevole invece la raccolta "Sur la technique", in italiano https://www.orthotes.com/sulla-tecnica/ da Simondon ho preso anche l'espressione "alienazione tecnica": l'hacking che mi interessa consiste appunto in attività che mirano alla riduzione dell'alienazione tecnica. di questa e altre espressioni si può discutere: però non solo dal punto di vista dell'informatica, la tecnicità è più vasta!, e d'altra parte questa come altre espressioni possono anche essere "improprie", ma non è questo il punto. il punto che riguarda l'"oscurità digitale" provocata ad arte per me è in primo luogo *smettere di colpevolizzare le persone, "comuni" o meno, per il loro presunto "cattivo uso" di tecnologie tossiche, strutturate ad arte per favorire oscurità ecc.* è questo il problema più grave, a livello di attitudine e comportamento, da cui derivano tutti gli altri. non riguarda solo i ragazz* è l'analogo di colpevolizzare la persona che lascia aperta l'acqua del rubinetto mentre si lava i denti perché spreca l'acqua. Certo, potrebbe recuperarla e annaffiare le piante assetate. Ottima idea. Ma, immersi in società sempre più industrializzate che spingono l'acceleratore sulla produzione, gli armamenti, ecc. ovvero verso i ecodisastri che ancora ci aspettano, concentrarsi su questi aspetti è come guardare il dito e non vedere la luna. Non è questo il punto, appunto! Il punto dell'oscurità digitale, dell'oscurantismo digitale, è che la tecnologia derivante dalla ricerca scientifica non deve per forza andare nella direzione di concentrazione e omologazione tossica in cui sta andando. Non è inevitabile. Non è scritto da nessuna parte, perché l'evoluzione è in corso, e non è predeterminata. Perciò rispondere con un classicissimo "studiate il codice!" quando parliamo di codice chiuso e di milioni di righe di codice (senz'altro vale per le piattaforme social media, in parte anche per i modelli dei LLM) tende a rafforzare la sensazione di impotenza e a schiacciare l'immaginazione delle persone. Non è sbagliato, intendiamoci; ma non è questo il punto. Anche perché *conoscere* non significa per forza essere in grado di agire altrimenti: altrimenti la libertà, il libero arbitrio ecc. sarebbero una conseguenza automatica della conoscenza, il che non è. Perciò, con attitudine hacker, invitiamo a smontare le black box in un altro modo, che non nega altre possibilità; cerchiamo di capire come influiscono sul comportamento umano, come re-agiscono con le nostre vulnerabilità e come averci a che fare, se possibile, senza farsi troppo male. L'esercizio della voce del demone serve a questo. Non sarà filosoficamente ortodosso, ma a noi piace, è un gioco di libertà e immaginazione, e d'altra parte la filosofia di un qualche interesse non è mai ortodossa :D Siamo d'accordo sul fatto che l'interazione con questi complessi sistemi NON dipende SOLO dagli esseri umani, e dal loro "uso"? Siamo d'accordo sul fatto che vengono resi volutamente complicati, ambivalenti, ingannevoli, manipolatori? L'oscurità IMHO si infittisce se si sostiene che dipende solo da come vengono usati, e che solo persone poco accorte, che non conoscono il codice, possono cascarci e "usarle male". Un esempio: coder che hanno programmato gli algoritmi che fanno girare le slot machines, messi davanti alle slot machines, tendono a rimanere presi dalla loro trappola. I pungoli al sistema dopaminergico (nucleo accumbens) tendono a essere predominanti sulla riflessività (corteccia frontale), dipende da come è fatto il cervello umano. *Conoscere* è importante ma a volte insufficiente e, anzi, foriero di false sicurezze. (l'esempio è di Natasha Dow Schüll, Addiction by design, https://press.princeton.edu/books/paperback/9780691160887/addiction-by-desig... ) Al tempo stesso, è importante insegnare la gentilezza, in generale, e nel "digitale" ancora di più. Al di là delle leggi. Il fatto che una pietra (come una macchina, se volete) sia insensibile, è IRRILEVANTE. Rilevante è invece che sensazioni ed emozioni fluiscono fra gli esseri viventi, fra cui gli esseri umani, e ne strutturano i comportamenti; gli esseri non viventi, fra cui le macchine, stanno fra gli esseri viventi, in mezzo a loro. Crudeltà e violenza si ripercuotono sull'umano, ergo razionalmente sono da evitarsi. Questa è l'argomentazione kantiana (cf. Metafisica dei costumi), sul perché evitare la crudeltà nei confronti degli animali. Non c'è bisogno di essere animisti (posizione che non mi appartiene) per estendere anche alle macchine l'argomentazione kantiana: è una linea argomentativa assolutamente razionalista. Personalmente mi spingerei oltre, ma confido sia una posizione ampiamente condivisibile. Ma, al di là dei diritti e dei doveri, la questione è molto più complessa, perché tocca gli effetti psicosociali dell'introduzione di questi sistemi, veri e propri attentati alla biodiversità tecnica. Per cui l'aspetto squisitamente tecnico diventa secondario. Alla ribalta salgono invece le modalità di decisione, in particolare quelle razionali, che sono state messe in discussione fra l'altro da cinquant'anni di economia comportamentale, almeno dall'anchoring di Kahneman e Tversky in poi. Gli esseri umani sono ben poco razionali nei loro comportamenti concreti, nelle loro decisioni e scelte. Non è necessariamente problematico, se non per il fatto che i sistemi tecnici dominanti tendono a sfruttare i bias cognitivi umani (euristiche sviluppate per ragioni evolutive, da *non* estinguere!) per portare l'acqua al mulino dei loro padroni. E, ancora una volta, non è necessario esser socialisti, né tanto meno anarchici, per capire che il fatto che siano padroni, e padroni quasi assoluti (che adesso chiedono una moratoria sulla ricerca! senza vergogna!) rende tutti gli altri altamente dipendenti dalla loro benevolenza, dal loro buon cuore. non siamo in una situazione invidiabile. buon 42 a tutt, con l'augurio di riuscire a capire come si arriva a quel numero. il percorso è la parte migliore. k. Il 26/04/23 18:18, Giacomo Tesio ha scritto:
Ciao 380°,
On Fri, Apr 21, 2023 at 05:43:41PM +0200, 380° wrote:
Deciding is a computational activity, something that can ultimately be programmed. Choice, however, is the product of judgment, not calculation. [...] Siccome nel linguaggio naturale il significato delle parole dipende... da un sacco di cose, per amor di brevità, in _questo_ contesto potremmo /scegliere/ di attribuire a ciascun termine una e una sola delle definizioni disponibili oggi sul Merriam Webster:
- "decide": 1.b to select as a course of action —used with an infinitive
- "choose": 1.a to select freely and after consideration
Interessante distinzione che evidenzia come io non sia stato chiaro.
Riprovo:
- decidere è un'azione uomana. - segliere anche.
sono azioni diverse, ma entrambe umane.
Il burocrate che, vittima di una poderosa alienazione cibernetica, applica le regole senza buon senso o compassione, decide non sceglie.
Ma decide sempre e comunque sotto la propria responsabilità (che magari cerca di eludere appunto comportandosi COME un automa che esegue un programma).
Il computer NON decide. Esattamente come non conta, non vede, non legge etc...
Persino la mia precedente affermazione secondo cui "il software calcola" è una affermazione inesatta: non calcola nemmeno.
Il software è un dato.
E' espressione di uno o più esseri umani che collaborativamente determinano il comportamento di una macchina.
La macchina (il computer che esegue il software) non calcola, non conta non produce numeri casuali etc... esegue meccanicamente il software.
Per il computer cicli e condizioni non hanno alcun significato. La CPU risponde alle variazioni di tensione sul bus senza avere alcuna comprensione del loro significato.
Dunque il computer non decide.
Dunque l'hardware che esegue il software non decide alcunché: esegue meccanicamente il programma (che è dato, espressione dell'uomo interpretabile dall'uomo) e produce un output che pur essendo determinato dal programma non ha alcun significato fin tanto che una mente umana non lo interpreta.
Esattamente come i byte che il tuo MUA rappresenterà sullo schermo quando leggerai questa mail: pur essendo auspicabilmente espressione della mia coscienza, non hanno alcun significato intrinseco fintanto che una mente umana non li interpreta sulla base delle informazioni che già la caratterizzano (nota: ho scritto informazioni, non dati).
L'atto di interpretare un dato è talmente istintivo per l'uomo che non riusciamo facilmente ad diventarne consapevoli.
Puoi provare a distinguere i segni che vedi sul tuo schermo dalle informazioni che gli attribuisci nella tua mente?
Lo stesso accade per qualsiasi output.
C'è sempre qualcuno che lo intepreta.
Quindi dire che un software decide (o persino calcola) è sbagliato. E' una scorciatoia comunicativa (e cognitiva) comoda, ma è sbagliato.
E con le "intelligenze artificiali" diventa propriamente pericoloso.
Un software non può decidere e non deve mai sembrare che lo faccia.
Può essere utile per verificare la correttezza formale di una decisione, ma solo debuggandolo pazientemente passo passo, in modo che una singola mente interpreti input, programma che la riproduce e output.
Tale correttezza formale ovviamente non garantisce la correttezza della decisione: ad esempio potrebbero esserci errori nella selezione dell'input.
Ma solo così il software diventa un ausilio alla decisione: come specchio per la mente umana che decide, non come suo sostituto.
il software effettua SEMPRE ed ESCLUSIVAMENTE ciò che è definito nel proprio programma. anche quando modifica la propria configurazione (che come osservava 380° in passato, è semplicemente una parte della programmazione differita rispetto alla compilazione del binario), in funzione dell'input ricevuto, tale variazione è predeterminata.
Cioè: la decisione è "computational activity" nella misura in cui un **processo** (programma in esecuzione sulla macchina) esegue un /branch/ [3] causato da un /conditional/ [4]... che è /stato programmato/.
No, la decisione è computational activity nel senso che devono essere sufficienti capacità logico-deduttive (aritmetiche direi) per determinarla.
Ma un computer non ha capacità logico-deduttive: è una macchina! :-D
I /conditional/ sono sempre programmati da umani, anche se il processo di "compilazione" (in senso molto ampio) del binario è complesso (o /complicato/) come nel caso della programmazione statistica detta "machine learning".
I /conditional/ sono espressione umana, ordine ad una macchina di eseguire una certa transizione di stato che produrrà un output che un'altra persona interpreterà come risultato di una condizione.
Quindi la decisione (to select as a course of action) è sì effettuata dal processo ma dipende da come è stato programmato _e_ dell'ambiente di esecuzione (configurazione, input... "perturbazioni varie" [5]).
Non è una decisione, ma uno stato applicativo (o una transazione fra stati applicativi) che produce un output che poi TU intepreti.
Che poi queste perturbazioni varie determinino tale stato applicativo insieme al binario, all'input, alla configurazione etc... siamo d'accordo.
Rimane uno stato di una certa macchina, che non ha significato di per sé fintanto che non gli viene attribuito da una mente umana.
Mente che non è razionale (tant'è che spesso interpreta l'output come qualcosa che non è, vedi ChatGPT) rendendo intrinsecamente non razionale anche il sistema cibernetico composto da software + umano, per quanto perfetto possa essere il software.
L'interpretazione dell'output è SEMPRE un atto politico. E deve essere responsabile e consapevole.
quand'anche un software fosse connesso ad una sorgente randomica in grado di alterarne la configurazione per simulare una sorta di libero arbitrio, la forma della configurazione stessa e la sua interpretazione da parte del programma sarebbe comunque predeterminato.
Cioè: anche se /simulassimo/ una configurazione frutto di "libero arbitrio" (ammettiamo sia possibile con reti neurali e "machine learning"), il **processo** eseguirebbe solo e soltanto i branch _determinati_ dai conditionals inseriti nel programma.
Sia i branch che i conditionals possono essere tantissimi, tanti da essere umanamente difficili anche solo da concepire, figuriamoci da (ri)calcolare, ma la loro natura è quella.
Precisamente. (almeno su questo sono stato chiaro :-D)
dunque "il digitale" non decide. MAI.
Ma sì: il digitale decide
No, non decide.
Una macchina che esegue un software non decide. Reagisce meccanicamente a variazioni di corrente determinati dal binario in memoria, dal pointer counter, dallo stato dello stack, dello heap, etc...
Un essere umano ha scritto quel software perché qualcuno interpreti l'output in un determinato modo... e l'interprete deve essere pienamente consapevoli della PROPRIA responsabilità nel prendere LUI una decisione sulla base dell'output di quel programma scritto da quella persona.
Ma la decisione (e la responsabilità) non è del programma, ma solo delle persone che lo usano per comunicare (programmatori e utenti).
Tutt'altra cosa è scegliere.
Vero.
E se le macchine non decidono, figurati scegliere! ;-)
Siamo sempre noi che interpretiamo il suo output.
Talvolta, in evidente stato confusionale, lo interpretiamo come "decisione" ma non lo è: la decisione è SOLO nostra e dobbiamo assumercene la piena responsabilità, perché siamo noi ad interpretare l'output.
"Signora mia, non sono io a scegliere di non accordarle XYZ: è il computer che lo ha deciso"
In effetti ci sono tanti funzionari che hanno l'ordine di non scegliere ma di applicare le decisioni che escono dal computer.
Esatto: esempio "da manuale" di alienazione cibernetica.
L'alienazione è al limite del ridicolo se il funzionario non sa nemmeno spiegare precisamente e completamente il processo che ha portato alla decisione di cui LUI è responsabile.
Perché la decisione è sua: il computer gli ha solo disegnato una serie di segni sullo schermo.
Il software determina completamente e precisamente ciò che l'automatismo farà e ciò che non farà.
Se con software intendi il **processo** allora sì, se con software intendi il programma allora no, perché l'ambiente di esecuzione *e* - se c'è - l'undefined behaviour [5] hanno una parte altrettanto rilevante nel determinare la decisione (uso questo termine apposta) dell'automatismo.
Ne determinano l'output (e durante l'esecuzione lo stato della macchina che esegue il software) ma non determinano alcuna decisione.
Io posso sempre decidere di ignorare quell'output o di interpretarlo al contrario o di alterare l'input finché non ottengo l'output desiderato...
Posso persino interpretare gli 1 come l e gli 0 come O o viceversa. :-p
la decisione è SEMPRE dell'uomo.
Ogni artefatto può essere utile. Ma a nessuno va attribuita alcuna dignità intrinseca.
Per questo parlare di "intelligenza artificiale", "macchine cognitive" (come fa Enrico Nardelli nel suo ottimo libro) o anche solo "esseri tecnici" è pericolosamente alienante!
Possiamo anche perdonarci a vicenda per l'uso improprio di certe definizioni, che come abbiam visto nel caso di "deciding" sono /multiformi/, ma per non farsi alienate è importante non fermarsi alle "etichette sulle scatole" ma aprirle queste benedette scatole, capire cosa c'è dentro, a cosa serve il contenuto, se ci piace, /come/ possiamo _usarlo_, ecc...
Non è questione di perdono, né di ambiguità linguistica: è questione di usare un linguaggio alienante o meno.
Insisto sull'inadeguatezza di certi termini (e provo a proporne di alternativi, come "programmazione statistica") perché ne vedo chiaramente i danni cognitivi inflitti alla società.
I ragazzini che soffrono perché Replika dismette le funzioni erotiche.
Autorevoli giuristi che giustificano le violazioni dei diritti umani fatte da Open AI tramite Chat GPT perché... "è solo una povera AI!"
E così via.
Io sono CERTO della buona fede di Giuseppe nell'uso della locuzione "intelligenza artificiale". Così come sono CERTO della buona fede di Enrico nell'uso della locuzione "macchine cognitive" o in quella di kerlessi nell'uso della locuzione "esseri tecnici"
E capisco benissimo cosa intendono.
Ma poiché quelle locuzioni (ancor più se usata e difese da persone tanto autorevoli) danneggiano tutti, sono costretto a smontarle, guardarci dentro, rivoltarle e mostrare a tutti che... sono solo scatole vuote.
A presto!
Giacomo
-- "tecnologie conviviali - https://tc.eleuthera.it" "pedagogia hacker - https://circex.org" "tecnologie appropriate - https://alekos.net"
On Thu, Apr 27, 2023 11:37:55 AM +0200, karlessi wrote:
il punto che riguarda l'"oscurità digitale" provocata ad arte per me è in primo luogo *smettere di colpevolizzare le persone, "comuni" o meno, per il loro presunto "cattivo uso" di tecnologie tossiche, strutturate ad arte per favorire oscurità ecc.* ... è questo il problema più grave, a livello di attitudine e comportamento, da cui derivano tutti gli altri... ... ...rispondere con un classicissimo "studiate il codice!" quando parliamo di codice chiuso e di milioni di righe di codice (senz'altro vale per le piattaforme social media, in parte anche per i modelli dei LLM) tende a rafforzare la sensazione di impotenza e a schiacciare l'immaginazione delle persone. Non è sbagliato, intendiamoci; ma non è questo il punto. Anche perché *conoscere* non significa per forza essere in grado di agire altrimenti: altrimenti la libertà, il libero arbitrio ecc. sarebbero una conseguenza automatica della conoscenza, il che non è.
Giusto per completezza, nel caso dei social media, e in tanti altri, studiare a memoria il codice potrebbe non bastare nemmeno in teoria, senza avere anche tutti i dati che effettivamente elabora. E "studiare il codice" e' inutile anche parlando di voto elettronico, per le stesse ragioni. Ma grazie! Meno male che anche qualcun altro le dice chiaramente, queste cose, che dovrebbero valere sempre. Marco -- La mia newsletter per una maggiore consapevolezza digitale: https://mfioretti.substack.com
participants (6)
-
380° -
Alessandro Brolpito -
Giacomo Tesio -
giacomo@tesio.it -
karlessi -
M. Fioretti