Ciao Karlessi, ripercorro anche io le tue risposte (giacché sono, in effetti, risposte) per metterle a confronto con quelle che darei io. On 20.04.2023 11:01, karlessi wrote:
Date: Wed, 19 Apr 2023 23:51:15 +0200 * 1 * il digitale incide oppure no in modo significativo sul nostro modo di essere umani? Ci fornisce oppure no "informazioni" che influenzano scelte finora autonome? A volte "decide" oppure no al nostro posto?
sì, "decide".
no, non decide. il software calcola. ripete pedissequamente, meccanicamente, la propria programmazione. che tale programmazione sia ignota (per ragioni di licenza o per inadeguatezza delle tecniche di programmazione adottate) è irrilevante. il software effettua SEMPRE ed ESCLUSIVAMENTE ciò che è definito nel proprio programma. anche quando modifica la propria configurazione (che come osservava 380° in passato, è semplicemente una parte della programmazione differita rispetto alla compilazione del binario), in funzione dell'input ricevuto, tale variazione è predeterminata. e di nuovo, il fatto che tale determinazione sia o pretenda di essere irresponsabile, è totalmente irrilevante rispetto al fatto che sussista. quand'anche un software fosse connesso ad una sorgente randomica in grado di alterarne la configurazione per simulare una sorta di libero arbitrio, la forma della configurazione stessa e la sua interpretazione da parte del programma sarebbe comunque predeterminato. dunque "il digitale" non decide. MAI. Siamo sempre noi che interpretiamo il suo output. Talvolta, in evidente stato confusionale, lo interpretiamo come "decisione" ma non lo è: la decisione è SOLO nostra e dobbiamo assumercene la piena responsabilità, perché siamo noi ad interpretare l'output.
ma come non esiste l'autonomia umana assoluta (sarebbe solipsismo psicotico), così "il digitale" non decide "al posto" nostro: decide "insieme" a noi, re-agendo insieme. "decide" nel senso che promuove attivamente determinate visioni del mondo perché re-agisce (ciberneticamente, retroattivamente) con vulnerabilità umane, zone sensibili personali e collettive di cui è importante avere consapevolezza, e di cui prendersi cura (bias cognitivi sfruttati dalle interfacce, sensibilità personali, abitudini culturali, ecc.).
No, non decide "il digitale", ma chi lo programma e lo integra nella società cibernetica, distribuendolo, eseguendolo etc...
In termini poetici e filosofici, i sistemi tecnici contemporanei hanno delle "voci", cioè dei demoni socratici che le muovono, e che evolvono. queste voci "spingono" (nudge, gamification) gli umani a reagire in un certo modo. OVVIAMENTE si può: resistere; imparare; smontare e rimontare; rifiutare; limitare la manipolazione; usare in maniera difforme (ma implica maggior sforzo); evolvere diversamente; ecc ecc
Mi correggeranno i filosofi in lista, ma ho sempre inteso il demone di Socrate come la sua Coscienza, qualcosa che agli automatismi manca. Infatti, se non erro, Socrate diceva che il suo demone lo dissuadeva dal fare ciò che stava per fare, ma non gli imponeva mai di fare qualcosa. Il software non è una "voce interiore" dell'automatismo che lo incita a resistere ai propri impulsi. Il software determina completamente e precisamente ciò che l'automatismo farà e ciò che non farà. E di conseguenza, determina completamente gli effetti che avrà sull'ecosistema in cui viene introdotto e sulle persone con cui interagirà.
però è importante ricordare che "(NON) dipende (SOLO) da noi", cioè non dipende solo dall'uso. I sistemi tecnici hanno affordances, che sono ideologicamente sviluppate. "Ideologico" nel senso di "portatore di una certa visione del mondo, con certe idee-cardine" (che possono cambiare nel tempo)
Non dipende affatto dall'uso, perché l'uso stesso è pre-determinato. Gli hacker sono in grado di alterare il funzionamento di tali artefatti perché ne comprendono il funzionamento tanto da smontarli e rimontarli in modo diverso. Ma alla fine dell'hack, l'automatismo continuerà a ripetere pedissequamente la volontà di chi l'ha programmato (in questo caso, l'hacker).
un esempio, da una presentazione-laboratorio tenuta l'altro ieri sera a Roma: Youtube ora spinge a VEDERE video, NON A CARICARE video. Infatti l'interfaccia dell'altro ieri NON E' come quella degli inizi:
https://web.archive.org/web/20230418000009/https://www.youtube.com/
https://web.archive.org/web/20050614234128/http://www.youtube.com/
nella seconda, del 2005, "UPLOAD YOUR VIDEO" è molto evidente... nella prima, del 2023, è scomparsa. ciò mostra che la voce del demone di Youtube si è evoluta, saperlo e notarlo ci aiuta a relazionarci in maniera accorta a questo sistema, a ridurre l'alienazione tecnica, a limitare gli stati di flusso in cui si interagisce "senza decidere" :D
Bell'esempio, pessima interpretazione. :-) YouTube non è "evoluto": è stato sostituito con una nuova versione. E' un software, non ha una identità. GOOGLE, che lo realizza e amministra, decide cosa l'utente (terribile riduzione della persona umana) possa o non possa fare. E decide con quale probabilità e frequenza. Così come deciderà chi vedrà i video caricati. Oltre ovviamente a decidere che video vedrà la maggioranza delle persone, quali diventeranno virali etc... YouTube, in sé, non esiste. Durante i continui A/B test, persone diverse usano software diversi. Attribuirgli un'identità è di per sé alienante. E' una cosa: un artefatto costruito dall'uomo per scopi precisi. Ogni artefatto può essere utile. Ma a nessuno va attribuita alcuna dignità intrinseca. Per questo parlare di "intelligenza artificiale", "macchine cognitive" (come fa Enrico Nardelli nel suo ottimo libro) o anche solo "esseri tecnici" è pericolosamente alienante! Sono cose. Solo cose. Se le trattiamo come qualcosa di diverso, se gli attribuiamo una qualsiasi dignità, sottraiamo inevitabilmente tale dignità all'uomo. Un software è un testo che può determinare il comportamento di una macchina. Niente di più. Devo poterlo smembrare e rimontare senza ritegno o rispetto. Il rispetto, la dignità, è solo per le persone, non per l'artefatto. Quelle che l'hanno scritto e che lo modificheranno, così come quelle che lo eseguiranno. Ma non per l'artefatto. Se non funziona, si cancella o si "martella"... è una cosa insomma. Come artefatto, il suo unico criterio di valore è l'utilità. Criterio che non va mai applicato alle persone.
* 2 * la possibilità di "leggere il programma" è opportuna / necessaria?
IMHO è importante poter comprendere a grandi linee come funziona il programma e poter intervenire in quello svolgimento. se non direttamente, attraverso gli occhi e le competenze di qualcuno di cui ci fidiamo.
Io direi fondamentale. In una società cibernetica in cui il rapporto numerico fra esseri umani ed automatismi è di uno a 3-400 (contando solo gli automatismi in esecuzione su un comune cellulare android), si potrebbe argomentare che sia persino più importante di saper leggere e scrivere una lingua umana. Ma sarebbe un argomento alienante! ;-) Infatti, sono esseri umani a realizzare e controllare quegli automatismi! Invece è fondamentale saper programmare e debuggare gli automatismi che ci circondano esattamente quanto è importante saper leggere, scrivere e far di conto. Chi non imparerà a farlo, si troverà nostro malgrado ad essere un cittadino di serie B nella società cibernetica in cui viviamo. E ciò renderà tale società oppressiva ed alienante per tutti. Ed ovviamente non democratica. Per questo, la terza via democratica allo sviluppo tecnologico che l'Europa DEVE intraprendere, deve essere focalizzata sulla realizzazione di tecnologie perfettamente comprensibili e debuggabili da qualsiasi cittadino. E sull'educazione informatica e cibernetica di tutti i cittadini. Bisogna lavorare su entrambi i fronti, insomma. Da un lato sostituire la tecnologia oppressiva del presente con una più democratica, dall'altro educare la cittadinanza affinché possa averne il pieno controllo.
esempio assai istituzionale:
https://nextcloud.eucommeet.eu
è un H2020 di cui curiamo la parte tecnica. perché far la fatica di utilizzare una VM su OpenStack del GARR invece che un AWS o Azure public cloud? perché avvalersi di un accrocchio nextcloud + jitsi invece che M$ Teams, Google Suite, ecc.? si fa fatica, anche perché poi gli utenti si lamentano che "è più difficile da usare di Zoom, di google docs!"
Di nuovo, ottimo esempio ma analisi insufficiente. Perché è più difficile? Perché è meno integrato? Perché si fa più fatica? Non perché è open source (o GDPR compliant) ma perché questi software hanno ricevuto una frazione irrisoria degli investimenti effettuati sulle alternative proprietarie. E molti dei soldi di quegli investimenti vengono dalle tasse dei cittadini di tutto il mondo, sottratti alla pubblica amministrazione (ed all'economia di quei paesi) tramite evasione^W "ottimizzazione" fiscale, pratiche commerciali scorrette, da cattura culturale e spesso da vera e propria corruzione: https://www.reuters.com/article/us-microsoft-settlement-idUSKCN1UH1P3 https://www.theverge.com/2022/3/25/22995144/microsoft-foreign-corrupt-practi... Se il software libero ha dei problemi, basta investire qualche migliaio di euro all'anno e finanziarne più seriamente lo sviluppo.
(qualcuno direbbe: perché è GDPR compliant... ma tanto a quanto pare non è la preoccupazione principale dei progetti europei!)
Sì sembra che i diritti umani non godano di grande considerazione in questo periodo. Vedono visti come un fastidioso intralcio. Anche da esseri umani! L'alienazione cibernetica è a livelli impensabili solo pochi anni fa. C'è da sperare di poter recuperare tutte queste persone! Ma la disintossicazione non è mai facile. E spesso è dolorosa.
però continuo a pensare che sia meglio del software proprietario. soprattutto perché è possibile sviluppare una relazione alla pari con chi sviluppa e manutiene; forkare; fare altro sulla base dell'operato di chi è venuto prima di noi.
così come è possibile sviluppare una relazione alla pari, istituzionalmente e umanamente parlando, con le persone che stanno dietro alle macchine del GARR, e, in caso di problemi e necessità, chiedere a loro. Non è lo stesso tipo di relazione che si può sviluppare con Amazon, Google o Microsoft.
Vero. E' una questione di relazioni tra PERSONE. (i computer sono meri specchi... ;-)
è una questione di scalabilità federata umani-macchine, non di completa leggibilità/controllo del programma, IMHO.
La completa leggibilità del programma è condizione necessaria, non sufficiente. Infatti molto codice opensource è reso scientemente complicato, per vanificare le libertà formalmente garantite dalla licenza (tipicamente permissiva). Ad OGGI, l'informatica è intrinsecamente elitaria e classista. E' progettata per massimizzare la concentrazione del potere, nelle sue varie forme. Per questo appare impensabile che tutti possano dominarla. Ed è questa la controproposta che è stata definita "oscurantista" da Giuseppe perché alternativa alla ricerca di un'alternativa all'uomo. Perché cercare di simulare l'intelligenza umana in una macchina in modo talmente realistico da ingannare chi ne comprende il funzionamento, investendo miliardi di euro in una ridicola allucinazione collettiva a metà fra hubris da "costruiamoci un vitello d'oro e adoriamolo" e animismo? Non sarebbe meglio invece investire gli stessi soldi per creare strumenti informatici in grado di emancipare le persone? Sistemi operativi, linguaggi di programmazione, software vari in grado di essere letti e compresi completamente da chiunque abbia finito la scuola dell'obbligo. Per quanto possa sembrare costoso, sarà comunque una frazione infinitesimale dei soldi necessari a "vincere" una gara alla ricerca della singolarità oppressiva!
* 3 * aiuterebbe un eventuale obbligo di "nessuna profilazione di default"?
"nessuna profilazione di default" sarebbe bello, ma, forse, molte persone lo troverebbero scomodo, proprio come trovano scomodo che il browser non abbia lo storico della navigazione in sessione anonima...
Lo trovano scomodo perché il browser e il Web sono progettato per farglielo trovare scomodo. DEVONO trovare la privacy scomoda, anche quella poca (pochissima) fornita dalla navigazione anonima. Non è un problema tecnico o culturale, è una scelta POLITICA! Una scelta presa in modo anti-democratico e applicata alle persone tramite gli "esseri tecnici" che ne diventano attuatori, mascherando completamente i veri responsabili di tale scelta POLITICA.
l'automazione è una questione rilevante, capire chi, come e perché promuove certe automazioni invece di altre è forse ancora più rilevante.
Perfettamente d'accordo. Ragion per cui è FONDAMENTALE trattare gli automatismi come cose prive di identità o dignità alcuna, ma estensioni della volontà di chi li costruisce e li mette in opera. SEMPRE. Che si chiamino Google Chrome, Office 365, Android, Classroom o ChatGPT. Ricordando sempre la domanda fondamentale della cibernetica: cui prodest? Giacomo