Proposta per un dibattito costruttivo sull'IA
Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei avanzare una proposta per un diverso approccio verso la tematica. La proposta è semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di intelligenza artificiale. L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19 dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca, innovazione e tecnologia dell'informazione. "Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza software o sistemi di intelligenza artificiale (IA)" e a seguire indica le tecnologie più diffuse all'interno di esse: 1) Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane) (40,1%); 2) Estrarre conoscenza e informazione da un documento di testo (text mining) (39,3%); 3) Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale) (31%); 4) Identificare oggetti o persone sulla base di immagini (riconoscimento, elaborazione delle immagini) (30,5%); 5) Analizzare dati attraverso l'apprendimento automatico (machine learning, deep learning, reti neurali) (30%); 6) Generare linguaggio scritto o parlato (generazione del linguaggio naturale) (29,4%); 7) Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull'osservazione dell'ambiente circostante (robot o droni autonomi, veicoli a guida autonoma) (17,1%). Forse in questo modo sarà più facile posizionarsi sulla diatriba della neutralità e sull'uso (eventualmente) pro bono dell'IA. A. [1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf
Grazie, Antonio, concordo. Delle proprietà politiche è opportuno discutere con riferimento a singoli sistemi. Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno dei punti dell'elenco che riporti, i sistemi di ottimizzazione predittiva, sostenendo che abbiano proprietà politiche intrinseche (non emendabili con scelte alternative di design) che li rendono incompatibili con lo Stato di diritto: <https://zenodo.org/records/10866778> Un saluto, Daniela ________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio <antonio@piumarossa.it> Inviato: domenica 19 gennaio 2025 16:05 A: nexa@server-nexa.polito.it Oggetto: [Junk released by Allowed List] [nexa] Proposta per un dibattito costruttivo sull'IA Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei avanzare una proposta per un diverso approccio verso la tematica. La proposta è semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di intelligenza artificiale. L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19 dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca, innovazione e tecnologia dell'informazione. "Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza software o sistemi di intelligenza artificiale (IA)" e a seguire indica le tecnologie più diffuse all'interno di esse: 1) Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane) (40,1%); 2) Estrarre conoscenza e informazione da un documento di testo (text mining) (39,3%); 3) Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale) (31%); 4) Identificare oggetti o persone sulla base di immagini (riconoscimento, elaborazione delle immagini) (30,5%); 5) Analizzare dati attraverso l'apprendimento automatico (machine learning, deep learning, reti neurali) (30%); 6) Generare linguaggio scritto o parlato (generazione del linguaggio naturale) (29,4%); 7) Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull'osservazione dell'ambiente circostante (robot o droni autonomi, veicoli a guida autonoma) (17,1%). Forse in questo modo sarà più facile posizionarsi sulla diatriba della neutralità e sull'uso (eventualmente) pro bono dell'IA. A. [1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf
Ciao. Non capisco cosa si voglia dire. QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni dei possibili andamenti futuri; e uno stumento AI -- fatto bene, o fatto male -- si aggiunge agli altri strumenti (dei quali i più antichi e noti sono "il fiuto" dell'imprenditore e "l'ideologia" del politico, ...ovvero nessuno strumento di reale supporto alle decisioni). A parte le informazioni privilegiate di borsa -- donde il reato di insider trading quando ti beccano (...il più delle volte no) -- QUALUNQUE proiezione del futuro si basa su passato (e sul fiuto, l'ideologia, il c.d. "sentiment" degli operatori, ...e consimili amenità). Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a criticare l'impatto politico di questi strumenti, ...altrimenti nobili e irreprensibili [ironia]?? Grazie della precisazione, che attendo. ----- Original Message ----- From: Daniela Tafani To: Antonio ; nexa@server-nexa.polito.it Sent: Sunday, January 19, 2025 4:24 PM Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA Grazie, Antonio, concordo. Delle proprietà politiche è opportuno discutere con riferimento a singoli sistemi. Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno dei punti dell'elenco che riporti, i sistemi di ottimizzazione predittiva, sostenendo che abbiano proprietà politiche intrinseche (non emendabili con scelte alternative di design) che li rendono incompatibili con lo Stato di diritto: <https://zenodo.org/records/10866778> Un saluto, Daniela ________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio <antonio@piumarossa.it> Inviato: domenica 19 gennaio 2025 16:05 A: nexa@server-nexa.polito.it Oggetto: [Junk released by Allowed List] [nexa] Proposta per un dibattito costruttivo sull'IA Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei avanzare una proposta per un diverso approccio verso la tematica. La proposta è semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di intelligenza artificiale. L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19 dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca, innovazione e tecnologia dell'informazione. "Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza software o sistemi di intelligenza artificiale (IA)" e a seguire indica le tecnologie più diffuse all'interno di esse: 1) Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane) (40,1%); 2) Estrarre conoscenza e informazione da un documento di testo (text mining) (39,3%); 3) Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale) (31%); 4) Identificare oggetti o persone sulla base di immagini (riconoscimento, elaborazione delle immagini) (30,5%); 5) Analizzare dati attraverso l'apprendimento automatico (machine learning, deep learning, reti neurali) (30%); 6) Generare linguaggio scritto o parlato (generazione del linguaggio naturale) (29,4%); 7) Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull'osservazione dell'ambiente circostante (robot o droni autonomi, veicoli a guida autonoma) (17,1%). Forse in questo modo sarà più facile posizionarsi sulla diatriba della neutralità e sull'uso (eventualmente) pro bono dell'IA. A. [1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf
Buonasera. Trova qui la definizione di "Predictive Optimization" e l'elenco delle ragioni per cui non può essere assimilata ad altre forme di automazione dei processi di decisione: https://dl.acm.org/doi/full/10.1145/3636509 Anche il mio articolo è ad accesso aperto, su Zenodo <https://zenodo.org/records/10866778> o sul sito della rivista Ethics & Politics. Un saluto, Daniela Il 19/01/2025 20:36, Alfredo Bregni ha scritto:
Ciao. /Non capisco cosa si voglia dire./ QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni dei possibili andamenti futuri; e uno stumento AI -- fatto bene, o fatto male -- si aggiunge agli altri strumenti (dei quali i più antichi e noti sono "il fiuto" dell'imprenditore e "l'ideologia" del politico, ...ovvero nessuno strumento di reale supporto alle decisioni). A parte le informazioni privilegiate di borsa -- donde il reato di insider trading quando ti beccano (...il più delle volte no) -- QUALUNQUE proiezione del futuro si basa su passato (e sul fiuto, l'ideologia, il c.d. "sentiment" degli operatori, ...e consimili amenità). Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a criticare l'impatto politico di questi strumenti, ...altrimenti nobili e irreprensibili [ironia]?? Grazie della precisazione, che attendo.
----- Original Message ----- *From:* Daniela Tafani <mailto:daniela.tafani@unipi.it> *To:* Antonio <mailto:antonio@piumarossa.it> ; nexa@server-nexa.polito.it *Sent:* Sunday, January 19, 2025 4:24 PM *Subject:* Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Grazie, Antonio, concordo. Delle proprietà politiche è opportuno discutere con riferimento a singoli sistemi.
Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno dei punti dell'elenco che riporti, i sistemi di ottimizzazione predittiva, sostenendo che abbiano proprietà politiche intrinseche (non emendabili con scelte alternative di design) che li rendono incompatibili con lo Stato di diritto:
<https://zenodo.org/records/10866778>
Un saluto, Daniela
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio <antonio@piumarossa.it> Inviato: domenica 19 gennaio 2025 16:05 A: nexa@server-nexa.polito.it Oggetto: [Junk released by Allowed List] [nexa] Proposta per un dibattito costruttivo sull'IA
Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei avanzare una proposta per un diverso approccio verso la tematica. La proposta è semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di intelligenza artificiale. L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19 dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca, innovazione e tecnologia dell'informazione. "Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza software o sistemi di intelligenza artificiale (IA)" e a seguire indica le tecnologie più diffuse all'interno di esse:
1) Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane) (40,1%); 2) Estrarre conoscenza e informazione da un documento di testo (text mining) (39,3%); 3) Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale) (31%); 4) Identificare oggetti o persone sulla base di immagini (riconoscimento, elaborazione delle immagini) (30,5%); 5) Analizzare dati attraverso l'apprendimento automatico (machine learning, deep learning, reti neurali) (30%); 6) Generare linguaggio scritto o parlato (generazione del linguaggio naturale) (29,4%); 7) Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull'osservazione dell'ambiente circostante (robot o droni autonomi, veicoli a guida autonoma) (17,1%).
Forse in questo modo sarà più facile posizionarsi sulla diatriba della neutralità e sull'uso (eventualmente) pro bono dell'IA.
A.
[1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf
Buonasera. Non è che riproponendo proprio l'articolo che critico -- NON nel contenuto, MA in due diversi ambiti (politico e tecnico) fra loro correlati -- si risponde efficacemente alla mia critica, che è quella di voler continuare a colpevolizzare il coltello. La predictive optimization può essere la panacea o il peggiore dei mali, ma io contesto la condanna dei suoi impatti politici, poiché qualunque proiezione del futuro ha comunque i medesimi difetti. Il massimo che un prodotto marcato "AI" può fare di male, è che gli utilizzatori "si fidino" troppo di esso e dei risultati che dà, e lo utilizzino quindi in maniera "cieca" / superficiale, MA -- non troppo "incidentalmente" -- questa è la medesima critica avanzata a suo tempo per lo spredsheet. E non critico il giudizio tecnico espresso sulla predictive optimization -- della quale sinceramente mi interessa poco (...e quindi mi interessa poco anche la difesa del relativo giudizio) -- ma il fatto che che si continui a discutere di strumenti, quando il vero problema è SEMPRE altrove: - Se si continua a perseguire l'AI ("vera" = AGI, o fasulla ...che però serve) -- parlo di SCIENZA / TECNOLOGIA -- è probabile che questo sia perché si cerca uno strumento che aiuti a risolvere problemi; è quindi normale che appaiano nuovi strumenti, non sempre subito perfettamente a punto; - Se poi, al di là degli aspetti tecnici (e magari anche indipendentemente da questi), saranno la scelta effettiva dei problemi da risolvere e lo spirito con cui si intendono affrontare a determinarne nei fatti risultato e utilizzo (invece delle caratteristiche dello strumento), ...amen: E' SEMPRE COSI'. Però si insiste a dimenticarlo, ...volendo continuare a giudicare il coltello. ----- Original Message ----- From: Daniela Tafani To: Alfredo Bregni Cc: Antonio ; nexa@server-nexa.polito.it Sent: Sunday, January 19, 2025 10:49 PM Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA Buonasera. Trova qui la definizione di "Predictive Optimization" e l'elenco delle ragioni per cui non può essere assimilata ad altre forme di automazione dei processi di decisione: https://dl.acm.org/doi/full/10.1145/3636509 Anche il mio articolo è ad accesso aperto, su Zenodo <https://zenodo.org/records/10866778> o sul sito della rivista Ethics & Politics. Un saluto, Daniela Il 19/01/2025 20:36, Alfredo Bregni ha scritto: Ciao. Non capisco cosa si voglia dire. QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni dei possibili andamenti futuri; e uno stumento AI -- fatto bene, o fatto male -- si aggiunge agli altri strumenti (dei quali i più antichi e noti sono "il fiuto" dell'imprenditore e "l'ideologia" del politico, ...ovvero nessuno strumento di reale supporto alle decisioni). A parte le informazioni privilegiate di borsa -- donde il reato di insider trading quando ti beccano (...il più delle volte no) -- QUALUNQUE proiezione del futuro si basa su passato (e sul fiuto, l'ideologia, il c.d. "sentiment" degli operatori, ...e consimili amenità). Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a criticare l'impatto politico di questi strumenti, ...altrimenti nobili e irreprensibili [ironia]?? Grazie della precisazione, che attendo. ----- Original Message ----- From: Daniela Tafani To: Antonio ; nexa@server-nexa.polito.it Sent: Sunday, January 19, 2025 4:24 PM Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA Grazie, Antonio, concordo. Delle proprietà politiche è opportuno discutere con riferimento a singoli sistemi. Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno dei punti dell'elenco che riporti, i sistemi di ottimizzazione predittiva, sostenendo che abbiano proprietà politiche intrinseche (non emendabili con scelte alternative di design) che li rendono incompatibili con lo Stato di diritto: <https://zenodo.org/records/10866778> Un saluto, Daniela ________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio <antonio@piumarossa.it> Inviato: domenica 19 gennaio 2025 16:05 A: nexa@server-nexa.polito.it Oggetto: [Junk released by Allowed List] [nexa] Proposta per un dibattito costruttivo sull'IA Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei avanzare una proposta per un diverso approccio verso la tematica. La proposta è semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di intelligenza artificiale. L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19 dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca, innovazione e tecnologia dell'informazione. "Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza software o sistemi di intelligenza artificiale (IA)" e a seguire indica le tecnologie più diffuse all'interno di esse: 1) Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane) (40,1%); 2) Estrarre conoscenza e informazione da un documento di testo (text mining) (39,3%); 3) Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale) (31%); 4) Identificare oggetti o persone sulla base di immagini (riconoscimento, elaborazione delle immagini) (30,5%); 5) Analizzare dati attraverso l'apprendimento automatico (machine learning, deep learning, reti neurali) (30%); 6) Generare linguaggio scritto o parlato (generazione del linguaggio naturale) (29,4%); 7) Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull'osservazione dell'ambiente circostante (robot o droni autonomi, veicoli a guida autonoma) (17,1%). Forse in questo modo sarà più facile posizionarsi sulla diatriba della neutralità e sull'uso (eventualmente) pro bono dell'IA. A. [1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf
Se leggo e intendo bene, credo che la questione non riguardi i metodi o gli algoritmi, ma la loro applicazione in certi ambiti, in particolare quando vi siano decisioni da prendere in base alla previsione dei comportamenti umani. Tutti i sistemi di machine learning (non bisogna scomodare le reti neurali, bastano quelle bayesiane degli anni 80) si basano sull'assunzione che i processi modellati siano autoregressivi (regolari) e stabili (non creativi). Queste assunzioni non sono adeguate al comportamento umano, che è (o si deve ritenere) libero. Tuttavia, l'ottimizzazione predittiva può dare buoni risultati anche applicata a certi fenomeni sociali. Ricordo di aver partecipato a un convegno in cui una società italiana presentava un sistema predittivo in grado di suggerire dove si sarebbe verificato un evento criminoso (una rapina) in base all'osservazione dei precedenti. Banalmente, era in grado di capire se in una certa zona stesse operando una banda. Certo: la banda era libera di cambiare quartiere (e di sicuro l'avrebbe fatto se avesse saputo del sistema) ma semplicemente non lo faceva. Anche qui il punto è quello di capire se un metodo è efficace nel contesto in cui si applica, e se la sua applicazione non lede i diritti delle persone. Nel caso del credito, ad esempio, è un diritto sapere perché viene eventualmente negato (auditability); insomma: è meglio un foglio excel :-) G. On Mon, 20 Jan 2025 at 00:11, Alfredo Bregni <abregni@iperv.it> wrote:
Buonasera.
Non è che riproponendo proprio l'articolo che critico -- NON nel contenuto, MA *in due diversi ambiti* (politico e tecnico) fra loro correlati -- si risponde efficacemente alla mia critica, *che è quella di voler continuare a colpevolizzare il coltello*.
La predictive optimization può essere la panacea o il peggiore dei mali, ma io contesto la condanna dei suoi impatti politici, poiché *qualunque* proiezione del futuro *ha comunque i medesimi difetti*. Il massimo che un prodotto marcato "AI" può fare di male, è che gli utilizzatori "si fidino" troppo di esso e dei risultati che dà, e lo utilizzino quindi in maniera "cieca" / superficiale, MA -- non troppo "incidentalmente" -- questa è la medesima critica avanzata a suo tempo per lo spredsheet.
E non critico il giudizio tecnico espresso sulla predictive optimization -- della quale sinceramente mi interessa poco (...e quindi mi interessa poco anche la difesa del relativo giudizio) -- ma il fatto che che si continui a discutere di strumenti, quando il vero problema è SEMPRE altrove: - Se si continua a perseguire l'AI ("vera" = AGI, o fasulla ...che però serve) -- parlo di SCIENZA / TECNOLOGIA -- è probabile che questo sia perché si cerca uno strumento che aiuti a risolvere problemi; è quindi normale che appaiano nuovi strumenti, non sempre subito perfettamente a punto; - Se poi, al di là degli aspetti tecnici (e magari anche indipendentemente da questi), saranno la scelta effettiva dei problemi da risolvere e lo spirito con cui si intendono affrontare a determinarne nei fatti risultato e utilizzo (invece delle caratteristiche dello strumento), ...amen: E' SEMPRE COSI'. *Però si insiste a dimenticarlo, ...volendo continuare a giudicare il coltello*.
----- Original Message ----- *From:* Daniela Tafani <daniela.tafani@unipi.it> *To:* Alfredo Bregni <abregni@iperv.it> *Cc:* Antonio <antonio@piumarossa.it> ; nexa@server-nexa.polito.it *Sent:* Sunday, January 19, 2025 10:49 PM *Subject:* Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Buonasera.
Trova qui la definizione di "Predictive Optimization" e l'elenco delle ragioni per cui non può essere assimilata ad altre forme di automazione dei processi di decisione:
https://dl.acm.org/doi/full/10.1145/3636509
Anche il mio articolo è ad accesso aperto, su Zenodo < https://zenodo.org/records/10866778> o sul sito della rivista Ethics & Politics.
Un saluto, Daniela
Il 19/01/2025 20:36, Alfredo Bregni ha scritto:
Ciao.
*Non capisco cosa si voglia dire.*
QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni dei possibili andamenti futuri; e uno stumento AI -- fatto bene, o fatto male -- si aggiunge agli altri strumenti (dei quali i più antichi e noti sono "il fiuto" dell'imprenditore e "l'ideologia" del politico, ...ovvero nessuno strumento di reale supporto alle decisioni). A parte le informazioni privilegiate di borsa -- donde il reato di insider trading quando ti beccano (...il più delle volte no) -- QUALUNQUE proiezione del futuro si basa su passato (e sul fiuto, l'ideologia, il c.d. "sentiment" degli operatori, ...e consimili amenità).
Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a criticare l'impatto politico di questi strumenti, ...altrimenti nobili e irreprensibili [ironia]??
Grazie della precisazione, che attendo.
----- Original Message ----- *From:* Daniela Tafani <daniela.tafani@unipi.it> *To:* Antonio <antonio@piumarossa.it> ; nexa@server-nexa.polito.it *Sent:* Sunday, January 19, 2025 4:24 PM *Subject:* Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Grazie, Antonio, concordo. Delle proprietà politiche è opportuno discutere con riferimento a singoli sistemi.
Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno dei punti dell'elenco che riporti, i sistemi di ottimizzazione predittiva, sostenendo che abbiano proprietà politiche intrinseche (non emendabili con scelte alternative di design) che li rendono incompatibili con lo Stato di diritto:
<https://zenodo.org/records/10866778>
Un saluto, Daniela
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio < antonio@piumarossa.it> Inviato: domenica 19 gennaio 2025 16:05 A: nexa@server-nexa.polito.it Oggetto: [Junk released by Allowed List] [nexa] Proposta per un dibattito costruttivo sull'IA
Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei avanzare una proposta per un diverso approccio verso la tematica. La proposta è semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di intelligenza artificiale. L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19 dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca, innovazione e tecnologia dell'informazione. "Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza software o sistemi di intelligenza artificiale (IA)" e a seguire indica le tecnologie più diffuse all'interno di esse:
1) Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane) (40,1%); 2) Estrarre conoscenza e informazione da un documento di testo (text mining) (39,3%); 3) Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale) (31%); 4) Identificare oggetti o persone sulla base di immagini (riconoscimento, elaborazione delle immagini) (30,5%); 5) Analizzare dati attraverso l'apprendimento automatico (machine learning, deep learning, reti neurali) (30%); 6) Generare linguaggio scritto o parlato (generazione del linguaggio naturale) (29,4%); 7) Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull'osservazione dell'ambiente circostante (robot o droni autonomi, veicoli a guida autonoma) (17,1%).
Forse in questo modo sarà più facile posizionarsi sulla diatriba della neutralità e sull'uso (eventualmente) pro bono dell'IA.
A.
[1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf
Salve Alfredo, il mondo delle relazioni è più complesso sfumato di quanto i nomi degli oggetti facciano pensare: a dispetto dal chiamarsi sempre /coltello/ si parla di oggetti diversi per una lama da caccia, una da cucina, una da tavola. La funzione e il possibile impiego sono diversi: un coltello per spalmare il burro è perfettamente inutile per spellare un cinghiale, come un coltello da colpo da macellaio è inservibile e pericoloso per imburrare la fetta biscottata. Quello che si sta dicendo con la sensatissima 'Proposta per un dibattito costruttivo sull'IA' è che non tutti gli strumenti sono uguali, a dispetto del loro nome, e nel valutarli occorre distinguere funzione e possibile impiego, da parte di chi e per quale scopo. Cosa che si fa d'altra parte anche con i coltelli quando si deve discernere la legittimità del loro uso, visto che la legge non parla espressamente di "coltelli", ma prevede il divieto di porto di arma impropria (tra cui strumenti da punta o da taglio atti ad offendere) fuorché per giustificato motivo. Per cui nessun divieto interessa il coltello da burro, mentre il cacciatore può portare il coltello da caccia durante l’esercizio dell’attività venatoria ma rischia la sanzione penale se se lo porta allo stadio o a una manifestazione oppure la sola ammenda se se lo dimentica in tasca quando va a fare la spesa dopo la caccia. Non è tanto l'oggetto ad essere giudicato ma le relazioni tra chi lo usa, il contesto, ed il possibile scopo. La difficoltà nel valutare l'interazione di nuovi strumenti nel nostro sistema sociale di valori e leggi è in questo caso amplificata dal fatto che hanno profondo (e spesso non manifesto) effetto in molteplici ambiti. Inoltre chi li progetta, mette a disposizione e aziona davvero nella maggior parte dei casi non sono i cittadini-utenti-consumatori ma soggetti economici o politici dotato già di poteri asimmetrici. L'articolo di Daniela sostiene che un sistema di /predictive policing/ è incompatible con i valori fondanti delle società liberali. Cioè non ha possibili scopi legittimi in tale contesto, per cui usarlo è perfettamente adatto solo ad una dittatura. Per come la vedo io è come dire (senza voler "giudicare" i poveri altri coltelli innocenti) che un coltello da macellaio deve restare in macelleria e non può essere portato legittimamente in un seggio elettorale. A. On 20/01/25 00:10, Alfredo Bregni wrote:
Buonasera. Non è che riproponendo proprio l'articolo che critico -- NON nel contenuto, MA _in due diversi ambiti_ (politico e tecnico) fra loro correlati -- si risponde efficacemente alla mia critica, /_che è quella di voler continuare a colpevolizzare il coltello_/. La predictive optimization può essere la panacea o il peggiore dei mali, ma io contesto la condanna dei suoi impatti politici, poiché *qualunque* proiezione del futuro _ha comunque i medesimi difetti_. Il massimo che un prodotto marcato "AI" può fare di male, è che gli utilizzatori "si fidino" troppo di esso e dei risultati che dà, e lo utilizzino quindi in maniera "cieca" / superficiale, MA -- non troppo "incidentalmente" -- questa è la medesima critica avanzata a suo tempo per lo spredsheet. E non critico il giudizio tecnico espresso sulla predictive optimization -- della quale sinceramente mi interessa poco (...e quindi mi interessa poco anche la difesa del relativo giudizio) -- ma il fatto che che si continui a discutere di strumenti, quando il vero problema è SEMPRE altrove: - Se si continua a perseguire l'AI ("vera" = AGI, o fasulla ...che però serve) -- parlo di SCIENZA / TECNOLOGIA -- è probabile che questo sia perché si cerca uno strumento che aiuti a risolvere problemi; è quindi normale che appaiano nuovi strumenti, non sempre subito perfettamente a punto; - Se poi, al di là degli aspetti tecnici (e magari anche indipendentemente da questi), saranno la scelta effettiva dei problemi da risolvere e lo spirito con cui si intendono affrontare a determinarne nei fatti risultato e utilizzo (invece delle caratteristiche dello strumento), ...amen: E' SEMPRE COSI'. /_Però si insiste a dimenticarlo, ...volendo continuare a giudicare il coltello_/.
----- Original Message ----- *From:* Daniela Tafani <mailto:daniela.tafani@unipi.it> *To:* Alfredo Bregni <mailto:abregni@iperv.it> *Cc:* Antonio <mailto:antonio@piumarossa.it> ; nexa@server-nexa.polito.it *Sent:* Sunday, January 19, 2025 10:49 PM *Subject:* Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Buonasera.
Trova qui la definizione di "Predictive Optimization" e l'elenco delle ragioni per cui non può essere assimilata ad altre forme di automazione dei processi di decisione:
https://dl.acm.org/doi/full/10.1145/3636509
Anche il mio articolo è ad accesso aperto, su Zenodo <https://zenodo.org/records/10866778> o sul sito della rivista Ethics & Politics.
Un saluto, Daniela
Il 19/01/2025 20:36, Alfredo Bregni ha scritto:
Ciao. /Non capisco cosa si voglia dire./ QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni dei possibili andamenti futuri; e uno stumento AI -- fatto bene, o fatto male -- si aggiunge agli altri strumenti (dei quali i più antichi e noti sono "il fiuto" dell'imprenditore e "l'ideologia" del politico, ...ovvero nessuno strumento di reale supporto alle decisioni). A parte le informazioni privilegiate di borsa -- donde il reato di insider trading quando ti beccano (...il più delle volte no) -- QUALUNQUE proiezione del futuro si basa su passato (e sul fiuto, l'ideologia, il c.d. "sentiment" degli operatori, ...e consimili amenità). Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a criticare l'impatto politico di questi strumenti, ...altrimenti nobili e irreprensibili [ironia]?? Grazie della precisazione, che attendo.
----- Original Message ----- *From:* Daniela Tafani <mailto:daniela.tafani@unipi.it> *To:* Antonio <mailto:antonio@piumarossa.it> ; nexa@server-nexa.polito.it *Sent:* Sunday, January 19, 2025 4:24 PM *Subject:* Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Grazie, Antonio, concordo. Delle proprietà politiche è opportuno discutere con riferimento a singoli sistemi.
Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno dei punti dell'elenco che riporti, i sistemi di ottimizzazione predittiva, sostenendo che abbiano proprietà politiche intrinseche (non emendabili con scelte alternative di design) che li rendono incompatibili con lo Stato di diritto:
<https://zenodo.org/records/10866778>
Un saluto, Daniela
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio <antonio@piumarossa.it> Inviato: domenica 19 gennaio 2025 16:05 A: nexa@server-nexa.polito.it Oggetto: [Junk released by Allowed List] [nexa] Proposta per un dibattito costruttivo sull'IA
Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei avanzare una proposta per un diverso approccio verso la tematica. La proposta è semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di intelligenza artificiale. L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19 dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca, innovazione e tecnologia dell'informazione. "Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza software o sistemi di intelligenza artificiale (IA)" e a seguire indica le tecnologie più diffuse all'interno di esse:
1) Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane) (40,1%); 2) Estrarre conoscenza e informazione da un documento di testo (text mining) (39,3%); 3) Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale) (31%); 4) Identificare oggetti o persone sulla base di immagini (riconoscimento, elaborazione delle immagini) (30,5%); 5) Analizzare dati attraverso l'apprendimento automatico (machine learning, deep learning, reti neurali) (30%); 6) Generare linguaggio scritto o parlato (generazione del linguaggio naturale) (29,4%); 7) Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull'osservazione dell'ambiente circostante (robot o droni autonomi, veicoli a guida autonoma) (17,1%).
Forse in questo modo sarà più facile posizionarsi sulla diatriba della neutralità e sull'uso (eventualmente) pro bono dell'IA.
A.
[1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf
Ciao Alberto grazie per questo splendido esempio: Il 20 Gennaio 2025 11:40:57 UTC, Alberto Cammozzo ha scritto:
La funzione e il possibile impiego sono diversi: un coltello per spalmare il burro è perfettamente inutile per spellare un cinghiale, come un coltello da colpo da macellaio è inservibile e pericoloso per imburrare la fetta biscottata.
Ne deriva che nessun produttore di coltelli da burro potrà essere considerato responsabile per la morte di cinghiali uccisi con i propri prodotti. In altri termini, ferma restando la responsabilità di chi usa lo strumento, l'atto stesso di progettarlo e costruirlo per uno specifico uso, determina effetti e responsabilità. Che tale responsabilità non venga riconosciuta come "concorso" del produttore di un'arma in ogni omicidio compiuto con quell'arma è solo un temporaneo incidente storico, che prima o poi saremo costretti a correggere. Giacomo
Ciao, Alberto. Posso essere d'accordo con te al 98%. Mancano, ...matematicamente, 2 punti: 1. Che i coltelli "mirati", inadatti ad altri compiti, possono essere comunque utilizzati fuori del loro ambiti di applicazione, e che la responsabilità è sempre di chi li usa (o li porta in tasca), qualunque cosa ci faccia. Finché non si vieta di produrre coltelli da caccia o pistole (anche per rispondere a Giacomo) Mr. Beretta non andrà in galera; 2. Che la frase "L'articolo di Daniela sostiene che un sistema di predictive policing è incompatible con i valori fondanti delle società liberali." a me dice poco o nulla, al di là della discussione "tecnica": se qualcuno l'ha commissionato in origine proprio per quello scopo, oppure l'ha eventualmente adattato e comunque usato con quell'obiettivo, anche se lo strumento era nato per essere embedded in una lavastoviglie (dico ironicamente per dire), di chi altro vuoi che sia la responsabilità? Come amo ripetere (in questo caso rivolto a te e non a Daniela), "i dettagli e i distinguo si fanno dopo che si è individuato il problema base." Il 2025-01-20 12:40 Alberto Cammozzo via nexa ha scritto:
Salve Alfredo,
il mondo delle relazioni è più complesso sfumato di quanto i nomi degli oggetti facciano pensare: a dispetto dal chiamarsi sempre /coltello/ si parla di oggetti diversi per una lama da caccia, una da cucina, una da tavola.
La funzione e il possibile impiego sono diversi: un coltello per spalmare il burro è perfettamente inutile per spellare un cinghiale, come un coltello da colpo da macellaio è inservibile e pericoloso per imburrare la fetta biscottata.
Quello che si sta dicendo con la sensatissima 'Proposta per un dibattito costruttivo sull'IA' è che non tutti gli strumenti sono uguali, a dispetto del loro nome, e nel valutarli occorre distinguere funzione e possibile impiego, da parte di chi e per quale scopo.
Cosa che si fa d'altra parte anche con i coltelli quando si deve discernere la legittimità del loro uso, visto che la legge non parla espressamente di "coltelli", ma prevede il divieto di porto di arma impropria (tra cui strumenti da punta o da taglio atti ad offendere) fuorché per giustificato motivo.
Per cui nessun divieto interessa il coltello da burro, mentre il cacciatore può portare il coltello da caccia durante l’esercizio dell’attività venatoria ma rischia la sanzione penale se se lo porta allo stadio o a una manifestazione oppure la sola ammenda se se lo dimentica in tasca quando va a fare la spesa dopo la caccia.
Non è tanto l'oggetto ad essere giudicato ma le relazioni tra chi lo usa, il contesto, ed il possibile scopo.
La difficoltà nel valutare l'interazione di nuovi strumenti nel nostro sistema sociale di valori e leggi è in questo caso amplificata dal fatto che hanno profondo (e spesso non manifesto) effetto in molteplici ambiti. Inoltre chi li progetta, mette a disposizione e aziona davvero nella maggior parte dei casi non sono i cittadini-utenti-consumatori ma soggetti economici o politici dotato già di poteri asimmetrici.
L'articolo di Daniela sostiene che un sistema di _predictive policing_ è incompatible con i valori fondanti delle società liberali. Cioè non ha possibili scopi legittimi in tale contesto, per cui usarlo è perfettamente adatto solo ad una dittatura.
Per come la vedo io è come dire (senza voler "giudicare" i poveri altri coltelli innocenti) che un coltello da macellaio deve restare in macelleria e non può essere portato legittimamente in un seggio elettorale.
A.
On 20/01/25 00:10, Alfredo Bregni wrote:
Buonasera.
Non è che riproponendo proprio l'articolo che critico -- NON nel contenuto, MA in due diversi ambiti (politico e tecnico) fra loro correlati -- si risponde efficacemente alla mia critica, _che è quella di voler continuare a colpevolizzare il coltello_.
La predictive optimization può essere la panacea o il peggiore dei mali, ma io contesto la condanna dei suoi impatti politici, poiché qualunque proiezione del futuro ha comunque i medesimi difetti. Il massimo che un prodotto marcato "AI" può fare di male, è che gli utilizzatori "si fidino" troppo di esso e dei risultati che dà, e lo utilizzino quindi in maniera "cieca" / superficiale, MA -- non troppo "incidentalmente" -- questa è la medesima critica avanzata a suo tempo per lo spredsheet.
E non critico il giudizio tecnico espresso sulla predictive optimization -- della quale sinceramente mi interessa poco (...e quindi mi interessa poco anche la difesa del relativo giudizio) -- ma il fatto che che si continui a discutere di strumenti, quando il vero problema è SEMPRE altrove: - Se si continua a perseguire l'AI ("vera" = AGI, o fasulla ...che però serve) -- parlo di SCIENZA / TECNOLOGIA -- è probabile che questo sia perché si cerca uno strumento che aiuti a risolvere problemi; è quindi normale che appaiano nuovi strumenti, non sempre subito perfettamente a punto; - Se poi, al di là degli aspetti tecnici (e magari anche indipendentemente da questi), saranno la scelta effettiva dei problemi da risolvere e lo spirito con cui si intendono affrontare a determinarne nei fatti risultato e utilizzo (invece delle caratteristiche dello strumento), ...amen: E' SEMPRE COSI'. _Però si insiste a dimenticarlo, ...volendo continuare a giudicare il coltello_.
----- Original Message ----- From: Daniela Tafani To: Alfredo Bregni Cc: Antonio ; nexa@server-nexa.polito.it Sent: Sunday, January 19, 2025 10:49 PM Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Buonasera.
Trova qui la definizione di "Predictive Optimization" e l'elenco delle ragioni per cui non può essere assimilata ad altre forme di automazione dei processi di decisione:
https://dl.acm.org/doi/full/10.1145/3636509
Anche il mio articolo è ad accesso aperto, su Zenodo <https://zenodo.org/records/10866778> o sul sito della rivista Ethics & Politics.
Un saluto, Daniela
Il 19/01/2025 20:36, Alfredo Bregni ha scritto:
Ciao.
_Non capisco cosa si voglia dire._
QUALUNQUE decisione (ragionata) si basa su una (o più) proiezioni dei possibili andamenti futuri; e uno stumento AI -- fatto bene, o fatto male -- si aggiunge agli altri strumenti (dei quali i più antichi e noti sono "il fiuto" dell'imprenditore e "l'ideologia" del politico, ...ovvero nessuno strumento di reale supporto alle decisioni). A parte le informazioni privilegiate di borsa -- donde il reato di insider trading quando ti beccano (...il più delle volte no) -- QUALUNQUE proiezione del futuro si basa su passato (e sul fiuto, l'ideologia, il c.d. "sentiment" degli operatori, ...e consimili amenità).
Quindi, SOLO PERCHE' ADESSO SI CHIAMA "AI", ci divertiamo a criticare l'impatto politico di questi strumenti, ...altrimenti nobili e irreprensibili [ironia]??
Grazie della precisazione, che attendo.
----- Original Message ----- From: Daniela Tafani To: Antonio ; nexa@server-nexa.polito.it Sent: Sunday, January 19, 2025 4:24 PM Subject: Re: [nexa] Proposta per un dibattito costruttivo sull'IA
Grazie, Antonio, concordo. Delle proprietà politiche è opportuno discutere con riferimento a singoli sistemi.
Ho fatto un tentativo, qualche tempo fa, con un sottoinsieme di uno dei punti dell'elenco che riporti, i sistemi di ottimizzazione predittiva, sostenendo che abbiano proprietà politiche intrinseche (non emendabili con scelte alternative di design) che li rendono incompatibili con lo Stato di diritto:
<https://zenodo.org/records/10866778>
Un saluto, Daniela
________________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Antonio <antonio@piumarossa.it> Inviato: domenica 19 gennaio 2025 16:05 A: nexa@server-nexa.polito.it Oggetto: [Junk released by Allowed List] [nexa] Proposta per un dibattito costruttivo sull'IA
Fermo restando che un dibattito "distruttivo" è comunque utile, vorrei avanzare una proposta per un diverso approccio verso la tematica. La proposta è semplice, NON nominare il termine IA (o AI), ma le SINGOLE tecnologie di intelligenza artificiale. L'Annuario statistico italiano pubblicato dall'Istat lo scorso 19 dicembre, da pag.769 in poi riporta statistiche e sintesi in merito a ricerca, innovazione e tecnologia dell'informazione. "Nel 2023 il 5,0 per cento delle imprese con almeno 10 addetti utilizza software o sistemi di intelligenza artificiale (IA)" e a seguire indica le tecnologie più diffuse all'interno di esse:
1) Automatizzare i flussi di lavoro o supportare nel processo decisionale (Robotic Process Automation, software robot che utilizzano tecnologie di IA per automatizzare le attività umane) (40,1%); 2) Estrarre conoscenza e informazione da un documento di testo (text mining) (39,3%); 3) Convertire la lingua parlata in un formato leggibile dal dispositivo informatico (riconoscimento vocale) (31%); 4) Identificare oggetti o persone sulla base di immagini (riconoscimento, elaborazione delle immagini) (30,5%); 5) Analizzare dati attraverso l'apprendimento automatico (machine learning, deep learning, reti neurali) (30%); 6) Generare linguaggio scritto o parlato (generazione del linguaggio naturale) (29,4%); 7) Consentire il movimento fisico delle macchine tramite decisioni autonome basate sull'osservazione dell'ambiente circostante (robot o droni autonomi, veicoli a guida autonoma) (17,1%).
Forse in questo modo sarà più facile posizionarsi sulla diatriba della neutralità e sull'uso (eventualmente) pro bono dell'IA.
A.
[1] https://www.istat.it/wp-content/uploads/2024/12/ASI_2024.pdf
Salve Alfredo, Fra gli strumenti di supporto alla decisione più antichi, c'è la saggezza popolare impressa in innumerevoli proverbi, spesso divertenti, ricchi di ironia quanto di arguzia. Anche i proverbi, come i sistemi predittivi automatici, assumono che il futuro riproponga dinamiche già osservate in passato. Tuttavia, contrariamente ai sistemi predittivi automatici che elaborano dati, i proverbi sono infornazione, interpretati e applicati da menti umane che, oltre ai dati disponibili possono sfruttare la propria esperienza, cultura ed intelligenza per valutarne l'applicabilità in ogni singolo caso concreto. Ad esempio, a fronte di Il 19 Gennaio 2025 19:36:04 UTC, Alfredo Bregni ha scritto:
Non capisco cosa si voglia dire.
mia mamma commmenterebbe (in calabrese stretto :-D): non c'è peggior sordo di chi non vuol sentire! consigliando a Daniela un migliore impiego del proprio tempo. Consiglio che, effettivamente, sto considerando io stesso. Trovo infatti sterile (nonché off-topic in lista) il tentativo di ricondurre tutti i problemi dell'umanità al peccato originale, ad una malvagità intrinseca dell'uomo, alle sue attitudini predatorie. L'umanità si è evoluta per milioni di anni e continua a farlo. Per migliaia di anni, questa evoluzione si è spostata dal piano biologico a quello culturale e sociale. Con la rivoluzione industriale, lentamente, questa evoluzione diventa cibernetica. Pur condividendo alcuni aspetti della critica del capitalismo insita nelle tue mail, e pur riconoscendone il collasso, non condividi l'ineluttabilità che attribuisci alle dinamiche di potere impresse e riprpdotte dagli agenti cibernetici [1] di cui parliamo. Parafrasando karlessi, ci tocca tenere il pessimismo per tempi migliori. D'altro canto, come disse Ursula Le Guin più di 10 anni fa: ``` I think hard times are coming when we will be wanting the voices of writers who can see alternatives to how we live now and can see through our fear-stricken society and its obsessive technologies to other ways of Being, and even imagine some real grounds for hope. We will need writers who can remember freedom, poets, visionaries -- the realists of a larger reality. Right now, I think we need writers who know the difference between production of a market commodity and the practice of an art. Developing -- Developing written material to suit sales strategies in order to maximize corporate profit and advertising revenue is not quite the same thing as responsible book publishing or authorship. Yet, I see sales departments given control over editorial. I see my own publishers in a silly panic of ignorance and greed, charging public libraries for an e-book six or seven times more than they charge customers. We just saw a profiteer try to punish a publisher for disobedience and writers threatened by corporate fatwa. And I see a -- a lot of us, the producers who write the books and make the books, accepting this: letting commodity profiteers sell us like deodorant, and tell us what to publish and what to write. Well -- Books, you know, they’re -- they're not just commodities. The profit motive often is in conflict with the aims of art. We live in capitalism. Its power seems inescapable. So did the divine right of kings. Any human power can be resisted and changed by human beings. Resistance and change often begin in art, and very often in our art: the art of words. [...] But the name of our beautiful reward is not profit: Its name is freedom. ``` Incredibile quanto queste parole siano attuali ed attinenti a tecnologie come LLM e chatbot. Certamente il capitalismo esprime ed esaspera alcune caratteristiche evolutive dell'uomo, ma se vogliamo che il futuro sia caratterizzato da dinamiche migliori, sotto il profilo sociale, comunitario ed ecologico, dobbiamo governare le tecnologie che partecipetanno in larga parte alla sua evoluzione. Fingere che le tecnologie (concrete, reali, non le conoscenze astratte necessarie a realizzarle) siano neutrali, serve solo ad evitare un analisi oggettiva degli interessi e dei valori che riproducono pedissequamente, secondo le intenzioni di chi le ha create. Che poi ci sia una corresponsabilità diffusa, condivisa con chi da queste tecnologie si lascia abbindolare troppo facilmente o da chi le utilizza per abbindolare altri, siamo tutti d'accordo. Ma tale responsabilità, pur grave, è secondaria rispetto a quella di coloro che quelle tecnologie alienanti [1] le crea e le distribuisce a proprio esclusivo vantaggio. Giacomo [1] vedi qui: <https://video.linuxtrent.it/w/p/ih87E19VKKsSTxAJYL6QhR> [2] trascritto ad esempio qui: <https://www.americanrhetoric.com/speeches/ursulakleguinnationalbookawardspee...>
participants (7)
-
abregni -
Alberto Cammozzo -
Alfredo Bregni -
Antonio -
Daniela Tafani -
Giacomo Tesio -
Guido Vetere