Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste.
Questa risposta è talmente grossolana e offensiva che speravo qualcun altro rispondesse. Se nessuno lo ha fatto, mi inorridisce pensare a quanti su questa lista la condividano. L’Artificial Intelligence esiste ed è una delle principali discipline della Computer Science. Ci sono riviste, congressi e istituti dedicati alla ricerca in AI in tutto il mondo. Il fatto che la Commissione Europea l’abbia ignorata nei suoi finanziamenti, dimostra la sua miopia, non la sua furbizia. Per fortuna altri paesi l’hanno sostenuta, altrimenti oggi non avremmo il fiorire di innovazioni che sta portando l’AI. Occupandosi di uno dei problemi più complessi dell’informatica, ossia la riproduzione delle capacità della mente umana, l’AI si è dovuta spesso scontrare coi limiti della tecnologia. Ma chi se ne occupava si è sempre ingegnato per superarli. Infatti, gran parte delle tecnologie informatiche che oggi sono di uso comune, sono nate in ambito AI. Ad esempio: - linguaggi funzionali - garbage collection - linguaggi a oggetti - interfacce grafiche - interfacce di sviluppo integrate (IDE) - Map/reduce per elaborazione parallela - animazione 3D - sistemi operativi Unix fu scritto da Ken Thompson per poter sviluppare il suo programma per il gioco degli scacchi. Il movimento del Free Software fu lanciato da Richard Stallman, che lavorava al MIT AI Lab, dove partecipava al progetto della MIT Lisp Machine. Marvin Minsky diceva: “When it works, it is no longer AI”, per esprimere il rammarico che le più significative innovazioni dell’AI venissero spesso attribuite ad altri. Many of AI's greatest innovations have been reduced to the status of just another item in the tool chest of computer science. Nick Bostrom explains "A lot of cutting edge AI has filtered into general applications, often without being called AI because once something becomes useful enough and common enough it's not labeled AI anymore.” https://en.wikipedia.org/wiki/History_of_artificial_intelligence#AI_behind_t...
la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica L’AI copre aree più vaste della “programmazione statistica”.
Il confronto con la blockchain è offensivo: quella è una tecnologia in cerca di applicazioni, basata su un singolo articolo. Non può essere comparata con una disciplina scientifica con 50 anni di ricerca alle spalle e migliaia di ricercatori coinvolti.
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
Non inseguiamo nemmeno: come potremmo guidare una tecnologia di cui abbiamo scarso controllo? — Beppe
On 14 Apr 2023, at 17:33, nexa-request@server-nexa.polito.it wrote:
From: Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it>> To: Giuseppe Attardi <attardi@di.unipi.it <mailto:attardi@di.unipi.it>> Cc: Stefano Maffulli <smaffulli@gmail.com <mailto:smaffulli@gmail.com>>, "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> Subject: Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste. Message-ID: <20230414165246.00001237@tesio.it <mailto:20230414165246.00001237@tesio.it>> Content-Type: text/plain; charset=utf-8
On Fri, 14 Apr 2023 11:34:14 +0200 Giuseppe Attardi wrote:
On 14 Apr 2023, at 10:20, Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it>> wrote:
Beh, è facile concordare sui finanziamenti alla ricerca.
Talmente facile che non viene fatto.
La voce “Intelligenza Artificiale” non era nemmeno presente nei progetti Horizon fino a 3 anni fa, dove, udite udite, sono stati stanziati 50 milioni per 5 progetti ICT-48.
Vuoi dire che l'hanno messa? Bah... che posso dire, farà il paio con la blockchain!
Il fatto che la voce "Intelligenza Artificiale" non fosse presente lasciava in effetti ben sperare: la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica cui troppi, non comprendendone il funzionamento, attribuiscono una qualche forma di "intelligenza".
Ben vengano dunque i finanziamenti alla ricerca di nuove tecniche di programmazione statistica che producano risultati più affidabili!
Ma ben vengano anche finanziamenti alla ricerca di nuovi framework interpretativi di queste tecnologie, un po' meno allucinati e allucinogeni! :-D
Al termine dell'ultimo Mercoledì di Nexa [1], in cui Enrico Nardelli ha presentato le tesi del suo libro "La rivoluzione informatica", Juan Carlos ha detto una cosa importantissima:
"sicuramente non esiste indipendenza, non esiste sovranità, senza la possibilità di controllare, produrre e sviluppare tutte le tecnologie fondamentali che servono per una società moderna"
Condivido pienamente il concetto.
Vedo però un'enorme vulnerabilità nella formulazione: chi decide cosa significa "società moderna"? chi decide quali siano le tecnologie fondamentali che servono per realizzarla?
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
I software della Silicon Valley sono progettati per realizzare una specifica idea di società. Dobbiamo davvero competere con loro, solo se vogliamo imporre all'Europa esattamente quella idea di società (e vogliamo farlo meglio di loro).
Ma se decidessimo invece di provare a creare una società democratica, libera ed equa, di quali strumenti avremmo bisogno?
PS. A proposito di XAI, gli approcci proposti per fornire spiegazioni a posteriori dei risultati degli attuali sistemi di ML, semplicemente non funzionano, perché non scalano alle dimensiini di modelli costituiti da miliardi di parametri. Del resto, se esistesse una spiegazione semplice e comprensibile per un problema complesso e difficile, il problema non sarebbe complesso e difficile.
Ecco un'evidenza concreta dei gravi danni che la narrazione della "Intelligenza Artificiale" causa alla ricerca scientifica.
Anzitutto, io non ho parlato di XAI, ma di dimostrare in modo semplice (ancorché estremamente costoso) di non aver selezionato scientemente il dataset in modo da causare specifiche discriminazione. Non ho mai detto che ciò garantisca l'assenza di discriminazioni.
Salvare tutti quei dati serve solo a poter dimostrare l'assenza di dolo, ma non rimuove la responsabilità per i danni causati dal software.
D’altra parte, con le tecniche di prompting cone il Chain of Thought, si può chiedere agli stessi modelli come ChatGPT di fornire un filo logico dei passaggi che hanno portato alla risposta.
Stai confondendo (come tanti, purtroppo) giustificazione e spiegazione.
ChatGPT può sicuramente produrre una stringa di testo che la tua mente interpreti come una valida GIUSTIFICAZIONE di un proprio output.
Ma tale stringa di testo non costituisce una SPIEGAZIONE di come tale output sia stato calcolato.
Il calcolo effettuato potrebbe essere del tutto diverso: nessun informatico (o scienziato) con un minimo di serietà potrebbe accontentarsi di una tale giustificazione NON VERIFICABILE.
Quando si parla di spiegare l'output delle "AI" bisogna aver ben chiaro l'obiettivo: non ci interessa trovare un'argomentazione più o meno soddisfacente a sostegno dell'output (ciò che tira fuori ChatGPT se gli si chiede il "Chain of Thought"), ma sapere ESATTAMENTE cosa è stato preso in considerazione durante l'elaborazione E COSA NO, nonché capire ESATTAMENTE come.
Giacomo
[1]: https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304141533570286231...
On dom, 2023-04-16 at 11:24 +0200, Giuseppe Attardi wrote:
Questa risposta è talmente grossolana e offensiva che speravo qualcun altro rispondesse.
Se nessuno lo ha fatto, mi inorridisce pensare a quanti su questa lista la condividano.
Per fortuna non è obbligatorio che tutti quelli che sono in disaccordo (o anche d'accordo, perché no?) rispondano. Nel mio caso, comunque, sono poco interessato all'AI come settore di ricerca dell'informatica, ma molto al suo ruolo come iniziativa commerciale, di tecnocontrollo e geopolitica. Se non fosse così, ad esempio, io in quanto ingegnere nucleare dovrei sentirmi obbligato ad intervenire ogni volta che qualcuno parla di "fusione fredda". Il tempo è la risorsa più limitata al mondo. JM2EC. Buona domenica a tutti. Marco
L’Artificial Intelligence esiste ed è una delle principali discipline della Computer Science. Ci sono riviste, congressi e istituti dedicati alla ricerca in AI in tutto il mondo. Il fatto che la Commissione Europea l’abbia ignorata nei suoi finanziamenti, dimostra la sua miopia, non la sua furbizia. Per fortuna altri paesi l’hanno sostenuta, altrimenti oggi non avremmo il fiorire di innovazioni che sta portando l’AI.
Occupandosi di uno dei problemi più complessi dell’informatica, ossia la riproduzione delle capacità della mente umana, l’AI si è dovuta spesso scontrare coi limiti della tecnologia. Ma chi se ne occupava si è sempre ingegnato per superarli. Infatti, gran parte delle tecnologie informatiche che oggi sono di uso comune, sono nate in ambito AI. Ad esempio:
- linguaggi funzionali - garbage collection - linguaggi a oggetti - interfacce grafiche - interfacce di sviluppo integrate (IDE) - Map/reduce per elaborazione parallela - animazione 3D - sistemi operativi
Unix fu scritto da Ken Thompson per poter sviluppare il suo programma per il gioco degli scacchi. Il movimento del Free Software fu lanciato da Richard Stallman, che lavorava al MIT AI Lab, dove partecipava al progetto della MIT Lisp Machine.
Marvin Minsky diceva: “When it works, it is no longer AI”, per esprimere il rammarico che le più significative innovazioni dell’AI venissero spesso attribuite ad altri.
Many of AI's greatest innovations have been reduced to the status of just another item in the tool chest of computer science. Nick Bostrom explains "A lot of cutting edge AI has filtered into general applications, often without being called AI because once something becomes useful enough and common enough it's not labeled AI anymore.” https://en.wikipedia.org/wiki/History_of_artificial_intelligence#AI_behind_t...
la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica L’AI copre aree più vaste della “programmazione statistica”.
Il confronto con la blockchain è offensivo: quella è una tecnologia in cerca di applicazioni, basata su un singolo articolo. Non può essere comparata con una disciplina scientifica con 50 anni di ricerca alle spalle e migliaia di ricercatori coinvolti.
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
Non inseguiamo nemmeno: come potremmo guidare una tecnologia di cui abbiamo scarso controllo?
— Beppe
On 14 Apr 2023, at 17:33, nexa-request@server-nexa.polito.it wrote:
From: Giacomo Tesio <giacomo@tesio.it> To: Giuseppe Attardi <attardi@di.unipi.it> Cc: Stefano Maffulli <smaffulli@gmail.com>, "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it> Subject: Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste. Message-ID: <20230414165246.00001237@tesio.it> Content-Type: text/plain; charset=utf-8
On Fri, 14 Apr 2023 11:34:14 +0200 Giuseppe Attardi wrote:
On 14 Apr 2023, at 10:20, Giacomo Tesio <giacomo@tesio.it> wrote:
Beh, è facile concordare sui finanziamenti alla ricerca.
Talmente facile che non viene fatto.
La voce “Intelligenza Artificiale” non era nemmeno presente nei progetti Horizon fino a 3 anni fa, dove, udite udite, sono stati stanziati 50 milioni per 5 progetti ICT-48.
Vuoi dire che l'hanno messa? Bah... che posso dire, farà il paio con la blockchain!
Il fatto che la voce "Intelligenza Artificiale" non fosse presente lasciava in effetti ben sperare: la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica cui troppi, non comprendendone il funzionamento, attribuiscono una qualche forma di "intelligenza".
Ben vengano dunque i finanziamenti alla ricerca di nuove tecniche di programmazione statistica che producano risultati più affidabili!
Ma ben vengano anche finanziamenti alla ricerca di nuovi framework interpretativi di queste tecnologie, un po' meno allucinati e allucinogeni! :-D
Al termine dell'ultimo Mercoledì di Nexa [1], in cui Enrico Nardelli ha presentato le tesi del suo libro "La rivoluzione informatica", Juan Carlos ha detto una cosa importantissima:
"sicuramente non esiste indipendenza, non esiste sovranità, senza la possibilità di controllare, produrre e sviluppare tutte le tecnologie fondamentali che servono per una società moderna"
Condivido pienamente il concetto.
Vedo però un'enorme vulnerabilità nella formulazione: chi decide cosa significa "società moderna"? chi decide quali siano le tecnologie fondamentali che servono per realizzarla?
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
I software della Silicon Valley sono progettati per realizzare una specifica idea di società. Dobbiamo davvero competere con loro, solo se vogliamo imporre all'Europa esattamente quella idea di società (e vogliamo farlo meglio di loro).
Ma se decidessimo invece di provare a creare una società democratica, libera ed equa, di quali strumenti avremmo bisogno?
PS. A proposito di XAI, gli approcci proposti per fornire spiegazioni a posteriori dei risultati degli attuali sistemi di ML, semplicemente non funzionano, perché non scalano alle dimensiini di modelli costituiti da miliardi di parametri. Del resto, se esistesse una spiegazione semplice e comprensibile per un problema complesso e difficile, il problema non sarebbe complesso e difficile.
Ecco un'evidenza concreta dei gravi danni che la narrazione della "Intelligenza Artificiale" causa alla ricerca scientifica.
Anzitutto, io non ho parlato di XAI, ma di dimostrare in modo semplice (ancorché estremamente costoso) di non aver selezionato scientemente il dataset in modo da causare specifiche discriminazione. Non ho mai detto che ciò garantisca l'assenza di discriminazioni.
Salvare tutti quei dati serve solo a poter dimostrare l'assenza di dolo, ma non rimuove la responsabilità per i danni causati dal software.
D’altra parte, con le tecniche di prompting cone il Chain of Thought, si può chiedere agli stessi modelli come ChatGPT di fornire un filo logico dei passaggi che hanno portato alla risposta.
Stai confondendo (come tanti, purtroppo) giustificazione e spiegazione.
ChatGPT può sicuramente produrre una stringa di testo che la tua mente interpreti come una valida GIUSTIFICAZIONE di un proprio output.
Ma tale stringa di testo non costituisce una SPIEGAZIONE di come tale output sia stato calcolato.
Il calcolo effettuato potrebbe essere del tutto diverso: nessun informatico (o scienziato) con un minimo di serietà potrebbe accontentarsi di una tale giustificazione NON VERIFICABILE.
Quando si parla di spiegare l'output delle "AI" bisogna aver ben chiaro l'obiettivo: non ci interessa trovare un'argomentazione più o meno soddisfacente a sostegno dell'output (ciò che tira fuori ChatGPT se gli si chiede il "Chain of Thought"), ma sapere ESATTAMENTE cosa è stato preso in considerazione durante l'elaborazione E COSA NO, nonché capire ESATTAMENTE come.
Giacomo
[1]: https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304141533570286231...
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On 16 Apr 2023, at 11:58, Marco A. Calamari <marcoc_maillist@marcoc.it> wrote:
On dom, 2023-04-16 at 11:24 +0200, Giuseppe Attardi wrote:
Questa risposta è talmente grossolana e offensiva che speravo qualcun altro rispondesse.
Se nessuno lo ha fatto, mi inorridisce pensare a quanti su questa lista la condividano.
Per fortuna non è obbligatorio che tutti quelli che sono in disaccordo (o anche d'accordo, perché no?) rispondano.
Nel mio caso, comunque, sono poco interessato all'AI come settore di ricerca dell'informatica, ma molto al suo ruolo come iniziativa commerciale, di tecnocontrollo e geopolitica.
Se non fosse così, ad esempio, io in quanto ingegnere nucleare dovrei sentirmi obbligato ad intervenire ogni volta che qualcuno parla di "fusione fredda”. Ossia assimili l’AI alla “fusione fredda”, una tecnologia quella sì davvero inesistente.
— Beppe
Il tempo è la risorsa più limitata al mondo.
JM2EC. Buona domenica a tutti. Marco
L’Artificial Intelligence esiste ed è una delle principali discipline della Computer Science. Ci sono riviste, congressi e istituti dedicati alla ricerca in AI in tutto il mondo. Il fatto che la Commissione Europea l’abbia ignorata nei suoi finanziamenti, dimostra la sua miopia, non la sua furbizia. Per fortuna altri paesi l’hanno sostenuta, altrimenti oggi non avremmo il fiorire di innovazioni che sta portando l’AI.
Occupandosi di uno dei problemi più complessi dell’informatica, ossia la riproduzione delle capacità della mente umana, l’AI si è dovuta spesso scontrare coi limiti della tecnologia. Ma chi se ne occupava si è sempre ingegnato per superarli. Infatti, gran parte delle tecnologie informatiche che oggi sono di uso comune, sono nate in ambito AI. Ad esempio:
- linguaggi funzionali - garbage collection - linguaggi a oggetti - interfacce grafiche - interfacce di sviluppo integrate (IDE) - Map/reduce per elaborazione parallela - animazione 3D - sistemi operativi
Unix fu scritto da Ken Thompson per poter sviluppare il suo programma per il gioco degli scacchi. Il movimento del Free Software fu lanciato da Richard Stallman, che lavorava al MIT AI Lab, dove partecipava al progetto della MIT Lisp Machine.
Marvin Minsky diceva: “When it works, it is no longer AI”, per esprimere il rammarico che le più significative innovazioni dell’AI venissero spesso attribuite ad altri.
Many of AI's greatest innovations have been reduced to the status of just another item in the tool chest of computer science. Nick Bostrom explains "A lot of cutting edge AI has filtered into general applications, often without being called AI because once something becomes useful enough and common enough it's not labeled AI anymore.” https://en.wikipedia.org/wiki/History_of_artificial_intelligence#AI_behind_t... <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304160958570720544...>
la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica L’AI copre aree più vaste della “programmazione statistica”.
Il confronto con la blockchain è offensivo: quella è una tecnologia in cerca di applicazioni, basata su un singolo articolo. Non può essere comparata con una disciplina scientifica con 50 anni di ricerca alle spalle e migliaia di ricercatori coinvolti.
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
Non inseguiamo nemmeno: come potremmo guidare una tecnologia di cui abbiamo scarso controllo?
— Beppe
On 14 Apr 2023, at 17:33, nexa-request@server-nexa.polito.it wrote:
From: Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it>> To: Giuseppe Attardi <attardi@di.unipi.it <mailto:attardi@di.unipi.it>> Cc: Stefano Maffulli <smaffulli@gmail.com <mailto:smaffulli@gmail.com>>, "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> Subject: Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste. Message-ID: <20230414165246.00001237@tesio.it <mailto:20230414165246.00001237@tesio.it>> Content-Type: text/plain; charset=utf-8
On Fri, 14 Apr 2023 11:34:14 +0200 Giuseppe Attardi wrote:
On 14 Apr 2023, at 10:20, Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it>> wrote:
Beh, è facile concordare sui finanziamenti alla ricerca.
Talmente facile che non viene fatto.
La voce “Intelligenza Artificiale” non era nemmeno presente nei progetti Horizon fino a 3 anni fa, dove, udite udite, sono stati stanziati 50 milioni per 5 progetti ICT-48.
Vuoi dire che l'hanno messa? Bah... che posso dire, farà il paio con la blockchain!
Il fatto che la voce "Intelligenza Artificiale" non fosse presente lasciava in effetti ben sperare: la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica cui troppi, non comprendendone il funzionamento, attribuiscono una qualche forma di "intelligenza".
Ben vengano dunque i finanziamenti alla ricerca di nuove tecniche di programmazione statistica che producano risultati più affidabili!
Ma ben vengano anche finanziamenti alla ricerca di nuovi framework interpretativi di queste tecnologie, un po' meno allucinati e allucinogeni! :-D
Al termine dell'ultimo Mercoledì di Nexa [1], in cui Enrico Nardelli ha presentato le tesi del suo libro "La rivoluzione informatica", Juan Carlos ha detto una cosa importantissima:
"sicuramente non esiste indipendenza, non esiste sovranità, senza la possibilità di controllare, produrre e sviluppare tutte le tecnologie fondamentali che servono per una società moderna"
Condivido pienamente il concetto.
Vedo però un'enorme vulnerabilità nella formulazione: chi decide cosa significa "società moderna"? chi decide quali siano le tecnologie fondamentali che servono per realizzarla?
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
I software della Silicon Valley sono progettati per realizzare una specifica idea di società. Dobbiamo davvero competere con loro, solo se vogliamo imporre all'Europa esattamente quella idea di società (e vogliamo farlo meglio di loro).
Ma se decidessimo invece di provare a creare una società democratica, libera ed equa, di quali strumenti avremmo bisogno?
PS. A proposito di XAI, gli approcci proposti per fornire spiegazioni a posteriori dei risultati degli attuali sistemi di ML, semplicemente non funzionano, perché non scalano alle dimensiini di modelli costituiti da miliardi di parametri. Del resto, se esistesse una spiegazione semplice e comprensibile per un problema complesso e difficile, il problema non sarebbe complesso e difficile.
Ecco un'evidenza concreta dei gravi danni che la narrazione della "Intelligenza Artificiale" causa alla ricerca scientifica.
Anzitutto, io non ho parlato di XAI, ma di dimostrare in modo semplice (ancorché estremamente costoso) di non aver selezionato scientemente il dataset in modo da causare specifiche discriminazione. Non ho mai detto che ciò garantisca l'assenza di discriminazioni.
Salvare tutti quei dati serve solo a poter dimostrare l'assenza di dolo, ma non rimuove la responsabilità per i danni causati dal software.
D’altra parte, con le tecniche di prompting cone il Chain of Thought, si può chiedere agli stessi modelli come ChatGPT di fornire un filo logico dei passaggi che hanno portato alla risposta.
Stai confondendo (come tanti, purtroppo) giustificazione e spiegazione.
ChatGPT può sicuramente produrre una stringa di testo che la tua mente interpreti come una valida GIUSTIFICAZIONE di un proprio output.
Ma tale stringa di testo non costituisce una SPIEGAZIONE di come tale output sia stato calcolato.
Il calcolo effettuato potrebbe essere del tutto diverso: nessun informatico (o scienziato) con un minimo di serietà potrebbe accontentarsi di una tale giustificazione NON VERIFICABILE.
Quando si parla di spiegare l'output delle "AI" bisogna aver ben chiaro l'obiettivo: non ci interessa trovare un'argomentazione più o meno soddisfacente a sostegno dell'output (ciò che tira fuori ChatGPT se gli si chiede il "Chain of Thought"), ma sapere ESATTAMENTE cosa è stato preso in considerazione durante l'elaborazione E COSA NO, nonché capire ESATTAMENTE come.
Giacomo
[1]: https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304141533570286231...
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304160958570720544...>
On dom, 2023-04-16 at 20:01 +0200, Giuseppe Attardi wrote:
On 16 Apr 2023, at 11:58, Marco A. Calamari <marcoc_maillist@marcoc.it> wrote:
On dom, 2023-04-16 at 11:24 +0200, Giuseppe Attardi wrote:
Questa risposta è talmente grossolana e offensiva che speravo qualcun altro rispondesse.
Se nessuno lo ha fatto, mi inorridisce pensare a quanti su questa lista la condividano.
Per fortuna non è obbligatorio che tutti quelli che sono in disaccordo (o anche d'accordo, perché no?) rispondano.
Nel mio caso, comunque, sono poco interessato all'AI come settore di ricerca dell'informatica, ma molto al suo ruolo come iniziativa commerciale, di tecnocontrollo e geopolitica.
Se non fosse così, ad esempio, io in quanto ingegnere nucleare dovrei sentirmi obbligato ad intervenire ogni volta che qualcuno parla di "fusione fredda” Ossia assimili l’AI alla “fusione fredda”, una tecnologia quella sì davvero inesistente.
Caro Giuseppe, non credo che al mondo esista qualcuno che non abbia sentito che la "Fusione Fredda" non esiste, ed è stato un discorso parascientifico. Nemmeno credo che ti sfugga che non potrei permettermi, professionalmente, di non conoscere la questione nei dettagli. Ma nella sostanza hai perfettamente ragione. Affermo proprio, ormai da tempo, che l'"Intelligenza" nel campo dell'"Intelligenza Artificiale", e la "fusione fredda" condividono la categoria della "non esistenza" Ed essendo il tempo prezioso, ritengo di essere stato chiaro, e di aver rubato ai colleghi di lista anche troppo tempo. Grazie. Marco
— Beppe
Il tempo è la risorsa più limitata al mondo.
JM2EC. Buona domenica a tutti. Marco
L’Artificial Intelligence esiste ed è una delle principali discipline della Computer Science. Ci sono riviste, congressi e istituti dedicati alla ricerca in AI in tutto il mondo. Il fatto che la Commissione Europea l’abbia ignorata nei suoi finanziamenti, dimostra la sua miopia, non la sua furbizia. Per fortuna altri paesi l’hanno sostenuta, altrimenti oggi non avremmo il fiorire di innovazioni che sta portando l’AI.
Occupandosi di uno dei problemi più complessi dell’informatica, ossia la riproduzione delle capacità della mente umana, l’AI si è dovuta spesso scontrare coi limiti della tecnologia. Ma chi se ne occupava si è sempre ingegnato per superarli. Infatti, gran parte delle tecnologie informatiche che oggi sono di uso comune, sono nate in ambito AI. Ad esempio:
- linguaggi funzionali - garbage collection - linguaggi a oggetti - interfacce grafiche - interfacce di sviluppo integrate (IDE) - Map/reduce per elaborazione parallela - animazione 3D - sistemi operativi
Unix fu scritto da Ken Thompson per poter sviluppare il suo programma per il gioco degli scacchi. Il movimento del Free Software fu lanciato da Richard Stallman, che lavorava al MIT AI Lab, dove partecipava al progetto della MIT Lisp Machine.
Marvin Minsky diceva: “When it works, it is no longer AI”, per esprimere il rammarico che le più significative innovazioni dell’AI venissero spesso attribuite ad altri.
Many of AI's greatest innovations have been reduced to the status of just another item in the tool chest of computer science. Nick Bostrom explains "A lot of cutting edge AI has filtered into general applications, often without being called AI because once something becomes useful enough and common enough it's not labeled AI anymore.”
https://en.wikipedia.org/wiki/History_of_artificial_intelligence#AI_behind_t...
la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica L’AI copre aree più vaste della “programmazione statistica”.
Il confronto con la blockchain è offensivo: quella è una tecnologia in cerca di applicazioni, basata su un singolo articolo. Non può essere comparata con una disciplina scientifica con 50 anni di ricerca alle spalle e migliaia di ricercatori coinvolti.
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
Non inseguiamo nemmeno: come potremmo guidare una tecnologia di cui abbiamo scarso controllo?
— Beppe
On 14 Apr 2023, at 17:33, nexa-request@server-nexa.polito.it wrote:
From: Giacomo Tesio <giacomo@tesio.it> To: Giuseppe Attardi <attardi@di.unipi.it> Cc: Stefano Maffulli <smaffulli@gmail.com>, "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it> Subject: Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste. Message-ID: <20230414165246.00001237@tesio.it> Content-Type: text/plain; charset=utf-8
On Fri, 14 Apr 2023 11:34:14 +0200 Giuseppe Attardi wrote:
On 14 Apr 2023, at 10:20, Giacomo Tesio <giacomo@tesio.it> wrote:
Beh, è facile concordare sui finanziamenti alla ricerca.
Talmente facile che non viene fatto.
La voce “Intelligenza Artificiale” non era nemmeno presente nei progetti Horizon fino a 3 anni fa, dove, udite udite, sono stati stanziati 50 milioni per 5 progetti ICT-48.
Vuoi dire che l'hanno messa? Bah... che posso dire, farà il paio con la blockchain!
Il fatto che la voce "Intelligenza Artificiale" non fosse presente lasciava in effetti ben sperare: la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica cui troppi, non comprendendone il funzionamento, attribuiscono una qualche forma di "intelligenza".
Ben vengano dunque i finanziamenti alla ricerca di nuove tecniche di programmazione statistica che producano risultati più affidabili!
Ma ben vengano anche finanziamenti alla ricerca di nuovi framework interpretativi di queste tecnologie, un po' meno allucinati e allucinogeni! :-D
Al termine dell'ultimo Mercoledì di Nexa [1], in cui Enrico Nardelli ha presentato le tesi del suo libro "La rivoluzione informatica", Juan Carlos ha detto una cosa importantissima:
"sicuramente non esiste indipendenza, non esiste sovranità, senza la possibilità di controllare, produrre e sviluppare tutte le tecnologie fondamentali che servono per una società moderna"
Condivido pienamente il concetto.
Vedo però un'enorme vulnerabilità nella formulazione: chi decide cosa significa "società moderna"? chi decide quali siano le tecnologie fondamentali che servono per realizzarla?
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
I software della Silicon Valley sono progettati per realizzare una specifica idea di società. Dobbiamo davvero competere con loro, solo se vogliamo imporre all'Europa esattamente quella idea di società (e vogliamo farlo meglio di loro).
Ma se decidessimo invece di provare a creare una società democratica, libera ed equa, di quali strumenti avremmo bisogno?
PS. A proposito di XAI, gli approcci proposti per fornire spiegazioni a posteriori dei risultati degli attuali sistemi di ML, semplicemente non funzionano, perché non scalano alle dimensiini di modelli costituiti da miliardi di parametri. Del resto, se esistesse una spiegazione semplice e comprensibile per un problema complesso e difficile, il problema non sarebbe complesso e difficile.
Ecco un'evidenza concreta dei gravi danni che la narrazione della "Intelligenza Artificiale" causa alla ricerca scientifica.
Anzitutto, io non ho parlato di XAI, ma di dimostrare in modo semplice (ancorché estremamente costoso) di non aver selezionato scientemente il dataset in modo da causare specifiche discriminazione. Non ho mai detto che ciò garantisca l'assenza di discriminazioni.
Salvare tutti quei dati serve solo a poter dimostrare l'assenza di dolo, ma non rimuove la responsabilità per i danni causati dal software.
D’altra parte, con le tecniche di prompting cone il Chain of Thought, si può chiedere agli stessi modelli come ChatGPT di fornire un filo logico dei passaggi che hanno portato alla risposta.
Stai confondendo (come tanti, purtroppo) giustificazione e spiegazione.
ChatGPT può sicuramente produrre una stringa di testo che la tua mente interpreti come una valida GIUSTIFICAZIONE di un proprio output.
Ma tale stringa di testo non costituisce una SPIEGAZIONE di come tale output sia stato calcolato.
Il calcolo effettuato potrebbe essere del tutto diverso: nessun informatico (o scienziato) con un minimo di serietà potrebbe accontentarsi di una tale giustificazione NON VERIFICABILE.
Quando si parla di spiegare l'output delle "AI" bisogna aver ben chiaro l'obiettivo: non ci interessa trovare un'argomentazione più o meno soddisfacente a sostegno dell'output (ciò che tira fuori ChatGPT se gli si chiede il "Chain of Thought"), ma sapere ESATTAMENTE cosa è stato preso in considerazione durante l'elaborazione E COSA NO, nonché capire ESATTAMENTE come.
Giacomo
[1]: https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304141533570286231...
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Unix fu scritto da Ken Thompson per poter sviluppare il suo programma per il gioco degli scacchi.
Che Thompson sia stato un grande appassionato di scacchi è cosa nota. Suo (e di Joe Condon) il computer scacchistico Belle [1] che tra gli anni settanta e ottanta sbaragliava gli avversari /artificiali/. In un'epoca in cui i programmi scacchistici non andavano oltre le 5000 mosse al secondo, il suo Belle ne computava 160000. Tuttavia, da quello che riporta Wikipedia, il gioco che avrebbe portato alla scrittura di un sistema operativo completamente nuovo e che è andato a costituire il nucleo di Unix è stato Space Travel [2] Antonio [1] https://it.wikipedia.org/wiki/Belle_(scacchi) [2] https://it.wikipedia.org/wiki/Space_Travel
Buona sera Giuseppe, On Sun, 16 Apr 2023 11:24:28 +0200 Giuseppe Attardi wrote:
Questa risposta è talmente grossolana e offensiva che speravo qualcun altro rispondesse.
Mi dispiace sinceramente di aver offeso la tua sensibilità. Me ne scuso e provo a chiarire meglio cosa intendessi.
L’Artificial Intelligence esiste ed è una delle principali discipline della Computer Science. Ci sono riviste, congressi e istituti dedicati alla ricerca in AI in tutto il mondo.
L'Intelligenza Artificiale non è una tecnologia. E' una disciplina come lo sono state per secoli l'astrologia o l'alchimia. Discipline con studiosi del calibro di Isaac Newton. Scriveva Dijkstra nel 1984: ``` Two major streams can be distinguished, the quest for the Stone and the quest for the Elixir. The quest for the Stone is based on the assumption that our "programming tools" are too weak. One example is the belief that current programming languages lack the "features" we need. [...] In parallel we have the search for the Elixir. Here the programming problem is simply solved by doing away with the programmer. Wouldn't it be nice, for instance, to have programs in almost plain English, so that ordinary people could write and read them? [...] Since then we have had elixirs in a countless variety of tastes and colours. I have fond memories of a project of the early 70's that postulated that we did not need programs at all! All we needed was "intelligence amplification". If they have been able to design something that could "amplify" at all, they have probably discovered it would amplify stupidity as well; in any case I have not heard from it since. The major attraction of the modern elixirs is that they relieve their consumers from the obligation of being precise by presenting an interface too fuzzy to be precise in: by suppressing the symptoms of impotence they create an illusion of power. ``` https://www.cs.utexas.edu/users/EWD/transcriptions/EWD08xx/EWD898.html Nemmeno Dijkstra poteva immaginare che qualcuno prendesse talmente sul serio la ricerca di un elisir di lunga vita da immaginare di sterminare l'umanità per sostituirla con simulazioni eseguite dentro enormi calcolatori (transumanisti, longtermisti etc...) Ma ChatGPT (e GitHub CopyALot, prima) non è proprio l'ennesima incarnazione della ricerca dell'elisir di cui parlava EWD? Vero: diverse innovazioni INFORMATICHE sono state realizzate grazie agli enormi FINANZIAMENTI ottenuti dalla Intelligenza Artificiale. L'AI vende bene, non c'è dubbio. E sui curricula fa un figurone! Ma rimane una speranza, un'ambizione, un sogno... non una tecnologia. E nel momento in cui qualcuno la vende come tale, diventa un'allucinazione o una truffa.
Occupandosi di uno dei problemi più complessi dell’informatica, ossia la riproduzione delle capacità della mente umana
Ma questo non è affatto un problema dell'informatica, Giuseppe! La supply chain è un problema dell'informatica. La complessità accidentale e strumentale dei software moderni è un problema dell'informatica. La normalizzazione dell'insicurezza sistemica che tale complessità determina è un problema dell'informatica. La crittografia pienamente omomorfica è un problema dell'informatica. Ma riprodurre le capacità della mente umana NON è un problema che l'umanità abbia alcuna urgenza di risolvere. La mente umana è talmente efficiente... per sole trecento chilocalorie al giorno può fare molto più di quanto GPT-4 non farà mai! Dunque l'AI NON cerca di risolvere un problema informatico. E' invece uno strumento di propaganda. Per questo riceve tanti finanziamenti! Diffonde un messaggio politico: l'uomo può essere sostituito da cose. L'Intelligenza Artificiale serve letteralmente a legittimare il dominio dell'uomo sull'uomo. E serve ad applicarlo tramite macchine. Tutta l'urgenza di sottrarre Open AI alle proprie responsabilità legali rispetto all'output di ChatGPT mostra bene questa esigenza. Il messaggio è chiaro: si DEVE secrificare i diritti umani all'AI.
Marvin Minsky diceva: “When it works, it is no longer AI”, per esprimere il rammarico che le più significative innovazioni dell’AI venissero spesso attribuite ad altri.
Minsky lo viveva con rammarico perché credeva sinceramente nella favola dell'Intelligenza Artificiale, non vedendone gli scopi politici. Io invece la vedo come progresso: quando finalmente uno strumento funziona, non ha più bisogno della fuffa AI per essere finanziato.
la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica
L’AI copre aree più vaste della “programmazione statistica”.
Vero. Vende così bene, che ci mettono dentro un po' di tutto. Ma quella di cui stiamo parlando (GPT-4) è programmazione statistica.
Il confronto con la blockchain è offensivo: quella è una tecnologia in cerca di applicazioni, basata su un singolo articolo.
Ok, hai ragione: paragonare qualsiasi cosa alla blockchain è offensivo e me ne scuso sinceramente.
Non può essere comparata con una disciplina scientifica con 50 anni di ricerca alle spalle e migliaia di ricercatori coinvolti.
Intendevo semplicemente dire che la Commissione Europea non ha un minimo di comprensione delle tecnologie che finanzia, producendo sprechi ed disastri strategici enormi. I vari finanziamenti alla blockchain rientrano negli sprechi. Quelli alla "intelligenza artificiale" rientrano nei disastri strategici: dovrebbe finanziare l'informatica, lo sviluppo di software progettati per facilitare la comunicazione, la didattica etc... finanziare la ricerca di sistemi operativi sicuri, di protocolli peer to peer e robe simili... In altri termini, l'UE dovrebbe investire nella creazione di un'informatica DEMOCRATICA, alla portata di tutti. Gli LLM (giusto per fare un esempio on-topic) sono l'antitesi di tale informatica. E l'UE non dovrebbe sprecare soldi pubblici per essi.
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
Non inseguiamo nemmeno: come potremmo guidare una tecnologia di cui abbiamo scarso controllo?
Non so a quale tecnologia tu faccia riferimento, ma il punto è proprio che non dovremmo inseguire. Dovremmo adottare un approccio top-down: 1. quali obiettivi sociali e politici vogliamo realizzare? 2. che tecnologia ci serve per realizzarli? Solo dopo aver deciso quale società vogliamo per i nostri figli, potremo iniziare a pensare quale infrastruttura tecnologica gli servirà. E potremo così anche realizzarla. Invece, inseguire l'elisir della AI significa accettare proni un modello di società deciso altrove, nell'interesse di altri. Possiamo fare di meglio. Giacomo
On 16 Apr 2023, at 23:50, Giacomo Tesio <giacomo@tesio.it> wrote:
Buona sera Giuseppe,
On Sun, 16 Apr 2023 11:24:28 +0200 Giuseppe Attardi wrote:
Questa risposta è talmente grossolana e offensiva che speravo qualcun altro rispondesse.
Mi dispiace sinceramente di aver offeso la tua sensibilità.
Me ne scuso e provo a chiarire meglio cosa intendessi.
L’Artificial Intelligence esiste ed è una delle principali discipline della Computer Science. Ci sono riviste, congressi e istituti dedicati alla ricerca in AI in tutto il mondo.
L'Intelligenza Artificiale non è una tecnologia.
E' una disciplina come lo sono state per secoli l'astrologia o l'alchimia. Discipline con studiosi del calibro di Isaac Newton.
Scriveva Dijkstra nel 1984:
``` Two major streams can be distinguished, the quest for the Stone and the quest for the Elixir.
The quest for the Stone is based on the assumption that our "programming tools" are too weak. One example is the belief that current programming languages lack the "features" we need. [...]
In parallel we have the search for the Elixir. Here the programming problem is simply solved by doing away with the programmer. Wouldn't it be nice, for instance, to have programs in almost plain English, so that ordinary people could write and read them? [...]
Since then we have had elixirs in a countless variety of tastes and colours. I have fond memories of a project of the early 70's that postulated that we did not need programs at all! All we needed was "intelligence amplification". If they have been able to design something that could "amplify" at all, they have probably discovered it would amplify stupidity as well; in any case I have not heard from it since.
The major attraction of the modern elixirs is that they relieve their consumers from the obligation of being precise by presenting an interface too fuzzy to be precise in: by suppressing the symptoms of impotence they create an illusion of power. ``` https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304162150380828063...
Nemmeno Dijkstra poteva immaginare che qualcuno prendesse talmente sul serio la ricerca di un elisir di lunga vita da immaginare di sterminare l'umanità per sostituirla con simulazioni eseguite dentro enormi calcolatori (transumanisti, longtermisti etc...)
Edsger J. Dijkstra era un personaggio alquanto bizzarro. Ho avuto uno scontro pubblico con lui proprio su un tema simile, in una conferenza in cui presentavo delle tecniche di programmazione dichiarative, che sfruttavano tecniche di trasformazione di programmi per generare codice efficiente a partire da una descrizione dichiarativa del risultato voluto. Dijkstra fece obiezioni all’approccio, arrivando fino al punto, per sostenere la sua tesi che i programmi non esistessero, perché sono solo funzioni astratte, e che non esiste lo stato. Le sue affermazioni fecero inorridire i presenti, tra cui Vaughan Pratt, che gli rispose per le rime, Tony Hoare e John Backus, inventore del primo compilatore. C’è da qualche parte la trascrizione del dibattito, che tralascio per carità di patria.
Ma ChatGPT (e GitHub CopyALot, prima) non è proprio l'ennesima incarnazione della ricerca dell'elisir di cui parlava EWD?
Vero: diverse innovazioni INFORMATICHE sono state realizzate grazie agli enormi FINANZIAMENTI ottenuti dalla Intelligenza Artificiale.
Non mi pare proprio che l’AI sia stata molto finanziata: c’è solo stato un breve periodo negli anni ’80 quando molte aziende erano lanciate negli Expert System, ma durò molto poco. Alle conferenze di AI ci trovavamo in poche centinaia di persone. C’erano solo due laboratori di AI negli usa: SAIL e MIT. BTW, al SAIL fu inventata la tecnica della generazione sonora con Frequency Modulation, che si ritrovava in tutti i chip di sintesi di suoni.
L'AI vende bene, non c'è dubbio. E sui curricula fa un figurone!
Non so in che mondo hai vissuto. Io ho vissuto l’ostracismo in cui occorreva evitare di solo citare il termine, al punto che qualcuno si inventava termini diversi come Sistemi Intelligenti, Knowledge Representation, ecc. Solo 5 anni fa, per convincere i miei colleghi di dipartimento ad aprire un curriculum di AI, dovemmo fare una dura battaglia contro la maggioranza dei miei colleghi che non ne voleva sapere, insistendo per aprire altri curricula, che oggi sono stati chiusi per mancanza di iscritti.
Ma rimane una speranza, un'ambizione, un sogno... non una tecnologia.
E nel momento in cui qualcuno la vende come tale, diventa un'allucinazione o una truffa.
Occupandosi di uno dei problemi più complessi dell’informatica, ossia la riproduzione delle capacità della mente umana
Ma questo non è affatto un problema dell'informatica, Giuseppe!
La supply chain è un problema dell'informatica.
La complessità accidentale e strumentale dei software moderni è un problema dell'informatica.
La normalizzazione dell'insicurezza sistemica che tale complessità determina è un problema dell'informatica.
La crittografia pienamente omomorfica è un problema dell'informatica.
Ma riprodurre le capacità della mente umana NON è un problema che l'umanità abbia alcuna urgenza di risolvere.
La mente umana è talmente efficiente... per sole trecento chilocalorie al giorno può fare molto più di quanto GPT-4 non farà mai!
Questo significa che c’è ancora molta strada da fare, non che non ci si riuscirà mai. Gran parte delle cose che si riesce a fare oggi con l’AI fino a pochi anni fa si diceva che non si sarebbero mai potute fare.
Dunque l'AI NON cerca di risolvere un problema informatico.
Non uno, ma decine di problemi.
E' invece uno strumento di propaganda. Per questo riceve tanti finanziamenti!
Diffonde un messaggio politico: l'uomo può essere sostituito da cose.
Pure l’informatica sostituisce persone con algoritmi. L’AI fa parte dell’Informatica e ne condivide pregi e difetti.
L'Intelligenza Artificiale serve letteralmente a legittimare il dominio dell'uomo sull'uomo. E serve ad applicarlo tramite macchine.
Adesso l’AI è il male assoluto dell’umanità, non sono il neoliberismo, le guerre di dominio, la concentrazioni di potere e di reddito, ecc.
Tutta l'urgenza di sottrarre Open AI alle proprie responsabilità legali rispetto all'output di ChatGPT mostra bene questa esigenza.
Il messaggio è chiaro: si DEVE secrificare i diritti umani all'AI.
Stai delirando.
Marvin Minsky diceva: “When it works, it is no longer AI”, per esprimere il rammarico che le più significative innovazioni dell’AI venissero spesso attribuite ad altri.
Minsky lo viveva con rammarico perché credeva sinceramente nella favola dell'Intelligenza Artificiale, non vedendone gli scopi politici.
Io invece la vedo come progresso: quando finalmente uno strumento funziona, non ha più bisogno della fuffa AI per essere finanziato.
la ricerca di cui abbiamo bisogno non riguarda l'"Intelligenza Artificiale" (che non esiste, se non come allucinazione collettiva) ma sulla programmazione statistica
L’AI copre aree più vaste della “programmazione statistica”.
Vero. Vende così bene, che ci mettono dentro un po' di tutto.
Ma quella di cui stiamo parlando (GPT-4) è programmazione statistica.
Il confronto con la blockchain è offensivo: quella è una tecnologia in cerca di applicazioni, basata su un singolo articolo.
Ok, hai ragione: paragonare qualsiasi cosa alla blockchain è offensivo e me ne scuso sinceramente.
Non può essere comparata con una disciplina scientifica con 50 anni di ricerca alle spalle e migliaia di ricercatori coinvolti.
Intendevo semplicemente dire che la Commissione Europea non ha un minimo di comprensione delle tecnologie che finanzia, producendo sprechi ed disastri strategici enormi.
Se era questo che intendevi, lo hai detto malissimo, prendendo come capro espiatorio proprio la disciplina che NON è stata finanziata.
I vari finanziamenti alla blockchain rientrano negli sprechi.
Quelli alla "intelligenza artificiale" rientrano nei disastri strategici: dovrebbe finanziare l'informatica, lo sviluppo di software progettati per facilitare la comunicazione, la didattica etc... finanziare la ricerca di sistemi operativi sicuri, di protocolli peer to peer e robe simili...
In altri termini, l'UE dovrebbe investire nella creazione di un'informatica DEMOCRATICA, alla portata di tutti.
Credo di essermi dedicato esattamente a questo per i miei 50 anni di carriera, combattendo i monopoli, quali forse tu non hai nemmeno visto (un tempo IBM era sinonimo di computer), contribuendo allo sviluppo dei Personal Computer, portando Unix in Italia, costruendo reti pubbliche combattendo i monopoli delle telecomunicazioni, sviluppando sempre software e risorse aperte e pubbliche, ecc.
Gli LLM (giusto per fare un esempio on-topic) sono l'antitesi di tale informatica. E l'UE non dovrebbe sprecare soldi pubblici per essi.
I LLM sono un passo evolutivo nello sviluppo di una tecnologia che sarà General Purpose a vantaggio di tutti. Peccato che tu non lo capisca.
In Europa arranchiamo solo perché inseguiamo, invece di guidare.
Non inseguiamo nemmeno: come potremmo guidare una tecnologia di cui abbiamo scarso controllo?
Non so a quale tecnologia tu faccia riferimento, ma il punto è proprio che non dovremmo inseguire.
Dovremmo adottare un approccio top-down:
1. quali obiettivi sociali e politici vogliamo realizzare? 2. che tecnologia ci serve per realizzarli?
Solo dopo aver deciso quale società vogliamo per i nostri figli, potremo iniziare a pensare quale infrastruttura tecnologica gli servirà. E potremo così anche realizzarla.
Invece, inseguire l'elisir della AI significa accettare proni un modello di società deciso altrove, nell'interesse di altri.
Sono molto critico del modello di società economico sociale in cui viviamo. Ma non seguo il tuo sillogismo: non proseguire lo sviluppo dell’AI significherebbe cambiare modello di società?
Possiamo fare di meglio.
Non certo con atteggiamenti oscurantisti rispetto alla tecnologia. — Beppe
Giacomo
Il giorno mer 19 apr 2023 alle ore 07:58 Giuseppe Attardi < attardi@di.unipi.it> ha scritto:
Possiamo fare di meglio.
Non certo con atteggiamenti oscurantisti rispetto alla tecnologia.
— Beppe
dovremmo indagare anche sul perchè l'oscurantismo prende il dominio delle nostre menti e capire se è più un problema psicologico oppure una questione culturale paolo
Il 19/04/23 13:44, Paolo Del Romano ha scritto:
Il giorno mer 19 apr 2023 alle ore 07:58 Giuseppe Attardi <attardi@di.unipi.it> ha scritto:
> Possiamo fare di meglio.
Non certo con atteggiamenti oscurantisti rispetto alla tecnologia.
— Beppe
dovremmo indagare anche sul perchè l'oscurantismo prende il dominio delle nostre menti e capire se è più un problema psicologico oppure una questione culturale
Non vedo un "oscurantismo tecnologico" che "...prende il dominio delle nostre menti...". Piuttosto, vedo un totale disinteresse (doloso? colposo? .... casuale? causale? ) di tutto il livello politico ITA a promuovere uno sviluppo ICT "serio" nel nostro Paese (dove "serio" lo intendo su una mia personalissima scala). Promozione di cui solo recentemente (poche decine mesi) inizio a vedere le sembianze in ambito EU. E --chiedo perdono per la brutalita'--, tutto cio' in PERFETTA SINTONIA con il mondo Accademico, che inconsapevolmente (a mio parere, ovviamente) supporta tale immobilismo politico. Un mondo accademico (quello ITA in particolare) che è certamente capace di esprimere una produzione scientifica rilevante (no; non sono sarcastico), ma che poi risulta totalmente incapace di incidere nella realta' quotidiana. Possibile che nessun Ateneo, in Italia (e in Europa), sia in grado di prendere il controllo di un qualsiasi medio/grande progetto Open Source, e promuoverne l'evoluzione? Possibile che nessun Ateneo, in Italia (e in Europa) si senta in grado di mettersi alla guida di una iniziativa "alta" (ITA o EU) che punti, a 24 mesi, a creare una piattaforma di messaggistica (e-mail), da mettere a disposizione di tutti, per il futuro, probabile, re-in-sourcing della posta? Possibile che nessun Ateneo, in Italia (e in Europa) si senta all'altezza di guidare lo sviluppo di una piattaforma di supporto alla didattica, che possa consentire al mondo della scuola e di univ di "liberarsi" da Teams e da Classroom? Possibile che --ammesso e non concesso che ci sia mancanza di risorse umane-- nessun Ateneo possa mettersi alla guida di una cordata privata, che inizi a prendere il controllo di cio' che serve? D'altro canto, i miei occhi non possono fare a meno di notare che tutto cio' accade in un contesto (ITA) dove: - ormai da piu' di due anni, a Pennapiedimonte [*] c'e' la fibra a disposizione delle case (vuote) (....ad essere cattivo, direi che ci sono piu' metri di fibra che abitanti residenti), e chiaramente a portarcela non è stata una Santa Divinità, ma del vil-denaro (...accompagnato da un volere "politico"); - ci si fa belli a mostrare i RACK di Leonardo (https://leonardo-supercomputer.cineca.eu/ - che non è costato [e non costa] esattamente 5 euro) scrivendo che i "Leonardo's main goals are", "Sustain the computing capability for the Italian and European researchers" + "Help ensure EU sovereignty on strategic technologies" + "tackle relevant and urgent societal challenges" - PoliTO e UniTO gestiscono (dal 2017) l'HPC4AI - https://hpc4ai.it/ - ".... to create a federated competence centre on High-Performance Computing (HPC), Artificial Intelligence (AI) and Big Data Analytics (BDA)..." ...e potrei continuare (BTW: sugli ultimi due punti [Leonardo e HPC4AI], mi sono chiesto piu' volte --senza trovare risposte-- come mai l'interessantissimo thread su ChatGPT tuttora in corso, non possa essere "allargato" a soggetti afferenti a questi ambiti... dato che --per loro, ed a differenza nostra-- dovrebbe essere CORE-BUSINESS!!!) Io credo che l' "oscurantismo tecnologico" cui il Prof. Del Romano faceva riferimento è figlio del fatto che da almeno tre decenni, ICT == Spesa_per_acquisti (di hardware e servizi connessi, in primis). Certamente --sempre a livello politico-- "ICT" **NON** è stato sinonimo di "sviluppo di competenze". E, di nuovo, la responsabilita' del mondo UNIV in questo senso è --secondo me-- rilevante. Non voglio assolutamente sminuire l'importanza di rimarcare come i temi dell'IA impattino ben oltre il mondo della tecnica, sconfinando nel sociale, nel filosofico e in altri ambiti che --dal basso della mia ignoranza-- ignoro. Tutto cio' non solo serve, ma è certamente necessario. E questa lista è semplicemente eccellente, al riguardo. Ma fermarsi qui, senza poi sporcarsi le mani con la tecnologia, per capire esattamente come "modificarla" o come "adattarla" o come solo "promuoverne l'adattamento" a queste altre esigenze "alte", favorendone lo sviluppo concreto (con studenti, dottorandi, ricercatori... a cui evidentemente va chiesto di occuparsene MATERIALMENTE, sviluppando CONCRETAMENTE quello che serve per "adattare" cio' che oggi si ritiene non va), è un po'... colpevole. Insomma: dal mio punto di vista... non è che ci sia un fenomeno di "oscurantismo tecnologico" in senso stretto. È semplicemente che... qualcuno ha iniziato (trenta anni fa) a spegnere tutte le luci, in ambito ICT, e ora è decisamente buio. E' "scuro". Il dramma è che non vedo nessuno che abbia iniziato ad accendere qualche luce. Vedo qualcuno che vorrebbe farlo... che ha voglia di farlo. Ma non lo fa. Vedo altri (molti altri) che vorrebbero farlo... ma fanno confusione a distinguere le lampadine. Bye, DV [*] https://it.wikipedia.org/wiki/Pennapiedimonte -- Damiano Verzulli e-mail:damiano@verzulli.it --- possible?ok:while(!possible){open_mindedness++} --- "...I realized that free software would not generate the kind of income that was needed. Maybe in USA or Europe, you may be able to get a well paying job as a free software developer, but not here [in Africa]..." -- Guido Sohne - 1973-2008 http://ole.kenic.or.ke/pipermail/skunkworks/2008-April/005989.html
Non so se la responsabilità di tutto questo sia addebitabile solo al livello politico. Faccio un esempio. Il Garr ha un ottimo sistema di videoconferenza open e però il Ministero della Pubblica Istruzione (e non le singole scuole !!) per gli eventi che organizza a distanza con i Dirigenti scolastici, con gli Animatori Digitali, etc....utilizza Teams. E perchè questo? Paolo Il giorno mer 19 apr 2023 alle ore 16:18 Damiano Verzulli < damiano@verzulli.it> ha scritto:
Il 19/04/23 13:44, Paolo Del Romano ha scritto:
Il giorno mer 19 apr 2023 alle ore 07:58 Giuseppe Attardi < attardi@di.unipi.it> ha scritto:
Possiamo fare di meglio.
Non certo con atteggiamenti oscurantisti rispetto alla tecnologia.
— Beppe
dovremmo indagare anche sul perchè l'oscurantismo prende il dominio delle nostre menti e capire se è più un problema psicologico oppure una questione culturale
Non vedo un "oscurantismo tecnologico" che "...prende il dominio delle nostre menti...".
Piuttosto, vedo un totale disinteresse (doloso? colposo? .... casuale? causale? ) di tutto il livello politico ITA a promuovere uno sviluppo ICT "serio" nel nostro Paese (dove "serio" lo intendo su una mia personalissima scala). Promozione di cui solo recentemente (poche decine mesi) inizio a vedere le sembianze in ambito EU.
E --chiedo perdono per la brutalita'--, tutto cio' in PERFETTA SINTONIA con il mondo Accademico, che inconsapevolmente (a mio parere, ovviamente) supporta tale immobilismo politico. Un mondo accademico (quello ITA in particolare) che è certamente capace di esprimere una produzione scientifica rilevante (no; non sono sarcastico), ma che poi risulta totalmente incapace di incidere nella realta' quotidiana.
Possibile che nessun Ateneo, in Italia (e in Europa), sia in grado di prendere il controllo di un qualsiasi medio/grande progetto Open Source, e promuoverne l'evoluzione?
Possibile che nessun Ateneo, in Italia (e in Europa) si senta in grado di mettersi alla guida di una iniziativa "alta" (ITA o EU) che punti, a 24 mesi, a creare una piattaforma di messaggistica (e-mail), da mettere a disposizione di tutti, per il futuro, probabile, re-in-sourcing della posta?
Possibile che nessun Ateneo, in Italia (e in Europa) si senta all'altezza di guidare lo sviluppo di una piattaforma di supporto alla didattica, che possa consentire al mondo della scuola e di univ di "liberarsi" da Teams e da Classroom?
Possibile che --ammesso e non concesso che ci sia mancanza di risorse umane-- nessun Ateneo possa mettersi alla guida di una cordata privata, che inizi a prendere il controllo di cio' che serve?
D'altro canto, i miei occhi non possono fare a meno di notare che tutto cio' accade in un contesto (ITA) dove:
- ormai da piu' di due anni, a Pennapiedimonte [*] c'e' la fibra a disposizione delle case (vuote) (....ad essere cattivo, direi che ci sono piu' metri di fibra che abitanti residenti), e chiaramente a portarcela non è stata una Santa Divinità, ma del vil-denaro (...accompagnato da un volere "politico");
- ci si fa belli a mostrare i RACK di Leonardo ( https://leonardo-supercomputer.cineca.eu/ - che non è costato [e non costa] esattamente 5 euro) scrivendo che i "Leonardo's main goals are", "Sustain the computing capability for the Italian and European researchers" + "Help ensure EU sovereignty on strategic technologies" + "tackle relevant and urgent societal challenges"
- PoliTO e UniTO gestiscono (dal 2017) l'HPC4AI - https://hpc4ai.it/ - ".... to create a federated competence centre on High-Performance Computing (HPC), Artificial Intelligence (AI) and Big Data Analytics (BDA)..."
...e potrei continuare (BTW: sugli ultimi due punti [Leonardo e HPC4AI], mi sono chiesto piu' volte --senza trovare risposte-- come mai l'interessantissimo thread su ChatGPT tuttora in corso, non possa essere "allargato" a soggetti afferenti a questi ambiti... dato che --per loro, ed a differenza nostra-- dovrebbe essere CORE-BUSINESS!!!)
Io credo che l' "oscurantismo tecnologico" cui il Prof. Del Romano faceva riferimento è figlio del fatto che da almeno tre decenni, ICT == Spesa_per_acquisti (di hardware e servizi connessi, in primis). Certamente --sempre a livello politico-- "ICT" **NON** è stato sinonimo di "sviluppo di competenze". E, di nuovo, la responsabilita' del mondo UNIV in questo senso è --secondo me-- rilevante.
Non voglio assolutamente sminuire l'importanza di rimarcare come i temi dell'IA impattino ben oltre il mondo della tecnica, sconfinando nel sociale, nel filosofico e in altri ambiti che --dal basso della mia ignoranza-- ignoro. Tutto cio' non solo serve, ma è certamente necessario. E questa lista è semplicemente eccellente, al riguardo.
Ma fermarsi qui, senza poi sporcarsi le mani con la tecnologia, per capire esattamente come "modificarla" o come "adattarla" o come solo "promuoverne l'adattamento" a queste altre esigenze "alte", favorendone lo sviluppo concreto (con studenti, dottorandi, ricercatori... a cui evidentemente va chiesto di occuparsene MATERIALMENTE, sviluppando CONCRETAMENTE quello che serve per "adattare" cio' che oggi si ritiene non va), è un po'... colpevole.
Insomma: dal mio punto di vista... non è che ci sia un fenomeno di "oscurantismo tecnologico" in senso stretto. È semplicemente che... qualcuno ha iniziato (trenta anni fa) a spegnere tutte le luci, in ambito ICT, e ora è decisamente buio. E' "scuro".
Il dramma è che non vedo nessuno che abbia iniziato ad accendere qualche luce. Vedo qualcuno che vorrebbe farlo... che ha voglia di farlo. Ma non lo fa. Vedo altri (molti altri) che vorrebbero farlo... ma fanno confusione a distinguere le lampadine. Bye, DV
[*] https://it.wikipedia.org/wiki/Pennapiedimonte
-- Damiano Verzulli e-mail: damiano@verzulli.it --- possible?ok:while(!possible){open_mindedness++} --- "...I realized that free software would not generate the kind of income that was needed. Maybe in USA or Europe, you may be able to get a well paying job as a free software developer, but not here [in Africa]..." -- Guido Sohne - 1973-2008 http://ole.kenic.or.ke/pipermail/skunkworks/2008-April/005989.html
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Faccio un secondo esempio. Questa volta non guardo al vertice della piramide ma alla base. Insegno Economia Aziendale da 36 anni in un ITC dove è previsto l'insegnamento di Informatica sia nel corso ordinario per ragionieri, oggi AFM (Amministrazione Finanza e Marketing), sia nel corso specifico per ragionieri programmatori che adesso si chiama SIA (Sistemi Informativi Aziendali). In tutti questi anni non abbiamo avuto un docente di informatica disponibile a usare software libero. Tutti conoscono e utilizzano solo sw proprietario. Proprio ieri nella scelta dei libri da adottare per il prossimo anno scolastico ho cercato di convincere un giovane docente, laureato in informatica (al suo primo anno di ruolo) a scegliere un libro che propone solo sw open ma purtroppo senza riuscirci. Perchè accade anche questo? Paolo Il giorno mer 19 apr 2023 alle ore 19:59 Paolo Del Romano < delromano@gmail.com> ha scritto:
Non so se la responsabilità di tutto questo sia addebitabile solo al livello politico. Faccio un esempio. Il Garr ha un ottimo sistema di videoconferenza open e però il Ministero della Pubblica Istruzione (e non le singole scuole !!) per gli eventi che organizza a distanza con i Dirigenti scolastici, con gli Animatori Digitali, etc....utilizza Teams. E perchè questo? Paolo
Il giorno mer 19 apr 2023 alle ore 16:18 Damiano Verzulli < damiano@verzulli.it> ha scritto:
Il 19/04/23 13:44, Paolo Del Romano ha scritto:
Il giorno mer 19 apr 2023 alle ore 07:58 Giuseppe Attardi < attardi@di.unipi.it> ha scritto:
Possiamo fare di meglio.
Non certo con atteggiamenti oscurantisti rispetto alla tecnologia.
— Beppe
dovremmo indagare anche sul perchè l'oscurantismo prende il dominio delle nostre menti e capire se è più un problema psicologico oppure una questione culturale
Non vedo un "oscurantismo tecnologico" che "...prende il dominio delle nostre menti...".
Piuttosto, vedo un totale disinteresse (doloso? colposo? .... casuale? causale? ) di tutto il livello politico ITA a promuovere uno sviluppo ICT "serio" nel nostro Paese (dove "serio" lo intendo su una mia personalissima scala). Promozione di cui solo recentemente (poche decine mesi) inizio a vedere le sembianze in ambito EU.
E --chiedo perdono per la brutalita'--, tutto cio' in PERFETTA SINTONIA con il mondo Accademico, che inconsapevolmente (a mio parere, ovviamente) supporta tale immobilismo politico. Un mondo accademico (quello ITA in particolare) che è certamente capace di esprimere una produzione scientifica rilevante (no; non sono sarcastico), ma che poi risulta totalmente incapace di incidere nella realta' quotidiana.
Possibile che nessun Ateneo, in Italia (e in Europa), sia in grado di prendere il controllo di un qualsiasi medio/grande progetto Open Source, e promuoverne l'evoluzione?
Possibile che nessun Ateneo, in Italia (e in Europa) si senta in grado di mettersi alla guida di una iniziativa "alta" (ITA o EU) che punti, a 24 mesi, a creare una piattaforma di messaggistica (e-mail), da mettere a disposizione di tutti, per il futuro, probabile, re-in-sourcing della posta?
Possibile che nessun Ateneo, in Italia (e in Europa) si senta all'altezza di guidare lo sviluppo di una piattaforma di supporto alla didattica, che possa consentire al mondo della scuola e di univ di "liberarsi" da Teams e da Classroom?
Possibile che --ammesso e non concesso che ci sia mancanza di risorse umane-- nessun Ateneo possa mettersi alla guida di una cordata privata, che inizi a prendere il controllo di cio' che serve?
D'altro canto, i miei occhi non possono fare a meno di notare che tutto cio' accade in un contesto (ITA) dove:
- ormai da piu' di due anni, a Pennapiedimonte [*] c'e' la fibra a disposizione delle case (vuote) (....ad essere cattivo, direi che ci sono piu' metri di fibra che abitanti residenti), e chiaramente a portarcela non è stata una Santa Divinità, ma del vil-denaro (...accompagnato da un volere "politico");
- ci si fa belli a mostrare i RACK di Leonardo ( https://leonardo-supercomputer.cineca.eu/ - che non è costato [e non costa] esattamente 5 euro) scrivendo che i "Leonardo's main goals are", "Sustain the computing capability for the Italian and European researchers" + "Help ensure EU sovereignty on strategic technologies" + "tackle relevant and urgent societal challenges"
- PoliTO e UniTO gestiscono (dal 2017) l'HPC4AI - https://hpc4ai.it/ - ".... to create a federated competence centre on High-Performance Computing (HPC), Artificial Intelligence (AI) and Big Data Analytics (BDA)..."
...e potrei continuare (BTW: sugli ultimi due punti [Leonardo e HPC4AI], mi sono chiesto piu' volte --senza trovare risposte-- come mai l'interessantissimo thread su ChatGPT tuttora in corso, non possa essere "allargato" a soggetti afferenti a questi ambiti... dato che --per loro, ed a differenza nostra-- dovrebbe essere CORE-BUSINESS!!!)
Io credo che l' "oscurantismo tecnologico" cui il Prof. Del Romano faceva riferimento è figlio del fatto che da almeno tre decenni, ICT == Spesa_per_acquisti (di hardware e servizi connessi, in primis). Certamente --sempre a livello politico-- "ICT" **NON** è stato sinonimo di "sviluppo di competenze". E, di nuovo, la responsabilita' del mondo UNIV in questo senso è --secondo me-- rilevante.
Non voglio assolutamente sminuire l'importanza di rimarcare come i temi dell'IA impattino ben oltre il mondo della tecnica, sconfinando nel sociale, nel filosofico e in altri ambiti che --dal basso della mia ignoranza-- ignoro. Tutto cio' non solo serve, ma è certamente necessario. E questa lista è semplicemente eccellente, al riguardo.
Ma fermarsi qui, senza poi sporcarsi le mani con la tecnologia, per capire esattamente come "modificarla" o come "adattarla" o come solo "promuoverne l'adattamento" a queste altre esigenze "alte", favorendone lo sviluppo concreto (con studenti, dottorandi, ricercatori... a cui evidentemente va chiesto di occuparsene MATERIALMENTE, sviluppando CONCRETAMENTE quello che serve per "adattare" cio' che oggi si ritiene non va), è un po'... colpevole.
Insomma: dal mio punto di vista... non è che ci sia un fenomeno di "oscurantismo tecnologico" in senso stretto. È semplicemente che... qualcuno ha iniziato (trenta anni fa) a spegnere tutte le luci, in ambito ICT, e ora è decisamente buio. E' "scuro".
Il dramma è che non vedo nessuno che abbia iniziato ad accendere qualche luce. Vedo qualcuno che vorrebbe farlo... che ha voglia di farlo. Ma non lo fa. Vedo altri (molti altri) che vorrebbero farlo... ma fanno confusione a distinguere le lampadine. Bye, DV
[*] https://it.wikipedia.org/wiki/Pennapiedimonte
-- Damiano Verzulli e-mail: damiano@verzulli.it --- possible?ok:while(!possible){open_mindedness++} --- "...I realized that free software would not generate the kind of income that was needed. Maybe in USA or Europe, you may be able to get a well paying job as a free software developer, but not here [in Africa]..." -- Guido Sohne - 1973-2008 http://ole.kenic.or.ke/pipermail/skunkworks/2008-April/005989.html
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Il 19/04/23 20:47, Paolo Del Romano ha scritto:
Faccio un secondo esempio. Questa volta non guardo al vertice della piramide ma alla base. Insegno Economia Aziendale da 36 anni in un ITC dove è previsto l'insegnamento di Informatica sia nel corso ordinario per ragionieri, oggi AFM (Amministrazione Finanza e Marketing), sia nel corso specifico per ragionieri programmatori che adesso si chiama SIA (Sistemi Informativi Aziendali). In tutti questi anni non abbiamo avuto un docente di informatica disponibile a usare software libero. Tutti conoscono e utilizzano solo sw proprietario. Proprio ieri nella scelta dei libri da adottare per il prossimo anno scolastico ho cercato di convincere un giovane docente, laureato in informatica (al suo primo anno di ruolo) a scegliere un libro che propone solo sw open ma purtroppo senza riuscirci.
Perchè accade anche questo?
La risposta "vera" a questa domanda (o qualcosa che ci si avvicini molto...) credo possa arrivare solo da altri partecipanti a questa lista, molto piu' autorevoli e preparati di me (di nuovo: no, non sono né ironico, né sarcastico). Nel mio piccolo, un "banale" motivo che mi viene in mente (...ma che scalfisce soltanto la superficie del problema) è che il tuo giovane collega semplicemente *NON* ha avuto occasione di "formarsi" rispetto ai temi F/OSS, durante il suo corso universitario. Per lui, quindi, i temi del software libero, bene che vada, si riconducono a questioni economiche o, al piu', "da smanettoni". È chiaro, pero', che in questo caso... lui non è l'origine del problema: è solo un inconsapevole proxy. Bye, DV -- Damiano Verzulli e-mail: damiano@verzulli.it --- possible?ok:while(!possible){open_mindedness++} --- "...I realized that free software would not generate the kind of income that was needed. Maybe in USA or Europe, you may be able to get a well paying job as a free software developer, but not here [in Africa]..." -- Guido Sohne - 1973-2008 http://ole.kenic.or.ke/pipermail/skunkworks/2008-April/005989.html
On Wed, Apr 19, 2023 20:47:38 PM +0200, Paolo Del Romano wrote:
Proprio ieri nella scelta dei libri da adottare per il prossimo anno scolastico ho cercato di convincere un giovane docente, laureato in informatica (al suo primo anno di ruolo) a scegliere un libro che propone solo sw open ma purtroppo senza riuscirci. Perchè accade anche questo?
Dovrebbe dircelo innanzitutto LUI, no? Il giovane, come ha risposto o risponde a questa domanda? Nell'attesa, io azzardo una parte della risposta: Io dico da una quindicina d'anni che potresti mettere su il perfetto stato di polizia usando solo "software libero come la liberta'". O che non farebbe nessuna differenza se Facebook usasse solo ed esclusivamente software libero tutto pubblicato su github o simili. O che nel voto elettronico che il software sia FOSS non fa la MINIMA differenza concreta Ovvero, se c'e' poco interesse a conoscere e promuovere software aperto, forse e' ANCHE perche' ormai si e' capito che la licenza del codice e le conseguenti possibilita' (in teoria) di modificarlo sono molto meno rilevanti di come il software viene usato e controllato, da chi, perche'... Marco -- vi aspetto tutti su Substack, pure se lo chiamano a sproposito Nazi Bar: https://mfioretti.substack.com/p/substack-notes-chris-best-and-now
Il giorno gio 20 apr 2023 alle ore 07:02 M. Fioretti <mfioretti@nexaima.net> ha scritto:
On Wed, Apr 19, 2023 20:47:38 PM +0200, Paolo Del Romano wrote:
Dovrebbe dircelo innanzitutto LUI, no? Il giovane, come ha risposto o risponde a questa domanda?
il problema che io ponevo è perchè in tutti questi anni tutti i docenti di informatica che sono capitati nella mia scuola hanno ritenuto non meritevole di interesse lo studio e l'utilizzo di sw libero. Non credo che sia un problema di un singolo docente. Negli anni passati si preferiva addirittura diffondere copie illegali. Oggi con con il cloud e quindi con Office 365 il problema è parzialmente risolto fino a quando l'alunno è ancora studente e quindi usufruisce di licenze distribuite gratuitamente da Microsoft agli alunni e docenti. Infatti il collega ha risposto dicendo che per lui era più semplice utilizzare Office 365 visto che la maggior parte dei libri di testo fa riferimento a questo sw. 20 anni fa abbiamo avuto un preside illuminato (non informatico ma laureato in filosofia) che con l'aiuto di qualche docente (non di informatica che invece remavano contro ) e di qualche ex-studente ha fatto riconvertire la maggior parte dei laboratori utilizzando macchine linux, iniziando un'avventura che poi è stata interrotta con l'arrivo di un nuovo dirigente scolastico che non ne capiva niente di informatica. Paolo
Il 19/04/23 19:59, Paolo Del Romano ha scritto:
Non so se la responsabilità di tutto questo sia addebitabile solo al livello politico. Faccio un esempio. Il Garr ha un ottimo sistema di videoconferenza open e però il Ministero della Pubblica Istruzione (e non le singole scuole !!) per gli eventi che organizza a distanza con i Dirigenti scolastici, con gli Animatori Digitali, etc....utilizza Teams. E perchè questo?
Qui la risposta è "facile". Quando "A" ha deciso di organizzare **IL PRIMO** evento "on-line" con i Dirigenti Scolastici X, Y, e Z, "A" si è banalmente posto il problema di "come farlo". La probabilita' che "A" conoscesse "Teams", "Meet" o "Zoom" è elevatissima. La probabilita' che conoscesse Edumeet, Jitsi o anche edu.meet.garr.it, è quasi zero. Nell'ipotesi che "A" *NON* conoscesse ne' le une (proprietarie), ne' le altre (libere), "A" ha chiesto ai colleghi d'ufficio o, al piu', ai referenti IT locali (...che magari avevano organizzato eventi simili, in precedenza). In entrambi i casi --anche "grazie" agil accordi fra MIUR e Microsoft [sia "A" che i colleghi di "A", che i referenti IT di "A" hanno una mailbox su Microsoft e, quasi certamente, per leggere la posta si collegano a interfacce web con ben in evidenza il marchio Microsoft], la probabilita' che la scelta ricadesse su Teams è praticamente 1. Probabilmente, inoltre, "teams" è a distanza di un click sul desktop dei loro PC. Cio premesso, unitamente al fatto che non è nota --nell'organizzazione-- alcuna "policy", "direttiva", "buona pratica", "regola" che suggerisca di *NON* utilizzare "Teams" o anche solo di favorire altri strumenti (indicandoli analiticamente)... ecco che il click su teams viene fatto senza alcun problema. Questo scenario è radicatissimo nelle PP.AA. di fascia alta (Atenei inclusi). Ho trascorso ~18 anni in un contesto di questo tipo, e la conclusione a cui sono arrivato è che questo status-quo *NON* si cambia semplicemente a colpi di normativa (che comunque aiuta). La "chiave" è nella promozione della sensibilita' ai livelli politici apicali (negli Atenei, penso ai Rettori), accompagnata dalla selezione (difficilissima) di una classe dirigente (i "Dirigenti"; quelli veri, assunti con quella qualifica, sulle cui decisioni pesa la "Responsabilita' Dirigenziale") che --a differenza del tuo collega-- conosca il tema, in tutte le sue sfaccettature, e sia in grado di discuterne "adeguatamente" con i livelli apicali. Ma sono due condizioni super-difficilissime da trovare in giro. Nel parco degli Atenei, direi che soltanto in PoliTO le si trovano. Attualmente. Bye, DV -- Damiano Verzulli e-mail: damiano@verzulli.it --- possible?ok:while(!possible){open_mindedness++} --- "...I realized that free software would not generate the kind of income that was needed. Maybe in USA or Europe, you may be able to get a well paying job as a free software developer, but not here [in Africa]..." -- Guido Sohne - 1973-2008 http://ole.kenic.or.ke/pipermail/skunkworks/2008-April/005989.html
Il 19/04/2023 07:58, Giuseppe Attardi ha scritto:
Possiamo fare di meglio. Non certo con atteggiamenti oscurantisti rispetto alla tecnologia.
— Beppe
Beppe, ti stimo enormemente, ma etichettare le critiche di Giacomo (critiche che non condivido completamente - ma non ho tempo di farne l'analisi) come "oscurantiste" non fa bene al dibattito. Sono critiche che derivano anche da preoccupazioni (condivise da altri) sull'impatto sociale di questi strumenti rilasciati al pubblico in modo abbastanza incontrollato. Con la stima di sempre, Enrico -- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Il 19 Aprile 2023 17:53:01 UTC, Enrico Nardelli <nardelli@mat.uniroma2.it> ha scritto:
Il 19/04/2023 07:58, Giuseppe Attardi ha scritto:
Possiamo fare di meglio. Non certo con atteggiamenti oscurantisti rispetto alla tecnologia.
— Beppe
Beppe, ti stimo enormemente, ma etichettare le critiche di Giacomo (critiche che non condivido completamente - ma non ho tempo di farne l'analisi) come "oscurantiste" non fa bene al dibattito.
Per la verità non sono le mie critiche che Giuseppe ha etichettato come "oscurantiste, bensì le mie considerazioni sull'opportunità per l'Europa di perseguire uno sviluppo tecnologico (e dunque una politica industriale e culturale) diversa da quella di Stati Uniti e Cina. Definire "oscurantista" tale ambizione significa assumere come unico progresso possibile quello narrato dalle BigTech. Solo in tal caso, infatti, proporre di perseguire altri obiettivi potrebbe essere visto come "oscurantista". D'altro canto, la ricerca scientifica e tecnologica non avviene nel vuoto ma nella storia. Se alcune tecnologie hanno avuto un potenziale rivoluzionario (si pensi alla stampa o a Internet), le ideologie delle "AI" sono costitutivamente oppressive, sin nella loro progettazione alla luce dell'imitation game: ingannare l'uomo (individualmente ma su vasta scala) senza doversi preoccupare della coscienza della macchina che inganna. Parlo di ideologie perché di questo si tratta, non di tecnologie (le quali, oltre a poter essere utili in alcuni specifici contesti, potrebbero tutte essere descritte senza alcun riferimento antropomorifico ad alcuna forma di intelligenza). Come informatico trovo tutta questa narrazione piuttosto allucinata: non c'è e non ci sarà mai alcuna intelligenza nelle macchine come non inventeremo mai un sistema di teletrasporto o di viaggio indietro nel tempo. Ma come essere umano mi chiedo: se anche fosse possibile (e non lo è) perché mai dovrebbe essere una NOSTRA priorità? Cos'ha che non va l'intelligenza umana? Perché questa urgenza di sostituirla? Cui prodest? Queste domande rimangono utili anche se si ha le competenze per riconoscere la totale assenza di intelligenza dentro ChatGPT o qualsiasi altra "intelligenza artificiale" Non posso essere certo che le mie risposte non siano "deliri" come li ha definiti Giuseppe (chi può escluderlo delle proprie? Temo nessuno, per secondo teorema di incompletezza). Ma sarei lieto che altri provassero a rispondere, invece di buttarla, più o meno consapevolmente, in caciara.
Sono critiche che derivano anche da preoccupazioni (condivise da altri) sull'impatto sociale di questi strumenti rilasciati al pubblico in modo abbastanza incontrollato.
A me preoccupa molto di più l'impatto sociale della NARRAZIONE di questi strumenti che quello degli strumenti in sé. Perché tale narraziione (allucinata, alienante e oppressiva) sta diventando egemonica, con pochissima riflessione critica, puntualmente marginalizzata come luddista, oscurantista o retrograda. Di nuovo: cui prodest? Giacomo
participants (8)
-
Antonio -
Damiano Verzulli -
Enrico Nardelli -
Giacomo Tesio -
Giuseppe Attardi -
M. Fioretti -
Marco A. Calamari -
Paolo Del Romano