In merito all'articolo di Morozov sul Corriere
Su Twitter è nata una discussione tra alcune persone (tra cui Fabio Chiusi, Andrea Glorioso e il sottoscritto) in merito a questo articolo di Morozov pubblicato su "La Lettura" del Corriere della Sera: http://lettura.corriere.it/cospirazionisti-e-negazionisti-l%E2%80%99invasion... Inizialmente, la discussione era stata stimolata anche da questo intervento di Mantellini, "Internet e conservazione": http://www.mantellini.it/?p=17516 che cita, oltre al resto, anche l'intervento di Morozov. Twitter, però, è uno strumento assolutamente inadatto a condurre discussioni, mentre le mailing list sono fatte apposta - per cui eccomi qui. In breve: io, che in genere trovo le analisi di Morozov mai banali e a volte penetranti, questa volta mi dichiaro molto deluso. L'articolo di Morozov per il Corriere, infatti, ha a mio avviso due gravi difetti. Il primo difetto è il presentare l'esistenza di informazioni infondate online come un grave problema sociale al quale bisogna porre urgentemente rimedio. Non porta alcuna evidenza, però, ne' della gravità ne' dell'urgenza: dice solo che c'è chi crede X e Y e che ciò non va bene. Ne' peraltro affronta l'aspetto del passaggio da offlne a online: c'è una qualche evidenza che con l'avvento di Internet il numero di persone con credenze "poco scientifiche" (v. dopo) sia aumentato? Non si sa, e in realtà pare che non si ponga neanche il problema. Ad ogni modo, Morozov poi procede - e siamo al secondo difetto - a identificare il momento clou da cui scaturisce il "problema": /Chi oggi avvia una ricerca su Google o Bing per verificare se «il riscaldamento globale è reale» o se «vaccinare è rischioso» o «chi è stato l'artefice degli attacchi dell'11 settembre» è a pochi clic di distanza dall'aderire a una di queste comunità. / "E' a pochi clic di distanza dall'aderire a una di questa comunità" ?! Caspita, che visione deprimente degli esseri umani, sostanzialmente dei babbei che non sanno resistere a un link se per caso gli compare sullo schermo.... Ad ogni modo, cosa suggerisce Morozov come possibili soluzioni al problema da lui identificato come sopra? Due possibilità. Numero 1: /"Una è quella di addestrare i browser a segnalare le informazioni sospette. In questo modo ogni volta che un'affermazione come «la vaccinazione porta all'autismo» appare nei browser, verrebbe evidenziata in rosso --- magari accompagnata da un avviso che consiglia di cercare una fonte più autorevole. Si dovrebbe, a questo fine, compilare un database delle affermazioni discutibili, a cui andrebbero opposte le ultime opinioni della scienza" / Numero 2: /"Un'altra opzione --- che non esclude necessariamente la prima --- è quella di spingere i motori di ricerca ad assumersi maggiori responsabilità nei confronti degli indirizzi Web che propongono, e a esercitare un controllo editoriale maggiore nel presentare i risultati di ricerche su argomenti come «riscaldamento globale» o «vaccinazione». [...] / /In questo modo, quando il risultato della ricerca fosse tale da indirizzare gli utenti a siti gestiti da pseudoscienziati o teorici della cospirazione, Google potrebbe far apparire un banner rosso che li invita a esser cauti e a consultare un elenco di risorse autorevoli prima di trarre conclusioni. / Innanzittutto, confesso che nonostante abbia letto e riletto l'articolo, non riesco a capire la differenza tra le due opzioni. Ad ogni modo mi sembra di poter dire che alla fine la proposta di Morozov è la seguente: *determinati risultati di ricerca dovrebbero venir "flaggati" (banner rosso, bandierina, ecc., insomma una "lettera scarlatta" alla Hawthorne) dal motore di ricerca per segnalare all'utente che il loro contenuto è "sospetto" (è l'aggettivo usato da Morozov). * Le due parole chiavi sono "determinati" e "sospetto". Come viene fatta la scelta? Con quale meccanismo un sito si guadagna (o perde) la "lettera scarlatta"? E cosa vuol dire "sospetto"? Chi decide - e come - che un determinato sito contiene affermazioni "sospette"? Secondo me, formulata in questo modo, non c'è modo di arrivare a una procedura che non si presti a clamorosi abusi di potere e a produrre probabilmente molti più danni alla società di quelli (presunti) che si vorrebbero ridurre. Voglio essere io, individuo, a giudicare le informazioni che leggo online, senza nessuno che me le pre-etichetti con giudizi di valore. Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, _senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, senza emettere giudizi di merito_, in qualche modo migliori le tecniche di ricerca esistenti per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo. Terreno non facile, ma su cui si può quanto meno riflettere, sulla scia, per esempio, di Cass Sunstein. Ma non è quanto propone Morozov col suo articolo. OK, mi fermo qui, anche se una completa argomentazione della mia posizione avrebbe richiesto ulteriore spazio, ma per iniziare mi sembra che possa bastare. My 2 cents. juan carlos
Caro Jc son d'accordo con te, anche perché invece io spesso Non sono d'accordo con Morozov, x quanto lo trovi stimolante, pero' temo che la traduzione sul Corriere dell'originale articolo su Slate abbia ulteriormente banalizzato la questione... : http://www.slate.com/articles/technology/future_tense/2012/01/anti_vaccine_a... Cmq prima di Morozov il tema l'aveva sollevato già una decina d'anni fa Umberto Eco! ... Abbassando parecchio le sue quotazioni, almeno online... ;-) Questo bisogno di certi intellettuali elitari di ripulire Internet nel timore che gli utenti non siano intelligenti come loro e non sappiano distinguere e' il contrario della democrazia. Ciao, e grazie Anna Inviato in mobilita' Il giorno 24/gen/2012, alle ore 16:24, "J.C. DE MARTIN" <demartin@polito.it> ha scritto: Su Twitter è nata una discussione tra alcune persone (tra cui Fabio Chiusi, Andrea Glorioso e il sottoscritto) in merito a questo articolo di Morozov pubblicato su "La Lettura" del Corriere della Sera: http://lettura.corriere.it/cospirazionisti-e-negazionisti-l%E2%80%99invasion... Inizialmente, la discussione era stata stimolata anche da questo intervento di Mantellini, "Internet e conservazione": http://www.mantellini.it/?p=17516 che cita, oltre al resto, anche l'intervento di Morozov. Twitter, però, è uno strumento assolutamente inadatto a condurre discussioni, mentre le mailing list sono fatte apposta - per cui eccomi qui. In breve: io, che in genere trovo le analisi di Morozov mai banali e a volte penetranti, questa volta mi dichiaro molto deluso. L'articolo di Morozov per il Corriere, infatti, ha a mio avviso due gravi difetti. Il primo difetto è il presentare l'esistenza di informazioni infondate online come un grave problema sociale al quale bisogna porre urgentemente rimedio. Non porta alcuna evidenza, però, ne' della gravità ne' dell'urgenza: dice solo che c'è chi crede X e Y e che ciò non va bene. Ne' peraltro affronta l'aspetto del passaggio da offlne a online: c'è una qualche evidenza che con l'avvento di Internet il numero di persone con credenze "poco scientifiche" (v. dopo) sia aumentato? Non si sa, e in realtà pare che non si ponga neanche il problema. Ad ogni modo, Morozov poi procede - e siamo al secondo difetto - a identificare il momento clou da cui scaturisce il "problema": Chi oggi avvia una ricerca su Google o Bing per verificare se «il riscaldamento globale è reale» o se «vaccinare è rischioso» o «chi è stato l’artefice degli attacchi dell’11 settembre» è a pochi clic di distanza dall’aderire a una di queste comunità. "E' a pochi clic di distanza dall'aderire a una di questa comunità" ?! Caspita, che visione deprimente degli esseri umani, sostanzialmente dei babbei che non sanno resistere a un link se per caso gli compare sullo schermo.... Ad ogni modo, cosa suggerisce Morozov come possibili soluzioni al problema da lui identificato come sopra? Due possibilità. Numero 1: "Una è quella di addestrare i browser a segnalare le informazioni sospette. In questo modo ogni volta che un’affermazione come «la vaccinazione porta all’autismo» appare nei browser, verrebbe evidenziata in rosso — magari accompagnata da un avviso che consiglia di cercare una fonte più autorevole. Si dovrebbe, a questo fine, compilare un database delle affermazioni discutibili, a cui andrebbero opposte le ultime opinioni della scienza" Numero 2: "Un’altra opzione — che non esclude necessariamente la prima — è quella di spingere i motori di ricerca ad assumersi maggiori responsabilità nei confronti degli indirizzi Web che propongono, e a esercitare un controllo editoriale maggiore nel presentare i risultati di ricerche su argomenti come «riscaldamento globale» o «vaccinazione». [...] In questo modo, quando il risultato della ricerca fosse tale da indirizzare gli utenti a siti gestiti da pseudoscienziati o teorici della cospirazione, Google potrebbe far apparire un banner rosso che li invita a esser cauti e a consultare un elenco di risorse autorevoli prima di trarre conclusioni. Innanzittutto, confesso che nonostante abbia letto e riletto l'articolo, non riesco a capire la differenza tra le due opzioni. Ad ogni modo mi sembra di poter dire che alla fine la proposta di Morozov è la seguente: determinati risultati di ricerca dovrebbero venir "flaggati" (banner rosso, bandierina, ecc., insomma una "lettera scarlatta" alla Hawthorne) dal motore di ricerca per segnalare all'utente che il loro contenuto è "sospetto" (è l'aggettivo usato da Morozov). Le due parole chiavi sono "determinati" e "sospetto". Come viene fatta la scelta? Con quale meccanismo un sito si guadagna (o perde) la "lettera scarlatta"? E cosa vuol dire "sospetto"? Chi decide - e come - che un determinato sito contiene affermazioni "sospette"? Secondo me, formulata in questo modo, non c'è modo di arrivare a una procedura che non si presti a clamorosi abusi di potere e a produrre probabilmente molti più danni alla società di quelli (presunti) che si vorrebbero ridurre. Voglio essere io, individuo, a giudicare le informazioni che leggo online, senza nessuno che me le pre-etichetti con giudizi di valore. Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, senza emettere giudizi di merito, in qualche modo migliori le tecniche di ricerca esistenti per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo. Terreno non facile, ma su cui si può quanto meno riflettere, sulla scia, per esempio, di Cass Sunstein. Ma non è quanto propone Morozov col suo articolo. OK, mi fermo qui, anche se una completa argomentazione della mia posizione avrebbe richiesto ulteriore spazio, ma per iniziare mi sembra che possa bastare. My 2 cents. juan carlos _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Questo mi sembra il punto:
Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, _senza_emettere_giudizi_di_merito_, in qualche modo migliori le tecniche di ricerca esistenti per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo.
Morozov fra l'altro cita questo plugin: http://confront.intel-research.net/Dispute_Finder.html#Usage_Scenarios che vedo affine agli strumenti indicati qui: http://en.wikipedia.org/wiki/Argument_map - - - - Mi viene da pensare (prendete con le pinze, il "secondo me" è implicito ad ogni frase): in una società ideale di "ricercatori", tutti dovrebbero potersi inserire nei meandri di ogni dibattito collettivo seguendo una logica del genere, e probabilmente la gente fa già così, la differenza è nella quantità e qualità di dati che ognuno crede personalmente di aver elaborato per raggiungere una data certezza/opinione. Se uno "si forma" Solo su ragionamenti del tipo X, difficilmente riuscirà a _dialogare_ con chi ha seguito ragionamenti del tipo Y, e raggiungere una visione più completa e/o una qualche vera conciliazione. Esemplifico i miei concetti di quantità e qualità: uno può aver esplorato nella sua vita una quantità enorme di ragionamenti di tipo X, o riconducibili a quello; appunto spostando le ricerche su ragionamenti di tipo Y o altri tipi, comincerà a capire che alcune informazioni sono ridondanti e seguono determinate "storie del ragionamento collettivo" (scientifico, filosofico, ecc), e in questo senso andrà "affinando" le sue fonti, o solo il suo sguardo (meglio: ogni fonte può sempre aggiungere qualcosa di sensato in maniera imprevista, in un nuovo contenuto)... Un contenuto potrebbe essere considerato tanto più di qualità in quel senso quanto più riesca a tener conto del massimo numero di questi fili della ricerca collettiva in ogni campo (o solo nel proprio, dipende)... E ancora: Che poi (esagerando) si trovino modi di visualizzare in quali punti dello scibile umano si trovi un determinato contenuto online, in quel mondo di ricercatori sarebbe solo buona cosa, ma in effetti non bisogna sottovalutare quando si sovrappongono "interessi particolari": ad esempio qua il "senso comune" e/o "la rete", impedirebbero possibili abusi che avverrebbero in un paese privo di libertà civili. Queste grazie a forme di notifica/controllo _da_parte_ della società sui possibili abusi dei suoi membri, e di ognuno sui possibili effetti del proprio operato; e poi a tutta la catena di organizzazioni, strutture, ecc che giustamente resteranno lì per prevenire o rimediare agli errori dati dall'incapacità di venirsi davvero incontro in ogni situazione...] Un'ultima roba: Non si potrà mai togliere la possibilità di dubitare, semmai è sempre più probabile incappando nelle opinioni altrui, casualmente, in un qualsiasi motore di ricerca (ma anche senza internet)... Marchiare come "pseudoscientifico" qualcosa potrebbe anche portare la gente a cercare solo fonti pseudoscientifiche, chi lo sa a priori come poi venga usato uno strumento? Così come può "bloccarci la vita" dubitare troppo (es. su se stessi), il dubbio può anche salvare, quando il comandante ti ordina di restare in cabina su una nave che affonda, quando invece il comandante guida e la nave non sembra aver problemi, allo stesso modo se eventuali dubbi (es. un passeggero che nota uno scoglio) fossero incanalabili nella cabina di comando con un qualche metodo, sarebbe meglio per tutti... E se uno semplicemente non si fida, bisognerà capire perché e se si sarà in grado di confrontarsi, crescerà la fiducia o cambierà qualche modo di fare che crea sfiducia... Ciao a tutti, Stefano 2012/1/24 Masera Anna <Anna.MASERA@lastampa.it>:
Caro Jc son d'accordo con te, anche perché invece io spesso Non sono d'accordo con Morozov, x quanto lo trovi stimolante, pero' temo che la traduzione sul Corriere dell'originale articolo su Slate abbia ulteriormente banalizzato la questione... :
http://www.slate.com/articles/technology/future_tense/2012/01/anti_vaccine_a...
Cmq prima di Morozov il tema l'aveva sollevato già una decina d'anni fa Umberto Eco! ... Abbassando parecchio le sue quotazioni, almeno online... ;-)
Questo bisogno di certi intellettuali elitari di ripulire Internet nel timore che gli utenti non siano intelligenti come loro e non sappiano distinguere e' il contrario della democrazia.
Ciao, e grazie Anna
Inviato in mobilita'
Il giorno 24/gen/2012, alle ore 16:24, "J.C. DE MARTIN" <demartin@polito.it> ha scritto:
Su Twitter è nata una discussione tra alcune persone (tra cui Fabio Chiusi, Andrea Glorioso e il sottoscritto) in merito a questo articolo di Morozov pubblicato su "La Lettura" del Corriere della Sera:
http://lettura.corriere.it/cospirazionisti-e-negazionisti-l%E2%80%99invasion...
Inizialmente, la discussione era stata stimolata anche da questo intervento di Mantellini, "Internet e conservazione": http://www.mantellini.it/?p=17516 che cita, oltre al resto, anche l'intervento di Morozov.
Twitter, però, è uno strumento assolutamente inadatto a condurre discussioni, mentre le mailing list sono fatte apposta - per cui eccomi qui.
In breve: io, che in genere trovo le analisi di Morozov mai banali e a volte penetranti, questa volta mi dichiaro molto deluso. L'articolo di Morozov per il Corriere, infatti, ha a mio avviso due gravi difetti.
Il primo difetto è il presentare l'esistenza di informazioni infondate online come un grave problema sociale al quale bisogna porre urgentemente rimedio. Non porta alcuna evidenza, però, ne' della gravità ne' dell'urgenza: dice solo che c'è chi crede X e Y e che ciò non va bene. Ne' peraltro affronta l'aspetto del passaggio da offlne a online: c'è una qualche evidenza che con l'avvento di Internet il numero di persone con credenze "poco scientifiche" (v. dopo) sia aumentato? Non si sa, e in realtà pare che non si ponga neanche il problema.
Ad ogni modo, Morozov poi procede - e siamo al secondo difetto - a identificare il momento clou da cui scaturisce il "problema":
Chi oggi avvia una ricerca su Google o Bing per verificare se «il riscaldamento globale è reale» o se «vaccinare è rischioso» o «chi è stato l’artefice degli attacchi dell’11 settembre» è a pochi clic di distanza dall’aderire a una di queste comunità.
"E' a pochi clic di distanza dall'aderire a una di questa comunità" ?! Caspita, che visione deprimente degli esseri umani, sostanzialmente dei babbei che non sanno resistere a un link se per caso gli compare sullo schermo....
Ad ogni modo, cosa suggerisce Morozov come possibili soluzioni al problema da lui identificato come sopra? Due possibilità.
Numero 1: "Una è quella di addestrare i browser a segnalare le informazioni sospette. In questo modo ogni volta che un’affermazione come «la vaccinazione porta all’autismo» appare nei browser, verrebbe evidenziata in rosso — magari accompagnata da un avviso che consiglia di cercare una fonte più autorevole. Si dovrebbe, a questo fine, compilare un database delle affermazioni discutibili, a cui andrebbero opposte le ultime opinioni della scienza"
Numero 2: "Un’altra opzione — che non esclude necessariamente la prima — è quella di spingere i motori di ricerca ad assumersi maggiori responsabilità nei confronti degli indirizzi Web che propongono, e a esercitare un controllo editoriale maggiore nel presentare i risultati di ricerche su argomenti come «riscaldamento globale» o «vaccinazione». [...] In questo modo, quando il risultato della ricerca fosse tale da indirizzare gli utenti a siti gestiti da pseudoscienziati o teorici della cospirazione, Google potrebbe far apparire un banner rosso che li invita a esser cauti e a consultare un elenco di risorse autorevoli prima di trarre conclusioni.
Innanzittutto, confesso che nonostante abbia letto e riletto l'articolo, non riesco a capire la differenza tra le due opzioni.
Ad ogni modo mi sembra di poter dire che alla fine la proposta di Morozov è la seguente: determinati risultati di ricerca dovrebbero venir "flaggati" (banner rosso, bandierina, ecc., insomma una "lettera scarlatta" alla Hawthorne) dal motore di ricerca per segnalare all'utente che il loro contenuto è "sospetto" (è l'aggettivo usato da Morozov).
Le due parole chiavi sono "determinati" e "sospetto".
Come viene fatta la scelta? Con quale meccanismo un sito si guadagna (o perde) la "lettera scarlatta"? E cosa vuol dire "sospetto"? Chi decide - e come - che un determinato sito contiene affermazioni "sospette"?
Secondo me, formulata in questo modo, non c'è modo di arrivare a una procedura che non si presti a clamorosi abusi di potere e a produrre probabilmente molti più danni alla società di quelli (presunti) che si vorrebbero ridurre.
Voglio essere io, individuo, a giudicare le informazioni che leggo online, senza nessuno che me le pre-etichetti con giudizi di valore.
Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, senza emettere giudizi di merito, in qualche modo migliori le tecniche di ricerca esistenti per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo. Terreno non facile, ma su cui si può quanto meno riflettere, sulla scia, per esempio, di Cass Sunstein.
Ma non è quanto propone Morozov col suo articolo.
OK, mi fermo qui, anche se una completa argomentazione della mia posizione avrebbe richiesto ulteriore spazio, ma per iniziare mi sembra che possa bastare.
My 2 cents.
juan carlos
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Non ho nulla in contrario all'uso di plug-in: che ognuno usi gli strumenti che preferisce. Altra cosa è un motore di ricerca generalista etichetti automaticamente le cose per me con giudizi di valore. juan carlos On 25/01/12 07:50, Stefano Beriozza wrote:
Questo mi sembra il punto:
Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, _senza_emettere_giudizi_di_merito_, in qualche modo migliori le tecniche di ricerca esistenti per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo. Morozov fra l'altro cita questo plugin:
http://confront.intel-research.net/Dispute_Finder.html#Usage_Scenarios
che vedo affine agli strumenti indicati qui:
http://en.wikipedia.org/wiki/Argument_map
- - - -
Mi viene da pensare (prendete con le pinze, il "secondo me" è implicito ad ogni frase):
in una società ideale di "ricercatori", tutti dovrebbero potersi inserire nei meandri di ogni dibattito collettivo seguendo una logica del genere, e probabilmente la gente fa già così, la differenza è nella quantità e qualità di dati che ognuno crede personalmente di aver elaborato per raggiungere una data certezza/opinione. Se uno "si forma" Solo su ragionamenti del tipo X, difficilmente riuscirà a _dialogare_ con chi ha seguito ragionamenti del tipo Y, e raggiungere una visione più completa e/o una qualche vera conciliazione. Esemplifico i miei concetti di quantità e qualità: uno può aver esplorato nella sua vita una quantità enorme di ragionamenti di tipo X, o riconducibili a quello; appunto spostando le ricerche su ragionamenti di tipo Y o altri tipi, comincerà a capire che alcune informazioni sono ridondanti e seguono determinate "storie del ragionamento collettivo" (scientifico, filosofico, ecc), e in questo senso andrà "affinando" le sue fonti, o solo il suo sguardo (meglio: ogni fonte può sempre aggiungere qualcosa di sensato in maniera imprevista, in un nuovo contenuto)... Un contenuto potrebbe essere considerato tanto più di qualità in quel senso quanto più riesca a tener conto del massimo numero di questi fili della ricerca collettiva in ogni campo (o solo nel proprio, dipende)...
E ancora:
Che poi (esagerando) si trovino modi di visualizzare in quali punti dello scibile umano si trovi un determinato contenuto online, in quel mondo di ricercatori sarebbe solo buona cosa, ma in effetti non bisogna sottovalutare quando si sovrappongono "interessi particolari": ad esempio qua il "senso comune" e/o "la rete", impedirebbero possibili abusi che avverrebbero in un paese privo di libertà civili. Queste grazie a forme di notifica/controllo _da_parte_ della società sui possibili abusi dei suoi membri, e di ognuno sui possibili effetti del proprio operato; e poi a tutta la catena di organizzazioni, strutture, ecc che giustamente resteranno lì per prevenire o rimediare agli errori dati dall'incapacità di venirsi davvero incontro in ogni situazione...]
Un'ultima roba:
Non si potrà mai togliere la possibilità di dubitare, semmai è sempre più probabile incappando nelle opinioni altrui, casualmente, in un qualsiasi motore di ricerca (ma anche senza internet)... Marchiare come "pseudoscientifico" qualcosa potrebbe anche portare la gente a cercare solo fonti pseudoscientifiche, chi lo sa a priori come poi venga usato uno strumento? Così come può "bloccarci la vita" dubitare troppo (es. su se stessi), il dubbio può anche salvare, quando il comandante ti ordina di restare in cabina su una nave che affonda, quando invece il comandante guida e la nave non sembra aver problemi, allo stesso modo se eventuali dubbi (es. un passeggero che nota uno scoglio) fossero incanalabili nella cabina di comando con un qualche metodo, sarebbe meglio per tutti... E se uno semplicemente non si fida, bisognerà capire perché e se si sarà in grado di confrontarsi, crescerà la fiducia o cambierà qualche modo di fare che crea sfiducia...
Ciao a tutti, Stefano
2012/1/24 Masera Anna<Anna.MASERA@lastampa.it>:
Caro Jc son d'accordo con te, anche perché invece io spesso Non sono d'accordo con Morozov, x quanto lo trovi stimolante, pero' temo che la traduzione sul Corriere dell'originale articolo su Slate abbia ulteriormente banalizzato la questione... :
http://www.slate.com/articles/technology/future_tense/2012/01/anti_vaccine_a...
Cmq prima di Morozov il tema l'aveva sollevato già una decina d'anni fa Umberto Eco! ... Abbassando parecchio le sue quotazioni, almeno online... ;-)
Questo bisogno di certi intellettuali elitari di ripulire Internet nel timore che gli utenti non siano intelligenti come loro e non sappiano distinguere e' il contrario della democrazia.
Ciao, e grazie Anna
Inviato in mobilita'
Il giorno 24/gen/2012, alle ore 16:24, "J.C. DE MARTIN"<demartin@polito.it> ha scritto:
Su Twitter è nata una discussione tra alcune persone (tra cui Fabio Chiusi, Andrea Glorioso e il sottoscritto) in merito a questo articolo di Morozov pubblicato su "La Lettura" del Corriere della Sera:
http://lettura.corriere.it/cospirazionisti-e-negazionisti-l%E2%80%99invasion...
Inizialmente, la discussione era stata stimolata anche da questo intervento di Mantellini, "Internet e conservazione": http://www.mantellini.it/?p=17516 che cita, oltre al resto, anche l'intervento di Morozov.
Twitter, però, è uno strumento assolutamente inadatto a condurre discussioni, mentre le mailing list sono fatte apposta - per cui eccomi qui.
In breve: io, che in genere trovo le analisi di Morozov mai banali e a volte penetranti, questa volta mi dichiaro molto deluso. L'articolo di Morozov per il Corriere, infatti, ha a mio avviso due gravi difetti.
Il primo difetto è il presentare l'esistenza di informazioni infondate online come un grave problema sociale al quale bisogna porre urgentemente rimedio. Non porta alcuna evidenza, però, ne' della gravità ne' dell'urgenza: dice solo che c'è chi crede X e Y e che ciò non va bene. Ne' peraltro affronta l'aspetto del passaggio da offlne a online: c'è una qualche evidenza che con l'avvento di Internet il numero di persone con credenze "poco scientifiche" (v. dopo) sia aumentato? Non si sa, e in realtà pare che non si ponga neanche il problema.
Ad ogni modo, Morozov poi procede - e siamo al secondo difetto - a identificare il momento clou da cui scaturisce il "problema":
Chi oggi avvia una ricerca su Google o Bing per verificare se «il riscaldamento globale è reale» o se «vaccinare è rischioso» o «chi è stato l’artefice degli attacchi dell’11 settembre» è a pochi clic di distanza dall’aderire a una di queste comunità.
"E' a pochi clic di distanza dall'aderire a una di questa comunità" ?! Caspita, che visione deprimente degli esseri umani, sostanzialmente dei babbei che non sanno resistere a un link se per caso gli compare sullo schermo....
Ad ogni modo, cosa suggerisce Morozov come possibili soluzioni al problema da lui identificato come sopra? Due possibilità.
Numero 1: "Una è quella di addestrare i browser a segnalare le informazioni sospette. In questo modo ogni volta che un’affermazione come «la vaccinazione porta all’autismo» appare nei browser, verrebbe evidenziata in rosso — magari accompagnata da un avviso che consiglia di cercare una fonte più autorevole. Si dovrebbe, a questo fine, compilare un database delle affermazioni discutibili, a cui andrebbero opposte le ultime opinioni della scienza"
Numero 2: "Un’altra opzione — che non esclude necessariamente la prima — è quella di spingere i motori di ricerca ad assumersi maggiori responsabilità nei confronti degli indirizzi Web che propongono, e a esercitare un controllo editoriale maggiore nel presentare i risultati di ricerche su argomenti come «riscaldamento globale» o «vaccinazione». [...] In questo modo, quando il risultato della ricerca fosse tale da indirizzare gli utenti a siti gestiti da pseudoscienziati o teorici della cospirazione, Google potrebbe far apparire un banner rosso che li invita a esser cauti e a consultare un elenco di risorse autorevoli prima di trarre conclusioni.
Innanzittutto, confesso che nonostante abbia letto e riletto l'articolo, non riesco a capire la differenza tra le due opzioni.
Ad ogni modo mi sembra di poter dire che alla fine la proposta di Morozov è la seguente: determinati risultati di ricerca dovrebbero venir "flaggati" (banner rosso, bandierina, ecc., insomma una "lettera scarlatta" alla Hawthorne) dal motore di ricerca per segnalare all'utente che il loro contenuto è "sospetto" (è l'aggettivo usato da Morozov).
Le due parole chiavi sono "determinati" e "sospetto".
Come viene fatta la scelta? Con quale meccanismo un sito si guadagna (o perde) la "lettera scarlatta"? E cosa vuol dire "sospetto"? Chi decide - e come - che un determinato sito contiene affermazioni "sospette"?
Secondo me, formulata in questo modo, non c'è modo di arrivare a una procedura che non si presti a clamorosi abusi di potere e a produrre probabilmente molti più danni alla società di quelli (presunti) che si vorrebbero ridurre.
Voglio essere io, individuo, a giudicare le informazioni che leggo online, senza nessuno che me le pre-etichetti con giudizi di valore.
Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, senza emettere giudizi di merito, in qualche modo migliori le tecniche di ricerca esistenti per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo. Terreno non facile, ma su cui si può quanto meno riflettere, sulla scia, per esempio, di Cass Sunstein.
Ma non è quanto propone Morozov col suo articolo.
OK, mi fermo qui, anche se una completa argomentazione della mia posizione avrebbe richiesto ulteriore spazio, ma per iniziare mi sembra che possa bastare.
My 2 cents.
juan carlos
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
SOLUZIONE? L'educazione all'esercizio del dubbio, la formazione alla produzione di contenuti, lo sviluppo del pensiero critico.
mi permetto di aggiungere anche la curiosità una ulteriore breve considerazione da calcio mercato. se ti chiami Fernandes in Italia hai una probabilità di ingaggio maggiore che se ti chiami Ferrandi.. ci piace lo straniero, fa figo, riempie le sale. ma i due interlocutori di questo topic per me valgono piu' di tanti (ma tanti) blasonati nomi internazionali. (BTW, ciascuno di noi segue mailing internazionali. immagino converrete che la qualità dei contenuti di quella di nexa e' decisamente al di fuori dell'ordinario...) ciao, s. On 26/01/2012 10:58, a.dicorinto@uniroma1.it wrote:
Ho le tue stesse perplessità, JC. La soluzione proposta da Morozov è una baggianata. Tuttavia chiama in causa sia l'autorevolezza delle fonti editoriali, sia l'autorevolezza dei motori di ricerca, ma a un altro livello. Per sintetizzare - banalizzo, lo so -: da un punto di vista filosofico ed epistemologico, non esiste verità oggettiva, universale, valida per tutti, ma un processo di approssimazione e di ricerca ad essa correlato, che viene mediato dal contesto, dalla cultura, dalla dotazione psicofisica e tecnica del soggetto percipiente; da un punto di vista giornalistico e comunicativo, l'in-formazione è un concetto sempre e comunque associato alla de-formazione, il criterio di verità si trasforma qui in veridicità e verosimiglianza. In genere ci accontentiamo di questo. E se ci sta bene quando ascoltiamo, per dire, un Minzolini o un Feltri (ma anche un Rubini o un Krugman), perché non dovrebbe starci bene quello che un Mister x dice e crive in rete? E' un fatto di credibilità. Ma la credibilità (pure la reputazione) è una costruzione sociale non neutra e anzi, spesso drogata da un uso strumentale di mezzi, persone e informazioni. Per i motori di ricerca il tema dell'autorevolezza si pone più o meno allo stesso modo come ci hanno spiegato tantissimi libri ormai (Luci e ombre di Google) ad esempio. Possiamo pensarla in molti modi diversi ma sarà difficile convenire sulla presunta neutralità di un motore di ricerca che è di proprietà di un'azienda privata, fa profitti, deve rispondere a degli azionisti, e mantiene segreti algoritmi di ricerca e sistemi di calcolo della rilevanza (il peso) dei contenuti.
SOLUZIONE? L'educazione all'esercizio del dubbio, la formazione alla produzione di contenuti, lo sviluppo del pensiero critico.
My 2 cents
********************** “The Net interprets censorship as damage and routes around it.” – John Gilmore
-----nexa-bounces@server-nexa.polito.it ha scritto: -----
Per: "nexa@server-nexa.polito.it"<nexa@server-nexa.polito.it> Da: "J.C. DE MARTIN" Inviato da: nexa-bounces@server-nexa.polito.it Data: 24/01/2012 04.24PM Oggetto: [nexa] In merito all'articolo di Morozov sul Corriere
Su Twitter è nata una discussione tra alcune persone (tra cui Fabio Chiusi, Andrea Glorioso e il sottoscritto) in merito a questo articolo di Morozov pubblicato su "La Lettura" del Corriere della Sera:
http://lettura.corriere.it/cospirazionisti-e-negazionisti-l%E2%80%99invasion...
Inizialmente, la discussione era stata stimolata anche da questo intervento di Mantellini, "Internet e conservazione": http://www.mantellini.it/?p=17516 che cita, oltre al resto, anche l'intervento di Morozov.
Twitter, però, è uno strumento assolutamente inadatto a condurre discussioni, mentre le mailing list sono fatte apposta - per cui eccomi qui.
In breve: io, che in genere trovo le analisi di Morozov mai banali e a volte penetranti, questa volta mi dichiaro molto deluso. L'articolo di Morozov per il Corriere, infatti, ha a mio avviso due gravi difetti.
Il primo difetto è il presentare l'esistenza di informazioni infondate online come un grave problema sociale al quale bisogna porre urgentemente rimedio. Non porta alcuna evidenza, però, ne' della gravità ne' dell'urgenza: dice solo che c'è chi crede X e Y e che ciò non va bene. Ne' peraltro affronta l'aspetto del passaggio da offlne a online: c'è una qualche evidenza che con l'avvento di Internet il numero di persone con credenze "poco scientifiche" (v. dopo) sia aumentato? Non si sa, e in realtà pare che non si ponga neanche il problema.
Ad ogni modo, Morozov poi procede - e siamo al secondo difetto - a identificare il momento clou da cui scaturisce il "problema":
/Chi oggi avvia una ricerca su Google o Bing per verificare se «il riscaldamento globale è reale» o se «vaccinare è rischioso» o «chi è stato l’artefice degli attacchi dell’11 settembre» è a pochi clic di distanza dall’aderire a una di queste comunità. / "E' a pochi clic di distanza dall'aderire a una di questa comunità" ?! Caspita, che visione deprimente degli esseri umani, sostanzialmente dei babbei che non sanno resistere a un link se per caso gli compare sullo schermo....
Ad ogni modo, cosa suggerisce Morozov come possibili soluzioni al problema da lui identificato come sopra? Due possibilità.
Numero 1: /"Una è quella di addestrare i browser a segnalare le informazioni sospette. In questo modo ogni volta che un’affermazione come «la vaccinazione porta all’autismo» appare nei browser, verrebbe evidenziata in rosso — magari accompagnata da un avviso che consiglia di cercare una fonte più autorevole. Si dovrebbe, a questo fine, compilare un database delle affermazioni discutibili, a cui andrebbero opposte le ultime opinioni della scienza" / Numero 2: /"Un’altra opzione — che non esclude necessariamente la prima — è quella di spingere i motori di ricerca ad assumersi maggiori responsabilità nei confronti degli indirizzi Web che propongono, e a esercitare un controllo editoriale maggiore nel presentare i risultati di ricerche su argomenti come «riscaldamento globale» o «vaccinazione». [...] / /In questo modo, quando il risultato della ricerca fosse tale da indirizzare gli utenti a siti gestiti da pseudoscienziati o teorici della cospirazione, Google potrebbe far apparire un banner rosso che li invita a esser cauti e a consultare un elenco di risorse autorevoli prima di trarre conclusioni. / Innanzittutto, confesso che nonostante abbia letto e riletto l'articolo, non riesco a capire la differenza tra le due opzioni.
Ad ogni modo mi sembra di poter dire che alla fine la proposta di Morozov è la seguente: *determinati risultati di ricerca dovrebbero venir "flaggati" (banner rosso, bandierina, ecc., insomma una "lettera scarlatta" alla Hawthorne) dal motore di ricerca per segnalare all'utente che il loro contenuto è "sospetto" (è l'aggettivo usato da Morozov). * Le due parole chiavi sono "determinati" e "sospetto".
Come viene fatta la scelta? Con quale meccanismo un sito si guadagna (o perde) la "lettera scarlatta"? E cosa vuol dire "sospetto"? Chi decide - e come - che un determinato sito contiene affermazioni "sospette"?
Secondo me, formulata in questo modo, non c'è modo di arrivare a una procedura che non si presti a clamorosi abusi di potere e a produrre probabilmente molti più danni alla società di quelli (presunti) che si vorrebbero ridurre.
Voglio essere io, individuo, a giudicare le informazioni che leggo online, senza nessuno che me le pre-etichetti con giudizi di valore.
Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, _senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, senza emettere giudizi di merito_, in qualche modo migliori le tecniche di ricerca esistenti per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo. Terreno non facile, ma su cui si può quanto meno riflettere, sulla scia, per esempio, di Cass Sunstein.
Ma non è quanto propone Morozov col suo articolo.
OK, mi fermo qui, anche se una completa argomentazione della mia posizione avrebbe richiesto ulteriore spazio, ma per iniziare mi sembra che possa bastare.
My 2 cents.
juan carlos
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- blog.quintarelli.it www.ilsole24ore.com
participants (5)
-
a.dicorinto@uniroma1.it -
J.C. DE MARTIN -
Masera Anna -
Stefano Beriozza -
Stefano Quintarelli