Caro Jc son d'accordo con te, anche perché invece io spesso Non sono d'accordo con Morozov, x quanto lo trovi stimolante, pero' temo che la traduzione sul Corriere dell'originale articolo su Slate abbia ulteriormente banalizzato la questione... : http://www.slate.com/articles/technology/future_tense/2012/01/anti_vaccine_a... Cmq prima di Morozov il tema l'aveva sollevato già una decina d'anni fa Umberto Eco! ... Abbassando parecchio le sue quotazioni, almeno online... ;-) Questo bisogno di certi intellettuali elitari di ripulire Internet nel timore che gli utenti non siano intelligenti come loro e non sappiano distinguere e' il contrario della democrazia. Ciao, e grazie Anna Inviato in mobilita' Il giorno 24/gen/2012, alle ore 16:24, "J.C. DE MARTIN" <demartin@polito.it> ha scritto: Su Twitter è nata una discussione tra alcune persone (tra cui Fabio Chiusi, Andrea Glorioso e il sottoscritto) in merito a questo articolo di Morozov pubblicato su "La Lettura" del Corriere della Sera: http://lettura.corriere.it/cospirazionisti-e-negazionisti-l%E2%80%99invasion... Inizialmente, la discussione era stata stimolata anche da questo intervento di Mantellini, "Internet e conservazione": http://www.mantellini.it/?p=17516 che cita, oltre al resto, anche l'intervento di Morozov. Twitter, però, è uno strumento assolutamente inadatto a condurre discussioni, mentre le mailing list sono fatte apposta - per cui eccomi qui. In breve: io, che in genere trovo le analisi di Morozov mai banali e a volte penetranti, questa volta mi dichiaro molto deluso. L'articolo di Morozov per il Corriere, infatti, ha a mio avviso due gravi difetti. Il primo difetto è il presentare l'esistenza di informazioni infondate online come un grave problema sociale al quale bisogna porre urgentemente rimedio. Non porta alcuna evidenza, però, ne' della gravità ne' dell'urgenza: dice solo che c'è chi crede X e Y e che ciò non va bene. Ne' peraltro affronta l'aspetto del passaggio da offlne a online: c'è una qualche evidenza che con l'avvento di Internet il numero di persone con credenze "poco scientifiche" (v. dopo) sia aumentato? Non si sa, e in realtà pare che non si ponga neanche il problema. Ad ogni modo, Morozov poi procede - e siamo al secondo difetto - a identificare il momento clou da cui scaturisce il "problema": Chi oggi avvia una ricerca su Google o Bing per verificare se «il riscaldamento globale è reale» o se «vaccinare è rischioso» o «chi è stato l’artefice degli attacchi dell’11 settembre» è a pochi clic di distanza dall’aderire a una di queste comunità. "E' a pochi clic di distanza dall'aderire a una di questa comunità" ?! Caspita, che visione deprimente degli esseri umani, sostanzialmente dei babbei che non sanno resistere a un link se per caso gli compare sullo schermo.... Ad ogni modo, cosa suggerisce Morozov come possibili soluzioni al problema da lui identificato come sopra? Due possibilità. Numero 1: "Una è quella di addestrare i browser a segnalare le informazioni sospette. In questo modo ogni volta che un’affermazione come «la vaccinazione porta all’autismo» appare nei browser, verrebbe evidenziata in rosso — magari accompagnata da un avviso che consiglia di cercare una fonte più autorevole. Si dovrebbe, a questo fine, compilare un database delle affermazioni discutibili, a cui andrebbero opposte le ultime opinioni della scienza" Numero 2: "Un’altra opzione — che non esclude necessariamente la prima — è quella di spingere i motori di ricerca ad assumersi maggiori responsabilità nei confronti degli indirizzi Web che propongono, e a esercitare un controllo editoriale maggiore nel presentare i risultati di ricerche su argomenti come «riscaldamento globale» o «vaccinazione». [...] In questo modo, quando il risultato della ricerca fosse tale da indirizzare gli utenti a siti gestiti da pseudoscienziati o teorici della cospirazione, Google potrebbe far apparire un banner rosso che li invita a esser cauti e a consultare un elenco di risorse autorevoli prima di trarre conclusioni. Innanzittutto, confesso che nonostante abbia letto e riletto l'articolo, non riesco a capire la differenza tra le due opzioni. Ad ogni modo mi sembra di poter dire che alla fine la proposta di Morozov è la seguente: determinati risultati di ricerca dovrebbero venir "flaggati" (banner rosso, bandierina, ecc., insomma una "lettera scarlatta" alla Hawthorne) dal motore di ricerca per segnalare all'utente che il loro contenuto è "sospetto" (è l'aggettivo usato da Morozov). Le due parole chiavi sono "determinati" e "sospetto". Come viene fatta la scelta? Con quale meccanismo un sito si guadagna (o perde) la "lettera scarlatta"? E cosa vuol dire "sospetto"? Chi decide - e come - che un determinato sito contiene affermazioni "sospette"? Secondo me, formulata in questo modo, non c'è modo di arrivare a una procedura che non si presti a clamorosi abusi di potere e a produrre probabilmente molti più danni alla società di quelli (presunti) che si vorrebbero ridurre. Voglio essere io, individuo, a giudicare le informazioni che leggo online, senza nessuno che me le pre-etichetti con giudizi di valore. Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, senza emettere giudizi di merito, in qualche modo migliori le tecniche di ricerca esistenti per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo. Terreno non facile, ma su cui si può quanto meno riflettere, sulla scia, per esempio, di Cass Sunstein. Ma non è quanto propone Morozov col suo articolo. OK, mi fermo qui, anche se una completa argomentazione della mia posizione avrebbe richiesto ulteriore spazio, ma per iniziare mi sembra che possa bastare. My 2 cents. juan carlos _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa