Questo mi sembra il punto:
Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, _senza_emettere_giudizi_di_merito_, in qualche modo migliori le tecniche di ricerca esistenti per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo.
Morozov fra l'altro cita questo plugin: http://confront.intel-research.net/Dispute_Finder.html#Usage_Scenarios che vedo affine agli strumenti indicati qui: http://en.wikipedia.org/wiki/Argument_map - - - - Mi viene da pensare (prendete con le pinze, il "secondo me" è implicito ad ogni frase): in una società ideale di "ricercatori", tutti dovrebbero potersi inserire nei meandri di ogni dibattito collettivo seguendo una logica del genere, e probabilmente la gente fa già così, la differenza è nella quantità e qualità di dati che ognuno crede personalmente di aver elaborato per raggiungere una data certezza/opinione. Se uno "si forma" Solo su ragionamenti del tipo X, difficilmente riuscirà a _dialogare_ con chi ha seguito ragionamenti del tipo Y, e raggiungere una visione più completa e/o una qualche vera conciliazione. Esemplifico i miei concetti di quantità e qualità: uno può aver esplorato nella sua vita una quantità enorme di ragionamenti di tipo X, o riconducibili a quello; appunto spostando le ricerche su ragionamenti di tipo Y o altri tipi, comincerà a capire che alcune informazioni sono ridondanti e seguono determinate "storie del ragionamento collettivo" (scientifico, filosofico, ecc), e in questo senso andrà "affinando" le sue fonti, o solo il suo sguardo (meglio: ogni fonte può sempre aggiungere qualcosa di sensato in maniera imprevista, in un nuovo contenuto)... Un contenuto potrebbe essere considerato tanto più di qualità in quel senso quanto più riesca a tener conto del massimo numero di questi fili della ricerca collettiva in ogni campo (o solo nel proprio, dipende)... E ancora: Che poi (esagerando) si trovino modi di visualizzare in quali punti dello scibile umano si trovi un determinato contenuto online, in quel mondo di ricercatori sarebbe solo buona cosa, ma in effetti non bisogna sottovalutare quando si sovrappongono "interessi particolari": ad esempio qua il "senso comune" e/o "la rete", impedirebbero possibili abusi che avverrebbero in un paese privo di libertà civili. Queste grazie a forme di notifica/controllo _da_parte_ della società sui possibili abusi dei suoi membri, e di ognuno sui possibili effetti del proprio operato; e poi a tutta la catena di organizzazioni, strutture, ecc che giustamente resteranno lì per prevenire o rimediare agli errori dati dall'incapacità di venirsi davvero incontro in ogni situazione...] Un'ultima roba: Non si potrà mai togliere la possibilità di dubitare, semmai è sempre più probabile incappando nelle opinioni altrui, casualmente, in un qualsiasi motore di ricerca (ma anche senza internet)... Marchiare come "pseudoscientifico" qualcosa potrebbe anche portare la gente a cercare solo fonti pseudoscientifiche, chi lo sa a priori come poi venga usato uno strumento? Così come può "bloccarci la vita" dubitare troppo (es. su se stessi), il dubbio può anche salvare, quando il comandante ti ordina di restare in cabina su una nave che affonda, quando invece il comandante guida e la nave non sembra aver problemi, allo stesso modo se eventuali dubbi (es. un passeggero che nota uno scoglio) fossero incanalabili nella cabina di comando con un qualche metodo, sarebbe meglio per tutti... E se uno semplicemente non si fida, bisognerà capire perché e se si sarà in grado di confrontarsi, crescerà la fiducia o cambierà qualche modo di fare che crea sfiducia... Ciao a tutti, Stefano 2012/1/24 Masera Anna <Anna.MASERA@lastampa.it>:
Caro Jc son d'accordo con te, anche perché invece io spesso Non sono d'accordo con Morozov, x quanto lo trovi stimolante, pero' temo che la traduzione sul Corriere dell'originale articolo su Slate abbia ulteriormente banalizzato la questione... :
http://www.slate.com/articles/technology/future_tense/2012/01/anti_vaccine_a...
Cmq prima di Morozov il tema l'aveva sollevato già una decina d'anni fa Umberto Eco! ... Abbassando parecchio le sue quotazioni, almeno online... ;-)
Questo bisogno di certi intellettuali elitari di ripulire Internet nel timore che gli utenti non siano intelligenti come loro e non sappiano distinguere e' il contrario della democrazia.
Ciao, e grazie Anna
Inviato in mobilita'
Il giorno 24/gen/2012, alle ore 16:24, "J.C. DE MARTIN" <demartin@polito.it> ha scritto:
Su Twitter è nata una discussione tra alcune persone (tra cui Fabio Chiusi, Andrea Glorioso e il sottoscritto) in merito a questo articolo di Morozov pubblicato su "La Lettura" del Corriere della Sera:
http://lettura.corriere.it/cospirazionisti-e-negazionisti-l%E2%80%99invasion...
Inizialmente, la discussione era stata stimolata anche da questo intervento di Mantellini, "Internet e conservazione": http://www.mantellini.it/?p=17516 che cita, oltre al resto, anche l'intervento di Morozov.
Twitter, però, è uno strumento assolutamente inadatto a condurre discussioni, mentre le mailing list sono fatte apposta - per cui eccomi qui.
In breve: io, che in genere trovo le analisi di Morozov mai banali e a volte penetranti, questa volta mi dichiaro molto deluso. L'articolo di Morozov per il Corriere, infatti, ha a mio avviso due gravi difetti.
Il primo difetto è il presentare l'esistenza di informazioni infondate online come un grave problema sociale al quale bisogna porre urgentemente rimedio. Non porta alcuna evidenza, però, ne' della gravità ne' dell'urgenza: dice solo che c'è chi crede X e Y e che ciò non va bene. Ne' peraltro affronta l'aspetto del passaggio da offlne a online: c'è una qualche evidenza che con l'avvento di Internet il numero di persone con credenze "poco scientifiche" (v. dopo) sia aumentato? Non si sa, e in realtà pare che non si ponga neanche il problema.
Ad ogni modo, Morozov poi procede - e siamo al secondo difetto - a identificare il momento clou da cui scaturisce il "problema":
Chi oggi avvia una ricerca su Google o Bing per verificare se «il riscaldamento globale è reale» o se «vaccinare è rischioso» o «chi è stato l’artefice degli attacchi dell’11 settembre» è a pochi clic di distanza dall’aderire a una di queste comunità.
"E' a pochi clic di distanza dall'aderire a una di questa comunità" ?! Caspita, che visione deprimente degli esseri umani, sostanzialmente dei babbei che non sanno resistere a un link se per caso gli compare sullo schermo....
Ad ogni modo, cosa suggerisce Morozov come possibili soluzioni al problema da lui identificato come sopra? Due possibilità.
Numero 1: "Una è quella di addestrare i browser a segnalare le informazioni sospette. In questo modo ogni volta che un’affermazione come «la vaccinazione porta all’autismo» appare nei browser, verrebbe evidenziata in rosso — magari accompagnata da un avviso che consiglia di cercare una fonte più autorevole. Si dovrebbe, a questo fine, compilare un database delle affermazioni discutibili, a cui andrebbero opposte le ultime opinioni della scienza"
Numero 2: "Un’altra opzione — che non esclude necessariamente la prima — è quella di spingere i motori di ricerca ad assumersi maggiori responsabilità nei confronti degli indirizzi Web che propongono, e a esercitare un controllo editoriale maggiore nel presentare i risultati di ricerche su argomenti come «riscaldamento globale» o «vaccinazione». [...] In questo modo, quando il risultato della ricerca fosse tale da indirizzare gli utenti a siti gestiti da pseudoscienziati o teorici della cospirazione, Google potrebbe far apparire un banner rosso che li invita a esser cauti e a consultare un elenco di risorse autorevoli prima di trarre conclusioni.
Innanzittutto, confesso che nonostante abbia letto e riletto l'articolo, non riesco a capire la differenza tra le due opzioni.
Ad ogni modo mi sembra di poter dire che alla fine la proposta di Morozov è la seguente: determinati risultati di ricerca dovrebbero venir "flaggati" (banner rosso, bandierina, ecc., insomma una "lettera scarlatta" alla Hawthorne) dal motore di ricerca per segnalare all'utente che il loro contenuto è "sospetto" (è l'aggettivo usato da Morozov).
Le due parole chiavi sono "determinati" e "sospetto".
Come viene fatta la scelta? Con quale meccanismo un sito si guadagna (o perde) la "lettera scarlatta"? E cosa vuol dire "sospetto"? Chi decide - e come - che un determinato sito contiene affermazioni "sospette"?
Secondo me, formulata in questo modo, non c'è modo di arrivare a una procedura che non si presti a clamorosi abusi di potere e a produrre probabilmente molti più danni alla società di quelli (presunti) che si vorrebbero ridurre.
Voglio essere io, individuo, a giudicare le informazioni che leggo online, senza nessuno che me le pre-etichetti con giudizi di valore.
Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, senza emettere giudizi di merito, in qualche modo migliori le tecniche di ricerca esistenti per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo. Terreno non facile, ma su cui si può quanto meno riflettere, sulla scia, per esempio, di Cass Sunstein.
Ma non è quanto propone Morozov col suo articolo.
OK, mi fermo qui, anche se una completa argomentazione della mia posizione avrebbe richiesto ulteriore spazio, ma per iniziare mi sembra che possa bastare.
My 2 cents.
juan carlos
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa