Ho le tue stesse perplessità, JC. La soluzione proposta da Morozov è una baggianata.
Tuttavia chiama in causa sia l'autorevolezza delle fonti editoriali, sia l'autorevolezza dei motori di ricerca, ma a un altro livello. Per sintetizzare - banalizzo, lo so -: da un punto di vista filosofico ed epistemologico, non esiste verità oggettiva, universale, valida per tutti, ma un processo di approssimazione e di ricerca ad essa correlato, che viene mediato dal contesto, dalla cultura, dalla dotazione psicofisica e tecnica del soggetto percipiente; da un punto di vista giornalistico e comunicativo, l'in-formazione è un concetto sempre e comunque associato alla de-formazione, il criterio di verità si trasforma qui in veridicità e verosimiglianza. In genere ci accontentiamo di questo. E se ci sta bene quando ascoltiamo, per dire, un Minzolini o un Feltri (ma anche un Rubini o un Krugman), perché non dovrebbe starci bene quello che un Mister x dice e crive in rete? E' un fatto di credibilità. Ma la credibilità (pure la reputazione) è una costruzione sociale non neutra e anzi, spesso drogata da un uso strumentale di mezzi, persone e informazioni.
Per i motori di ricerca il tema dell'autorevolezza si pone più o meno allo stesso modo come ci hanno spiegato tantissimi libri ormai (Luci e ombre di Google) ad esempio. Possiamo pensarla in molti modi diversi ma sarà difficile convenire sulla presunta neutralità di un motore di ricerca che è di proprietà di un'azienda privata, fa profitti, deve rispondere a degli azionisti, e mantiene segreti algoritmi di ricerca e sistemi di calcolo della rilevanza (il peso) dei contenuti.

SOLUZIONE? L'educazione all'esercizio del dubbio, la formazione alla produzione di contenuti, lo sviluppo del pensiero critico.

My 2 cents


**********************
“The Net interprets censorship as damage and routes around it.”
– John Gilmore


-----nexa-bounces@server-nexa.polito.it ha scritto: -----
Per: "nexa@server-nexa.polito.it" <nexa@server-nexa.polito.it>
Da: "J.C. DE MARTIN"
Inviato da: nexa-bounces@server-nexa.polito.it
Data: 24/01/2012 04.24PM
Oggetto: [nexa] In merito all'articolo di Morozov sul Corriere

Su Twitter è nata una discussione tra alcune persone (tra cui Fabio Chiusi,
Andrea Glorioso e il sottoscritto) in merito a questo articolo di Morozov
pubblicato su "La Lettura" del Corriere della Sera:

http://lettura.corriere.it/cospirazionisti-e-negazionisti-l%E2%80%99invasione-delle-bufale-online/

Inizialmente, la discussione era stata stimolata anche da questo intervento di Mantellini,
"Internet e conservazione": http://www.mantellini.it/?p=17516
che cita,  oltre al resto, anche l'intervento di Morozov.

Twitter, però, è uno strumento assolutamente inadatto a condurre discussioni,
mentre le mailing list sono fatte apposta - per cui eccomi qui.

In breve: io, che in genere trovo le analisi di Morozov mai banali
e a volte penetranti, questa volta mi dichiaro molto deluso.
L'articolo di Morozov per il Corriere, infatti, ha a mio avviso due gravi difetti.

Il primo difetto è il presentare l'esistenza di informazioni infondate online
come un grave problema sociale al quale bisogna porre urgentemente rimedio.
Non porta alcuna evidenza, però, ne' della gravità ne' dell'urgenza: dice solo che
c'è chi crede X e Y e che ciò non va bene. Ne' peraltro affronta l'aspetto
del passaggio da offlne a online: c'è una qualche evidenza
che con l'avvento di Internet il numero di persone con credenze
"poco scientifiche" (v. dopo) sia aumentato? Non si sa, e in realtà pare
che non si ponga neanche il problema.

Ad ogni modo, Morozov poi procede - e siamo al secondo difetto - a identificare
il momento clou da cui scaturisce il "problema":

Chi oggi avvia una ricerca su Google o Bing per verificare se «il riscaldamento globale
è reale» o se «vaccinare è rischioso» o «chi è stato l’artefice degli attacchi dell’11 settembre»
è a pochi clic di distanza dall’aderire a una di queste comunità.

"E' a pochi clic di distanza dall'aderire a una di questa comunità" ?!
Caspita, che visione deprimente degli esseri umani, sostanzialmente dei babbei
che non sanno resistere a un link se per caso gli compare sullo schermo....

Ad ogni modo, cosa suggerisce Morozov come possibili soluzioni al problema
da lui identificato come sopra? Due possibilità.

Numero 1: "Una è quella di addestrare i browser a segnalare le informazioni sospette.
In questo modo ogni volta che un’affermazione come «la vaccinazione porta all’autismo»
appare nei browser, verrebbe evidenziata in rosso — magari accompagnata da un avviso
che consiglia di cercare una fonte più autorevole. Si dovrebbe, a questo fine, compilare
un database delle affermazioni discutibili, a cui andrebbero opposte le ultime opinioni
della scienza"

Numero 2: "Un’altra opzione — che non esclude necessariamente la prima — è quella
di spingere i motori di ricerca ad assumersi maggiori responsabilità nei confronti degli
indirizzi Web che propongono, e a esercitare un controllo editoriale maggiore nel presentare
i risultati di ricerche su argomenti come «riscaldamento globale» o «vaccinazione». [...]
In questo modo, quando il risultato della ricerca fosse tale da indirizzare gli utenti a siti
gestiti da pseudoscienziati o teorici della cospirazione, Google potrebbe far apparire un
banner rosso che li invita a esser cauti e a consultare un elenco di risorse autorevoli
prima di trarre conclusioni.

Innanzittutto, confesso che nonostante abbia letto e riletto l'articolo, non riesco a capire
la differenza tra le due opzioni.

Ad ogni modo mi sembra di poter dire che alla fine la proposta di Morozov è la seguente:
determinati risultati di ricerca dovrebbero venir "flaggati"
(banner rosso, bandierina, ecc., insomma una "lettera  scarlatta" alla Hawthorne)
dal motore di ricerca per segnalare all'utente che il loro contenuto è "sospetto"
(è l'aggettivo usato da Morozov).

Le due parole chiavi sono "determinati" e "sospetto".

Come viene fatta la scelta? Con quale meccanismo un sito si guadagna
(o perde) la "lettera scarlatta"? E cosa vuol dire "sospetto"?
Chi decide - e come - che un determinato sito contiene affermazioni
"sospette"?

Secondo me, formulata in questo modo, non c'è modo di arrivare a una
procedura che non si presti a clamorosi abusi di potere e a produrre
probabilmente molti più danni alla società di quelli (presunti) che si vorrebbero
ridurre.

Voglio essere io, individuo, a giudicare le informazioni che leggo online,
senza nessuno che me le pre-etichetti con giudizi di valore.

Tutt'altro discorso è interrogarsi sulla possibilità che un motore di ricerca, 
senza etichettare alcun sito come "sospetto" o "affidabile", ovvero, senza
emettere giudizi di merito
, in qualche modo migliori le tecniche di ricerca esistenti
per facilitare l'autonomo formarsi di un giudizio da parte dell'individuo.
Terreno non facile, ma su cui si può quanto meno riflettere,
sulla scia, per esempio, di Cass Sunstein.

Ma non è quanto propone Morozov col suo articolo.

OK, mi fermo qui, anche se una completa argomentazione della mia posizione
avrebbe richiesto ulteriore spazio, ma per iniziare mi sembra che possa bastare.

My 2 cents.

juan carlos















_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa