Ottima riflessione, Guido. Attenzione però che stai assumendo che si sia trattato di un malfunzionamemto non intenzionale. Personalmente trovo altrettanto probabile (nonché molto più plausibile) che si sia trattato di una scelta consapevole di Facebook cui solo l'applicazione è stata automatizzata. Se per esempio invece di "negri" e "culo" le parole da censurare fossero state "israeliani" e "palestinesi" quando il testo è favorevole a questi ultimi? Se il software fosse stato esplicitamente progettato per censurare alcuni temi ogni volta che il testo fornisca una qualsiasi scusante per l'algoritmo scemo. Una cosa del tipo: 0) se lo fila qualcuno? Sì. 1) affronta un tema controverso? Sì. 2) sostiene tesi non mainstream? Sì. 3) fornisce una qualche scusa che possa essere usata per giustificare la censura da parte del "povero algoritmo scemo"? Sì. 4) ALLORA censura (e salva la scusa nel campo "spiegazione della AI" dei log) Se poi qualche fesso influente si lamenta dell'opacità dell'algoritmo, gli mostriamo i log e gli spieghiamo che "è colpa dell' algoritmo confuso dalla complessità della lingua e della mente umana", così magari lo convinciamo anche a ridurla, questa complessità. Naturalmente la questione diventa importante a livello aggregato, non individuale. Ed il fatto che ciascuno interagisce con Facebook individualmente facilita questa attività di orientamento del dibattito pubblico, questa "leadership senza leader visibili". Censurando l'opinione del Professor Carpi, Facebook riduce la probabilità che questa si diffonda fra le molte persone che lo ritengono autorevole. NON censurandone una di segno opposto (o censurandone una di segno opposto ma di un utente che non si fila nessuno, e lasciando invece passare quella di un influencer famoso) Facebook decide non già cosa ciascuno di noi deve pensare (o quanto meno, non direttamente) ma cosa può pensare la popolazione. Lo fa probabilisticamente (esattamente come Google) e dunque in modo invisibile da una prospettiva individuale, ma lo fa in modo estremamente efficace. On June 11, 2021 7:33:13 AM UTC, Guido Vetere wrote:
Sarebbe interessante capire se per l'inglese abbiano sviluppato classificatori neurali di maggiore accuratezza. In tal caso emergerebbe un tema di 'divide' abbastanza inquietante, perché riguarderebbe la diversa agibilità dello spazio sociale anglofono rispetto a quello di tutti gli altri.
Questa è una cosa nota, che io sappia. Ricordo ad esempio che le traduzioni in inglese o dall'inglese su Google Translate[1] sono nettamente superiori, come qualità, rispetto a quelle fra altre lingue. Giacomo [1] https://www.betranslated.com/blog/how-good-is-google-translate/ (da visitare con le dovute precauzioni ;-)