R: Re: Caso di censura su Facebook
certo che a fare algoritmi così scemi sono buoni tutti, eh ..Sent from my Verizon, Samsung Galaxy smartphone -------- Messaggio originale --------Da: "J.C. DE MARTIN" <demartin@polito.it> Data: 10/06/21 21:35 (GMT+01:00) A: Center Nexa <nexa@server-nexa.polito.it> Oggetto: Re: [nexa] Caso di censura su Facebook Ho chiesto: Guido Carpi, quando ha ripostato.Evidentemente non ha fatto alcuna differenza per FB, anche se a mio avviso era del tutto legittimoanche nel primo post, visto l’intento chiaramente ironico. Ma gli algoritmi hannoseri problemi con l’ironia… jc (Sent from my wireless device; please excuse brevity and typos (if any))On 10 Jun 2021, at 20:25, Stefano Maffulli <smaffulli@gmail.com> wrote:chi ha oscurato le due parole del post coi bollini?On Thu, Jun 10, 2021 at 9:46 AM J.C. DE MARTIN <juancarlos.demartin@polito.it> wrote:Il Prof. Guido Carpi è professore ordinario di letteratura russa presso l'Università di Napoli "L'Orientale". E' direttore del Centro di Cultura Russa "Russkij Mir" presso il medesimo ateneo. Qui ulteriori informazioni su di lui: https://docenti.unior.it/index2.php?content_id=24903&content_id_start=1 Vi parlo di lui perché un mese fa il suo account Facebook è stato bloccato per 30 giorni a causa di un post sulla questione israelo-palestinese. Poche ore fa, tornato attivo su Facebook, ha ripubblicato il post, questa volta come immagine (v. allegato 1). Immediatamente è scattato un nuovo blocco di ulteriori 30 giorni (v. allegato 2). Precisando che invio tutto questo in lista col suo consenso, lascio a voi giudicare l'accaduto. jc _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa _______________________________________________nexa mailing listnexa@server-nexa.polito.ithttps://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On June 10, 2021 8:30:00 PM UTC, "vetere.guido" wrote:
certo che a fare algoritmi così scemi sono buoni tutti, eh ..
Davvero? Che fantastica notizia! :-) Se tutti fossero capaci di scrivere programmi "scemi", potrebbero anche leggere i programmi intelligenti. Molti VORREBBERO leggerli! Ammesso di trovarli, ovviamente. I GAFAM sarebbero già falliti e le nostre democrazie sarebbero più solide. Temo però che tu sia troppo ottimista, Guido. Pochissimi sanno programmare. Meno ancora sanno debuggare. Tutti gli altri eseguono ciecamente (o lasciano eseguire su di sé) quanto deciso da altri. E quel che è peggio è che sono più che rassegnati: sono profondamente convinti di poter continuare nella propria ignoranza. Giacomo PS: gli algoritmi non si fanno, si pensano. Facebook scrive software (malware, per la precisione), non algoritmi. La differenza è fondamentale. Il software è pieno di bug anche quando gli algoritmi che rappresenta non ne hanno.
vale la pena di spenderci ancora due parole a quanto sembra di capire superficialmente, l'automatismo che ha censurato il post fa un'analisi del contenuto abbastanza banale. Basta che ci sia la presenza simultanea di alcune parolette che scatta l'allarme, a prescindere se quelle parole siano 'embeddate' in una frase di istigazione all'odio o no. Oltre alla insensibilità all'ironia che richiamava JC, sembra ci sia proprio l'incapacità di leggere il contesto, come se si usasse appunto qualche algoritmo banale (bag of words et similia) . Questo un po' mi stupisce, perché Facebook ha un gruppo di ricerca di Natural Language Processing molto forte. Sarebbe interessante capire se per l'inglese abbiano sviluppato classificatori neurali di maggiore accuratezza. In tal caso emergerebbe un tema di 'divide' abbastanza inquietante, perché riguarderebbe la diversa agibilità dello spazio sociale anglofono rispetto a quello di tutti gli altri. G. On Fri, 11 Jun 2021 at 09:05, Giacomo Tesio <giacomo@tesio.it> wrote:
On June 10, 2021 8:30:00 PM UTC, "vetere.guido" wrote:
certo che a fare algoritmi così scemi sono buoni tutti, eh ..
Davvero?
Che fantastica notizia! :-)
Se tutti fossero capaci di scrivere programmi "scemi", potrebbero anche leggere i programmi intelligenti.
Molti VORREBBERO leggerli! Ammesso di trovarli, ovviamente.
I GAFAM sarebbero già falliti e le nostre democrazie sarebbero più solide.
Temo però che tu sia troppo ottimista, Guido.
Pochissimi sanno programmare. Meno ancora sanno debuggare.
Tutti gli altri eseguono ciecamente (o lasciano eseguire su di sé) quanto deciso da altri. E quel che è peggio è che sono più che rassegnati: sono profondamente convinti di poter continuare nella propria ignoranza.
Giacomo
PS: gli algoritmi non si fanno, si pensano. Facebook scrive software (malware, per la precisione), non algoritmi.
La differenza è fondamentale. Il software è pieno di bug anche quando gli algoritmi che rappresenta non ne hanno.
Ottima riflessione, Guido. Attenzione però che stai assumendo che si sia trattato di un malfunzionamemto non intenzionale. Personalmente trovo altrettanto probabile (nonché molto più plausibile) che si sia trattato di una scelta consapevole di Facebook cui solo l'applicazione è stata automatizzata. Se per esempio invece di "negri" e "culo" le parole da censurare fossero state "israeliani" e "palestinesi" quando il testo è favorevole a questi ultimi? Se il software fosse stato esplicitamente progettato per censurare alcuni temi ogni volta che il testo fornisca una qualsiasi scusante per l'algoritmo scemo. Una cosa del tipo: 0) se lo fila qualcuno? Sì. 1) affronta un tema controverso? Sì. 2) sostiene tesi non mainstream? Sì. 3) fornisce una qualche scusa che possa essere usata per giustificare la censura da parte del "povero algoritmo scemo"? Sì. 4) ALLORA censura (e salva la scusa nel campo "spiegazione della AI" dei log) Se poi qualche fesso influente si lamenta dell'opacità dell'algoritmo, gli mostriamo i log e gli spieghiamo che "è colpa dell' algoritmo confuso dalla complessità della lingua e della mente umana", così magari lo convinciamo anche a ridurla, questa complessità. Naturalmente la questione diventa importante a livello aggregato, non individuale. Ed il fatto che ciascuno interagisce con Facebook individualmente facilita questa attività di orientamento del dibattito pubblico, questa "leadership senza leader visibili". Censurando l'opinione del Professor Carpi, Facebook riduce la probabilità che questa si diffonda fra le molte persone che lo ritengono autorevole. NON censurandone una di segno opposto (o censurandone una di segno opposto ma di un utente che non si fila nessuno, e lasciando invece passare quella di un influencer famoso) Facebook decide non già cosa ciascuno di noi deve pensare (o quanto meno, non direttamente) ma cosa può pensare la popolazione. Lo fa probabilisticamente (esattamente come Google) e dunque in modo invisibile da una prospettiva individuale, ma lo fa in modo estremamente efficace. On June 11, 2021 7:33:13 AM UTC, Guido Vetere wrote:
Sarebbe interessante capire se per l'inglese abbiano sviluppato classificatori neurali di maggiore accuratezza. In tal caso emergerebbe un tema di 'divide' abbastanza inquietante, perché riguarderebbe la diversa agibilità dello spazio sociale anglofono rispetto a quello di tutti gli altri.
Questa è una cosa nota, che io sappia. Ricordo ad esempio che le traduzioni in inglese o dall'inglese su Google Translate[1] sono nettamente superiori, come qualità, rispetto a quelle fra altre lingue. Giacomo [1] https://www.betranslated.com/blog/how-good-is-google-translate/ (da visitare con le dovute precauzioni ;-)
L'inizio della psicostoria (cfr Hari Seldon). (perdonate la digressione, ma alle volte gli umanisti leggono il futuro meglio dei tecnologi) Ciao, Enrico Il 11/06/2021 10:42, Giacomo Tesio ha scritto:
Censurando l'opinione del Professor Carpi, Facebook riduce la probabilità che questa si diffonda fra le molte persone che lo ritengono autorevole.
NON censurandone una di segno opposto (o censurandone una di segno opposto ma di un utente che non si fila nessuno, e lasciando invece passare quella di un influencer famoso) Facebook decide non già cosa ciascuno di noi deve pensare (o quanto meno, non direttamente) ma cosa può pensare la popolazione.
Lo fa probabilisticamente (esattamente come Google) e dunque in modo invisibile da una prospettiva individuale, ma lo fa in modo estremamente efficace.
-- EN ===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ ===================================================================== --
Ciao Enrico On Fri, 11 Jun 2021 11:34:57 +0200 Enrico Nardelli wrote:
L'inizio della psicostoria (cfr Hari Seldon).
(perdonate la digressione, ma alle volte gli umanisti leggono il futuro meglio dei tecnologi)
Interessante considerazione, ma per la verità Asimov era un biochimico mentre tu ed io siamo informatici: a quali umanisti ti riferisci? E cosa intendi per "tecnologi"? Gli "astrologi della tecnologia" che scrivono solitamente sui giornali? Giacomo
Era certo un biochimico ma soprattutto uno scrittore, in questo senso un "umanista" e non un "tecnico duro e puro". Ma non era, il mio, un giudizio riduttivo verso i tecnici (tra i quali mi considero): solo una constatazione dell'importanza delle dimensioni artistiche e non razionali nel ragionare sul futuro della società. Ciao, Enrico Il 11/06/2021 12:56, Giacomo Tesio ha scritto:
Ciao Enrico
On Fri, 11 Jun 2021 11:34:57 +0200 Enrico Nardelli wrote:
L'inizio della psicostoria (cfr Hari Seldon).
(perdonate la digressione, ma alle volte gli umanisti leggono il futuro meglio dei tecnologi)
Interessante considerazione, ma per la verità Asimov era un biochimico mentre tu ed io siamo informatici: a quali umanisti ti riferisci?
E cosa intendi per "tecnologi"?
Gli "astrologi della tecnologia" che scrivono solitamente sui giornali?
Giacomo
-- EN ===================================================================== Prof. Enrico Nardelli Dipartimento di Matematica - Universita' di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ ===================================================================== --
On Fri, 2021-06-11 at 13:10 +0200, Enrico Nardelli wrote:
Era certo un biochimico ma soprattutto uno scrittore, in questo senso un "umanista" e non un "tecnico duro e puro".
"Le proprietà endocroniche della Tiotimolina risublimata" ? https://it.wikipedia.org/wiki/Propriet%C3%A0_endocroniche_della_tiotimolina_...
Ma non era, il mio, un giudizio riduttivo verso i tecnici (tra i quali mi considero): solo una constatazione dell'importanza delle dimensioni artistiche e non razionali nel ragionare sul futuro della società. Ciao, Enrico Il 11/06/2021 12:56, Giacomo Tesio ha scritto:
Ciao Enrico On Fri, 11 Jun 2021 11:34:57 +0200 Enrico Nardelli wrote:
L'inizio della psicostoria (cfr Hari Seldon). (perdonate la digressione, ma alle volte gli umanisti leggono ilfuturo meglio dei tecnologi)
Interessante considerazione, ma per la verità Asimov era un biochimicomentre tu ed io siamo informatici: a quali umanisti ti riferisci? E cosa intendi per "tecnologi"? Gli "astrologi della tecnologia" che scrivono solitamente sui giornali?
Giacomo
-- EN =====================================================================Prof. Enrico NardelliDipartimento di Matematica - Universita' di Roma "Tor Vergata"Via della Ricerca Scientifica snc - 00133 Romatel: +39 06 7259.4204 fax: +39 06 7259.4699mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it home page: http://www.mat.uniroma2.it/~nardelli blog: http://www.ilfattoquotidiano.it/blog/enardelli/ http://link-and-think.blogspot.it/ =====================================================================
Buongiorno, approfitto del thread per inquadrare il caso in oggetto (UNA censura) nel più ampio discorso di quello che SI SA che Facebook et al già facevano da tempo. Giacomo Tesio <giacomo@tesio.it> writes: [...]
Se per esempio invece di "negri" e "culo" le parole da censurare fossero state "israeliani" e "palestinesi" quando il testo è favorevole a questi ultimi?
Faccio notare che l'esistenza di questo tipo di censura non è del tutto campata in aria: 1. https://www.dailysabah.com/world/mid-east/facebook-censors-pro-palestine-pos... 2. https://www.mic.com/p/facebook-is-allegedly-censoring-pro-palestine-voices-s... 3. https://www.rt.com/uk/436190-facebook-removes-occupy-london/ (del 2018) 4. https://newspunch.com/facebook-manual-censor-pro-palestinian-content/ (del 2018) Da quest'ultimo articolo, ripeto del 2018: «Facebook moderators were instructed to hunt down and remove posts that were pro-Palestinian and anti-Israeli, according to a recently leaked Facebook rulebook.» Ci sono stati governi europei che hanno vietato manifestazioni pro-palestinesi in un recentissimo passato, questo per dire che certe scelte non avvengono nel vuoto pneumatico del "cyperspazio": qualche cinico inguaribile (non io) direbbe «è la politica, bellezza». Quindi, come amo dire in questi casi: ignoranti sì (che software usa Facebook? Usa moderatori umani? è importante?), coglioni no. [...]
Censurando l'opinione del Professor Carpi, Facebook riduce la probabilità che questa si diffonda fra le molte persone che lo ritengono autorevole.
NON censurandone una di segno opposto (o censurandone una di segno opposto ma di un utente che non si fila nessuno, e lasciando invece passare quella di un influencer famoso) Facebook decide non già cosa ciascuno di noi deve pensare (o quanto meno, non direttamente) ma cosa può pensare la popolazione.
Il fenomeno è noto come Gatekeeping [1], ovvero il processo che c'è dietro la trasformazione di un fatto (vero o inventato) in una notizia... ed è un prcesso - INFORMATICO :-D - molto complesso e oggi, anche grazie i GAFAM, reso ancora più opaco dalla pretesa che ci sia qualcosa di tecnologicamente deterministico che può selezionare cosa deve diventare notizia o essere CENSURATO... tranne poi dover scrivere un manuale di più di 1400 pagine per i moderatori: https://www.nytimes.com/2018/12/27/world/facebook-moderators.html «Inside Facebook’s Secret Rulebook for Global Political Speech» By Max Fisher - Dec. 27, 2018 --8<---------------cut here---------------start------------->8--- [...] How can Facebook monitor billions of posts per day in over 100 languages, all without disturbing the endless expansion that is core to its business? The company’s solution: a network of workers using a maze of PowerPoint slides spelling out what’s forbidden. [...] The guidelines that emerge from these meetings are sent out to 7,500-plus moderators around the world. (After publication of this article, Facebook said it had increased that number to around 15,000.) The closely held rules are extensive, and they make the company a far more powerful arbiter of global speech than has been publicly recognized or acknowledged by the company itself, The New York Times has found. The Times was provided with more than 1,400 pages from the rulebooks by an employee [...] The Facebook employees who meet to set the guidelines, mostly young engineers and lawyers, try to distill highly complex issues into simple yes-or-no rules. Then the company outsources much of the actual post-by-post moderation to companies that enlist largely unskilled workers, many hired out of call centers. Those moderators, at times relying on Google Translate, have mere seconds to recall countless rules and apply them to the hundreds of posts that dash across their screens each day. When is a reference to “jihad,” for example, forbidden? When is a “crying laughter” emoji a warning sign? [...] Facebook drifted into this approach somewhat by accident, there is no single master file or overarching guide, just a patchwork of rules set out by different parts of the company. Facebook confirmed the authenticity of the documents, though it said some had been updated since The Times acquired them. [...] The company’s goal is ambitious: to reduce context-heavy questions that even legal experts might struggle with — when is an idea hateful, when is a rumor dangerous — to one-size-fits-all rules. [...] An Unseen Branch of Government [...] In June, according to internal emails reviewed by The Times, moderators were told to allow users to praise the Taliban — normally a forbidden practice — if they mentioned its decision to enter into a cease-fire. In another email, moderators were told to hunt down and remove rumors wrongly accusing an Israeli soldier of killing a Palestinian medic. [...] In Pakistan, shortly before elections were held in July, Facebook issued its moderators a 40-page document outlining “political parties, expected trends and guidelines.” --8<---------------cut here---------------end--------------->8--- Quindi è abbastanza chiaro ora in cosa consiste la moderazione, anzi la CENSURA, sui social?!? George Orwell lo ha chiamato Grande Fratello, noi lo chiamiamo "social network"... e il "socia network" è più subdolo perché usa la retorica del "politically correct" (ad uso e consumo LORO). La libertà di espressione affidata a teams di ingegneri e avvocati che RIDUCONO la complessità a SI/NO e istruiscono dei poveracci ad applicare le regole attraverso un corpus di documenti tenuto assieme CON LO SPUTO. ...il tutto per cancellare le controversie dalla faccia della terra, perché tutta la terra deve essere una splendida Pleasantville [2] in cui non succede mai niente di brutto, QUINDI non se ne deve nemmeno discutere, punto e basta. Di questo stiamo parlando, altro che Intelligenza Artificiale.
Lo fa probabilisticamente (esattamente come Google) e dunque in modo invisibile da una prospettiva individuale, ma lo fa in modo estremamente efficace.
La prospettiva individuale è sempre deficiente. Da quanto si apprende dalle notizie che ho citato sopra, /anche/ la censura applicata dai GAFAM non ha NULLA di "Intelligentemente Artificiale", si tratta semplicemente di VECCHI trucchi conditi in salsa tech, dove il livello di probabilità è aggiustato in funzione delle situazioni storiche ma SOPRATTUTTO delle convenienze politiche dei gestori. Che sia estremamente efficace è un fatto, visto che avviene senza che le persone se ne accorgano... tranne quando succede a loro. Non facciamoci ingrannare dalla lucette tamarre che nascondono il VECCHIO motore che c'è sotto al cofano. Ogni regime ha i suoi sistemi di censura e propaganda politica, non facciamo finta che noi non viviamo in uno di quei regimi. [...] Saluti, 380° [1] https://en.wikipedia.org/wiki/Gatekeeping_(communication) [2] https://en.wikipedia.org/wiki/Pleasantville_(film) -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
On 11/06/21 09:33, Guido Vetere wrote:
vale la pena di spenderci ancora due parole a quanto sembra di capire superficialmente, l'automatismo che ha censurato il post fa un'analisi del contenuto abbastanza banale. Basta che ci sia la presenza simultanea di alcune parolette che scatta l'allarme, a prescindere se quelle parole siano 'embeddate' in una frase di istigazione all'odio o no. Oltre alla insensibilità all'ironia che richiamava JC, sembra ci sia proprio l'incapacità di leggere il contesto, come se si usasse appunto qualche algoritmo banale (bag of words et similia) . Questo un po' mi stupisce, perché Facebook ha un gruppo di ricerca di Natural Language Processing molto forte.
Le competenze NLP in una lingua non si adattano facilmente ad altre. Da una rapida analisi dei paper pubblicati dal gruppo NLP di FB, il loro approccio prevalente sembra essere di adattare le altre lingue all'inglese attraverso la traduzione automatica. <https://ai.facebook.com/research/nlp> <https://ai.facebook.com/results/?content_types%5B0%5D=publication&research_a...> Ad es: XNLI: Evaluating Cross-lingual Sentence Representations We introduce a dataset, called XNLI, that will catalyze research in cross-lingual sentence understanding by providing an informative standard evaluation task in 15 languages, including low-resource languages such as Swahili and Urdu. [...] In this work, we introduce a benchmark that we call the Cross-lingual Natural Language In- ference corpus, or XNLI, by extending these NLI corpora to 15 languages. XNLI consists of 7500 human-annotated development and test examples in NLI three-way classification format in English, French, Spanish, German, Greek, Bulgarian, Rus- sian, Turkish, Arabic, Vietnamese, Thai, Chi- nese, Hindi, Swahili and Urdu, making a total of 112,500 annotated pairs. [...] Translating, rather than generating new hypoth- esis sentences in each language separately, has multiple advantages. First, it ensures that the data distributions are maximally similar across lan- guages. As speakers of different languages may have slightly different intuitions about how to fill in the supplied prompt, this allows us to avoid adding this unwanted degree of freedom. Second, it allows us to use the same trusted pool of work- ers as was used prior NLI crowdsourcing efforts,[...] Va notato che l'italiano non è compreso nella lista Alberto
Sarebbe interessante capire se per l'inglese abbiano sviluppato classificatori neurali di maggiore accuratezza. In tal caso emergerebbe un tema di 'divide' abbastanza inquietante, perché riguarderebbe la diversa agibilità dello spazio sociale anglofono rispetto a quello di tutti gli altri. G.
On Fri, 11 Jun 2021 at 09:05, Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it>> wrote:
On June 10, 2021 8:30:00 PM UTC, "vetere.guido" wrote: > certo che a fare algoritmi così scemi sono buoni tutti, eh ..
Davvero?
Che fantastica notizia! :-)
Se tutti fossero capaci di scrivere programmi "scemi", potrebbero anche leggere i programmi intelligenti.
Molti VORREBBERO leggerli! Ammesso di trovarli, ovviamente.
I GAFAM sarebbero già falliti e le nostre democrazie sarebbero più solide.
Temo però che tu sia troppo ottimista, Guido.
Pochissimi sanno programmare. Meno ancora sanno debuggare.
Tutti gli altri eseguono ciecamente (o lasciano eseguire su di sé) quanto deciso da altri. E quel che è peggio è che sono più che rassegnati: sono profondamente convinti di poter continuare nella propria ignoranza.
Giacomo
PS: gli algoritmi non si fanno, si pensano. Facebook scrive software (malware, per la precisione), non algoritmi.
La differenza è fondamentale. Il software è pieno di bug anche quando gli algoritmi che rappresenta non ne hanno.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
participants (7)
-
380° -
Alberto Cammozzo -
Enrico Nardelli -
Giacomo Tesio -
Guido Vetere -
Marco A. Calamari -
vetere.guido