vale la pena di spenderci ancora due parole
a quanto sembra di capire superficialmente, l'automatismo che ha censurato il post fa un'analisi del contenuto abbastanza banale. Basta che ci sia la presenza simultanea di alcune parolette che scatta l'allarme, a prescindere se quelle parole siano 'embeddate' in una frase di istigazione all'odio o no.
Oltre alla insensibilità all'ironia che richiamava JC, sembra ci sia proprio l'incapacità di leggere il contesto, come se si usasse appunto qualche algoritmo banale (bag of words et similia) .
Questo un po' mi stupisce, perché Facebook ha un gruppo di ricerca di Natural Language Processing molto forte.
Sarebbe interessante capire se per l'inglese abbiano sviluppato classificatori neurali di maggiore accuratezza. In tal caso emergerebbe un tema di 'divide' abbastanza inquietante, perché riguarderebbe la diversa agibilità dello spazio sociale anglofono rispetto a quello di tutti gli altri.
G.


On Fri, 11 Jun 2021 at 09:05, Giacomo Tesio <giacomo@tesio.it> wrote:
On June 10, 2021 8:30:00 PM UTC, "vetere.guido" wrote:
> certo che a fare algoritmi così scemi sono buoni tutti, eh ..

Davvero?

Che fantastica notizia! :-)


Se tutti fossero capaci di scrivere programmi "scemi", potrebbero
anche leggere i programmi intelligenti.

Molti VORREBBERO leggerli!
Ammesso di trovarli, ovviamente.

I GAFAM sarebbero già falliti e le nostre democrazie sarebbero più solide.


Temo però che tu sia troppo ottimista, Guido.

Pochissimi sanno programmare.
Meno ancora sanno debuggare.

Tutti gli altri eseguono ciecamente (o lasciano eseguire su di sé)
quanto deciso da altri.
E quel che è peggio è che sono più che rassegnati: sono
profondamente convinti di poter continuare nella propria ignoranza.


Giacomo

PS: gli algoritmi non si fanno, si pensano.
Facebook scrive software (malware, per la precisione), non algoritmi.

La differenza è fondamentale.
Il software è pieno di bug anche quando gli algoritmi che rappresenta non ne hanno.