Ciao, grazie a tutti per il thread veramente interessante.

Rispetto alle considerazioni di Giovanni (che condivido) ho solo una piccola obiezione:

On Saturday, 15 February 2020, Giovanni Biscuolo <g@xelera.eu> wrote:
> il problemone nel caso specifico di SyRI, così come di tutti i sistemi
> basati su algoritmi *segreti* di profilazione (pubblici e privati), è
> che **non possono essere fornite sufficienti garanzie**: punto.
>

Il problema è che questa affermazione non viene mai considerata in tutta la sua serietà.

> solo sistemi basati su algoritmi pubblici, consultabili (e quindi
> contestabili) forniscono adeguate garanzie costituzionali; solo il
> software libero garantisce che l'implementazione sia confrontabile con
> l'algoritmo :-)

E come? :-)

Quale versione? Su quale sistema operativo? Su quale hardware? Con quali dati in input? Quali valori pseudocasuali sono stati inclusi?

Con quali bug?

Disporre dei sorgenti di un software è condizione necessaria per spiegarne l'output, ma non è lontanamente sufficiente.

Di conseguenza, l'introduzione di automatismi non interpretati da menti umane (e dunque non responsabili e irresponsabili) altera in modo inevitabilmente opaco il sistema in cui avviene.


Non si tratta di una cessione di potere "alle macchine" ma certamente si tratta di una sottrazione di tale potere alla comunità umana (a vantaggio di colori che controllano tali automatismi).

Tuttavia, una volta insediati, tali automatismi sono quasi impossibili da estirpare (prova ne siano gli AS400 che ancora gestiscono nodi cruciali ed insospettabili della vita di moltissime grandi aziende bancarie, assicurative etc...).

Perché una volta posti in essere, questi impongono ineluttabilmente se stessi e gli esseri umani ne interiorizzano e talvolta persino razionalizzano il funzionamento.


Giacomo