Grazie a tutti delle riflessioni!
Io sto scrivendo un articolo per Agenda Digitale proprio su questo, ve lo faccio avere
presto, spero

Marco Fasoli

Il giorno mar 4 mag 2021 alle ore 21:56 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Della proposta di regolamento mi preoccupano molti aspetti, speravo di
riuscire ad approfondire meglio, ma vi invito a leggerla personalmente
e non limitarvi ai miei commenti.

In generale, vi vedo voragini e loop-hole mastodontici.


Non definisce l'AI, dice che ci dovrebbe essere una definizione ma non
propone alcun criterio per distinguere l'AI dal resto del software.

Invece di fornire un principio generale che qualifichi una applicazione
della AI come "high-risk" elenca alcuni casi specifici (peraltro
omettendo le reti di comunicazione fra le infrastrutture strategiche).

In realtà il principio generale sarebbe semplice da scrivere: è
"high-risk" ogni applicazione della AI che utilizzi dati di origine
umana o possa tecnicamente causare danni ad esseri umani.


On Tue, 04 May 2021 20:26:27 +0200 Giovanni Biscuolo wrote:

> Sono solo io che vedo l'incongruenza in "to address opacity [...] a
> certain degree of transparency should be required": /non/ spiegatela
> al "operaio di carate Brianza" l'AI, spiegatela (e documentatela) ai
> vostri colleghi scienziati, no?  Qualcosa di "abbastanza trasparente"
> è scientifico?

Si dice che è necessario "un certo grado di trasparenza" e la
possibilità di interpretare l'output per le persone, ma non si
considera che non è l'output il problema di molte AI, ma il processo
applicato per calcolarlo.
E' quello che dovrebbe essere trasparente: non giustificare l'output.


> > Una cosa a cui, secondo me, nel regolamento non è stato dato il
> > giusto peso, seppur "considerata" è la complessità e
> > l'incomprensibilità dei sistemi AI (di cui ai punti 47 e 48). 
>
> Condivido in pieno la tua consierazione, in particolare in merito
> all'incomprensibilità: per essere documentata l'AI deve essere
> compresa, pare un'ovvietà ma con il deep-learning e le reti neurali
> /mi pare/ ancora non ci siamo.

Infatti si dice che è necessario una supervisione umana, ma non si
chiarisce come possa un essere umano supervisionare l'elaborazione di
una "rete neurale" con milioni di layers.
In sostanza si prevede un Homer Simpson capro espiatorio sacrificale.

Si parla di qualità dei dati etc, senza considerare che è sempre
possibile imporre ad una rete neurale un certo bias, semplicemente
selezionando quali dati utilizzare nella sua calibrazione in una
pletora di dati di ottima qualità. Non si impone di mantenere tutti i
dati utilizzati e tutti i modelli calibrati e cross-validati.


Insomma, ad occhio questa proposta non è stata scritta per tutelare
efficacemente i cittadini, ma per confonderli e sedarli.



Giacomo

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa