Grazie a tutti delle riflessioni! Io sto scrivendo un articolo per Agenda Digitale proprio su questo, ve lo faccio avere presto, spero Marco Fasoli Il giorno mar 4 mag 2021 alle ore 21:56 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Della proposta di regolamento mi preoccupano molti aspetti, speravo di riuscire ad approfondire meglio, ma vi invito a leggerla personalmente e non limitarvi ai miei commenti.
In generale, vi vedo voragini e loop-hole mastodontici.
Non definisce l'AI, dice che ci dovrebbe essere una definizione ma non propone alcun criterio per distinguere l'AI dal resto del software.
Invece di fornire un principio generale che qualifichi una applicazione della AI come "high-risk" elenca alcuni casi specifici (peraltro omettendo le reti di comunicazione fra le infrastrutture strategiche).
In realtà il principio generale sarebbe semplice da scrivere: è "high-risk" ogni applicazione della AI che utilizzi dati di origine umana o possa tecnicamente causare danni ad esseri umani.
On Tue, 04 May 2021 20:26:27 +0200 Giovanni Biscuolo wrote:
Sono solo io che vedo l'incongruenza in "to address opacity [...] a certain degree of transparency should be required": /non/ spiegatela al "operaio di carate Brianza" l'AI, spiegatela (e documentatela) ai vostri colleghi scienziati, no? Qualcosa di "abbastanza trasparente" è scientifico?
Si dice che è necessario "un certo grado di trasparenza" e la possibilità di interpretare l'output per le persone, ma non si considera che non è l'output il problema di molte AI, ma il processo applicato per calcolarlo. E' quello che dovrebbe essere trasparente: non giustificare l'output.
Una cosa a cui, secondo me, nel regolamento non è stato dato il giusto peso, seppur "considerata" è la complessità e l'incomprensibilità dei sistemi AI (di cui ai punti 47 e 48).
Condivido in pieno la tua consierazione, in particolare in merito all'incomprensibilità: per essere documentata l'AI deve essere compresa, pare un'ovvietà ma con il deep-learning e le reti neurali /mi pare/ ancora non ci siamo.
Infatti si dice che è necessario una supervisione umana, ma non si chiarisce come possa un essere umano supervisionare l'elaborazione di una "rete neurale" con milioni di layers. In sostanza si prevede un Homer Simpson capro espiatorio sacrificale.
Si parla di qualità dei dati etc, senza considerare che è sempre possibile imporre ad una rete neurale un certo bias, semplicemente selezionando quali dati utilizzare nella sua calibrazione in una pletora di dati di ottima qualità. Non si impone di mantenere tutti i dati utilizzati e tutti i modelli calibrati e cross-validati.
Insomma, ad occhio questa proposta non è stata scritta per tutelare efficacemente i cittadini, ma per confonderli e sedarli.
Giacomo
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa