"European expert group seeks feedback on draft ethics guidelines for trustworthy artificial intelligence"
Battendo sul tempo il Garante Nexa Stefano Quintarelli vi segnalo che è stata pubblicata la bozza delle linee guida etiche per l'AI redatte dal Gruppo di Esperti di Alto Livello (di cui Stefano fa parte): https://ec.europa.eu/digital-single-market/en/news/have-your-say-european-ex... Commenti aperti fino al 18 gennaio 2019. juan carlos
Senza alcuna malizia, vedo come l'intera parte IV del documento del Gruppo di Esperti riprenda a piene mani quanto fatto e pubblicato con AI4people (già girato in lista settimane fa: https://link.springer.com/article/10.1007/s11023-018-9482-5). I commenti che vengono richiesti cominciano dopo i 5 principi di AI4people, ossia con la parte V del nuovo documento ;-) Bello vedere che Nexa ha Garanti in entrambi i gruppi! Cheers, u. Il giorno mar 18 dic 2018 alle ore 15:23 J.C. DE MARTIN <demartin@polito.it> ha scritto:
Battendo sul tempo il Garante Nexa Stefano Quintarelli vi segnalo che è stata pubblicata la bozza delle linee guida etiche per l'AI redatte dal Gruppo di Esperti di Alto Livello (di cui Stefano fa parte):
https://ec.europa.eu/digital-single-market/en/news/have-your-say-european-ex...
Commenti aperti fino al 18 gennaio 2019.
juan carlos
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
ci sono intersezioni tra i due gruppi.. On 18/12/2018 15:54, Ugo Pagallo wrote:
Senza alcuna malizia, vedo come l'intera parte IV del documento del Gruppo di Esperti riprenda a piene mani quanto fatto e pubblicato con AI4people (già girato in lista settimane fa: https://link.springer.com/article/10.1007/s11023-018-9482-5). I commenti che vengono richiesti cominciano dopo i 5 principi di AI4people, ossia con la parte V del nuovo documento ;-) Bello vedere che Nexa ha Garanti in entrambi i gruppi! Cheers, u.
Il giorno mar 18 dic 2018 alle ore 15:23 J.C. DE MARTIN <demartin@polito.it> ha scritto:
Battendo sul tempo il Garante Nexa Stefano Quintarelli vi segnalo che è stata pubblicata la bozza delle linee guida etiche per l'AI redatte dal Gruppo di Esperti di Alto Livello (di cui Stefano fa parte):
https://ec.europa.eu/digital-single-market/en/news/have-your-say-european-ex...
Commenti aperti fino al 18 gennaio 2019.
juan carlos
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Sent with Disk Term on my TRS-80 Model 1 reserve your meeting with me at http://cal.quintarelli.it
Ciao, ho letto con attenzione sia la bozza di linee guida etiche del AI HLEG sia il link proposto da Ugo di AI4people. Anzitutto e' evidente un notevole impegno nella stesura di questi documenti, e sicuramente si tratta di letture utili per iniziare un discorso sul tema. Tuttavia, nel merito, vi trovo omissioni e considerazioni che forse richiedono un'ulteriore e più cauta riflessione. Sul fronte delle omissioni, nella sezione sui diritti fondamentali manca un principio fondamentale che (correggetemi se sbaglio) e fondamentale nel ordinamento Europeo: il principio di Responsabilità. Si tratta di un principio che precede quelli elencati ma credo sia importante spiegare chiaramente che un software non può sollevare un essere umano dalla responsabilità legale che deriva dai suoi calcoli o dal suo operato, pena la fine dell'uguaglianza di fronte alla legge. Successivamente, nella sezione sui principi etici "Do not Harm" segue "Do Good" e viene messo sullo stesso piano degli altri, "in tensione" con essi: secoli (millenni?) di pratica medica insegnano che "non nuocere" e' un fondamentale principio di umile cautela che e' prioritario rispetto agli altri in quanto questine derivano. "Preserve Human Agency","Be Fair" e "Operate Transparently" sono tutte specializzazioni del "Do not Harm". Questa priorità logica andrebbe esplicitata in un documento che vuole essere consultivo, perché con la propria generalità permette di orientare l'operato ove i principi elencati non fossero sufficienti a decidere. Condivido tutte le "gravi preoccupazioni" elencate nella sezione 5 ad esclusione dei rischi di lungo periodo: la "Coscienza Artificiale" e' una fantasia che serve a spostare l'attenzione dal pericolo, molto più grave e concreto che l'intelligenza artificiale venga usata per manipolare l'uomo e sottometterlo da parte di altri uomini. E quando parlo di sottomissione, non intendo quella violenta tipica dei sogni malefici dei cattivi hollywoodiani ma di più subdole manipolazioni di massa che ci abituino ad un conformismo algoritmico. L'uomo, come animale sociale, tende naturalmente ad adattarsi alle intelligenze che lo circondano e con cui interagisce. Questo vale per la mailing list Nexa come vale per un posto di lavoro: cosa succederà quando la maggior parte delle persone interagiranno per la maggior parte del proprio tempo con intelligenze artificiali? Quanta della nostra ricchezza espressiva e affettiva andrà persa? Quanta verrà "orientata"? Quando passo più di 12 ore al giorno a contatto con software (perché di software dovremmo parlare non di intelligenza) per appena qualche giorno, la mia famiglia inizia a percepirmi come freddo e distante. E non e' affatto facile riadattare la propria mente sulle interazioni umane in quei frangenti. Se ci circondiamo di simulatori interattivi (aka intelligenze artificiali) la nostra mente si adatterà a loro, perché loro non saranno in grado di adattarsi a noi al di là della loro programmazione. Particolarmente inquietanti sono poi alcuni passaggi su come realizzare le "IA affidabili": - il breve paragrafo sulla "accountability" e' veramente troppo tiepido: si parla di risarcimenti e di scuse, ma non di carcere - analogamente il paragrafo sulla trasparenza: bisogna affermare con chiarezza che non deve essere permesso di applicare scatole nere (o altrimenti opache) a dati di origine umana - il paragrafo sulla sicurezza sembra progettato per essere inefficace: le valutazioni di rischio sono parole al vento senza serie responsabilità penali per chi le produce e per chi NON azzera quel rischio. Il paragrafo sulla robustezza e' ben studiato, ma temo possa involontariamente aprire a comode deresponsabilizzazioni quando, parlando impropriamente di indeterminismo (impossibile su macchine deterministiche), afferma che "potrebbe essere difficile riprodurre i risultati". In generale vi e' un certo pressapochismo su alcuni aspetti tecnici fondamentali. L'idea di introdurre un'etica nell'elaborazione della IA (nella fase "sense", si dice nel testo) e' bizzarra quanto ingenua: QUALE etica? QUANTA etica? Che peso gli diamo? Lasciamo che sia la calibrazione a determinarlo? L'etica esiste solo come prodotto della autonomia e della responsabilità umana. Si consuma fresca: non si può metterla in un barattolo^W programma e consumarla quando serve. Parlare di "bias della IA" per esempio confonde inevitabilmente il dibattito. Parliamo invece più propriamente di bug del software: se non siamo capaci di dire se un software sta operando correttamente o meno, l'unica cosa che possiamo fare e' sostituirlo, non e' proprio riparabile! Giacomo PS: Stefano auspicavi su Twitter un intervento italiano, e ho provato a buttar giù quanto avevo elaborato leggendo il testo... faro del mio meglio per tradurre il tutto in inglese e inviarlo come feedback e spero che altri vorranno fornire un analogo contributo. On Tue, 18 Dec 2018 at 15:56, Stefano Quintarelli <stefano@quintarelli.it> wrote:
ci sono intersezioni tra i due gruppi..
OTutte le preoccupan 18/12/2018 15:54, Ugo Pagallo wrote:
Senza alcuna malizia, vedo come l'intera parte IV del documento del Gruppo di Esperti riprenda a piene mani quanto fatto e pubblicato con AI4people (già girato in lista settimane fa: https://link.springer.com/article/10.1007/s11023-018-9482-5). I commenti che vengono richiesti cominciano dopo i 5 principi di AI4people, ossia con la parte V del nuovo documento ;-) Bello vedere che Nexa ha Garanti in entrambi i gruppi! Cheers, u.
Il giorno mar 18 dic 2018 alle ore 15:23 J.C. DE MARTIN <demartin@polito.it> ha scritto:
Battendo sul tempo il Garante Nexa Stefano Quintarelli vi segnalo che è stata pubblicata la bozza delle linee guida etiche per l'AI redatte dal Gruppo di Esperti di Alto Livello (di cui Stefano fa parte):
https://ec.europa.eu/digital-single-market/en/news/have-your-say-european-ex...
Commenti aperti fino al 18 gennaio 2019.
juan carlos
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Sent with Disk Term on my TRS-80 Model 1
reserve your meeting with me at http://cal.quintarelli.it _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Un'altro appunto che, fra un errore di grammatica e l'altro, ho dimenticato ieri sera. Chi, trattando di IA, si parla (impropriamente) di bias spesso fa molta attenzione a NON rivolgere lo sguardo su se stesso.
Three pillars underpin the Commission’s vision: (i) increasing public and private investments in AI to boost its uptake, (ii) preparing for socio-economic changes, and (iii) ensuring an appropriate ethical and legal framework to strengthen European values.
Come si fa a trattare in modo oggettivo una tecnologia e a valutarne gli utilizzi appropriati se si assume di doverne massimizzare l'adozione della stessa? A parità di tasse, aumentare gli investimenti pubblici da una parte vuol dire sottrarre quelle risorse altrove, e non è affatto detto che l'adozione della IA sia una priorità anche rispetto ad altre questioni tecnologiche. (e sì, sto pensando alla scuola ed ai forti investimenti necessari per creare una generazione capace di trattare questi temi con solide basi senza farsi manipolare da chi ha maggiori competenze, straordinari interessi in gioco e nessuno scrupolo) Non è un problema esclusivo della Commissione Europea, ma questo bias non ha niente di scientifico. Purtroppo fa apparire come luddista retrogrado chiunque osi richiamare alla calma, alla lucidità e ultimamente al buon senso. Giacomo
Non è una decisione, ma un input a chi decide le policy In data 8 gennaio 2019 9:25:49 AM Giacomo Tesio <giacomo@tesio.it> ha scritto:
Un'altro appunto che, fra un errore di grammatica e l'altro, ho dimenticato ieri sera.
Chi, trattando di IA, si parla (impropriamente) di bias spesso fa molta attenzione a NON rivolgere lo sguardo su se stesso.
Three pillars underpin the Commission’s vision: (i) increasing public and private investments in AI to boost its uptake, (ii) preparing for socio-economic changes, and (iii) ensuring an appropriate ethical and legal framework to strengthen European values.
Come si fa a trattare in modo oggettivo una tecnologia e a valutarne gli utilizzi appropriati se si assume di doverne massimizzare l'adozione della stessa? A parità di tasse, aumentare gli investimenti pubblici da una parte vuol dire sottrarre quelle risorse altrove, e non è affatto detto che l'adozione della IA sia una priorità anche rispetto ad altre questioni tecnologiche. (e sì, sto pensando alla scuola ed ai forti investimenti necessari per creare una generazione capace di trattare questi temi con solide basi senza farsi manipolare da chi ha maggiori competenze, straordinari interessi in gioco e nessuno scrupolo)
Non è un problema esclusivo della Commissione Europea, ma questo bias non ha niente di scientifico.
Purtroppo fa apparire come luddista retrogrado chiunque osi richiamare alla calma, alla lucidità e ultimamente al buon senso.
Giacomo
On Tue, 8 Jan 2019 at 09:29, Stefano Quintarelli <Stefano@quintarelli.it> wrote:
Non è una decisione, ma un input a chi decide le policy
Certo. Ma è un input che verrà considerato autorevole. Come altri prima di lui... tutti soggetti allo stesso preoccupante bias. Da input come questi non potrà che emergere una regolamentazione lassa e permissiva. Come puoi immaginare, io non sono affatto contrario all'adozione delle tecniche di intelligenza artificiale. Solo, visto lo stato piuttosto primordiale della materia, trovo aberrante che si spinga per affidargli l'uomo senza stabilire seri contrappesi. L'articolo proposto da Ugo, per esempio dice:
“Self-nudging” to behave in socially preferable ways is the best form of nudging, and the only one that preserves autonomy. It is the outcome of human decisions and choices, but it can rely on AI solutions to be implemented and facilitated.
Questo hand-waving è ESTREMAMENTE pericoloso. Solo mia moglie ha il diritto di rompere se dormo solo 3 ore per scrivere al Nexa. E questa fiducia deriva direttamente dalle nostre responsabilità: condividiamo le stesse responsabilità nei confronti della nostra famiglia e io rispondo a lei come lei risponde a me. Le ragioni per cui una IA non può e non deve invece provare a condizionarmi sono così tante e così che si potrebbe scriverci un libro: ti immagini quante cose possono andare storte? A chi risponde l'AI che condiziona la società ad agire in modi "socialmente preferibili"? Un approccio più cauto ed appropriato potrebbe essere quello dei permessi Unix: permettiamo pure l'applicazione di qualsiasi tecnica statistica al resto ma vietiamo ogni applicazione di scatole nere a dati di origine umana e poi, selettivamente ed a valle di seri studi che provino i vantaggi e determinino con chiarezza le esternalità, permettiamo specifiche applicazioni. Un approccio di buon senso, non credi? Giacomo
"Andare a Roma costa 80 euro" Poi spetta al capo famiglia valutare questa possibilità tra le opzioni possibili In data 8 gennaio 2019 9:57:54 AM Giacomo Tesio <giacomo@tesio.it> ha scritto:
On Tue, 8 Jan 2019 at 09:29, Stefano Quintarelli <Stefano@quintarelli.it> wrote:
Non è una decisione, ma un input a chi decide le policy
Certo.
Ma è un input che verrà considerato autorevole. Come altri prima di lui... tutti soggetti allo stesso preoccupante bias.
Da input come questi non potrà che emergere una regolamentazione lassa e permissiva.
Come puoi immaginare, io non sono affatto contrario all'adozione delle tecniche di intelligenza artificiale. Solo, visto lo stato piuttosto primordiale della materia, trovo aberrante che si spinga per affidargli l'uomo senza stabilire seri contrappesi. L'articolo proposto da Ugo, per esempio dice:
“Self-nudging” to behave in socially preferable ways is the best form of nudging, and the only one that preserves autonomy. It is the outcome of human decisions and choices, but it can rely on AI solutions to be implemented and facilitated.
Questo hand-waving è ESTREMAMENTE pericoloso. Solo mia moglie ha il diritto di rompere se dormo solo 3 ore per scrivere al Nexa. E questa fiducia deriva direttamente dalle nostre responsabilità: condividiamo le stesse responsabilità nei confronti della nostra famiglia e io rispondo a lei come lei risponde a me. Le ragioni per cui una IA non può e non deve invece provare a condizionarmi sono così tante e così che si potrebbe scriverci un libro: ti immagini quante cose possono andare storte? A chi risponde l'AI che condiziona la società ad agire in modi "socialmente preferibili"?
Un approccio più cauto ed appropriato potrebbe essere quello dei permessi Unix: permettiamo pure l'applicazione di qualsiasi tecnica statistica al resto ma vietiamo ogni applicazione di scatole nere a dati di origine umana e poi, selettivamente ed a valle di seri studi che provino i vantaggi e determinino con chiarezza le esternalità, permettiamo specifiche applicazioni.
Un approccio di buon senso, non credi?
Giacomo
On Tue, 8 Jan 2019 at 10:05, Stefano Quintarelli <Stefano@quintarelli.it> wrote:
"Andare a Roma costa 80 euro" Poi spetta al capo famiglia valutare questa possibilità tra le opzioni possibili
Il "capo famiglia"? :-D A casa mia, non c'è un capo, e si vota democraticamente... per peso in kg. E nonostante questo non riesco mai a far valere la mia possente ciccia: troviamo sempre una sintesi prima. E quando non la troviamo, ne parliamo ancora un po'. Comunque giuro: non ho capito il paragone. Cosa vuoi dire? Qui sembra che la Politica abbia già deciso, indipendentemente da qualunque valutazione di merito, dove andare e chi lasciare indietro. Abbagliata, come spesso accade in assenza di competenze tecniche radicate, da promesse di felicità per tutti e (temo) di controllo per sé. Un altro passaggio interessante che ho letto a supporto della diffusione della AI nell'articolo proposto da Ugo dice:
Fostering the development of AI in support of new abilities and skills, while anticipating and mitigating its impact on old ones will require both close study and potentially radical ideas, such as the proposal for some form of “universal basic income”, which is growing in popularity and experimental use.
Su questo sono d'accordo: in un contesto in cui ogni essere umano del pianeta condivide un reditto che va da UBI a 3UBI, molte delle problematiche economiche poste dall'introduzione della IA svaniscono. Ma senza un upper bound, un lower bound in un sistema dinamico è fumo negli occhi. Non si può analizzare soluzioni tecniche (che hanno SEMPRE un impatto politico) se si ha già deciso che le si vuole adottare, non credi? Giacomo
participants (4)
-
Giacomo Tesio -
J.C. DE MARTIN -
Stefano Quintarelli -
Ugo Pagallo