Ciao, ho letto con attenzione sia la bozza di linee guida etiche del AI HLEG sia il link proposto da Ugo di AI4people. Anzitutto e' evidente un notevole impegno nella stesura di questi documenti, e sicuramente si tratta di letture utili per iniziare un discorso sul tema. Tuttavia, nel merito, vi trovo omissioni e considerazioni che forse richiedono un'ulteriore e più cauta riflessione. Sul fronte delle omissioni, nella sezione sui diritti fondamentali manca un principio fondamentale che (correggetemi se sbaglio) e fondamentale nel ordinamento Europeo: il principio di Responsabilità. Si tratta di un principio che precede quelli elencati ma credo sia importante spiegare chiaramente che un software non può sollevare un essere umano dalla responsabilità legale che deriva dai suoi calcoli o dal suo operato, pena la fine dell'uguaglianza di fronte alla legge. Successivamente, nella sezione sui principi etici "Do not Harm" segue "Do Good" e viene messo sullo stesso piano degli altri, "in tensione" con essi: secoli (millenni?) di pratica medica insegnano che "non nuocere" e' un fondamentale principio di umile cautela che e' prioritario rispetto agli altri in quanto questine derivano. "Preserve Human Agency","Be Fair" e "Operate Transparently" sono tutte specializzazioni del "Do not Harm". Questa priorità logica andrebbe esplicitata in un documento che vuole essere consultivo, perché con la propria generalità permette di orientare l'operato ove i principi elencati non fossero sufficienti a decidere. Condivido tutte le "gravi preoccupazioni" elencate nella sezione 5 ad esclusione dei rischi di lungo periodo: la "Coscienza Artificiale" e' una fantasia che serve a spostare l'attenzione dal pericolo, molto più grave e concreto che l'intelligenza artificiale venga usata per manipolare l'uomo e sottometterlo da parte di altri uomini. E quando parlo di sottomissione, non intendo quella violenta tipica dei sogni malefici dei cattivi hollywoodiani ma di più subdole manipolazioni di massa che ci abituino ad un conformismo algoritmico. L'uomo, come animale sociale, tende naturalmente ad adattarsi alle intelligenze che lo circondano e con cui interagisce. Questo vale per la mailing list Nexa come vale per un posto di lavoro: cosa succederà quando la maggior parte delle persone interagiranno per la maggior parte del proprio tempo con intelligenze artificiali? Quanta della nostra ricchezza espressiva e affettiva andrà persa? Quanta verrà "orientata"? Quando passo più di 12 ore al giorno a contatto con software (perché di software dovremmo parlare non di intelligenza) per appena qualche giorno, la mia famiglia inizia a percepirmi come freddo e distante. E non e' affatto facile riadattare la propria mente sulle interazioni umane in quei frangenti. Se ci circondiamo di simulatori interattivi (aka intelligenze artificiali) la nostra mente si adatterà a loro, perché loro non saranno in grado di adattarsi a noi al di là della loro programmazione. Particolarmente inquietanti sono poi alcuni passaggi su come realizzare le "IA affidabili": - il breve paragrafo sulla "accountability" e' veramente troppo tiepido: si parla di risarcimenti e di scuse, ma non di carcere - analogamente il paragrafo sulla trasparenza: bisogna affermare con chiarezza che non deve essere permesso di applicare scatole nere (o altrimenti opache) a dati di origine umana - il paragrafo sulla sicurezza sembra progettato per essere inefficace: le valutazioni di rischio sono parole al vento senza serie responsabilità penali per chi le produce e per chi NON azzera quel rischio. Il paragrafo sulla robustezza e' ben studiato, ma temo possa involontariamente aprire a comode deresponsabilizzazioni quando, parlando impropriamente di indeterminismo (impossibile su macchine deterministiche), afferma che "potrebbe essere difficile riprodurre i risultati". In generale vi e' un certo pressapochismo su alcuni aspetti tecnici fondamentali. L'idea di introdurre un'etica nell'elaborazione della IA (nella fase "sense", si dice nel testo) e' bizzarra quanto ingenua: QUALE etica? QUANTA etica? Che peso gli diamo? Lasciamo che sia la calibrazione a determinarlo? L'etica esiste solo come prodotto della autonomia e della responsabilità umana. Si consuma fresca: non si può metterla in un barattolo^W programma e consumarla quando serve. Parlare di "bias della IA" per esempio confonde inevitabilmente il dibattito. Parliamo invece più propriamente di bug del software: se non siamo capaci di dire se un software sta operando correttamente o meno, l'unica cosa che possiamo fare e' sostituirlo, non e' proprio riparabile! Giacomo PS: Stefano auspicavi su Twitter un intervento italiano, e ho provato a buttar giù quanto avevo elaborato leggendo il testo... faro del mio meglio per tradurre il tutto in inglese e inviarlo come feedback e spero che altri vorranno fornire un analogo contributo. On Tue, 18 Dec 2018 at 15:56, Stefano Quintarelli <stefano@quintarelli.it> wrote:
ci sono intersezioni tra i due gruppi..
OTutte le preoccupan 18/12/2018 15:54, Ugo Pagallo wrote:
Senza alcuna malizia, vedo come l'intera parte IV del documento del Gruppo di Esperti riprenda a piene mani quanto fatto e pubblicato con AI4people (già girato in lista settimane fa: https://link.springer.com/article/10.1007/s11023-018-9482-5). I commenti che vengono richiesti cominciano dopo i 5 principi di AI4people, ossia con la parte V del nuovo documento ;-) Bello vedere che Nexa ha Garanti in entrambi i gruppi! Cheers, u.
Il giorno mar 18 dic 2018 alle ore 15:23 J.C. DE MARTIN <demartin@polito.it> ha scritto:
Battendo sul tempo il Garante Nexa Stefano Quintarelli vi segnalo che è stata pubblicata la bozza delle linee guida etiche per l'AI redatte dal Gruppo di Esperti di Alto Livello (di cui Stefano fa parte):
https://ec.europa.eu/digital-single-market/en/news/have-your-say-european-ex...
Commenti aperti fino al 18 gennaio 2019.
juan carlos
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Sent with Disk Term on my TRS-80 Model 1
reserve your meeting with me at http://cal.quintarelli.it _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa