Antonio Iacono <antiac@gmail.com> writes:
Come ben sapete la Commissione Europea ha elaborato una proposta di Regolamento che secondo gli annunci segna il primo quadro giuridico in assoluto sull'IA, affronta i rischi dell'IA e posiziona l'Europa per giocare un ruolo di primo piano a livello globale.
I primi commenti cominciano ad arrivare [1]. Da una veloce lettura mi sembra tutto molto condivisible (specie la classificazione dei sistemi ad alto rischio e le pratiche vietate).
Io non ho avuto tempo di approfindire il testo della proposta, commento "di sponda"
Una cosa a cui, secondo me, nel regolamento non è stato dato il giusto peso, seppur "considerata" è la complessità e l'incomprensibilità dei sistemi AI (di cui ai punti 47 e 48).
Condivido in pieno la tua consierazione, in particolare in merito all'incomprensibilità: per essere documentata l'AI deve essere compresa, pare un'ovvietà ma con il deep-learning e le reti neurali /mi pare/ ancora non ci siamo.
(47) To address the opacity that may make certain AI systems incomprehensible to or too complex for natural persons, a certain degree of transparency should be required for high-risk AI systems.
Sono solo io che vedo l'incongruenza in "to address opacity [...] a certain degree of transparency should be required": /non/ spiegatela al "operaio di carate Brianza" l'AI, spiegatela (e documentatela) ai vostri colleghi scienziati, no? Qualcosa di "abbastanza trasparente" è scientifico? [...]
(48) High-risk AI systems should be designed and developed in such a way that natural persons can oversee their functioning. For this purpose, appropriate human oversight measures should be identified by the provider of the system before its placing on the market or putting into service. In particular, where appropriate, such measures should guarantee that the system is subject to in-built operational constraints that cannot be overridden by the system itself and is responsive to the human operator, and that the natural persons to whom human oversight has been assigned have the necessary competence, training and authority to carry out that role.
OK ma io mi domando se non sia il caso, allora, di /integrare/ la "Direttiva Macchine" (Direttiva 2006/42/CE del 17 maggio 2006) *e* tutte le norme "vecchio regime" prendendo in cosiderazione sistemi AI. ...quindi: questo /significa/ ad esempio che in EU le auto a guida autonoma saranno /vietate/? mumble mumble no: --8<---------------cut here---------------start------------->8--- A proposito di regole future, invece, per quanto riguarda la responsabilità civile dell’AI uscirà probabilmente una norma specifica. Un tema – affrontato da quest’ultimo – è come si mette su strada una macchina con IA (quali obblighi e criteri seguire); il secondo è che succede se va qualcosa di storto, come e chi bisogna assicurare. --8<---------------cut here---------------end--------------->8--- (cito dall'articolo indicato da Antonio, riportato sotto) Significa che anche in ambito militare verranno applicati questi principi (armi autonome bye bye)? No perché sinceramente, cari concittadini europei, non è proprio il caso di metterci il cuore in pace con "un marchio CE per prodotti AI", io direi.
[1] https://www.agendadigitale.eu/cultura-digitale/commissione-ue-ecco-la-vera-f...
Grazie Antonio per questo articolo. --8<---------------cut here---------------start------------->8--- * Pertanto, laddove l’intelligenza artificiale costituisce una componente essenziale per la sicurezza di un prodotto, le nuove regole si applicano direttamente per quanto riguarda i prodotti di “nuovo regime”. * Per quanto riguarda invece i prodotti di “vecchio regime”, le nuove regole si applicheranno solo a seguito dell’adozione da parte della Commissione di revisioni delle regolamentazioni settoriali. [...] Dovranno arrivare infatti gli standard che aiuteranno a rispettare gli obblighi previsti dal regolamento, facilitando il compito agli sviluppatori di IA. --8<---------------cut here---------------end--------------->8--- Per chi conosce la ratio del sistema "nuovo regime" questo significa che - esclusi i prodotti "vecchio regime" - i produttori potranno cantarsela e suonarsela da soli in merito all'AI, che tanto il codice sorgente utilizzato e i dati per fare il training dei sistemi non sono obbligati a pubblicarlo... o lo sono? Vi prego, stupitemi! :-D Ricordo, care nexiane, che (sempre nel quadro "nuovo regime") "gli standard che aiuteranno a rispettare gli obblighi" sono standard /volontari/, il vantaggio nel rispettarli è che così facendo i produttori possono certificare che i loro prodotti sono conformi alla direttiva EU (quella in approvazione sull'AI, per esempio) e così apporre la marcatura CE. Last but /not/ least sapete chi le fa le norme tecniche vero?!? ... indovinato, i produttori, sedendo nei comitati tecnici degli organi di standardizzazione: cosa potrà andare male? (chiedere a chi si è seduto a qualcuno di quei tavoli). Sul /sottoinsieme/ di problemi legati al riconoscimento facciale mi pare che la direttiva cerchi di arginare il dilagare di pratiche orwelliane, /tuttavia/: --8<---------------cut here---------------start------------->8--- Sul punto aggiungo solo che meriterebbe più attenzione il fatto che non si sappia molto della tecnologia di videosorveglianza già usata negli aeroporti: chi la produce, dove sono i dati. --8<---------------cut here---------------end--------------->8--- ...e di grazia, chi ci dovrebbe pensare a "fare attenzione" a quelle cose?!? Detto in altre parole, Lucilla Sioli e Roberto Viola ci stanno /forse/ dicendo che i dati raccolti coi sistemi di videosorveglianza negli aeroporti NON sono trattati conformemente al GDPR (e finiscono nel tritacarne dell'AI)? Mi perplimo. Saluti, Giovanni. -- Giovanni Biscuolo Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché.