Proposta di regolamento EU sull'Intelligenza Artificiale
Come ben sapete la Commissione Europea ha elaborato una proposta di Regolamento che secondo gli annunci segna il primo quadro giuridico in assoluto sull'IA, affronta i rischi dell'IA e posiziona l'Europa per giocare un ruolo di primo piano a livello globale. Sono andato nel sito della Commissione per tentare di scaricare la proposta di Regolamento ma i link non funzionano. https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-... Qualcuno è riuscito a scaricarli ? Grazie Buon pomeriggio, Mario Sabatino
*** Avevo anche io il medesimo link ed in effetti non va ... avv. Lorenzo Albertini Revisore Legale via Stella, 6 37121 Verona tel./fax 045.9612.703 law blog: www.albertinilawfirm.eu _______________ Le informazioni contenute nella presente comunicazione e nei documenti ad essa allegati potrebbero essere tutelate dal segreto professionale e sono comunque confidenziali e ad uso esclusivo del destinatario sopra indicato. Qualora la presente comunicazione non fosse destinata a Voi, Vi preghiamo di tener presente che la divulgazione, distribuzione o riproduzione di qualunque informazione contenuta nella presente comunicazione o nei documenti ad essa allegati sono vietate. Se avete ricevuto la presente comunicazione per errore, Vi preghiamo di volerci avvertire immediatamente e di distruggere quanto ricevuto senza leggerlo. Grazie per la collaborazione. The information contained in this email and any documents attached to it may be legally privileged and confidential. The information is intended only for the use of the individual or entity named above. If you are not the intended recipient, you are hereby notified that any use, dissemination, distribution or reproduction of any information contained in or attached to this email is prohibited. If you have received this email in error, please immediately notify us by reply email or by telephone, and destroy the original transmission and its attachments without reading them. Thank you.
-----Messaggio originale----- Da: nexa [mailto:nexa-bounces@server-nexa.polito.it] Per conto di Mario Sabatino Inviato: venerdì 30 aprile 2021 18:35 A: nexa@server-nexa.polito.it Oggetto: [nexa] Proposta di regolamento EU sull'Intelligenza Artificiale
Come ben sapete la Commissione Europea ha elaborato una proposta di Regolamento che secondo gli annunci segna il primo quadro giuridico in assoluto sull'IA, affronta i rischi dell'IA e posiziona l'Europa per giocare un ruolo di primo piano a livello globale.
Sono andato nel sito della Commissione per tentare di scaricare la proposta di Regolamento ma i link non funzionano.
https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying- down-harmonised-rules-artificial-intelligence-artificial-intelligence
Qualcuno è riuscito a scaricarli ?
Grazie
Buon pomeriggio,
Mario Sabatino
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Questa email è stata esaminata alla ricerca di virus da AVG. http://www.avg.com
Li ho appena scaricati dal link indicato da Sabatino. Il 30/04/21 18:38, lorenzo albertini ha scritto:
*** Avevo anche io il medesimo link ed in effetti non va ...
-----Messaggio originale----- Da: nexa [mailto:nexa-bounces@server-nexa.polito.it] Per conto di Mario Sabatino Inviato: venerdì 30 aprile 2021 18:35 A: nexa@server-nexa.polito.it Oggetto: [nexa] Proposta di regolamento EU sull'Intelligenza Artificiale
Come ben sapete la Commissione Europea ha elaborato una proposta di Regolamento che secondo gli annunci segna il primo quadro giuridico in assoluto sull'IA, affronta i rischi dell'IA e posiziona l'Europa per giocare un ruolo di primo piano a livello globale.
Sono andato nel sito della Commissione per tentare di scaricare la proposta di Regolamento ma i link non funzionano.
https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying- down-harmonised-rules-artificial-intelligence-artificial-intelligence
Qualcuno è riuscito a scaricarli ?
Grazie
-- Paolo Giardini EUCIP Certified Professional Consulente Informatico Forense Consulente per la Sicurezza delle Informazioni Data Protection Officer e Privacy Officer Auditor/Lead Auditor ISO/IEC 27001:2017 TUV Italia Lead Auditor GDPR Compliance Bureau Veritas Italia Lead Auditor Data Privacy Certification (GDPR) Professionista Informatico disciplinato ai sensi della legge 4/2013 Iscritto a Associazione Informatici Professionisti al n. 2756 Iscritto a Federprivacy al n.FP-1337 Membro del Cybersecurity National Lab CINI Consorzio Interuniversitario per l'Informatica Socio di: CLUSIT Associazione Italiana per la sicurezza informatica Italian Linux Society - Cyber Saiyan http://blog.solution.it|Cel.337.652876|Fax 075.93831174|skype pgiardini https://www.craccaaltesoro.it - https://www.solution.it
dovrebbero essere https://ec.europa.eu/transparency/regdoc/rep/1/2021/EN/COM-2021-206-F1-EN-MA... e https://data.consilium.europa.eu/doc/document/ST-8115-2021-ADD-1/en/pdf On Fri, Apr 30, 2021 at 6:35 PM Mario Sabatino <mariosabatino@posteo.net> wrote:
Come ben sapete la Commissione Europea ha elaborato una proposta di Regolamento che secondo gli annunci segna il primo quadro giuridico in assoluto sull'IA, affronta i rischi dell'IA e posiziona l'Europa per giocare un ruolo di primo piano a livello globale.
Sono andato nel sito della Commissione per tentare di scaricare la proposta di Regolamento ma i link non funzionano.
https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-...
Qualcuno è riuscito a scaricarli ?
Grazie
Buon pomeriggio,
Mario Sabatino
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Ciao Mario On Fri, 30 Apr 2021 16:35:08 +0000 Mario Sabatino wrote:
https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-...
Qualcuno è riuscito a scaricarli ?
in effetti sembra che i documenti siano stati de-pubblicati, ma dalla Wayback Machine puoi ancora scaricarli http://web.archive.org/web/20210428230907/https://digital-strategy.ec.europa... Giacomo
https://eur-lex.europa.eu/procedure/FI/2021_106 --> per seguire tutto il processo di co-decisione https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206 --> proposta dell'AI ACT mp Il 30/04/2021 18:44, Giacomo Tesio ha scritto:
Ciao Mario
On Fri, 30 Apr 2021 16:35:08 +0000 Mario Sabatino wrote:
https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-...
Qualcuno è riuscito a scaricarli ? in effetti sembra che i documenti siano stati de-pubblicati, ma dalla Wayback Machine puoi ancora scaricarli
http://web.archive.org/web/20210428230907/https://digital-strategy.ec.europa...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Ottimo , grazie!
-----Messaggio originale----- Da: nexa [mailto:nexa-bounces@server-nexa.polito.it] Per conto di monica.palmirani Inviato: venerdì 30 aprile 2021 18:52 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Proposta di regolamento EU sull'Intelligenza Artificiale
https://eur-lex.europa.eu/procedure/FI/2021_106 --> per seguire tutto il processo di co-decisione https://eur-lex.europa.eu/legal- content/EN/TXT/?uri=celex%3A52021PC0206 --> proposta dell'AI ACT mp Il 30/04/2021 18:44, Giacomo Tesio ha scritto:
Ciao Mario
On Fri, 30 Apr 2021 16:35:08 +0000 Mario Sabatino wrote:
https://digital-strategy.ec.europa.eu/en/library/proposal-regulation- laying-down-harmonised-rules-artificial-intelligence-artificial-intel ligence
Qualcuno è riuscito a scaricarli ? in effetti sembra che i documenti siano stati de-pubblicati, ma dalla Wayback Machine puoi ancora scaricarli
http://web.archive.org/web/20210428230907/https://digital-strategy.ec. europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules- artificial-intelligence-artificial-intelligence
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Questa email è stata esaminata alla ricerca di virus da AVG. http://www.avg.com
Grazie mille Monica, molto utile! A presto, Roberto Reale On Fri, Apr 30, 2021 at 6:51 PM monica.palmirani <monica.palmirani@unibo.it> wrote:
https://eur-lex.europa.eu/procedure/FI/2021_106 --> per seguire tutto il processo di co-decisione https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206 --> proposta dell'AI ACT mp Il 30/04/2021 18:44, Giacomo Tesio ha scritto:
Ciao Mario
On Fri, 30 Apr 2021 16:35:08 +0000 Mario Sabatino wrote:
https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-...
Qualcuno è riuscito a scaricarli ?
in effetti sembra che i documenti siano stati de-pubblicati, ma dalla Wayback Machine puoi ancora scaricarli
http://web.archive.org/web/20210428230907/https://digital-strategy.ec.europa...
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Grazie ! Mario Sabatino Il 30/04/2021 19:03, Roberto Reale ha scritto:
Grazie mille Monica, molto utile!
A presto, Roberto Reale
On Fri, Apr 30, 2021 at 6:51 PM monica.palmirani <monica.palmirani@unibo.it <mailto:monica.palmirani@unibo.it>> wrote:
https://eur-lex.europa.eu/procedure/FI/2021_106 <https://eur-lex.europa.eu/procedure/FI/2021_106> --> per seguire tutto il processo di co-decisione https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206 <https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206>
--> proposta dell'AI ACT mp Il 30/04/2021 18:44, Giacomo Tesio ha scritto: > Ciao Mario > > On Fri, 30 Apr 2021 16:35:08 +0000 Mario Sabatino wrote: > >> https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-... <https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-...> >> >> Qualcuno è riuscito a scaricarli ? > in effetti sembra che i documenti siano stati de-pubblicati, ma > dalla Wayback Machine puoi ancora scaricarli > > http://web.archive.org/web/20210428230907/https://digital-strategy.ec.europa... <http://web.archive.org/web/20210428230907/https://digital-strategy.ec.europa...> > > > Giacomo > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Come ben sapete la Commissione Europea ha elaborato una proposta di Regolamento che secondo gli annunci segna il primo quadro giuridico in assoluto sull'IA, affronta i rischi dell'IA e posiziona l'Europa per giocare un ruolo di primo piano a livello globale.
I primi commenti cominciano ad arrivare [1]. Da una veloce lettura mi sembra tutto molto condivisible (specie la classificazione dei sistemi ad alto rischio e le pratiche vietate). Una cosa a cui, secondo me, nel regolamento non è stato dato il giusto peso, seppur "considerata" è la complessità e l'incomprensibilità dei sistemi AI (di cui ai punti 47 e 48). (47) To address the opacity that may make certain AI systems incomprehensible to or too complex for natural persons, a certain degree of transparency should be required for high-risk AI systems. Users should be able to interpret the system output and use it appropriately. High-risk AI systems should therefore be accompanied by relevant documentation and instructions of use and include concise and clear information, including in relation to possible risks to fundamental rights and discrimination, where appropriate. (48) High-risk AI systems should be designed and developed in such a way that natural persons can oversee their functioning. For this purpose, appropriate human oversight measures should be identified by the provider of the system before its placing on the market or putting into service. In particular, where appropriate, such measures should guarantee that the system is subject to in-built operational constraints that cannot be overridden by the system itself and is responsive to the human operator, and that the natural persons to whom human oversight has been assigned have the necessary competence, training and authority to carry out that role. Antonio [1] https://www.agendadigitale.eu/cultura-digitale/commissione-ue-ecco-la-vera-f...
Antonio Iacono <antiac@gmail.com> writes:
Come ben sapete la Commissione Europea ha elaborato una proposta di Regolamento che secondo gli annunci segna il primo quadro giuridico in assoluto sull'IA, affronta i rischi dell'IA e posiziona l'Europa per giocare un ruolo di primo piano a livello globale.
I primi commenti cominciano ad arrivare [1]. Da una veloce lettura mi sembra tutto molto condivisible (specie la classificazione dei sistemi ad alto rischio e le pratiche vietate).
Io non ho avuto tempo di approfindire il testo della proposta, commento "di sponda"
Una cosa a cui, secondo me, nel regolamento non è stato dato il giusto peso, seppur "considerata" è la complessità e l'incomprensibilità dei sistemi AI (di cui ai punti 47 e 48).
Condivido in pieno la tua consierazione, in particolare in merito all'incomprensibilità: per essere documentata l'AI deve essere compresa, pare un'ovvietà ma con il deep-learning e le reti neurali /mi pare/ ancora non ci siamo.
(47) To address the opacity that may make certain AI systems incomprehensible to or too complex for natural persons, a certain degree of transparency should be required for high-risk AI systems.
Sono solo io che vedo l'incongruenza in "to address opacity [...] a certain degree of transparency should be required": /non/ spiegatela al "operaio di carate Brianza" l'AI, spiegatela (e documentatela) ai vostri colleghi scienziati, no? Qualcosa di "abbastanza trasparente" è scientifico? [...]
(48) High-risk AI systems should be designed and developed in such a way that natural persons can oversee their functioning. For this purpose, appropriate human oversight measures should be identified by the provider of the system before its placing on the market or putting into service. In particular, where appropriate, such measures should guarantee that the system is subject to in-built operational constraints that cannot be overridden by the system itself and is responsive to the human operator, and that the natural persons to whom human oversight has been assigned have the necessary competence, training and authority to carry out that role.
OK ma io mi domando se non sia il caso, allora, di /integrare/ la "Direttiva Macchine" (Direttiva 2006/42/CE del 17 maggio 2006) *e* tutte le norme "vecchio regime" prendendo in cosiderazione sistemi AI. ...quindi: questo /significa/ ad esempio che in EU le auto a guida autonoma saranno /vietate/? mumble mumble no: --8<---------------cut here---------------start------------->8--- A proposito di regole future, invece, per quanto riguarda la responsabilità civile dell’AI uscirà probabilmente una norma specifica. Un tema – affrontato da quest’ultimo – è come si mette su strada una macchina con IA (quali obblighi e criteri seguire); il secondo è che succede se va qualcosa di storto, come e chi bisogna assicurare. --8<---------------cut here---------------end--------------->8--- (cito dall'articolo indicato da Antonio, riportato sotto) Significa che anche in ambito militare verranno applicati questi principi (armi autonome bye bye)? No perché sinceramente, cari concittadini europei, non è proprio il caso di metterci il cuore in pace con "un marchio CE per prodotti AI", io direi.
[1] https://www.agendadigitale.eu/cultura-digitale/commissione-ue-ecco-la-vera-f...
Grazie Antonio per questo articolo. --8<---------------cut here---------------start------------->8--- * Pertanto, laddove l’intelligenza artificiale costituisce una componente essenziale per la sicurezza di un prodotto, le nuove regole si applicano direttamente per quanto riguarda i prodotti di “nuovo regime”. * Per quanto riguarda invece i prodotti di “vecchio regime”, le nuove regole si applicheranno solo a seguito dell’adozione da parte della Commissione di revisioni delle regolamentazioni settoriali. [...] Dovranno arrivare infatti gli standard che aiuteranno a rispettare gli obblighi previsti dal regolamento, facilitando il compito agli sviluppatori di IA. --8<---------------cut here---------------end--------------->8--- Per chi conosce la ratio del sistema "nuovo regime" questo significa che - esclusi i prodotti "vecchio regime" - i produttori potranno cantarsela e suonarsela da soli in merito all'AI, che tanto il codice sorgente utilizzato e i dati per fare il training dei sistemi non sono obbligati a pubblicarlo... o lo sono? Vi prego, stupitemi! :-D Ricordo, care nexiane, che (sempre nel quadro "nuovo regime") "gli standard che aiuteranno a rispettare gli obblighi" sono standard /volontari/, il vantaggio nel rispettarli è che così facendo i produttori possono certificare che i loro prodotti sono conformi alla direttiva EU (quella in approvazione sull'AI, per esempio) e così apporre la marcatura CE. Last but /not/ least sapete chi le fa le norme tecniche vero?!? ... indovinato, i produttori, sedendo nei comitati tecnici degli organi di standardizzazione: cosa potrà andare male? (chiedere a chi si è seduto a qualcuno di quei tavoli). Sul /sottoinsieme/ di problemi legati al riconoscimento facciale mi pare che la direttiva cerchi di arginare il dilagare di pratiche orwelliane, /tuttavia/: --8<---------------cut here---------------start------------->8--- Sul punto aggiungo solo che meriterebbe più attenzione il fatto che non si sappia molto della tecnologia di videosorveglianza già usata negli aeroporti: chi la produce, dove sono i dati. --8<---------------cut here---------------end--------------->8--- ...e di grazia, chi ci dovrebbe pensare a "fare attenzione" a quelle cose?!? Detto in altre parole, Lucilla Sioli e Roberto Viola ci stanno /forse/ dicendo che i dati raccolti coi sistemi di videosorveglianza negli aeroporti NON sono trattati conformemente al GDPR (e finiscono nel tritacarne dell'AI)? Mi perplimo. Saluti, Giovanni. -- Giovanni Biscuolo Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché.
Della proposta di regolamento mi preoccupano molti aspetti, speravo di riuscire ad approfondire meglio, ma vi invito a leggerla personalmente e non limitarvi ai miei commenti. In generale, vi vedo voragini e loop-hole mastodontici. Non definisce l'AI, dice che ci dovrebbe essere una definizione ma non propone alcun criterio per distinguere l'AI dal resto del software. Invece di fornire un principio generale che qualifichi una applicazione della AI come "high-risk" elenca alcuni casi specifici (peraltro omettendo le reti di comunicazione fra le infrastrutture strategiche). In realtà il principio generale sarebbe semplice da scrivere: è "high-risk" ogni applicazione della AI che utilizzi dati di origine umana o possa tecnicamente causare danni ad esseri umani. On Tue, 04 May 2021 20:26:27 +0200 Giovanni Biscuolo wrote:
Sono solo io che vedo l'incongruenza in "to address opacity [...] a certain degree of transparency should be required": /non/ spiegatela al "operaio di carate Brianza" l'AI, spiegatela (e documentatela) ai vostri colleghi scienziati, no? Qualcosa di "abbastanza trasparente" è scientifico?
Si dice che è necessario "un certo grado di trasparenza" e la possibilità di interpretare l'output per le persone, ma non si considera che non è l'output il problema di molte AI, ma il processo applicato per calcolarlo. E' quello che dovrebbe essere trasparente: non giustificare l'output.
Una cosa a cui, secondo me, nel regolamento non è stato dato il giusto peso, seppur "considerata" è la complessità e l'incomprensibilità dei sistemi AI (di cui ai punti 47 e 48).
Condivido in pieno la tua consierazione, in particolare in merito all'incomprensibilità: per essere documentata l'AI deve essere compresa, pare un'ovvietà ma con il deep-learning e le reti neurali /mi pare/ ancora non ci siamo.
Infatti si dice che è necessario una supervisione umana, ma non si chiarisce come possa un essere umano supervisionare l'elaborazione di una "rete neurale" con milioni di layers. In sostanza si prevede un Homer Simpson capro espiatorio sacrificale. Si parla di qualità dei dati etc, senza considerare che è sempre possibile imporre ad una rete neurale un certo bias, semplicemente selezionando quali dati utilizzare nella sua calibrazione in una pletora di dati di ottima qualità. Non si impone di mantenere tutti i dati utilizzati e tutti i modelli calibrati e cross-validati. Insomma, ad occhio questa proposta non è stata scritta per tutelare efficacemente i cittadini, ma per confonderli e sedarli. Giacomo
Grazie a tutti delle riflessioni! Io sto scrivendo un articolo per Agenda Digitale proprio su questo, ve lo faccio avere presto, spero Marco Fasoli Il giorno mar 4 mag 2021 alle ore 21:56 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Della proposta di regolamento mi preoccupano molti aspetti, speravo di riuscire ad approfondire meglio, ma vi invito a leggerla personalmente e non limitarvi ai miei commenti.
In generale, vi vedo voragini e loop-hole mastodontici.
Non definisce l'AI, dice che ci dovrebbe essere una definizione ma non propone alcun criterio per distinguere l'AI dal resto del software.
Invece di fornire un principio generale che qualifichi una applicazione della AI come "high-risk" elenca alcuni casi specifici (peraltro omettendo le reti di comunicazione fra le infrastrutture strategiche).
In realtà il principio generale sarebbe semplice da scrivere: è "high-risk" ogni applicazione della AI che utilizzi dati di origine umana o possa tecnicamente causare danni ad esseri umani.
On Tue, 04 May 2021 20:26:27 +0200 Giovanni Biscuolo wrote:
Sono solo io che vedo l'incongruenza in "to address opacity [...] a certain degree of transparency should be required": /non/ spiegatela al "operaio di carate Brianza" l'AI, spiegatela (e documentatela) ai vostri colleghi scienziati, no? Qualcosa di "abbastanza trasparente" è scientifico?
Si dice che è necessario "un certo grado di trasparenza" e la possibilità di interpretare l'output per le persone, ma non si considera che non è l'output il problema di molte AI, ma il processo applicato per calcolarlo. E' quello che dovrebbe essere trasparente: non giustificare l'output.
Una cosa a cui, secondo me, nel regolamento non è stato dato il giusto peso, seppur "considerata" è la complessità e l'incomprensibilità dei sistemi AI (di cui ai punti 47 e 48).
Condivido in pieno la tua consierazione, in particolare in merito all'incomprensibilità: per essere documentata l'AI deve essere compresa, pare un'ovvietà ma con il deep-learning e le reti neurali /mi pare/ ancora non ci siamo.
Infatti si dice che è necessario una supervisione umana, ma non si chiarisce come possa un essere umano supervisionare l'elaborazione di una "rete neurale" con milioni di layers. In sostanza si prevede un Homer Simpson capro espiatorio sacrificale.
Si parla di qualità dei dati etc, senza considerare che è sempre possibile imporre ad una rete neurale un certo bias, semplicemente selezionando quali dati utilizzare nella sua calibrazione in una pletora di dati di ottima qualità. Non si impone di mantenere tutti i dati utilizzati e tutti i modelli calibrati e cross-validati.
Insomma, ad occhio questa proposta non è stata scritta per tutelare efficacemente i cittadini, ma per confonderli e sedarli.
Giacomo
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
participants (9)
-
Antonio Iacono -
Giacomo Tesio -
Giovanni Biscuolo -
lorenzo albertini -
Marco Fasoli -
Mario Sabatino -
monica.palmirani -
Paolo Giardini -
Roberto Reale