China to require ‘security assessment’ for new AI products
*China to require ‘security assessment’ for new AI products* AFP April 11, 2023 5:21 am New AI products developed in China will have to undergo a security assessment before being released and must reflect “core socialist values”, a sweeping new draft law by the country’s internet regulator showed Tuesday. The fresh regulations come as a flurry of Chinese companies rush to develop artificial intelligence services that can mimic human speech since San Francisco-based OpenAI launched ChatGPT in November, sparking a gold rush in the market. Rapid advancements in AI have stoked global alarm over the technology’s potential for disinformation and misuse, with deepfake images and people shown mouthing things they never said. “Before providing services to the public that use generative AI products, a security assessment shall be applied for through national internet regulatory departments,” the draft law, released by the Cyberspace Administration of China, reads. continua qui: https://insiderpaper.com/china-draft-law-to-require-security-assessment-for-...
Non mi pare di aver letto reazioni a questa notizia (grazie JC!) nonostante riporti qualcosa di così fondamentale a proposito dei sistemi basati sull'intelligenza artificiale, che ogni altra riflessione dovrebbe essere secondaria. QUALUNQUE altro prodotto immesso nell'uso pubblico DEVE soddisfare requisiti di sicurezza. Mi correggeranno eventualmente i giuristi in lista, ma mi pare che anche per prodotti di tipologie commerciali non soggette a specifici regolamenti tecnici si applica per default qualche norma del codice civile. Non capisco perché dovremmo consentire eccezioni per ChatGPT & Co. Il che NON VUOL DIRE che laboratori privati e pubblici, aziendali e accademici, non possano continuare a fare ricerca in questo ambito. Solo che non possiamo immettere in commercio prodotti che possono causare danni (come voleva far capire il mio esempio del mini-reattore nucleare qua https://link-and-think.blogspot.com/2023/04/il-potere-dellintelligenza-artif... ). Aggiungo che, sinceramente, avrei preferito vedere l'Occidente all'avanguardia sul tema della sicurezza ... e magari anche su quello della socialdemocrazia ... all'europea, però ... :-) Ciao, Enrico Il 13/04/2023 07:22, J.C. DE MARTIN ha scritto:
*China to require ‘security assessment’ for new AI products* AFP
April 11, 2023 5:21 am
New AI products developed in China will have to undergo a security assessment before being released and must reflect “core socialist values”, a sweeping new draft law by the country’s internet regulator showed Tuesday.
The fresh regulations come as a flurry of Chinese companies rush to develop artificial intelligence services that can mimic human speech since San Francisco-based OpenAI launched ChatGPT in November, sparking a gold rush in the market.
Rapid advancements in AI have stoked global alarm over the technology’s potential for disinformation and misuse, with deepfake images and people shown mouthing things they never said.
“Before providing services to the public that use generative AI products, a security assessment shall be applied for through national internet regulatory departments,” the draft law, released by the Cyberspace Administration of China, reads.
continua qui:
https://insiderpaper.com/china-draft-law-to-require-security-assessment-for-...
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa --
-- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Aggiungo (ho letto la sua mail solo dopo aver inviato questa) che è rilevante per questo tema il recente messaggio di Maria Chiara Pievatolo che ricordava ------ Oggi, a proposito del fumo, a nessuno verrebbe in mente di sostenere che la controversia che oppose B&W a 46 stati americani (https://wikiless.org/wiki/Brown_%26_Williamson?lang=en) era un conflitto fra l'innovazione privata e l'ossessione regolativa di uno stato arretrato e oscurantista, ma le cose sarebbero potute andare diversamente, se non ci fosse stata una stampa indipendente e una crescente percezione sociale della pericolosità del tabacco. ----- Parafrasando le sue parole verrebbe da chiedersi se qualcuno ritiene che la controversia che oppone il Garante e OpenAI è un «conflitto tra l'innovazione privata e l'ossessione regolativa di uno stato arretrato e oscurantista»... :-) Ciao, Enrico Il 16/04/2023 12:13, Enrico Nardelli ha scritto:
Non mi pare di aver letto reazioni a questa notizia (grazie JC!) nonostante riporti qualcosa di così fondamentale a proposito dei sistemi basati sull'intelligenza artificiale, che ogni altra riflessione dovrebbe essere secondaria.
QUALUNQUE altro prodotto immesso nell'uso pubblico DEVE soddisfare requisiti di sicurezza. Mi correggeranno eventualmente i giuristi in lista, ma mi pare che anche per prodotti di tipologie commerciali non soggette a specifici regolamenti tecnici si applica per default qualche norma del codice civile.
Non capisco perché dovremmo consentire eccezioni per ChatGPT & Co. Il che NON VUOL DIRE che laboratori privati e pubblici, aziendali e accademici, non possano continuare a fare ricerca in questo ambito. Solo che non possiamo immettere in commercio prodotti che possono causare danni (come voleva far capire il mio esempio del mini-reattore nucleare qua https://link-and-think.blogspot.com/2023/04/il-potere-dellintelligenza-artif... ).
Aggiungo che, sinceramente, avrei preferito vedere l'Occidente all'avanguardia sul tema della sicurezza ... e magari anche su quello della socialdemocrazia ... all'europea, però ... :-)
Ciao, Enrico
Il 13/04/2023 07:22, J.C. DE MARTIN ha scritto:
*China to require ‘security assessment’ for new AI products* AFP
April 11, 2023 5:21 am
New AI products developed in China will have to undergo a security assessment before being released and must reflect “core socialist values”, a sweeping new draft law by the country’s internet regulator showed Tuesday.
The fresh regulations come as a flurry of Chinese companies rush to develop artificial intelligence services that can mimic human speech since San Francisco-based OpenAI launched ChatGPT in November, sparking a gold rush in the market.
Rapid advancements in AI have stoked global alarm over the technology’s potential for disinformation and misuse, with deepfake images and people shown mouthing things they never said.
“Before providing services to the public that use generative AI products, a security assessment shall be applied for through national internet regulatory departments,” the draft law, released by the Cyberspace Administration of China, reads.
continua qui:
https://insiderpaper.com/china-draft-law-to-require-security-assessment-for-...
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa --
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ======================================================
--
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
La Cina aveva gia’ bloccato l’accesso a ChatGPT a febbraio, accusando Open AI di fare propaganda politica (‘Political propaganda’: China clamps down on access to ChatGPT | Artificial intelligence (AI) | The Guardian<https://www.theguardian.com/technology/2023/feb/23/china-chatgpt-clamp-down-...>) e qui in USA tutti a sproloquiare del regime dittatoriale cinese che blocca la liberta’ di parola. Poi anche il nostro Congresso s’e’ messo di buzzo buono per bloccare TikTok (il Montana e’ il primo stato che l’ha fatto), ed ora i toni si sono smorzati, vista l’ipocrisia. Un commento interessante e’ quello di Eric Schmidt della settimana scorsa, sicuramente motivato dai suoi interessi personali, che riflette sulla non prevedibilita’ degli effetti secondari dell’AI, non tanto per l’algoritmo specifico che potrebbe causare un qualche danno, ma per la mancata comprensione di come questi sono collegati in tutto il mondo. Stesso pensiero espresso da David Auerbach nei giorni scorsi (Why No One Can Control AI | The Free Press (thefp.com)<https://www.thefp.com/p/why-no-one-can-control-ai> Buona Domenica rob From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Enrico Nardelli Sent: Sunday, April 16, 2023 5:13 AM To: nexa@server-nexa.polito.it Subject: Re: [nexa] China to require ‘security assessment’ for new AI products Non mi pare di aver letto reazioni a questa notizia (grazie JC!) nonostante riporti qualcosa di così fondamentale a proposito dei sistemi basati sull'intelligenza artificiale, che ogni altra riflessione dovrebbe essere secondaria. QUALUNQUE altro prodotto immesso nell'uso pubblico DEVE soddisfare requisiti di sicurezza. Mi correggeranno eventualmente i giuristi in lista, ma mi pare che anche per prodotti di tipologie commerciali non soggette a specifici regolamenti tecnici si applica per default qualche norma del codice civile. Non capisco perché dovremmo consentire eccezioni per ChatGPT & Co. Il che NON VUOL DIRE che laboratori privati e pubblici, aziendali e accademici, non possano continuare a fare ricerca in questo ambito. Solo che non possiamo immettere in commercio prodotti che possono causare danni (come voleva far capire il mio esempio del mini-reattore nucleare qua https://link-and-think.blogspot.com/2023/04/il-potere-dellintelligenza-artif... ). Aggiungo che, sinceramente, avrei preferito vedere l'Occidente all'avanguardia sul tema della sicurezza ... e magari anche su quello della socialdemocrazia ... all'europea, però ... :-) Ciao, Enrico Il 13/04/2023 07:22, J.C. DE MARTIN ha scritto: China to require ‘security assessment’ for new AI products AFP April 11, 2023 5:21 am New AI products developed in China will have to undergo a security assessment before being released and must reflect “core socialist values”, a sweeping new draft law by the country’s internet regulator showed Tuesday. The fresh regulations come as a flurry of Chinese companies rush to develop artificial intelligence services that can mimic human speech since San Francisco-based OpenAI launched ChatGPT in November, sparking a gold rush in the market. Rapid advancements in AI have stoked global alarm over the technology’s potential for disinformation and misuse, with deepfake images and people shown mouthing things they never said. “Before providing services to the public that use generative AI products, a security assessment shall be applied for through national internet regulatory departments,” the draft law, released by the Cyberspace Administration of China, reads. continua qui: https://insiderpaper.com/china-draft-law-to-require-security-assessment-for-... _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa -- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html [cid:image001.png@01D9703F.57E164A0] ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it<mailto:nardelli@mat.uniroma2.it> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
On Sun, Apr 16, 2023 at 12:13:20PM +0200, Enrico Nardelli wrote:
QUALUNQUE altro prodotto immesso nell'uso pubblico DEVE soddisfare requisiti di sicurezza.
... tranne il software. Certamente ci sarà qualche requisito che si applica in automatico anche al software --- e mi appello anche io ai giuristi in lista per precisarlo --- ma la barra di accesso al mercato del software è bassissima. Di default, chiunque può pubblicare prodotti software su svariati app store senza alcun controllo a monte (salvo quelli automatici implementati dagli app store dei vari GAFAM). Il CRA (Cyber Resilience Act) europeo va nella direzione di aggiungere tali controlli, sotto forma di (auto-)certificazioni e questo ha provocato una sollevata di scudi da parte del mondo free/open source software. (Ne abbiamo già parlato separatamente in lista.) Dico questo non per controbattere al tuo argomento, Enrico, che trovo in se ragionevole. Ma per osservare che qui siamo anche perché per decenni l'industria del software (compresa quella FOSS!, fatta anche di volontari/ non-profit/ etc. che non potrebbero permettersi l'overhead dei controlli) è fiorita grazie all'assenza dei controlli che ora si invocano. Trovare un giusto mezzo tra lo status quo ed il desiderio di regolamentare prodotti "che contengono AI" non sarà affatto banale. Saluti a tutti -- Stefano Zacchiroli . zack@upsilon.cc . https://upsilon.cc/zack _. ^ ._ Full professor of Computer Science o o o \/|V|\/ Télécom Paris, Polytechnic Institute of Paris o o o </> <\> Co-founder & CTO Software Heritage o o o o /\|^|/\ https://twitter.com/zacchiro . https://mastodon.xyz/@zacchiro '" V "'
Sono d'accordo con te Stefano. Ero consapevole dell'eccezione costituita dal software ma non volevo complicare il ragionamento. In effetti, forse la comunità "in-the-large" degli informatici dovrebbe smettere di "indossare i calzoni corti" ed assumersi le responsabilità per i propri prodotti come accade negli altri settori tecnologici, per lo meno in quei casi in cui il prodotto software viene venduto o dato in licenza. (Se ti regalo una macchina rotta non ha senso che ti lamenti che sia rotta se ti ho avvisato che potrebbe essere rotta). Mi è chiaro l'enorme impatto (non solo economico) di un'affermazione di questo genere ma, per stemperare l'osservazione con una battuta, se vogliamo essere chiamati "ingegneri del software" dobbiamo fare gli ingegneri veri, che (normalmente) vanno in galera se il palazzo che hanno costruito crolla perché non hanno verificato adeguatamente i calcoli. Diciamo che in questo ambito l'arrivo di ChatGPT è stato il bambino è che ha gridato "il re è nudo" ... Ciao, Enrico Il 16/04/2023 18:09, Stefano Zacchiroli ha scritto:
On Sun, Apr 16, 2023 at 12:13:20PM +0200, Enrico Nardelli wrote:
QUALUNQUE altro prodotto immesso nell'uso pubblico DEVE soddisfare requisiti di sicurezza. ... tranne il software. Certamente ci sarà qualche requisito che si applica in automatico anche al software --- e mi appello anche io ai giuristi in lista per precisarlo --- ma la barra di accesso al mercato del software è bassissima. Di default, chiunque può pubblicare prodotti software su svariati app store senza alcun controllo a monte (salvo quelli automatici implementati dagli app store dei vari GAFAM).
Il CRA (Cyber Resilience Act) europeo va nella direzione di aggiungere tali controlli, sotto forma di (auto-)certificazioni e questo ha provocato una sollevata di scudi da parte del mondo free/open source software. (Ne abbiamo già parlato separatamente in lista.)
Dico questo non per controbattere al tuo argomento, Enrico, che trovo in se ragionevole. Ma per osservare che qui siamo anche perché per decenni l'industria del software (compresa quella FOSS!, fatta anche di volontari/ non-profit/ etc. che non potrebbero permettersi l'overhead dei controlli) è fiorita grazie all'assenza dei controlli che ora si invocano.
Trovare un giusto mezzo tra lo status quo ed il desiderio di regolamentare prodotti "che contengono AI" non sarà affatto banale.
Saluti a tutti --
-- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Caro Enrico, concordo pienamente con la tua connessione tra "computer professionals" e "social responsibility":
In effetti, forse la comunità "in-the-large" degli informatici dovrebbe smettere di "indossare i calzoni corti" ed assumersi le responsabilità per i propri prodotti come accade >negli altri settori tecnologici
una volta c'era anche una fantastica organizzazione "Computer Professionals for Social Responsibility" purtroppo "dissolved" nel 2013 https://en.wikipedia.org/wiki/Computer_Professionals_for_Social_Responsibili... da quella straordinaria avventura sono pero' nate molte storie che continuano, per esempio nel ACM Code of Ethics, aggiornato nel 2018, che indica al punto 2.9: "In cases where misuse or harm are predictable or unavoidable, the best option may be to not implement the system." https://www.acm.org/code-of-ethics Come membro dell'ACM Committee on Professional Ethics ricordo le lunghe e interessanti discussioni sulla necessita' anche per gli informatici di "assumersi le responsabilita' dei propri prodotti" (come suggerisci tu) nella tua mail. Sullo stesso tema anche questa e' una lettura interessante: Deborah G.Johnson (2008). Computer Experts: Guns-For-Hire or Professionals? Communications of the ACM, October 2008, Vol. 51 No. 10, Pages 24-26. scusate per la lunghezza ... un caro saluto, Norberto ________________________________ From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Enrico Nardelli <nardelli@mat.uniroma2.it> Sent: Sunday, April 16, 2023 10:52 PM To: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it> Subject: Re: [nexa] China to require ‘security assessment’ for new AI products Sono d'accordo con te Stefano. Ero consapevole dell'eccezione costituita dal software ma non volevo complicare il ragionamento. In effetti, forse la comunità "in-the-large" degli informatici dovrebbe smettere di "indossare i calzoni corti" ed assumersi le responsabilità per i propri prodotti come accade negli altri settori tecnologici, per lo meno in quei casi in cui il prodotto software viene venduto o dato in licenza. (Se ti regalo una macchina rotta non ha senso che ti lamenti che sia rotta se ti ho avvisato che potrebbe essere rotta). Mi è chiaro l'enorme impatto (non solo economico) di un'affermazione di questo genere ma, per stemperare l'osservazione con una battuta, se vogliamo essere chiamati "ingegneri del software" dobbiamo fare gli ingegneri veri, che (normalmente) vanno in galera se il palazzo che hanno costruito crolla perché non hanno verificato adeguatamente i calcoli. Diciamo che in questo ambito l'arrivo di ChatGPT è stato il bambino è che ha gridato "il re è nudo" ... Ciao, Enrico Il 16/04/2023 18:09, Stefano Zacchiroli ha scritto: On Sun, Apr 16, 2023 at 12:13:20PM +0200, Enrico Nardelli wrote: QUALUNQUE altro prodotto immesso nell'uso pubblico DEVE soddisfare requisiti di sicurezza. ... tranne il software. Certamente ci sarà qualche requisito che si applica in automatico anche al software --- e mi appello anche io ai giuristi in lista per precisarlo --- ma la barra di accesso al mercato del software è bassissima. Di default, chiunque può pubblicare prodotti software su svariati app store senza alcun controllo a monte (salvo quelli automatici implementati dagli app store dei vari GAFAM). Il CRA (Cyber Resilience Act) europeo va nella direzione di aggiungere tali controlli, sotto forma di (auto-)certificazioni e questo ha provocato una sollevata di scudi da parte del mondo free/open source software. (Ne abbiamo già parlato separatamente in lista.) Dico questo non per controbattere al tuo argomento, Enrico, che trovo in se ragionevole. Ma per osservare che qui siamo anche perché per decenni l'industria del software (compresa quella FOSS!, fatta anche di volontari/ non-profit/ etc. che non potrebbero permettersi l'overhead dei controlli) è fiorita grazie all'assenza dei controlli che ora si invocano. Trovare un giusto mezzo tra lo status quo ed il desiderio di regolamentare prodotti "che contengono AI" non sarà affatto banale. Saluti a tutti -- -- EN https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html [cid:part1.txthVD5p.SGc078mC@mat.uniroma2.it] ====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it<mailto:nardelli@mat.uniroma2.it> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== --
Buongiorno, Stefano Zacchiroli <zack@upsilon.cc> writes:
On Sun, Apr 16, 2023 at 12:13:20PM +0200, Enrico Nardelli wrote:
QUALUNQUE altro prodotto immesso nell'uso pubblico DEVE soddisfare requisiti di sicurezza.
[...]
Trovare un giusto mezzo tra lo status quo ed il desiderio di regolamentare prodotti "che contengono AI" non sarà affatto banale.
Non esiste un "giusto mezzo", c'è solo e unicamente un modo per verificare se il software è adeguato all'uso [1]: avere a disposizione il sorgente (e nel caso dell'AI è un casino, come ha correttamente spiegato più volte Giacomo Tesio) ...altro che assessment, certificazioni o supercazzole eseguite avendo a disposizione solo il binario saluti, 380° [1] e questo lo deve fare l'utilizzatore, non lo sviluppaore... e l'utilizzatore è chi immette sul mercato il servizio [2] (o prodotto [3] che incopora software), non l'utente [2] servizi finanziari sono regolati, il servizio sanitario è regolato, la pubblicità ingannevole (rif. https://www.ftc.gov/system/files/ftc_gov/pdf/Early-Thoughts-on-Generative-AI...) [3] quando il software è incorporato in un prodotto, esistono /tonnellate/ di norme in merito, a volte inapplicate /esattamente/ perché si _delega_ l'indelegabile al software -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
participants (6)
-
380° -
Enrico Nardelli -
J.C. DE MARTIN -
Norberto Patrignani -
Roberto Dolci -
Stefano Zacchiroli