La Cina aveva gia’ bloccato l’accesso a ChatGPT a febbraio, accusando Open AI di fare propaganda politica (‘Political
propaganda’: China clamps down on access to ChatGPT | Artificial intelligence (AI) | The Guardian) e qui in USA tutti a sproloquiare del regime dittatoriale cinese che blocca la liberta’ di parola. Poi anche il nostro Congresso s’e’
messo di buzzo buono per bloccare TikTok (il Montana e’ il primo stato che l’ha fatto), ed ora i toni si sono smorzati, vista l’ipocrisia.
Un commento interessante e’ quello di Eric Schmidt della settimana scorsa, sicuramente motivato dai suoi interessi personali, che riflette sulla non prevedibilita’ degli effetti secondari dell’AI, non tanto per l’algoritmo
specifico che potrebbe causare un qualche danno, ma per la mancata comprensione di come questi sono collegati in tutto il mondo. Stesso pensiero espresso da David Auerbach nei giorni scorsi (Why
No One Can Control AI | The Free Press (thefp.com)
Buona Domenica
rob
From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of
Enrico Nardelli
Sent: Sunday, April 16, 2023 5:13 AM
To: nexa@server-nexa.polito.it
Subject: Re: [nexa] China to require ‘security assessment’ for new AI products
Non mi pare di aver letto reazioni a questa notizia (grazie JC!) nonostante riporti qualcosa di così fondamentale a proposito dei sistemi basati sull'intelligenza artificiale, che ogni altra riflessione dovrebbe essere secondaria.
QUALUNQUE altro prodotto immesso nell'uso pubblico DEVE soddisfare requisiti di sicurezza. Mi correggeranno eventualmente i giuristi in lista, ma mi pare che anche per prodotti di tipologie commerciali non soggette a specifici regolamenti tecnici si applica
per default qualche norma del codice civile.
Non capisco perché dovremmo consentire eccezioni per ChatGPT & Co. Il che NON VUOL DIRE che laboratori privati e pubblici, aziendali e accademici, non possano continuare a fare ricerca in questo ambito. Solo che non possiamo immettere in commercio prodotti
che possono causare danni (come voleva far capire il mio esempio del mini-reattore nucleare qua
https://link-and-think.blogspot.com/2023/04/il-potere-dellintelligenza-artificiale.html ).
Aggiungo che, sinceramente, avrei preferito vedere l'Occidente all'avanguardia sul tema della sicurezza ... e magari anche su quello della socialdemocrazia ... all'europea, però ... :-)
Ciao, Enrico
Il 13/04/2023 07:22, J.C. DE MARTIN ha scritto:
China to require ‘security assessment’ for new AI products
AFP
April 11, 2023 5:21 am
New AI products developed in China will have to undergo a security assessment before being released and must reflect “core socialist values”, a sweeping new draft law by the country’s internet regulator showed Tuesday.
The fresh regulations come as a flurry of Chinese companies rush to develop artificial intelligence services that can mimic human speech since San Francisco-based OpenAI launched ChatGPT in November, sparking a gold rush in the market.
Rapid advancements in AI have stoked global alarm over the technology’s potential for disinformation and misuse, with deepfake images and people shown mouthing things they never said.
“Before providing services to the public that use generative AI products, a security assessment shall be applied for through national internet regulatory departments,” the draft law, released by the Cyberspace Administration of China, reads.
continua qui:
https://insiderpaper.com/china-draft-law-to-require-security-assessment-for-new-ai-products/
_______________________________________________nexa mailing listnexa@server-nexa.polito.ithttps://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
|
|
====================================================== |
--