ChatGPT invented a sexual harassment scandal and named a real law prof as the accused
ChatGPT invented a sexual harassment scandal and named a real law prof as the accused The AI chatbot can misrepresent key facts with great flourish, even citing a fake Washington Post article as evidence April 5, 2023 at 2:07 p.m. EDT One night last week, the law professor Jonathan Turley got a troubling email. As part of a research study, a fellow lawyer in California had asked the AI chatbot ChatGPT to generate a list of legal scholars who had sexually harassed someone. Turley’s name was on the list. Tech is not your friend. We are. Sign up for The Tech Friend newsletter. The chatbot, created by OpenAI, said Turley had made sexually suggestive comments and attempted to touch a student while on a class trip to Alaska, citing a March 2018 article in The Washington Post as the source of the information. The problem: No such article existed. There had never been a class trip to Alaska. And Turley said he’d never been accused of harassing a student. A regular commentator in the media, Turley had sometimes asked for corrections in news stories. But this time, there was no journalist or editor to call — and no way to correct the record. (continua qui: https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/) --
Buongiorno. Grazie della segnalazione. Gli effetti ulteriori saranno i seguenti (i punti da 0. a 2. hanno già avuto luogo nel caso in oggetto*): 0. un generatore di stringhe di testo (nel caso citato, ChatGPT) restituisce, a x oppure a y, un output D, diffamatorio nei riguardi di x; 1. x rettifica pubblicamente, online, ovviamente citando il testo della diffamazione D; 2. il testo della diffamazione D è prelevato da un generatore di testo con accesso alla rete (nel caso in oggetto, Bing), che la restituisce all'utente z quale output; 3. l'utente z procede come i molti che vanno cercando in libreria i libri indicati da ChatGPT: diffonde la diffamazione D, ritenendola fondata; 4. la vita di x è rovinata. *<https://nitter.snopyta.org/WillOremus/status/1643687459627180057> Un saluto, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Benedetto Ponti <benedetto.ponti@unipg.it> Inviato: giovedì 6 aprile 2023 07:38 A: nexa@server-nexa.polito.it Oggetto: [nexa] ChatGPT invented a sexual harassment scandal and named a real law prof as the accused ChatGPT invented a sexual harassment scandal and named a real law prof as the accused The AI chatbot can misrepresent key facts with great flourish, even citing a fake Washington Post article as evidence April 5, 2023 at 2:07 p.m. EDT One night last week, the law professor Jonathan Turley got a troubling email. As part of a research study, a fellow lawyer in California had asked the AI chatbot ChatGPT to generate a list of legal scholars who had sexually harassed someone. Turley’s name was on the list. Tech is not your friend. We are. Sign up for The Tech Friend newsletter. The chatbot, created by OpenAI, said Turley had made sexually suggestive comments and attempted to touch a student while on a class trip to Alaska, citing a March 2018 article in The Washington Post as the source of the information. The problem: No such article existed. There had never been a class trip to Alaska. And Turley said he’d never been accused of harassing a student. A regular commentator in the media, Turley had sometimes asked for corrections in news stories. But this time, there was no journalist or editor to call — and no way to correct the record. (continua qui: https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304060539020845612&URLID=2&ESV=10.0.19.7431&IV=52AE21EEC614F75803E2A2B176C28634&TT=1680759958875&ESN=bshaqVWghDEfxuQYwL92sgDdZ6u8lWuiWwoEqSZ6L30%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cud2FzaGluZ3RvbnBvc3QuY29tL3RlY2hub2xvZ3kvMjAyMy8wNC8wNS9jaGF0Z3B0LWxpZXMv&HK=920937E298E6271A6D5AD02765C2A7F89425C7FA1B7FB2CC7641D0F1462CE371>) -- [cid:part1.0yNHdZM6.E7kktMnf@unipg.it]
Mah, ho dei dubbi. I punti 0 e 1 sono nodali per una qualche responsabilità e qui manca un pezzo fondamentale: la diffamazione si consuma quando la frase lesiva viene percepita almeno dal secondo soggetto (io posso dire o sentire le peggiori cose riguardanti un terzo in una conversazione 1a1 e per fortuna non è reato!!) Chi è responsabile di aver diffuso ad almeno due persone le frasi diffamatorie in questo caso? Poi il problema resta eh, ma non nei termini indicati. Qui x si è se va bene autodiffamato, subendo poi le conseguenze della circolazione di quella diffamazione. Un effetto Streisand perfetto. Poi ripeto, il problema resta e il servizio non può non consentire, come avverrebbe nel mondo reale, un "chiarimento" per evitare altre possibili ma non scontate comunicazioni a terzi. Però dobbiamo come ho già detto spostare il focus da macchina e messaggio, e andare sugli attori. È tutto complicato... CB Il gio 6 apr 2023, 11:03 Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
Buongiorno.
Grazie della segnalazione.
Gli effetti ulteriori saranno i seguenti (i punti da 0. a 2. hanno già avuto luogo nel caso in oggetto*):
0. un generatore di stringhe di testo (nel caso citato, ChatGPT) restituisce, a x oppure a y, un output D, diffamatorio nei riguardi di x;
1. x rettifica pubblicamente, online, ovviamente citando il testo della diffamazione D; 2. il testo della diffamazione D è prelevato da un generatore di testo con accesso alla rete (nel caso in oggetto, Bing), che la restituisce all'utente z quale output;
3. l'utente z procede come i molti che vanno cercando in libreria i libri indicati da ChatGPT: diffonde la diffamazione D, ritenendola fondata; 4. la vita di x è rovinata.
*<https://nitter.snopyta.org/WillOremus/status/1643687459627180057>
Un saluto, Daniela
------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di Benedetto Ponti <benedetto.ponti@unipg.it> *Inviato:* giovedì 6 aprile 2023 07:38 *A:* nexa@server-nexa.polito.it *Oggetto:* [nexa] ChatGPT invented a sexual harassment scandal and named a real law prof as the accused
ChatGPT invented a sexual harassment scandal and named a real law prof as the accused
The AI chatbot can misrepresent key facts with great flourish, even citing a fake Washington Post article as evidence
April 5, 2023 at 2:07 p.m. EDT
One night last week, the law professor Jonathan Turley got a troubling email. As part of a research study, a fellow lawyer in California had asked the AI chatbot ChatGPT to generate a list of legal scholars who had sexually harassed someone. Turley’s name was on the list. Tech is not your friend. We are. Sign up for The Tech Friend newsletter.
The chatbot, created by OpenAI, said Turley had made sexually suggestive comments and attempted to touch a student while on a class trip to Alaska, citing a March 2018 article in The Washington Post as the source of the information. The problem: No such article existed. There had never been a class trip to Alaska. And Turley said he’d never been accused of harassing a student.
A regular commentator in the media, Turley had sometimes asked for corrections in news stories. But this time, there was no journalist or editor to call — and no way to correct the record.
(continua qui:
https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/ <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304060539020845612...> ) -- _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Ciao Carlo, On Thu, 6 Apr 2023 11:54:50 +0200 Carlo Blengino wrote:
È tutto complicato...
in realtà, da una prospettiva informatica è banale.
Chi è responsabile di aver diffuso ad almeno due persone le frasi diffamatorie in questo caso?
Vediamo se riusciamo a rispondere con uno schema (da visualizzare con un font monospace) +Rete di OpenAI-------+ +-> Persona 1 | | | | Server ChatGPT-[MD]-+-[MD]--+-> Persona 2 | | | +---------------------+ +-> Persona 3 | ... Lo schema è semplificato (ci sono vari server frontend nella rete etc..), ma il messaggio diffamatorio MD viene inviato dai server di OpenAI ai browser di N persone in risposta a richieste innocue. Chi è responsabile di aver diffuso ad almeno due persone le frasi diffamatorie in questo caso? Visto che GPT4 è stato costruito da OpenAI per rispondere a domande delle persone, direi che la responsabilità delle risposte è di Open AI. Mi sfugge qualcosa?
[...] Però dobbiamo come ho già detto spostare il focus da macchina e messaggio, e andare sugli attori.
Sono assolutamente d'accordo! Smettiamo di focalizzarci sul software, e concentriamoci su chi l'ha programmato, chi lo esegue manutiene e amministra etc... Iniziamo finalmente a considerare responsabili le persone che si vogliono nascondere dietro software opachi per violare impunemente i diritti altrui? Giacomo
On 06/04/23 18:53, Giacomo Tesio wrote:
Chi è responsabile di aver diffuso ad almeno due persone le frasi diffamatorie in questo caso?
Visto che GPT4 è stato costruito da OpenAI per rispondere a domande delle persone, direi che la responsabilità delle risposte è di Open AI.
E se per amor di discussione immaginassimo una situazione in cui, almeno provvisoriamente, solo Q, a un suo specifico quesito, ricevesse una risposta potenzialmente diffamatoria, e da studioso, conoscendo i precedenti, la rendesse pubblica sia per difendersi sia per mostrare la pericolosità dei SALAMI senza coinvolger terzi, dovremmo sostenere che il suo esercizio dell'uso pubblico della ragione è una forma di auto-diffamazione della quale deve incolpare soltanto se stesso? Non so che ne penserebbero i giudici a Berlino. In Toscana, però, qualcuno è riuscito a concepire un tribunale che, avendo già avuto una causa di cui era parte un artefatto, a questa domanda risponderebbe di sì: https://corpus15.wordpress.com/2016/01/04/grandecollodi-8/ Con i migliori auguri, MCP
Buongiorno, avrei bisogno di un chiarimento per favore Carlo Blengino <blengino@penalistiassociati.it> writes:
Mah, ho dei dubbi. I punti 0 e 1 sono nodali per una qualche responsabilità
li riporto qui per completezza
0. un generatore di stringhe di testo (nel caso citato, ChatGPT) restituisce, a x oppure a y, un output D, diffamatorio nei riguardi di x;
1. x rettifica pubblicamente, online, ovviamente citando il testo della diffamazione D;
e qui manca un pezzo fondamentale: la diffamazione si consuma quando la frase lesiva viene percepita almeno dal secondo soggetto (io posso dire o sentire le peggiori cose riguardanti un terzo in una conversazione 1a1 e per fortuna non è reato!!)
il fatto è descritto nell'articolo in questo modo: --8<---------------cut here---------------start------------->8--- One night last week, the law professor Jonathan Turley got a troubling email. As part of a research study, a fellow lawyer in California had asked the AI chatbot ChatGPT to generate a list of legal scholars who had sexually harassed someone. Turley’s name was on the list. The chatbot, created by OpenAI, said Turley had made sexually suggestive comments and attempted to touch a student while on a class trip to Alaska, citing a March 2018 article in The Washington Post as the source of the information. The problem: No such article existed. There had never been a class trip to Alaska. And Turley said he’d never been accused of harassing a student. --8<---------------cut here---------------end--------------->8--- Quindi una persona y chiede un elenco di giuristi che hanno molestato sessualmente qualcuno a ChatGPT, non è x (Turley) a chiedere l'elenco a ChatGPT; x (Turley) ne viene a conoscenza perché è y che glielo riferisce
Chi è responsabile di aver diffuso ad almeno due persone le frasi diffamatorie in questo caso?
Quindi ChatGPT fornisce a un terzo un messaggio che è **SPACCIATO** [1] come notizia, contiene informazioni false e /potenzialmente/ diffamatorie portando a sostegno un articolo inventato e il *cornuto* è Turley? :-D
Poi il problema resta eh, ma non nei termini indicati.
In che termini giuridici possiamo inquadrare allora questo problema? Turley a chi si può rivolgere per tutelare la propria reputazione? In che modo le persone possono difendersi dal fatto che ChatGPT (et al) diffondono notizie false sul proprio conto? Perché OpenAI e tutti quelli che offrono servizi analoghi non scrivono chiaramente in **ogni** messaggio che si tratta di /fiction/ _e_ intimano a tutti i propri utenti che non devono rimuovere tale disclaimer? Ma anche se ci fosse tale "disclaimer" per evitare potenziale diffamazione, sarebbe sufficiente a tutelare il diritto delle persone nei confronti dei propri dati personali? [...]
È tutto complicato...
Secondo me invece è "solo" complesso... ma neanche tanto Credo che la soluzione più semplice per OpenAI et al sia di programmare un filtro di ChatGPT per non diffondere nessuna /stronzata/ (cit.) in merito alle persone (rimarrebbe comunque il "problemino" della legittimità "da GDPR" della raccolta dei dati personali per il training). Ci sono tante altre _cose_ sulle quali ChatGPT può continuare a diffondere... parodie :-D [...] saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Carissimi, seguo il dibattito con estremo interesse, per la sua incomparabile ricchezza. Aggiungo alcune osservazioni sulla "diffamazione automatica". Al di là della circostanza che la diffamazione in USA non è reato (con tutto ciò che comporta) concordo con Carlo che, laddove fosse per avventura applicabile la legge italiana, il problema non si porrebbe comunque, dal punto di vista penalistisco, non solo e non tanto per la difficoltà di individuare se un secondo soggetto abbia visualizzato la stessa informazione (come sappiamo, non è detto che succeda, per non essere costanti le risposte), ma per assenza di dolo. Solo che il punto fondamentale a mio parere è un altro: un servizio che diffonda simili informazioni false può andare esente da responsabilità civile extracontrattuale, semplicemente sostenendo che le informazioni che genera non sono nè vere ne false, ma verisimili, e che quindi non si tratti di un bug ma di una feature? Mi pare di rivivere, sia pure con i dovuti distinguo, le querelle connesse a google autocomplete, con le varie ordinanze del Tribunale di Milano, e le stesse difese di Google ante Google Spain, ove si sosteneva (mi chiedo come facessero a rimanere seri) che l'attività di un motore di ricerca non fosse un trattamento di dati personali (par. 22 della sentenza Costeja Gonzales - "Secondo Google Spain e Google Inc., l’attività dei motori di ricerca non può essere considerata quale trattamento dei dati che appaiono sulle pagine web di terzi visualizzate nell’elenco dei risultati della ricerca, dato che detti motori di ricerca trattano le informazioni accessibili su Internet nel loro insieme senza operare una selezione tra i dati personali e le altre informazioni. Inoltre, anche supponendo che tale attività debba essere qualificata come «trattamento di dati», il gestore di un motore di ricerca non può essere considerato come «responsabile» di tale trattamento, dal momento che egli non ha conoscenza dei dati in questione e non esercita alcun controllo su di essi"). Leggere questo periodo a distanza di meno di 10 anni mi fa anche riflettere su come un ragionamento così palesemente specioso e infondato abbia resistito fino al 2014. Per cui mi chiedo in che modo possiamo accettare che un ragionamento sostanzialmente analogo venga oggi sostenuto da OpenAI. E questo senza andare a approfondire i profili di responsabilità collegati al Digital Governance act... Grazie a Nexa e a tutti coloro che animano la lista per gli spunti preziosissimi. GB Gallus -- Avv. Giovanni Battista Gallus Patrocinante in Cassazione LL.M. Master of Laws - Ph.D. ISO/IEC 27001/2013 Lead Auditor Array - Studio Legale Via Castelvì n. 9 09129 Cagliari (Italy) phone +390707966538 fax +390702041360 Piazza San Nazaro in Brolo 15 20121 Milano (Italy) phone +390287075914 fax +391782709429 e-mail gallus@array.law PEC g.gallus@legalmail.it twitter @gbgallus http://www.array.eu PGP key fingerprint 1278 C257 1372 8307 FD8A B625 502B E542 4123 3AED Sent with Proton Mail secure email. ------- Original Message ------- On Wednesday, April 12th, 2023 at 15:46, 380° <g380@biscuolo.net> wrote:
Buongiorno,
avrei bisogno di un chiarimento per favore
Carlo Blengino blengino@penalistiassociati.it writes:
Mah, ho dei dubbi. I punti 0 e 1 sono nodali per una qualche responsabilità
li riporto qui per completezza
0. un generatore di stringhe di testo (nel caso citato, ChatGPT) restituisce, a x oppure a y, un output D, diffamatorio nei riguardi di x;
1. x rettifica pubblicamente, online, ovviamente citando il testo della diffamazione D;
e qui manca un pezzo fondamentale: la diffamazione si consuma quando la frase lesiva viene percepita almeno dal secondo soggetto (io posso dire o sentire le peggiori cose riguardanti un terzo in una conversazione 1a1 e per fortuna non è reato!!)
il fatto è descritto nell'articolo in questo modo:
--8<---------------cut here---------------start------------->8---
One night last week, the law professor Jonathan Turley got a troubling email. As part of a research study, a fellow lawyer in California had asked the AI chatbot ChatGPT to generate a list of legal scholars who had sexually harassed someone. Turley’s name was on the list.
The chatbot, created by OpenAI, said Turley had made sexually suggestive comments and attempted to touch a student while on a class trip to Alaska, citing a March 2018 article in The Washington Post as the source of the information. The problem: No such article existed. There had never been a class trip to Alaska. And Turley said he’d never been accused of harassing a student.
--8<---------------cut here---------------end--------------->8---
Quindi una persona y chiede un elenco di giuristi che hanno molestato sessualmente qualcuno a ChatGPT, non è x (Turley) a chiedere l'elenco a ChatGPT; x (Turley) ne viene a conoscenza perché è y che glielo riferisce
Chi è responsabile di aver diffuso ad almeno due persone le frasi diffamatorie in questo caso?
Quindi ChatGPT fornisce a un terzo un messaggio che è SPACCIATO [1] come notizia, contiene informazioni false e /potenzialmente/ diffamatorie portando a sostegno un articolo inventato e il cornuto è Turley? :-D
Poi il problema resta eh, ma non nei termini indicati.
In che termini giuridici possiamo inquadrare allora questo problema?
Turley a chi si può rivolgere per tutelare la propria reputazione?
In che modo le persone possono difendersi dal fatto che ChatGPT (et al) diffondono notizie false sul proprio conto?
Perché OpenAI e tutti quelli che offrono servizi analoghi non scrivono chiaramente in ogni messaggio che si tratta di /fiction/ e intimano a tutti i propri utenti che non devono rimuovere tale disclaimer?
Ma anche se ci fosse tale "disclaimer" per evitare potenziale diffamazione, sarebbe sufficiente a tutelare il diritto delle persone nei confronti dei propri dati personali?
[...]
È tutto complicato...
Secondo me invece è "solo" complesso... ma neanche tanto
Credo che la soluzione più semplice per OpenAI et al sia di programmare un filtro di ChatGPT per non diffondere nessuna /stronzata/ (cit.) in merito alle persone (rimarrebbe comunque il "problemino" della legittimità "da GDPR" della raccolta dei dati personali per il training).
Ci sono tante altre cose sulle quali ChatGPT può continuare a diffondere... parodie :-D
[...]
saluti, 380°
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about https://stallmansupport.org.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Salve Giovanni Battista, grazie per questa considerazione interessantissima: On Wed, 12 Apr 2023 16:08:21 +0000 Giovanni Battista Gallus via nexa wrote:
laddove fosse per avventura applicabile la legge italiana, il problema [della diffamazione] non si porrebbe comunque, dal punto di vista penalistisco [...] per assenza di dolo.
Non mi è chiaro un aspetto: cosa ti fa pensare che non ci sia dolo? Assumiamo che Open AI sostenga, senza poterlo dimostrare, di non aver selezionato intenzionalmente i testi del dataset per produrre in output una certa diffamazione per una certa persona o categoria di persone. Cosa che potrebbe invece benissimo aver fatto. Basta che l'imputato dichiari di non aver avuto intenzione di nuocere alla vittima per far decadere il reato di diffamazione? Giacomo
Buongiorno, Daniela Tafani <daniela.tafani@unipi.it> writes: [...]
Gli effetti ulteriori saranno i seguenti (i punti da 0. a 2. hanno già avuto luogo nel caso in oggetto*):
0. un generatore di stringhe di testo (nel caso citato, ChatGPT) restituisce, a x oppure a y, un output D, diffamatorio nei riguardi di x;
1. x rettifica pubblicamente, online, ovviamente citando il testo della diffamazione D; 2. il testo della diffamazione D è prelevato da un generatore di testo con accesso alla rete (nel caso in oggetto, Bing), che la restituisce all'utente z quale output;
3. l'utente z procede come i molti che vanno cercando in libreria i libri indicati da ChatGPT: diffonde la diffamazione D, ritenendola fondata; 4. la vita di x è rovinata.
aggiungo i successivi effetti di questo andazzo: 5. l'amico a spiega a z che è un boccalone perché D è stato inventato da ChatGPT, sarebbe bastato verificare l'inesistenza dell'articolo citato 6. dopo la terza volta che si sente dare del boccalone, z comincia a sospettare che più spesso che no ChatGPT spara stronzate a caso 7. l'effetto Streisand (perché ci sarà) costringerà OpenAI et al a ridimensionare pesantemente le str... dichiarazioni dei propri dirigenti, che useranno toni meno apodittici 8. nonostante le contromisure, sempre più utenti smetteranno di dar peso a cose come ChatGPT 9. i nuovi dirigenti di OpenAI et al cominceranno a /rinnegare/ tutto quello che avevano fortemente sostenuto i loro predecessori, nel disperato tentativo di continuare a ricevere finanziamenti 10. gli investitori in AI cominceranno a domandarsi se chiedere a ChatGPT di calcolare il ROI sia stata una buona idea . . N. il terzo inverno della AI peccato che nel frattempo c'è l'altissima probabilità che a molti z sarà rovinata la reputazione saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste. L’Autorità ha dato tempo alla società fino al 30 aprile per mettersi in regola https://gpdp.it/web/guest/home/docweb/-/docweb-display/docweb/9874751 <https://gpdp.it/web/guest/home/docweb/-/docweb-display/docweb/9874751> OpenAI avrà tempo fino al 30 aprile per adempiere alle prescrizioni imposte dal Garante per la protezione dei dati personali riguardo a informativa, diritti degli interessati, utenti e non utenti, base giuridica del trattamento dei dati personali per l’addestramento degli algoritmi con i dati degli utenti. Solo allora, venendo meno le ragioni di urgenza, l’Autorità sospenderà il provvedimento di limitazione provvisoria del trattamento dei dati degli utenti italiani preso nei confronti della società statunitense e ChatGPT potrà tornare accessibile dall’Italia. Sulla base del provvedimento odierno dell’Autorità, entro fine aprile la società dovrà dunque adottare una serie di misure concrete. Informativa OpenAI dovrà predisporre e rendere disponibile sul proprio sito un’informativa trasparente, in cui siano illustrate modalità e logica alla base del trattamento dei dati necessari al funzionamento di ChatGPT nonché i diritti attribuiti agli utenti e agli interessati non utenti. L’informativa dovrà essere facilmente accessibile e collocata in una posizione che ne consenta la lettura prima di procedere all’eventuale registrazione al servizio. Per gli utenti che si collegano dall’Italia, l’informativa dovrà essere presentata prima del completamento della registrazione e, sempre prima del completamento della registrazione dovrà essere loro richiesto di dichiarare di essere maggiorenni. Agli utenti già registrati, l’informativa dovrà essere presentata al momento del primo accesso successivo alla riattivazione del servizio e, nella stessa occasione, dovrà essere loro richiesto di superare un age gate che escluda, sulla base dell’età dichiarata, gli utenti minorenni. Base giuridica Quanto alla base giuridica del trattamento dei dati personali degli utenti per l’addestramento degli algoritmi, il Garante privacy ha ordinato a OpenAI di eliminare ogni riferimento all’esecuzione di un contratto e di indicare, invece, in base al principio di accountability, il consenso o il legittimo interesse quale presupposto per utilizzare tali dati, fermo restando l’esercizio dei propri poteri di verifica e accertamento successivi a tale scelta. Esercizio dei diritti Ulteriori prescrizioni riguardano la messa a disposizione di strumenti utili per permettere agli interessati, anche non utenti, di chiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi, nel caso la rettifica non fosse tecnicamente possibile. OpenAI, inoltre, dovrà consentire agli interessati non utenti di esercitare, in modo semplice e accessibile, il diritto di opposizione rispetto al trattamento dei loro dati personali utilizzati per l’esercizio degli algoritmi e riconoscere analogo diritto agli utenti, qualora individui il legittimo interesse quale base giuridica del trattamento. Tutela dei minori Per quanto riguarda la verifica dell’età dei minori, oltre all’immediata implementazione di un sistema di richiesta dell’età ai fini della registrazione al servizio, l’Autorità ha ordinato a OpenAI di sottoporle entro il 31 maggio un piano di azione che preveda, al più tardi entro il 30 settembre 2023, l’implementazione di un sistema di age verification, in grado di escludere l’accesso agli utenti infratredicenni e ai minorenni per i quali manchi il consenso dei genitori. Campagna di informazione Di concerto col Garante, entro il 15 maggio, OpenAI dovrà infine promuovere una campagna di informazione su radio, televisione, giornali e web per informare le persone sull’uso dei loro dati personali ai fini dell’addestramento degli algoritmi. L’Autorità proseguirà nell’accertamento delle violazioni della disciplina vigente eventualmente poste in essere dalla società e si riserva l’adozione di ogni ulteriore o diversa misura che si rendesse necessaria a conclusione della formale istruttoria tuttora in corso. Roma, 12 aprile 2023
Ulteriori prescrizioni riguardano la messa a disposizione di strumenti utili per permettere agli interessati, anche non utenti, di chiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi, nel caso la rettifica non fosse tecnicamente possibile.
e niente: non hanno capito di cosa stanno parlando G. On Wed, 12 Apr 2023 at 16:49, Daniela Tafani <daniela.tafani@unipi.it> wrote:
ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste. L’Autorità ha dato tempo alla società fino al 30 aprile per mettersi in regola https://gpdp.it/web/guest/home/docweb/-/docweb-display/docweb/9874751
<https://gpdp.it/web/guest/home/docweb/-/docweb-display/docweb/9874751>
OpenAI avrà tempo fino al 30 aprile per adempiere alle prescrizioni imposte dal Garante per la protezione dei dati personali riguardo a informativa, diritti degli interessati, utenti e non utenti, base giuridica del trattamento dei dati personali per l’addestramento degli algoritmi con i dati degli utenti. Solo allora, venendo meno le ragioni di urgenza, l’Autorità sospenderà il provvedimento di limitazione provvisoria del trattamento dei dati degli utenti italiani preso nei confronti della società statunitense e ChatGPT potrà tornare accessibile dall’Italia.
Sulla base del provvedimento odierno dell’Autorità, entro fine aprile la società dovrà dunque adottare una serie di misure concrete.
*Informativa*
OpenAI dovrà predisporre e rendere disponibile sul proprio sito un’informativa trasparente, in cui siano illustrate modalità e logica alla base del trattamento dei dati necessari al funzionamento di ChatGPT nonché i diritti attribuiti agli utenti e agli interessati non utenti. L’informativa dovrà essere facilmente accessibile e collocata in una posizione che ne consenta la lettura prima di procedere all’eventuale registrazione al servizio.
Per gli utenti che si collegano dall’Italia, l’informativa dovrà essere presentata prima del completamento della registrazione e, sempre prima del completamento della registrazione dovrà essere loro richiesto di dichiarare di essere maggiorenni.
Agli utenti già registrati, l’informativa dovrà essere presentata al momento del primo accesso successivo alla riattivazione del servizio e, nella stessa occasione, dovrà essere loro richiesto di superare un age gate che escluda, sulla base dell’età dichiarata, gli utenti minorenni.
*Base giuridica*
Quanto alla base giuridica del trattamento dei dati personali degli utenti per l’addestramento degli algoritmi, il Garante privacy ha ordinato a OpenAI di eliminare ogni riferimento all’esecuzione di un contratto e di indicare, invece, in base al principio di accountability, il consenso o il legittimo interesse quale presupposto per utilizzare tali dati, fermo restando l’esercizio dei propri poteri di verifica e accertamento successivi a tale scelta.
*Esercizio dei diritti*
Ulteriori prescrizioni riguardano la messa a disposizione di strumenti utili per permettere agli interessati, anche non utenti, di chiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi, nel caso la rettifica non fosse tecnicamente possibile.
OpenAI, inoltre, dovrà consentire agli interessati non utenti di esercitare, in modo semplice e accessibile, il diritto di opposizione rispetto al trattamento dei loro dati personali utilizzati per l’esercizio degli algoritmi e riconoscere analogo diritto agli utenti, qualora individui il legittimo interesse quale base giuridica del trattamento.
*Tutela dei minori*
Per quanto riguarda la verifica dell’età dei minori, oltre all’immediata implementazione di un sistema di richiesta dell’età ai fini della registrazione al servizio, l’Autorità ha ordinato a OpenAI di sottoporle entro il 31 maggio un piano di azione che preveda, al più tardi entro il 30 settembre 2023, l’implementazione di un sistema di age verification, in grado di escludere l’accesso agli utenti infratredicenni e ai minorenni per i quali manchi il consenso dei genitori.
*Campagna di informazione*
Di concerto col Garante, entro il 15 maggio, OpenAI dovrà infine promuovere una campagna di informazione su radio, televisione, giornali e web per informare le persone sull’uso dei loro dati personali ai fini dell’addestramento degli algoritmi.
L’Autorità proseguirà nell’accertamento delle violazioni della disciplina vigente eventualmente poste in essere dalla società e si riserva l’adozione di ogni ulteriore o diversa misura che si rendesse necessaria a conclusione della formale istruttoria tuttora in corso.
*Roma, 12 aprile 2023*
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On Wed, 12 Apr 2023 17:29:10 +0200 Guido Vetere wrote:
Ulteriori prescrizioni riguardano la messa a disposizione di strumenti utili per permettere agli interessati, anche non utenti, di chiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi, nel caso la rettifica non fosse tecnicamente possibile.
e niente: non hanno capito di cosa stanno parlando
Al contrario, per una volta, come informatico che ha ben chiaro di cosa si sta parlando, mi sembra abbiano capito benissimo. Dici che non è ancora tecnicamente possibile? Peccato, dovremo fare a meno di GPT4 fino al prossimo sviluppo di Open AI che lo renderà possibile. Sarebbe una gran bella spinta per la ricerca cui Open AI è dedicata, non credi? Giacomo
per l'opt out basta retraining. il gdpr lo chiede entro 30 gg., se non erro On 12/04/23 20:12, Giacomo Tesio wrote:
On Wed, 12 Apr 2023 17:29:10 +0200 Guido Vetere wrote:
Ulteriori prescrizioni riguardano la messa a disposizione di strumenti utili per permettere agli interessati, anche non utenti, di chiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi, nel caso la rettifica non fosse tecnicamente possibile.
e niente: non hanno capito di cosa stanno parlando
Al contrario, per una volta, come informatico che ha ben chiaro di cosa si sta parlando, mi sembra abbiano capito benissimo.
Dici che non è ancora tecnicamente possibile? Peccato, dovremo fare a meno di GPT4 fino al prossimo sviluppo di Open AI che lo renderà possibile.
Sarebbe una gran bella spinta per la ricerca cui Open AI è dedicata, non credi?
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Cioè: io chiedo di stare fuori e OpenAI in 30gg rifà il modello togliendo tutti i passaggi in cui compare la stringa 'Guido Vetere'? Il Mer 12 Apr 2023, 20:24 Stefano Quintarelli <stefano@quintarelli.it> ha scritto:
per l'opt out basta retraining. il gdpr lo chiede entro 30 gg., se non erro
On 12/04/23 20:12, Giacomo Tesio wrote:
On Wed, 12 Apr 2023 17:29:10 +0200 Guido Vetere wrote:
Ulteriori prescrizioni riguardano la messa a disposizione di strumenti utili per permettere agli interessati, anche non utenti, di chiedere la rettifica dei dati personali che li riguardano generati in modo inesatto dal servizio o la cancellazione degli stessi, nel caso la rettifica non fosse tecnicamente possibile.
e niente: non hanno capito di cosa stanno parlando
Al contrario, per una volta, come informatico che ha ben chiaro di cosa si sta parlando, mi sembra abbiano capito benissimo.
Dici che non è ancora tecnicamente possibile? Peccato, dovremo fare a meno di GPT4 fino al prossimo sviluppo di Open AI che lo renderà possibile.
Sarebbe una gran bella spinta per la ricerca cui Open AI è dedicata, non credi?
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
e' un modo un altro e' aggiungere un filtro in una pipeline, come (quasi sicuramente) fa ora (cfr mio esmepio precedente salvini/schlein) ciao, s. On 12/04/23 21:01, Guido Vetere wrote:
Cioè: io chiedo di stare fuori e OpenAI in 30gg rifà il modello togliendo tutti i passaggi in cui compare la stringa 'Guido Vetere'?
Il Mer 12 Apr 2023, 20:24 Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>> ha scritto:
per l'opt out basta retraining. il gdpr lo chiede entro 30 gg., se non erro
On 12/04/23 20:12, Giacomo Tesio wrote: > On Wed, 12 Apr 2023 17:29:10 +0200 Guido Vetere wrote: > >> > Ulteriori prescrizioni riguardano la messa a disposizione di >> > strumenti utili per permettere agli interessati, anche non utenti, >> > di chiedere la rettifica dei dati personali che li riguardano >> > generati in modo inesatto dal servizio o la cancellazione >> > degli stessi, nel caso la rettifica non fosse tecnicamente possibile. >> >> e niente: non hanno capito di cosa stanno parlando > > Al contrario, per una volta, come informatico che ha ben chiaro di cosa > si sta parlando, mi sembra abbiano capito benissimo. > > Dici che non è ancora tecnicamente possibile? > Peccato, dovremo fare a meno di GPT4 fino al prossimo sviluppo > di Open AI che lo renderà possibile. > > Sarebbe una gran bella spinta per la ricerca cui Open AI è dedicata, > non credi? > > > Giacomo > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> _______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
Allora: il metodo 2 (reinforcement learning per evitare di rispondere a certe domande) si può fare e già lo fanno; l'1 (re-training del modello ogni volta che qualcuno fa opt-out) proprio no G. Il Mer 12 Apr 2023, 21:02 Stefano Quintarelli <stefano@quintarelli.it> ha scritto:
e' un modo un altro e' aggiungere un filtro in una pipeline, come (quasi sicuramente) fa ora (cfr mio esmepio precedente salvini/schlein) ciao, s.
On 12/04/23 21:01, Guido Vetere wrote:
Cioè: io chiedo di stare fuori e OpenAI in 30gg rifà il modello togliendo tutti i passaggi in cui compare la stringa 'Guido Vetere'?
Il Mer 12 Apr 2023, 20:24 Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>> ha scritto:
per l'opt out basta retraining. il gdpr lo chiede entro 30 gg., se non erro
On 12/04/23 20:12, Giacomo Tesio wrote: > On Wed, 12 Apr 2023 17:29:10 +0200 Guido Vetere wrote: > >> > Ulteriori prescrizioni riguardano la messa a disposizione di >> > strumenti utili per permettere agli interessati, anche non utenti, >> > di chiedere la rettifica dei dati personali che li riguardano >> > generati in modo inesatto dal servizio o la cancellazione >> > degli stessi, nel caso la rettifica non fosse tecnicamente possibile. >> >> e niente: non hanno capito di cosa stanno parlando > > Al contrario, per una volta, come informatico che ha ben chiaro di cosa > si sta parlando, mi sembra abbiano capito benissimo. > > Dici che non è ancora tecnicamente possibile? > Peccato, dovremo fare a meno di GPT4 fino al prossimo sviluppo > di Open AI che lo renderà possibile. > > Sarebbe una gran bella spinta per la ricerca cui Open AI è dedicata, > non credi? > > > Giacomo > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> _______________________________________________ nexa mailing list nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
Forse non è il caso di aprire un nuovo filone filosofico/giuridico, tuttavia mi è venuto in mente che anche il meccanismo dell'opt-out potrebbe prestarsi a parecchie discussioni. Già con il diritto all'oblio ci sono stati casi nei quali il diritto di cronaca e di conoscenza storica - come nel caso di un terrorista degli '70 - è stato ritenuto prevalente sul diritto all'oblio, per cui la de-indicizzazione non è stata concessa. Fino a che punto un personaggio pubblico ha diritto di opt-out? Se, ad esempio, il Presidente Mattarella chiedesse la rimozione della sua pagina di Wikipedia, ne avrebbe diritto oppure no? E fino a che punto bisogna essere famosi per restare nel ruolo di personaggio pubblico, per cui il diritto della gente alla consocenza può prevalere, e fino a che punto si può scomparire? Chi decide? Questo non solo per l'AI, ma in generale per tanti tipi di contenuto. Sinceramente non ho risposte, mi è venuta in mente la domanda ed ho voluto condividerla, sperando che quclhe filosofo e/o giurista possa avere le idee più chiare e voglia condividere le sue conclusioni. D. ________________________________ From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Guido Vetere <vetere.guido@gmail.com> Sent: Wednesday, April 12, 2023 7:30 PM To: Stefano Quintarelli <stefano@quintarelli.it> Cc: Nexa <nexa@server-nexa.polito.it> Subject: Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste. Allora: il metodo 2 (reinforcement learning per evitare di rispondere a certe domande) si può fare e già lo fanno; l'1 (re-training del modello ogni volta che qualcuno fa opt-out) proprio no G. Il Mer 12 Apr 2023, 21:02 Stefano Quintarelli <stefano@quintarelli.it<mailto:stefano@quintarelli.it>> ha scritto: e' un modo un altro e' aggiungere un filtro in una pipeline, come (quasi sicuramente) fa ora (cfr mio esmepio precedente salvini/schlein) ciao, s. On 12/04/23 21:01, Guido Vetere wrote:
Cioè: io chiedo di stare fuori e OpenAI in 30gg rifà il modello togliendo tutti i passaggi in cui compare la stringa 'Guido Vetere'?
Il Mer 12 Apr 2023, 20:24 Stefano Quintarelli <stefano@quintarelli.it<mailto:stefano@quintarelli.it> <mailto:stefano@quintarelli.it<mailto:stefano@quintarelli.it>>> ha scritto:
per l'opt out basta retraining. il gdpr lo chiede entro 30 gg., se non erro
On 12/04/23 20:12, Giacomo Tesio wrote: > On Wed, 12 Apr 2023 17:29:10 +0200 Guido Vetere wrote: > >> > Ulteriori prescrizioni riguardano la messa a disposizione di >> > strumenti utili per permettere agli interessati, anche non utenti, >> > di chiedere la rettifica dei dati personali che li riguardano >> > generati in modo inesatto dal servizio o la cancellazione >> > degli stessi, nel caso la rettifica non fosse tecnicamente possibile. >> >> e niente: non hanno capito di cosa stanno parlando > > Al contrario, per una volta, come informatico che ha ben chiaro di cosa > si sta parlando, mi sembra abbiano capito benissimo. > > Dici che non è ancora tecnicamente possibile? > Peccato, dovremo fare a meno di GPT4 fino al prossimo sviluppo > di Open AI che lo renderà possibile. > > Sarebbe una gran bella spinta per la ricerca cui Open AI è dedicata, > non credi? > > > Giacomo > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> <mailto:nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> <mailto:nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
Salve Diego, ottima domanda: On Wed, 12 Apr 2023 20:07:57 +0000 Diego Giorio wrote:
Se, ad esempio, il Presidente Mattarella chiedesse la rimozione della sua pagina di Wikipedia, ne avrebbe diritto oppure no?
Probabilmente no. Ma se la sua pagina Wikipedia contenesse inesattezze di qualsiasi natura avrebbe sempre il diritto alla loro rettifica. Il fatto che Wikipedia sia salvata su file invece che su una matrice N dimensionale è invece irrilevante: i diritti umani non decadono (e non devono essere sacrificati) così facilmente. Giacomo
On Wed, 12 Apr 2023 21:30:48 +0200 Guido Vetere wrote:
Allora: il metodo 2 (reinforcement learning per evitare di rispondere a certe domande) si può fare e già lo fanno; l'1 (re-training del modello ogni volta che qualcuno fa opt-out) proprio no
Riprogrammare statisticamente il software (il "re-training") rimuovendo tutte le occorrenze di testi che contengano il nome di chi chiede di essere cancellato, è tecnicamente fattibilissimo. E' solo costoso. Ed è esattamente ciò che è necessario fare su richiesta dell'interessato: https://gdpr-info.eu/art-17-gdpr/ Ma di nuovo, non è un ottimo incentivo alla ricerca di metodi più economici ed ecologici di effettuare tali operazioni? La ragion d'essere di Open AI, giusto? Stessa cosa per il diritto alla rettifica, che non viene meno solo perché il contenuto errato è salvato in una matrice invece che in un file o in un database. Tutte ottime ragioni per finanziare Open AI (e molti altri centri di ricerca)! Open AI dovrebbe ringraziare il GDPR e il Garante Italiano. Spegnere GPT e dire a tutti: "Vi piace il giocattolo? Ok allora dateci qualche trilliardo di dollari per trovare il modo di renderlo compatibile con i diritti umani". Per una volta diritto, ecologia ed economia si sposano alla perfezione! D'altro canto non ci sono alternative: mica vorremo sacrificare i diritti umani e il futuro del pianeta ai profitti di una azienda? Giacomo
Riprogrammare statisticamente il software (il "re- training") rimuovendo tutte le occorrenze di testi che contengano il nome di chi chiede di essere cancellato, è tecnicamente fattibilissimo.
E' solo costoso
certo, ad esempio costerebbe qualche gigawatt, ma poi resterebbe il problema di capire che quel 'Giacomo Tesio' di cui, in un twitt, si dice questo e quello, sei proprio tu e non un tuo omonimo. insomma: no way, secondo me ma vedremo cosa rispondono da OpenAI alternative ai LLM per gestire dati fattuali ci sono da sempre, sono le basi di dati (o di conoscenza, se preferisci). la ricerca per integrare gli approcci simbolici e neurali è anche ben nota, Bing e Bard vanno proprio in quella direzione non credo che Google e Microsoft stiano lì a rivedere i loro piani sulla base degli ultimatum del Garante italiano, più verosimilmente tutta questa vicenda sarà solo una annoyance per chi in Italia continuerà a usare quei servizi per lavoro, del tutto disinteressati alla tua e alla mia biografia G. Il Mer 12 Apr 2023, 22:12 Giacomo Tesio <giacomo@tesio.it> ha scritto:
On Wed, 12 Apr 2023 21:30:48 +0200 Guido Vetere wrote:
Allora: il metodo 2 (reinforcement learning per evitare di rispondere a certe domande) si può fare e già lo fanno; l'1 (re-training del modello ogni volta che qualcuno fa opt-out) proprio no
Riprogrammare statisticamente il software (il "re-training") rimuovendo tutte le occorrenze di testi che contengano il nome di chi chiede di essere cancellato, è tecnicamente fattibilissimo.
E' solo costoso.
Ed è esattamente ciò che è necessario fare su richiesta dell'interessato: https://gdpr-info.eu/art-17-gdpr/
Ma di nuovo, non è un ottimo incentivo alla ricerca di metodi più economici ed ecologici di effettuare tali operazioni?
La ragion d'essere di Open AI, giusto?
Stessa cosa per il diritto alla rettifica, che non viene meno solo perché il contenuto errato è salvato in una matrice invece che in un file o in un database.
Tutte ottime ragioni per finanziare Open AI (e molti altri centri di ricerca)!
Open AI dovrebbe ringraziare il GDPR e il Garante Italiano. Spegnere GPT e dire a tutti: "Vi piace il giocattolo? Ok allora dateci qualche trilliardo di dollari per trovare il modo di renderlo compatibile con i diritti umani".
Per una volta diritto, ecologia ed economia si sposano alla perfezione!
D'altro canto non ci sono alternative: mica vorremo sacrificare i diritti umani e il futuro del pianeta ai profitti di una azienda?
Giacomo
Beh, che dire Guido... On Wed, 12 Apr 2023 22:57:43 +0200 Guido Vetere wrote:
non credo che Google e Microsoft stiano lì a rivedere i loro piani sulla base degli ultimatum del Garante italiano, più verosimilmente tutta questa vicenda sarà solo una annoyance per chi in Italia continuerà a usare quei servizi per lavoro, del tutto disinteressati alla tua e alla mia biografia
...mi dispiace disturbare il bestiame ammaestrato... Ma preservare lo Stato di Diritto è più importante. Giacomo
eh gia', quelle cose fastidiose chiamate regole, che impongono limiti al magnifico e progressivo sviluppo (di qualche megacorporate). non sono questi i veri problemi. il problema e' che magari ci sfugge di mano e schiavizza l'umanita'! di quello ci dovremmo occupare! mica di impatti sulla societa', sui lavoratori, fiscali, ecc. ecc. scusa la facile ironia, ma dissento. On 12/04/23 22:57, Guido Vetere wrote:
non credo che Google e Microsoft stiano lì a rivedere i loro piani sulla base degli ultimatum del Garante italiano, più verosimilmente tutta questa vicenda sarà solo una annoyance per chi in Italia continuerà a usare quei servizi per lavoro, del tutto disinteressati alla tua e alla mia biografia
premesso che la cosa non e' IT ma UE, ma anche mmettendo fosse solo IT, dipenderebbe solo se in IT fanno piu' soldi di quanto gli costerebbe e la risposta ovvia e' si. (e gia' successo e succedera' ancora) supponiamo il garante trovi proporzionale che l'opt out sia entro 60 giorni e non entro 30. supponiamo che - un retraining del modello costi 20M - ne facciano di per se' gia uno ogni sei mesi - sono 4 retraining aggiuntivi, pari a 80M bazzeccole. rinuncio al fatturato IT per bazzeccole ? (cosa che tra l'altro mi metterebbe al riparo da fastidi analoghi in altri paesi) ciao, s.
Caro Stefano, queste facili ironie (per glissare sugli insulti) rivelano il sottofondo ideologico della questione. Si interpreta la vicenda come la difesa dei diritti contro il profitto, e ci si compiace per la propria democraticità. Benissimo. Questo però offusca una visione chiara della cosa, e rischia di fornire l'alibi per continuare a non capire certi aspetti tecnici. Il punto non è tanto che rifare il training ogni 6 mesi costa 80M (e svariati gigawatt), il punto è che bonificare terabyte di dati testuali da tutto ciò che può riguardare il sig, Mario Rossi che ha fatto opt-out è un'impresa abbastanza ardua (cosa facciamo col Mario Rossi che ha fatto opt-in?), e in ogni caso nulla garantisce che un sistema generativo basato su trasformers non possa comunque inventare storielle su 'Mario Rossi' sulla base di analogie ('somiglianze di famiglia' per usare una metafora wittgensteiniana) Non vorrei sembrare arrogante, e mi scuso in anticipo, ma credo davvero che la questione vada studiata più a fondo. G. On Thu, 13 Apr 2023 at 07:46, Stefano Quintarelli <stefano@quintarelli.it> wrote:
eh gia', quelle cose fastidiose chiamate regole, che impongono limiti al magnifico e progressivo sviluppo (di qualche megacorporate). non sono questi i veri problemi. il problema e' che magari ci sfugge di mano e schiavizza l'umanita'! di quello ci dovremmo occupare! mica di impatti sulla societa', sui lavoratori, fiscali, ecc. ecc.
scusa la facile ironia, ma dissento.
On 12/04/23 22:57, Guido Vetere wrote:
non credo che Google e Microsoft stiano lì a rivedere i loro piani sulla base degli ultimatum del Garante italiano, più verosimilmente tutta questa vicenda sarà solo una annoyance per chi in Italia continuerà a usare quei servizi per lavoro, del tutto disinteressati alla tua e alla mia biografia
premesso che la cosa non e' IT ma UE, ma anche mmettendo fosse solo IT, dipenderebbe solo se in IT fanno piu' soldi di quanto gli costerebbe e la risposta ovvia e' si. (e gia' successo e succedera' ancora)
supponiamo il garante trovi proporzionale che l'opt out sia entro 60 giorni e non entro 30.
supponiamo che - un retraining del modello costi 20M - ne facciano di per se' gia uno ogni sei mesi - sono 4 retraining aggiuntivi, pari a 80M
bazzeccole. rinuncio al fatturato IT per bazzeccole ? (cosa che tra l'altro mi metterebbe al riparo da fastidi analoghi in altri paesi)
ciao, s.
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Concordo, la difesa del "diritto" di Open AI (e Microsoft) di violare impunemente i diritti di milioni di persone, rivela chiaramente una forte ideologizzazione che impedisce di comprendere chiaramente i contorni della questione da un punto di vista tecnico / scientifico.
bonificare terabyte di dati testuali da tutto ciò che può riguardare il sig, Mario Rossi che ha fatto opt-out è un'impresa abbastanza ardua (cosa facciamo col Mario Rossi che ha fatto opt-in?)
Non è affatto "ardua" è solo estremamente costosa.
nulla garantisce che un sistema generativo basato su trasformers non possa comunque inventare storielle su 'Mario Rossi' sulla base di analogie ('somiglianze di famiglia' per usare una metafora wittgensteiniana)
Poco male: Open AI fa ricerca di mestiere. Troveranno qualcosa. Fino ad allora, i diritti delle persone DEVONO prevalere sui loro interessi. Giacomo
Oltre a rimuovere, si puo’ anche aggiungere “noise” in modo che il modello non prenda piu’ a riferimento i dati di prima: meno faticoso e costo del ripulire i dati From: nexa <nexa-bounces@server-nexa.polito.it> On Behalf Of Guido Vetere Sent: Wednesday, April 12, 2023 3:58 PM To: Giacomo Tesio <giacomo@tesio.it> Cc: Nexa <nexa@server-nexa.polito.it> Subject: Re: [nexa] ChatGPT: Garante privacy, limitazione provvisoria sospesa se OpenAI adotterà le misure richieste.
Riprogrammare statisticamente il software (il "re- training") rimuovendo tutte le occorrenze di testi che contengano il nome di chi chiede di essere cancellato, è tecnicamente fattibilissimo.
E' solo costoso
certo, ad esempio costerebbe qualche gigawatt, ma poi resterebbe il problema di capire che quel 'Giacomo Tesio' di cui, in un twitt, si dice questo e quello, sei proprio tu e non un tuo omonimo. insomma: no way, secondo me ma vedremo cosa rispondono da OpenAI alternative ai LLM per gestire dati fattuali ci sono da sempre, sono le basi di dati (o di conoscenza, se preferisci). la ricerca per integrare gli approcci simbolici e neurali è anche ben nota, Bing e Bard vanno proprio in quella direzione non credo che Google e Microsoft stiano lì a rivedere i loro piani sulla base degli ultimatum del Garante italiano, più verosimilmente tutta questa vicenda sarà solo una annoyance per chi in Italia continuerà a usare quei servizi per lavoro, del tutto disinteressati alla tua e alla mia biografia G. Il Mer 12 Apr 2023, 22:12 Giacomo Tesio <giacomo@tesio.it<mailto:giacomo@tesio.it>> ha scritto: On Wed, 12 Apr 2023 21:30:48 +0200 Guido Vetere wrote:
Allora: il metodo 2 (reinforcement learning per evitare di rispondere a certe domande) si può fare e già lo fanno; l'1 (re-training del modello ogni volta che qualcuno fa opt-out) proprio no
Riprogrammare statisticamente il software (il "re-training") rimuovendo tutte le occorrenze di testi che contengano il nome di chi chiede di essere cancellato, è tecnicamente fattibilissimo. E' solo costoso. Ed è esattamente ciò che è necessario fare su richiesta dell'interessato: https://gdpr-info.eu/art-17-gdpr/ Ma di nuovo, non è un ottimo incentivo alla ricerca di metodi più economici ed ecologici di effettuare tali operazioni? La ragion d'essere di Open AI, giusto? Stessa cosa per il diritto alla rettifica, che non viene meno solo perché il contenuto errato è salvato in una matrice invece che in un file o in un database. Tutte ottime ragioni per finanziare Open AI (e molti altri centri di ricerca)! Open AI dovrebbe ringraziare il GDPR e il Garante Italiano. Spegnere GPT e dire a tutti: "Vi piace il giocattolo? Ok allora dateci qualche trilliardo di dollari per trovare il modo di renderlo compatibile con i diritti umani". Per una volta diritto, ecologia ed economia si sposano alla perfezione! D'altro canto non ci sono alternative: mica vorremo sacrificare i diritti umani e il futuro del pianeta ai profitti di una azienda? Giacomo
participants (11)
-
380° -
Benedetto Ponti -
Carlo Blengino -
Daniela Tafani -
Diego Giorio -
Giacomo Tesio -
Giovanni Battista Gallus -
Guido Vetere -
Maria Chiara Pievatolo -
Roberto Dolci -
Stefano Quintarelli