On 3 Apr 2023, at 11:24, Stefano Quintarelli <stefano@quintarelli.it> wrote:
Basta dire "lo fa una macchina" per escludere responsabilità ? no. La cronaca è densa di condanne di amministratori delegati...
È quello che ho detto: la responsabilità è personale, della persona che compie l’atto, anche se lo fa tramite uno strumento (pistola, automobile, AI, ecc.)
C'è responsabilità probabilmente in chi prende e diffonde, ma anche in chi genera
Infatti, puoi rivalerti per diffamazione e/o chiedere la rettifica. Il mio punto è che la diffamazione è un reato, già previsto dalle leggi e diverso da quello sull’abuso dei dati personali. — Beppe
imho
Il 3 aprile 2023 08:54:43 UTC, Giuseppe Attardi <attardi@di.unipi.it> ha scritto:
Secondo me si stanno confondendo due atti separati, che sono regolati e protetti da leggi distinte: 1. Il regolamento sulla protezione dei dati personali, regola e disciplina l’uso e l’abuso di dati personali 2. Il reato di diffamazione protegge contro la diffusione al pubblico di affermazioni diffamatorie
ChatGPT non fa né l’una né l’altra cosa: non usa dati personali, se non quelli per l’iscrizione al servizio, ma quelli non vanno dentro il modello. Se qualcuno interroga e ottiene informazioni inaccurate (che statisticamente avviene in un numero minimo di casi), lo fa a suo rischio e pericolo, come indicato nella pagina iniziale di ChatGPT. Se qualcuno prende quella informazione e la diffonde per vera, lo fa consapevolmente e se si tratta di informazioni non veritiere, ne diventa comunque responsabile. Ricordiamo che per legge la responsabilità è personale, non può essere mai delle macchine o di chi le produce (se non per negligenza nei confronti di chi le utilizza). Per chi diffama, non basta la scusa di dire: me lo ha detto ChatGPT, come un tempo si diceva: l’ho sentito in TV. Chi prende quell’informazione per buona e la diffonde se ne assume la responsabilità.
Le norme sul giornalismo, assicurano appunto questo, che si possa risalire a una persona fisica a cui addossare la responsabilità di ciò che viene pubblicato, ossia il direttore responsabile. Chi ritiene di essere oggetto di una notizia errata, ha diritto alla rettifica.
Chi usa ChatGPT è il responsabile dell’informazione che produce usando uno strumento, come sappiamo imperfetto, come imperfetti sono molti altri che usiamo da tempo, da quando abbiamo iniziato ad affidarci a tecniche statistiche. Basta pensare ad esempio ai sondaggi di ogni tipo: sono imprecisi e dobbiamo prenderli per quel che valgono.
— Beppe
On 2 Apr 2023, at 15:20, nexa-request@server-nexa.polito.it wrote:
Date: Sun, 2 Apr 2023 13:12:37 +0000 From: Roberto Dolci <rob.dolci@aizoon.us <mailto:rob.dolci@aizoon.us>> To: Stefano Quintarelli <stefano@quintarelli.it <mailto:stefano@quintarelli.it>>, "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> Subject: Re: [nexa] ChatGPT disabled for users in Italy Message-ID: <33d561c628a34abeb120479ebdcf608d@aizoon.us <mailto:33d561c628a34abeb120479ebdcf608d@aizoon.us>> Content-Type: text/plain; charset="utf-8"
Ti capisco, purtroppo quello che noi vediamo come notizie, per il ranocchio elettronico sono solo sequenze di termini che hanno la miglior probabilita' di seguire il filo del discorso. Il fatto che siano vere, false, mezze verita', e' incidentale per la macchina.
Ovviamente gli puoi chiedere di correggerle, ma non ci sara' un ingresso in database per dire "guarda che Stefano e' XXX", perche' non c'e' un database, ma ci sono matrici multidimensionali. Quindi alla tua legittima richiesta non risponde la macchina, ma un curatore in carne ed ossa che fa in modo che in futuro non ti arrabbi/offenda/abbia un danno.
L'azienda per ora si nasconde dietro al solito paravento del "beta / in fase di sviluppo / scusateci se sbaglia ma stiamo lavorando per voi" per vedere come scalare e fare in modo di massimizzare i profitti. Oggi ogni tua domanda a ChatGPT son $0.22 di corrente e spese vive, un enormita', quindi ci sono in corso lavori sofisticati per ridurre consumo energetico ed efficienza dei processi, e specialmente per capire come meglio sfruttare questi 200 milioni di beati allenatori di ChatGPT che stanno lavorando gratis per loro, tra cui te.
Hanno tutto l'interesse non solo a non offenderti, ma a tenerti al remo. Ed e' per questo che han chiuso in Italia, senza star dietro ad un interpretazione legale che, come leggiamo nel thread, e' quantomeno complessa. Adesso in Italia ci son migliaia di persone che pensavano di farci un guadagno su ChatGPT, ed in qualche modo ci sara' pressione per venire a piu' miti consigli. Poi conosciamo Microsoft, tempo che confezioni il pacchetto corretto, si copriranno il capo di cenere e ci sbologneranno licenze in tutte le scuole, enti pubblici e privati dove riescano... e mediamente son tanti.
Ciao roberto
-----Original Message----- From: nexa <nexa-bounces@server-nexa.polito.it <mailto:nexa-bounces@server-nexa.polito.it>> On Behalf Of Stefano Quintarelli Sent: Sunday, April 2, 2023 7:50 AM To: nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> Subject: Re: [nexa] ChatGPT disabled for users in Italy
non mi interessa il processo con cui emettono informazioni su di me, non mi riguarda. pero' danno informazioni sbagliate, reiteratamente.
posso chiedergli di correggerle ?
detto in altri termini, il dato e' solo quello codificato "non lossy" e inserito in un record di un DB relazionale o anche quello codificato "lossy" e sparso in una matrice ?
se la risposta e' affermativa (come mi pare dovrebbe essere) e dato che e' palese che si possono attuare correzioni dell'output (cfr allegato), non dovrebbe essere l'azienda stessa e solo essa a decidere quando attuarle, ma anche le leggi, anche per tutela futura della biosfera informativa.
IMHO
On 02/04/23 14:42, Roberto Dolci wrote:
Molto (molto) probabilmente ChatGPT non ha nemmeno memoria di quanto sotto, te l'ha scritto perche' in quel preciso momento era la sua stima migliore. Un piccolo esempio anche nella rubrica Johnson sull'Economist di questa settimana: ChatGPT non ha un "database" per conservare questi testi e nemmeno per imparare da essi. Chi ti ha risposto e' un essere in carne ed ossa, che insieme a centinaia di colleghi spende le giornate a riparare questi fraintendimenti, affettuosamente chiamati "allucinazioni".
Puoi sicuramente chiedergli di correggerla, ed uno dei ragazzi ti assicurera' che e' stato cancellato/corretto, ma non e' esattamente così. Tu vieni classificato in modo particolare e fanno in modo di non darti piu' fastidio, almeno su questo tema.
Ciao rob
-----Original Message----- From: nexa <nexa-bounces@server-nexa.polito.it <mailto:nexa-bounces@server-nexa.polito.it>> On Behalf Of Stefano Quintarelli Sent: Sunday, April 2, 2023 7:36 AM To: nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> Subject: Re: [nexa] ChatGPT disabled for users in Italy
secondo ChatGPT, riporta il podcast Knightmare di Walter Vannini, io sarei stato membro di un certo insieme di sciocchezze e, dopo avergli fatto notare piu' volte che erano informazioni sbagliate, ChatGPT si e' scusato e ha detto che sono morto.
la notizia e' esagerata.
posso chiedere ad OpeAI^W Microsft di correggerla ?
ciao, s.
On 02/04/23 14:11, Roberto Dolci wrote:
In tutto questo, forse serve ricordare che ChatGPT non ha alcuna pretesa di scrivere cose corrette, risolvere problemi o fare diagnosi sicure: e’ fatto per generare testi scorrevoli e di facile interpretazione, nulla di piu’.
*From:* nexa <nexa-bounces@server-nexa.polito.it <mailto:nexa-bounces@server-nexa.polito.it>> *On Behalf Of *Enrico Nardelli *Sent:* Saturday, April 1, 2023 4:19 AM *To:* nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> *Subject:* Re: [nexa] ChatGPT disabled for users in Italy
A me pare che la decisione del Garante sia formalmente ineccepibile: sarò lieto di leggere pareri difformi da parte degli avvocati esperti di privacy presenti in lista.
Per il momento è un atto urgente del Presidente che il collegio deve confermare entro 30 giorni (come immagino accadrà).
Però penso che quelli che ritengo siano i due punti principali contestati: - la mancanza di un'informativa rispondente al GDPR sui dati raccolti - la mancanza di un sistema di verifica dell'età
possano essere rimediati in un tempo sicuramente inferiore a 6 mesi (la moratoria richiesta dalla famosa lettera).
Personalmente proverei a fare qualcos'altro, basandomi sulla legislazione in materia di informazione al pubblico. Non sono un avvocato, quindi non posso dire se sia fattibile, ma in sostanza qui abbiamo un sistema che - a differenza dei motori di ricerca che rispondono agli utenti con qualcosa di realmente esistente sul web - fabbrica informazioni false.
Questo difetto può essere corretto con molta più difficoltà e quindi quest'approccio fornirebbe, se fattibile, una base legale per bloccare l'uso di ChatGPT per un tempo molto più lungo.
Sia chiaro: non ritengo abbia senso bloccare ricerca e sviluppo in questo settore, ma qui c'è qualcosa di equivalente (anzi, probabilmente superiore) ad una tecnologia per costruire a costo irrisorio reattori nucleari portatili. Possono essere un enorme vantaggio per tutti, ma possono essere anche assai pericolosi. Una qualche forma di regolamentazione va trovata.
Aggiungo che un reclamo presentato negli USA alla Federal Trade Commission da parte del Center for AI and Digital Policy (https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304021320270709785... <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304021320270709785...>) cita, tra l'altro, la "consumer deception" come motivo per bloccare l'utilizzo di questi strumenti.
Concludo osservando che il paragone con regimi autoritari mi sembra un po' fuor di luogo: questo collegio non è espressione dell'attuale governo (che comunque è il risultato di elezioni democraticamente svolte) ma del governo Draghi.
Ciao, Enrico
--
-- EN
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304021320270709785.... h tml <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304021320270709785.... html>
====================================================== Prof. Enrico Nardelli Presidente di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304021320270709785... <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304021320270709785...> blog: https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304021320270709785... <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304021320270709785...> tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it <mailto:nardelli@mat.uniroma2.it> <mailto:nardelli@mat.uniroma2.it> online meeting: https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304021320270709785... <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304021320270709785...> ======================================================