Buongiorno, vorrei evidenziare che in questo filone del thread ci si sta concentrando solo sull'output ma i rilievi del Garante riguardano anche il training... ed è /precisamente/ su quello che nel caso di ChatGPT e di tutti gli altri LLM il cui training è stato effettuato con dati personali senza ottemperare al GDPR (tutti?) non esiste altra soluzione che rifare il training da zero :-D Mario Sabatino <mario@sabatino.cloud> writes:
Ma infatti. Il disclaimer in realtà c'è. https://openai.com/policies/terms-of-use
Però mettiamoci d'accordo: i generative LLM hanno un utilizzo pratico o sono solo generatori di /fiction/? Perché sono convinto che molte delle discussioni in (anzi di) merito cesserebbero subito dopo l'handshaking su "fiction" ;-)
Forse non è scritto a caratteri cubitali ma qualcosa c'è eccome.
V. punti 3 e 5. Non so se questa versione delle condizioni di servizio siano precedenti o successive all'intervento del Garante.
Pare ci fossero già e in merito a questo Walter Vannini [1] sostiene: --8<---------------cut here---------------start------------->8--- Ok, facciamoci una bella risata collettiva. Mi state dicendo che io sono responsabile dei contenuti, e che però voi li usate per migliorare il servizio? Se usi i contenuti per migliorare il servizio, sei responsabile di quello che fai tanto quanto il tuo cliente che li pubblica, e hai gli stessi doveri di correttezza, limitazione dello scopo, limitazione della conservazione eccetera. --8<---------------cut here---------------end--------------->8--- Facile far sparare cose a caso a una macchina attraverso un servizio web e _genericamente_ mettere le mani avanti dicendo che non si è responsabili dei contenuti, eh? Quindi, per capire: i social media sostengono di essere responsabili dei contenuti e per questo censurano come non ci fosse un domani e invece OpenAI di non essere responsabile perché i contenuti sono sparati a caso da un sistema ML... equesto lo scrive in un documento - che non legge nessuno - mentre è /letteralmente/ contraddetto da ogni singola dichiarazione dei massimi dirigenti di OpenAI che _spacciano_ il sistema come il nuovo oracolo che curerà ogni male del mondo, a partire dalle cure mediche dei poveri?!? Il solo e **unico** disclaimer accettabile per qualsiasi modello generativo basato su LLM o /qualsiasi/ altro sistema di machine learning che /sintetizza/ frasi che /a caso/ possono anche corrispondere al vero è quello che compare in tutti i film da «Rasputin e l’imperatrice» (1934) [2] in poi per pararsi le terga: --8<---------------cut here---------------start------------->8--- All persons and facts are fictious --8<---------------cut here---------------end--------------->8--- e questo disclaimer dovrebbe essere obbligatorio IN OGNI SINGOLO output generato da ogni singolo sistema di "generazione lessicale" basato su ML... così vediamo chi ha voglia di giocare al giornalista, lo psicologo o all'endocrinologo usando l'output di tali sistemi :-O Quindi massima libertà di LLM, ma a condizione che chi ci "fa servizi sopra" scriva a caratteri cubitali quello che sta /spacciando/, OpanAI compresa In merito ai dati riferiti alle persone, poi, Vannini sostiene [1] che uno dei rilievi del Garante è esattamente questo: --8<---------------cut here---------------start------------->8--- Punto terzo, il trattamento risulta inesatto [...] Posto che qualcuno abbia il diritto di usare i nostri dati è tenuto a farlo in modo corretto. Perché i dati personali sono sempre della persona, non di chi li usa. Ricordo anni fa il caso di un famoso avvocato, che chiameremo Cesare Maria De Semproniis che citò Telecom Italia perché continuava a ricevere bollette intestate a C. Maria de Semproniis, cosa che considerava lesiva della sua immagine. E ovviamente vinse. Allo stesso modo, chi pubblica informazioni scorrette su di noi è tenuto a correggerle e, se il garante rileva che non si è trattato di un errore ma che il problema è di incuria, allora paga pure una sanzione. --8<---------------cut here---------------end--------------->8--- Se Vannini non ha torto (ha torto?) questo significa che «All persons and facts are fictious» non sarebbe sufficiante nel caso in cui ChatGPT scrivesse che una persona reale (magari con tanto di data di nascita e altri riferimenti personali) è stata condannata per pedofilia, perché sarebbe comunque diffamazione: o basta un disclaimer per levarsi dall'impaccio?? (pare di no [3]) Per cinema, TV e radio viene applicato un (complesso?) processo di "negative checking": https://en.wikipedia.org/wiki/Negative_checking Anche ChatGPT è fiction, sarebbe ora che applicassero anche loro lo stato dell'arte dei processi creativi :-D Saluti, 380° [...] [1] https://www.agendadigitale.eu/sicurezza/privacy/stop-a-chatgpt-per-fortuna-i... [2] https://en.wikipedia.org/wiki/All_persons_fictitious_disclaimer [3] https://www.ilpost.it/2016/08/28/film-ogni-riferimento-persone-esistenti-pur... https://en.wikipedia.org/wiki/All_persons_fictitious_disclaimer#Effectivenes... -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.