Articolo sui LLMs - il punto di vista di un giurista
Buon pomeriggio, colgo l'occasione degli ultimi scambi sui LLMs per segnalarvi un mio articolo pubblicato su Dirittifondamentali.it [1], dal titolo: /Le ‘informazioni sintetizzate’ generate dai large language models e le esigenze di tutela del diritto all’informazione/: valori costituzionali e nuove regole Cordiali saluti. Gianluca [1] http://dirittifondamentali.it/2024/02/06/le-informazioni-sintetizzate-genera... --
ottimo articolo, grazie per la condivisione, consiglio a tutte [femminile sovraesteso] di prendersi una mezz'ora per leggerlo da cima a fondo - vi vedo che state facendo summarization :-)) una piccola chiosa profana:
le associazioni di parole prodotte [dai language model] implicano un significato per i destinatari, un significato fatto palese dal senso comune delle parole, secondo il linguaggio naturale, che va a influire sulla libertà di formazione del pensiero; implicano un significato che va a incidere sulla libertà di raccogliere le informazioni, di informarsi, su quella che viene indicata come il profilo passivo della libertà di informazione
qui mi sembra che si assuma una posizione 'forte' (realistica) nei confronti del linguaggio, ma c'è chi ha sostenuto posizioni 'deboli' (nominalistiche) per le quali, per dirla con Roscellino, le parole sono solo 'emissioni della voce' (flatus vocis). domanda: fino a dove il legislatore può impegnarsi filosoficamente? e perché, anche abbracciando il realismo, non ci soddisfa il 'disclaimer' di OpenAI che recita (molto piccolo, ma vabbè): "ChatGPT può commettere errori. Ti consigliamo di verificare le informazioni importanti." ? grazie ancora e buona giornata G. On Mon, 6 May 2024 at 17:18, Gianluca Fasano <gianluca.fasano@cnr.it> wrote:
Buon pomeriggio,
colgo l'occasione degli ultimi scambi sui LLMs per segnalarvi un mio articolo pubblicato su Dirittifondamentali.it [1], dal titolo:
*Le ‘informazioni sintetizzate’ generate dai large language models e le esigenze di tutela del diritto all’informazione*: valori costituzionali e nuove regole
Cordiali saluti.
Gianluca
[1] http://dirittifondamentali.it/2024/02/06/le-informazioni-sintetizzate-genera...
--
Buongiorno, Guido Vetere <vetere.guido@gmail.com> writes: [...]
una mezz'ora per leggerlo da cima a fondo - vi vedo che state facendo summarization :-))
a me ci vuole di più, non sono ancora riuscito a finirlo, ma pian piano... :-) chiedo scusa nel caso qualcuno dei miei commenti sia già stato affrontato nel paper in oggetto, dal quale è partito questo thread. [...]
e perché, anche abbracciando il realismo, non ci soddisfa il 'disclaimer' di OpenAI che recita (molto piccolo, ma vabbè):
"ChatGPT può commettere errori. Ti consigliamo di verificare le informazioni importanti." ?
Perché è drammaticamente fuorviante dire che un LLM "commette errori": errori rispetto a cosa? Rispetto alla veridicità delle informazioni fornite? Mi pare che ci sia un sufficiente consenso tecnico/scientifico sul fatto che _nulla_ si possa dire in merito all'"inerente veridicità" ecc., il contrario l'hai definito "tecnicamente insipiente" [1], a meno che io abbia capito male. Quindi, un 'disclaimer' più adeguato OpenAI (& co.) dovrebbero copiarlo dal famigerrimo "all persons fictitious" disclaimer: --8<---------------cut here---------------start------------->8--- The story, all names, characters, and incidents portrayed in this production are fictitious. No identification with actual persons (living or deceased), places, buildings, and products is intended or should be inferred. --8<---------------cut here---------------end--------------->8--- ...con tutte le varianti divertentissime che si sono succedute nel tempo. Perché l'output degli LLM è semplicemente _fiction_ [2], e come fiction dovrebbe essere trattata anche dal punto di vista /giuriduco/. Ora, oggettivamente importa poco (a me) quali parole sono le più corrette per un simile disclaimer, quale tecnica di "watermaking" o dimesione di font usare; la cosa che io ritengo fondamentale è che _nessuna_ persona possa essere indotta a credere che l'output di un LLM NON sia _fittizio_ (fictitious). E nemmeno importa stabilire una ipotetica "percentuale di fittizitudine" (stima dell'errore), ammesso e non concesso sia possibile calcolarla (sarebbe "tecnicamente insipiente"?). ...in caso contrario sarebbe come _far_ credere (anche attraverso una sofisticata /narrazione/ propagandistica posta in atto all'uopo, a volte partecipata inconsapevolmente) che i fatti siano accaduti esattamente come raccontati nei film o nei romanzi e le persone siano così indotte a giudicarli come fatti corrispondenti al vero. Le persone non devono avere dubbi di dover verificare _altrove_. Il fatto è che _purtroppo_ ben pochi dispongono delle risorse finanziarie e delle conoscenze ad altissimissimo livello della principessa Irina Alexandrovna di Russia, che nel 1934 vinse una causa per diffamazione contro la Metro-Goldwyn-Mayer e ottenne un notevole risarcimento [3] nelle giurisdizioni Inglese e Statunitense (quest'ultima con un accordo extragiudiziale). Non solo l'industria della _fiction_ usa quel disclaimer per levarsi d'impiccio: nel tempo ha affinato un processo definito "negative checking" --8<---------------cut here---------------start------------->8--- Negative checking is a process by which producers of film, television and radio programs will attempt to ensure that the names of fictional characters cannot be confused with real life people. [...] The primary reason for this practice is to prevent any possible legal action for libel which could result. --8<---------------cut here---------------end--------------->8--- (https://en.wikipedia.org/wiki/Negative_checking) ...che immagino costi parecchie risorse. Dopo, però, si dovrebbe anche aprire il vaso di pandora in merito al (presunto?) trattamento dei dati _personali_ che farebbe parte del processo di addestramento degli LLM: per esempio, che tipo di trattamento giuridico occorrerebbe riservare alle aziende che utilizzano il contenuto delle email, delle chat e dei post social _privati_ per il "machine learning" dei nei propri LLM usati per erogare servizi come quelli di OpenAI? [...] Saluti, 380° [1] Messaggio id:CAD3hHB52iop9xiWWOkYCAQ1wWi-NdW=_iaRRn4WJdr2tObQByQ@mail.gmail.com [2] Messaggio id:87bkjwqccs.fsf@xelera.eu [3] https://en.wikipedia.org/wiki/All_persons_fictitious_disclaimer#Origins https://en.wikipedia.org/wiki/Rasputin_and_the_Empress#Lawsuit -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Il giorno Fri, 10 May 2024 380° via nexa ha scritto:
che tipo di trattamento giuridico occorrerebbe riservare alle aziende che utilizzano il contenuto delle email, delle chat e dei post social _privati_ per...
Direi la reclusione da sei mesi a otto anni, o da tre a dodici se si tratta di un minore. Come spesso accade, non servono norme dedicate: in Italia basta l'articolo 605 del Codice Penale. L'uso dei dati personali per qualsiasi scopo non esplicitamente richiesto dalla persona cui quei dati fanno riferimento equivale SEMPRE ad una privazione della libertà di quella persona. [1] Giacomo [1] vedi anche nota (1) https://www.brocardi.it/codice-penale/libro-secondo/titolo-xii/capo-iii/sezi...
non mi è chiaro il motivo per cui un disclaimer appropriato non offrirebbe garanzie sufficienti (se questo è il punto) supponiamo che io metta online una tavola parolibera di marinettiana memoria che genera frasi a caso, eventualmente anche diffamatorie se dichiarassi che il sito è programmaticamente situazionista e non-veritativo, sarei comunque soggetto a censura? non credo, ma i giuristi mi confortino G. On Fri, 10 May 2024 at 11:37, 380° <g380@biscuolo.net> wrote:
Buongiorno,
Guido Vetere <vetere.guido@gmail.com> writes:
[...]
una mezz'ora per leggerlo da cima a fondo - vi vedo che state facendo summarization :-))
a me ci vuole di più, non sono ancora riuscito a finirlo, ma pian piano... :-)
chiedo scusa nel caso qualcuno dei miei commenti sia già stato affrontato nel paper in oggetto, dal quale è partito questo thread.
[...]
e perché, anche abbracciando il realismo, non ci soddisfa il 'disclaimer' di OpenAI che recita (molto piccolo, ma vabbè):
"ChatGPT può commettere errori. Ti consigliamo di verificare le informazioni importanti." ?
Perché è drammaticamente fuorviante dire che un LLM "commette errori": errori rispetto a cosa? Rispetto alla veridicità delle informazioni fornite?
Mi pare che ci sia un sufficiente consenso tecnico/scientifico sul fatto che _nulla_ si possa dire in merito all'"inerente veridicità" ecc., il contrario l'hai definito "tecnicamente insipiente" [1], a meno che io abbia capito male.
Quindi, un 'disclaimer' più adeguato OpenAI (& co.) dovrebbero copiarlo dal famigerrimo "all persons fictitious" disclaimer:
--8<---------------cut here---------------start------------->8---
The story, all names, characters, and incidents portrayed in this production are fictitious. No identification with actual persons (living or deceased), places, buildings, and products is intended or should be inferred.
--8<---------------cut here---------------end--------------->8---
...con tutte le varianti divertentissime che si sono succedute nel tempo.
Perché l'output degli LLM è semplicemente _fiction_ [2], e come fiction dovrebbe essere trattata anche dal punto di vista /giuriduco/.
Ora, oggettivamente importa poco (a me) quali parole sono le più corrette per un simile disclaimer, quale tecnica di "watermaking" o dimesione di font usare; la cosa che io ritengo fondamentale è che _nessuna_ persona possa essere indotta a credere che l'output di un LLM NON sia _fittizio_ (fictitious). E nemmeno importa stabilire una ipotetica "percentuale di fittizitudine" (stima dell'errore), ammesso e non concesso sia possibile calcolarla (sarebbe "tecnicamente insipiente"?).
...in caso contrario sarebbe come _far_ credere (anche attraverso una sofisticata /narrazione/ propagandistica posta in atto all'uopo, a volte partecipata inconsapevolmente) che i fatti siano accaduti esattamente come raccontati nei film o nei romanzi e le persone siano così indotte a giudicarli come fatti corrispondenti al vero.
Le persone non devono avere dubbi di dover verificare _altrove_.
Il fatto è che _purtroppo_ ben pochi dispongono delle risorse finanziarie e delle conoscenze ad altissimissimo livello della principessa Irina Alexandrovna di Russia, che nel 1934 vinse una causa per diffamazione contro la Metro-Goldwyn-Mayer e ottenne un notevole risarcimento [3] nelle giurisdizioni Inglese e Statunitense (quest'ultima con un accordo extragiudiziale).
Non solo l'industria della _fiction_ usa quel disclaimer per levarsi d'impiccio: nel tempo ha affinato un processo definito "negative checking"
--8<---------------cut here---------------start------------->8---
Negative checking is a process by which producers of film, television and radio programs will attempt to ensure that the names of fictional characters cannot be confused with real life people. [...] The primary reason for this practice is to prevent any possible legal action for libel which could result.
--8<---------------cut here---------------end--------------->8--- (https://en.wikipedia.org/wiki/Negative_checking)
...che immagino costi parecchie risorse.
Dopo, però, si dovrebbe anche aprire il vaso di pandora in merito al (presunto?) trattamento dei dati _personali_ che farebbe parte del processo di addestramento degli LLM: per esempio, che tipo di trattamento giuridico occorrerebbe riservare alle aziende che utilizzano il contenuto delle email, delle chat e dei post social _privati_ per il "machine learning" dei nei propri LLM usati per erogare servizi come quelli di OpenAI?
[...]
Saluti, 380°
[1] Messaggio id:CAD3hHB52iop9xiWWOkYCAQ1wWi-NdW=_ iaRRn4WJdr2tObQByQ@mail.gmail.com
[2] Messaggio id:87bkjwqccs.fsf@xelera.eu
[3] https://en.wikipedia.org/wiki/All_persons_fictitious_disclaimer#Origins https://en.wikipedia.org/wiki/Rasputin_and_the_Empress#Lawsuit
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Salve Guido, Il 11 Maggio 2024 12:02:01 CEST, Guido Vetere <vetere.guido@gmail.com> ha scritto:
non mi è chiaro il motivo per cui un disclaimer appropriato non offrirebbe garanzie sufficienti (se questo è il punto)
Se il tuo software è progettato per ingannare le menti umane, dichiararlo come tale non lo rende meno ingannevole. Le menti umane continueranno ad esserne ingannate (fintanto che non saranno in grado di comprenderne appieno il funzionamento) e tu devi rispondere di tale inganno, soprattutto se hai diffuso la credenza che quel software sia "intelligente" e abbia "appreso" dai testi usati per programmarlo. Se avessero pubblicizzato GPT4 come un "generatore automatico di stronzate plausibili" o come una "parodia del web che non fa ridere", il tuo disclaimer offrirebbe garanzie sufficienti. Ma se il tuo disclaimer viene dopo mesi di propaganda martellante a tutti i livelli della società per far credere che questi software siano "intelligenze aliene", un disclaimer diventa invisibile alla stragrande maggioranza della popolazione. È un po' come andare in discoteca e confessare sottovoce ad una vittima che passa vicino alle casse che sei un maniaco assassino: al processo per omicidio, il tuo "disclaimer" difficilmente sarà riconosciuto come attenuante.
supponiamo che io metta online una tavola parolibera di marinettiana memoria che genera frasi a caso, eventualmente anche diffamatorie se dichiarassi che il sito è programmaticamente situazionista e non-veritativo, sarei comunque soggetto a censura?
Se nessuno ti prende sul serio, no. Se moltissimi ritengono credibile il tuo output, è auspicabile che tu ne debba rispondere come fossero parole direttamente scritte da te. Come in fondo sono: hai solo scritto un software che le "scrive" al tuo posto. È come se le avessi compresse e pubblicate "a puntate". Disclaimer o meno. Giacomo
Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Guido Vetere <vetere.guido@gmail.com> Inviato: sabato 11 maggio 2024 12:02
non mi è chiaro il motivo per cui un disclaimer appropriato non offrirebbe garanzie sufficienti (se questo è il punto)
La Federal Trade Commission statunitense ha spiegato pubblicamente il motivo per cui un disclaimer può non offrire garanzie sufficienti: There’s a back-and-forth that’s playing out in the popular press. There will be a wave of breathless coverage – and then there will be a very dry response from technical experts, stressing that no, these machines are not sentient, they’re just mimicking stories and patterns they’ve been trained on. No, they are not emoting, they are just echoing the vast quantities of human speech that they have analyzed. I worry that this debate may obscure the point. Because the law doesn’t turn on how a trained expert reacts to a technology – it turns on how regular people understand it. At the FTC, for example, when we evaluate whether a statement is deceptive, we ask what a reasonable person would think of it. When analyzing unfairness, we ask whether a reasonable person could avoid the harms in question. In tort law, we have the “eggshell” plaintiff doctrine: If your victim is particularly susceptible to an injury you caused, that is on you. https://www.ftc.gov/news-events/news/speeches/prepared-remarks-commissioner-...
Buongiorno Daniela, grazie di aver richiamato questa importante posizione della FTC! Daniela Tafani <daniela.tafani@unipi.it> writes: [...]
In tort law, we have the “eggshell” plaintiff doctrine: If your victim is particularly susceptible to an injury you caused, that is on you.
https://www.ftc.gov/news-events/news/speeches/prepared-remarks-commissioner-...
vale nei paesi con "common law" rif. https://en.wikipedia.org/wiki/Eggshell_skull (IANA*) In EU, quindi anche in molti col "diritto romano", esiste la norma sullla responsabilità da prodotto (fisico): https://europa.eu/youreurope/business/dealing-with-customers/consumer-contra... Credo che l'"AI Act" sia stato fatto per tentare (male?) di estendere quei principi giuridici anche al _software_ :-( Io ritengo che, nel caso della "IA generativa" /pura/, cioè dove non c'è nessun attuatore connesso a una macchina o sistema fisico, questa /contorsione/ giuridica non sia necessaria. Le /contorsioni/ giuridiche a cui mi riferisco sono quelle sorprendenti che leggo in quello che è sintetizzato in questo articolo, sicuramente parziale e approssimativo: --8<---------------cut here---------------start------------->8--- Responsabilità giuridica dell'intelligenza artificiale [...] Alcuni giuristi hanno ipotizzato che le seguenti disposizioni del Codice civile (c.c.) possano essere applicate in via interpretativa alla responsabilità delle entità IA. [...] «Danno cagionato dall’incapace» [...] se l’entità IA fosse dotata di apprendimento automatico ma necessitasse di supervisione [...] «Responsabilità dei genitori, dei tutori, dei precettori e dei maestri d'arte» [...] se l'entità IA fosse dotata di apprendimento automatico. [...], «Danno cagionato da animali» [...] nel caso in cui l’entità IA venisse considerata alla stregua di un animale [...] In entrambe le risoluzioni si riscontra un cambiamento rispetto al passato: si sottolinea che le entità IA non possono essere più considerate meri oggetti, essendo sempre più simili ad agenti che interagiscono con l’ambiente circostante. L'obiettivo delineato dal Parlamento consiste nella predisposizione di norme apposite che disciplinino la responsabilità delle entità IA, --8<---------------cut here---------------end--------------->8--- https://it.wikipedia.org/wiki/Responsabilit%C3%A0_giuridica_dell%27intellige... Eh certo che se l'IA fosse una /entità/... Eh certo che se l'IA fosse un /oggetto/ (è software)... Ho già detto in passato che IMO la "vecchia" responsabilità da prodotto difettoso (Direttiva 85/374/CEE e successive modifiche) è lo strumento giuridico migliore anche per le _macchine_ controllate per mezzo di "IA". Ovvio che la verifica e l'assunzione di responsabilità di adeguatezza all'uso di tutto il software (l'AI è software) ricade in tutto e per tutto sul produttore, che deve fare le adeguate verifiche (e analisi dei rischi, che è _indispensabile_ per mettere in commercio qualsiasi prodotto). Sarò io che la faccio facile? :-) Saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno, la proposta AI Act non affronta le problematiche tutte che investono l’AI generativa, non il tema della disinformazione, né quello della logica alla base dell'AI, né quello della autorialità (che affronto nel mio articolo). Ma, sia detto a evitare equivoci, non si tratta di un vuoto normativo, posto che l’AI act non vuole disciplinare l’intera materia dell’intelligenza artificiale, come una summa di tutte le norme, ma vuole soltanto determinare condizioni e requisiti che i sistemi di AI devono rispettare per poter accedere al mercato unico digitale Di responsabilità si occupano due direttive in corso di definizione (https://www.europarl.europa.eu/topics/it/article/20231023STO08103/protezione...) che, allo stato attuale, non affrontano il tema dell'autorialità che metto in evidenza nell'articolo. Saluti, Gianluca Fasano Il 11/05/24 16:34, 380° via nexa ha scritto:
In EU, quindi anche in molti col "diritto romano", esiste la norma sullla responsabilità da prodotto (fisico): https://europa.eu/youreurope/business/dealing-with-customers/consumer-contra...
Credo che l'"AI Act" sia stato fatto per tentare (male?) di estendere quei principi giuridici anche al_software_ 🙁
Daniela, francamente non mi sembra che FTC sostenga che non esiste possibilità di disclaimer per l'AI generativa, ma solo che questa non debba essere 'deceptive', cosa sulla quale sono d'accordo anche i sassi. È chiaro che se il consumatore non fosse in grado di leggere e comprendere un disclaimer, potrebbe essere tratto in inganno anche da una filastrocca per bambini. 380°, per 'censura' (parola sovraccarica di senso, ultimamente) non intendevo quella del Sant'Uffizio, ma più precisamente quella del legislatore. Per non rischiare di incorrervi, gli LLM vengono oggi 'tuned' per evitare di parlare di certe cose, ad esempio informazioni biografiche, anche quelle che si possono reperire in rete. Questo mostra che - come credo suggerivi - questi sistemi sono visti come 'agenti' anche quando funzionano per lo più come 'search engine on steroids'. Su questa concezione agentiva convergono sia certi produttori molto interessati alle vendite, sia certi politici poco interessati a capirci qualcosa. G. Il Sab 11 Mag 2024, 14:54 Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Guido Vetere <vetere.guido@gmail.com> Inviato: sabato 11 maggio 2024 12:02
non mi è chiaro il motivo per cui un disclaimer appropriato non offrirebbe garanzie sufficienti (se questo è il punto)
La Federal Trade Commission statunitense ha spiegato pubblicamente il motivo per cui un disclaimer può non offrire garanzie sufficienti:
There’s a back-and-forth that’s playing out in the popular press. There will be a wave of breathless coverage – and then there will be a very dry response from technical experts, stressing that no, these machines are not sentient, they’re just mimicking stories and patterns they’ve been trained on. No, they are not emoting, they are just echoing the vast quantities of human speech that they have analyzed. I worry that this debate may obscure the point. Because the law doesn’t turn on how a trained expert reacts to a technology – it turns on how regular people understand it. At the FTC, for example, when we evaluate whether a statement is deceptive, we ask what a reasonable person would think of it. When analyzing unfairness, we ask whether a reasonable person could avoid the harms in question. In tort law, we have the “eggshell” plaintiff doctrine: If your victim is particularly susceptible to an injury you caused, that is on you.
https://www.ftc.gov/news-events/news/speeches/prepared-remarks-commissioner-...
Guido Vetere <vetere.guido@gmail.com> writes:
Questo mostra che - come credo suggerivi - questi sistemi sono visti come 'agenti' anche quando funzionano per lo più come 'search engine on steroids'.
la differenza sostanziale con le search engines (con "summarization", ranking, tracking, ecc.) mi pare risieda nel fatto di non essere in grado di fornire i link di riferimento dei risultati ricavati in base ai termini di ricerca tra l'altro, mi domando se dovremo aspettare altri 30 anni per vedere la fine della "guerra dei browser" coi motori di ricerca predefiniti
Su questa concezione agentiva convergono sia certi produttori molto interessati alle vendite, sia certi politici poco interessati a capirci qualcosa.
concordo, probabilmente è una gigantesca operazione di gaslighting [...] saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
in realtà i RAG (è più o meno questo di cui parliamo) i link li mettono anche, il problema è che quando ti hanno dato la risposta, non è che tu nei link ci vai pure guardare :-) questo pone due ordini di problemi: 1) tu percepisci il sistema come 'epistemicamente impegnato' (mentre non gliene frega niente) 2) il link che fornisce l'informazione è quello di qualcuno che sperava in un po' di traffico, e invece ... il problema 1 si potrebbe mitigare coi disclaimer, ma dovrebbero essere belli grossi .. il problema 2 è un bel rebus .. piccolo aneddoto: l'altro giorno ho chiesto a GPT4 come si chiama un certo accessorio usato per suonare alcuni tipi di antichi strumenti ad ancia (ne avevo visto uno in un affresco del 500) e quello dopo un paio di interazioni ha tirato fuori la risposta che cercavo: 'pirouette'. ora, questa stringa è monopolizzata da un certo passo di danza (piroetta), dunque è molto difficile tirar fuori l'accezione musicologica (assai più rara) da un search engine generalista come google. IO: mi riferisco a un piccolo cilindro di legno in cui l'ancia doppia veniva incapsulata, sul quale il suonatore poggiava le labbra LUI (o LEI): Grazie per la precisazione. Stai parlando del *pirouette*, un piccolo cilindro di legno utilizzato in strumenti antichi come la bombarda e altri strumenti a fiato della famiglia degli oboi. Il pirouette funziona come un supporto su cui il musicista appoggia le labbra mentre soffia nell'ancia doppia, facilitando il controllo dell'emissione del suono e permettendo una maggiore stabilità nel suonare. Questo componente è tipico degli strumenti antichi e aiuta a proteggere l'ancia stessa oltre a guidare il flusso d'aria. questo per dire che con questi sistemi ci si dovrà venire a patti, temo G. On Sat, 11 May 2024 at 18:23, 380° <g380@biscuolo.net> wrote:
Guido Vetere <vetere.guido@gmail.com> writes:
Questo mostra che - come credo suggerivi - questi sistemi sono visti come 'agenti' anche quando funzionano per lo più come 'search engine on steroids'.
la differenza sostanziale con le search engines (con "summarization", ranking, tracking, ecc.) mi pare risieda nel fatto di non essere in grado di fornire i link di riferimento dei risultati ricavati in base ai termini di ricerca
tra l'altro, mi domando se dovremo aspettare altri 30 anni per vedere la fine della "guerra dei browser" coi motori di ricerca predefiniti
Su questa concezione agentiva convergono sia certi produttori molto interessati alle vendite, sia certi politici poco interessati a capirci qualcosa.
concordo, probabilmente è una gigantesca operazione di gaslighting
[...]
saluti, 380°
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
A mio parere, in base alla Proposta di Direttiva relativa all'adeguamento delle norme in materia di responsabilità civile extracontrattuale all'intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale), il disclaimer o comunque soluzione che limiti la causazione del danno entro obblighi di diligenza/negligenza potrebbe bastare: Rebuttable presumption of a causal link between a failed duty of care and harm caused by the AI system (1) national courts would be required to assume that there is a causal link between the fault of the defendant and the harmful output produced by the AI system or the failure to produce a relevant output when: (a) *The claimant has demonstrated* (or the court has presumed due to a failure to provide evidence) *that the defendant has failed in a duty of care set out in EU or national law, which is intended to protect against the harm caused*. (b) It is reasonably likely in the circumstances that the *failure to satisfy the relevant duty of care has influenced the output produced by the AI* system or the failure of the AI system to produce an output. (c) The claimant has demonstrated that the output produced by the AI system is what gave rise to the damage. (2) The defendant can rebut this presumed cause-and-effect relationship for example by providing evidence that its fault could not have caused the damage. (3) The presumption will not apply to high-risk AI if the defendant can demonstrate that sufficient evidence and expertise are reasonably accessible for the claimant to prove a causal link, and it will only apply to non-High-Risk AI Systems where the court considers it excessively difficult for the claimant to prove the causal link. EUR-Lex - 52022PC0496 - EN - EUR-Lex (europa.eu) <https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52022PC0496> Ho evidenziato i passaggi salienti. Nonostante l'inversione dell'onere della prova, quella proposta dalla direttiva è una responsabilità soggettiva (da negligenza/violazione di un obbligo di diligenza) non oggettiva. A presto, Giancarlo On Sat, May 11, 2024 at 6:05 PM Guido Vetere <vetere.guido@gmail.com> wrote:
in realtà i RAG (è più o meno questo di cui parliamo) i link li mettono anche, il problema è che quando ti hanno dato la risposta, non è che tu nei link ci vai pure guardare :-) questo pone due ordini di problemi: 1) tu percepisci il sistema come 'epistemicamente impegnato' (mentre non gliene frega niente) 2) il link che fornisce l'informazione è quello di qualcuno che sperava in un po' di traffico, e invece ...
il problema 1 si potrebbe mitigare coi disclaimer, ma dovrebbero essere belli grossi .. il problema 2 è un bel rebus ..
piccolo aneddoto: l'altro giorno ho chiesto a GPT4 come si chiama un certo accessorio usato per suonare alcuni tipi di antichi strumenti ad ancia (ne avevo visto uno in un affresco del 500) e quello dopo un paio di interazioni ha tirato fuori la risposta che cercavo: 'pirouette'. ora, questa stringa è monopolizzata da un certo passo di danza (piroetta), dunque è molto difficile tirar fuori l'accezione musicologica (assai più rara) da un search engine generalista come google.
IO: mi riferisco a un piccolo cilindro di legno in cui l'ancia doppia veniva incapsulata, sul quale il suonatore poggiava le labbra
LUI (o LEI): Grazie per la precisazione. Stai parlando del *pirouette*, un piccolo cilindro di legno utilizzato in strumenti antichi come la bombarda e altri strumenti a fiato della famiglia degli oboi. Il pirouette funziona come un supporto su cui il musicista appoggia le labbra mentre soffia nell'ancia doppia, facilitando il controllo dell'emissione del suono e permettendo una maggiore stabilità nel suonare. Questo componente è tipico degli strumenti antichi e aiuta a proteggere l'ancia stessa oltre a guidare il flusso d'aria.
questo per dire che con questi sistemi ci si dovrà venire a patti, temo
G.
On Sat, 11 May 2024 at 18:23, 380° <g380@biscuolo.net> wrote:
Guido Vetere <vetere.guido@gmail.com> writes:
Questo mostra che - come credo suggerivi - questi sistemi sono visti come 'agenti' anche quando funzionano per lo più come 'search engine on steroids'.
la differenza sostanziale con le search engines (con "summarization", ranking, tracking, ecc.) mi pare risieda nel fatto di non essere in grado di fornire i link di riferimento dei risultati ricavati in base ai termini di ricerca
tra l'altro, mi domando se dovremo aspettare altri 30 anni per vedere la fine della "guerra dei browser" coi motori di ricerca predefiniti
Su questa concezione agentiva convergono sia certi produttori molto interessati alle vendite, sia certi politici poco interessati a capirci qualcosa.
concordo, probabilmente è una gigantesca operazione di gaslighting
[...]
saluti, 380°
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org
.
On 11/05/24 14:50, Daniela Tafani wrote:
In tort law, we have the “eggshell” plaintiff doctrine: If your victim is particularly susceptible to an injury you caused, that is on you.
https://www.ftc.gov/news-events/news/speeches/prepared-remarks-commissioner-...
La dottrina di common law menzionata dalla FTC (https://www.foxandfarleylaw.com/what-is-the-eggshell-plaintiff-doctrine/) afferma che se tu causi un danno per negligenza, e una persona più vulnerabile viene danneggiata, o viene danneggiata maggiormente di una meno vulnerabile, tu sei responsabile di quel danno. Se per esempio lasci il pavimento bagnato e metti un avviso, ma un anziano ipovedente scivola e si rompe il femore dove un giovane avrebbe visto l'avviso oppure, se distratto, se la sarebbe cavata con un ematoma, la colpa è tua. Dopo tutto, è il pavimento che avevi lasciato bagnato che l'ha fatto scivolare. Che poi tu abbia lavato il pavimento con un normale spazzolone, o con un fantastico spazzolone SALAMI-powered rimane, per la responsabilità civile dell'incidente, del tutto irrilevante. A presto, MCP
dunque non si possono lavare i pavimenti? On Sat, 11 May 2024 at 18:38, Maria Chiara Pievatolo < mariachiara.pievatolo@unipi.it> wrote:
On 11/05/24 14:50, Daniela Tafani wrote:
In tort law, we have the “eggshell” plaintiff doctrine: If your victim is particularly susceptible to an injury you caused, that is on you.
https://www.ftc.gov/news-events/news/speeches/prepared-remarks-commissioner-...
La dottrina di common law menzionata dalla FTC (https://www.foxandfarleylaw.com/what-is-the-eggshell-plaintiff-doctrine/)
afferma che se tu causi un danno per negligenza, e una persona più vulnerabile viene danneggiata, o viene danneggiata maggiormente di una meno vulnerabile, tu sei responsabile di quel danno. Se per esempio lasci il pavimento bagnato e metti un avviso, ma un anziano ipovedente scivola e si rompe il femore dove un giovane avrebbe visto l'avviso oppure, se distratto, se la sarebbe cavata con un ematoma, la colpa è tua. Dopo tutto, è il pavimento che avevi lasciato bagnato che l'ha fatto scivolare.
Che poi tu abbia lavato il pavimento con un normale spazzolone, o con un fantastico spazzolone SALAMI-powered rimane, per la responsabilità civile dell'incidente, del tutto irrilevante.
A presto, MCP
e allora continuiamo la metafora se un anziano che non ha notato il cartello scivola e si fa male, viene incriminato il produttore del detersivo per pavimenti? gli si impone di produrre sapone antiscivolo? :-)) buona serata, G. Il Sab 11 Mag 2024, 19:15 Maria Chiara Pievatolo < mariachiara.pievatolo@unipi.it> ha scritto:
On 11/05/24 19:02, Guido Vetere wrote:
dunque non si possono lavare i pavimenti?
La risposta è lasciata come esercizio per il lettore :-) Buona serata. MCP
Il 11 Maggio 2024 19:48:58 CEST, Guido Vetere <vetere.guido@gmail.com> ha scritto:
e allora continuiamo la metafora se un anziano che non ha notato il cartello scivola e si fa male, viene incriminato il produttore del detersivo per pavimenti?
No, risponde dell'incidente chi ha scelto di esporre al pubblico il pavinento bagnato. Tipo OpenAI per l'istanza di GPT4 aperta al pubblico. Giacomo
Io copio... :-) Il 11 Maggio 2024 Maria Chiara Pievatolo ha scritto:
On 11/05/24 19:02, Guido Vetere wrote:
dunque non si possono lavare i pavimenti?
La risposta è lasciata come esercizio per il lettore :-)
I negozi li lavano dopo la chiusura al pubblico. 🤯 Anche gli LLM possono essere usati in modo perfettamente sicuro... da chi li realizza. Giacomo
Giacomo Tesio <giacomo@tesio.it> writes:
Il 11 Maggio 2024 Maria Chiara Pievatolo ha scritto:
On 11/05/24 19:02, Guido Vetere wrote:
dunque non si possono lavare i pavimenti?
<joke>dipende: è stata la AI a ordinare in quali orari, con quali detersivi, con quali spazzoloni e con quale segnaletica far lavare il pavimento alla persona addetta alle pulizie?</joke> :-D quindi dalla valutazione in merito all'inquadramento giuridico degli output degli LLM stile ChatGPT e la loro interazione con la libertà di pensiero e il libero convincimento interiore siamo arrivati a parlare di lavaggio dei pavimenti? :-) io sconsiglio /sempre/ di esagerare con le metafore legate al mondo fisico quando si vogliono trovare metafore per il mondo "digitale", ovvero quella "cosa" che non ha nulla a che fare con la fisica e tutto a che fare con l'espressione delle idee, sebbene in una forma /sui generis/. per quello insisto con la /metafora/ degli output dei LLM come fiction comunque, parlando di _interazione_ (input/output) tra "digitale" e mondo fisico...
La risposta è lasciata come esercizio per il lettore :-)
I negozi li lavano dopo la chiusura al pubblico.
quella di chiudere i negozi per lavare i pavimenti o svolgere attività che comportano un determinato rischio (e il rischio _deve_ essere valutato per determinarlo) è effettivamente una misura molto più efficace per ridurlo significativamente rispetto all'esposizione di uno stitico cartello appoggiato al pavimento: c'è un modo per /insegnarlo/ alla AI che governa il negozio? Se l'AI sbaglia i /calcoli/ di chi è la responsabilità in caso di incidente: del fornitore della AI o del proprietario del negozio che ha collegato l'AI agli impianti del negozio? è l'ABC della salute e sicurezza ormai da molti anni, almeno a partire dall'incendio al Cinema Statuto di Torino del Feb 1983, preceduto di qualche mese da quello di Palazzo Vignola a Todi del Apr 1982 [2]... /anche/ se l'adeguamento alle buone pratiche in materia di sicurezza è costato una /notevole/ quantità di risorse pubbliche e private: hanno praticamente ribaltato da cima a fondo _ogni_ luogo aperto al pubblico, da allora, oltre che /adeguare/ le norme in tema di responsabilità civile e penale dei gestori dei locali pubblici (in realtà il nesso causale è stato esattamente opposto: hanno adeguato perchè hanno modificato le norme... o hanno solo cominciato ad applicarle?). E sì, i burocrati poi ci hanno messo del loro perché loro /amano/ complicare le cose. con un po' di buona volontà non c'è nulla di nuovo da "inventare" per capire come si deve fare per minimizzare i rischi per la salute e la sicurezza del pubblico _soggetto_ a (utilizzatore di?) sistemi automatici dotati di attuatori fisici regolati dal software, AI compresa. ogni singolo settore "merceologico", dalle autovetture fino agli aerei, dai dispositivi medici fino alle macchine industriali ha già un sufficiente volume di regole tecniche (le famigerate norme volontarie), procedure di omologazioni e relative leggi; io sconsiglierei di complicarle inutilmente, che già così hanno bisogno di qualche messa a punto per eliminare non poche complicazioni inutili, con un rapporto segnale/rumore ancora ampiamente insufficiente per i /nostri/ gusti. Saluti, 380° [1] o interi corridoi dei centri commerciali [2] https://it.wikipedia.org/wiki/Incendio_del_Palazzo_del_Vignola -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno Guido, Guido Vetere <vetere.guido@gmail.com> writes:
non mi è chiaro il motivo per cui un disclaimer appropriato non offrirebbe garanzie sufficienti (se questo è il punto)
certo che un disclaimer /appropriato/ offrirebbe garanzie (di cosa?) sufficienti; il punto è che quello che hai indicato tu: ChatGPT può commettere errori. Ti consigliamo di verificare le informazioni importanti. non offre garanzie sufficienti per i motivi che ho tentato di esporre, evidentemente non sono stato in grado di spiegarli adeguatamente ma non sono in grado di fare di meglio soprattutto non ho capito esattamente cosa non è chiaro di quello (probabilmente troppo) che ho scritto [1], anche perché purtroppo le tue risposte bottom-quoted non favoriscono il dialogo (se è questo lo scopo)... ma parlare di netiquette è /desueto/ anche qui, pare
supponiamo che io metta online una tavola parolibera di marinettiana memoria che genera frasi a caso, eventualmente anche diffamatorie
ti ringrazio infinitamente di aver usato un'espressione artistica come base per il tuo esperimento mentale, perché dimostra in modo _plastico_ quanto sto sostenendo nei mei lunghi /sproloqui/: l'output di ChatGTP e degli altri LLM è un'espressione artistica, una _fiction_, al pari di un'opera /derivata/ dalla tavola parolibera di marinettiana memoria... ...ma potrebbe derivare dall'opera omnia di Tolkien o dall'intera collezione di arte _e_ scienza dai Sumeri fino ad oggi: ho scritto scienza non a caso, perché /comunque/ i LLM la _trattano_ esattamente allo stesso modo, al pari di qualsiasi altra opera di _fiction_. Sfido chiunque a dimostrare il contrario, a meno che mi sia perso che gli LLM (o altra "IA generativa") sono in grado di produrre riferimenti bibliografici precisi, che sono gli unici che differenziano la scienza dalla fiction [2]. se gli LLM et al. fossero trattati come /generatori di fiction/ sarebbe tutto così semplice, *anche* dal punto di vista giuridico, perché su "come trattare giuridicamente le fiction" abbiamo millenni di esperienza ...e invece a me /pare/ che spesso dobbiamo complicare tutto mettendola giù molto più dura di come effettivamente è
se dichiarassi che il sito è programmaticamente situazionista e non-veritativo, sarei comunque soggetto a censura?
censura? Stavamo parlando di questo? Qualcuno prima ha mai usato la parola "censura" in _questo_ contesto? oppure ritieni che "paventare" il rischio di eventuali accuse di diffamazione sia una forma di censura? o ti riferisci a eventuali restrizioni al commercio come forma di censura? tralasciando per un attimo l'argomento censura, scrivere «il sito è programmaticamente situazionista e non-veritativo» oppure scrivere «ChatGPT può commettere errori. Ti consigliamo di verificare le informazioni importanti.» non è la stessa cosa e io ho scritto chiaramente, ribadisco, che non mi interessa quali siano le esatte parole da inserire in un "disclaimer": è il concetto veicolato ai "non addetti ai lavori" la cosa _fondamentale_. ...e io sfido chiunque a sostenere che "programmaticamente situazionista" sia comprensibile a chi non è docente in Intelligenza Artificiale, perché per intepretare "situazionista" _in questo contesto_ anche ai /tennici/ come me non basta guardare il vocabilario (e infatti ancora non lo capisco). divertente giocare con le parole :-) comunque, per chiudere (da parte mia) e rilanciare il gioco delle parole che mi diverte moltissimo (ma fino a un certo punto), alla tua domanda «sarei comunque soggetto a censura?» rispondo così: «ma no, ci mancherebbe! Figurati che non sono soggetti a _censura_ nemmeno i distributori di tavolette Ouija™ (marchio di Hasbro [3]), nonostante pare il loro uso sia espressamente proibito dal Catechismo della Chiesa Cattolica (CCC 2116) e dal Sinodo evangelico luterano del Wisconsin; inoltre un vescovo micronesiano e una organizzazione cattolica USA ne hanno espressamente chiesto la messa al bando [4]. Ma sono sicuro che mancano all'appello altre richieste di censura delle tavolette Ouija™ da parte di altre istituzioni religiose e non (le quali, sia chiaro, hanno tutto il mio rispetto). Non sono a conoscienza di iniziative della Commissione EU per giungere alla regolamentazione delle tavolette Ouija, l'"Ouija Act", al fine di stabilire le regole per la /certificazione/ della costruzione necessaria alla loro messa in commercio (con marchio CE). Sono invece a conoscenza di varie iniziative di ricerca scientifica sulle tavolette Ouija™, una delle teorie più accreditate pare essere quella per la quale tali dispositivi funzionino per mezzo del "ideomotor phenomenon", comune ad alcuni altri fenomeni paranormali [5].» BTW IANA* [...] un caro saluto, 380° [1] che ho integralmente cancellato dalla mia risposta perché chi vuole lo trova nel thread [2] sia chiaro: io *adoro* la fiction, è una parte _fondamentale_ della nostra cultura e espressione dell'_intelligenza_ umana, che un LLM o altro sistema di "IA generativa" può facilissimamente riprodurre e ricombinare (che NON è quello che fanno gli esseri umani). [3] https://hasbropulse.com/products/ouija-board [4] https://it.wikipedia.org/wiki/Tavola_ouija#Critiche e https://en.wikipedia.org/wiki/Ouija#Religious_responses [5] https://en.wikipedia.org/wiki/Ideomotor_phenomenon -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno, grazie per la segnalazione, per facilitare eventuali commenti /contestuali/ (inline) e favorire l'eventuale dibattito in lista mi permetto di riportare il testo della presentazione. Fare commenti contestuali in merito al contenuto dell'articolo è impossibile, considerato che è distribuito solo in PDF Gianluca Fasano <gianluca.fasano@cnr.it> writes:
colgo l'occasione degli ultimi scambi sui LLMs per segnalarvi un mio articolo pubblicato su Dirittifondamentali.it [1], dal titolo:
/Le ‘informazioni sintetizzate’ generate dai large language models e le esigenze di tutela del diritto all’informazione/: valori costituzionali e nuove regole
--8<---------------cut here---------------start------------->8--- I /large language models/ sono modelli di intelligenza artificiale in grado di generare una narrativa testuale coerente e contestualmente rilevante, per mezzo di un'attività che va oltre la semplice riproduzione di informazioni esistenti, come invece avviene nei motori di ricerca. La generazione di testo è resa possibile da sofisticati sistemi di ‘auto-apprendimento' e si realizza grazie alla – e nella – interazione uomo-macchina, ove il ruolo di quest'ultima è di prender parte all'esercizio della libertà di pensiero del primo. In tale contesto si formeranno sempre più spesso idee, opinioni, convinzioni, quell'humus in grado di trasformare i moti della coscienza e di condizionare il diritto all'autodeterminazione. Non si ritiene, sia detto a evitare equivoci, che la macchina eserciti un diritto di libertà ma, egualmente all'esercizio della libertà di espressione dei vivi, ad essa deve corrispondere l'assunzione di doveri e responsabilità, non solo in termini di qualità, veridicità e correttezza, ma sulla base di nuovi modelli di autorialità connessi alla creazione di ‘informazioni sintetizzate'. [...] [Fasano-Le-informazioni-sintetizzate-generate-dai-large-language-models-e-le-esigenze-di-tutela-del-diritto-allinformazione-] <http://dirittifondamentali.it/wp-content/uploads/2024/02/Fasano-Le-informazi...> [Download] <http://dirittifondamentali.it/wp-content/uploads/2024/02/Fasano-Le-informazi...> --8<---------------cut here---------------end--------------->8--- Saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno, vorrei condividere con voi una riflessione in tema di 'sistemi decisionali automatizzati', ove il diritto all’intervento umano rappresenta sempre più l'affermazione del diritto all’oblio, anche comportamentale. La mia idea è che le tutele previste dall’art. 22 del Gdpr saranno sempre più difficili da attuare: per via della complessità sempre più spinta dei processi che concorrono alla formazione delle decisioni automatizzate; per via della tendenza dell’uomo ad appiattirsi sui risultati della macchina e delle sue capacità di aggregare, elaborare e inferire enormi quantità di dati; per via della facilità con cui l’uomo è pronto ad abdicare dalla proprie responsabilità di decidere; per via delle difficoltà concrete di poter reclamare le tutele previste dall’art. 22 Gdpr da parte di chi, avendone diritto, non possiede le conoscenze per indagare la complessità delle diverse dinamiche e interconnessioni che caratterizzano i sistemi decisionali automatizzati. Come intervenire? Per saperne di più vi lascio il link al saggio [1] e all'abstract [2]. Buon fine settimana. Gianluca Fasano [1] www.rivistaitalianadiinformaticaediritto.it Guarda L’interpretazione estensiva della nozione di “decisione automatizzata” ad opera della Corte di giustizia: una prospettiva più ampia ma ancora fragili tutele per le libertà fondamentali <#> 🔗 https://www.rivistaitalianadiinformaticaediritto.it/index.php/RIID/article/v... <https://www.rivistaitalianadiinformaticaediritto.it/index.php/RIID/article/v...> [2] www.rivistaitalianadiinformaticaediritto.it L’interpretazione estensiva della nozione di “decisione automatizzata” ad opera della Corte di giustizia: una prospettiva più ampia ma ancora fragili tutele per le libertà fondamentali | Rivista italiana di informatica e diritto <#> 🔗 https://www.rivistaitalianadiinformaticaediritto.it/index.php/RIID/article/v... <https://www.rivistaitalianadiinformaticaediritto.it/index.php/RIID/article/v...>
I nuovi, recenti pasticci dell'algoritmo per l'assegnazione delle supplenze a scuola dimostrano che la questione è sempre più decisiva per le nostre società. https://torino.corriere.it/notizie/scuola/24_settembre_02/supplenze-a-scuola... ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Gianluca Fasano <gianluca.fasano@cnr.it> Inviato: venerdì, settembre 6, 2024 12:09:55 PM A: Nexa <nexa@server-nexa.polito.it> Oggetto: [nexa] Sistemi decisionali automatizzati e diritto all'oblio Buongiorno, vorrei condividere con voi una riflessione in tema di 'sistemi decisionali automatizzati', ove il diritto all’intervento umano rappresenta sempre più l'affermazione del diritto all’oblio, anche comportamentale. La mia idea è che le tutele previste dall’art. 22 del Gdpr saranno sempre più difficili da attuare: per via della complessità sempre più spinta dei processi che concorrono alla formazione delle decisioni automatizzate; per via della tendenza dell’uomo ad appiattirsi sui risultati della macchina e delle sue capacità di aggregare, elaborare e inferire enormi quantità di dati; per via della facilità con cui l’uomo è pronto ad abdicare dalla proprie responsabilità di decidere; per via delle difficoltà concrete di poter reclamare le tutele previste dall’art. 22 Gdpr da parte di chi, avendone diritto, non possiede le conoscenze per indagare la complessità delle diverse dinamiche e interconnessioni che caratterizzano i sistemi decisionali automatizzati. Come intervenire? Per saperne di più vi lascio il link al saggio [1] e all'abstract [2]. Buon fine settimana. Gianluca Fasano [1] www.rivistaitalianadiinformaticaediritto.it<http://www.rivistaitalianadiinformaticaediritto.it> Guarda L’interpretazione estensiva della nozione di “decisione automatizzata” ad opera della Corte di giustizia: una prospettiva più ampia ma ancora fragili tutele per le libertà fondamentali 🔗 https://www.rivistaitalianadiinformaticaediritto.it/index.php/RIID/article/view/258/199<https://www.rivistaitalianadiinformaticaediritto.it/index.php/RIID/article/view/258/199> [2] www.rivistaitalianadiinformaticaediritto.it<http://www.rivistaitalianadiinformaticaediritto.it> L’interpretazione estensiva della nozione di “decisione automatizzata” ad opera della Corte di giustizia: una prospettiva più ampia ma ancora fragili tutele per le libertà fondamentali | Rivista italiana di informatica e diritto 🔗 https://www.rivistaitalianadiinformaticaediritto.it/index.php/RIID/article/view/258<https://www.rivistaitalianadiinformaticaediritto.it/index.php/RIID/article/view/258>
participants (8)
-
380° -
Antonio Vetro' -
Daniela Tafani -
GC F -
Giacomo Tesio -
Gianluca Fasano -
Guido Vetere -
Maria Chiara Pievatolo