‘Life or Death:’ AI-Generated Mushroom Foraging Books Are All Over Amazon
A genre of AI-generated books on Amazon is scaring foragers and mycologists: cookbooks and identification guides for mushrooms aimed at beginners. Amazon has an AI-generated books problem<https://www.vice.com/en/article/v7b774/ai-generated-books-of-nonsense-are-al...> that’s been documented by journalists<https://www.washingtonpost.com/technology/2023/05/05/ai-spam-websites-books-...> for months. Many of these books are obviously gibberish designed to make money. But experts say that AI-generated foraging books, specifically, could actually kill people if they eat the wrong mushroom because a guidebook written by an AI prompt said it was safe. The New York Mycological Society (NYMS) warned on social media that the proliferation of AI-generated foraging books could “mean life or death.” https://www.404media.co/ai-generated-mushroom-foraging-books-amazon/
Mi pare che il problema non sia che sono generati dall'AI, ma che libri con istruzioni potenzialmente dannose siano vendibili senza che passino il vaglio di alcun tipo di revisione. Il giorno mar 29 ago 2023 alle ore 19:17 Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
A genre of AI-generated books on Amazon is scaring foragers and mycologists: cookbooks and identification guides for mushrooms aimed at beginners.
Amazon has an AI-generated books problem that’s been documented by journalists for months. Many of these books are obviously gibberish designed to make money. But experts say that AI-generated foraging books, specifically, could actually kill people if they eat the wrong mushroom because a guidebook written by an AI prompt said it was safe.
The New York Mycological Society (NYMS) warned on social media that the proliferation of AI-generated foraging books could “mean life or death.”
https://www.404media.co/ai-generated-mushroom-foraging-books-amazon/
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Infatti non è stato un software programmato statisticamente a mettere in vendita quegli output. Le responsabilità andranno dunque ricondotte a seconda delle azio:i compiute dalle diverse persone coinvolte. Per esempio, Amazon (e il venditore che ha messo il libro in vendita) è responsabile di truffa: ha venduto come "libro" una sequenza di caratteri che non ha alcun significato. Chi ha eseguito il software programmato statisticamente (il CdA di OpenAI/Microsoft etc...) è responsabile delle morti causate dall'errata interpretazione di quella sequenza di caratteri come un "testo" portatore di sognificato. Tale responsabilità deriva dalla scelta di realizzare e mantenere in esecuzione un software progettato per ingannare chi lo usa imitando il testo prodotto da un essere umano. Nessuno ha obbligato (ad esempio) OpenAI a partecipare all'"imitation game" di Turing. Per questo dovrà rispondere di ogni danno causato dall'inganno cui sottopone gli utenti. Giacomo Il 29 Agosto 2023 17:32:21 UTC, Fabio Alemagna <falemagn@gmail.com> ha scritto:
Mi pare che il problema non sia che sono generati dall'AI, ma che libri con istruzioni potenzialmente dannose siano vendibili senza che passino il vaglio di alcun tipo di revisione.
Il giorno mar 29 ago 2023 alle ore 19:17 Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
A genre of AI-generated books on Amazon is scaring foragers and mycologists: cookbooks and identification guides for mushrooms aimed at beginners.
Amazon has an AI-generated books problem that’s been documented by journalists for months. Many of these books are obviously gibberish designed to make money. But experts say that AI-generated foraging books, specifically, could actually kill people if they eat the wrong mushroom because a guidebook written by an AI prompt said it was safe.
The New York Mycological Society (NYMS) warned on social media that the proliferation of AI-generated foraging books could “mean life or death.”
https://www.404media.co/ai-generated-mushroom-foraging-books-amazon/
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Il mer 30 ago 2023, 08:44 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Chi ha eseguito il software programmato statisticamente (il CdA di OpenAI/Microsoft etc...) è responsabile delle morti causate dall'errata interpretazione di quella sequenza di caratteri come un "testo" portatore di sognificato.
Tale responsabilità deriva dalla scelta di realizzare e mantenere in esecuzione un software progettato per ingannare chi lo usa imitando il testo prodotto da un essere umano.
Puoi cortesemente elencare le leggi a cui fai riferimento, evidentemente non Italiane, e possibilmente la giurisprudenza in materia? Altrimenti tocca ripetersi: fantagiuridica. Fabio
Il mer 30 ago 2023, 08:48 Fabio Alemagna <falemagn@gmail.com> ha scritto:
Il mer 30 ago 2023, 08:44 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Chi ha eseguito il software programmato statisticamente (il CdA di OpenAI/Microsoft etc...) è responsabile delle morti causate dall'errata interpretazione di quella sequenza di caratteri come un "testo" portatore di sognificato.
Tale responsabilità deriva dalla scelta di realizzare e mantenere in esecuzione un software progettato per ingannare chi lo usa imitando il testo prodotto da un essere umano.
Puoi cortesemente elencare le leggi a cui fai riferimento, evidentemente non Italiane, e possibilmente la giurisprudenza in materia?
Aggiungo: si legga il capitolo "Liability" qui: https://www.jdsupra.com/legalnews/the-legal-risks-of-using-chatgpt-6134018/#... .
Il giorno mer 30 ago 2023 alle ore 08:51 Fabio Alemagna <falemagn@gmail.com> ha scritto:
Il mer 30 ago 2023, 08:48 Fabio Alemagna <falemagn@gmail.com> ha scritto:
Il mer 30 ago 2023, 08:44 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Chi ha eseguito il software programmato statisticamente (il CdA di OpenAI/Microsoft etc...) è responsabile delle morti causate dall'errata interpretazione di quella sequenza di caratteri come un "testo" portatore di sognificato.
Tale responsabilità deriva dalla scelta di realizzare e mantenere in esecuzione un software progettato per ingannare chi lo usa imitando il testo prodotto da un essere umano.
Puoi cortesemente elencare le leggi a cui fai riferimento, evidentemente non Italiane, e possibilmente la giurisprudenza in materia?
Aggiungo: si legga il capitolo "Liability" qui: https://www.jdsupra.com/legalnews/the-legal-risks-of-using-chatgpt-6134018/#....
E, chiaramente, il capitolo rilevante nelle condizioni contrattuali che vincolano OpenAI all'utente dei suoi servizi: https://openai.com/policies/terms-of-use#7-indemnification-disclaimer-of-war... ---------8<--------- 7. Indemnification; Disclaimer of Warranties; Limitations on Liability (a) Indemnity. You will defend, indemnify, and hold harmless us, our affiliates, and our personnel, from and against any claims, losses, and expenses (including attorneys’ fees) arising from or relating to your use of the Services, including your Content, products or services you develop or offer in connection with the Services, and your breach of these Terms or violation of applicable law. (b) Disclaimer. THE SERVICES ARE PROVIDED “AS IS.” EXCEPT TO THE EXTENT PROHIBITED BY LAW, WE AND OUR AFFILIATES AND LICENSORS MAKE NO WARRANTIES (EXPRESS, IMPLIED, STATUTORY OR OTHERWISE) WITH RESPECT TO THE SERVICES, AND DISCLAIM ALL WARRANTIES INCLUDING BUT NOT LIMITED TO WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE, SATISFACTORY QUALITY, NON-INFRINGEMENT, AND QUIET ENJOYMENT, AND ANY WARRANTIES ARISING OUT OF ANY COURSE OF DEALING OR TRADE USAGE. WE DO NOT WARRANT THAT THE SERVICES WILL BE UNINTERRUPTED, ACCURATE OR ERROR FREE, OR THAT ANY CONTENT WILL BE SECURE OR NOT LOST OR ALTERED. (c) Limitations of Liability. NEITHER WE NOR ANY OF OUR AFFILIATES OR LICENSORS WILL BE LIABLE FOR ANY INDIRECT, INCIDENTAL, SPECIAL, CONSEQUENTIAL OR EXEMPLARY DAMAGES, INCLUDING DAMAGES FOR LOSS OF PROFITS, GOODWILL, USE, OR DATA OR OTHER LOSSES, EVEN IF WE HAVE BEEN ADVISED OF THE POSSIBILITY OF SUCH DAMAGES. OUR AGGREGATE LIABILITY UNDER THESE TERMS SHALL NOT EXCEED THE GREATER OF THE AMOUNT YOU PAID FOR THE SERVICE THAT GAVE RISE TO THE CLAIM DURING THE 12 MONTHS BEFORE THE LIABILITY AROSE OR ONE HUNDRED DOLLARS ($100). THE LIMITATIONS IN THIS SECTION APPLY ONLY TO THE MAXIMUM EXTENT PERMITTED BY APPLICABLE LAW. --------->8--------- Faccio presente che queste sono le classiche condizioni contrattuali presenti in praticamente ogni software, tranne che in specifici settori, decisamente verticali, normati e contrattualizzati diversamente: la famosa clausola "as is". Fabio
Fabio Alemagna <falemagn@gmail.com> writes: [...]
E, chiaramente, il capitolo rilevante nelle condizioni contrattuali che vincolano OpenAI all'utente dei suoi servizi: https://openai.com/policies/terms-of-use#7-indemnification-disclaimer-of-war...
---------8<---------
7. Indemnification; Disclaimer of Warranties; Limitations on Liability
[...]
Faccio presente che queste sono le classiche condizioni contrattuali presenti in praticamente ogni software, tranne che in specifici settori, decisamente verticali, normati e contrattualizzati diversamente: la famosa clausola "as is".
Sì ma attenzione che in questo caso non stiamo parlando di programmi ma di _servizi_; sebbene moltissimi servizi o (parti di) prodotti siano forniti/prodotti utilizzando programmi, questo NON solleva chi fornisce servizi/prodotti dalle proprie responsabilità civili e penali nei confronti degli utilizzatori ("consumatori" o professionali) di quel servizio o prodotto. IANAL, ma l'intero paragrafo «7. Indemnification; Disclaimer of Warranties; Limitations on Liability» dei termini di servizio [1] di ChatGPT è una **cialtronata**, al mimite delle clausole vessatorie: meriterebbe di essere invalidato l'intero contratto. Tipo: --8<---------------cut here---------------start------------->8--- (a) Indemnity. You will defend, indemnify [...] (including attorneys’ fees) arising from or relating to your use of the Services, [...] (b) Disclaimer. THE SERVICES ARE PROVIDED “AS IS.” --8<---------------cut here---------------end--------------->8--- Suvvia OpenAI: siate seri! La famose clausole "as is" della licenza GNU GPL v3 dicono: --8<---------------cut here---------------start------------->8--- 15. Disclaimer of Warranty. THERE IS NO WARRANTY FOR THE PROGRAM, [...] OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE. THE ENTIRE RISK AS TO THE QUALITY AND PERFORMANCE OF THE PROGRAM IS WITH YOU. SHOULD THE PROGRAM PROVE DEFECTIVE, YOU ASSUME THE COST OF ALL NECESSARY SERVICING, REPAIR OR CORRECTION. 16. Limitation of Liability. IN NO EVENT [...] THE PROGRAM AS PERMITTED ABOVE, BE LIABLE TO YOU FOR DAMAGES, INCLUDING ANY GENERAL, SPECIAL, INCIDENTAL OR CONSEQUENTIAL DAMAGES ARISING OUT OF THE USE OR INABILITY TO USE THE PROGRAM (INCLUDING BUT NOT LIMITED TO LOSS OF DATA OR DATA BEING RENDERED INACCURATE OR LOSSES SUSTAINED BY YOU OR THIRD PARTIES OR A FAILURE OF THE PROGRAM TO OPERATE WITH ANY OTHER PROGRAMS), EVEN IF SUCH HOLDER OR OTHER PARTY HAS BEEN ADVISED OF THE POSSIBILITY OF SUCH DAMAGES. 17. Interpretation of Sections 15 and 16. [...] closely approximates an absolute waiver of all civil liability in connection with the Program, unless a warranty or assumption of liability accompanies a copy of the Program in return for a fee. --8<---------------cut here---------------end--------------->8--- (https://www.gnu.org/licenses/gpl-3.0.txt) Non solo non stiamo parlando di un servizio/prodotto ma di un programma, stiamo anche parlando di _licenza di distribuzione_ di un'opera tutelata dal diritto d'autore, che NON è un contratto come lo sono per esempio le EULA o i contratti di trasferimento dei diritti d'autore; infatti, la licenza stessa spiega che il programma può essere accompagnato da garanzia o assunzione di responsabilità (civile) in cambio di un onorario: quello /sarebbe/ un contratto [2] (e sarebbe relativo a **un servizio** aggiuntivo alla fornitura del programma)... ma sempre IANAL :-) Cordiali saluti, 380° [1] https://openai.com/policies/terms-of-use [2] e avrebbe un onorario **parecchio** onorabile, giustamente -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Caro Fabio, in Italia abbiamo ancora diverse Leggi che si applicano al CdA di OpenAI checché dicano i Termini del Servizio. On Wed, Aug 30, 2023 at 08:48:00AM +0200, Fabio Alemagna wrote:
Il mer 30 ago 2023, 08:44 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Chi ha eseguito il software programmato statisticamente (il CdA di OpenAI/Microsoft etc...) è responsabile delle morti causate dall'errata interpretazione di quella sequenza di caratteri come un "testo" portatore di sognificato.
Tale responsabilità deriva dalla scelta di realizzare e mantenere in esecuzione un software progettato per ingannare chi lo usa imitando il testo prodotto da un essere umano.
Puoi cortesemente elencare le leggi a cui fai riferimento, evidentemente non Italiane, e possibilmente la giurisprudenza in materia?
Elencarle tutte va oltre il tempo che ti posso dedicare, ma se vuoi le trovi elencate tutte nel Codice Penale. Giusto a titolo d'esempio, in Italia chiunque cagiona per colpa la morte di una persona è punito con la reclusione da sei mesi a cinque anni (art. 589(1)) In generale, il reato è (e deve restare) ortogonale allo strumento utilizzato per compierlo. Prendi l'istigazione al suicidio: se il presidente di OpenAI lo commettesse scrivendo su una chat ad un minore di 14 anni, verrebbe punito come omicida (vedi art. 580(2)). Se anche la chat fosse controllata da un software che lo stesso Presidente ha scritto (o fatto scrivere) nonché deciso di eseguire e connettere alla chat con il minore suddetto, dovrebbe risponderne negli stessi termini. Se così non fosse, sarebbe sufficiente usare un software (programmato statisticamente o meno) per violare impunemente qualsiasi Legge. In altri termini, verrebbe meno il principio di uguaglianza di fronte alla Legge dei cittadini che, sempre in Italia, è ancora un Principio Fondamentale della nostra Costituzione (vedi articolo 3). E con esso, verrebbe meno la legittimità dello Stato. Dunque, ribadisco: se indurre al suicidio tramite l'ingestione di funghi velenosi una persona costituisce un reato in Italia (credo e spero di sì) allora, se un chatbot ha prodotto un output interpretabile in tal modo, chi ha eseguito ed inviato ad un utente ignaro tale output ne deve rispondere nello stesso modo in cui ne risponderebbe se quel messaggio l'avesse scritto di proprio pugno. Nessuno ti obbliga ad eseguire un software. Nessuno ti obbliga a pubblicare il suo output sul tuo sito in risposta al "prompt" di sprovveduti allucinati cui hai fatto credere di conversare con chissà quale "intelligenza aliena". Se non vuoi rispondere dei danni che può causare, basta spegnerlo. Se non lo spegni, accetti di rispondere del suo output. E' veramente semplicissimo! ;-) A presto! Giacomo
Carissimi, Giacomo Tesio <giacomo@tesio.it> writes:
Caro Fabio,
in Italia abbiamo ancora diverse Leggi che si applicano al CdA di OpenAI checché dicano i Termini del Servizio.
On Wed, Aug 30, 2023 at 08:48:00AM +0200, Fabio Alemagna wrote:
Il mer 30 ago 2023, 08:44 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Chi ha eseguito il software programmato statisticamente (il CdA di OpenAI/Microsoft etc...) è responsabile delle morti causate dall'errata interpretazione di quella sequenza di caratteri come un "testo" portatore di sognificato.
Tale responsabilità deriva dalla scelta di realizzare e mantenere in esecuzione un software progettato per ingannare chi lo usa imitando il testo prodotto da un essere umano.
Giacomo sai benissimo che per poter utilizzare qualsiasi servizio, anche quelli di OpenAI, gli utenti accettano le condizioni di servizio e in quelle ci sono scritte un sacco di cose... che hanno valore giuridico a meno che **in giudizio** siano considerate come clausole vessatorie e quindi annullano il contratto. Io sono _ignorante_ in diritto commerciale, ma dubito fortemente che il contratto che gli utenti di ChatGPT et. al debbono sottoscrivere per utilizzare quei servizi abbia delle falle giuridiche... a meno che Qualcuno™ abbia i mezzi e le competenze per portare in tribunale OpenAI e dimostrare che qualche clausola di quel contratto è vessatoria. In questo quadro, insistere che da parte del fornitore del servizio c'è responsabilità (diretta) «delle morti causate dall'errata interpretazione di quella sequenza di caratteri come un "testo" portatore di sognificato» è **estremamente** fuorviante: per favore Giacomo non complicare cose che sono già abbastanza complesse ;-) Nel caso in esame, i libri micologici ad-minchiam, l'unica "speranza" - nell'attuale quadro normativo - per Qualcuno™ sarebbe quella di riuscire a far ritirare un libro da un magistrato: --8<---------------cut here---------------start------------->8--- Si può procedere a sequestro soltanto per atto motivato dell'autorità giudiziaria nel caso di delitti, per i quali la legge sulla stampa espressamente lo autorizzi, o nel caso di violazione delle norme che la legge stessa prescriva per l'indicazione dei responsabili. In tali casi, quando vi sia assoluta urgenza e non sia possibile il tempestivo intervento dell'Autorità giudiziaria, il sequestro della stampa periodica può essere eseguito da ufficiali di polizia giudiziaria, che devono immediatamente, e non mai oltre ventiquattro ore, sporgere denuncia all'Autorità giudiziaria. Se questa non lo convalida nelle ventiquattro ore successive, il sequestro s'intende revocato e privo di ogni effetto. --8<---------------cut here---------------end--------------->8--- (estratto da Art. 21 della Costituzione Italiana) Io sono ignorante in merito alla legge sulla stampa e non so quali sono i casi per i quali _espressamente_ autorizzi un sequestro per atto motivato dell'autorità giudiziaria. Comunque, secondo me puntare sul sequestro "uno ad uno" da parte dell'autorità giudiziaria è perdente, serve solo a tamponare una _ferita_ dopo che la ferita è stata provocata. Insisto: l'unica via di uscita seria da questo stato di cose è _più cultura_ e _più trasparenza_: cultura per comprendere che i SALAMI sparano cose a caso senza connessione col concetto di verità/falsità (che è _esterno_ ai SALAMI), trasparenza per sapere cosa è stato /generato/ da un SALAME e cosa /pensato e scritto/ da un umano (che ha al proprio "interno" il concetto di verità/falsità). [...]
Giusto a titolo d'esempio, in Italia chiunque cagiona per colpa la morte di una persona è punito con la reclusione da sei mesi a cinque anni (art. 589(1))
Tu stai seriamente ipotizzando che Qualcuno™ può pensare di accusare un dirigente di OpenAI nel caso qualche cazzata sparata da ChatGPT causi (indirettamente?) la morte di una persona? Tipo la morte di un /bimbo/ a cui ChatGPT risponda che per digerire meglio un tizio dell'Illinois una volta ha bevuto un bicchierino di candeggina?... tanto per spararla grossa anche io? [...]
Prendi l'istigazione al suicidio: se il presidente di OpenAI lo commettesse scrivendo su una chat ad un minore di 14 anni, verrebbe punito come omicida (vedi art. 580(2)).
Se anche la chat fosse controllata da un software che lo stesso Presidente ha scritto (o fatto scrivere) nonché deciso di eseguire e connettere alla chat con il minore suddetto, dovrebbe risponderne negli stessi termini.
Se così non fosse, sarebbe sufficiente usare un software (programmato statisticamente o meno) per violare impunemente qualsiasi Legge.
Non vedo l'ora di assistere a un processo a un siffatto dirigente per istigazione a un suicidio proveniente da un generatore di stronzate... mentre ci sono fior di deficienti con cinque/sei lauree che impiegano sistemi generativi basati su LLM per somministrare terapie psicologiche _al posto_ di psicologi umani. Nel frattempo, faccio sommessamente notare che per tragedie ben più gravi e socialmente impattanti (volete che vi faccio l'elenco?) l'unico imputato tutt'ora perseguito è Mio Nonno in Carriola... ma questo è un rant qualunquista e benaltrista :-O [...] Saluti, 380° P.S.: con tutto 'sto sproloquio NON sto minimamente insinuando che, almeno eticamente se non anche giuridicamente, non ci sia nessun responsabile nel caso in cui **in un processo** venga dimostrato un nesso causale diretto tra la morte di una persona e una /informazione/ errata (pericolosa?) fornita da un sistema SALAMI... ma le responsabilità devono essere accertate nel processo. Nel frattempo, "la cura" è a portata di mano: meno ignoranza, più trasparenza, zero "censura per il nostro bene". -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
On Fri, Sep 01, 2023 at 12:42:14PM +0200, 380° wrote:
Carissimi,
Giacomo Tesio <giacomo@tesio.it> writes:
Caro Fabio,
in Italia abbiamo ancora diverse Leggi che si applicano al CdA di OpenAI checché dicano i Termini del Servizio.
On Wed, Aug 30, 2023 at 08:48:00AM +0200, Fabio Alemagna wrote:
Il mer 30 ago 2023, 08:44 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Chi ha eseguito il software programmato statisticamente (il CdA di OpenAI/Microsoft etc...) è responsabile delle morti causate dall'errata interpretazione di quella sequenza di caratteri come un "testo" portatore di sognificato.
Tale responsabilità deriva dalla scelta di realizzare e mantenere in esecuzione un software progettato per ingannare chi lo usa imitando il testo prodotto da un essere umano.
Giacomo sai benissimo che per poter utilizzare qualsiasi servizio, anche quelli di OpenAI, gli utenti accettano le condizioni di servizio e in quelle ci sono scritte un sacco di cose... che hanno valore giuridico
Qualunque clausola di qualsiasi contratto che sollevi uno dei firmatari dalle proprie responsabilità penali è nulla in Italia. Di più: qualsiasi interpretazione di qualsiasi contratto che sollevi uno dei contraenti dalle proprie responsabilità penali è RIDICOLA in Italia. Se così non fosse, basterebbe far firmare un contratto alla vittima per ucciderla senza alcun rischio legale. Quindi ribadisco: qualsiasi cosa ci sia scritta sui termini del servizio, se una persona incapace di intendere o un minore venissero istigati al suicidio dall'output che OpenAI pubblica sul proprio sito web in risposta ad un qualsiasi loro "prompt", la responsabilità di quell'omicidio ricadrebbe sui vertici dell'azienda. [1] La responsabilità penale in Italia è infatti ancora PERSONALE. Ovvero da ricondurre sempre a PERSONE. Il software (programmato statisticamente o meno) non è una persona. Checché ne dicano i sostenitori della "AI" (rotfl! :-D) non ha diritti né doveri e non è soggetto alla Legge. Non è proprio "soggetto", in effetti, ma al massimo "oggetto" [2]. Giacomo [1]: Naturalmente l'istigazione andrebbe dimostrata come in ogni altro processo penale. Ma potrebbe bastare uno screenshot. [2]: Anche definire il software come "oggetto" è discutibile. Tant'è che siamo subito costretti a qualificarlo grossolanamente come "immateriale" o "intangibile" per rendere conto delle sue peculiarità. Ma su questo si dovrebbe scrivere per ore... PS: se per caso la Costituzione è stata abrogata mentre ero distratto, l'importante è saperlo. In fondo, se la legge non valesse per chi la viola tramite un software, finalmente tutti i ragazzi correrebbero ad imparare a programmare e ci saremmo liberati in un colpo della proprietà privata e del copyright. L'importante, come sempre, è che valga per tutti.
Ciao Giacomo, «e intanto il tempo se ne va...» Giacomo Tesio <giacomo@tesio.it> writes:
On Fri, Sep 01, 2023 at 12:42:14PM +0200, 380° wrote:
[...]
Il mer 30 ago 2023, 08:44 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Chi ha eseguito il software programmato statisticamente (il CdA di OpenAI/Microsoft etc...) è responsabile delle morti causate dall'errata interpretazione di quella sequenza di caratteri come un "testo" portatore di sognificato.
Tale responsabilità deriva dalla scelta di realizzare e mantenere in esecuzione un software progettato per ingannare chi lo usa imitando il testo prodotto da un essere umano.
Giacomo sai benissimo che per poter utilizzare qualsiasi servizio, anche quelli di OpenAI, gli utenti accettano le condizioni di servizio e in quelle ci sono scritte un sacco di cose... che hanno valore giuridico
Qualunque clausola di qualsiasi contratto che sollevi uno dei firmatari dalle proprie responsabilità penali è nulla in Italia.
Di più: qualsiasi interpretazione di qualsiasi contratto che sollevi uno dei contraenti dalle proprie responsabilità penali è RIDICOLA in Italia.
Ma certo Giacomo, come non potrebbe essere così, su questo non ci può essere che unanime consenso. [...]
Quindi ribadisco: qualsiasi cosa ci sia scritta sui termini del servizio, se una persona incapace di intendere o un minore venissero istigati al suicidio dall'output che OpenAI pubblica sul proprio sito web in risposta ad un qualsiasi loro "prompt", la responsabilità di quell'omicidio ricadrebbe sui vertici dell'azienda. [1]
Sì Giacomo, hai ragione; il fatto è che le considerazioni che io ho espresso nella mia email precedente (quella a cui tu rispondi) sono _circostanziate_ al caso in oggetto, ovvero la vendita di libri generati utilizzando servizi (di terzi) come ChatGPT. In effetti nel messaggio precedente ho scritto --8<---------------cut here---------------start------------->8--- Tu stai seriamente ipotizzando che Qualcuno™ può pensare di accusare un dirigente di OpenAI nel caso qualche cazzata sparata da ChatGPT causi (indirettamente?) la morte di una persona? Tipo la morte di un /bimbo/ a cui ChatGPT risponda che per digerire meglio un tizio dell'Illinois una volta ha bevuto un bicchierino di candeggina?... tanto per spararla grossa anche io? --8<---------------cut here---------------end--------------->8--- e in questo caso sono io ad aver fatto confusione e ti chiedo scusa, anche se a mia parziale discolpa noto che nel P.S. avevo chiarito meglio il mio pensiero. Nel caso in cui l'"utente finale" (non mi piace "consumatore") usi _direttamente_ il servizio, è il titolare di quel servizio che deve risponderne civilmente e penalmente. Nel caso dell'istigazione al suicidio faccio comunque notare che: 1. la clausola "1. Registration and Access" dei termini di utilizzo [1] di ChatGPT occorre dichiarare di essere maggiorenni o di avere più di 13 anni e il consenso dei genitori o dei tutori. 2. soprattutto che [2]: --8<---------------cut here---------------start------------->8--- L’elemento psicologico del reato consiste nell’accordo di volontà tra i due soggetti, che per il soggetto punibile si concreta nella volontà di determinare o istigare o agevolare il suicidio altrui, ovvero sia nella volontà precipua di tenere la condotta criminosa per conseguire quel determinato effetto. --8<---------------cut here---------------end--------------->8--- Come giustamente dici tu, il software che fa funzionare il servizio non è soggetto, tantomeno il servizio può essere soggetto: il soggetto è il titolare del servizio... ma come si fa a dimostrare la "volontà precipua di tenere la condotta criminosa" del soggetto? Comunque sia, siamo andati OT rispetto all'oggetto (pun intended) originale di questo thread e a quello dovremmo concentraci, IMO. [...] Tornando quindi al caso in oggetto, occorre considerare che i termini di servizio [1] dicono: --8<---------------cut here---------------start------------->8--- 2. Usage Requirements [...] (c) Restrictions. You may not [...] (v) represent that output from the Services was human-generated when it is not or otherwise violate our Usage Policies; (d) Third Party Services. Any third party software, services, or other products you use in connection with the Services are subject to their own terms, and we are not responsible for third party products. 3. Content (a) Your Content. You may provide input to the Services (“Input”), and receive output generated and returned by the Services based on the Input (“Output”). Input and Output are collectively “Content.” [...] you can use Content for any purpose, including commercial purposes such as sale or publication, if you comply with these Terms. [...] You are responsible for Content, including for ensuring that it does not violate any applicable law or these Terms. [...] (d) Accuracy. Artificial intelligence and machine learning are rapidly evolving fields of study. We are constantly working to improve our Services to make them more accurate, reliable, safe and beneficial. Given the probabilistic nature of machine learning, use of our Services may in some situations result in incorrect Output that does not accurately reflect real people, places, or facts. You should evaluate the accuracy of any Output as appropriate for your use case, including by using human review of the Output. 6. Term and Termination [...] (b) Effect on Termination. Upon termination, you will stop using the Services and you will promptly return or, if instructed by us, destroy any Confidential Information. The sections of these Terms which by their nature should survive termination or expiration should survive, including but not limited to Sections 3 and 5-9. [...] 9. General Terms (a) Relationship of the Parties. These Terms do not create a partnership, joint venture or agency relationship between you and OpenAI or any of OpenAI’s affiliates. OpenAI and you are independent contractors and neither party will have the power to bind the other or to incur obligations on the other’s behalf without the other party’s prior written consent. --8<---------------cut here---------------end--------------->8--- Fino a 10 minuti fa ignoravo completamente i termini che ho estratto sopra [3] e direi che siccome li ho compresi io in tempi regionevoli e senza troppa fatica, _allora_ sono /facili/ da comprendere per chiunque. Siccome chiunque abbia intenzione di usare un /qualsiasi/ servizio per pubblicare libri (o altri prodotti o servizi) è **obbligato** a leggerne e comprenderne _bene_ i termini: 1. non ci può essere nessun tipo di dubbio su chi sia legalmente il responsabile dei contenuti di quei libri (o altro prodotto o servizio). 2. non può descrivere (represent) il contenuto come generato da un umano (anche se la sola "pena" che rischia è l'eventuale terminazione del contratto... sì, ci crediamo!) Non conosco i termini di altri servizi analoghi ma credo che quelli di ChatGPT facciano scuola. Detto questo, insisto ancora sulla _trasparenza_: a. ChatGPT (e ogni servizio analogo) dovrebbero essere **obbligati** a includere un /disclaimer/ con _ogni_ output, tipo «As stated in our terms of service (<link>) this output does not accurately reflect real people, places, or facts, **therefore** you should evaluate its accuracy as appropriate for your use case, including by using human review of the output.» b. occorre una norma che configuri come reato di truffa utilizzare, per l'erogazione di servizi o prodotti, contenuti ottenuti da "AI generative" senza dichiararlo, ovvero descrivere (represent) lo specifico contenuto come generato da una macchina, _anche_ se supervisionato da una o più persone; che l'output sia generato da software "on premises" da servizi di terzi non deve fare differenza; nel caso in cui l'omissione di tale informazione riguardi contenuti _non_ supervisionati da una o più persone (copia e incolla), scatterebbe l'aggravante: truffa aggravata In un mondo normale sarebbe più difficile a dirsi che a farsi. Saluti, 380° [1] https://openai.com/policies/terms-of-use [2] https://www.brocardi.it/codice-penale/libro-secondo/titolo-xii/capo-i/art580... [3] credo proprio esistano anche in italiano ma a me escono in EN per impostazione del browser e non trovo come cambiare lingua -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno Giacomo, Giacomo Tesio <giacomo@tesio.it> writes: [...]
Per esempio, Amazon (e il venditore che ha messo il libro in vendita) è responsabile di truffa: ha venduto come "libro" una sequenza di caratteri che non ha alcun significato.
Ciascuno deve essere libero di usare i mezzi che crede per esercitare la propria libertà di stampa (che è parte integrante della libertà di espressione [1]), compresi i sistemi di generazione parastocastica Purtroppo non credo proprio che oggi omettere di riportare questa _fondamentale_ informazione sull'etichetta del **prodotto** (libro/articolo) sia configurabile come truffa, mi auguro vivamente che presto lo sarà. Detto questo, l'unica cosa che si può ragionevolmente chiedere agli autori/editori/venditori di articoli e libri è che la fondamentale informazione che (parti de) il testo sono state scritte da SALAMI debba essere scritta a caratteri cubitali in "etichetta". [...] Ciao, 380° [1] Art. 19 https://www.un.org/en/about-us/universal-declaration-of-human-rights -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno, Fabio Alemagna <falemagn@gmail.com> writes:
Mi pare che il problema non sia che sono generati dall'AI,
come no? il problema è _esattamente_ che sono scritti da generatori seriali di cazzate dette bene, senza che questa informazione sia scritta a caratteri CUBITALI sulla prima, seconda, terza, quarta e quinta di copertina; dovrebbe essere obbligatorio **di più** delle immagini raccapriccianti imposte sui pacchetti di sigarette; dovrebbe essere imposta una etichetta rossa con il simbolo di pericolo e la scritta "generato da SALAMI: ogni riferimento a fatti, dati, persone, cose, città, dire, fare, baciare... in questo libro/articolo è PURAMENTE CASUALE". ...poi ognuno è libero di decidere autonomamemte a quali stronzate credere quando si tratta di stabilire se l'amanita falloide cotta a 90° e passata al forno ai raggi gamma è un piatto gourmet.
ma che libri con istruzioni potenzialmente dannose siano vendibili senza che passino il vaglio di alcun tipo di revisione.
e ci mancherebbe pure che introducessero anche il nulla osta del Ministero della "non dannosità" per la pubblicazione dei libri (o degli articoli) ...o meglio: in effetti **tutte** le cose scritte da generatori automatici di cazzate sono _potenzialmente dannose_, quindi la "mia" proposta (niente di particolarmente scaltro, neh) di cui sopra _fa_ ancora più senso. [...] Saluti, 380° P.S.: che _raccolgiere funghi_ ad-minchiam è potenzialmente pericoloso è una informazione non abbastanza diffusa? -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno. Oltre che per i libri e gli articoli (anche scientifici: lo si è appurato cercandovi la frase "As a large language model, I [...]), l'etichetta "made by SALAMI" servirebbe ormai anche per i libretti di istruzioni, i siti di ricette, le immagini selezionate dai motori di ricerca e i video porno. Servirebbe ovunque ci siano testi o immagini: la questione dell'etichetta coincide purtroppo con quella del watermarking, come era stato previsto. Al momento, in realtà, accade il contrario; si affida ai SALAMI la selezione dei libri da rimuovere dalle biblioteche: School district uses ChatGPT to help remove library books <https://www.popsci.com/technology/iowa-chatgpt-book-ban/>https://www.popsci.com/technology/iowa-chatgpt-book-ban/ -Supermarket AI Offers Recipe for Mom's Famous Mustard Gas An AI from a New Zealand grocery chain gave one user a recipe for an “Aromatic Water Mix” that included bleach and ammonia as ingredients https://gizmodo.com/paknsave-ai-savey-recipe-bot-chlorine-gas-1850725057 - Last week, Microsoft took down a string of articles published by "Microsoft Travel" that included a bizarre recommendation for visitors to Ottawa to visit the Ottawa Food Bank<https://www.businessinsider.com/microsoft-ai-written-article-recommend-food-...> and to "consider going into it on an empty stomach." https://www.businessinsider.com/microsoft-removes-embarrassing-offensive-ai-... - On CivitAI, a site for sharing image generating AI models, users can browse thousands of models that can produce any kind of pornographic scenario they can dream of, trained on real images of real people scraped without consent from every corner of the internet. <https://t.co/S8xfHJqCBy>https://www.404media.co/inside-the-ai-porn-marketplace-where-everything-and-everyone-is-for-sale/ - Yesterday, I encountered a bird sullied by the current non-information spill. Specifically, while scrolling Facebook on my phone, I spotted this very appealing post on Facebook... “Adorable!” I thought, and clicked share. Two friends of mine very quickly pointed out that this is a synthetic (generated) image.<https://t.co/S8xfHJqCBy> https://medium.com/@emilymenonbender/cleaning-up-a-baby-peacock-sullied-by-a... <https://www.businessinsider.com/microsoft-removes-embarrassing-offensive-ai-...> Un caro saluto, Daniela ________________________________ Da: 380° <g380@biscuolo.net> Inviato: venerdì 1 settembre 2023 11:32 A: Fabio Alemagna; Daniela Tafani Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ‘Life or Death:’ AI-Generated Mushroom Foraging Books Are All Over Amazon Buongiorno, Fabio Alemagna <falemagn@gmail.com> writes:
Mi pare che il problema non sia che sono generati dall'AI,
come no? il problema è _esattamente_ che sono scritti da generatori seriali di cazzate dette bene, senza che questa informazione sia scritta a caratteri CUBITALI sulla prima, seconda, terza, quarta e quinta di copertina; dovrebbe essere obbligatorio **di più** delle immagini raccapriccianti imposte sui pacchetti di sigarette; dovrebbe essere imposta una etichetta rossa con il simbolo di pericolo e la scritta "generato da SALAMI: ogni riferimento a fatti, dati, persone, cose, città, dire, fare, baciare... in questo libro/articolo è PURAMENTE CASUALE". ...poi ognuno è libero di decidere autonomamemte a quali stronzate credere quando si tratta di stabilire se l'amanita falloide cotta a 90° e passata al forno ai raggi gamma è un piatto gourmet.
ma che libri con istruzioni potenzialmente dannose siano vendibili senza che passino il vaglio di alcun tipo di revisione.
e ci mancherebbe pure che introducessero anche il nulla osta del Ministero della "non dannosità" per la pubblicazione dei libri (o degli articoli) ...o meglio: in effetti **tutte** le cose scritte da generatori automatici di cazzate sono _potenzialmente dannose_, quindi la "mia" proposta (niente di particolarmente scaltro, neh) di cui sopra _fa_ ancora più senso. [...] Saluti, 380° P.S.: che _raccolgiere funghi_ ad-minchiam è potenzialmente pericoloso è una informazione non abbastanza diffusa? -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno Daniela, Daniela Tafani <daniela.tafani@unipi.it> writes:
Oltre che per i libri e gli articoli (anche scientifici: lo si è appurato cercandovi la frase "As a large language model, I [...]), l'etichetta "made by SALAMI" servirebbe ormai anche per i libretti di istruzioni, i siti di ricette, le immagini selezionate dai motori di ricerca e i video porno.
sì sono molto d'accordo: è una questione multimediale e per ciascun medium dovrebbe essere obbligatorio "esporre" l'etichetta "Made in SALAMI"™, utilizzando opportuni mezzi tecnologici in particolare: 1. trovo che pubblicare studi scientifici che contengano più di 10 parole consecutive copia-incollate da un sistema linguistico automatizzato sia una forma di frode scientifica (ma sicuramente la _meno_ grave), se non esplicitamente dichiarato (per ogni singolo "brano" se necessario); per fortuna la frode scientifica (o scientific "misconduct") non è un reato [1] [2] perseguibile, per quanto ne so, sta alla comunità scientifica prendere ciascuno studio cum granu salis (e magari non cum granu pecunia) 2. trovo che produrre "deep fake" [3] (non dichiarati, ovviamente) sia una forma di frode che viene/può essere usata per commettere reati che vanno dalla diffamazione alla falsificazione di prove in un giudizio; per fortuna questo tipo condotte sono già perseguite nei rispettivi codici e mi auguro che tali codici siano fatti rispettare quando ci si trova in presenza di simili artefatti Quello dell'obbligatorietà del watermarking sarebbe a mio avviso un grosso passo avanti (un piccolo passo per un uomo ma un grande passo per l'umanità) perché leverebbe ogni dubbio in partenza, ogni persona può sapere fin da subito la natura dell'informazione che ha davanti e farsi un proprio giudizio
Servirebbe ovunque ci siano testi o immagini: la questione dell'etichetta coincide purtroppo con quella del watermarking, come era stato previsto.
sì sì, per i file multimediali dovrebbe essere obbligatorio un sistema di watermarking _interoperabile_ (con implementazione di riferimento sotto licenza GNU AGPL)
Al momento, in realtà, accade il contrario;
grazie per gli interessanti riferimenti... anche se sapere che questo sta accadendo realmemte mi provoca uno strano miscuglio di tristezza e divertimento. [...] saluti, 380° [1] https://journals.sagepub.com/doi/full/10.1177/1747016119898400 [2] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4646744/ [3] Deepfakes (portmanteau of "deep learning" and "fake") are synthetic media that have been digitally manipulated to replace one person's likeness convincingly with that of another. (da https://en.wikipedia.org/wiki/Deepfake) -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Questo spiega perché in un supermercato trovino naturale affidare a un SALAME l'invenzione di nuove ricette: GPT-4<https://platform.openai.com/docs/models/gpt-4>: Deep comprehension. Best used for complex reasoning. .. Google PaLM 2 Bison<https://cloud.google.com/vertex-ai/docs/generative-ai/learn/models>: Good at commonsense reasoning with multilingual capabilities. Fonte: Harvard University Information Technology https://harvard.service-now.com/ithelp?id=kb_article&sys_id=cd2570ee47347590... Buona domenica, Daniela ________________________________ Da: 380° <g380@biscuolo.net> Inviato: venerdì 1 settembre 2023 15:02 A: Daniela Tafani Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] ‘Life or Death:’ AI-Generated Mushroom Foraging Books Are All Over Amazon Buongiorno Daniela, Daniela Tafani <daniela.tafani@unipi.it> writes:
Oltre che per i libri e gli articoli (anche scientifici: lo si è appurato cercandovi la frase "As a large language model, I [...]), l'etichetta "made by SALAMI" servirebbe ormai anche per i libretti di istruzioni, i siti di ricette, le immagini selezionate dai motori di ricerca e i video porno.
sì sono molto d'accordo: è una questione multimediale e per ciascun medium dovrebbe essere obbligatorio "esporre" l'etichetta "Made in SALAMI"™, utilizzando opportuni mezzi tecnologici in particolare: 1. trovo che pubblicare studi scientifici che contengano più di 10 parole consecutive copia-incollate da un sistema linguistico automatizzato sia una forma di frode scientifica (ma sicuramente la _meno_ grave), se non esplicitamente dichiarato (per ogni singolo "brano" se necessario); per fortuna la frode scientifica (o scientific "misconduct") non è un reato [1] [2] perseguibile, per quanto ne so, sta alla comunità scientifica prendere ciascuno studio cum granu salis (e magari non cum granu pecunia) 2. trovo che produrre "deep fake" [3] (non dichiarati, ovviamente) sia una forma di frode che viene/può essere usata per commettere reati che vanno dalla diffamazione alla falsificazione di prove in un giudizio; per fortuna questo tipo condotte sono già perseguite nei rispettivi codici e mi auguro che tali codici siano fatti rispettare quando ci si trova in presenza di simili artefatti Quello dell'obbligatorietà del watermarking sarebbe a mio avviso un grosso passo avanti (un piccolo passo per un uomo ma un grande passo per l'umanità) perché leverebbe ogni dubbio in partenza, ogni persona può sapere fin da subito la natura dell'informazione che ha davanti e farsi un proprio giudizio
Servirebbe ovunque ci siano testi o immagini: la questione dell'etichetta coincide purtroppo con quella del watermarking, come era stato previsto.
sì sì, per i file multimediali dovrebbe essere obbligatorio un sistema di watermarking _interoperabile_ (con implementazione di riferimento sotto licenza GNU AGPL)
Al momento, in realtà, accade il contrario;
grazie per gli interessanti riferimenti... anche se sapere che questo sta accadendo realmemte mi provoca uno strano miscuglio di tristezza e divertimento. [...] saluti, 380° [1] https://journals.sagepub.com/doi/full/10.1177/1747016119898400 [2] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4646744/ [3] Deepfakes (portmanteau of "deep learning" and "fake") are synthetic media that have been digitally manipulated to replace one person's likeness convincingly with that of another. (da https://en.wikipedia.org/wiki/Deepfake) -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
participants (4)
-
380° -
Daniela Tafani -
Fabio Alemagna -
Giacomo Tesio