Ciao Giacomo, «e intanto il tempo se ne va...» Giacomo Tesio <giacomo@tesio.it> writes:
On Fri, Sep 01, 2023 at 12:42:14PM +0200, 380° wrote:
[...]
Il mer 30 ago 2023, 08:44 Giacomo Tesio <giacomo@tesio.it> ha scritto:
Chi ha eseguito il software programmato statisticamente (il CdA di OpenAI/Microsoft etc...) è responsabile delle morti causate dall'errata interpretazione di quella sequenza di caratteri come un "testo" portatore di sognificato.
Tale responsabilità deriva dalla scelta di realizzare e mantenere in esecuzione un software progettato per ingannare chi lo usa imitando il testo prodotto da un essere umano.
Giacomo sai benissimo che per poter utilizzare qualsiasi servizio, anche quelli di OpenAI, gli utenti accettano le condizioni di servizio e in quelle ci sono scritte un sacco di cose... che hanno valore giuridico
Qualunque clausola di qualsiasi contratto che sollevi uno dei firmatari dalle proprie responsabilità penali è nulla in Italia.
Di più: qualsiasi interpretazione di qualsiasi contratto che sollevi uno dei contraenti dalle proprie responsabilità penali è RIDICOLA in Italia.
Ma certo Giacomo, come non potrebbe essere così, su questo non ci può essere che unanime consenso. [...]
Quindi ribadisco: qualsiasi cosa ci sia scritta sui termini del servizio, se una persona incapace di intendere o un minore venissero istigati al suicidio dall'output che OpenAI pubblica sul proprio sito web in risposta ad un qualsiasi loro "prompt", la responsabilità di quell'omicidio ricadrebbe sui vertici dell'azienda. [1]
Sì Giacomo, hai ragione; il fatto è che le considerazioni che io ho espresso nella mia email precedente (quella a cui tu rispondi) sono _circostanziate_ al caso in oggetto, ovvero la vendita di libri generati utilizzando servizi (di terzi) come ChatGPT. In effetti nel messaggio precedente ho scritto --8<---------------cut here---------------start------------->8--- Tu stai seriamente ipotizzando che Qualcuno™ può pensare di accusare un dirigente di OpenAI nel caso qualche cazzata sparata da ChatGPT causi (indirettamente?) la morte di una persona? Tipo la morte di un /bimbo/ a cui ChatGPT risponda che per digerire meglio un tizio dell'Illinois una volta ha bevuto un bicchierino di candeggina?... tanto per spararla grossa anche io? --8<---------------cut here---------------end--------------->8--- e in questo caso sono io ad aver fatto confusione e ti chiedo scusa, anche se a mia parziale discolpa noto che nel P.S. avevo chiarito meglio il mio pensiero. Nel caso in cui l'"utente finale" (non mi piace "consumatore") usi _direttamente_ il servizio, è il titolare di quel servizio che deve risponderne civilmente e penalmente. Nel caso dell'istigazione al suicidio faccio comunque notare che: 1. la clausola "1. Registration and Access" dei termini di utilizzo [1] di ChatGPT occorre dichiarare di essere maggiorenni o di avere più di 13 anni e il consenso dei genitori o dei tutori. 2. soprattutto che [2]: --8<---------------cut here---------------start------------->8--- L’elemento psicologico del reato consiste nell’accordo di volontà tra i due soggetti, che per il soggetto punibile si concreta nella volontà di determinare o istigare o agevolare il suicidio altrui, ovvero sia nella volontà precipua di tenere la condotta criminosa per conseguire quel determinato effetto. --8<---------------cut here---------------end--------------->8--- Come giustamente dici tu, il software che fa funzionare il servizio non è soggetto, tantomeno il servizio può essere soggetto: il soggetto è il titolare del servizio... ma come si fa a dimostrare la "volontà precipua di tenere la condotta criminosa" del soggetto? Comunque sia, siamo andati OT rispetto all'oggetto (pun intended) originale di questo thread e a quello dovremmo concentraci, IMO. [...] Tornando quindi al caso in oggetto, occorre considerare che i termini di servizio [1] dicono: --8<---------------cut here---------------start------------->8--- 2. Usage Requirements [...] (c) Restrictions. You may not [...] (v) represent that output from the Services was human-generated when it is not or otherwise violate our Usage Policies; (d) Third Party Services. Any third party software, services, or other products you use in connection with the Services are subject to their own terms, and we are not responsible for third party products. 3. Content (a) Your Content. You may provide input to the Services (“Input”), and receive output generated and returned by the Services based on the Input (“Output”). Input and Output are collectively “Content.” [...] you can use Content for any purpose, including commercial purposes such as sale or publication, if you comply with these Terms. [...] You are responsible for Content, including for ensuring that it does not violate any applicable law or these Terms. [...] (d) Accuracy. Artificial intelligence and machine learning are rapidly evolving fields of study. We are constantly working to improve our Services to make them more accurate, reliable, safe and beneficial. Given the probabilistic nature of machine learning, use of our Services may in some situations result in incorrect Output that does not accurately reflect real people, places, or facts. You should evaluate the accuracy of any Output as appropriate for your use case, including by using human review of the Output. 6. Term and Termination [...] (b) Effect on Termination. Upon termination, you will stop using the Services and you will promptly return or, if instructed by us, destroy any Confidential Information. The sections of these Terms which by their nature should survive termination or expiration should survive, including but not limited to Sections 3 and 5-9. [...] 9. General Terms (a) Relationship of the Parties. These Terms do not create a partnership, joint venture or agency relationship between you and OpenAI or any of OpenAI’s affiliates. OpenAI and you are independent contractors and neither party will have the power to bind the other or to incur obligations on the other’s behalf without the other party’s prior written consent. --8<---------------cut here---------------end--------------->8--- Fino a 10 minuti fa ignoravo completamente i termini che ho estratto sopra [3] e direi che siccome li ho compresi io in tempi regionevoli e senza troppa fatica, _allora_ sono /facili/ da comprendere per chiunque. Siccome chiunque abbia intenzione di usare un /qualsiasi/ servizio per pubblicare libri (o altri prodotti o servizi) è **obbligato** a leggerne e comprenderne _bene_ i termini: 1. non ci può essere nessun tipo di dubbio su chi sia legalmente il responsabile dei contenuti di quei libri (o altro prodotto o servizio). 2. non può descrivere (represent) il contenuto come generato da un umano (anche se la sola "pena" che rischia è l'eventuale terminazione del contratto... sì, ci crediamo!) Non conosco i termini di altri servizi analoghi ma credo che quelli di ChatGPT facciano scuola. Detto questo, insisto ancora sulla _trasparenza_: a. ChatGPT (e ogni servizio analogo) dovrebbero essere **obbligati** a includere un /disclaimer/ con _ogni_ output, tipo «As stated in our terms of service (<link>) this output does not accurately reflect real people, places, or facts, **therefore** you should evaluate its accuracy as appropriate for your use case, including by using human review of the output.» b. occorre una norma che configuri come reato di truffa utilizzare, per l'erogazione di servizi o prodotti, contenuti ottenuti da "AI generative" senza dichiararlo, ovvero descrivere (represent) lo specifico contenuto come generato da una macchina, _anche_ se supervisionato da una o più persone; che l'output sia generato da software "on premises" da servizi di terzi non deve fare differenza; nel caso in cui l'omissione di tale informazione riguardi contenuti _non_ supervisionati da una o più persone (copia e incolla), scatterebbe l'aggravante: truffa aggravata In un mondo normale sarebbe più difficile a dirsi che a farsi. Saluti, 380° [1] https://openai.com/policies/terms-of-use [2] https://www.brocardi.it/codice-penale/libro-secondo/titolo-xii/capo-i/art580... [3] credo proprio esistano anche in italiano ma a me escono in EN per impostazione del browser e non trovo come cambiare lingua -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.