Salve Gianluca, devo ancora finire di commentare un articolo che avevi condiviso qui in lista tempo fa. Meritava una analisi puntuale ed attenta che non ho potuto completare, ma cui spero di riuscire presto a dedicare l'attenzione necessaria. Il 20 Agosto 2024 10:39:18 UTC, Gianluca Fasano <gianluca.fasano@cnr.it> ha scritto:
Non c'è dubbio...
Questa frase dovrebbe già suonarti come un campanello d'allarme: il dubbio è il fondamento della ricerca scientifica e quando manca abbiamo buone probabilità di non aver compreso davvero ciò di cui ragioniamo.
abbiamo disunito la capacità di comprensione dalla capacità ‘tecnologica’ di produrre idee e opinioni;
No. Abbiamo realizzato software che producono output testuale privo di significato ma in grado di ingannare gli esseri umani che non ne comprendono il funzionamento. La tua mente attribuisce significato a qualcosa che non ce l'ha, come un sasso o la pioggia, ma che è stato letteralmente progettato e realizzato per massimizzare la probabilità di ingannarti. Turing lo chiamava "imitation game", ma sarebbe stato più corretto parlare di "imitation deceit". È software innovativo? Sì, abbastanza da apparire "indistinguibile dalla magia" ai profani. Produce idee e opinioni? No. Ma è stato progettato per ingannare la tua mente in proposito.
abbiamo creato autori senza persona
Confondi autorialità e plagio automatizzato su larghissima scala.
senza libertà ma che, nei fatti, simulano l’esercizio di quella.
Come simulano la produzione di idee e opinioni: tramite l'inclusione di numeri casuali nell'input del software.
Adesso abbiamo il compito di individuare modelli normativi per gestire le responsabilità derivanti da questi nuovi modelli di autorialità.
Perché? Non basta che ne rispondano coloro che realizzano il software (quando scaricabile) o che forniscono il servizio (vedi ChatGPT, Gemini etc...) Hanno scritto un software che produce output per loro conto, riproducendo malamente i testi che hanno usato per programmarlo statisticamente. È sufficiente che rispondano delle eventuali violazioni del diritto d'autore e di ogni output che questi software producono come se lo avessero scritto per proprio conto. Se quell'output viene interpretato da un giudice come diffamatorio, loro risponderanno per diffamazione. Se quell'output viene interpretato da un giudice come disinformazione, loro ne risponderanno. E così via. Perché l'uso di automatismi complessi per violare i diritti delle persone o le norme esistenti dovrebbe garantire impunità o comunque un trattamento diverso da parte della Legge? Giacomo