Ma se passasse questa linea dovremmo spegnere tutti i generatori basati (solo) su LLM: anche se addestrati sui dati più puri del mondo, la probabilità che generino 'utterances' censurabili non sarebbe mai nulla.

La difficoltà qui risiede nel fatto di aver a che fare con oggetti privi di intenzionalità che tuttavia producono locuzioni a cui, antropologicamente, attribuiamo in effetti intenzionalità. Se gli sviluppatori o gli esercenti di questi oggetti dovessero rispondere di questa intenzionalità fittizia, farebbero bene a dedicarsi ad altro.

Non ho ancora capito tuttavia (anche perché nessuno me lo ha spiegato) come mai un 'disclaimer' bello grosso non potrebbe risolvere il problema.

G.
 

On Mon, 3 Apr 2023 at 19:46, Mario Sabatino <mario@sabatino.cloud> wrote:
Sono totalmente d'accordo. Grazie di averlo detto con tanta chiarezza.

Per la macchina il testo **oggi** non può avere alcun significato. Solo
l'essere umano è in grado di attribuire un significato all'output dei
sistemi di NLP. Quindi l'essere umano si assumerà la responsabilità di
un eventuale uso illecito (privacy o altro) di questo output. Al massimo
vedrei la possibilità di esercitare il diritto all'oblio da parte degli
interessati. Credo però che queste considerazioni siano state già fatte
da altri.

Buon pomeriggio

Mario Sabatino

Il 03/04/23 17:56, Carlo Blengino ha scritto:
> Pensare di tutelare e  “proteggere” come dati personali gli out-put di
> questi sistemi significa oggi conferire loro una valenza che non hanno ed
> avallare temo l’allucinazione che stiamo vivendo con l’intelligenza
> artificiale.
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa