Ma se passasse questa linea dovremmo spegnere tutti i generatori basati (solo) su LLM: anche se addestrati sui dati più puri del mondo, la probabilità che generino 'utterances' censurabili non sarebbe mai nulla.
La difficoltà qui risiede nel fatto di aver a che fare con oggetti privi di intenzionalità che tuttavia producono locuzioni a cui, antropologicamente, attribuiamo in effetti intenzionalità. Se gli sviluppatori o gli esercenti di questi oggetti dovessero rispondere di questa intenzionalità fittizia, farebbero bene a dedicarsi ad altro.
Non ho ancora capito tuttavia (anche perché nessuno me lo ha spiegato) come mai un 'disclaimer' bello grosso non potrebbe risolvere il problema.
G.