Scusate, anche "risposte" non è corretto, rispetto a ChatGPT:
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso
di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.
(le due righe sono citazioni a memoria da tweet di Emily Bender e Jon Ayre)
Grazie a entrambi della definizione.
La utilizzerò senz'altro, aggiungendo una riga o due che sono scontate solo per chi sappia di cosa si tratta
(le persone sono abituate a considerare affidabile, ad esempio, un'operazione matematica svolta da una macchina,
sebbene questa non ne conosca il significato,
e un sistema probabilistico darà invece allegramente1 risultati corretti e scorretti inestricabilmente combinati):
ChatGPT produce testo 'finito' combinando stringhe di testo del cui significato non sa nulla,
in modo statisticamente coerente con l'uso
di queste stringhe nei testi con cui è stato programmato.
Il testo prodotto non ha perciò alcun valore informativo o intento comunicativo.