concordo molto con il concetto
Quanto ai bug di questi programmi (convenientemente chiamati "bias") basta ricondurre le responsabilità civili e penali in capo ai produttori (CEO, CTO, board of directors etc...) sottesa c'è tutta la questione dell'agency del software. fa gioco ai produttori e dà un fremito di adrenalina (entusiastica o apocalittica) ai non esperti dire "che il software fa". il software fa quello per cui è stato concepito e addestrato, in base ai dati che gli hai fatto digerire. quindi tu (un tu collettivo: l'agency nei sistemi di IA è sempre collettiva, ma non per ciò meno rilevante: "boss", CdA, CEO, ecc., analisti, progettisti, sviluppatori, programmatori, ...) che lo hai prodotto in risposta a degli scopi da raggiungere per mezzo di esso sei responsabile di quello che fa. il tu collettivo in genere rimane occulto da un lato perché gli autori di software hanno meno riconoscimento sociale degli autori di letteratura - sia essa buona o cattiva non importa, il nome dell’autore sula copertina c'è sempre, nel software mai; tranne a volte quello open/free, di solito. dall'altro perché tenerlo occulto conferma e rafforza il concetto che il software è dotato di agency esclusiva. credo che sia importante promuovere/diffondere il concetto di agency distribuita.
Maurizio Il 14/06/21 12:00, Giacomo Tesio <giacomo@tesio.it> ha scritto:
Message: 1 Date: Mon, 14 Jun 2021 11:19:22 +0200 From: Giacomo Tesio <giacomo@tesio.it> To: Diego Giorio <dgiorio@hotmail.com> Cc: Nexa <nexa@server-nexa.polito.it> Subject: Re: [nexa] Linguaggio artificiale ed etica Message-ID: <20210614111922.0000248c@tesio.it> Content-Type: text/plain; charset=Windows-1252
Ciao Diego,
On Mon, 14 Jun 2021 06:10:50 +0000 Diego Giorio wrote:
Le big tech puntano molto sui modelli linguistici, che in un prossimo futuro filtreranno le tutte le nostre interazioni digitali, dal mandare e-mail all’interagire sui social media. Ma nessuno sembra curarsi troppo dei risvolti etici della tecnologia. Ci pensa, allora, un gruppo di ricercatori, col progetto Bigscience www.agendadigitale.eu e se iniziassimo dal rendere opt-in l'interazione con i chat-bot?
Che la scelta del surrogato automatico di un interlocutore umano costituisca una scelta esplicita e non venga imposta come default o peggio attraverso dark pattern.
Inclusi, fra i dark pattern da evitare, operatori insufficienti, sottopagati, sovraccarichi e stressati.
Quanto ai bug di questi programmi (convenientemente chiamati "bias") basta ricondurre le responsabilità civili e penali in capo ai produttori (CEO, CTO, board of directors etc...) ed invertire l'onere della prova, visto che i bug (questi, prodotti da una programmazione statistica, come tutti gli altri) sono la normalità del software, non l'eccezione.
Giacomo
ricorda Signore questi servi disobbedienti alle leggi del branco non dimenticare il loro volto f. de andré, smisurata preghiera ------------------------------------------------------------------------ Maurizio Lana - 347 7370925