Buongiorno, grazie mille che mi date retta e grazie delle segnalazioni, però... Paolo Ciancarini <paolo.ciancarini@unibo.it> writes:
Per trovare studi sull’argomento suggerisco di cercare “real time affective computing” su scholar
Ignoravo il settore del "Affective computing" [1] inaugurato nel 1997 da Rosalind Picard e AFAIU la sostanza è «The machine should interpret the emotional state of humans and adapt its behavior to them, giving an appropriate response to those emotions.»; non mi pare quindi che la disciplina di occupi di come determinare il comportamento umano. Comunque sia, come per altre discipline di studio ho profondo rispetto anche per questa ma disapprovo il suo utilizzo ai fini della sorveglianza (per esempio nella sorveglianza automatizzata durante gli esami) e mi auguro vivamente non venga mai utilizzata come versione 4.0 della futura (attuale?) macchina della verità, magari adottata nel processo penale o ancora peggio nella prevenzione del crimine (perché una certa forma di lombrosismo rimane latente). [1] https://en.wikipedia.org/wiki/Affective_computing [...] "Marco A. Calamari" <marcoc_maillist@marcoc.it> writes: [...]
No, non sono in grado di segnalarti studi scientifici, perché la preoccupazione non viene dagli studi scientifici, ma da endorsement ed affermazioni come questa (te ne allego solo una, del 2015), provenienti da fonti considerate "titolate".
https://www.accenture.com/_acnmedia/accenture/conversion-assets/landingpage/...
Se non leggo male dall'introduzione, si tratta di sistemi di sorveglianza finalizzati al controllo della sicurezza e all'ottimizzazione dei processi logistici: in quale parte si parla di "determinare il comportamento"? Non che non ci siano aspetti problematici in tali sistemi, ripeto. Saluti, Giovanni -- Giovanni Biscuolo