Make Google Do It. Interpellating digital subject/objects of desire in the gendering of artificially intelligent virtual personal assistants - Guest research seminar
Car* NINSO (Northumbria Internet & Society Research Group) ha il piacere di invitarvi a partecipare all'incontro con Dr Rachel Adams sul tema ‘*Make Google Do It.** Interpellating digital subject/objects of desire in the gendering of artificially intelligent virtual personal assistants*.’ *Abstract. *The seminar will explore how the particular gendering of artificially intelligence virtual personal assistants as female through their names, characterisations and marketing, meets with an imperative grammar with which users are to engage with them, most notably with the call “Hey Siri!” or “Hey Alexa!” Drawing on Louis Althusser and Judith Butler’s accounts of interpellation, I discuss how the gendering of these devices coupled with the new techno-crafted grammar given to engage with them, plays into a broader history of female automata produced as both subjects to and objects of a male desire to (literally) constitute, control and command the female. Thus, expanding on the current account of female gendered virtual personal assistants as a strategy for softening the transition from a traditional past to a disruptive digital future, I argue that, more critically, this gendering re-inscribes and legitimises a historically embedded male desire which works, primarily, to ensure the female is always in a subject to/object of relationship to their male “user”/maker, without agency to attain her own status as subject. *Dove*: Faculty of Business and Law (CCE1), room 405 (ma *se non potete venire,* l'incontro sara' registrato e pubblicato sul nostro canale YouTube!) *Quando*: Wednesday 6th March 2019 alle 12 Il link per la registrazione e' https://www.eventbrite.co.uk/e/make-google-do-it-tickets-56349087638. A presto, Guido Guido Noto La Diega, PhD FHEA Senior Lecturer / European Research Partnerships Coordinator @ Northumbria Law School Director @italiot | Fellow @nexacenter | Co-convenor @NINSOrig | Co-founder @DPA2018 Northumbria Law School City Campus East, Newcastle upon Tyne NE1 8ST noto.la.diega@gmail.com +44(0)191 349 5562 You can access my papers on Academia.edu <http://northumbria.academia.edu/GuidoNotoLaDiega> and on the Social Science Research Network (SSRN <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1794950>) This e-mail and any attachment hereto are strictly confidential and are exclusively intended for the person above identified. Without intended recipient’s entitlement, use, copy and dissemination of this e-mail is prohibited. If you have received it in error, please advice us immediately by telephone and return the documents received to the above address, deleting the files. Thank you. Unless necessary, please do not print this e-mail.
Davvero molto interessante. Mi chiedo se il fatto che la voce sia umana, in sé ed al di là del sesso, non sublimi una tendenza umana al potere sull'altro, residuo della nostra origine scimmiesca. Avrebbe totalmente senso. Una buona cosa da imporre a Google&friends sarebbe di fornire i virtual assistent di una voce inumana, percepibilmente artificiale. On 25/02/2019, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
*Dove*: Faculty of Business and Law (CCE1), room 405 (ma *se non potete venire,* l'incontro sara' registrato e pubblicato sul nostro canale YouTube!)
Ragazzi, parlate di Google... su YouTube? Almeno potete prendere in considerazione anche alternative? https://joinpeertube.org/en/ Giacomo
Mi piace l'idea di un dovere di 'artificialita'. E quanto alla voce, e' da un po' di tempo che rifletto sul tipo di dati che e' possibile estrarre quando c'e' la voce di mezzo (sia la voce di Alexa, che la voce dell'utente), di qualita' diversa dai dati di Facebook e perfino Google search. PS Non conoscevo PeerTube, bellissimo! Lo proporro' al team, grazie. On Tue, 26 Feb 2019 at 08:43, Giacomo Tesio <giacomo@tesio.it> wrote:
Davvero molto interessante.
Mi chiedo se il fatto che la voce sia umana, in sé ed al di là del sesso, non sublimi una tendenza umana al potere sull'altro, residuo della nostra origine scimmiesca.
Avrebbe totalmente senso.
Una buona cosa da imporre a Google&friends sarebbe di fornire i virtual assistent di una voce inumana, percepibilmente artificiale.
On 25/02/2019, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
*Dove*: Faculty of Business and Law (CCE1), room 405 (ma *se non potete venire,* l'incontro sara' registrato e pubblicato sul nostro canale YouTube!)
Ragazzi, parlate di Google... su YouTube?
Almeno potete prendere in considerazione anche alternative? https://joinpeertube.org/en/
Giacomo _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- Guido Guido Noto La Diega, PhD FHEA Senior Lecturer / European Research Partnerships Coordinator @ Northumbria Law School Director @italiot | Fellow @nexacenter | Co-convenor @NINSOrig | Co-founder @DPA2018 Northumbria Law School City Campus East, Newcastle upon Tyne NE1 8ST noto.la.diega@gmail.com +44(0)191 349 5562 You can access my papers on Academia.edu <http://northumbria.academia.edu/GuidoNotoLaDiega> and on the Social Science Research Network (SSRN <https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1794950>) This email and any attachment hereto are strictly confidential and are exclusively intended for the person above identified. Without the intended recipient’s entitlement, use, copy, and dissemination of this email are prohibited. If you have received it in error, please advise us immediately by telephone and return the documents received to the above address, deleting the files. Thank you. Unless necessary, please do not print this email.
On 26/02/2019, Guido Noto La Diega <noto.la.diega@gmail.com> wrote:
Mi piace l'idea di un dovere di 'artificialita'.
E' una questione su cui rifletto da quando Google ha lanciato il Material Design. https://material.io/ L'idea di fondo (osservabile su moltissime app android) è quella di rendere il più "naturale" possibile l'interazione uomo macchina, riproducendo il feeling della carta. Le ombre, la stratificazione dei pulsanti... le metafore di interazione. Tecnicamente, l'idea è brillante. Fin tanto che non ti accorgi che la naturalità dell'interazione rimuove la percezione della artificialità della stessa, e questo NON è un bene per la persona. L'utente guadagna in produttività (per produrre cosa? ... vabbe... un'altra volta :-D), ma la persona perde molto di più in consapevolezza. E la società intera perde ancora di più in autonomia. Ma il marketing parla solo di utenti, e dunque tutti guardano la questione solo dalla limitatissima prospettiva del software che viene usato. La Tecnologia è Politica. Il Marketing invece, è Propaganda politicizzata.
E quanto alla voce, e' da un po' di tempo che rifletto sul tipo di dati che e' possibile estrarre quando c'e' la voce di mezzo (sia la voce di Alexa, che la voce dell'utente), di qualita' diversa dai dati di Facebook e perfino Google search.
Scusami se sono pedante, ma non si tratta di quali dati puoi estrarre, ma quali informazioni puoi dedurre. Maschio o femmina? Età? Sono rauco? Voce squillante? Affannato? I dati sono misurabili, le informazioni no. Ma i dati sono solo rappresentazioni di informazioni. Sono le informazioni che hanno valore, per le persone e per l'umanità. Leggendo questa mail tu interpreti i dati che io ho espresso e trasferito sotto forma di testo/byte in informazioni nella tua mente. Un algoritmo è un'informazione nella mente di chi lo conosce. Un programma è una rappresentazione di tale informazione. Io sconsiglio sempre a tutti servizi come "Ok, Google" o Alexa etc. A mia figlia (e ai suoi compagni) l'ho spiegato così: "Ogni informazione che diffondete, la vostra voce o il vostro viso, resterà fuori dal vostro controllo per sempre. Visto che le cose cambiano e non potete sapere chi o come userà queste informazioni, domani o fra venti anni, è meglio minimizzare le informazioni che diffondete, e possibilmente diffonderne di sbagliate." Giacomo
Ciao Diego, scusa se riapro il thread nuovamente, ma su altri canali ho ricevuto due segnalazioni interessanti sul tema: Una del 2016, in Inglese di cui vi riporto in calce qualche passaggio. https://qz.com/818151/virtual-assistant-bots-like-siri-alexa-and-cortana-spe... L'altra di pochi mesi fa in Spagnolo https://www.yorokobu.es/voces-en-igualdad/ Entrambi mostrano alcuni fatti interessanti, su quanto l'uomo si possa adattare alla macchina (e quale enorme potere manipolatorio queste abbiano). Mostrano anche un fatto interessante da un punto di vista socioeconomico: una buona quantità degli acquirenti di questi prodotti (NOI non sappiamo quanti, perché il 5% delle interazioni non dice nulla sulla popolazione, le aziende lo sanno e non le diffonderanno mai... con la scusa della privacy), non capisce NULLA di tecnologia perché è disposto a pagare con il proprio denaro (evidentemente troppo) un oggetto che li spia continuamente e registra ogni scorreggia (e peggio). QUANDO le registrazioni verranno diffuse da un leak, forse impareranno la lezione... ma a caro prezzo. Giacomo ____ As bots do more of our bidding, their algorithms are spending more time parrying flirtations, dodging personal questions, and dealing with darker forms of sexual harassment. ”Lots of use cases come from that motivation,” says Ilya Eckstein, CEO of Robin Labs whose bot platform helps truckers, cabbies, and other drivers find the best route and handle logistics. “People want to flirt, they want to dream about a subservient girlfriend, or even a sexual slave. It may just be more for laughs, or something deeper underneath the surface.” [...] The scale of the sexual harassment issue is unclear. Most bot makers say they encounter it regularly. Eckstein says 5% of interactions in their database are categorized as clearly sexually explicit, although he believes the actual number is far higher due to the difficulty of identifying them automatically. A writer for Microsoft’s Cortana, Deborah Harrison, said earlier this year at the Virtual Assistant Summit that “a good chunk of the volume of early-on inquiries” were into Cortana’s sex life. “That’s not the kind of interaction we want to encourage,” said Harrison. The nature of the harassment varies. Some people seem to be testing the software’s limits, and teenagers seem to be purposefully eliciting outrageous responses for fun, says Eckstein. But others are playing out aggressive, degrading, and violent fantasies of control and domination. There’s also a small number of lonely users desperate to find partners, even if they’re an AI, says Eckstein. “You see some people try very hard to establish a relationships with the bot,” he says, noting a full third of interactions with their bots are simply conversations without any intended task. “Some users are amazingly stubborn in that sense. They walk from one assistant to another trying to find one that will understand them best and can have a conversation with them.” [...] “There’s a legacy of what women are expected to be like in an assistant role,” said Microsoft’s Harrison. “We wanted to be really careful that Cortana…is not subservient in a way that sets up a dynamic that we didn’t want to perpetuate socially. We are in a position to lay the groundwork for what comes after us.”
participants (3)
-
Giacomo -
Giacomo Tesio -
Guido Noto La Diega