Re: [nexa] Articolo What's wrong with "AI ethics" narratives
"The question of algorithmic decisions is a political issue, which requires a political answer. Allowing algorithms to judge human beings is the same as deciding to generate exclusion and inequality on the basis of irrelevant factors for the profit of a few large private corporations." Sono d’accordo, come lo è anche Moshe Vardi, premio ACM Knuth 2022, che sostiene che affrontare il problema dell'uso dell'AI attraverso la lente dell’etica sia fuorviante, mentre invece il problema è inerentemente un problema politico (di policies). Però credo che a impostarlo in questo modo non siano state tanto le large corporations, a cui fa comunque comodo perché distoglie dai veri problemi di concentrazione e dominio economico, ma gli esperti selezionati dall’EC come consulenti e quelli che hanno portato alla stesura del demenziale European AI Act. La EC, dopo un primo atteggiamento di interesse verso una strategia di sviluppo dell’AI in Europa, con la produzione del Coordinated Plan on AI del 2018, ha cambiato direzione spostando l'attenzione su questioni di regolamentazione. L’European AI Act prevede la creazione di autorità di regolamentazione in ciascun paese dotate di adeguate risorse e un processo complicato di certificazione che lo stesso documento ritiene penalizzante per le SME. A fronte di spese cospicue per realizzare queste strutture e i relativi “regulatory sandbox”, la UE investe cifre minuscole nella ricerca in AI. Quindi, invece di investire nel padroneggiare la tecnologia e in particolare saper decidere quali siano i suoi utilizzi migliori o peggiori, si investe nel tentativo di rallentarne l’adozione. L’AI sta facendo progressi straordinari (ne abbiamo accennato negli scambi sui LLM) e concentrandoci solo sulla regolamentazione, l’Europa sta perdendo l’occasione di avere un ruolo in una tecnologia dagli effetti dirompenti sulla società. — Beppe
On 14 Oct 2022, at 18:01, nexa-request@server-nexa.polito.it wrote:
From: Daniela Tafani <daniela.tafani@unipi.it <mailto:daniela.tafani@unipi.it>> To: "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> Subject: [nexa] Articolo What's wrong with "AI ethics" narratives Message-ID: <0aeb05e5f4724a5f91338c16bcb95b8c@unipi.it <mailto:0aeb05e5f4724a5f91338c16bcb95b8c@unipi.it>> Content-Type: text/plain; charset="windows-1252"
Buongiorno.
Propongo alla revisione paritaria aperta un mio articolo su What's wrong with "AI ethics" narratives: https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na... <https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na...> Daniela Tafani, What’s wrong with “AI ethics” narratives | Bollettino telematico di filosofia politica<https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na... <https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/>> commentbfp.sp.unipi.it <http://commentbfp.sp.unipi.it/> PDF Abstract 1. Introduction 2. AI, magical thinking and imposture 3. A business model grounded on imposture: AI, cultural capture and regulatory capture 4. “AI ethics” narratives as mystification. The science fiction of AGI ethics…
Grazie, saluti, Daniela Tafani
Grazie dell'osservazione. Ha ragione, sono stati anche gli esperti della Commissione. Ci sono però testimonianze dirette del fatto che questi siano stati gentilmente invitati a farlo da altri esperti, con incarichi direzionali e giunti lì attraverso sliding doors. Mi sembra perciò un classico caso di cattura del regolatore, non trova? E la cattura culturale converge verso lo stesso obiettivo. Riporto di seguito una parte della testimonianza di uno degli esperti europei incaricati (grassetto mio): As a member of the expert group, I am disappointed with the result that has now been presented. The guidelines are lukewarm, short-sighted and deliberately vague. They ignore long-term risks, gloss over difficult problems (“explainability”) with rhetoric, violate elementary principles of rationality and pretend to know things that nobody really knows. Together with the excellent Berlin machine learning expert Urs Bergmann (Zalando), it was my task to develop, over many months of discussion, the “Red Lines” – non-negotiable ethical principles determining what should not be done with AI in Europe. The use of lethal autonomous weapon systems was an obvious item on our list, as was the AI-supported assessment of citizens by the state (social scoring) and, in principle, the use of AIs that people can no longer understand and control. I only realized that all this was not actually desired when our friendly Finnish HLEG President Pekka Ala-Pietilä (formerly Nokia) asked me in a gentle voice whether we could remove the phrase “non-negotiable” from the document. In the next step, many industry representatives and group members interested in a “positive vision” vehemently insisted that the phrase “Red Lines” be removed entirely from the text – although it was precisely these red lines that were our mandate. The published document no longer contains any talk of “Red Lines”; three were completely deleted and the rest were watered down. Instead there is only talk of “critical concerns”. https://www.tagesspiegel.de/politik/ethics-washing-made-in-europe-5937028.ht... Analoghe pressioni hanno luogo nell'ambito privato, affinché i danni da decisioni algoritmiche siano presentati come problemi tecnici, di moralizzazione dell'algoritmo. Qui una testimonianza: https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/. L'abuso dell'etica è una via di fuga dalla regolazione e, al momento, funziona benissimo, quanto al raggiungimento dell'obiettivo prefissato. I risultati straordinari ci sono senz'altro, ma alcune decisioni oggi affidate a sistemi di ML ne sottintendono una visione magica: animistica, antropomorfizzante, che mostra i risultati nascondendo lavoro e effetti collaterali, e affine all'astrologia. Grazie, buona domenica, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giuseppe Attardi <attardi@di.unipi.it> Inviato: domenica 23 ottobre 2022 12:57 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Articolo What's wrong with "AI ethics" narratives "The question of algorithmic decisions is a political issue, which requires a political answer. Allowing algorithms to judge human beings is the same as deciding to generate exclusion and inequality on the basis of irrelevant factors for the profit of a few large private corporations." Sono d’accordo, come lo è anche Moshe Vardi, premio ACM Knuth 2022, che sostiene che affrontare il problema dell'uso dell'AI attraverso la lente dell’etica sia fuorviante, mentre invece il problema è inerentemente un problema politico (di policies). Però credo che a impostarlo in questo modo non siano state tanto le large corporations, a cui fa comunque comodo perché distoglie dai veri problemi di concentrazione e dominio economico, ma gli esperti selezionati dall’EC come consulenti e quelli che hanno portato alla stesura del demenziale European AI Act. La EC, dopo un primo atteggiamento di interesse verso una strategia di sviluppo dell’AI in Europa, con la produzione del Coordinated Plan on AI del 2018, ha cambiato direzione spostando l'attenzione su questioni di regolamentazione. L’European AI Act prevede la creazione di autorità di regolamentazione in ciascun paese dotate di adeguate risorse e un processo complicato di certificazione che lo stesso documento ritiene penalizzante per le SME. A fronte di spese cospicue per realizzare queste strutture e i relativi “regulatory sandbox”, la UE investe cifre minuscole nella ricerca in AI. Quindi, invece di investire nel padroneggiare la tecnologia e in particolare saper decidere quali siano i suoi utilizzi migliori o peggiori, si investe nel tentativo di rallentarne l’adozione. L’AI sta facendo progressi straordinari (ne abbiamo accennato negli scambi sui LLM) e concentrandoci solo sulla regolamentazione, l’Europa sta perdendo l’occasione di avere un ruolo in una tecnologia dagli effetti dirompenti sulla società. — Beppe On 14 Oct 2022, at 18:01, nexa-request@server-nexa.polito.it<mailto:nexa-request@server-nexa.polito.it> wrote: From: Daniela Tafani <daniela.tafani@unipi.it<mailto:daniela.tafani@unipi.it>> To: "nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>" <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> Subject: [nexa] Articolo What's wrong with "AI ethics" narratives Message-ID: <0aeb05e5f4724a5f91338c16bcb95b8c@unipi.it<mailto:0aeb05e5f4724a5f91338c16bcb95b8c@unipi.it>> Content-Type: text/plain; charset="windows-1252" Buongiorno. Propongo alla revisione paritaria aperta un mio articolo su What's wrong with "AI ethics" narratives: https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na... Daniela Tafani, What’s wrong with “AI ethics” narratives | Bollettino telematico di filosofia politica<https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na...> commentbfp.sp.unipi.it<http://commentbfp.sp.unipi.it/> PDF Abstract 1. Introduction 2. AI, magical thinking and imposture 3. A business model grounded on imposture: AI, cultural capture and regulatory capture 4. “AI ethics” narratives as mystification. The science fiction of AGI ethics… Grazie, saluti, Daniela Tafani
come sapete, io ero uno dei membri del gruppo di esperti. immagino non abbiate letto anche le policy recommendations. i deliverables furono 3, ma si parla solo di uno. chi segui' i lavori da vicino sa bene che solo una piccola parte delle nostre raccomandazioni fu adottata dalla politica. in merito alle "red lines", ricordo quel signore. in una delle occasioni in cui lo abbiamo visto (non molte, per la verita), all'inizio dei lavori, venne accompagnato da una troupe per farsi riprendere e andandosene da li' a poco, facendoci interrompere i lavori sul merito delle sue affermazioni, quello che ricordo e' che aveva proposto si' delle "red lines" riguardanti la superintelligenza e la creazione di macchine coscienti. avevamo prodotto due pagine al riguardo. poi ci siamo interrogati che farne: inserirle nel rapporto, avrebbe nobilitato un tema cui la quasi totalita' di noi dava lo stesso credito delle scie chimiche, toglierlo ci avrebbe esposti alla critica di non avere affrontato "questioni fondamentali per il futuro dell'umanita". con solo un paio di voci in dissenso, decidemmo di togliere le pagine ed inserire una nota a pie' pagina che diceva che ritenevamo certi temi fantascientifici, cosa che non piacque a quelli che su queste speculazioni ci stavano costruendo la propria immagine. lo ricordo bene perche' fui io che, un sabato mattina, feci un giro di consultazioni per cambiare le parole che dicevano che lo ritenevamo "science fiction" in "unrealistic". ciao, s. ps. con "sliding doors" si intende quando uno passa da regolatore a regolato. questo non e' il caso. il gruppo era composto da 52 persone (qualcuno e' venuto solo ad un paio delle molte decine di riunoini fatte). queste persone, me incluso, non erano retribuite ed appartenevano ad ogni tipo di organizzazione, da rappresentanti dei cosumatori, accademia, industria, politica, ecc. ci siamo auto-organizzati scegliendo come, quando lavorare ed attribuendoci i ruoli senza alcuna interferenza. e' tanto vero che persino l'incarico iniziale riguardava "trusted AI" e noi autonomamente ci siamo cambiati l'obiettivo parlando di "trustworthy AI". tanto vero che, nonostante la difesa militare sia un tema estraneo al perimetro della COmmissione UE e quindi al nostro incarico ed ambito dei documenti, ci siamo voluti comunque pronunciare sulle armi autonom, trascendendo i nostri compiti (sempre senza interferenza alcuna). queste cose le ho scritte all'epoca, ed in maggior dettaglio, quando il signore - out of the blue - si fece intervistare con quelle esternazioni ampiamente sconfessate. purtroppo non esistono depuratori per l'inquinamento informativo. ogni tanto riaffiora. ciao, s. On 23/10/22 15:01, Daniela Tafani wrote:
Grazie dell'osservazione. Ha ragione, sono stati anche gli esperti della Commissione.
Ci sono però testimonianze dirette del fatto che questi siano stati gentilmente invitati a farlo
da altri esperti, con incarichi direzionali e giunti lì attraverso /sliding doors/.
Mi sembra perciò un classico caso di cattura del regolatore, non trova?
E la cattura culturale converge verso lo stesso obiettivo.
Riporto di seguito una parte della testimonianza di uno degli esperti europei incaricati (grassetto mio):
/As a member of the expert group, I am disappointed with the result that has now been presented. The guidelines are lukewarm, short-sighted and deliberately vague. They ignore long-term risks, gloss over difficult problems (“explainability”) with rhetoric, violate elementary principles of rationality and pretend to know things that nobody really knows. Together with the excellent Berlin machine learning expert Urs Bergmann (Zalando), it was my task to develop, over many months of discussion, the “Red Lines” – non-negotiable ethical principles determining what should not be done with AI in Europe. The use of lethal autonomous weapon systems was an obvious item on our list, as was the AI-supported assessment of citizens by the state (social scoring) and, in principle, the use of AIs that people can no longer understand and control. I only realized that all this was not actually desired when *our friendly Finnish HLEG President Pekka Ala-Pietilä (formerly Nokia) asked me in a gentle voice whether we could remove the phrase “non-negotiable” from the document*. In the next step, *many industry representatives and group members interested in a “positive vision” vehemently insisted that the phrase “Red Lines” be removed entirely from the text – although it was precisely these red lines that were our mandate. *The published document no longer contains any talk of “Red Lines”; three were completely deleted and the rest were watered down. Instead there is only talk of “critical concerns”./
https://www.tagesspiegel.de/politik/ethics-washing-made-in-europe-5937028.ht... <https://www.tagesspiegel.de/politik/ethics-washing-made-in-europe-5937028.ht...>
Analoghe pressioni hanno luogo nell'ambito privato, affinché i danni da decisioni algoritmiche siano presentati come problemi tecnici,
di moralizzazione dell'algoritmo.
Qui una testimonianza:
https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/ <https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/>.
L'abuso dell'etica è una via di fuga dalla regolazione e, al momento, funziona benissimo,
quanto al raggiungimento dell'obiettivo prefissato.
I risultati straordinari ci sono senz'altro, ma alcune decisioni oggi affidate a sistemi di ML ne sottintendono una visione magica: animistica, antropomorfizzante, che mostra i risultati nascondendo lavoro e effetti collaterali, e affine all'astrologia.
Grazie, buona domenica, Daniela
------------------------------------------------------------------------------------------ *Da:* nexa <nexa-bounces@server-nexa.polito.it> per conto di Giuseppe Attardi <attardi@di.unipi.it> *Inviato:* domenica 23 ottobre 2022 12:57 *A:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] Articolo What's wrong with "AI ethics" narratives "The question of algorithmic decisions is a political issue, which requires a political answer. Allowing algorithms to judge human beings is the same as deciding to generate exclusion and inequality on the basis of irrelevant factors for the profit of a few large private corporations."
Sono d’accordo, come lo è anche Moshe Vardi, premio ACM Knuth 2022, che sostiene che affrontare il problema dell'uso dell'AI attraverso la lente dell’etica sia fuorviante, mentre invece il problema è inerentemente un problema politico (di policies).
Però credo che a impostarlo in questo modo non siano state tanto le large corporations, a cui fa comunque comodo perché distoglie dai veri problemi di concentrazione e dominio economico, ma gli esperti selezionati dall’EC come consulenti e quelli che hanno portato alla stesura del demenziale European AI Act. La EC, dopo un primo atteggiamento di interesse verso una strategia di sviluppo dell’AI in Europa, con la produzione del Coordinated Plan on AI del 2018, ha cambiato direzione spostando l'attenzione su questioni di regolamentazione. L’European AI Act prevede la creazione di autorità di regolamentazione in ciascun paese dotate di adeguate risorse e un processo complicato di certificazione che lo stesso documento ritiene penalizzante per le SME. A fronte di spese cospicue per realizzare queste strutture e i relativi “regulatory sandbox”, la UE investe cifre minuscole nella ricerca in AI.
Quindi, invece di investire nel padroneggiare la tecnologia e in particolare saper decidere quali siano i suoi utilizzi migliori o peggiori, si investe nel tentativo di rallentarne l’adozione.
L’AI sta facendo progressi straordinari (ne abbiamo accennato negli scambi sui LLM) e concentrandoci solo sulla regolamentazione, l’Europa sta perdendo l’occasione di avere un ruolo in una tecnologia dagli effetti dirompenti sulla società.
— Beppe
On 14 Oct 2022, at 18:01, nexa-request@server-nexa.polito.it <mailto:nexa-request@server-nexa.polito.it> wrote:
From: Daniela Tafani <daniela.tafani@unipi.it <mailto:daniela.tafani@unipi.it>> To: "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> Subject: [nexa] Articolo What's wrong with "AI ethics" narratives Message-ID: <0aeb05e5f4724a5f91338c16bcb95b8c@unipi.it <mailto:0aeb05e5f4724a5f91338c16bcb95b8c@unipi.it>> Content-Type: text/plain; charset="windows-1252"
Buongiorno.
Propongo alla revisione paritaria aperta un mio articolo su What's wrong with "AI ethics" narratives: https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na... <https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na...> Daniela Tafani, What’s wrong with “AI ethics” narratives | Bollettino telematico di filosofia politica<https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na... <https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/>> commentbfp.sp.unipi.it <http://commentbfp.sp.unipi.it/> PDF Abstract 1. Introduction 2. AI, magical thinking and imposture 3. A business model grounded on imposture: AI, cultural capture and regulatory capture 4. “AI ethics” narratives as mystification. The science fiction of AGI ethics…
Grazie, saluti, Daniela Tafani
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Grazie mille. Avevo intravisto il commento di Thomas Metzinger, ma non riuscivo a ritrovarlo. Sui social, il commento era stato criticato da Brian O’Sullivan, altro membro del comitato, dicendo che Metzinger ha firmato il documento senza obiezioni o senza proporre una posizione di minoranza. Ho sentito altre volte O’Sullivan prendere le difese della EC riguardo alle scelte in materia di AI. Temo che sia un atteggiamento comune tra gli esperti: meglio assecondare chi ci finanzia piuttosto che esprimere una posizione autonoma e critica. Purtroppo così facendo, stiamo infilandoci in un vicolo cieco. — Beppe
On 23 Oct 2022, at 15:01, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Grazie dell'osservazione. Ha ragione, sono stati anche gli esperti della Commissione. Ci sono però testimonianze dirette del fatto che questi siano stati gentilmente invitati a farlo da altri esperti, con incarichi direzionali e giunti lì attraverso sliding doors. Mi sembra perciò un classico caso di cattura del regolatore, non trova? E la cattura culturale converge verso lo stesso obiettivo.
Riporto di seguito una parte della testimonianza di uno degli esperti europei incaricati (grassetto mio):
As a member of the expert group, I am disappointed with the result that has now been presented. The guidelines are lukewarm, short-sighted and deliberately vague. They ignore long-term risks, gloss over difficult problems (“explainability”) with rhetoric, violate elementary principles of rationality and pretend to know things that nobody really knows. Together with the excellent Berlin machine learning expert Urs Bergmann (Zalando), it was my task to develop, over many months of discussion, the “Red Lines” – non-negotiable ethical principles determining what should not be done with AI in Europe. The use of lethal autonomous weapon systems was an obvious item on our list, as was the AI-supported assessment of citizens by the state (social scoring) and, in principle, the use of AIs that people can no longer understand and control. I only realized that all this was not actually desired when our friendly Finnish HLEG President Pekka Ala-Pietilä (formerly Nokia) asked me in a gentle voice whether we could remove the phrase “non-negotiable” from the document. In the next step, many industry representatives and group members interested in a “positive vision” vehemently insisted that the phrase “Red Lines” be removed entirely from the text – although it was precisely these red lines that were our mandate. The published document no longer contains any talk of “Red Lines”; three were completely deleted and the rest were watered down. Instead there is only talk of “critical concerns”.
https://www.tagesspiegel.de/politik/ethics-washing-made-in-europe-5937028.ht... <https://www.tagesspiegel.de/politik/ethics-washing-made-in-europe-5937028.ht...>
Analoghe pressioni hanno luogo nell'ambito privato, affinché i danni da decisioni algoritmiche siano presentati come problemi tecnici, di moralizzazione dell'algoritmo. Qui una testimonianza: https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/ <https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/>.
L'abuso dell'etica è una via di fuga dalla regolazione e, al momento, funziona benissimo, quanto al raggiungimento dell'obiettivo prefissato.
I risultati straordinari ci sono senz'altro, ma alcune decisioni oggi affidate a sistemi di ML ne sottintendono una visione magica: animistica, antropomorfizzante, che mostra i risultati nascondendo lavoro e effetti collaterali, e affine all'astrologia.
Grazie, buona domenica, Daniela
Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Giuseppe Attardi <attardi@di.unipi.it> Inviato: domenica 23 ottobre 2022 12:57 A: nexa@server-nexa.polito.it Oggetto: Re: [nexa] Articolo What's wrong with "AI ethics" narratives
"The question of algorithmic decisions is a political issue, which requires a political answer. Allowing algorithms to judge human beings is the same as deciding to generate exclusion and inequality on the basis of irrelevant factors for the profit of a few large private corporations."
Sono d’accordo, come lo è anche Moshe Vardi, premio ACM Knuth 2022, che sostiene che affrontare il problema dell'uso dell'AI attraverso la lente dell’etica sia fuorviante, mentre invece il problema è inerentemente un problema politico (di policies).
Però credo che a impostarlo in questo modo non siano state tanto le large corporations, a cui fa comunque comodo perché distoglie dai veri problemi di concentrazione e dominio economico, ma gli esperti selezionati dall’EC come consulenti e quelli che hanno portato alla stesura del demenziale European AI Act. La EC, dopo un primo atteggiamento di interesse verso una strategia di sviluppo dell’AI in Europa, con la produzione del Coordinated Plan on AI del 2018, ha cambiato direzione spostando l'attenzione su questioni di regolamentazione. L’European AI Act prevede la creazione di autorità di regolamentazione in ciascun paese dotate di adeguate risorse e un processo complicato di certificazione che lo stesso documento ritiene penalizzante per le SME. A fronte di spese cospicue per realizzare queste strutture e i relativi “regulatory sandbox”, la UE investe cifre minuscole nella ricerca in AI.
Quindi, invece di investire nel padroneggiare la tecnologia e in particolare saper decidere quali siano i suoi utilizzi migliori o peggiori, si investe nel tentativo di rallentarne l’adozione.
L’AI sta facendo progressi straordinari (ne abbiamo accennato negli scambi sui LLM) e concentrandoci solo sulla regolamentazione, l’Europa sta perdendo l’occasione di avere un ruolo in una tecnologia dagli effetti dirompenti sulla società.
— Beppe
On 14 Oct 2022, at 18:01, nexa-request@server-nexa.polito.it <mailto:nexa-request@server-nexa.polito.it> wrote:
From: Daniela Tafani <daniela.tafani@unipi.it <mailto:daniela.tafani@unipi.it>> To: "nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>" <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> Subject: [nexa] Articolo What's wrong with "AI ethics" narratives Message-ID: <0aeb05e5f4724a5f91338c16bcb95b8c@unipi.it <mailto:0aeb05e5f4724a5f91338c16bcb95b8c@unipi.it>> Content-Type: text/plain; charset="windows-1252"
Buongiorno.
Propongo alla revisione paritaria aperta un mio articolo su What's wrong with "AI ethics" narratives: https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na... <https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na...> Daniela Tafani, What’s wrong with “AI ethics” narratives | Bollettino telematico di filosofia politica<https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-na... <https://commentbfp.sp.unipi.it/daniela-tafani-what-s-wrong-with-ai-ethics-narratives/>> commentbfp.sp.unipi.it <http://commentbfp.sp.unipi.it/> PDF Abstract 1. Introduction 2. AI, magical thinking and imposture 3. A business model grounded on imposture: AI, cultural capture and regulatory capture 4. “AI ethics” narratives as mystification. The science fiction of AGI ethics…
Grazie, saluti, Daniela Tafani
On 24/10/22 11:07, Giuseppe Attardi wrote:
Sui social, il commento era stato criticato da Brian O’Sullivan, altro membro del comitato, dicendo che Metzinger ha firmato il documento senza obiezioni o senza proporre una posizione di minoranza.
corretto, avevo dimenticato di scriverlo
Temo che sia un atteggiamento comune tra gli esperti: meglio assecondare chi ci finanzia piuttosto che esprimere una posizione autonoma e critica.
non eravamo finanziati, come scritto e riscritto rmando a mia mail precedente per il resto
participants (3)
-
Daniela Tafani -
Giuseppe Attardi -
Stefano Quintarelli