Carissime e carissimi segnalo un articolo sul tema algoretica scritto da SIpEIA su Magazine Intelligenza Artificiale - MagIA https://magia.news/che-dire-della-algor-etica-spunti-per-una-critica-della-p... colgo l'occasione per ricordare che MagIA vuole essere un luogo aperto a tutte e tutti per parlare di impatto dell'IA e quindi rinnovo la call to action a tutte e tutti gli interessati a contribuire con editoriali se interessate/i saluti guido -- Dipartimento di Informatica Università di Torino Cso Svizzera 185 10149 Torino Vice-Rettore Vicario dell'Università di Torino per la promozione dei rapporti con le imprese e le associazioni di categoria delle imprese e per il coordinamento con le iniziative di innovazione industriale sul territorio Vicepresidente del Competence Center CIM4.0 www.cim40.com Visitate i siti delle nostre iniziative www.magia.news www.firstlife.org www.commonshood.eu www.projectco3.eu www.sipeia.it www.chedih.eu www.ai-aware.eu nlab4cit.eu
Buongiorno, grazie della segnalazione Guido Boella via nexa <nexa@server-nexa.polito.it> writes:
Carissime e carissimi
segnalo un articolo sul tema algoretica scritto da SIpEIA su Magazine Intelligenza Artificiale - MagIA https://magia.news/che-dire-della-algor-etica-spunti-per-una-critica-della-p...
a parte qualche stonatura (red herring?) che io ritengo più che perdonabile nel contesto, ho molto apprezzato la critica all'algoretica anche ai fini archivistici, riporto qui un mio personalissimo estratto dei punti (IMO) salienti. il succo del discorso è: (gli algoritmi non /esistono/) Free Software in Free Society. :-) --8<---------------cut here---------------start------------->8--- ══════════════════════════════════════════════════════════════════════════ 1.1 Considerazioni preliminari ────────────────────────────── Negli ultimi decenni si rileva una proliferazione di etiche speciali, ossia di declinazioni dell'etica generale applicata a settori specifici. L'idea è più che accettabile perché da sempre è noto che nelle diverse circostanze si richiedono specificazioni peculiari rispetto al canone generale. Tuttavia, al riguardo bisogna mantenere cautele, per evitare che le specificazioni travolgano l'impianto di fondo che caratterizza ogni etica. Fra le recenti etiche speciali troviamo: la bioetica, l'etica degli affari, l'etica bancaria, l'etica delle relazioni internazionali, l'etica legale, l'etica militare, l'etica delle sperimentazioni e via dicendo. Ultima nata in questa prospettiva è l'algoretica che ora sta riscuotendo un certo successo e interesse anche perché il termine è stato usato da personalità di rilievo. 1.2 Origine del termine e ambito considerato ──────────────────────────────────────────── Il termine “algoretica” è un neologismo che pare sia stato coniato [1] nel 2017 dal giurista e filosofo Luigi Lombardi Vallauri, che oltre a reclamarne la paternità ha precisato che “Bioetica e roboetica si possono allora unificare nel concetto di algoretica: l'algoritmo biologico si riflette nell'algoretica umana, animale e ambientale, cioè l'etica del vivente, del bios; l'algoritmo non biologico si riflette nell'algoretica dei robot e dei sistemi di Intelligenza Artificiale; ossia nell'etica concernente gli algoritmi stessi” [2]. [...] Paolo Benanti, che sulla scia di Lombardi Vallauri a proprio modo ha affermato: “Abbiamo bisogno di un'algor-etica, ovvero di un modo che renda computabili le valutazioni di bene e di male. Dobbiamo codificare principi e norme etiche in un linguaggio comprensibile e utilizzabile dalle macchine. [...] [3] [...] In questa accezione il termine algoretica si sovrappone al termine machine ethics [5] usato in Informatica, vale a dire un'etica che, inclusa nel programma dotato di autonomia, ne regoli il comportamento; è la disciplina che realizza “controllori etici autonomi”; cioè algoritmi all'interno di altri algoritmi che dicono alle macchine autonome come si debbono comportare (perché il loro comportamento sia eticamente accettabile). [...] 1.3 Che dire dell'algoretica? È l'algoritmo il livello giusto di analisi? ───────────────────────────────────────────────────────────────────────── [...] Ma che cos'è un algoritmo? È una sequenza di passi eseguibili meccanicamente per raggiungere uno scopo. [...] un ‘metodo o procedimento matematico per la risoluzione di un problema'. In questa prospettiva un algoritmo è implementabile in un infinito numero di programmi che, anche in diversi linguaggi di programmazione, riescono a raggiungere lo stesso scopo ma in modo diverso [...] [...] Nonostante vi sia una connessione tra algoritmi e programmi, resta il fatto che i programmi sono eseguiti da macchine (hardware o virtuali), mentre gli algoritmi no, sono “invisibili strutture”. Questo è un punto centrale, perché il voler puntare a regolare l'etica o un'etica su un algoritmo, invece che su un programma, è come regolare i numeri anziché i prodotti industriali costruiti in base a modelli matematici. Nel momento però in cui si considera l'algor-etica “un modo che renda computabili le valutazioni di bene e di male”, e si codificano “principi e norme etiche in un linguaggio comprensibile e utilizzabile dalle macchine” [9] si sta ammettendo che l'etica possa essere ridotta ad un algoritmo, posizione controversa e con importanti implicazioni. Un'etica riducibile ad un algoritmo implica che l'etica dipende dalla sola razionalità ed è riducibile ad un insieme di numeri [...] L'uso del termine “algoritmo” come oggetto dell'analisi etica è complicato anche dal fatto che i sistemi di IA moderni sono basati sull'apprendimento automatico e in particolare sul “deep learning” neurale e di fatto “creano”, si potrebbe dire, un nuovo algoritmo o programma durante la fase di apprendimento, a partire dal programma originario di addestramento della rete neurale che ottimizza solamente i parametri della rete neurale sulla base dei dati di addestramento. [...] Diventa quindi difficile, anche se fosse possibile rendere “computabili le valutazioni di bene e di male”, “codificare principi e norme etiche in un linguaggio comprensibile e utilizzabile” da queste macchine, perché non sono programmabili nel senso tradizionale del termine. [...] 1.4 Cosa implica focalizzarsi sull'algoritmo e perché è sbagliato basare l'etica sull'algoritmo ─────────────────────────────────────────────────────────────────────────────────────────────── [...] l'algoritmo è concetto astratto (una sorta di idea platonica) che per diventare concreto e avere un impatto sulla realtà abbisogna di materializzarsi in programmi concreti formulati da specifici attori che fanno azioni, come i programmatori, le aziende ICT, gli sviluppatori di hardware coinvolti in processi che hanno effetti ambientali, le banche o i fondi finanziari che forniscono denaro, etc. [...] L'insistenza che oggi viene posta sull'algoritmo, visto come il Sole al centro della scena e che irradia la propria luce su tutto, e la contemporanea sottovalutazione degli aspetti pratici implicati dal programma sono punti che fanno pensare. Non è che è in atto un'operazione retorica tesa a proporre una narrativa pubblica che presenta l'IA come qualcosa di astratto, di positivo e di pressoché ineluttabile, quasi che le grandi Big Tech siano esenti da ogni responsabilità circa gli scenari implementati? [...] La sinergia tra i vari aspetti sopra ricordati fa pensare che l'enfasi assegnata agli algoritmi (invece che ai programmi e alle loro applicazioni) sia al fondo dettata da una sorta di “utilità politica”, dal momento che la narrativa algoritmo-centrica permette di fissare il discorso sul concetto astratto di algoritmo, distogliendo l'attenzione dai vari attori concreti i cui interessi devono rimanere in ombra (forse perché non si vogliono toccare). Per esempio, un “programma” comporta un uso di ingenti risorse (umane, territoriali, finanziarie, etc.) che creano dinamiche tali per cui un governo deve mediare fra gli interessi delle Big Tech e il bene comune dei cittadini: tema che va posto e non può essere demandato (o occultato) dietro il concetto di algoritmo. [...] Footnotes ───────── [1] “Algoretica. Le due sfide cruciali nell'era tecnologica: bioetica, roboetica”, [Atti e memorie] (<https://www.torrossa.com/it/resources/an/4480056>) dell'Accademia Toscana di Scienze e Lettere «La Colombaria», vol. LXXXII, Firenze 2017 dalla conferenza di Luigi Lombardi Vallauri del 18/5/2017, nell'ambito del ciclo di incontri Roboetica. Per altri significati del termine “algoretica” si può utilmente consultare la [voce dell'Accademia della Crusca] (<https://accademiadellacrusca.it/it/parole-nuove/algoretica/18479>). Oltre ad avere la paternità del nuovo termine “algoretica”, Lombardi Vallauri più recentemente è intervenuto sul tema (Lombardi Vallauri, L. (2022) « [Algoretica e Informatica giuridica] (<https://i-lex.unibo.it/article/view/15586>)», i-lex. Bologna, Italy, 15(1), pagg. 29–35) [2] Ibid. [3] Paolo Benanti, Intelligenza artificiale: è tempo di pensare a un'etica degli algoritmi, “7”, “Corriere della Sera”, 25/10/2019. [4] Paolo Benanti, Oracoli. Tra algoretica e algocrazia, Roma, Luca Sossella editore, 2018. [5] Moor, James H. “The Nature, Importance, and Difficulty of Machine Ethics.” IEEE Intelligent Systems, vol. 21, no. 4, 2006, pp. 18-21. [6] Terrell Ward Bynum. K, Computer ethics: Its birth and its future. Ethics and Information Technology 3(2)2001 pp 109–1129 [7] La [Rome Call for IA Ethics] (<https://www.romecall.org/>) presuppone la tesi della “brilliance of human race” sul resto del creato. Come [SIpEIA] (<http://www.sipeia.it>) abbiamo un approccio diverso che non assume in linea di principio la superiorità e specificità della specie umana. [8] Usiamo qui per semplicità il termine “programma” piuttosto che “software”, consci che il concetto di “software” include altri aspetti come i dati e le librerie su cui si basa il programma e lo rende in grado di essere eseguito e commercializzato. [9] Ibid. [10] Kazuhiro Takemoto. The moral machine experiment on large language models. Royal Society Open Science. 11(2) 2024. Josh Albrecht, Ellie Kitanidis, Abe Fetterman, Matt Boulos. The state of LLM ethical decision-making. Imbue. 14 Febbraio 2023. Eyal Aharoni, Sharlene Fernandes, Daniel J. Brady, Caelan Alexander, Michael Criner, Kara Queen, Javier Rando, Eddy Nahmias e Victor Crespo. Attributions toward artificial agents in a modified Moral Turing Test. 30 Aprile 2024. [11] A. Aneesh, Virtual Migration. The Programming of Globalization, Duke University Press, 2006. --8<---------------cut here---------------end--------------->8--- saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Breve premessa, sono un semplice /tecnico/ e so nulla di filosofia (e di musica), ma per quel poco che ho studiato (da autodidatta) così come nella musica esiste un prima e un dopo Bach, nella filosofia esiste un prima e un dopo Kant... quindi sono "di parte" :-D 380° <g380@biscuolo.net> writes: [...]
segnalo un articolo sul tema algoretica scritto da SIpEIA su Magazine Intelligenza Artificiale - MagIA https://magia.news/che-dire-della-algor-etica-spunti-per-una-critica-della-p...
a parte qualche stonatura (red herring?) che io ritengo più che perdonabile nel contesto, ho molto apprezzato la critica all'algoretica
ma mi lascia estremamente perplesso la «proposta diversa» presentata nell'articolo, ovvero l'etica dell'IA --8<---------------cut here---------------start------------->8--- Un'etica riducibile ad un algoritmo implica che l'etica dipende dalla sola razionalità ed è riducibile ad un insieme di numeri, posizione non conciliabile con quella di chi vede per l'essere umano un ruolo speciale nel creato. --8<---------------cut here---------------end--------------->8--- dunque sì, sì e poi ancora sì: l'etica (filosofia morale) dipende dalla sola razionalità (/roba/ da umani e non da macchine). quindi il fatto che l'etica non si possa descrivere algoritmicamente dipende _non solo_ dal fatto che non è "riducibile a un insieme di numeri" ma nemmeno può essere descritta in un linguaggio che esprima enunciati validabili attraverso regole di logica formale (si tratta di "semplicità insormontabili")... almeno non con _questa_ IA :-D --8<---------------cut here---------------start------------->8--- 1.5 Perché etica dell'IA ──────────────────────── L'algoretica non è sufficiente quando considera l'etica come qualcosa che si occupa di un oggetto che sta in un Iperuranio esterno e estraneo alle condizioni concrete della vita reale. Sulla scorta di questo tacito assunto c'è il rischio che si venga a riproporre una sorta di “etica tradizionale” che non tenga conto né delle innovazioni intervenute né dei cambiamenti di circostanze storiche che le innovazioni producono. A questo proposito è opportuno ricordare che anche l'etica generale ha già comportato cambiamenti significativi, sollecitati dalle etiche speciali, e quindi è pensabile che qualcosa di simile capiti anche ora con “l'etica dei programmi intelligenti”. Per esemplificare: la Rivoluzione industriale ha dato inizio alla “più grande trasformazione dell'umanità di cui abbiamo documenti scritti” (Hobsbawm), in quanto il controllo del mondo inorganico ha consentito nuove forme di relazioni sociali, ponendo le basi per la fine dell'aristocrazia e l'avvento della “sovranità popolare”. Mentre già nel XVIII secolo crollava l'Assolutismo in ambito sociale e politico, e la “etica politica” sollecitava la fine dei divieti etici assoluti (che non ammettono eccezioni) in ambito sociale, un filosofo come I. Kant ribadiva la tesi tradizionale dicendo che l'imperativo etico della moralità generale è quello categorico (cioè assoluto). Questa tesi è rimasta per meno di due secoli, quando la Rivoluzione biomedica ha consentito il controllo del mondo organico e l'idea che tutti i divieti siano prima facie (cioè, valgono a prima vista e ammettono eccezioni: non sono assoluti) si è estesa anche alle relazioni umane private e intime che riguardano la vita biologica. Ora la Rivoluzione IA propone un ulteriore passo dal momento che si profila la capacità di controllo delle “attività intelligenti”, con la capacità di nuove forme di produzione e di memoria. Il cambiamento che si profila è di magnitudo superiore ai due menzionati, e la sinergia tra i vari settori prospetta un mix che produrrà effetti tanto dirompenti da superare l'immaginazione. È per questo che ci vuole l'IA-etica, per sottolineare l'esigenza di un'etica nuova che abbia definitivamente abbandonato i divieti assoluti e che si apra alla costruzione di nuove prospettive. È a questo sguardo sul futuro che dobbiamo prestare attenzione. --8<---------------cut here---------------end--------------->8--- ho lasciato il paragrafo integrale per non tralasciare nulla che potrebbe essere importante per una sincera critica alla "etica dell'AI" la mia domanda è: ma non è che "per caso" in questa proposta di /superamento/ della "etica tradizionale" (filosofia morale) c'è una sorta di furia /filosofo-clasta/ portata avanti "con l'ascia in mano"? non è che /per caso/ si sta travisando giusto un filino quello che Kant propose nella sua filosofia morale e che passa alla storia con l'etichetta di "Imperativo Categorico" [1]? è davvero necessario contribuire _in questi termini_ alla /ridicolizzazione/ delle "etiche tradizionali" (filosofia morale) per /fare spazio/ a etiche _specializzande_ più adatte alle "magnifiche sorti e progressive" della "Rivoluzione IA" (con la R maiuscola)? non è che "algoretica" e "etica della Rivoluzuione AI" sono sue facce della stessa medaglia (cioè il /materiale/ di cui sono fate a ben guardare è lo stesso)? non so, sono molto perplesso. saluti, 380° [1] https://plato.stanford.edu/entries/kant-moral/ P.S.: poi non ho capito come diavolo avrebbe fatto la "Rivoluzione biomedica" a /far sloggiare/ la "tesi tradizionale" di Kant in merito all'imperativo categorico... se qualcuno me lo sa spiegare meglio lo faccia in privato per favore (però quel qualcuno, per favore, deve sapere bene cos'è l'imperativo categorico a cui si riferisce Kant, no perditempo, grazie). -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
[MODE=PROVOCATION, CONTENT=spiega il concetto di imperativo categorico (Kant) a un informatico ] [GPT-4o] Certamente! Spiegare il concetto di imperativo categorico di Immanuel Kant a un informatico può essere fatto attraverso un'analogia con la programmazione. ### Concetto di Imperativo Categorico **Definizione Filosofica:** L'imperativo categorico è un principio fondamentale della filosofia morale di Immanuel Kant. È una regola che deve essere seguita in ogni circostanza, senza eccezioni, perché è intrinsecamente giusta. Kant lo formula così: "Agisci solo secondo quella massima per cui tu possa, allo stesso tempo, volere che diventi una legge universale." ### Analogia con la Programmazione **Analogia Informatica:** Immagina di scrivere un programma che esegua azioni morali. Il principio dell'imperativo categorico può essere paragonato a una funzione di validazione nel tuo codice, che verifica se una certa azione (o funzione) può essere eseguita universalmente senza causare contraddizioni o problemi nel sistema. #### Dettagli Tecnici dell'Analogia 1. **Massima come Funzione:** - In filosofia, una "massima" è un principio o regola d'azione personale. - In programmazione, possiamo vedere una massima come una funzione che descrive un comportamento specifico. 2. **Validazione Universale:** - L'imperativo categorico richiede che la tua massima possa essere applicata universalmente. - In termini informatici, questo significa che la funzione deve poter essere eseguita in qualsiasi contesto senza generare errori o comportamenti indesiderati. È come scrivere una funzione che deve sempre restituire un risultato valido indipendentemente dai parametri di input. 3. **Esempio Pratico:** - Supponiamo di avere una funzione `azioneMoralmenteCorretta()`. Secondo Kant, prima di eseguire questa funzione, dobbiamo verificare che, se tutti eseguissero `azioneMoralmenteCorretta()`, il sistema (la società) funzionerebbe ancora correttamente e senza contraddizioni. ```python def azioneMoralmenteCorretta(param): # Definire la massima massima = "Tutti devono poter eseguire questa azione senza creare problemi" # Validazione universale if validazioneUniversale(massima): eseguiAzione(param) else: raise Exception("Azione non moralmente corretta secondo l'imperativo categorico") def validazioneUniversale(massima): # Implementazione della logica di validazione universale # Ad esempio, verifica che l'azione non causi contraddizioni se applicata universalmente return True # Placeholder per esempio ``` ### Riassunto L'imperativo categorico di Kant richiede che ogni azione che decidi di compiere possa essere trasformata in una legge universale senza causare problemi. In termini informatici, questo significa che ogni funzione deve essere universalmente valida e priva di effetti collaterali negativi se applicata in qualsiasi contesto. Quindi, l'imperativo categorico è come una condizione che tutte le tue funzioni morali devono soddisfare per garantire che il sistema morale (la società) rimanga coerente e privo di errori. [Claude] Ecco una spiegazione concisa dell'imperativo categorico di Kant adattata per un informatico: L'imperativo categorico di Kant è come un principio etico universale che funziona come una regola fondamentale del codice morale. In termini informatici, potremmo paragonarlo a un algoritmo etico che dovrebbe essere applicabile in ogni situazione, senza eccezioni. I punti chiave sono: 1. Universalità: Come una funzione che deve funzionare correttamente per tutti gli input possibili, l'imperativo categorico richiede che le tue azioni possano essere universalizzate. 2. Coerenza logica: Così come un programma deve essere internamente coerente, le tue azioni etiche non devono generare contraddizioni se applicate universalmente. 3. Trattare le persone come fini: Analogamente a come trattiamo gli oggetti in programmazione orientata agli oggetti, Kant sostiene che le persone dovrebbero essere trattate come fini in sé, non solo come mezzi. 4. Test di validità: Come un test unitario per il codice etico, l'imperativo categorico fornisce un modo per verificare se un'azione è moralmente accettabile. [MODE=JOKING, CONTENT= :-)] G. On Sat, 22 Jun 2024 at 09:31, 380° via nexa <nexa@server-nexa.polito.it> wrote:
Breve premessa,
sono un semplice /tecnico/ e so nulla di filosofia (e di musica), ma per quel poco che ho studiato (da autodidatta) così come nella musica esiste un prima e un dopo Bach, nella filosofia esiste un prima e un dopo Kant... quindi sono "di parte" :-D
380° <g380@biscuolo.net> writes:
[...]
segnalo un articolo sul tema algoretica scritto da SIpEIA su Magazine Intelligenza Artificiale - MagIA
https://magia.news/che-dire-della-algor-etica-spunti-per-una-critica-della-p...
a parte qualche stonatura (red herring?) che io ritengo più che perdonabile nel contesto, ho molto apprezzato la critica all'algoretica
ma mi lascia estremamente perplesso la «proposta diversa» presentata nell'articolo, ovvero l'etica dell'IA
--8<---------------cut here---------------start------------->8---
Un'etica riducibile ad un algoritmo implica che l'etica dipende dalla sola razionalità ed è riducibile ad un insieme di numeri, posizione non conciliabile con quella di chi vede per l'essere umano un ruolo speciale nel creato.
--8<---------------cut here---------------end--------------->8---
dunque sì, sì e poi ancora sì: l'etica (filosofia morale) dipende dalla sola razionalità (/roba/ da umani e non da macchine).
quindi il fatto che l'etica non si possa descrivere algoritmicamente dipende _non solo_ dal fatto che non è "riducibile a un insieme di numeri" ma nemmeno può essere descritta in un linguaggio che esprima enunciati validabili attraverso regole di logica formale (si tratta di "semplicità insormontabili")... almeno non con _questa_ IA :-D
--8<---------------cut here---------------start------------->8---
1.5 Perché etica dell'IA ────────────────────────
L'algoretica non è sufficiente quando considera l'etica come qualcosa che si occupa di un oggetto che sta in un Iperuranio esterno e estraneo alle condizioni concrete della vita reale. Sulla scorta di questo tacito assunto c'è il rischio che si venga a riproporre una sorta di “etica tradizionale” che non tenga conto né delle innovazioni intervenute né dei cambiamenti di circostanze storiche che le innovazioni producono. A questo proposito è opportuno ricordare che anche l'etica generale ha già comportato cambiamenti significativi, sollecitati dalle etiche speciali, e quindi è pensabile che qualcosa di simile capiti anche ora con “l'etica dei programmi intelligenti”. Per esemplificare: la Rivoluzione industriale ha dato inizio alla “più grande trasformazione dell'umanità di cui abbiamo documenti scritti” (Hobsbawm), in quanto il controllo del mondo inorganico ha consentito nuove forme di relazioni sociali, ponendo le basi per la fine dell'aristocrazia e l'avvento della “sovranità popolare”. Mentre già nel XVIII secolo crollava l'Assolutismo in ambito sociale e politico, e la “etica politica” sollecitava la fine dei divieti etici assoluti (che non ammettono eccezioni) in ambito sociale, un filosofo come I. Kant ribadiva la tesi tradizionale dicendo che l'imperativo etico della moralità generale è quello categorico (cioè assoluto). Questa tesi è rimasta per meno di due secoli, quando la Rivoluzione biomedica ha consentito il controllo del mondo organico e l'idea che tutti i divieti siano prima facie (cioè, valgono a prima vista e ammettono eccezioni: non sono assoluti) si è estesa anche alle relazioni umane private e intime che riguardano la vita biologica.
Ora la Rivoluzione IA propone un ulteriore passo dal momento che si profila la capacità di controllo delle “attività intelligenti”, con la capacità di nuove forme di produzione e di memoria. Il cambiamento che si profila è di magnitudo superiore ai due menzionati, e la sinergia tra i vari settori prospetta un mix che produrrà effetti tanto dirompenti da superare l'immaginazione. È per questo che ci vuole l'IA-etica, per sottolineare l'esigenza di un'etica nuova che abbia definitivamente abbandonato i divieti assoluti e che si apra alla costruzione di nuove prospettive. È a questo sguardo sul futuro che dobbiamo prestare attenzione.
--8<---------------cut here---------------end--------------->8---
ho lasciato il paragrafo integrale per non tralasciare nulla che potrebbe essere importante per una sincera critica alla "etica dell'AI"
la mia domanda è: ma non è che "per caso" in questa proposta di /superamento/ della "etica tradizionale" (filosofia morale) c'è una sorta di furia /filosofo-clasta/ portata avanti "con l'ascia in mano"?
non è che /per caso/ si sta travisando giusto un filino quello che Kant propose nella sua filosofia morale e che passa alla storia con l'etichetta di "Imperativo Categorico" [1]?
è davvero necessario contribuire _in questi termini_ alla /ridicolizzazione/ delle "etiche tradizionali" (filosofia morale) per /fare spazio/ a etiche _specializzande_ più adatte alle "magnifiche sorti e progressive" della "Rivoluzione IA" (con la R maiuscola)?
non è che "algoretica" e "etica della Rivoluzuione AI" sono sue facce della stessa medaglia (cioè il /materiale/ di cui sono fate a ben guardare è lo stesso)?
non so, sono molto perplesso.
saluti, 380°
[1] https://plato.stanford.edu/entries/kant-moral/
P.S.: poi non ho capito come diavolo avrebbe fatto la "Rivoluzione biomedica" a /far sloggiare/ la "tesi tradizionale" di Kant in merito all'imperativo categorico... se qualcuno me lo sa spiegare meglio lo faccia in privato per favore (però quel qualcuno, per favore, deve sapere bene cos'è l'imperativo categorico a cui si riferisce Kant, no perditempo, grazie).
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno Guido, caveat per i lettori casuali: questo messaggio è molto tecnico _e_ molto filosofico, troppo per addetti ai lavori, credo :-D Guido Vetere <vetere.guido@gmail.com> writes:
[MODE=PROVOCATION, CONTENT=spiega il concetto di imperativo categorico (Kant) a un informatico ]
[MODE=COUNTERPROVOCATION, CONTENT=spiega il concetto di funcional e logic programming a un informatico che programma in paiton] [...]
**Definizione Filosofica:** L'imperativo categorico è un principio fondamentale della filosofia morale di Immanuel Kant. È una regola che deve essere seguita in ogni circostanza, senza eccezioni, perché è intrinsecamente giusta. Kant lo formula così: "Agisci solo secondo quella massima per cui tu possa, allo stesso tempo, volere che diventi una legge universale."
Uh sono impressionato! Una sintesi puntuale e precisa, che rende giustizia al concetto, direi... :-D
### Analogia con la Programmazione
**Analogia Informatica:** Immagina di scrivere un programma che esegua azioni morali.
"Immagina, puoi!" ...significa che hai moltissima immaginazione, non tanto per la moralità delle azioni quanto per il programma che "esegua _azioni_" [...]
- In programmazione, possiamo vedere una massima come una funzione che descrive un comportamento specifico.
OK, dobbiamo scrivere una funzione: in che linguaggio di programmazione la esprimo?!? [...]
- In termini informatici, questo significa che la funzione deve poter essere eseguita in qualsiasi contesto senza generare errori o comportamenti indesiderati. È come scrivere una funzione che deve sempre restituire un risultato valido indipendentemente dai parametri di input.
Come "indipendente dai parametri di input"?!? (lambda (x) (true))?!? Non è che "indipendentemente dai parametri di input" è un refuso? Un linguaggio che permetta di scrivere un programma che non deve generare "comportamenti indesiderati" allora IMO deve essere scritto in un linguaggio che abbia almeno: 1. first-class functions 2. pure funcions 3. referential transparency in altre parole in "Purely functional programming", anche se Qualcuno™ direbbe che anche un linguaggio "quasi-pure" come un dialetto Lisp potrebbe bastare... anche paiton può essere usato per il functional programming, ma bisogna fare _estrema_ attanzione, direi che è quasi impossibile :-O [...]
Quindi, l'imperativo categorico è come una condizione che tutte le tue funzioni morali devono soddisfare per garantire che il sistema morale (la società) rimanga coerente e privo di errori.
fico: ci sto!
[Claude]
Chi è Claude? [...]
I punti chiave sono:
1. Universalità: Come una funzione che deve funzionare correttamente per tutti gli input possibili,
OK, una "pure funcion" idempotente, ci siamo: si può fare! :-D [...]
3. Trattare le persone come fini: Analogamente a come trattiamo gli oggetti in programmazione orientata agli oggetti,
ma no! abbiamo detto programmazione funzionale, non a oggetti! :-O ...e perché non in un linguaggio di logic programming, tipo Prolog?!? aggià, che scemo: quella "pista" dell'IA è una pista morta, adesso ci sono le "reti neurali" che sostituiscono la logica formale, anzi sostituiscono sia la logica che... il giudizio, che è prodromico all'imperativo categorico di kantiana /invenzione/ [...]
4. Test di validità: Come un test unitario per il codice etico, l'imperativo categorico fornisce un modo per verificare se un'azione è moralmente accettabile.
uh fico: allora _deve_ essere possibile scrivere un programma - però non in paiton, che viene male IMO - per verificare l'accettabilità morale di una azione fornita in input!
[MODE=JOKING, CONTENT= :-)]
:-D [...] saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Il 24 Giugno 2024 15:06:26 UTC, Guido Vetere ha scritto:
[MODE=PROVOCATION, CONTENT=spiega il concetto di imperativo categorico (Kant) a un informatico ]
[GPT-4o] [...]
[Claude] [...]
[Giacomo, informatico] Gli informatici non sono minus habens: dovrebbero dunque bastare le parole di Kant: "agisci soltanto secondo quella massima che, al tempo stesso, puoi volere che divenga una legge universale" Giacomo
un caso limite su cui sto ragionando in queste settimane anche per gli stimoli che vengono dagli scambi sul tema dell'(etica dell')IA è questo, che riassumo in breve: per agire eticamente occorre essere informati, occorre conoscere e poi occorre valutare come usare la conoscenza. ma a volte si deve agire contro la conoscenza posseduta. la guerra termonucleare è stata evitata almeno 2 volte grazie a due militari, uno canadese, Roy Slemon, (https://en.wikipedia.org/wiki/Roy_Slemon) nel 1961, e uno russo, Stanislav Petrov (https://en.wikipedia.org/wiki/Stanislav_Petrov) nel 1983, che nonostante le indicazioni dei rispettivi sistemi informativi che segnalavano ICBM nemici in arrivo, contro le regole e norme che regolavano i loro compiti non lanciarono un contrattacco. entrambi non furono sanzionati in alcuna forma per quella che era stata chiaramente un'insubordinazione (un ammutinamento?). (questi sono i primi due casi diventati noti). apprezzeremmo che nella posizione di Slemon e Petrov ci sia (ci fosse) un sistema di IA? un sistema di Intelligenza Artificiale sarebbe (stato) in grado di operare meglio di loro contravvenendo alle regole definite, o definendo da sé nuove regole sulla base delle informazioni possedute? (qui sono andati contro Kant, perché non credo che pensassero che disobbedire alle regole e ignorare la conoscenza dovessero diventare leggi universali) Maurizio Il 25/06/24 00:57, Giacomo Tesio ha scritto:
Il 24 Giugno 2024 15:06:26 UTC, Guido Vetere ha scritto:
[MODE=PROVOCATION, CONTENT=spiega il concetto di imperativo categorico (Kant) a un informatico ]
[GPT-4o] [...]
[Claude] [...] [Giacomo, informatico] Gli informatici non sono minus habens: dovrebbero dunque bastare le parole di Kant:
"agisci soltanto secondo quella massima che, al tempo stesso, puoi volere che divenga una legge universale"
Giacomo
------------------------------------------------------------------------ one of the things I really believed in is the idea of simplicity, that life should always be moving toward more simplicity rather than more complexity yvon chouinard ------------------------------------------------------------------------ Maurizio Lana Università del Piemonte Orientale Dipartimento di Studi Umanistici Piazza Roma 36 - 13100 Vercelli
Buongiorno, grazie Maurizio della "provocazione". maurizio lana <maurizio.lana@uniupo.it> writes:
un caso limite su cui sto ragionando in queste settimane anche per gli stimoli che vengono dagli scambi sul tema dell'(etica dell')IA è questo, che riassumo in breve: per agire eticamente occorre essere informati, occorre conoscere e poi occorre valutare come usare la conoscenza. ma a volte si deve agire contro la conoscenza posseduta.
direi che più che "agire contro la conoscenza posseduta" occorre "agire in scienza e coscienza"... ma è mica come dirlo, purtroppo in altre parole per agire eticamente occorre saper applicare la /ragione/, kantianamente (Kant sulla ragione ci ha scritto tre saggi IMO difficili, roba tosta). [...]
(qui sono andati contro Kant, perché non credo che pensassero che disobbedire alle regole e ignorare la conoscenza dovessero diventare leggi universali)
non credo che negli esempi dati le persona abbiano (tecnicamente) /ignorato/ la conoscenza, credo piuttosto che avessero _più_ conoscenza rispetto ai sistemi di allerta che avevano a disposizione (conoscevano - intuivano? - le possibilità di errore dei sistemi) e hanno agito di conseguenza, come esseri dotati di _ragione_ (che notoriamente _manca_ alle macchine). per favore (intel)leggiamo quello che è successo nei due casi... "caso Slemon": --8<---------------cut here---------------start------------->8--- After the situation was explained, Slemon asked where Khrushchev was at that moment. Hull replied that he was in New York City attending the United Nations. Slemon considered it extremely unlikely that an attack would take place that would likely kill Khrushchev, and asked Hull if there were any intelligence indications that such an attack was being prepared. Hull answered no [...] After much confusion, it was discovered that the radar was detecting the rising Moon. On further exploration, it was found that the computer program that reported distances was dropping digits, so only the remainder of the digits were being displayed, leaving what appeared to be a credible measurement.[3] --8<---------------cut here---------------end--------------->8--- (https://en.wikipedia.org/wiki/Roy_Slemon) molto intelligente, signor Slemon! "caso Petrov": --8<---------------cut here---------------start------------->8--- Petrov considered the detection a computer error, since a first-strike nuclear attack by the United States was likely to involve hundreds of simultaneous missile launches in order to disable any Soviet means of a counterattack. Furthermore, the satellite system's reliability had been questioned in the past.[12] [...] It was subsequently determined that the false alarms were caused by a rare alignment of sunlight on high-altitude clouds and the satellites' Molniya orbits,[14] an error later corrected by cross-referencing a geostationary satellite.[15] In explaining the factors leading to his decision, Petrov cited his belief and training that any U.S. first strike would be massive, so five missiles seemed an illogical start.[11] In addition, the launch detection system was new and in his view not yet wholly trustworthy, while ground radar had failed to pick up corroborative evidence even after several minutes of the false alarm.[12] --8<---------------cut here---------------end--------------->8--- molto intelligente, signor Petrov! in entrambi i casi i due militari sono stati abbastanza _intelligenti_ da comprendere che gli strumenti SPARAVANO STRONZATE; _tecnicamente_ si trattava di errori piuttosto BANALI, ma errori banali inseriti in un sistema complesso - immutabile?!?! - progettato ad-minchiam diventano stronzate... ...e purtroppo di stronzate si muore fin troppo. in altre parole, disobbedire alle regole che sono /ragionevolmente/ _ingiuste_ è un Imperativo Categorico, _specialmente_ se queste regole sono codificate in un /programma/ e/o in un ALGORITMO! :-O non esiste proprio in filosofia morale la giustificazione "obbedivo a un ordine", con variante "era pure codificato in un algoritmo"! Non esiste manco nelle "regole della guerra", infatti esistono i "crimini di guerra" e _non_ contemplano lo "eseguivo gli ordini". ...e non esiste proprio in informatica il /contrario/: un computer può solo ESEGUIRE un ordine, ovvero un programma. Non esiste proprio in informatica un computer che grazie a un programma _ragiona_ in merito a un altro computer che esegue un programma. Punto. (Se volete, è l'Imperativo Categorico Informatico). banale eh? :-D saluti, 380° [...] -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Salve Maurizio, Il giorno Tue, 25 Jun 2024 maurizio lana ha scritto:
la guerra termonucleare è stata evitata almeno 2 volte grazie a due militari, uno canadese, Roy Slemon, (https://en.wikipedia.org/wiki/Roy_Slemon) nel 1961, e uno russo, Stanislav Petrov (https://en.wikipedia.org/wiki/Stanislav_Petrov) [...] qui sono andati contro Kant, perché non credo che pensassero che disobbedire alle regole e ignorare la conoscenza dovessero diventare leggi universali
stai assumendo che i loro ordini fossero: "lanciate un contrattacco termonucleare al primo segnale automatico di attacco del nemico". La fede cieca negli automatismi è una allucinazione di massa solo contemporanea: è probabile che all'epoca tutti i livelli decisionali fossero perfettamente consapevoli dei limiti degli automatismi. Inoltre stai assumendo che la massima applicata da Slemon e Petrov fosse "disubbidisci agli ordini quando ti va", mentre potrebbe semplicemente essere stata "evita di avviare una guerra termonucleare per sbaglio": una massima che ragionevolmente avrebbero potuto sperare diventasse legge universale. Ovviamente un software programmato statisticamente (impropriamente detto "IA") avrebbe avviato la distruzione dell'umanità con una probabilità 1-ε, con epsilon scelto durante la programmazione stessa (impropriamente definito "training") sulla base di dati ipotetici (che di guerre termonucleari non ne sono state ancora combattute abbastanza da creare un dataset statisticamente rilevante). Giacomo
participants (5)
-
380° -
Giacomo Tesio -
Guido Boella -
Guido Vetere -
maurizio lana