Sistemi fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto
Buonasera. Ho appena pubblicato un articolo che potrebbe essere di interesse per questa lista: <https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuori...> Vi sarei grata di qualsiasi commento o osservazione. Qui <https://btfp.sp.unipi.it/it/front-page/> il riassunto: I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani. Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale. Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico. Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria. Un saluto, Daniela <https://btfp.sp.unipi.it/it/front-page/>
Gent.ma Daniela Tafani, complimenti per il lucidissimo articolo, una chiara risposta alla narrazione che vuole lasciare tutto in mano a mercato e tecnologia, oscurando educazione e norma (Lessig). Grazie davvero per la condivisione Norberto ________________________________ From: nexa <nexa-bounces@server-nexa.polito.it> on behalf of Daniela Tafani <daniela.tafani@unipi.it> Sent: Saturday, May 20, 2023 11:01 PM To: nexa@server-nexa.polito.it <nexa@server-nexa.polito.it> Subject: [nexa] Sistemi fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto Buonasera. Ho appena pubblicato un articolo che potrebbe essere di interesse per questa lista: <https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuori...> Vi sarei grata di qualsiasi commento o osservazione. Qui <https://btfp.sp.unipi.it/it/front-page/> il riassunto: I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani. Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale. Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico. Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria. Un saluto, Daniela <https://btfp.sp.unipi.it/it/front-page/>
Non ho la presunzione di avere competenze per valutare nel dettaglio l'interessante articolo condiviso, di cui ringrazio l'autrice. Tuttavia credo che parliamo di realtà che hanno saputo sfruttare, nei decenni precedenti, contesti deregolamentati per espandere la propria influenza su scala planetaria, usando gli ingenti proventi economici derivanti dalle loro attività per instaurare meccanismi di lobbying e consolidare ancora di più la propria posizione dominante. Posizione che, lo abbiamo visto e lo stiamo vedendo con alcuni contesti come l'annoso Privacy Shield e tutto ciò che ne è conseguito, porta a piegare la normativa alla luce dello stato di fatto: realtà troppo grandi da non poterne fare a meno, soprattutto e in particolare quando sono gli stessi sistemi istituzionali ad usufruirne per i propri scopi. ChatGPT e l'AI arrivano in un contesto già profondamente polarizzato da questi grandi attori (GAFAM) ed è quindi praticamente inevitabile che possa esserci una concentrazione di queste tecnologie nelle mani di pochi. A cui, obtorto collo o no, le normative nazionali dovranno, a mio modestissimo parere, piegarsi. Del resto, se Google fosse stata cinese e non USA, probabilmente la storia sarebbe stata diversa. Buona domenica, MP Il Dom 21 Mag 2023, 08:40 Norberto Patrignani <norberto.patrignani@polito.it> ha scritto:
Gent.ma Daniela Tafani, complimenti per il lucidissimo articolo, una chiara risposta alla narrazione che vuole lasciare tutto in mano a mercato e tecnologia, oscurando educazione e norma (Lessig). Grazie davvero per la condivisione Norberto
------------------------------ *From:* nexa <nexa-bounces@server-nexa.polito.it> on behalf of Daniela Tafani <daniela.tafani@unipi.it> *Sent:* Saturday, May 20, 2023 11:01 PM *To:* nexa@server-nexa.polito.it <nexa@server-nexa.polito.it> *Subject:* [nexa] Sistemi fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto
Buonasera.
Ho appena pubblicato un articolo che potrebbe essere di interesse per questa lista:
< https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuori...
Vi sarei grata di qualsiasi commento o osservazione.
Qui <https://btfp.sp.unipi.it/it/front-page/>il riassunto:
I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani. Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale.
Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico.
Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria.
Un saluto, Daniela
<https://btfp.sp.unipi.it/it/front-page/>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Il 21 Maggio 2023 06:47:18 UTC, Michele Pinassi via nexa <nexa@server-nexa.polito.it> ha scritto:
ChatGPT e l'AI arrivano in un contesto già profondamente polarizzato da questi grandi attori (GAFAM) ed è quindi praticamente inevitabile che possa esserci una concentrazione di queste tecnologie nelle mani di pochi.
A cui, obtorto collo o no, le normative nazionali dovranno, a mio modestissimo parere, piegarsi.
Quindi Michele, a tuo modesto parere, dobbiamo piegarci e rinunciare alla democrazia. Immagino che tu l'abbia già fatto, giusto? Come sanno bene i tuoi burattinai, c'è un solo modo per vincere una guerra: convincere gli avversari di aver perso, che non valga più la pena continuare a lottare. Io resisto. Non posso fare diversamente, perché ho figlie che vivranno nel mondo che state costruendo. Giacomo PS: le alternative esistono e di fronte a chi sostiene il contrario mi chiedo sempre se sia incompetente o colluso https://fuss.bz.it/post/2023-03-28_incontro-dirigenti-emilia-romagna/ Ma quandanche non esistessero alternative democratiche, si potrebbero costruire. E nel frattempo FARNE A MENO. Come si è fatto fino a solo 3 anni fa.
Mi sorprende, Giacomo, che tu possa imputarmi certe posizioni, soprattutto conoscendo la mia storia sia personale che professionale. In ogni caso, temo che non sia passato il messaggio che intendevo inviare, ovvero che quando questi soggetti privati diventano economicamente troppo grandi ("too big to..."), purtroppo la politica tende a piegarsi alle loro esigenze e non viceversa. Questo non significa né che lo debba accettare né, tantomeno, che lo condivida. La coraggiosa emanazione del GDPR da parte dell'Unione Europea si è scontrata con gli interessi dei GAFAM più volte ma la sensazione, quantomeno quella mia squisitamente personale, è che a nessuna delle parti in causa interessa arrivare a decisioni drastiche, che impatterebbero in modo enorme sulla società. Del resto, l'esperienza di MonitoraPA mi pare che lo stia dimostrando. O sbaglio? A questo punto sta a noi cittadini fare pressione politica per invertire la tendenza. Se un manipolo di coraggiosi può innescare la scintilla, temo serva però la consapevolezza di almeno un decina di punti percentuale della popolazione per ricevere l'attenzione della classe politica. Un po' come sta avvenendo per l'attacco ransomware della ASL 1 Aquila, dove per la prima volta in Italia i cittadini si stanno rendendo conto del problema e si sono attivati, politicamente e legalmente, a tutela dei loro diritti. Penso che la direzione sia quella giusta, ma la strada è ancora terribilmente accidentata e impervia. MP Il 21/05/23 10:48, Giacomo Tesio ha scritto:
Il 21 Maggio 2023 06:47:18 UTC, Michele Pinassi via nexa <nexa@server-nexa.polito.it> ha scritto:
ChatGPT e l'AI arrivano in un contesto già profondamente polarizzato da questi grandi attori (GAFAM) ed è quindi praticamente inevitabile che possa esserci una concentrazione di queste tecnologie nelle mani di pochi.
A cui, obtorto collo o no, le normative nazionali dovranno, a mio modestissimo parere, piegarsi. Quindi Michele, a tuo modesto parere, dobbiamo piegarci e rinunciare alla democrazia.
Immagino che tu l'abbia già fatto, giusto? Come sanno bene i tuoi burattinai, c'è un solo modo per vincere una guerra: convincere gli avversari di aver perso, che non valga più la pena continuare a lottare.
Io resisto.
Non posso fare diversamente, perché ho figlie che vivranno nel mondo che state costruendo.
Giacomo
PS: le alternative esistono e di fronte a chi sostiene il contrario mi chiedo sempre se sia incompetente o colluso https://fuss.bz.it/post/2023-03-28_incontro-dirigenti-emilia-romagna/
Ma quandanche non esistessero alternative democratiche, si potrebbero costruire. E nel frattempo FARNE A MENO.
Come si è fatto fino a solo 3 anni fa.
-- Michele Pinassi Responsabile Sicurezza Informatica - Telefonia di Ateneo Ufficio Esercizio e tecnologie - Università degli Studi di Siena tel: 0577.(23)5000 - helpdesk@unisi.it PGP/GPG key fingerprint 6EC4 9905 84F5 1537 9AB6 33E7 14FC 37E5 3C24 B98E
Michele, pur conoscendo e apprezzando la tua storia, ciò che hai scritto nella mail cui ho risposto è gravissimo: "le normative nazionali dovranno, a mio modestissimo parere, piegarsi." Quale che sia la tua storia, quel "dovranno" rivela una resa. Che sia consapevole o meno, sempre resa rimane. Le mie parole sono state dure nella speranza di riscuoterti. La posta in gioco è altissima. Aspettare che una popolazione manipolata 24 ore al giorno, 7 giorni su 7 possa comprendere il problema in tempi utili è arrendersi. Chiediti cosa puoi intanto fare tu, nella PA in cui lavori, per dare una speranza di libertà ai tuoi figli. Fai reclamo al Garante come interessato, causa alla PA come dipendente per violazione dello Statuto dei Lavoratori, organizza scioperi bianchi etc... etc... Fai TUTTO CIÒ CHE PUOI per rendere evidenti queste catene e distruggerle. Oppure accetta la tua resa e inizia a pensare una scusa convincente per ciò che non avrai fatto quando i tuoi figli te ne chiederanno conto. La Legge non si deve piegare al potere. Quando lo fa, elimina ogni speranza di Giustizia. E con essa, ogni possibilità di confronto politico civile e nonviolento. Giacomo Il 21 Maggio 2023 18:25:05 UTC, Michele Pinassi <michele.pinassi@unisi.it> ha scritto:
Mi sorprende, Giacomo, che tu possa imputarmi certe posizioni, soprattutto conoscendo la mia storia sia personale che professionale.
In ogni caso, temo che non sia passato il messaggio che intendevo inviare, ovvero che quando questi soggetti privati diventano economicamente troppo grandi ("too big to..."), purtroppo la politica tende a piegarsi alle loro esigenze e non viceversa.
Questo non significa né che lo debba accettare né, tantomeno, che lo condivida.
La coraggiosa emanazione del GDPR da parte dell'Unione Europea si è scontrata con gli interessi dei GAFAM più volte ma la sensazione, quantomeno quella mia squisitamente personale, è che a nessuna delle parti in causa interessa arrivare a decisioni drastiche, che impatterebbero in modo enorme sulla società.
Del resto, l'esperienza di MonitoraPA mi pare che lo stia dimostrando. O sbaglio?
A questo punto sta a noi cittadini fare pressione politica per invertire la tendenza. Se un manipolo di coraggiosi può innescare la scintilla, temo serva però la consapevolezza di almeno un decina di punti percentuale della popolazione per ricevere l'attenzione della classe politica. Un po' come sta avvenendo per l'attacco ransomware della ASL 1 Aquila, dove per la prima volta in Italia i cittadini si stanno rendendo conto del problema e si sono attivati, politicamente e legalmente, a tutela dei loro diritti.
Penso che la direzione sia quella giusta, ma la strada è ancora terribilmente accidentata e impervia.
MP
Il 21/05/23 10:48, Giacomo Tesio ha scritto:
Il 21 Maggio 2023 06:47:18 UTC, Michele Pinassi via nexa <nexa@server-nexa.polito.it> ha scritto:
ChatGPT e l'AI arrivano in un contesto già profondamente polarizzato da questi grandi attori (GAFAM) ed è quindi praticamente inevitabile che possa esserci una concentrazione di queste tecnologie nelle mani di pochi.
A cui, obtorto collo o no, le normative nazionali dovranno, a mio modestissimo parere, piegarsi. Quindi Michele, a tuo modesto parere, dobbiamo piegarci e rinunciare alla democrazia.
Immagino che tu l'abbia già fatto, giusto? Come sanno bene i tuoi burattinai, c'è un solo modo per vincere una guerra: convincere gli avversari di aver perso, che non valga più la pena continuare a lottare.
Io resisto.
Non posso fare diversamente, perché ho figlie che vivranno nel mondo che state costruendo.
Giacomo
PS: le alternative esistono e di fronte a chi sostiene il contrario mi chiedo sempre se sia incompetente o colluso https://fuss.bz.it/post/2023-03-28_incontro-dirigenti-emilia-romagna/
Ma quandanche non esistessero alternative democratiche, si potrebbero costruire. E nel frattempo FARNE A MENO.
Come si è fatto fino a solo 3 anni fa.
Cara Daniela, grazie per aver condiviso la riflessione. Due cose: Uno- potrebbe essere utile spacchettare il "principio precuzionale" nelle diverse varianti ('statements') che contengono una pericolosa ambiguità semantica. Da Stewart, R.B. (2002). "Environmental Regulatory Decision Making Under Uncertainty". Research in Law and Economics. 20: 76. precautionary *approach*: 1. anticipate harm before it occurs 2. proportionality of the risk and the cost and feasibility of a proposed action precautionary principle *statements*: 1 /Non-Preclusion PP/ : Scientific uncertainty should not automatically preclude regulation of activities that pose a potential risk of significant harm. 2 /Margin of Safety PP/ : Regulatory controls should incorporate a margin of safety; activities should be limited below the level at which no adverse effect has been observed or predicted. 3 /Best Available Technology PP/ : Activities that present an uncertain potential for significant harm should be subject to best technology available requirements to minimise the risk of harm unless the proponent of the activity shows that they present no appreciable risk of harm. 4 /Prohibitory PP/: Activities that present an uncertain potential for significant harm should be prohibited unless the proponent of the activity shows that it presents no appreciable risk of harm. Se non ci si accorda su quale statement si usa, tutti possono dire di applicare un PP, ma non intendono la stessa cosa. Due- Forse può essere utile anche includere la _responsabilità di chi questa tecnologia e scienza la sviluppa e la insegna_. Continuare a non porsi domande e a lasciare agli altri il ruolo di "valutare l'impatto" delle tecnologie che noi tecnologi sviluppiamo non è più sostenibile. Quanti di noi sono impegnati a perfezionare "recommendation systems", che non sono altro che sistemi di persuasione pronti alla weaponization? Servono assunzioni di responsabilità, moratorie e obiezioni di coscienza dal basso: certe cose non si insegnano più finché il loro impiego non è regolato e sanzionato. Questo nell'interesse della collettività ma anche della scienza stessa, che tra non molto finirà in blocco sul banco degli imputati, con risultati che non credo possano essere positivi. Un saluto, Alberto On 20/05/23 23:01, Daniela Tafani wrote:
Buonasera.
Ho appena pubblicato un articolo che potrebbe essere di interesse per questa lista:
<https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuori... <https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuorilegge/>>
Vi sarei grata di qualsiasi commento o osservazione.
Qui <https://btfp.sp.unipi.it/it/front-page/> il riassunto:
I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani. Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale.
Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico.
Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria.
Un saluto, Daniela
<https://btfp.sp.unipi.it/it/front-page/>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Non so se ho capito correttamente il senso del tuo intervento, ma vorrei rispondere comunque al tuo invito di osservare e commentare. Nel tuo ragionamento, che ha il pregio di esemplificare una posizione radicale, mi sembra di scorgere alcuni difetti logici, ideologici e materiali Prendiamo ad esempio:
. Tra i prodotti di [intelligenza artificiale] – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale.
Quel 'costitutivamente' è un giudizio categorico che esclude la possibilità futura di avere auto a guida autonoma che si comportano meglio di certi miei concittadini (romani, ndr), o che vi sia mai la possibilità di lanciare un'allerta meteo localizzato a breve termine in grado di salvare vite umane (tema di attualità), o ancora di avere sistemi di supporto linguistico che aiutano gli immigrati a comprendere certe gabole della nostra pubblica amministrazione. Sul 'non funzionanti' ci sarebbe anche da dire. A quel che si vede nella comunità tecnico-scientifica, certe cose non funzionano, altre hanno difetti, ma altre vanno decisamente bene. Considera che se i nostri figli potranno guarire da certe malattie, qualcosa dovranno anche alle tecniche che stanno alla base di ciò che tu svaluti <https://edisciplinas.usp.br/pluginfile.php/7689820/mod_resource/content/1/d4...>. Questa tua visione categoricamente negativa sta alla base - mi pare - del punto centrale del ragionamento:
Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa.
In quegli 'effetti ordinari' però c'è una grossa petizione di principio. Chi ha stabilito che tutte le applicazioni di AI abbiano 'effetti ordinari' deleteri? Chi ha stabilito che non si possa in alcun modo ottenere un'applicazione ragionevolmente sicura di queste tecniche, così da poter distinguere normalmente tra potenzialità e attualità dell'uso? Questo assimilare la produzione di AI a quella - per dire - dell'iprite o dell'antrace mi sembra un po' ingenerosa. Più benevolmente, potremmo convenire che si tratta di prodotti il cui uso va normato, come quello di tutti gli altri. Per usare una facile metafora: per evitare gli incidenti stradali non è ragionevole vietare la produzione di automobili, dobbiamo però far rispettare i limiti di velocità e perseguire severamente chi li eccede. Non è che l'AI vada accolta per la sua eccezionalità, ma proprio per la sua ordinarietà. Certe narrazioni manipolatrici e interessate di aziende grandi e piccole dobbiamo conoscerle, smontarle e contrastarle sul campo con la pratica. Il compito del tecno-intellettuale gramsciano dovrebbe essere questo :-) Buona giornata, G. PS colgo l'occasione per segnalarvi un mio articolo che potrebbe interessarvi: Serve Wittgenstein per capire ChatGPT <https://ilmanifesto.it/serve-wittgenstein-per-capire-chatgpt> (Il Manifesto) On Sat, 20 May 2023 at 23:01, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Buonasera.
Ho appena pubblicato un articolo che potrebbe essere di interesse per questa lista:
< https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuori...
Vi sarei grata di qualsiasi commento o osservazione.
Qui <https://btfp.sp.unipi.it/it/front-page/> il riassunto:
I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani. Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale.
Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico.
Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria.
Un saluto, Daniela
<https://btfp.sp.unipi.it/it/front-page/>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Caro Guido, grazie dell'osservazione. Il fatto che tu abbia completamente frainteso la premessa del mio ragionamento mi fa capire che devo formularla più chiaramente. Non sto parlando del futuro, sto parlando del presente. E non sto parlando dei sistemi di IA simbolica. Ho scritto esplicitamente che sto parlando di alcuni (e ho scritto quali) sistemi di apprendimento automatico. Faccio un esempio: nel presente, i sistemi ML sono costitutivamente opachi e ordinariamente soggetti a tracciare correlazioni spurie. Questo rende oggi impossibile fornire una spiegazione dei loro output e garantire che non utilizzino elementi che un essere umano considererebbe non pertinenti. Per questa ragione, non dovrebbero essere usati nei casi in cui si tratti assumere decisioni rilevanti per la vita delle persone e in cui la legge preveda il diritto a una motivazione o a una spiegazione. Mi limito, su questo, ad aderire alla posizione della Federal Trade Commission statunitense. La mia posizione può essere perciò essere descritta come positiva (le leggi ci sono e si applicano: così rileva anche il CNIL francese), oppure negativa, se si ha in mente che positivo sia il diritto a un profitto eslege e meritevoli di tutela le bolle giuridiche (espressione di Marco Giraudo). Sto parlando esplicitamente di prodotti in commercio, non di fantascienza. Chi argomenti con esempi tratti dal futuro o dalla fantascienza, per discutere quali norme si applichino a prodotti attualmente in commercio, commette secondo me una fallacia logica. Grazie dell'occasione di chiarimento. Buona giornata, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di Guido Vetere <vetere.guido@gmail.com> Inviato: martedì 23 maggio 2023 06:54 A: Nexa Oggetto: Re: [nexa] Sistemi fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto Non so se ho capito correttamente il senso del tuo intervento, ma vorrei rispondere comunque al tuo invito di osservare e commentare. Nel tuo ragionamento, che ha il pregio di esemplificare una posizione radicale, mi sembra di scorgere alcuni difetti logici, ideologici e materiali Prendiamo ad esempio:
. Tra i prodotti di [intelligenza artificiale] – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale.
Quel 'costitutivamente' è un giudizio categorico che esclude la possibilità futura di avere auto a guida autonoma che si comportano meglio di certi miei concittadini (romani, ndr), o che vi sia mai la possibilità di lanciare un'allerta meteo localizzato a breve termine in grado di salvare vite umane (tema di attualità), o ancora di avere sistemi di supporto linguistico che aiutano gli immigrati a comprendere certe gabole della nostra pubblica amministrazione. Sul 'non funzionanti' ci sarebbe anche da dire. A quel che si vede nella comunità tecnico-scientifica, certe cose non funzionano, altre hanno difetti, ma altre vanno decisamente bene. Considera che se i nostri figli potranno guarire da certe malattie, qualcosa dovranno anche alle tecniche che stanno alla base di ciò che tu svaluti<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202305230455060669816...>. Questa tua visione categoricamente negativa sta alla base - mi pare - del punto centrale del ragionamento:
Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa.
In quegli 'effetti ordinari' però c'è una grossa petizione di principio. Chi ha stabilito che tutte le applicazioni di AI abbiano 'effetti ordinari' deleteri? Chi ha stabilito che non si possa in alcun modo ottenere un'applicazione ragionevolmente sicura di queste tecniche, così da poter distinguere normalmente tra potenzialità e attualità dell'uso? Questo assimilare la produzione di AI a quella - per dire - dell'iprite o dell'antrace mi sembra un po' ingenerosa. Più benevolmente, potremmo convenire che si tratta di prodotti il cui uso va normato, come quello di tutti gli altri. Per usare una facile metafora: per evitare gli incidenti stradali non è ragionevole vietare la produzione di automobili, dobbiamo però far rispettare i limiti di velocità e perseguire severamente chi li eccede. Non è che l'AI vada accolta per la sua eccezionalità, ma proprio per la sua ordinarietà. Certe narrazioni manipolatrici e interessate di aziende grandi e piccole dobbiamo conoscerle, smontarle e contrastarle sul campo con la pratica. Il compito del tecno-intellettuale gramsciano dovrebbe essere questo :-) Buona giornata, G. PS colgo l'occasione per segnalarvi un mio articolo che potrebbe interessarvi: Serve Wittgenstein per capire ChatGPT<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202305230455060669816...> (Il Manifesto) On Sat, 20 May 2023 at 23:01, Daniela Tafani <daniela.tafani@unipi.it<mailto:daniela.tafani@unipi.it>> wrote: Buonasera. Ho appena pubblicato un articolo che potrebbe essere di interesse per questa lista: <https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuori...> Vi sarei grata di qualsiasi commento o osservazione. Qui <https://btfp.sp.unipi.it/it/front-page/> il riassunto: I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani. Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale. Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico. Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria. Un saluto, Daniela <https://btfp.sp.unipi.it/it/front-page/> _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202305230455060669816&URLID=2&ESV=10.0.19.7431&IV=A6D5878A9459E256638C37FC5D0279A9&TT=1684817707220&ESN=vbLGue5Wr%2B%2FZo%2BqA39SAK7MTlheEWXCOCxS7lSlePmI%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=F18B721F3A27C8260D45275E6F57A098F688A9422E18CB4942C68744B51550BD>
Salve Guido, On Tue, May 23, 2023 at 06:54:31AM +0200, Guido Vetere wrote:
Non so se ho capito correttamente il senso del tuo intervento, ma vorrei rispondere comunque al tuo invito di osservare e commentare.
più che altro, mi chiedo se tu l'abbia letto... ;-)
Nel tuo ragionamento, che ha il pregio di esemplificare una posizione radicale [...]
Immagino che Daniela appaia "radicale" perché tiene i piedi ben saldi per terra, senza lanciarsi in fantasiosi voli pindarici sulle magnifiche sorti e progressive della "intelligenza artificiale". Come darti torto: è radicale restare saldamente radicato alla realtà.
mi sembra di scorgere alcuni difetti logici, ideologici e materiali
In tutta onestà, Guido, mi sembrano evidenti diversi errori logici e informatici nella tua analisi dell'articolo di Daniela. Errori comprensibilissimi se interpretati come espressione di una ideologia dai tratti quasi religiosi.
Prendiamo ad esempio:
. Tra i prodotti di [intelligenza artificiale] – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale.
Quel 'costitutivamente' è un giudizio categorico che esclude la possibilità futura di avere auto a guida autonoma che si comportano meglio di certi miei concittadini (romani, ndr)
No, esclude la possibilità di avere auto a guida autonoma che si comportino meglio dei tuoi concittadini su una strada aperta ai tuoi contittadini. Questo perché l'imprevedibilità del comportamento umano e animale non può essere gestita da una macchina programmata statisticamente. Se parlassimo propriamente di programmazione statistica invece che di "intelligenza artificiale", il fatto che ad input poco frequenti o inediti il software prodotto non possa rispondere in modo adeguato apparirebbe evidente a tutti. Per QUESTO si continua a blaterare di "intelligenza artificiale": per approfittare dell'ignoranza informatica diffusa. Detto questo, su strade ad uso esclusivo dei veicoli a guida autonoma e con torri di controllo che ne monitorino e coordininino gli spostamenti, tali sistemi possono funzionare (fintanto che, comunque, ci sia qualcuno a bordo in grado di prenderne efficacemente il controllo e guidarli in caso di bug o anomalie di sensori/attuatori). Insomma, più o meno come avviene già nel traffico aereo.
o che vi sia mai la possibilità di lanciare un'allerta meteo localizzato a breve termine in grado di salvare vite umane (tema di attualità),
In nessun passaggio dell'articolo di Daniela compare la meteorologia. Daniela parla in modo inequivocabile di ottimizzazioni predittive del comportamento umano. Dunque, se abbiamo letto lo stesso articolo, questo tuo argomento fantoccio costituisce una fallacia logica piuttosto ingenua. E non solo perché su Nexa tutti hanno le competenze per riconoscerla! La meteorologia ha migliaia di anni, migliaia di addetti in tutto il mondo e notevoli applicazioni commerciali e MILITARI. Eppure non riesce a prevedere con precisione le precipitazioni entro due o tre giorni, ECCETTO che in circostanze straordinarie. E se non riusciamo a prevedere con precisione l'evoluzione di fluidi e gas, che non godono di libero arbitrio, figurati prevedere il comportamento di un essere umano! Dunque il tuo strawman, paradossalmente, andrebbe aggiunto agli argomenti di Daniela sulla costituitiva pericolosità di qualsiasi sistema di ottimizzazione predittiva applicata ad esseri umani
o ancora di avere sistemi di supporto linguistico che aiutano gli immigrati a comprendere certe gabole della nostra pubblica amministrazione.
E perché diamine dovremmo affidare persone vulnerabili come i migranti ad software che costituitivamente possibi dire stronzate? Chi risponderà degli illeciti eventualmente commessi in buona fede da tali migranti su suggerimento di tali software? A chi credi che andrà a suonare il cambanello il Salvini di turno?
Sul 'non funzionanti' ci sarebbe anche da dire.
Concordo: un orologio fermo non funziona. Una bomba a orologeria funziona benissimo: non deve stare sul mercato.
A quel che si vede nella comunità tecnico-scientifica, certe cose non funzionano, altre hanno difetti, ma altre vanno decisamente bene. Considera che se i nostri figli potranno guarire da certe malattie, qualcosa dovranno anche alle tecniche che stanno alla base di ciò che tu svaluti <https://edisciplinas.usp.br/pluginfile.php/7689820/mod_resource/content/1/d4...>.
Altro argomento fantoccio, Guido. L'analisi di Daniela non è "categoricamente negativa", ma oggettiva: riporta diverse evidenze (e altre se ne potrebbero aggiungere) di prodotti e servizi che si sono rivelati dannosi, veicolando violazioni normative e talvolta persino omicidi (si pensi alla povera Elaine Hertzberg). Daniela non "svaluta" alcuna tecnica, ma critica alcune PERSONE che propagandano e vendono alcune applicazioni di determinate tecniche analizzando alcuni PRODOTTI e SERVIZI. Se abbiamo letto lo stesso articolo, potrebbe essere utile concentarci su ciò che Daniela ha scritto, non credi? Non è mica l'output di ChatGPT, in fondo... ;-)
Questa tua visione categoricamente negativa sta alla base - mi pare - del punto centrale del ragionamento:
Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa.
In quegli 'effetti ordinari' però c'è una grossa petizione di principio.
Direi piuttosto che c'è una notevole comprensione del loro funzionamento. Gli effetti ordinari di una bomba atomica sono deleterei. Gli effetti ordinari di una centrale atomica (ben costruita e manutenuta in modo anti-economico, anteponendo la sicurezza al profitto) possono non esserli. La fisica alla base di entrambi i prodotti è la stessa. Analogamente, la programmazione statistica potrà facilmente migliorare le previsioni meteorologiche (le ha migliorate, in effetti), ma non potrà mai PREVEDERE il comportamento individuale sul lungo periodo (pur potendolo influenzare probabilisticamente).
Chi ha stabilito che tutte le applicazioni di AI abbiano 'effetti ordinari' deleteri? Chi ha stabilito che non si possa in alcun modo ottenere un'applicazione ragionevolmente sicura di queste tecniche, così da poter distinguere normalmente tra potenzialità e attualità dell'uso?
Nessuno. E infatti Daniela non lo esclude. Rileva che, le applicazioni su cui si stanno investendo miliardi OGGI hanno effetti ordinari costitutivamente deleteri. Tuttavia, se posso agganciarmi qui per una piccola critica all'articolo di Daniela, direi piuttosto che quella frase è discutibile per l'uso del termine "vantaggiosa". @Daniela: non è affatto detto che la commercializzazione di una determinata tecnologia persegua un profitto economico. In molti casi il vantaggio perseguito è di natura sociale e politica. Dunque se mi posso permettere una correzione, riformulerei quella frase come "Se la responsabilità per gli effetti ordinari (aka esternalità) di tali prodotti ricadesse interamente sui produttori, la loro commercializzazione sarebbe antieconomica."
Questo assimilare la produzione di AI a quella - per dire - dell'iprite o dell'antrace mi sembra un po' ingenerosa. Più benevolmente
Perché dovremmo essere benevoli con questa gente? Io direi piuttosto che dovremmo essere estremamente severi.
potremmo convenire che si tratta di prodotti il cui uso va normato, come quello di tutti gli altri.
Su questo siamo assolutamente d'accordo: dovremmo normarli come normiamo le droghe pesanti, come cocaina e allucinogeni, che producono (a livello individuale) effetti paragonabili a quelli dei prodotti citati (a livello sociale e collettivo).
Per usare una facile metafora: per evitare gli incidenti stradali non è ragionevole vietare la produzione di automobili, dobbiamo però far rispettare i limiti di velocità e perseguire severamente chi li eccede.
Splendido esempio. E dovremmo anche arrestare per omicidio i consigli di amministrazione delle auto a guida autonoma che causano incidendi mortali. Quando il consiglio di ammistrazione di Uber verrà arrestato per l'omicidio di Elain Herzberg, potremo brindare insieme.
Non è che l'AI vada accolta per la sua eccezionalità, ma proprio per la sua ordinarietà. Certe narrazioni manipolatrici e interessate di aziende grandi e piccole dobbiamo conoscerle, smontarle e contrastarle sul campo con la pratica. Il compito del tecno-intellettuale gramsciano dovrebbe essere questo :-)
Non so cosa sia un tecno-intellettuale gramsciano. Ma dubito che Gramsci apprezzerebbe questa accozzaglia di argomenti fantoccio in difesa della nuova tecnologia oppressiva dei padroni. ;-) D'altro canto, Daniela porta una asprissima critica ad un mondo intellettuale (o forse tecno-intellettuali) che prende i soldi dell'industria per svilupparne e diffonderne la propaganda attraverso narrazioni che la giustifichino. Ne è un esempio perfetto l'articolo che hai pubblicato sul Manifesto
PS colgo l'occasione per segnalarvi un mio articolo che potrebbe interessarvi: Serve Wittgenstein per capire ChatGPT <https://ilmanifesto.it/serve-wittgenstein-per-capire-chatgpt> (Il Manifesto)
Il declino della stampa, la totale scomparsa di qualsiasi senso critico, mi lascia sempre allibito. "Al di là della responsabilità legale dell'esercizio di tali sistemi" Nessuno che abbia riletto il tuo testo prima di pubblicarlo si è chiesto: "perché 'al di là'? non è una responsabilità fondamentale?" "chi si impegna quando l'automa parla? La risposta breve è: nessuno." Nessuno che abbia riletto il tuo testo si è chiesto chi si è impegnato a programmamarlo quell'automa che parla? Si è programmata da sola? Si è accesa da sola? Si paga le bollette da sola? Ma soprattutto, nessuno in una testata storica come il Manifesto è stato capace di chiedersi "Cui prodest?" Questa seconda parte dell'articolo di Daniela mi sembra molto interessante per Nexa: nessun commento sulla cattura culturale in corso? Daniela ne analizza i diversi strumenti retorici: - il principio di inevitabilità tecnologica - il principio di innovazione - la prospettiva soluzionistica - l'antropomorfizzazione delle macchine a la deumanizzazione delle persone - i miti dell'eccezionalismo tecnologico e del vuoto giuridico - gli allarmi su rischi e pericoli tratti dal futuro o dalla fantascienza - i messianesimi eugenetici si tratta di narrazioni finalizzate alla conquista di una nuova egemonia culturale, che deve essere sposata acriticamente. La successiva trattazione dell'aspetto normativo è, secondo me, ineccepibile:
L'eventuale impossibilità di risalire alla responsabilità dovrebbe perciò essere assimilata giuridicamente, anziché a un rebus filosofico, a una forma di negligenza del produttore.
Non sono sicuro che la categoria della negligenza sia appropriata, onestamente (il dolo è evidente), ma di certo non c'è alcun rebus filosofico in atto, solo fumo negli occhi (evidentemnte ricco di THC) Credo che, passato l'effetto del fumo, una lucida lettura dell'articolo di Daniela potrebbe di grande aiuto ai pochi politici che non si vogliano far manipolare dall'industria. Speriamo abbia ampia diffusione. Giacomo
Giacomo, non intendo replicare, ma mi corre l'obbligo di sollevare il Manifesto da qualsiasi responsabilità a riguardo delle mie personali opinioni Buona serata, G. On Tue, 23 May 2023 at 11:35, Giacomo Tesio <giacomo@tesio.it> wrote:
Salve Guido,
On Tue, May 23, 2023 at 06:54:31AM +0200, Guido Vetere wrote:
Non so se ho capito correttamente il senso del tuo intervento, ma vorrei rispondere comunque al tuo invito di osservare e commentare.
più che altro, mi chiedo se tu l'abbia letto... ;-)
Nel tuo ragionamento, che ha il pregio di esemplificare una posizione radicale [...]
Immagino che Daniela appaia "radicale" perché tiene i piedi ben saldi per terra, senza lanciarsi in fantasiosi voli pindarici sulle magnifiche sorti e progressive della "intelligenza artificiale".
Come darti torto: è radicale restare saldamente radicato alla realtà.
mi sembra di scorgere alcuni difetti logici, ideologici e materiali
In tutta onestà, Guido, mi sembrano evidenti diversi errori logici e informatici nella tua analisi dell'articolo di Daniela.
Errori comprensibilissimi se interpretati come espressione di una ideologia dai tratti quasi religiosi.
Prendiamo ad esempio:
. Tra i prodotti di [intelligenza artificiale] – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale.
Quel 'costitutivamente' è un giudizio categorico che esclude la possibilità futura di avere auto a guida autonoma che si comportano meglio di certi miei concittadini (romani, ndr)
No, esclude la possibilità di avere auto a guida autonoma che si comportino meglio dei tuoi concittadini su una strada aperta ai tuoi contittadini. Questo perché l'imprevedibilità del comportamento umano e animale non può essere gestita da una macchina programmata statisticamente.
Se parlassimo propriamente di programmazione statistica invece che di "intelligenza artificiale", il fatto che ad input poco frequenti o inediti il software prodotto non possa rispondere in modo adeguato apparirebbe evidente a tutti.
Per QUESTO si continua a blaterare di "intelligenza artificiale": per approfittare dell'ignoranza informatica diffusa.
Detto questo, su strade ad uso esclusivo dei veicoli a guida autonoma e con torri di controllo che ne monitorino e coordininino gli spostamenti, tali sistemi possono funzionare (fintanto che, comunque, ci sia qualcuno a bordo in grado di prenderne efficacemente il controllo e guidarli in caso di bug o anomalie di sensori/attuatori).
Insomma, più o meno come avviene già nel traffico aereo.
o che vi sia mai la possibilità di lanciare un'allerta meteo localizzato a breve termine in grado di salvare vite umane (tema di attualità),
In nessun passaggio dell'articolo di Daniela compare la meteorologia.
Daniela parla in modo inequivocabile di ottimizzazioni predittive del comportamento umano.
Dunque, se abbiamo letto lo stesso articolo, questo tuo argomento fantoccio costituisce una fallacia logica piuttosto ingenua.
E non solo perché su Nexa tutti hanno le competenze per riconoscerla!
La meteorologia ha migliaia di anni, migliaia di addetti in tutto il mondo e notevoli applicazioni commerciali e MILITARI.
Eppure non riesce a prevedere con precisione le precipitazioni entro due o tre giorni, ECCETTO che in circostanze straordinarie.
E se non riusciamo a prevedere con precisione l'evoluzione di fluidi e gas, che non godono di libero arbitrio, figurati prevedere il comportamento di un essere umano!
Dunque il tuo strawman, paradossalmente, andrebbe aggiunto agli argomenti di Daniela sulla costituitiva pericolosità di qualsiasi sistema di ottimizzazione predittiva applicata ad esseri umani
o ancora di avere sistemi di supporto linguistico che aiutano gli immigrati a comprendere certe gabole della nostra pubblica amministrazione.
E perché diamine dovremmo affidare persone vulnerabili come i migranti ad software che costituitivamente possibi dire stronzate?
Chi risponderà degli illeciti eventualmente commessi in buona fede da tali migranti su suggerimento di tali software?
A chi credi che andrà a suonare il cambanello il Salvini di turno?
Sul 'non funzionanti' ci sarebbe anche da dire.
Concordo: un orologio fermo non funziona. Una bomba a orologeria funziona benissimo: non deve stare sul mercato.
A quel che si vede nella comunità tecnico-scientifica, certe cose non funzionano, altre hanno difetti, ma altre vanno decisamente bene. Considera che se i nostri figli potranno guarire da certe malattie, qualcosa dovranno anche alle tecniche che stanno alla base di ciò che tu svaluti < https://edisciplinas.usp.br/pluginfile.php/7689820/mod_resource/content/1/d4... .
Altro argomento fantoccio, Guido.
L'analisi di Daniela non è "categoricamente negativa", ma oggettiva: riporta diverse evidenze (e altre se ne potrebbero aggiungere) di prodotti e servizi che si sono rivelati dannosi, veicolando violazioni normative e talvolta persino omicidi (si pensi alla povera Elaine Hertzberg).
Daniela non "svaluta" alcuna tecnica, ma critica alcune PERSONE che propagandano e vendono alcune applicazioni di determinate tecniche analizzando alcuni PRODOTTI e SERVIZI.
Se abbiamo letto lo stesso articolo, potrebbe essere utile concentarci su ciò che Daniela ha scritto, non credi?
Non è mica l'output di ChatGPT, in fondo... ;-)
Questa tua visione categoricamente negativa sta alla base - mi pare - del punto centrale del ragionamento:
Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa.
In quegli 'effetti ordinari' però c'è una grossa petizione di principio.
Direi piuttosto che c'è una notevole comprensione del loro funzionamento.
Gli effetti ordinari di una bomba atomica sono deleterei. Gli effetti ordinari di una centrale atomica (ben costruita e manutenuta in modo anti-economico, anteponendo la sicurezza al profitto) possono non esserli.
La fisica alla base di entrambi i prodotti è la stessa.
Analogamente, la programmazione statistica potrà facilmente migliorare le previsioni meteorologiche (le ha migliorate, in effetti), ma non potrà mai PREVEDERE il comportamento individuale sul lungo periodo (pur potendolo influenzare probabilisticamente).
Chi ha stabilito che tutte le applicazioni di AI abbiano 'effetti ordinari' deleteri? Chi ha stabilito che non si possa in alcun modo ottenere un'applicazione ragionevolmente sicura di queste tecniche, così da poter distinguere normalmente tra potenzialità e attualità dell'uso?
Nessuno.
E infatti Daniela non lo esclude.
Rileva che, le applicazioni su cui si stanno investendo miliardi OGGI hanno effetti ordinari costitutivamente deleteri.
Tuttavia, se posso agganciarmi qui per una piccola critica all'articolo di Daniela, direi piuttosto che quella frase è discutibile per l'uso del termine "vantaggiosa".
@Daniela: non è affatto detto che la commercializzazione di una determinata tecnologia persegua un profitto economico. In molti casi il vantaggio perseguito è di natura sociale e politica.
Dunque se mi posso permettere una correzione, riformulerei quella frase come "Se la responsabilità per gli effetti ordinari (aka esternalità) di tali prodotti ricadesse interamente sui produttori, la loro commercializzazione sarebbe antieconomica."
Questo assimilare la produzione di AI a quella - per dire - dell'iprite o dell'antrace mi sembra un po' ingenerosa. Più benevolmente
Perché dovremmo essere benevoli con questa gente?
Io direi piuttosto che dovremmo essere estremamente severi.
potremmo convenire che si tratta di prodotti il cui uso va normato, come quello di tutti gli altri.
Su questo siamo assolutamente d'accordo: dovremmo normarli come normiamo le droghe pesanti, come cocaina e allucinogeni, che producono (a livello individuale) effetti paragonabili a quelli dei prodotti citati (a livello sociale e collettivo).
Per usare una facile metafora: per evitare gli incidenti stradali non è ragionevole vietare la produzione di automobili, dobbiamo però far rispettare i limiti di velocità e perseguire severamente chi li eccede.
Splendido esempio.
E dovremmo anche arrestare per omicidio i consigli di amministrazione delle auto a guida autonoma che causano incidendi mortali.
Quando il consiglio di ammistrazione di Uber verrà arrestato per l'omicidio di Elain Herzberg, potremo brindare insieme.
Non è che l'AI vada accolta per la sua eccezionalità, ma proprio per la sua ordinarietà. Certe narrazioni manipolatrici e interessate di aziende grandi e piccole dobbiamo conoscerle, smontarle e contrastarle sul campo con la pratica. Il compito del tecno-intellettuale gramsciano dovrebbe essere questo :-)
Non so cosa sia un tecno-intellettuale gramsciano.
Ma dubito che Gramsci apprezzerebbe questa accozzaglia di argomenti fantoccio in difesa della nuova tecnologia oppressiva dei padroni. ;-)
D'altro canto, Daniela porta una asprissima critica ad un mondo intellettuale (o forse tecno-intellettuali) che prende i soldi dell'industria per svilupparne e diffonderne la propaganda attraverso narrazioni che la giustifichino.
Ne è un esempio perfetto l'articolo che hai pubblicato sul Manifesto
PS colgo l'occasione per segnalarvi un mio articolo che potrebbe interessarvi: Serve Wittgenstein per capire ChatGPT <https://ilmanifesto.it/serve-wittgenstein-per-capire-chatgpt> (Il Manifesto)
Il declino della stampa, la totale scomparsa di qualsiasi senso critico, mi lascia sempre allibito.
"Al di là della responsabilità legale dell'esercizio di tali sistemi"
Nessuno che abbia riletto il tuo testo prima di pubblicarlo si è chiesto: "perché 'al di là'? non è una responsabilità fondamentale?"
"chi si impegna quando l'automa parla? La risposta breve è: nessuno."
Nessuno che abbia riletto il tuo testo si è chiesto chi si è impegnato a programmamarlo quell'automa che parla? Si è programmata da sola? Si è accesa da sola? Si paga le bollette da sola?
Ma soprattutto, nessuno in una testata storica come il Manifesto è stato capace di chiedersi "Cui prodest?"
Questa seconda parte dell'articolo di Daniela mi sembra molto interessante per Nexa: nessun commento sulla cattura culturale in corso?
Daniela ne analizza i diversi strumenti retorici:
- il principio di inevitabilità tecnologica - il principio di innovazione - la prospettiva soluzionistica - l'antropomorfizzazione delle macchine a la deumanizzazione delle persone - i miti dell'eccezionalismo tecnologico e del vuoto giuridico - gli allarmi su rischi e pericoli tratti dal futuro o dalla fantascienza - i messianesimi eugenetici
si tratta di narrazioni finalizzate alla conquista di una nuova egemonia culturale, che deve essere sposata acriticamente.
La successiva trattazione dell'aspetto normativo è, secondo me, ineccepibile:
L'eventuale impossibilità di risalire alla responsabilità dovrebbe perciò essere assimilata giuridicamente, anziché a un rebus filosofico, a una forma di negligenza del produttore.
Non sono sicuro che la categoria della negligenza sia appropriata, onestamente (il dolo è evidente), ma di certo non c'è alcun rebus filosofico in atto, solo fumo negli occhi (evidentemnte ricco di THC)
Credo che, passato l'effetto del fumo, una lucida lettura dell'articolo di Daniela potrebbe di grande aiuto ai pochi politici che non si vogliano far manipolare dall'industria.
Speriamo abbia ampia diffusione.
Giacomo
participants (6)
-
Alberto Cammozzo -
Daniela Tafani -
Giacomo Tesio -
Guido Vetere -
Michele Pinassi -
Norberto Patrignani