Caro Guido,
grazie dell'osservazione.
Il fatto che tu abbia completamente frainteso la premessa del mio ragionamento mi fa capire che devo formularla più chiaramente.
Non sto parlando del futuro, sto parlando del presente.
E non sto parlando dei sistemi di IA simbolica.
Ho scritto esplicitamente che sto parlando di alcuni (e ho scritto quali) sistemi di apprendimento automatico.
Faccio un esempio: nel presente, i sistemi ML sono costitutivamente opachi e ordinariamente soggetti a tracciare correlazioni spurie.
Questo rende oggi impossibile fornire una spiegazione dei loro output e garantire che non utilizzino elementi che un essere umano considererebbe non pertinenti.
Per questa ragione, non dovrebbero essere usati nei casi in cui si tratti assumere decisioni rilevanti per la vita delle persone
e in cui la legge preveda il diritto a una motivazione o a una spiegazione.
Mi limito, su questo, ad aderire alla posizione della Federal Trade Commission statunitense.
La mia posizione può essere perciò essere descritta come positiva (le leggi ci sono e si applicano: così rileva anche il CNIL francese),
oppure negativa, se si ha in mente che positivo sia il diritto a un profitto eslege e meritevoli di tutela le bolle giuridiche (espressione di Marco Giraudo).
Sto parlando esplicitamente di prodotti in commercio, non di fantascienza.
Chi argomenti con esempi tratti dal futuro o dalla fantascienza, per discutere quali norme si applichino a prodotti attualmente in commercio,
commette secondo me una fallacia logica.
Grazie dell'occasione di chiarimento.
Buona giornata,
Daniela
_______________________________________________Buonasera.
Ho appena pubblicato un articolo che potrebbe essere di interesse per questa lista:
<https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuorilegge/>
Vi sarei grata di qualsiasi commento o osservazione.
Qui il riassunto:
I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani.
Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale.
Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico.
Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria.
Un saluto,
Daniela
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa