Cara Daniela,
grazie per aver condiviso la riflessione.
Due cose:
Uno- potrebbe essere utile spacchettare il "principio
precuzionale" nelle diverse varianti ('statements') che contengono
una pericolosa ambiguità semantica.
Da Stewart, R.B. (2002). "Environmental Regulatory Decision
Making Under Uncertainty". Research in Law and Economics. 20: 76.
precautionary approach:
1. anticipate harm before it occurs
2. proportionality of the risk and the cost and feasibility of a
proposed action
precautionary principle statements:
1 Non-Preclusion PP : Scientific uncertainty should not
automatically preclude regulation of activities that pose a
potential risk of significant harm.
2 Margin of Safety PP : Regulatory controls should
incorporate a margin of safety; activities should be limited below
the level at which no adverse effect has been observed or
predicted.
3 Best Available Technology PP : Activities that present
an uncertain potential for significant harm should be subject to
best technology available requirements to minimise the risk of
harm unless the proponent of the activity shows that they present
no appreciable risk of harm.
4 Prohibitory PP: Activities that present an uncertain
potential for significant harm should be prohibited unless the
proponent of the activity shows that it presents no appreciable
risk of harm.
Se non ci si accorda su quale statement si usa, tutti possono dire di applicare un PP, ma non intendono la stessa cosa.
Due- Forse può essere utile anche includere la responsabilità di chi questa tecnologia e scienza la sviluppa e la insegna.
Continuare a non porsi domande e a lasciare agli altri il ruolo di "valutare l'impatto" delle tecnologie che noi tecnologi sviluppiamo non è più sostenibile.
Quanti di noi sono impegnati a perfezionare "recommendation
systems", che non sono altro che sistemi di persuasione pronti
alla weaponization?
Servono assunzioni di responsabilità, moratorie e obiezioni di
coscienza dal basso: certe cose non si insegnano più finché il
loro impiego non è regolato e sanzionato.
Questo nell'interesse della collettività ma anche della scienza
stessa, che tra non molto finirà in blocco sul banco degli
imputati, con risultati che non credo possano essere positivi.
Un saluto,
Alberto
Buonasera.
Ho appena pubblicato un articolo che potrebbe essere di interesse per questa lista:
<https://btfp.sp.unipi.it/it/2023/05/sistemi-fuori-controllo-o-prodotti-fuorilegge/>
Vi sarei grata di qualsiasi commento o osservazione.
Qui il riassunto:
I sistemi di intelligenza artificiale sono oggi in grado di svolgere alcuni specifici compiti, che erano stati, finora, prerogativa dei soli esseri umani.
Nell’entusiasmo per i sistemi di apprendimento automatico, che hanno consentito questi genuini progressi, le grandi aziende tecnologiche hanno colto l’opportunità per un’espansione illimitata di prodotti e servizi «intelligenti». Hanno diffuso e messo in commercio, con la formula di marketing «intelligenza artificiale», sistemi di apprendimento automatico, per lo svolgimento di attività che tali sistemi non sono in grado di svolgere o che semplicemente non sono possibili. Tra i prodotti di questo genere – costitutivamente pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi di ottimizzazione predittiva e i generatori di linguaggio naturale.
Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse sui produttori, la loro commercializzazione non sarebbe vantaggiosa. Per sfuggire alle loro responsabilità senza rinunciare a una fonte di enorme profitto, i giganti della tecnologia hanno diffuso una famiglia di narrazioni che danno forma alla percezione pubblica del rapporto tra etica, politica, diritto e tecnologia e costituiscono gli assiomi indiscussi di qualsiasi discorso pubblico. Sono così entrati a far parte del senso comune, tra gli altri, il principio di inevitabilità tecnologica, il mito dell’eccezionalismo tecnologico, il principio di innovazione e il mito del vuoto giuridico.
Alla tesi dell’eccezionalità delle nuove tecnologie, che renderebbe inapplicabili i sistemi normativi vigenti e gli ordinari criteri di attribuzione della responsabilità, si oppone oggi una crescente consapevolezza del fatto che i sistemi informatici sono artefatti, ossia prodotti, e che non c’è alcuna ragione per sottrarne la distribuzione e la commercializzazione alla legislazione ordinaria.
Un saluto,
Daniela
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa