Il giorno Dom 11 Nov 2018 14:34 Carlo Blengino <blengino@penalistiassociati.it> ha scritto:
Provo, per puro spirito dialettico (e per una sorta di disagio che sento leggendo questo tread) a dare un diverso punto di vista, forse"eccessivo" e un po' grezzo: chiedo venia anticipatamente.

Mi dispiace per il disagio e mi piacerebbe approfondire cosa lo provochi esattamente, ma ti ringrazio per aver proposto una prospettiva ulteriore su questa materia.


L'avversione per l'idea che degli algoritmi prendano decisioni

Anzitutto non stiamo parlando di algoritmi (che sono sostanzialmente idee) ma di software che cerca di esprimere tali idee.

La differenza è profonda e dovremmo resistere all'uso improprio del termine "algoritmo" perché nasconde tutti i problemi che un programma può avere nonostante la correttezza dell'algoritmo.

In altri termini, i computer non eseguono algoritmi, ma programmi. E questi programmi sono determinisci anche quando gli algoritmi non lo sono. E questi programmi sono pieni di errori.


Vi è poi un altro problema: i calcolatori calcolano, non decidono.

La differenza parte dagli operatori, non informazioni ma dati.

Le informazioni stanno nelle nostre teste, mentre i dati sono rappresentazioni di tali informazioni.

Vi sono molteplici rappresentazioni possibili di una certa informazione e da una rappresentazione noi umani possiamo estrarre informazioni attraverso il processo interpretativo.

Passare dai dati in output a delle decisioni (ovvero informazioni) passa sempre attraverso tale processo ed è  dunque inevitabilmente arbitrario.


Mi viene in mente la vicenda dei prezzi del vino Bordeaux e dell'algoritmo di Orley Ashenfelter..

Interessante lettura, grazie.


Siamo temo tutti un po' vittime di quella che Kahaneman chiama l'illusione di abilità.

Temo di no.

Io so come funzionano questi sistemi.

Temo piuttosto che siamo di fronte ad un profondo fraintendimento su cosa siano questi simulatori che viene sfruttato per confondere e manipolare i profani.

In pratica qui la parte dei sommelier non la fanno gli umani preoccupati di perdere la posti di lavoro, ma i ricercatori e gli imprenditori della AI che temono di perdere investimenti.

E sebbene decisioni umane cagionino quotidianamente  la morte di bambini innocenti, immagino lo sconcerto e l'orrore che ci coglierà quando un bambino morirà per un errore (o una scelta, magari assai logica e razionale) di un algoritmo (o di una AV). La differenza di intensità emozionale si tradurrà immediatamente in preferenza morale ed in elevate e tetragone valutazioni etiche o addirittura religiose.

No.

La differenza è esclusivamente Politica.

La responsabilità umana infatti risponde a una esigenza sociale, è fondamentale per qualsiasi sistema giuridico ma anche semplicemente per vivere insieme in una famiglia.



Il problema del carrello applicato ai veicoli autonomi mi pare falsante, utile perlopiù a dotte disquisizioni filosofiche che lascio a chi ne sa, ma sono inquieto se le risposte saranno quelle,irrazionali ed emozionali di Marco (Marco, so che mi perdonerai!) che vorrebbe costituzionalizzare il pensiero di Weizenbaum citato da Norberto. Dio ce ne scampi.

Per la verità è la prima volta che sento una proporre una modifica ai principi fondamentali della Costituzione che mi sembri sensato discutere.

Detto questo, mi chiedo se l'articolo 3 non sia già sufficiente.



Cosa ci fa dire che la scelta dell'algoritmo sarà meno efficace e rassicurante della fallacia del giudizio umano?

Non è questione di efficacia (spesso difficilmente misurabile) ma di responsabilità.

E comunque un computer calcola, non sceglie.

Meehl ritiene immorale affidarsi a giudizi intuitivi (di un carrellista aggiungo io) per decisioni importanti quando è disponibile un algoritmo esperto che può elaborare molte più informazioni in ambienti a basa validità (ovvero con un notevole grado di incertezza e imprevedibilità).

L'algoritmo esiste solo nella testa di chi lo conosce.

Quanto al software questo è un prodotto fallibile di uomini fallibili.
E lo dico in quanto uomo fallibile che lotta quotidianamente contro questi fallimenti.

L'idea che il software possa essere superiore all'uomo dimentica che quel software è scritto collettivamente da migliaia di uomini diversi con obbiettivi diversi e scorrelati.


Un'ultima osservazione per Maria Chiara: perchè usi il condizionale parlando dello "ius necessitatis"? Lo stato di necessità (art. 54 c.p.) esclude la punibilità, anche in caso di omicidio dell'innocente. L'alpinista che taglia la corda del fidato compagno condannandolo a morte certa per salvar se stesso, là dove non abbia dato causa alla situazione di necessità creatasi, non viene punito. Poi possiamo fare mille pregevoli considerazioni etiche e morali e fin anche teologiche, che leggo con piacere ma a cui però mi sottraggo non arrischiandomi a pattinare su di un ghiaccio per me assai sottile.

Splendido esempio.
Proprio in punto.

Ma l'alpinista non viene punito proprio perché è responsabile.

Mentre taglia la corda sa che risponderà in prima persona alla famiglia della vittima. Uomo fra uomini.

Non c'è niente di trascendentale in questo, è un meccanismo sociale e politico che caratterizza l'uomo e che ha favorito la sua evoluzione.

Una macchina non risponde delle conseguenze dei propri calcoli.
Per questo è sbagliato dire che "decide".

D'altro canto se lo stesso alpinista uccide il compagno accidentalmente, facendo cadere un masso sulla sua testa, ne risponde di fronte alla legge.

La stessa cosa deve valere per un robot che uccide o ferisce un uomo: qualcuno ne deve sempre rispondere.



Se permettiamo a macchine di fare ciò che è punito tra gli uomini perché chi le vende promette che lo faranno di meno, rinunciamo agli articoli 2 e 3 della Costituzione. E probabilmente allo stato di diritto, al monopolio dell'uso legittimo della violenza.

Perché se permettiamo ad una macchina di fare, autonomamente e senza che nessuno ne risponda, qualcosa che è vietato ad un uomo, i ricchi saranno istantaneamente al di sopra della Legge.



Buona domenica a tutti.
CB  


Buona domenica!

E a presto!


Giacomo