Il giorno ven 30 giu 2023 alle ore 10:07 Alberto Cammozzo via nexa <nexa@server-nexa.polito.it> ha scritto:
>
> Le temute truffe di identità basate sulle immagini sintetiche si sono concretizzate e sono in corso;
A me preoccupano di più gli usi che enti governativi potrebbero fare di tecnologie come questa. False evidenze a carico di persone ritenute scomode: opponenti politici, attivisti per i diritti umani, e chi più ne ha più ne metta. Tecnologie come questa sono ormai qui per restare, bandirne o regolarne l'uso per i "comuni mortali" non impedirebbe a chi "comune mortale" non è di farne gli usi più disparati, pressoché sicuramente non a vantaggio della comunità.
Probabilmente la strategia della Mutual assured destruction è l'unica reale difesa contro questo tipo di situazione, il che significa che la piena e libera disponibilità di queste tecnologie è l'unica vera difesa verso il loro abuso. Nel momento presente siamo in una fase di transizione che viene con i suoi disagi. Del resto, il furto d'identità non è una novità, con milioni di casi l'anno in tutto il mondo, e non ho visto evidenze che la cosa sia peggiorata in maniera significativa.
> i siti di disinformazione generano fiumi di falsità per incassare milioni;
Anche in questo caso, è forse una novità? La disinformazione non ha mai avuto bisogno dell'IA fino ad oggi, avviene e avveniva tutti i giorni anche sui media mainstream. Evidenze che le cose siano significativamente peggiorate, con impatti sulla società che vanno (molto) al di là dei guadagni di chi fa disinformazione non ne ho viste. Qualcuno ha riferimenti in tal senso?
> e le immagini di abusi su minori generate dal software travolgono, per pura quantità, chi cerca di arginare questi orrori.
Dirò qualcosa di non convenzionale, in tal senso: e se questo fosse un modo per tenere lontano dai bambini in carne e ossa i pedofili? Potrebbe persino essere che grazie all'IA usata a tal maniera vedremmo calare gli abusi su minori: sarebbe questo un male?
Fabio