Molto interessante. DoD esclude l'uso di armi che scelgono autonomamente il bersaglio, tuttavia addestra gli algoritmi a farlo per lasciare all'umano la scelta. L'approccio "man on the loop" di solito non funziona: per capire che l'algoritmo sbaglia l'umano deve avere la stessa competenza della macchina. Ma siccome la macchina è disegnata per rendere tale competenza non necessaria, l'umano la perde perchè, anche se addestrato, non la esercita correntemente. (cd "paradox of automation", a cui dobbiamo alcuni incidenti aerei maggiori). Questo, nel contesto bellico porterà a falsi positivi (tra cui vittime innocenti e "friendly fire"). <https://dod.defense.gov/News/Article/Article/1254719/project-maven-to-deploy...> For now, many tasks, like computer vision, are ready for AI capabilities and many are not, Cukor said, noting that “AI will not be selecting a target [in combat] … any time soon. What AI will do is compliment the human operator.” Before deploying algorithms to combat zones, Cukor said, “you've got to have your data ready and you've got to prepare and you need the computational infrastructure for training.” Alberto On 12/10/2018 10:25, Antonio Vetro' wrote:
"By embracing the latest tools that the tech industry has to offer, the US military is creating a more automated form of warfare – one that will greatly increase its capacity to wage war everywhere forever."
https://amp.theguardian.com/commentisfree/2018/oct/11/war-jedi-algorithmic-w...
Continuo a leggere queste notizie con la lente interpretativa della Pax Technica di Hovard. Non ho ancora capito se debba essere motivo di preoccupazione o se sia business as usual.
Un caro saluto,
Antonio
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa