On Sat, 5 Jan 2019 at 23:41, Enrico Nardelli <nardelli@mat.uniroma2.it> wrote:
"Without requiring any coding skills, the class introduces the basics of artificial intelligence [...] so they can decide for themselves what's beneficial and where they want their government to invest."
Ok... questa implicazione mi era sfuggita. Dunque siamo di fronte ad una campagna di lavaggio del cervello (aka merketing) finalizzata a diffondere una fiducia incondizionata nei software di IA, influenzando il governo?
La mia opinione è che le attuali tecniche di AI siano al tempo stesso molto potenti, ma molto "oscure" in termini dei loro meccanismi di funzionamento interni e molto "dipendenti" da cosa hanno ricevuto per il loro addestramento.
"La potenza è nulla senza controllo".
Dare a persone non preparate in informatica e matematica strumenti così potenti non è secondo me proprio una delle iniziative educative generali più adeguate.
Sono d'accordo. D'altro canto, non stiamo parlando di magia nera. Le competenze matematiche necessarie sono alla portata di una quinta liceo.
Non ho ovviamente nulla in contrario contro una seria informazione scientifica, anche sull'AI. Magari sarebbe opportuno prima di arrivare all'AI spiegare cos'è l'informatica e cosa ci si può fare, e poi andare sulle cose un po' più sofisticate....
Anche qui, sono d'accordo. Ma immagino che questo progetto sia stato ideato da persone che mancano di queste competenze di base e dunque non le ritengono necessarie.
Secondo me, magari la dentista in questione può avere più bisogno di saper organizzare bene una base di dati che di addestrare un sistema di machine learning per i suoi interventi ortodontici, che alla fine le dirà di operare in un certo modo invece che in un altro senza essere in grado di spiegare perché e come ci è arrivato...
Beh, ma se è una brava dentista non si accorgerà presto di quanto inaffidabile siano i "suggerimenti" del software? Mi preoccupa di più lo scenario in cui la dentista, sovrastimando la propria comprensione della materia, possa diffondere presso terze parti inaffidabili ma più competenti i dati dei pazienti (che ne sanno ancora meno) e si vedono richiesti una firma al "consenso informato" da una persona di cui si fidano.
Allo stesso tempo, l'idea che passando attraverso l'educazione all'AI si possano risolvere i problemi di formazione della popolazione alle tematiche del digitale mi sembra assai ingenua.
Se assumiamo buona fede, è probabilmente il meglio che può fare chi abbia competenze superficiali e responsabilità politiche. Riterrà le proprie competenze il minimo necessario per decidere e vorrà diffonderle. E naturalmente, qualche "esperto" che gli dia un "disinteressato" feedback positivo, si trova! La conoscenza è potere solo dove l'ignoranza è diffusa e sottovalutata.
Mi sembra un po' come dire: dal momento che non riusciamo a far andare le persone in bicicletta, allora insegniamo loro cosa può fare un elicottero...
Splendido paragone. Concordo. Ma questo non è giocare col fuoco, ma un obbiettivo preciso. E' propaganda: i cittadini non saranno capaci di guidare un elicottero, ma voteranno per la "liberalizzazione dei cieli cittadini". Il tipo di manipolazione che veniva auspicata anche nel capitolo 9 del libro bianco sulla AI, ironicamente chiamato "L'essere umano". https://ia.italia.it/assets/librobianco.pdf Giacomo