Timeo Danaos et dona ferentis...
Ciao, per chi fosse interessato Google mette a disposizione alcuni corsi gratuiti su machine learning e AI https://ai.google/education/#?modal_active=none Questo tipo di corsi sono presenti da tempo (io stesso, anni fa, approfittai di un corso su Coursera), ma il fatto che sia Google a proporli pone tutta una serie di riflessioni e possibili spunti di ricerca. Ad esempio, una bella ricerca di laurea multidisciplinare potrebbe consistere in un esperimento di questo genere: - prendiamo un gruppo di studenti universitari in informatica, tipo un primo o un secondo anno - li informiamo chiaramente dell'esperimento a cui vogliamo sottoporli, in modo che possano scegliere di non partecipare (ma magari li incentiviamo anche un pochino a partecipare? :-D) - in intervistiamo estesamente sulla loro *comprensione *della AI e sulle loro *competenze *tecniche iniziali e sulla loro *opinione* sulla stessa (fiducia, preoccupazioni etc...) - separiamoli in due gruppi omogenei (randomicamente? boh... l'importante è che siano il più possibile omogenei, potrebbero essere due sezioni dello stesso anno per esempio...) - sottoponiamo un gruppo ad un corso basato esclusivamente sul materiale proposto da Google - sottoponiamo l'altro gruppo ad un'altro corso con un programma equivalente (non necessariamente online, per esempio un vero corso universitario, con prof veri e tutto il resto) - al termine dei due corsi: - misuriamo la preparazione tecnica di tutti gli studenti - misuriamo la preparazione teorica di tutti gli studenti - misuriamo le variazioni sulle loro opinioni sulla AI (fiducia, preoccupazione etc...) - confrontiamo i le osservazioni fra due gruppi. Sebbene complesso, sarebbe un esperimento dal grande valore informativo e (nonostante si tratti di un esperimento sociale) non dovrebbe essere poi così difficile renderlo riproducibile. Scommetterei un caffé che emergerebbero interessanti sorprese. ;-) Un'altro ambito di studi su cui mi scopro sorprendentemente ignorante è *l'aspetto cognitivo delle API*: Application Programming Interface. Molte librerie e framework di programmazione hanno lo scopo di incapsulare la complessità ed esporla attraverso una facciata semplice (il noto façade pattern), riducendo il carico cognitivo necessario al programmatore. Non avevo mai immaginato che questa semplificazione potesse avere una funzione *culturale, sociale e politica... e di marketing*. Fino a che punto una API di IA può schermare l'utente/programmatore dalla complessità matematica sottostante senza impedirgli di comprendere il reale funzionamento della applicazione che sta scrivendo? A che punto la semplificazione inizia a produrre un senso di falsa sicurezza? Esistono studi a riguardo? Se ne siete a conoscenza* vi prego *di condividerne i riferimenti! Giacomo
participants (1)
-
Giacomo Tesio