Salve, vi propongo un articolo molto interessante sullo stato dell'arte nella NLP.
E' utilissimo anche solo come indice di riferimenti a diversi paper ancora più interessanti.

https://thegradient.pub/frontiers-of-generalization-in-natural-language-processing/

Da un lato penso che sia un bell'esempio di come il linguaggio antropomorfico che usiamo in AI influenza (e rallenta) la ricerca.

Dall'altro lo trovato veramente onesto in questo passaggio:

Workshop attendees raised worries that stress test sets could slow down progress. What are good stress tests that will give us better insights into true generalization power and encourage researchers to build more generalizable systems, but will not cause funding to decline and researchers to be stressed with the low results? The workshop did not provide an answer to this question.

Sebbene non sia citata nelle conclusioni, io credo che questo sia una questione dirimente.

Continuiamo a parlare  di "apprendimento", di "intelligenza artificiale" e di "senso comune" (qualcuno dovrebbe far notare agli anglofoni che c'è una profonda differenza fra senso comune e buon senso... ma questa è un'altra storia) perché abbiamo paura di perdere finanziamenti?


Giacomo