Ad esempio, alcune funzioni di NLP (Natural Language Processing) richiedono modelli linguistici neurali così grandi e complessi da costruire che ben pochi possono permetterseli, basti pensare al famoso GPT-3 (Microsoft). Molta ricerca in quel settore è indirizzata proprio verso il gigantismo neurale, perché i GAM sanno che su quel terreno hanno chiari vantaggi.
OpenNLP, NLTK, TextBlob, SpaCy, PyTorch-NLP, CogCompNLP, ecc. non credo manchino alternative open. Certo, il problema sono i dati, e vorrei vedere, miliardi di persone che continuamente "cercano", "chattano", "parlano" agli assistenti vocali, ecc. altro che BigData ... Fermo restando che, come ha scritto Stefano, applicazioni della PA che abbisognano di funzioni NLP non è che ce ne siano molte in giro, e comunque creare un "set di dati" solo in italiano non dovrebbe essere un ostacolo insormontabile. Basterebbe dare in pasto a qualcuno dei sistemi lì sopra la legislazione italiana ;) Se poi dovesse servire "insegnare alle macchine come parlano le persone nella vita reale" si potrebbe "donare la voce" al progetto "Common Voice" [1] e usare DeepSpeech Italian [2].
Un altro problema è che i servizi applicativi su cloud (Saas) 'out of the box' sono spesso fatti bene. Alternative 'on prem' richiederebbero team e metodi di sviluppo applicativo moderni (DevOps) che non sono facili da costituire, specie in Paesi arretrati come il nostro.
Inizi anni duemila, Apache era installato nel 60% dei siti, mentre IIS nel 20%, eppure, in Italia, nella PA italiana, c'era ovunque IIS ... Antonio [1] https://commonvoice.mozilla.org/it [2] https://github.com/MozillaItalia/DeepSpeech-Italian-Model/blob/master/DeepSp...