alcuni modelli linguistici pre-trainati (es. BERT-like), di provenienza generalmente accademica,
sono già attualmente su piattaforme come
huggingface.co, potete benissimo scaricarle
con alcune si lavora ragionevolmente bene, perfino in italiano, con poco addestramento (few-shot) per compiti generativi specialistici, tipo formare una query sql da una frase interrogativa (cosa per la quale generazioni di informatici hanno versato lacrime e sangue)
quello che non si può fare è 'modificarli' nel senso della tradizione open source, si possono solo 'sintonizzare' (tuning)
si può certamente anche produrre language models ex novo, se si hanno abbastanza dati e risorse, il problema è che ce ne vogliono davvero tante
continuo a credere che se usati in processi di generazione stocastica non si possa evitare che anche dal modello più 'puro' esca qualche enormità
dunque chiedo: dobbiamo bandire l'intera pratica dei LLM oppure possiamo trovare una quadra?
non fatemi stare in ansia .. :-)
G.