Re: [nexa] Perché Richard Stallman sbaglia in tema di intelligenza artificiale
From: maurizio lana <maurizio.lana@uniupo.it> To: nexa@server-nexa.polito.it Subject: Re: [nexa] Perché Richard Stallman sbaglia in tema di intelligenza artificiale
Il 02/03/25 16:59, Guido Vetere ha scritto:
Io penso che a una moderna lessicografia questa cosa possa interessare moltissimo. Prendiamo ad esempio il censimento e la registrazione delle valenze verbali ('frame' se volete), che Sabatini e Coletti hanno potuto (con fatica) solo abbozzare del loro famoso dizionario. Oggi si potrebbe addestrare (fine-tuning) un modello anche piccolo e 'open' per fargli estrarre frame verbali da qualsiasi frase su interi corpora testuali con una certa accuratezza, e poi ci si potrebbe divertire (so to say) a vedere come variano nelle dimensioni temporali, sociali, ecc. ehmmm, ma questo in cosa differisce da quello che da tempo si può fare (ma quasi nessuno lo fa!) con qualsiasi programma o web service di analisi testuale: cooccorrenze, contesti, concordanza KWIC, ordinamento e selezione in base alle parole del contesto definito con ampiezza a piacere a monte e a valle della keyword (=parola cercata) ?
È quello che si è fatto per decenni senza riuscire a ottenere granché di sensato o utile. Confronta per esempio cosa ottieni con le concordanze e cosa ottieni coi word embedding, in particolare quelli contestuali dei Trasformer. —
maurizio
participants (1)
-
Giuseppe Attardi