certo, ma cerchiamo di non farla diventare anche analitica :-) On Sat, 24 Feb 2024 at 11:02, Stefano Quintarelli <stefano@quintarelli.it> wrote:
che regole sbagliate possano favorire i monopolisti non e' una affermazione vera a prescindere ?
On 24/02/24 11:00, Guido Vetere wrote:
non è che non ci vogliono regole, è che regole sbagliate possono favorire i monopolisti quanto ai simposi e ai comitati, sono diventati quasi più noiosi dell'AI :-)) G.
On Sat, 24 Feb 2024 at 10:50, Stefano Quintarelli < stefano@quintarelli.it <mailto:stefano@quintarelli.it>> wrote:
non mi a pare nessuno discuta cio'. la "AI noiosa" e' tra noi da anni e lo sara' sempre di piu' solo che non e' la tecnologia salvifica, taumaturgica, human-like che alcuni narrano. e' uno strumento e va usato e considerato come tale. come la calcolatrice. IMHO
come per ogni strumento, la regolazione e', per metterla in termini semplici, necessaria.
ciao, s.
On 24/02/24 10:37, Guido Vetere wrote: > Gufare sui LLM è divertentissimo, tuttavia hanno risolto problemi di NLP che si sono > dimostrati praticamente inattaccabili con tecniche tradizionali, tipo summarization o > semantic role labelling. > Per questo, sono già largamente impiegati per compiti relativamente 'modesti' di > estrazione, elaborazione e ricerca di informazione da documenti, ad esempio archivistici. > In questi impieghi, la pappagallagine è un beneficio e le allucinazioni, se ci sono, sono > nei documenti sorgente, non nelle piattaforme (pseudo) linguistiche. > Questa roba è qui per restare, facciamocene una ragione. > Ma non esistono solo le Big Tech US in questa storia: escono LLM dalle maledette pareti! > Molte di queste pareti sono europee, accademiche o pubblico-private. > Insomma i margini di manovra ci sono, ma bisogna capire meglio quali siano le manovre. Non > credo che andremo lontano a colpi di regolamenti, certificazioni e relativi enti, simposi > e convegni, comitati etici, et ceteris. > > G. > > > > > On Fri, 23 Feb 2024 at 18:33, Giacomo Tesio <giacomo@tesio.it <mailto:giacomo@tesio.it> <mailto:giacomo@tesio.it <mailto: giacomo@tesio.it>>> > wrote: > > Salve Daniela, > > come avrai certamentr notato il postmortem può essere diviso in 3 parti: > > 1. L'elenco di fatti non negabili > > > On February 20, 2024, an optimization to the user experience introduced a bug [...] > > > > LLMs generate responses by randomly sampling words based in part on probabilities. > [...] > > > > In this case, the bug was in the step where the model chooses these numbers. [...] > > > > Upon identifying the cause of this incident, we rolled out a fix and confirmed that > > the incident was resolved. > > > 2. L'antropomorfizzazione del modello > > > [... a bug] with how the model processes language. > > > > [...] Their “language” consists of numbers that map to tokens. > > > > [...] Akin to being lost in translation, the model chose slightly wrong numbers, which > > produced word sequences that made no sense. > > Povero! Povero modellino! :-D > > Notare le espressioni "processes language", "language consists", "lost in translation" > e soprattutto "choose". > > E notare come quando gli output non supportano la loro narrazione sulla "intelligenza > artificiale" > diventano subito "word sequences that made no sense". > > L'output passa da "language" a "word sequences". > > Come se gli output prodotti "randomly sampling words based in part on probabilities" > avessero un avuto senso prima del bug! > > > 3. La supercazzola magica > > > More technically, inference kernels produced incorrect results when used in certain > > GPU configurations. > > Data la menzione delle probabilità e delle configurazioni delle GPU, scommetterei > un caffé che il bug era riconducibile ad un overflow numerico o qualcosa di simile. > > Il software si rivela semplicemente per quello che è, privo di qualsiasi intelligenza. > > > > Come hanno osservato in molti, la definizione di chatGPT fornita dai tecnici di OpenAI > > è quella a cui ci si riferisce con "pappagallo stocastico". > > Ed è anche quella considerata blasfema dai "believers" della AI. > > Che però si aggrapperanno a quell'innocente "in part" per continuare a credere alle > favole. > > > Piuttosto, su cosa si basa il software ChatGPT oltre alle probabilità? > > Semplicemente, la volontà di OpenAI/Microsoft, impressa nel codice delle varie parti > dell'applicazione, dalla selezione dei contenuti, alle configurazioni, ai prefiltri e > ai post filtri. > > Volontà che ChatGPT riprodurrà pedissequamente su vastissima scala, in tutti gli > output rilevanti. > > > Giacomo > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> <mailto:nexa@server-nexa.polito.it <mailto: nexa@server-nexa.polito.it>> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> > <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>> > > > _______________________________________________ > nexa mailing list > nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>