Commentavi questo articolo: https://arxiv.org/pdf/2301.13867 Leggiamo come è composto il dataset con cui hanno testato le "competenze matematiche" dei LLM di OpenAI (pagina 4): - books that are widely used in universities to teach upper undergraduate or first-year graduate courses in a degree in mathematics - math.stackexchange.com, a collection of books, and the MATH dataset - the book Problem-Solving Strategies, that is often used to prepare for mathematical competitions - il dataset di https://arxiv.org/abs/1912.01412 che contiene decine di esercizi... e le soluzioni. Leggi con calma e rifletti: non noti niente? Questi ricercatori NON hanno sottoposto a ChatGPT e GPT-4 problemi inediti, ma problemi tratti da eserciziari disponibili in rete. Ora, se immagini una qualche "intelligenza artificiale" alle prese con tutti questi problemi, è ragionevole trovare i risultati sintetizzati nell'abstract che avevo citato "strabilianti" [1]. Ma se hai chiaro il processo di compilazione / compressione dei testi sorgente che produce il LLM, trovi quei risultati piuttosto ovvi: il LLM ha prodotto in output le soluzioni codificate nelle matrici eseguibili.
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html| |
======================================================
Prof. Enrico Nardelli Past President di "Informatics Europe" Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI Dipartimento di Matematica - Università di Roma "Tor Vergata" Via della Ricerca Scientifica snc - 00133 Roma home page: https://www.mat.uniroma2.it/~nardelli blog: https://link-and-think.blogspot.it/ tel: +39 06 7259.4204 fax: +39 06 7259.4699 mobile: +39 335 590.2331 e-mail: nardelli@mat.uniroma2.it online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont ====================================================== |