Riallacciandomi alla domanda tecnica, consiglio ad Arturo (con cui mi congratulo!) di prevedere eventualmente dei dump da qualche parte, così chi fosse interessato può scaricarsi tutti i contenuti testuali in CC BY e farci esperimenti vari (machine learning, natural language processing, etc.). Poi, fatto 30, si può far 31 e mettere dei dump periodici (così uno può anche mettersi ad analizzare come evolvono le cose nel tempo - ad esempio, analizzando i termini che di update in update hanno maggior diffusione, etc.). Ciao, Federico On 10/08/2014 08:55 AM, Andrea Trentini wrote:
domanda tecnica: c'e' una API per downloadare tutto o devo usare per forza wget/curl?
On 07/10/2014 23:25, A Dicorinto wrote:
Cari amici e colleghi- approfitto dell'occasione data dal rinnovato interesse per Italia.it, il portale nazionale del turismo (www.italia.it <http://www.italia.it>) di cui sono ancora e per poco il direttore editoriale, per farvi sapere che sono riuscito a ottenere il rilascio di tutti i suoi contenuti testuali in creative commons http://www.italia.it/it/note-legali.html come avevo già fatto nel 2008 per il portale della cultura e del turismo del lazio. ... --
/\_______________ /--\ndrea |rentini
http://atrent.it Laboratorio Software Libero @ . Dipartimento di Informatica @ ..: Universita' degli Studi di Milano _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa