Ciao Giacomo capisco l’idea e ho visto anch’io esempi di queste tecniche di “data poisoning” pensate per confondere gli scraper che ignorano robots.txt. Ho però qualche dubbio che un approccio del genere sia compatibile con un progetto come OpenStreetMap. Il valore principale di OSM è proprio l’affidabilità dei dati e l’idea di servire intenzionalmente informazioni false, anche solo a una parte delle richieste, rischierebbe di creare effetti collaterali difficili da controllare (cache, mirror, downstream users, ecc.). Inoltre - come già detto - OSM offre già meccanismi pensati per usi intensivi (planet dump e replication diff), quindi il problema non è tanto l’accesso ai dati quanto l’uso scorretto dei servizi live. Per questo tenderei a vedere con più favore soluzioni che lavorino su accesso, incentivi e buone pratiche piuttosto che sull’alterazione dei dati. -- -- Le informazioni contenute nella presente comunicazione sono di natura privata e come tali sono da considerarsi riservate ed indirizzate esclusivamente ai destinatari indicati e per le finalità strettamente legate al relativo contenuto. Se avete ricevuto questo messaggio per errore, vi preghiamo di eliminarlo e di inviare una comunicazione all’indirizzo e-mail del mittente. -- The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. If you received this in error, please contact the sender and delete the material.