Ciao Maurizio,
il problema è serissimo e non vedo soluzioni semplici.
Il problema qui non è la tragedia dei commons, ma il saltare di regole internazionali solidamente accettate. Robots.txt era la regola che ha permesso ad Internet di crescere e prosperare. Ora qualche mostruoso Golia ha deciso che non ha bisogno di regole, perché tanto lui fa "diplomazia sulla forza" (suona familiare?).
Mi pare l'esatto inverso della tragedia dei commons.
Ora: soluzioni semplici non ne vedo, mi viene solo da appellarmi a esperienze passate, che non so quanto siano riproducibili nel contesto attuale. Per esempio: è pensabile che uno "sciopero del servizio OpenStreetMap" (magari a singhiozzo) possa portare la controparte a sedersi al tavolo della trattativa per parlare di nuove regole, tipo un Agents.txt che funzioni alla maniera del vecchio Robots.txt?
Magari sto dicendo una fesseria, ma non vedo molte alternative che non siano: a) una legislazione draconiana (ma andrebbe fatta rispettare da un governo che è ormai in mano a chi viola le regole); b) la costruzione di una rete alternativa in cui i Golia di cui sopra fossero accolti ... ehm... come nella Internet degli esordi (con costi che una comunità senza l'appoggio di governi o grandi entità non potrebbe sostenere).
Stefano
Ciao, scrivo per condividere con voi questa storia. La notizia è passata (anche) su LinkedIn: https://www.linkedin.com/feed/update/urn:li:share:7422084149332647936/ Si tratta di un’evoluzione preoccupante che sta colpendo OpenStreetMap (OSM) e che solleva interrogativi urgenti sulla sostenibilità dei beni comuni digitali. Il progetto sta subendo un attacco di scraping senza precedenti. Se in passato era possibile mitigare il fenomeno bloccando pochi IP sospetti, oggi l’attacco è estremamente distribuito: oltre 100.000 indirizzi IP diversi effettuano pochissime richieste ciascuno, rendendo i filtri tradizionali totalmente inefficaci. L'aspetto più critico è l'uso di reti SDK (proxy residenziali): sistemi nascosti dentro app comuni (giochi, utility, VPN) che monetizzano la connessione degli utenti a loro insaputa, trasformando i dispositivi domestici in "ponti" per il traffico bot. Siamo di fronte a un paradosso tecnico e politico: - Inutilità tecnica: I dati di OSM sono già liberi e scaricabili in bulk. Lo scraping selvaggio dei tile è un metodo inefficiente che genera solo danni. - Costi reali: Il carico infrastrutturale grava direttamente su un’organizzazione no-profit gestita da volontari, traducendosi in costi operativi non indifferenti. - Implicazioni per i Commons: questo scenario riapre con forza il dibattito sulla tragedia dei beni comuni nell'era digitale. Se attori commerciali (spesso legati all'addestramento di IA) sfruttano intensivamente una risorsa gratuita senza contribuire alla sua manutenzione - o peggio, rendendola inutilizzabile a causa del sovraccarico - il rischio è il collasso. Cosa ne pensate? -- -- Le informazioni contenute nella presente comunicazione sono di natura privata e come tali sono da considerarsi riservate ed indirizzate esclusivamente ai destinatari indicati e per le finalità strettamente legate al relativo contenuto. Se avete ricevuto questo messaggio per errore, vi preghiamo di eliminarlo e di inviare una comunicazione all’indirizzo e-mail del mittente. -- The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. If you received this in error, please contact the sender and delete the material.