Simone Basso ha scritto:
Il 27 novembre 2009 16.23, Paolo Brini <paolo.brini@iridiumpg.com> ha scritto:
Andrea Glorioso ha scritto:
[snip]
se `deprioritizzazioni' e `bandwidth cap' fossero stati *ampiamente* praticati (erano possibili ed erano limitatamente praticati) e se questa "cosa" sarebbe stata meglio o peggio del WWW.
Solo fra parentsi: sono un po' perplesso. La Deep Packet Inspection sta maturando solo ora, e sebbene ancora abbia grossi problemi (vedi caso SABAM vs. Scarlet :) ), non c'è dubbio che fra 2-3 anni potrà essere considerata matura, affidabile e potebbe diventare "industry standard". Fra poco anche la Deep Packet Capture sarà funzionante. Invece nel 92 la DPI e la DPC erano fantascienza, per cui era impossibile discriminare in base ai contenuti.
Paolo,
Per quanto ne so e per quanto ho capito [0], nei primi anni '90 sarebbe stato possibile discriminare il traffico anche se ancora non esisteva la DPI.
Infatti, all'epoca:
1. Quasi tutti i protocolli cercavano di essere network-friendly, utilizzando porte well-known (ad esempio telnet su 23/tcp, smtp su 25/tcp, http su 80/tcp, etc.) -- faceva parzialmente eccezione ftp [1].
Nei primissimi anni 90 http non esisteva. :) Comunque no, la discriminazione sui contenuti consiste nell'identificare un contenuto indipendentemente da porta e mittente. Per discriminazione dei contenuti intendo la discriminazione anche all'interno del traffico web, per esempio tramite la DPI è possibile bloccare da siti web diversi o anche dallo stesso sito web certi contenuti, ma è possibile fare anche altro. Quella che descrivi mi sembra la stateful packet inspection, che si limita ad ispezionare l'header dei pacchetti, non il loro contenuto. Fra parentesi, una delle idee delle telcos che vorrebbero stringere alleanze con i content providers è di far marcare i contenuti con un hash in modo tale che indipendentemente dalla loro provenienza, solo essi vengano instradati con priorità (quelli non marcati, drop o deprioritizzazione). Ogni singolo pacchetto deve essere aperto ed ispezionato, ed in base al contenuto viene presa la decisione. Oggi (ma solo oggi) la DPI lo consente senza pesanti cali prestazionali (purché si acquistino un numero di macchine sufficienti alla rete). E' interessante notare che le soluzioni DPI sono molto costose e che mentre esse potrebbero portare vantaggi economici sull'immediato (purché si introducano scarsità artificiali), è molto dubbio che lo possano fare sul medio e lungo periodo, e quindi è una scelta anche politica decidere di investire su filtri, blocchi e limitazioni, invece che sulle infrastrutture. Quando dal 93 in poi il WWW ha cominciato a crescere in maniera esponenziale, non era possibile filtrare automaticamente certi contenuti rispetto ad altri, e tuttora la cosa non funziona proprio benissimo. Ciao! Paolo
2. Il web non era ancora molto utilizzato come gateway per altri servizi, come ad esempio la posta elettronica (per dire, la webmail e' una innovazione del 1995 [2].)
Grazie a #1, per discriminare il traffico web un provider avrebbe potuto:
a. All'ingresso nella propria rete, marcare in un certo modo tutti i pacchetti relativi alla porta 80/tcp.
b. All'interno della rete, discriminare i pacchetti marcati, ad esempio instradandoli attraverso un percorso piu' lento rispetto a quello di default.
Grazie a #2, un provider avrebbe potuto essere relativamente sicuro di rallentare solo il traffico web (ovvero avrebbe rallentato pochi casi di posta-over-web, news-over-web, etc.)
Se ho ben inteso quello che intendi con "discriminazione in base ai contenuti", questo e' proprio uno di quei casi. Non trovi?
Note ====
[0] Recentemente mi sono letto qualcosa sulla classificazione del traffico per preparare la tesi di laurea in ing. informatica.
[1] La connessione dati di ftp in modalita' passiva usa due porte dinamiche, negoziando quella lato server sulla connessione di controllo.
[2] http://en.wikipedia.org/wiki/Webmail
Ciao! -Simone