Kapazitäten des Internets - wie hält es den wachsenden Geschwindigkeiten stand?

Hotwave

Multitalent
ID: 132230
L
24 April 2006
3.210
301
Wenn ich mir überlege, dass es heute schon 50 Mbit-Leitungen für Normalsterbliche gibt, DSL 16.000 vielerorts verfügbar ist und bald 100 Mbit-Leitungen kommen sollen, so frage ich mich, wie die Rechenzentren und Knotenpunkte da mithalten. 10 Gbit wären dann mit 200 50-Mbit-Leitungen ausgereizt und 10 Gbit sind ja noch eher selten. Die meisten Server sind ja mit 100 Mbit bzw. 1 Gbit angebunden und wären an sich ja sehr schnell ausgelastet. Wieso können wir dann auf großen Webseiten mit vielen Tausend Zugriffen pro Minute noch schnell surfen?
Ich interessiere mich sehr für die Technik, die hinter all dem steckt, deshalb frage ich :)
 
Hey Hotwave! An deiner Rechnung ist vor allem eines das (Anti-)Problem: Nicht jeder mit 16MBit-Anschluss surft auch dauernd mit 16MBit ... d.h. i.d.r. liegt der durchschnittliche Bandbreitenverbrauch um sicher 4-5 Größenordnungen darunter...

Aber natürlich wirds immer mehr werden dank Filesharing und Youtube - und dann darf man gespannt sein ^^

PS: Ja, filesharing und youtube sind die bösen.
 
Gabs nicht kürzlich ne Studie, die besagt hat, dass allein Youtube für 10% des Internet-Traffics verantwortlich ist?

Naja, wie dem auch sei, der wichtigste deutsche Knotpunkt denic wird ja auch beständig ausgebaut.
 
Das wird sicherlich mit der Zeit ein problem. Und deswegen bieten denke icha uch die ganzen Anbieter "bis zu xx Mbit". Die garantieren nichts. Heute kam die News raus, das Kabeldeutschland zwischen 18 und 24 Uhr bei einigen usern (die Filesharing betreiben) die geschwindigkeit drastisch drosseln...

Denke mal das die technik in den nächsten Jahren noch ausgebaut werden müssen. So ist zwischen Asien und den USA neue Highspeedleitungen geplant, um den Traffic bedienen zu können...

Naja einige "Experten" hatten ja schon vor jahren einen zusammenbruch prophezeit.
 
Ich habe jetzt eine 10Mbit-Kabel Anbindung. Das dürfte ja theoretisch reichen für 3200 GB Übertragung im Monat. Tatsächlich nutze ich laut Router im Monat ca. 6 GB, also mal gerade 0,2% von dem, was möglich ist. Und ich sitze täglich 10 Stunden vor dem PC.

Und viele Leute, die solche Anbindungen haben, nutzen den Anschluss nur für alle zwei Tage E-Mails abrufen und das Homebanking und ab und zu mal ein bisschen surfen.

Marty
 
Auch sind doch die meisten dieser Angaben über die Anbindung Privater "Best Effort" Werte ... zumindest bei uns kommt des immer mehr. Im besten Falle hast du die 25Mbit ... aber wenn dein Knotenpunkt (reicht schon der erste nach deinem Haus) nicht mehr ausreichend ist, wird die Leitung halt auf alle zugreifenden aufgeteilt ... sprich du hast dann inner Stosszeit halt nur noch 10Mbit oder so.
 
Wenn ich mir überlege, dass es heute schon 50 Mbit-Leitungen für Normalsterbliche gibt, DSL 16.000 vielerorts verfügbar ist und bald 100 Mbit-Leitungen kommen sollen, so frage ich mich, wie die Rechenzentren und Knotenpunkte da mithalten. 10 Gbit wären dann mit 200 50-Mbit-Leitungen ausgereizt und 10 Gbit sind ja noch eher selten. Die meisten Server sind ja mit 100 Mbit bzw. 1 Gbit angebunden und wären an sich ja sehr schnell ausgelastet. Wieso können wir dann auf großen Webseiten mit vielen Tausend Zugriffen pro Minute noch schnell surfen?
Ich interessiere mich sehr für die Technik, die hinter all dem steckt, deshalb frage ich :)

Auch wenn man eine dicke Leitung hat, heißt das noch lange nicht, dass jeder mit dieser Geschwindigkeit ununterbrochen das Internet leer saugt.

Ich zum Beispiel habe meine 16MBit-Leitung erst einmal wirklich genutzt. Und das war, als ich mein Windows darauf getrimmt habe, die volle Bandbreite zu nutzen. Da hatte ich dann Test-Download gemacht.

Und auf großen Webseiten kannst du schnell surfen, weil du ja nicht permanent, während du dort etwas liest, Daten vom Server holst. Zu dem sind die großen Webseiten bei Provider mit einer dicken Anbindung. Das Rechenzentrum von 1und1 [1] zum Beispiel hat 40GBit/s. Bei Google durften es ähnliche Größenordnungen sein. Dazu habe ich leider nichts gefunden.
Und die Server schaffen das auch, weil bei großen Webseiten nicht nur eine Maschine die Anfragen der Benutzer bearbeitet. Beispiel wäre auch hier Google.

1 https://www.1und1.de/index.php?page=tech
 
Ich habe jetzt eine 10Mbit-Kabel Anbindung. Das dürfte ja theoretisch reichen für 3200 GB Übertragung im Monat. Tatsächlich nutze ich laut Router im Monat ca. 6 GB, also mal gerade 0,2% von dem, was möglich ist. Und ich sitze täglich 10 Stunden vor dem PC.

Also ich habe so an die 20GB im Monat, die durch Backups etc. zu stande kommen, und viel zu viel Spammails die ich bekomme :(

Mir ist der DL auch eher egal, wichtger st mir der UL-Speed, denn es nervt wenn man mehrere 100 MB aufn Server packen muß und das ewig dauert.

Diesen monat wirds sicherlich mehr, da ich gerade meine Webseiten auf nen anderen Server umziehe und so gleichzeitig ein umfassendes Backup auf meinem rechner mache, das aktuell ist...
 
Nötig sind eigentlich nur dicke Server. Dadurch, dass ständig neue Glasfaserleitungen verlegt werden, ist da eigentlich genug Kapazität da. Der Traffic muss also effizient gemanaged werden, wozu pure Rechenkraft nötig ist. Am Server-Ende muss der Traffic natürlich generiert werden. Dazu braucht man massig I/O. Das alles gibts für das entsprechende Kleingeld beim Hersteller deines Vertrauens. Das Zeug ist mittlerweile relativ billig geworden. Eine mittlere Storage-Lösung von HP ( EVA 6100) mit 32 TB Raid-5 Speicher gibts schon für 485.000$ Listenpreis. Die Projektpreise liegen natürlich noch drunter, wenn man dann noch mit einbezieht, dass der Dollarkurs momentan flöten geht, ist es quasi geschenkt.