Mein Betriebssystem Windows10 pro, Internet; Kabel Vodafone 400M/Bits.
Folgendes Problem:
Die Speedtests bei Microsoft Edge kommen nur auf ein Download von rund 135 m/Bits während unter Google Crome 400 M/Bits erreicht werden.
Hat dafür jemand eine Erklärung ??
Hallo,
mich würde interessieren a) die Angaben korrekt M/Bit ist keine Geschwindigkeit welche Geschwindigkeit hast du gemessen und b) womit, c) hast du die Tests mehrfach durchgeführt mit demselben Ergebnis?
An sich kannst du für Browser angeben wie schnell er Client Tasks erfüllt, also das Rendern des Ergebnisses, Ausführen von JavaScript und Co. Nicht die eigentliche Downloadgeschwindigkeit, dafür kann der Browser nix. Das Ergebnis, nämlich das fertige Anzeigen der angesurften Website, kann auch durch Browser Add-Ons negativ beeinflusst werden. Unabhängig davon können Daten bereits gecached sein, nicht unbedingt lokal, sondern auf dem Weg von der Downloadquelle zu dir und beim zweiten Aufruf einfach schneller verfügbar sein.
Grüße
tastatürchen
Grundsätzlich misst du immer die engste Stelle, also den Flaschenhals.
Die Daten vom Kabel müssen zuerst durch dein Modem/Router.
Dann über Kabel oder WLAN zum Interface deines PCs.
Vom Interface muss es dann durch den Bus zur CPU und per Programm in den Speicher.
Je nachdem dann noch vom Speicher auf die Festplatte.
Die langsamste Komponente bestimmt dann den maximalen Durchsatz.
Nur wenn alle Komponenten wesentlich schneller als deine Leitung sind, kannst du so die Übertagungsleistung der Leitung messen.
Bei einer konkreten Hardware kannst du da nicht viel machen, aber die Software kann unterschiedlich geschickt programmiert sein.
Chrome wirbt damit sehr schnell zu sein. Microsoft kümmert sich wenig um laufzeitoptimierte Programme, die gehen davon aus, dass man genügend Speicher und eine schnelle CPU hat.
MS bietet immer eine Menge an Optionen an, da müssen also immer die ganzen Konfigurations-Schalter abgefragt werden. Zudem gibt es eine Menge Schnittstellen für Add-Ons, solche Schnittstellen benötigen auch Rechenzeit.
Dann stellt sich noch die Frage wie z.B. der Virenscanner eingebunden ist, das kann auch Zeit kosten.
Als die ersten 100MBit/s Ethernet-Interface auf den Markt kamen, war das Problem, dass der Speicherbus der PCs gar nicht so schnell war um die Daten mit durchschnittlich 100MBit/s aus der Karte auszulesen. Der Datenbus hatte so um die 33MByte/s was 264 MBit/s entspricht.
Nun müssen die Daten aber zuerst über den Bus eingelesen und anschliessend über diesen in den Speicher geschrieben werden, dann hat man nur noch die Hälfte, also 132MBit/s.
Dann hat man noch einen gewissen Overhead, dem Interfache muss man zuerst mitteilen, was es machen soll, bevor man einen Datenblock lesen kann. Zudem muss die CPU auch noch dauernd die Befehle aus dem Speicher holen und ohne Variablen macht so ein Programm auch keinen Sinn.
Und bei einem richtigen Betriebssystem laufen noch einige Interrupts im Hintergrund, z.B. für Timer, die Uhr usw.
Ich hatte mal, da war der 80286 mit DOS noch aktuell, ein Protokoll über die RS-232 Schnittstelle zu einem Debugger. Das war garantiert nicht schneller als 115kBit/s. Das Protokoll ist dann immer zu vollen Stunde abgestürzt. Das Problem dabei war, dass wenn man die Uhr im Norton Commander eingeblendet hat, die Zeit für das Hochzählen von Sekunde, Minute und Stunde zu lang war. Bei nur Sekunde und Minute hat es gereicht. Auf jeden Fall ging da immer zu jeder Stunde ein Datenblock verloren.
MfG Peter(TOO)