Hallo,
kibi sollte ja soviel wie kilo von Bit heissen
Nun gut ich frage mich nun, wieso man überhaupt kibiBytes oder
früher kBytes als 1024 Bytes bzw. 2^10 Bytes anfing gleich
setzte? Kommt das noch wirklich noch von den Bits?
Es ist eine rein praktische Sache.
Solange man Massenspeicher wie Magnettrommeln, Platten, Bänder usw.
betrachtet, ist es egal ob man irgendwo 1000 oder 1024 Bits aufprägt.
Nur mit Halbleiterspeichern hat man das Problem, daß die Adressen
immer als Potenzen von 2 organisiert sind.
Ein 1KBit-Speicher hat eben genau 2°10 Bits.
Wie Peter(TOO) schreibt, war es nicht immer so ein Kuddelmuddel.
Mit Einführung der Mikrorechner-Technik mußte eben eine große Zahl
von Leuten mit Bits und Bytes (-> siehe 8-Bit-uRechner) hantieren
und die Basis war dann fast immer die 2er-Potenz.
Da Menschen aber schlecht mit krummen Zahlen rechnen können, wurde
oftmals auch einfach gerundet. Microsoft hat dann in seinen
Betriebssystemen gar keinen Unterschied mehr gemacht.
Die haben eben z.B. 32KByte auf den Massenspiecher (z.B. Diskette,
Festplatte) geschoben, ohne zwischen kibi und kBit umzurechnen.
Wegen der 2,4% Differenz muß man sich oft auch keine Gedanken machen.
In der Praxis wußte man auch ohne exakte Benennung meist, was
gemeint war. Wenn z.B. von „4k-Speicher“ die Rede war, dann konnte sich
nur um 2^12 = 4096Bytes handeln.
Bei einer Datei hat man dann eh die komplette Zahl angegeben.
Gruß Uwi
Da ich selber in der Schule bereits Digitaltechnik habe, ist
mir klar, dass das 10. Bit den Wert 1024 hat, wenn dies
gesetzt ist. Also war ein kBit 10 Bits und das „k“ wurde dann
von einigen als Kilo interpretiert?