Genauigkeit binärer Darstellung dezimaler Zahlen

Hallo,
mit 23 Stellen, die binär interpretiert werden, kann man ca. auf 6 Stellen genau eine Dezimalzahl angeben, denn 2^3*2^10*2^10 ist ungefähr 8 000 000.
Warum aber jetzt nur 6 Stellen und nicht 7? Warum kann man jetzt nicht auf 7 Stellen genau angeben, sondern nur auf 6?
Weil man bei der ersten Stelle, wo die 8 steht, ja keine 9 hinbekommt und damit zb. 9000000 nur auf den letzten 6 Stellen angeben kann?
Ist das der Grund, warum man mit 23 binären Stellen nur auf 6 Stellen genau eine Dezimalzahl darstellen kann?
Siehe in C den Datentyp double, bei dem man ja für die Mantisse auch nur eine gewisse Bitzahl zur Verfügung hat.

Vielen Dank für eine Erläuterung
Viele Grüße
Tim

Hallo Tim,

mit 23 Stellen, die binär interpretiert werden, kann man ca.
auf 6 Stellen genau eine Dezimalzahl angeben

Wie kommst du auf 23 Stellen? Die Wortbreiten sind 8, 16, 32 oder 64 bit, jeweils abzuglich eines für das Vorzeichen, EVENTUELL. Für Interger-Zahlen.

wie kommst du auf 23*210*210?
Abgesehen davon, dass die Rechnung „2^3*2^10*2^10 ist ungefähr 8 000 000“ stimmt.

Da hilft es nur, dich über die Dartellungsarten von Zahlen (und je nach Neigung auch von Buchstaben) schlau zu machen. Das ist nicht Mathematik, sondern Konvention, also Übereinkunft innerhalb der Zunft der Programmierer.

Wenn du das geschluckt hast, hilft dir das Nezt der Netze und zur Not auch www weiter.

Zoelomat

Moin, Tim,

mit 23 Stellen, die binär interpretiert werden, kann man ca.
auf 6 Stellen genau eine Dezimalzahl angeben, denn
2^3*2^10*2^10 ist ungefähr 8 000 000.

was immer die Formel bedeuten möge - die höchste darstellbare Zahl ist 2^23-1 oder 8.388.607, reicht also nicht ganz an die 9.999.999 heran, die in 7 Stellen passen.

Gruß Ralf