Ascii code-system

Hallo,
weiß nicht ob die Frage hier richtig ist, aber ich hab keine Ahnung. könnt ihr mir weiter helfen. Bitte.

Wie viele ASCII – Zeichen können in 1GB geschrieben werden?

Liebe Grüße
A.

Hallo!

Wie viele ASCII - Zeichen können in 1GB geschrieben werden?

Wenn man mal unterstellt, die Frage kommt von einem „Schlauberger“, der den Unterschied von GB und GiB kennt und ASCII wörtlich nimmt, sind das 1.142.857.142 ASCII-Zeichen.

Die Zutaten:
1GB = 1.000.000.000 Byte, 1 Byte = 8 Bit, ASCII = 7 Bit

Gruß, Jan

Hallo!

Wie viele ASCII - Zeichen können in 1GB geschrieben werden?

Wenn man mal unterstellt, die Frage kommt von einem
„Schlauberger“, der den Unterschied von GB und GiB kennt und
ASCII wörtlich nimmt, sind das 1.142.857.142 ASCII-Zeichen.

Wenn man diese Menge stur per Hand tippt, 24 h täglich, 120 Anschläge pro Minute, dann ist man mit dem Text am 17. Februar 2027 fertig… Und hat immer noch Reserve am USB-Stick. :smile:

LG,
frohsinn

Hallo.

Wie viele ASCII - Zeichen können in 1GB geschrieben werden?

Wenn man mal unterstellt, die Frage kommt von einem
„Schlauberger“, der den Unterschied von GB und GiB kennt und
ASCII wörtlich nimmt, sind das 1.142.857.142 ASCII-Zeichen.

Ich weiss nicht so recht, wie Du auf den Wert kommst.

1 GB = 2^30 Bytes = 1.073.741.824 Bytes (^ steht für „hoch“)

Siehe http://de.wikipedia.org/wiki/Byte

Auf allen Systemen, die ich kenne wird ein ASCII-Zeichen mit 7 Bit
in einem ganzen Byte mit 8 Bit gespeichert, also gilt

Anzahl Bytes = Anzahl Zeichen = 1.073.741.824

Gruß,
-Andreas.

Hallo!

1 GB = 2^30 Bytes = 1.073.741.824 Bytes (^ steht für „hoch“)

Siehe http://de.wikipedia.org/wiki/Byte

Genau da hab’ ich mich auch schlau gemacht. In der Tabelle steht:

Gigabyte (GB) 10^9 Byte
Gibibyte (GiB) 2^30 Byte

Klar, häufig wird GB angegeben wo GiB „richtiger“ wäre.

Auf allen Systemen, die ich kenne wird ein ASCII-Zeichen mit 7 Bit
in einem ganzen Byte mit 8 Bit gespeichert, also gilt

Auch klar. Aber wenn die Frage lautet, wieviele 7-bittige Einheiten passen in ein GB, betrachte ich keine realen Systeme.

Gruß, Jan

http://de.wikipedia.org/wiki/Byte

anmerkung :

ASCII Zeichen könnem 8 oder 7 Bit lang sein.

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

Hallo Fragewurm,

anmerkung :

ASCII Zeichen könnem 8 oder 7 Bit lang sein.

ASCII ist 7 Bit lang !
http://de.wikipedia.org/wiki/ASCII
Das liegt am A in ASCII, die Amis brauchen keine Umlaute.

Was länger als 7 Bit ist ist ein erweiterter ASCII.

MfG Peter(TOO)

Hallo

Wie viele ASCII – Zeichen können in 1GB geschrieben werden?

Liebe Grüße
A.

Wie dir einige schon gesagt haben ist ein GB (Gigabyte) laut den SI-Einheiten 1 Milliarde Bytes ( 1.000.000.000 Bytes). Ein ASCII Zeichen braucht zwar nur 7 Bit, wird aber meistens Byteweise (8 Bit) gespeichert. (z.B. Textdatein etc.)

Demnach passen in 1.000.000.000 Byte genau 1.000.000.000 ASCII Zeichen.

mfg dixxi

ASCII Zeichen könnem 8 oder 7 Bit lang sein.

ASCII ist 7 Bit lang !
http://de.wikipedia.org/wiki/ASCII
Das liegt am A in ASCII, die Amis brauchen keine Umlaute.

Was länger als 7 Bit ist ist ein
erweiterter ASCII.

Hallo Peter,

heißt dann die erweiterte ASCII Codierung ASCII-2, ASCII-8 oder so?
Evtl. analog zu Utf-7, Utf-8, usw.
Oder hat das keinen speziellen Namen, heißt also auch ASCII?

Gruß
Reinhard

Hallo Reinhard,

heißt dann die erweiterte ASCII Codierung ASCII-2, ASCII-8
oder so?
Evtl. analog zu Utf-7, Utf-8, usw.
Oder hat das keinen speziellen Namen, heißt also auch ASCII?

Das ist eine lange Geschichte.
Zuerst gab es für ISO 646.
Der verwendete auch nur 7 Bit und legte die Umlaute und Sonderzeichen, unter anderem, auf die Zeichen „[]{|}“ war dann immer lustig wenn man Sourcecode ausdruckte :frowning:
http://de.wikipedia.org/wiki/ISO_646

Der PET 2001 benutzte einen erweiterten ASCII-Zeichensatz mit 8 Bit, dies war aber eine Hausnorm.

IBM tat das Selbe beim IBM-PC (Scheinbar haben die es aber bei Wang geklaut, wie manches andere auch). Dieser Zeichensatz wurde dann als Codepage 437 bekannt.
http://de.wikipedia.org/wiki/Codepage_437

Der nächste Versuch war dann ISO 8859. Dieser verwendet 8 Bit, hat aber immer noch den Nachteil, dass es unterschiedliche Varianten gibt, sodass u.U. Text falsch dargestellt wird.
http://de.wikipedia.org/wiki/ISO_8859
Für die deutsche Variante gab es irgendeine DIN.

Unicode (ISO 10646) ist der aktuelle Versuch einen Zeichensatz für alle Sprachen zu kreieren.
Allerdings ist Unicode anders Organisiert. Etwas vereinfacht legt Unicode nur das Aussehen der Zeichen fest.
http://de.wikipedia.org/wiki/Unicode

Die Codierung des Zeichens ist dann z.B. in UTF-8 festgelegt.
http://de.wikipedia.org/wiki/UTF-8

Tja, alles wird komplizierter :wink:

MfG Peter(TOO)

Hallo Peter,

wenn ich das so sehe und einzeln schon mal nachgeschaut habe bei den Links, ist die Codierungswelt viel größer als ich bisher dachte.

Danke für die Informationen, hab mir den Artikelbaum abgespeichert.
Gruß
Reinhard

Hallo Reinhard,

wenn ich das so sehe und einzeln schon mal nachgeschaut habe
bei den Links, ist die Codierungswelt viel größer als ich
bisher dachte.

Über EBCDIC haben wir noch gar nicht gesprochen :wink:
http://de.wikipedia.org/wiki/EBCDIC

MfG Peter(TOO)