Signifikante Stellen sind Stellen, deren Ziffern sicher eine Eigenschaft der gemessenen/berechneten Größe angeben und nicht durch statistische (Meß-, Ablese- usw.)Fehler bedingt sind. Wie genau die Messung/Zählung usw. nun war, geht aber nur aus der Angabe einer Zahl nicht hervor.
Ohne explizite Angabe der Meß(un-)genauigkeit ist die Zahl signifikanter Stellen einer Zahl nicht eindeutig. Das ist insbesondere dann der Fall, wenn die letzte(n) Stelle(n) Null ist/sind, und zwar egal, ob vor oder hinter dem Komma.
Ein Wert von 1234 impliziert 4 signifikante Stellen, 1230 impliziert 3 signifikante Stellen. Im zweiten Fall könnte es aber auch sein, die letzte Null ist tatsächlich fehlerfrei gemessen, dann hätte diese Zahl natürlich auch 4 sig. Stellen. Bei einer Zahl wie 2000 ist nur klar, dass sie mindestens eine sig. Stelle hat. Sie könnte aber auch 2, 3 oder 4 haben. Schreibt man 2000,0 so impliziert das 5 sig. Stellen.
Bei Zahlen, die kleiner sind als Null, ist die erste (höchte) Stelle mit einer von Null abweichenden Ziffer die erste sig. Stelle. Beispiel: 0,0001 hat eine signifikante Stelle, 0,01 auch. 0,0012 hat 2 sig. Stellen. 0,00100 impliziert 3 sig. Stellen, hier ist aber wieder das Problem der uneindeutigkeit (wie bei 2000).
Fazit: Zahlen IMMER mit Meßfehler/-genauigkeit angeben. Diese Angabe definiert die Zahl der sig. Stellen. Beispiel:
0.00353 (+/- 0.2) hat eine sig. Stelle, und die Größenordnung der höchstwertigen sig. Stelle ist 10-1 (wegen der relativ großen Meßungenauigkeit.
12,34 (+/- 0,0004) hat 6 sig. Stellen. Die höchstwertigen sig. Stelle ist 101, nie niederwertigste ist 10-4.
Beide Angaben sind „aus didaktischen Gründen“ so gewählt und sind so natürlich „unüblich“. Real würde man schreiben: 0 (+/- 0.2) und 12,3400 (+/- 0,0004).
Die Verrechnung von Angaben mit sig. Stellen ist im Falle der Addition und Subtraktion trivial. Dem Ergebnis wird als niederwertigste sig. Stelle die höchstwertige der Fehler zugesprochen.
Beispiel:
1,23 (+/- 0.05)
+123,4 (+/- 0.5)
+0,00023 (+/- 0.0001)
----------------------------
123,63023 (+/- 0.5)
Das Ergebnis ist also 123,6 mit 4 sig. Stellen (höchstwertige: 102>/sup>, niederwertigste: 10-1).
Bei der Multiplikation und Division ist die Sache etwas komplizierter. Hier muß man über die relative Genauigkeit der Zahlen gehen. Das Ergebnis sollte eine relative Genauigkeit haben, die nicht größer ist als die geringste relative Genauigkeit der Faktoren.
Die relative Genauigkeit berechnet sich als „niederwertigste sig. Stelle. geteiltdurch Wert“. Beispiel: 0,032 (+/- 0,004); die niederwertigste Stelle ist 10-3; rel. Genauigkeit = 10-3 / 0,032 = 0,03125 = 3%
Jetzt für eine Multiplikation:
0,032 (+/- 0,004) * 0,00460 (+/- 0,00003)
Die rel. Genauigkeiten sind 3% und 0.2%. Das Produkt ist 0,0001472. Die rel. Genauigkeit dieses Produkts ist 0.07%, also viel zu genau. 0,000147 hat 0.7% rel. Genauigkeit - immer noch zu Genau. 0,00015 hat eine rel. Genauigkeit von knapp 7% und ist damit nicht mehr besser als die schlechteste rel. Genauigkeit der Faktoren (3%).
Das Ergebnis ist also
0,00015 (+/- 0,00001)
So, abschließend bleibt noch zu sagen, dass ein letzter Funke Uneindeutigkeit bleibt. Manche Leute interpretieren die Angabe 0.2 (+/- 0.01) so, dass 10-1 die niederwertigste sig. Stelle ist (weil sie keinen Meßfehler beinhaltet), andere sehen 10-2 als solche (weil die die Grenze der Meßsicherheit angibt). Einen allgemeinen Konsens darüber gibt es meines Wissens nicht. Jedoch sind die Unterschiede IMHO nicht bedeutend. Wenn man sich mal grob Gedanken darüber macht, liegt man nicht der Versuchung auf, viel zu viele Stellen anzugeben. Alleine das ist schonmal ein großer Gewinn für die Lesbarkeit und Interpretierbarkeit von Ergebnissen. Alles weitere ist akademische Selbstbefriedigung.
LG
Jochen