Genauigkeitsangaben bei Messgeräten und Fehlerrechnung

Hallo Community,
ich habe eine Frage zu den Genauigkeitsangaben bei Messgeräten. Gehen wir von einer Strommesszange aus die eine Genauigkeit von 3% (abgelesener Wert), bei DC-Strom, laut Datenblatt hat.
Angenommen sie ist an einen Transienten Rekorder aufgezeichnet der eine Auflösung von 12 Bit hat.
Es wird ein Anzeigebereich von ±500mV eingestellt. Die Strommesszange hat eine Auflösung von 1mV/A und einen Messbereich von 500A.
Nehmen wir an der Transiente Rekorder zeichnet einen Wert von 200mV auf. Liegt nun der wahre Wert zwsichen 194mV und 206mV?
Die Auflösung der Transienten Rekorders kommt als Fehler nochmal dazu, sind das dann einfach 1000mV/12Bit = 0,244mV die zu den 194mV und 206mV dazu kommen? Sprich 195,756mV und 206,244mV.

Vielen Dank im Voraus

schau mal nach, worauf sich die ‚%‘ beziehen. normalerweise ist es nicht der abgelesene wert, sondern der maximalwert des messbereichs. und eine weiterer wert kommt bei digitalen geräten meist auch noch dazu - eine angabe von +/- digits.

wie wäre es mit der nennung des gerätes? geheim?

Hi. Danke für die Antwort. Es handelt sich um eine Tektronix TCP404XL mit dem passenden Verstärker dazu.
Bei nicht Raumtemperatur liegt eine Genauigkeit von 3% des abgelesenen Wertes vor.

Hallo

Bis hier stimmt deine Berechnung.

Um weiter rechnen zu können, musst du jetzt noch den Typ des Recorders, bzw. dessen Daten angeben.
Alleine die Einstellbarkeit impliziert Verstärker und Spannungsteiler, welche Fehler erzeugen.
Die 12-Bit sind auch nicht die ganze Wahrheit. Do kommt zuerst einmal die Referenzspannung, welche durch 1023 geteilt wird.
Dann hat so ein ADC noch Linearitätsfehler usw.

Bei deiner Rechnung ist noch ein ganz grober Fehler drin:
Der Quantisierungsfehler liegt bei mindestens +/-1Bit.
Du musst also bei den 194mV den Wert abziehen und bei den 206mV addieren.

MfG Peter(TOO)

Hallo, danke für deine Antwort. Es handelt sich um einen Yokogawa DL850EV mit diesen Modulen. http://tmi.yokogawa.com/products/data-acquisition-equipment/high-speed-data-acquisition/701250-analog-voltage/
Leider kann ich da nicht viel rauslesen, ich würde noch das Rauschen zum Fehler addieren/subtrahieren.
Was genau bedeuten die 150 LSB/Div?

Den Quantisierungsfehler habe ich doch beachtet oder nicht? Sind das nicht die 0,244mV die ich abziehen bzw. hinzurechnen muss?

Vielen Dank

Das ist nur ein kleiner Teil der Wahrheit und wie du weiter unten lesen kannst nur eine Schätzung, Es sind +/-2.5mV

Die Angaben beziehen sich auf das Model des Oszilloskops. Auf der Bildröhre befindet sich ein Karo-Muster um die Werte ablesen zu können.
Div. ist da bei der Abstand zwischen 2 Linien.

1 Div. wird in 150 punkte aufgelöst, entspricht 8 und etwas Bits.

Wenn du jetzt 500mV/Div einstellst liegt die Auflösung bei 500mV/150, also bei 3.3333 mV.
Beziehen sich die 500mV auf 10Div. liegt die Auflösung bei 0.333mV.

Die Genauigkeit beträgt +/-0.5% auf 10Div. also auf deine 500mV.
Das sind also +/-2.5mV. Das sind knapp 3 Bit. Von den 12-Bit des Wandlers bleiben also noch etwa echte 9-Bit übrig.

Dies gilt bei 23°C +/-5K Raumtemperatur und nach 30 Minuten Warmlaufen lassen.
Bei anderen Temperaturen kommen dann pro 1K die Faktoren unter „Temperature coefficient“ hinzu.

Das sind dann die +/-400µV oder +/-0.06%/Div. Es gilt der jeweils grössere Wert.

MfG Peter(TOO)

2 Like

Vielen Dank für deine Antwort. Das hilft weiter :slight_smile: