10% von was? Von einem Meter? Warum setzt Du dann nicht 10cm ein?
Druckbare Version
10% von was? Von einem Meter? Warum setzt Du dann nicht 10cm ein?
was würde das an Vorteil bringen, wenn das Messobjekt mit zu ermittelndem Abstand
a) ca. einen Meter oder
b) ca. 50cm oder
c) ca. 10 cm
entfernt ist?
Nach Vorraussetzung ist ja der durchschn. relative statistische Fehler über den gesamten Messbereich ziemlich konstant,
also bei 10%
10cm auf 1m,
5cm auf 50cm
und 1cm auf 10cm.
Daher setze ich die relative (prozentuale) stat. Unsicherheit ein und gewichte die verschiedenen Messergebnisse mit dem Kehrwert der relativen stat. Unsicherheit des jew. Sensors, d.h. ich vertraue den zuverlässigeren tendenziell mehr.
Nu hör doch mal auf, um den heißen Brei zu reden und sag endlich, was Du da genau gemessen hast. Ich verstehe es sonst nicht!
Angaben über Messfehler haben im Allgemeinen nichts mit statistischen Annahmen zu tun. Wenn Dir ein Sensorhersteller eine 5%ige Genauigkeit nebst +/-2 Bit des Messwertes garantiert, musst Du nicht annehmen, dass das Teil wegen Rauschen auch mal (wenn auch nur selten) bei -20% liegt. Wenn dem so ist, läuft etwas systematisch (nicht stochastisch) schief. Ein Millimetermaß wirst Du auch nicht dazu zwingen können, 20mm falsch zu messen, wenn Du es richtig anlegst. Von selbst rauscht die Skala auf jeden Fall nicht um 20mm.
Daher noch einmal zum Ankreuzen, meinetwegen auch exklusiv nur für mich Deppen:
a) Du hast bei 1m gemessen und nach Deiner Formel zur Standardabweichung 10% (also absolut 10cm) herausbekommen.
oder
b) Du hast bei unterschiedlichen Distanzen gemessen und immer das gleiche Ergebnis von 10% relativ auf den Messwert bezogen bekommen.
Zur Erläuterung noch einmal: Die relative Standardabweichung gibt's auch, das ist der Variationskoeffizient. Im Wiki steht allerdings nix vom Einsetzen des Variationskoeffizienten. Und rein rechnerisch ergeben sich unterschiedliche Ergebnisse beim Einsetzen der beiden Werte.
Das gibt MIR zumindest zu denken.
wieso heißer Brei?
ich habe doch oben geschrieben, wie ich den durchschn. relativen stat. Fehler selber bestimmt habe - also nochmal:
Jeder Sensor wird gemessen
10x bei 10cm Objektabstand
10x bei 20cm Objektabstand
10x bei 30cm Objektabstand
10x bei 40cm Objektabstand
10x bei 50cm Objektabstand
10x bei 60cm Objektabstand
usw.
und bei jeder Messung wir der rel. Messfehler bezogen auf den echten Objektsabstand bestimmt.
Vorteil:
ich kann die Stichprobe, die ich hier mache, meinen echten Umweltbedingungen anpassen.
Alle rel. Einzelfehler werden quadriert, dann aufsummiert,
dann wird diese Summe durch die Anzahl der Messungen dividiert (Durchschnittsbildung),
daraus die Wurzel.
Bsp.:
echt 50cm, gemessen: 48, rel. Fehler = (50-48 )/50= 2/50 = 0,04
echt 70cm, gemessen: 75, rel. Fehler = (70-75)/70 = -5/70 = -0,07
Hätte ich jetzt nur diese 2 Werte, und nicht 100, ergäbe das beispielsweise:
0,04² + (-0,07)² = 0,0016 + 0,0049 = 0,0065
/2 = 0,00325 // Varianz
daraus Wurzel = 0,057 = 5,7% // Standardabweichung
Was man bekommt, ist ein statistischer, durchschnittlicher relativer "Abweichungswert" (Unsicherheitswert), den der Sensor über den gesamten Messbereich produziert; nach den Rechenschritten entspricht dies der Ermittlung der (relativen) Standardabweichung aus den (relativen) Messfehlern.
Dieser Wert mag beim einen Sensor bei 0.05 (5%), beim anderen bei 0.1 (10%) und beim dritten bei 0.2 (20%) liegen.
Diese Werte im TOP sind beispielhaft und idealisiert, um das Prinzip des Problems zu verdeutlichen.
- - - Aktualisiert - - -
edit:
(habs grade noch mal nachgerechnet, jetzt müssten die Beispielwerte stimmen)
Also gut.
Du setzt also den Variationskoeffizienten statt der Standardabweichung in die Berechnung des gewichteten Mittelwertes ein.
Du bist sicher, dass das funktioniert?
Warum steht dann im Artikel "Standardabweichung" und insbesondere: Warum kommt beim Einsetzen der Standardabweichung etwas anderes heraus?
Zitat: In der Messtechnik kann es angebracht sein, verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten. Hierdurch wird erreicht, dass bei weiteren Berechnungen Werte mit kleineren Unsicherheiten entsprechend stärker gewichtet werden.
Folge dem Link "Unsicherheiten". Auch das sind absolute Angaben.
Mal ein kleines Experiment dazu: Wenn ich o.g. Werte in eine Kreuzkorrelation einsetze (Berechne für jede tatsächliche Distanz die Plausibilität anhand der Summe der Gauss-Wahrscheinlichkeiten beider Messwerte) kommt da auch nicht das Optimum in der Mitte beider Distanzen.
Anhang 33597
da steht nicht "Standardabweichung", sondern Unsicherheiten !Zitat:
Warum steht dann im Artikel "Standardabweichung" und insbesondere: Warum kommt beim Einsetzen der Standardabweichung etwas anderes heraus?
Ich hatte es bereits einmal angemerkt, s.o.!
Was schlägst du also als "Unsicherheiten" vor, zumal die absoluten Fehler ja lt. Vorraussetzung stark von der Messdistanz abhängen, anders als die rel. Fehler, die als "Unsicherheiten" über den gesamten Messbereich ziemlich konstant sind?Zitat:
In der Messtechnik kann es angebracht sein, verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten.
Die absolute Standardabweichung über den kompletten Messbereich macht eher keinen Sinn, denn wenn diese ca. 20 beträgt (bes. groß durch die Fehler bei größeren Distanzen), dann bekäme ich bei einer Distanz von 10cm ein teilw ins Negative reichende Gauss-Kurve.
Die Unsicherheit ist im Wiki verlinkt. Lese da weiter. Das ist auch ein Absolutwert.
nein, das wird nicht eindeutig definiert, nur darauf hingewiesen, dass es ein Absolutwert und ebenfalls ein Schätzwert ist und es verschiedene Bestimmungsmethoden gibt.
Dass dieser identisch sein soll mit der absoluten Standardabweichung und NICHT der relativen, oder auch etwas ganz anderem, das steht dort nicht (zumindest nicht gefunden).
Wenn ich dich aber richtig verstehe, würdest du die absolute Standardabweichung verwenden, ja?
Naja, aus dem Notationskapitel geht's ja recht eindeutig hervor, was gemeint ist.
Und eine leichte Verschiebung in die eine oder andere Richtung kommt mit (nach einigem schrägen Denken) absolut logisch vor. Zumindest mit der folgenden Argumentation:
Bevorzuge den "besseren" Sensor in der Gewichtung. Bei gleichem Variationskoeffizienten und gleicher Trefferwahrscheinlichkeit misst der Sensor mit dem kürzeren Messwert zumindest hypothetisch besser (weil absolut ein kleinerer Fehler zu erwarten ist).
meinst du mit Notationskapitel das hier:Zitat:
Naja, aus dem Notationskapitel geht's ja recht eindeutig hervor, was gemeint ist.
68% stat. Wahrscheinlichkeitsbereich liegt ja innerhalb +/- 1 sigma, und 95% zwischen +/- 2 sigma um den echten Wert herum. (edit: sigma = Standardabweichung)Zitat:
Zu einem Messergebnis als Näherungswert für den wahren Wert einer Messgröße soll immer die Angabe einer Messunsicherheit gehören. Diese grenzt einen Wertebereich ein, innerhalb dessen der wahre Wert der Messgröße mit einer anzugebenden Wahrscheinlichkeit liegt (üblich sind Bereiche für ungefähr 68 % und ungefähr 95 %). Dabei soll der als Messergebnis verwendete Schätzwert oder Einzelmesswert bereits um bekannte systematische Abweichungen korrigiert sein.[1]
Dabei wird aber auch auf den "GUM" zur Ermittlung verwiesen, und hier heißt es
Dese Monte-Carlo-Methode allerdings hat ja nichts mehr mit der Berechnung der Gaussschen Standardabweichung zu tun.Zitat:
Das Beiblatt beschreibt die Anwendung der Monte-Carlo-Methode zur Ermittlung der Messunsicherheit.
Was also ist genau dein Vorschlag, um rechnerisch?Zitat:
verschiedene Messwerte mit den Kehrwerten ihrer Unsicherheiten zu gewichten