Anhäufung von Fehlern. Mathematische Enzyklopädie: Was ist Fehlerakkumulation, was bedeutet sie und wie schreibt man sie richtig?

Analytische Chemie

UDC 543.08+543.422.7

VORHERSAGE VON PHOTOMETRIE-FEHLER UNTER VERWENDUNG DES GESETZES DER FEHLERAKKUMULATION UND DER MONTE-CARLO-METHODE

IN UND. Golovanov, EM Danilina

In einem rechnerischen Experiment wurde unter Verwendung einer Kombination des Fehlerfortpflanzungsgesetzes und der Monte-Carlo-Methode der Einfluss von Lösungsvorbereitungsfehlern, Leerversuchsfehlern und Transmissionsmessfehlern auf die messtechnischen Eigenschaften der photometrischen Analyse untersucht. Es wurde festgestellt, dass die Ergebnisse der Fehlervorhersage durch analytische und statistische Methoden miteinander konsistent sind. Es wird gezeigt, dass ein Merkmal der Monte-Carlo-Methode die Fähigkeit ist, das Verteilungsgesetz von Fehlern in der Photometrie vorherzusagen. Am Beispiel eines Routineanalyseszenarios wird der Einfluss der Heteroskedastizität der Streuung entlang der Kalibrierungskurve auf die Qualität der Analyse betrachtet.

Schlüsselwörter: photometrische Analyse, Fehlerakkumulationsgesetz, Kalibrierungsdiagramm, messtechnische Eigenschaften, Monte-Carlo-Methode, stochastische Modellierung.

Einführung

Die Vorhersage von Fehlern in der photometrischen Analyse basiert hauptsächlich auf der Anwendung des Gesetzes der Fehlerakkumulation (LOA). Für den Fall einer linearen Form des Lichtabsorptionsgesetzes: - 1§T = A = b1c, ZNO wird normalerweise durch die Gleichung geschrieben:

8A _ 8C _ 0,434-10^

Ein '8T-

Dabei wird davon ausgegangen, dass die Standardabweichung der Transmissionsmessung über den gesamten Dynamikbereich des Photometers konstant ist. Gleichzeitig wird die Genauigkeit der Analyse, wie bereits erwähnt, zusätzlich zu instrumentellen Fehlern durch den Fehler des Blindexperiments, den Fehler bei der Einstellung der Skalengrenzen des Instruments, den Küvettenfehler, chemische Faktoren und den Fehler in beeinflusst Einstellen der analytischen Wellenlänge. Diese Faktoren gelten als Hauptfehlerquellen im Analyseergebnis. Beiträge zum akkumulierten Fehler in der Genauigkeit der Herstellung von Kalibrierungslösungen werden normalerweise vernachlässigt.

Daraus sehen wir, dass Gleichung (1) keine signifikante Vorhersagekraft hat, da sie den Einfluss nur eines Faktors berücksichtigt. Darüber hinaus ist Gleichung (1) eine Folge der näherungsweisen Erweiterung des Lichtabsorptionsgesetzes in eine Taylor-Reihe. Dies wirft die Frage nach seiner Genauigkeit auf, da die Terme der Entwicklung oberhalb der ersten Ordnung vernachlässigt werden. Die mathematische Analyse von Zersetzungsrückständen ist mit rechnerischen Schwierigkeiten verbunden und wird in der Praxis der chemischen Analyse nicht verwendet.

Der Zweck dieser Arbeit besteht darin, die Möglichkeit zu untersuchen, die Monte-Carlo-Methode (statistische Testmethode) als unabhängige Methode zur Untersuchung und Vorhersage der Anhäufung von Fehlern in der photometrischen Analyse zu verwenden und die Fähigkeiten von ZNO zu ergänzen und zu vertiefen.

Theoretischer Teil

In dieser Arbeit gehen wir davon aus, dass der endgültige Zufallsfehler der Kalibrierungsfunktion nicht nur durch instrumentelle Fehler bei der Messung der optischen Dichte verursacht wird, sondern auch durch Fehler bei der Einstellung der Instrumentenskala auf 0 und 100 % Transmission (der Fehler von

umfangreiche Erfahrung) sowie Fehler bei der Herstellung von Kalibrierlösungen. Die anderen oben genannten Fehlerquellen vernachlässigen wir. Dann schreiben wir die Gleichung des Bouguer-Lambert-Beer-Gesetzes in eine für die weitere Konstruktion geeignete Form um:

Ay = ks" + A

In dieser Gleichung ist c51 die Konzentration der Kopfstandardlösung der farbigen Substanz, von der Aliquots (Va) in Kolben mit einem Nennvolumen Vd verdünnt werden, um eine Kalibrierungsreihe von Lösungen zu erhalten, Ai ist die optische Dichte der Blindlösung . Da bei der Photometrie die optische Dichte der Testlösungen relativ zu einer Blindlösung gemessen wird, d. h. Ay als konventioneller Nullpunkt angenommen wird, ist Ay = 0. (Beachten Sie, dass der in diesem Fall gemessene Wert der optischen Dichte als konventionelle Extinktion bezeichnet werden kann. ) In Gleichung (2) hat die dimensionslose Größe c" die Bedeutung der Konzentration der Arbeitslösung, ausgedrückt in Einheiten der Konzentration des Kopfstandards. Wir nennen den Koeffizienten k die Extinktion des Standards, da Ag1 = e1c81 mit c" = 1.

Wenden wir den Operator des Gesetzes der Akkumulation zufälliger Fehler auf Ausdruck (2) an und gehen davon aus, dass Vа, Vd und Ау Zufallsvariablen sind. Wir bekommen:

Eine weitere unabhängige Zufallsvariable, die die Streuung der A-Werte beeinflusst, ist der Grad der Übertragung, da

A = -1§T, (4)

Daher fügen wir den Varianzen auf der linken Seite von Gleichung (3) einen weiteren Term hinzu:

52a=(0,434-10a)Ч+8Іüі +

In dieser endgültigen Aufzeichnung des Gesetzes der Fehlerakkumulation sind die absoluten Standardabweichungen von T, Ay und Ud konstant, und für Va ist der relative Standardfehler konstant.

Bei der Konstruktion eines stochastischen Modells der Kalibrierungsfunktion basierend auf der Monte-Carlo-Methode gehen wir davon aus, dass die möglichen Werte x* der Zufallsvariablen T, Ay Ua und Vd nach dem Normalgesetz verteilt sind. Nach dem Monte-Carlo-Prinzip werden wir mögliche Werte mit der Umkehrfunktionsmethode ausspielen:

X; =M(x1) + ð-1(Ó])-Å|, (6)

wobei M(x) der mathematische Erwartungswert (realer Wert) der Variablen ist, ¥(r^) die Laplace-Gaußsche Funktion ist, μ die möglichen Werte der Zufallsvariablen R sind, die gleichmäßig über das Intervall (0,1) verteilt sind ), also Zufallszahlen, 3x - Standardabweichung der entsprechenden Variablen, \ = 1...t - Ordnungszahl der unabhängigen Zufallsvariablen. Nachdem wir den Ausdruck (6) in die Gleichungen (4) und (2) eingesetzt haben, erhalten wir:

A" = -18Хі=-1810-а + Р-1(г])8т,

wobei A" = "k-+ x2

Berechnungen mit Gleichung (7) ergeben eine separate Implementierung der Kalibrierungsfunktion, d. h. Abhängigkeit von A" vom mathematischen Erwartungswert M(c") (Nominalwert c"). Daher ist Eintrag (7) ein analytischer Ausdruck einer Zufallsfunktion. Abschnitte dieser Funktion werden durch wiederholtes Spielen von Zufallszahlen an jedem Punkt von erhalten die Kalibrierungsabhängigkeit. Ein Stichprobensatz von Implementierungen wird mithilfe statistischer mathematischer Methoden verarbeitet, um allgemeine Kalibrierungsparameter zu schätzen und Hypothesen über die Eigenschaften der Allgemeinbevölkerung zu testen.

Es liegt auf der Hand, dass sich die beiden Ansätze, die wir zum Problem der Vorhersage messtechnischer Eigenschaften in der Photometrie in Betracht ziehen – basierend auf ZNO einerseits und basierend auf der Monte-Carlo-Methode andererseits – einander ergänzen sollten. Insbesondere aus Gleichung (5) ist es möglich, das Ergebnis mit einem viel geringeren Rechenaufwand im Vergleich zu (7) sowie einer Rangfolge zu erhalten

Ordnen Sie Zufallsvariablen entsprechend der Bedeutung ihres Beitrags zum resultierenden Fehler. Durch das Ranking können Sie bei statistischen Tests auf das Screening-Experiment verzichten und unbedeutende Variablen von vornherein aus der Betrachtung ausschließen. Gleichung (5) lässt sich mathematisch leicht analysieren, um die Art der Beiträge von Faktoren zur Gesamtvarianz zu beurteilen. Teilbeiträge von Faktoren können in solche unterteilt werden, die unabhängig von A sind oder mit zunehmender optischer Dichte zunehmen. Daher muss sA als Funktion von A eine monoton steigende Abhängigkeit ohne Minimum sein. Bei der Approximation experimenteller Daten durch Gleichung (5) werden Teilbeiträge gleicher Art gemischt, beispielsweise kann der experimentelle Fehler mit dem Fehler des Leerexperiments gemischt werden. Andererseits ist es beim statistischen Testen des Modells mit der Monte-Carlo-Methode möglich, so wichtige Eigenschaften des Kalibrierungsgraphen wie die Gesetze der Fehlerverteilung zu identifizieren und die Konvergenzgeschwindigkeit von Stichprobenschätzungen zu bewerten zu den allgemeinen. Eine solche Analyse ist aufgrund einer Krebserkrankung nicht möglich.

Beschreibung des Computerexperiments

Bei der Erstellung eines Kalibrierungssimulationsmodells gehen wir davon aus, dass die Kalibrierungsreihe von Lösungen in Messkolben mit einem Nennvolumen von 50 ml und einem maximalen Fehler von +0,05 ml vorbereitet wird. Geben Sie 1 bis 17 ml Standard-Stammlösung in eine Reihe von Kolben mit einem Pipettierfehler von > 1 %. Die Fehler bei der Volumenmessung wurden anhand des Nachschlagewerks beurteilt. Aliquots werden in gleichmäßigen Portionen von 1 ml zugegeben. Insgesamt umfasst die Serie 17 Lösungen, deren optische Dichte den Bereich von 0,1 bis 1,7 Einheiten abdeckt. Dann ist in Gleichung (2) der Koeffizient k = 5. Der Fehler des Blindversuchs wird mit 0,01 Einheiten angenommen. optische Dichte. Fehler bei der Messung des Transmissionsgrades hängen laut , nur von der Geräteklasse ab und liegen im Bereich von 0,1 bis 0,5 % T.

Um die Bedingungen des Computerexperiments besser mit dem Laborexperiment in Beziehung zu setzen, verwendeten wir Daten zur Reproduzierbarkeit von Messungen der optischen Dichten von K2Cr2O7-Lösungen in Gegenwart von 0,05 M H2S04 auf einem SF-26-Spektrophotometer. Die Autoren approximieren die experimentellen Daten im Intervall A = 0,1... 1,5 mit einer Parabelgleichung:

sBOCn*103 =7,9-3,53A + 10,3A2. (8)

Es ist uns gelungen, die Berechnungen mit der theoretischen Gleichung (5) an die Berechnungen mit der empirischen Gleichung (8) mithilfe der Newtonschen Optimierungsmethode anzupassen. Wir haben festgestellt, dass Gleichung (5) das Experiment bei s(T) = 0,12 %, s(Abi) = 0,007 und s r(Va) = 1,1 % zufriedenstellend beschreibt.

Die im vorherigen Absatz angegebenen unabhängigen Fehlerschätzungen stimmen gut mit denen überein, die während der Anpassung ermittelt wurden. Für Berechnungen nach Gleichung (7) wurde ein Programm in Form einer MS-Excel-Tabelle erstellt. Das wichtigste Merkmal unseres Excel-Programms ist die Verwendung des Ausdrucks NORMSINV(RAND()) zur Generierung normalverteilter Fehler, siehe Gleichung (6). In der Fachliteratur zu statistischen Berechnungen in Excel wird das Dienstprogramm „Random Number Generation“ ausführlich beschrieben, das in vielen Fällen vorzugsweise durch Funktionen wie NORMSINV(RAND()) ersetzt wird. Dieser Ersatz ist besonders praktisch, wenn Sie eigene Programme für die Monte-Carlo-Simulation erstellen.

Ergebnisse und ihre Diskussion

Bevor wir mit statistischen Tests fortfahren, schätzen wir die Beiträge der Terme auf der linken Seite von Gleichung (5) zur Gesamtdispersion der optischen Dichte ab. Dazu wird jeder Term auf die Gesamtvarianz normiert. Die Berechnungen wurden mit s(T) = 0,12 %, s(Aw) = 0,007, Sr(Va)=1,1 % und s(Vfi) = 0,05 durchgeführt. Die Berechnungsergebnisse sind in Abb. dargestellt. 1. Wir sehen, dass Beiträge zur Gesamtvarianz der Messfehler Vfl vernachlässigt werden können.

Während die Beiträge einen anderen Wert haben, der sich auf die Fehler bei der Vorbereitung von Lösungen auswirkt, Va

dominieren im optischen Dichtebereich 0,8__1,2. Diese Schlussfolgerung ist jedoch nicht allgemeingültig

Natur, da bei der Messung auf einem Photometer mit s(T) = 0,5 % die Kalibrierungsfehler rechnerisch hauptsächlich durch die Streuung von Ay und die Streuung von T bestimmt werden. In Abb. Abbildung 2 vergleicht die relativen Fehler bei Messungen der optischen Dichten, die auf der Grundlage von ZNO (durchgezogene Linie) und der Monte-Carlo-Methode (Symbole) vorhergesagt wurden. Bei statistischen Tests ist die Kurve

Fehler wurden aus 100 Erkenntnissen der Kalibrierungsabhängigkeit (1700 optische Dichtewerte) rekonstruiert. Wir sehen, dass beide Prognosen miteinander übereinstimmen. Die Punkte sind gleichmäßig um die theoretische Kurve gruppiert. Allerdings ist selbst bei solch beeindruckendem statistischem Material keine vollständige Konvergenz zu beobachten. Auf jeden Fall erlaubt uns die Streuung nicht, die ungefähre Natur von Krebs zu bestimmen, siehe Einleitung.

0 0.4 0.8 1.2 1.6

Reis. 1. Gewichtete Beiträge der Terme von Gleichung (5) zur Varianz A: 1 – für Ay; 2 - für Ua; 3 - für T; 4 - für

Reis. 2. Fehlerkurve der Kalibrierungskurve

Aus der Theorie der mathematischen Statistik ist bekannt, dass bei der Intervallschätzung des mathematischen Erwartungswerts einer Zufallsvariablen die Zuverlässigkeit der Schätzung steigt, wenn das Verteilungsgesetz für diese Größe bekannt ist. Darüber hinaus ist die Schätzung im Falle einer Normalverteilung am effizientesten. Daher ist die Untersuchung des Fehlerverteilungsgesetzes im Kalibrierungsdiagramm eine wichtige Aufgabe. In einer solchen Studie wird zunächst die Hypothese der Normalität der Streuung optischer Dichten an einzelnen Punkten des Diagramms getestet.

Eine einfache Möglichkeit, die Haupthypothese zu testen, besteht darin, die Schiefekoeffizienten (a) und Kurtosiskoeffizienten (e) empirischer Verteilungen zu berechnen und sie mit Kriteriumswerten zu vergleichen. Die Zuverlässigkeit statistischer Schlussfolgerungen steigt mit zunehmender Menge an Stichprobendaten. In Abb. Abbildung 3 zeigt die Koeffizientenfolge für 17 Abschnitte der Kalibrierungsfunktion. Die Koeffizienten werden auf der Grundlage der Ergebnisse von 100 Tests an jedem Punkt berechnet. Die kritischen Werte der Koeffizienten für unser Beispiel sind |a| = 0,72 und |e| = 0,23.

Aus Abb. 3 können wir schließen, dass die Streuung der Werte an den Punkten des Diagramms im Allgemeinen nicht der Fall ist

widerspricht der Normalitätshypothese, da die Koeffizientenfolgen nahezu keine Vorzugsrichtung haben. Die Koeffizienten sind zufällig in der Nähe der Nulllinie lokalisiert (dargestellt durch die gepunktete Linie). Für eine Normalverteilung ist bekanntlich der mathematische Erwartungswert des Schiefekoeffizienten und des Kurtosiskoeffizienten Null. Gemessen an der Tatsache, dass die Asymmetriekoeffizienten für alle Abschnitte deutlich unter dem kritischen Wert liegen, können wir getrost von der Symmetrie der Verteilung der Kalibrierungsfehler sprechen. Es ist möglich, dass die Fehlerverteilungen im Vergleich zur Normalverteilungskurve leicht schief sind. Diese Schlussfolgerung ergibt sich aus den Beobachtungen in Abb. 3 kleine Polo-

Reis. 3. Kurtosis-Koeffizienten (1) und Asymmetriekoeffizienten (2) an den Punkten der Kalibrierungskurve

Residente Verschiebung der zentralen Streuungslinie der Kurtosis-Koeffizienten. Aus der Untersuchung des Modells der verallgemeinerten Kalibrierungsfunktion der photometrischen Analyse unter Verwendung der Monte-Carlo-Methode (2) können wir daher schließen, dass die Verteilung der Kalibrierungsfehler nahezu normal ist. Daher können Berechnungen von Konfidenzintervallen für die Ergebnisse der photometrischen Analyse unter Verwendung der Student-Koeffizienten als durchaus gerechtfertigt angesehen werden.

Bei der Durchführung einer stochastischen Modellierung wurde die Geschwindigkeit der Konvergenz der Stichprobenfehlerkurven (siehe Abb. 2) mit dem mathematischen Erwartungswert der Kurve bewertet. Für den mathematischen Erwartungswert der Fehlerkurve nehmen wir die aus der ZNO berechnete Kurve. Die Nähe der Ergebnisse statistischer Tests mit unterschiedlicher Anzahl von Kalibrierungsdurchführungen n zur theoretischen Kurve wird durch den Unsicherheitskoeffizienten 1 - R2 beurteilt. Dieser Koeffizient charakterisiert den Anteil der Variation in der Stichprobe, der theoretisch nicht beschrieben werden konnte. Wir haben festgestellt, dass die Abhängigkeit des Unsicherheitskoeffizienten von der Anzahl der Realisierungen der Kalibrierungsfunktion durch die empirische Gleichung I - K2 = -2,3n-1 + 1,6n~/a -0,1 beschrieben werden kann. Aus der Gleichung ergibt sich, dass wir bei n = 213 eine nahezu vollständige Übereinstimmung der theoretischen und empirischen Fehlerkurven erwarten sollten. Daher kann eine konsistente Bewertung der Fehler der photometrischen Analyse nur anhand eines relativ großen statistischen Materials erfolgen.

Betrachten wir die Möglichkeiten der statistischen Testmethode zur Vorhersage der Ergebnisse der Regressionsanalyse des Kalibrierungsdiagramms und zur Verwendung des Diagramms bei der Bestimmung der Konzentrationen photometrischer Lösungen. Hierzu wählen wir als Szenario die Messsituation der Routineanalytik aus. Die Grafik wird anhand einzelner Messungen der optischen Dichten einer Reihe von Standardlösungen erstellt. Die Konzentration der analysierten Lösung ergibt sich aus dem Diagramm basierend auf 3-4 Ergebnissen paralleler Messungen. Bei der Auswahl eines Regressionsmodells sollte berücksichtigt werden, dass die Streuung der optischen Dichten an verschiedenen Punkten der Kalibrierungskurve nicht gleich ist, siehe Gleichung (8). Im Fall der heteroekedastischen Streuung wird empfohlen, das Schema der gewichteten kleinsten Quadrate (WLS) zu verwenden. Allerdings haben wir in der Literatur keine klaren Hinweise auf die Gründe gefunden, warum das klassische OLS-Schema, dessen Anwendbarkeitsbedingung das Erfordernis der Homoskedastizität der Streuung ist, weniger vorzuziehen ist. Diese Gründe können ermittelt werden, indem das gleiche statistische Material, das mit der Monte-Carlo-Methode erhalten wurde, gemäß dem Routineanalyseszenario mit zwei OLS-Varianten – klassisch und gewichtet – verarbeitet wird.

Als Ergebnis der Regressionsanalyse nur einer Implementierung der Kalibrierungsfunktion wurden die folgenden Schätzungen der kleinsten Quadrate erhalten: k = 4,979 mit Bk = 0,023. Wenn wir die gleichen Eigenschaften des VMNC bewerten, erhalten wir k = 5,000 mit Bk = 0,016. Regressionen wurden anhand von 17 Standardlösungen rekonstruiert. Die Konzentrationen in der Kalibrierreihe nahmen rechnerisch zu und die optischen Dichten veränderten sich ebenso gleichmäßig im Bereich von 0,1 bis 1,7 Einheiten. Im Fall von VMNC wurden die statistischen Gewichte der Punkte der Kalibrierungskurve anhand der nach Gleichung (5) berechneten Varianzen ermittelt.

Die Varianzen der Schätzungen für beide Methoden sind laut Fisher-Test bei einem Signifikanzniveau von 1 % statistisch nicht unterscheidbar. Bei gleichem Signifikanzniveau weicht die OLS-Schätzung von k jedoch von der VMLS-Schätzung gemäß dem 1;-Kriterium ab. Die OLS-Schätzung des Koeffizienten des Kalibrierungsdiagramms ist relativ zum tatsächlichen Wert M(k) = 5,000 verschoben, gemessen am Test auf einem Signifikanzniveau von 5 %. Die gewichtete OLS hingegen liefert eine Schätzung, die keinen systematischen Fehler enthält.

Lassen Sie uns nun herausfinden, wie sich die Vernachlässigung der Heteroskedastizität auf die Qualität der chemischen Analyse auswirken kann. Die Tabelle zeigt die Ergebnisse eines Simulationsexperiments zur Analyse von 17 Kontrollproben einer farbigen Substanz mit unterschiedlichen Konzentrationen. Darüber hinaus umfasste jede Analysereihe vier Lösungen, d. h. Für jede Probe wurden vier parallele Bestimmungen durchgeführt. Um die Ergebnisse zu verarbeiten, wurden zwei verschiedene Kalibrierungsabhängigkeiten verwendet: Eine wurde durch eine einfache Methode der kleinsten Quadrate wiederhergestellt, die zweite durch eine gewichtete Methode. Wir glauben, dass Kontrolllösungen auf die gleiche Weise wie Kalibrierungslösungen für die Analyse vorbereitet wurden.

Aus der Tabelle sehen wir, dass die tatsächlichen Werte der Konzentrationen von Kontrolllösungen sowohl bei VMNC als auch bei MNC nicht außerhalb der Konfidenzintervalle liegen, d. h. die Analyseergebnisse enthalten keine signifikanten systematischen Fehler. Die maximalen Fehler beider Methoden unterscheiden sich statistisch nicht, also beider Schätzungen

Der Vergleich der Ergebnisse der Konzentrationsbestimmung hat die gleiche Wirksamkeit. Aus-

Kontrolllösungen mit zwei Methoden können daraus geschlossen werden, wann

Bei Routineanalysen ist die Verwendung eines einfachen ungewichteten OLS-Designs durchaus gerechtfertigt. Der Einsatz von VMNC ist vorzuziehen, wenn die Forschungsaufgabe lediglich in der Bestimmung der molaren Extinktion besteht. Andererseits ist zu bedenken, dass unsere Schlussfolgerungen statistischer Natur sind. Es ist wahrscheinlich, dass mit zunehmender Anzahl paralleler Bestimmungen die Hypothese der Unvoreingenommenheit der OLS-Konzentrationsschätzungen keine Bestätigung finden wird, auch wenn die systematischen Fehler aus praktischer Sicht unbedeutend sind.

Die recht hohe Qualität der Analyse, die wir auf der Grundlage eines einfachen Schemas der klassischen Methode der kleinsten Quadrate entdeckt haben, erscheint besonders überraschend, wenn wir die Tatsache berücksichtigen, dass im optischen Dichtebereich von 0,1 h bis 1,7 eine sehr starke Heteroskedastizität beobachtet wird. Der Grad der Datenheterogenität kann anhand der Gewichtungsfunktion beurteilt werden, die durch das Polynom w = 0,057A2 - 0,193A + 0,173 gut angenähert wird. Aus dieser Gleichung folgt, dass sich an den Extrempunkten der Kalibrierung die statistischen Gewichte um mehr als das Zwanzigfache unterscheiden. Beachten wir jedoch, dass die Kalibrierungsfunktionen anhand von 17 Punkten im Diagramm wiederhergestellt wurden, während bei der Analyse nur 4 parallele Bestimmungen durchgeführt wurden. Daher können der signifikante Unterschied, den wir zwischen den LLS- und VMLS-Kalibrierungsfunktionen entdeckt haben, und der unbedeutende Unterschied in den Ergebnissen der Analyse mit diesen Funktionen durch die deutlich unterschiedliche Anzahl an Freiheitsgraden erklärt werden, die bei der Erstellung statistischer Schlussfolgerungen zur Verfügung standen.

Abschluss

1. Es wird ein neuer Ansatz zur stochastischen Modellierung in der photometrischen Analyse vorgeschlagen, der auf der Monte-Carlo-Methode und dem Gesetz der Fehlerakkumulation unter Verwendung des Excel-Tabellenkalkulationsprozessors basiert.

2. Basierend auf 100 Implementierungen der Kalibrierungsabhängigkeit wird gezeigt, dass die Vorhersage von Fehlern durch die analytischen und statistischen Methoden miteinander konsistent sind.

3. Die Asymmetrie- und Kurtosis-Koeffizienten entlang der Kalibrierungskurve wurden untersucht. Es wurde festgestellt, dass Schwankungen der Kalibrierungsfehler einem Verteilungsgesetz nahe der Normalverteilung gehorchen.

4. Der Einfluss der Heteroskedastizität in der Streuung optischer Dichten während der Kalibrierung auf die Qualität der Analyse wird berücksichtigt. Es zeigte sich, dass bei Routineanalysen die Verwendung eines einfachen ungewichteten OLS-Schemas nicht zu einer merklichen Verschlechterung der Genauigkeit der Analyseergebnisse führt.

Literatur

1. Bernstein, I.Ya. Spektrophotometrische Analyse in der organischen Chemie / I.Ya. Bernstein, Yu.L. Kaminsky. - L.: Chemie, 1986. - 200 S.

2. Bulatov, M.I. Praktischer Leitfaden zu photometrischen Analysemethoden / M.I. Bulatov, I.P. Kalinkin. - L.: Chemie, 1986. - 432 S.

3. Gmurman, V.E. Wahrscheinlichkeitstheorie und mathematische Statistik / V.E. Gmurman. - M.: Höhere Schule, 1977. - 470 S.

Anzahl s", s", gefunden (P = 95 %)

n/a gegeben durch MNK VMNK

1 0,020 0,021 ± 0,002 0,021 ± 0,002

2 0,040 0,041 ± 0,001 0,041 ± 0,001

3 0,060 0,061 ± 0,003 0,061 ± 0,003

4 0,080 0,080±0,004 0,080±0,004

5 0,100 0,098 ± 0,004 0,098 ± 0,004

6 0,120 0,122 ± 0,006 0,121 ± 0,006

7 0,140 0,140 ± 0,006 0,139 ± 0,006

8 0,160 0,163 ± 0,003 0,162 ± 0,003

9 0,180 0,181 ± 0,006 0,180 ± 0,006

10 0,200 0,201 ± 0,002 0,200 ± 0,002

11 0,220 0,219 ± 0,008 0,218 ± 0,008

12 0,240 0,242 ± 0,002 0,241 ± 0,002

13 0,260 0,262 ± 0,008 0,261 ± 0,008

14 0,280 0,281 ± 0,010 0,280 ± 0,010

15 0,300 0,307 ± 0,015 0,306 ± 0,015

16 0,320 0,325 ± 0,013 0,323 ± 0,013

17 0,340 0,340 ± 0,026 0,339 ± 0,026

4. Pravdin, P. V. Laborinstrumente und -geräte aus Glas / P.V. Prawdin. - M.: Chemie, 1988.-336 S.

5. Makarova, N.V. Statistiken in Excel / N.V. Makarova, V.Ya. Trofimets. - M.: Finanzen und Statistik, 2002. - 368 S.

VORHERSAGE VON FEHLER IN DER PHOTOMETRIE UNTER VERWENDUNG DES FEHLERSAMMULATIONSGESETZES UND DER MONTE-CARLO-METHODE

Während eines Rechenexperiments wurde in Kombination mit dem Fehlerakkumulationsgesetz und der Monte-Carlo-Methode der Einfluss von Lösungsfindungsfehlern, Leerversuchsfehlern und Fehlern bei der optischen Transmissionsmessung auf die messtechnische Leistung der photometrischen Analyse untersucht. Es hat sich gezeigt, dass die Ergebnisse der Vorhersage durch analytische und statistische Methoden interkonsistent sind. Es wurde festgestellt, dass die einzigartige Eigenschaft der Monte-Carlo-Methode die Vorhersage des Fehlerakkumulationsgesetzes in der Photometrie ermöglicht. Für die Version der Routineanalyse wurde der Einfluss der Heteroskedastizität der Dispersion entlang der Kalibrierungskurve auf die Analysequalität untersucht.

Schlüsselwörter: Photometrische Analyse, Fehlerakkumulationsgesetz, Kalibrierungskurve, messtechnische Leistung, Monte-Carlo-Methode, stochastische Modellierung.

Golovanov Wladimir Iwanowitsch - Dr. Sc. (Chemie), Professor, Leiter der Unterabteilung für Analytische Chemie, Süd-Ural-Staatsuniversität.

Golovanov Vladimir Ivanovich – Doktor der chemischen Wissenschaften, Professor, Leiter der Abteilung für Analytische Chemie, Süd-Ural-Staatsuniversität.

Email: [email protected]

Danilina Elena Ivanovna – PhD (Chemie), außerordentliche Professorin, Unterabteilung für Analytische Chemie, Süd-Ural-Staatsuniversität.

Danilina Elena Ivanovna – Kandidatin für chemische Wissenschaften, außerordentliche Professorin, Abteilung für Analytische Chemie, Süd-Ural-Staatsuniversität.

beim numerischen Lösen algebraischer Gleichungen – der Gesamteinfluss der in einzelnen Schritten des Berechnungsprozesses vorgenommenen Rundungen auf die Genauigkeit der resultierenden linearen algebraischen Lösung. Systeme. Die gebräuchlichste Methode zur a priori-Abschätzung der Gesamtauswirkungen von Rundungsfehlern in numerischen Methoden der linearen Algebra ist das sogenannte Schema. umgekehrte Analyse. In Anwendung zur Lösung eines Systems der linearen Algebra. Gleichungen

Das umgekehrte Analyseschema ist wie folgt. Die mit der direkten Methode berechnete Lösung erfüllt (1) nicht, kann aber als exakte Lösung des gestörten Systems dargestellt werden

Die Qualität der direkten Methode wird anhand der besten A-priori-Schätzung beurteilt, die für die Normen der Matrix und des Vektors angegeben werden kann. Solche „Besten“ und sogenannten. bzw. Matrix und Vektor der äquivalenten Störung für die Methode M.

Wenn es Schätzungen für und gibt, kann der Fehler der Näherungslösung theoretisch durch die Ungleichung geschätzt werden

Hier ist die Bedingungszahl der Matrix A, und es wird angenommen, dass die Matrixnorm in (3) der Vektornorm untergeordnet ist

In Wirklichkeit ist die Schätzung selten bekannt, und der Hauptzweck von (2) besteht darin, die Qualität verschiedener Methoden vergleichen zu können. Nachfolgend finden Sie die Form einiger typischer Schätzungen für die Matrix. Für Methoden mit orthogonalen Transformationen und Gleitkommaarithmetik (im System (1) gelten A und b als reell).

In dieser Beurteilung - die relative Genauigkeit der Arithmetik. Computeroperationen, ist die euklidische Matrixnorm, f(n) ist eine Funktion der Form, wobei n die Ordnung des Systems ist. Die genauen Werte der Konstante C des Indikators k werden durch Details des Berechnungsprozesses wie die Rundungsmethode, die Verwendung der Operation zum Akkumulieren von Skalarprodukten usw. bestimmt. Am häufigsten ist k = 1 oder 3/2 .

Bei Methoden vom Gauß-Typ enthält die rechte Seite der Schätzung (4) auch einen Faktor, der die Möglichkeit des Wachstums der Elemente der Ana-Matrix in Zwischenschritten der Methode im Vergleich zum Anfangsniveau widerspiegelt (ein solches Wachstum fehlt in orthogonale Methoden). Um den Wert von zu verringern, werden verschiedene Methoden zur Auswahl des führenden Elements verwendet, wodurch verhindert wird, dass die Matrixelemente zunehmen.

Für Quadratwurzelmethode, die normalerweise im Fall einer positiv definiten Matrix A verwendet wird, erhält man die stärkste Schätzung

Es gibt direkte Methoden (Jordan, Bordering, konjugierte Gradienten), bei denen die direkte Anwendung des inversen Analyseschemas nicht zu effektiven Schätzungen führt. In diesen Fällen werden beim Studium von N. auch andere Überlegungen berücksichtigt (siehe -).

Zündete.: Givens W., „TJ. S. Atomic Energy Commiss. Repts. Ser. OR NL“, 1954, Nr. 1574; Wilkinson J. H., Rundungsfehler in algebraischen Prozessen, L., 1963; Wilkinson J.

Kh. D. Ikramov.

Das Problem von Rundungs- oder Methodenfehlern entsteht bei der Lösung von Problemen, bei denen die Lösung das Ergebnis einer großen Anzahl sequentiell durchgeführter Arithmetik ist. Operationen.

Ein wesentlicher Teil solcher Probleme besteht in der Lösung algebraischer Probleme. Probleme, linear oder nichtlinear (siehe oben). Im Gegenzug unter Algebra Probleme Die häufigsten Probleme treten bei der Approximation von Differentialgleichungen auf. Diese Aufgaben weisen bestimmte spezifische Merkmale auf. Besonderheiten.

Die Methode zur Lösung eines Problems folgt denselben oder einfacheren Gesetzen wie die Methode des Rechenfehlers; N., S. Bei der Bewertung einer Methode zur Lösung eines Problems wird eine Methode untersucht.

Bei der Untersuchung der Akkumulation von Rechenfehlern werden zwei Ansätze unterschieden. Im ersten Fall geht man davon aus, dass Rechenfehler bei jedem Schritt auf die ungünstigste Weise eingeführt werden und man eine große Schätzung des Fehlers erhält. Im zweiten Fall geht man davon aus, dass diese Fehler mit einem bestimmten Verteilungsgesetz zufällig sind.

Die Art des Problems hängt vom zu lösenden Problem, der Lösungsmethode und einer Reihe anderer Faktoren ab, die auf den ersten Blick unwichtig erscheinen mögen; Dazu gehören die Form der Zahlenaufzeichnung in einem Computer (Festkomma oder Gleitkomma) und die Reihenfolge, in der die Arithmetik ausgeführt wird. Operationen usw. Zum Beispiel beim Problem der Berechnung der Summe von N Zahlen

Die Reihenfolge, in der die Vorgänge ausgeführt werden, ist wichtig. Lassen Sie die Berechnungen auf einer Gleitkommamaschine mit t Binärziffern durchführen und alle Zahlen liegen darin . Bei direkter Berechnung unter Verwendung einer wiederkehrenden Formel liegt die Hauptfehlerschätzung in der Größenordnung 2 -t N. Sie können es auch anders machen (siehe). Bei der Berechnung paarweiser Summen (Wenn N=2l+1 seltsam) glauben . Als nächstes werden ihre paarweisen Summen berechnet usw. Nach den Schritten der Bildung paarweiser Summen mithilfe der Formeln

Erhalten Sie eine Schätzung des Hauptordnungsfehlers

Bei typischen Problemen sind die Mengen bei nach Formeln berechnet werden, insbesondere nach wiederkehrenden Formeln, oder sequentiell in den Arbeitsspeicher des Computers eingegeben werden; In diesen Fällen führt der Einsatz der beschriebenen Technik zu einer Erhöhung der Speicherauslastung des Computers. Es ist jedoch möglich, die Reihenfolge der Berechnungen so zu organisieren, dass die RAM-Auslastung -log 2 N Zellen nicht überschreitet.

Bei der numerischen Lösung von Differentialgleichungen sind folgende Fälle möglich. Wenn der Gitterschritt h gegen Null tendiert, wächst der Fehler wie folgt . Solche Problemlösungsmethoden werden als instabil eingestuft. Ihr Einsatz ist sporadisch. Charakter.

Stabile Methoden zeichnen sich durch eine Fehlerzunahme aus: Der Fehler solcher Methoden wird üblicherweise wie folgt bewertet. Es wird eine Gleichung bezüglich der Störung erstellt, die entweder durch Rundung oder durch Methodenfehler entsteht, und dann wird die Lösung dieser Gleichung untersucht (siehe,).

In komplexeren Fällen wird die Methode der äquivalenten Störungen verwendet (siehe,), die im Zusammenhang mit dem Problem der Untersuchung der Anhäufung von Rechenfehlern bei der Lösung von Differentialgleichungen entwickelt wurde (siehe,,). Berechnungen nach einem bestimmten Berechnungsschema mit Rundung gelten als Berechnungen ohne Rundung, jedoch für eine Gleichung mit gestörten Koeffizienten. Durch Vergleich der Lösung der ursprünglichen Gittergleichung mit der Lösung der Gleichung mit gestörten Koeffizienten wird eine Fehlerschätzung erhalten.

Besonderes Augenmerk wird auf die Wahl einer Methode mit möglichst niedrigeren Werten von q und A(h) gelegt. . Mit einer festen Methode zur Lösung des Problems können die Berechnungsformeln normalerweise in die Form wo umgewandelt werden (siehe , ). Dies ist insbesondere bei gewöhnlichen Differentialgleichungen von Bedeutung, bei denen die Anzahl der Schritte teilweise sehr groß ausfällt.

Der Wert (h) kann mit zunehmendem Integrationsintervall stark ansteigen. Daher versuchen sie, wenn möglich, Methoden mit einem niedrigeren Wert von A(h) zu verwenden. . Im Fall des Cauchy-Problems kann der Rundungsfehler bei jedem einzelnen Schritt im Verhältnis zu den nachfolgenden Schritten als Fehler in der Anfangsbedingung betrachtet werden. Daher hängt das Infimum (h) von der Charakteristik der Divergenz naher Lösungen der durch die Variationsgleichung definierten Differentialgleichung ab.

Im Fall einer numerischen Lösung einer gewöhnlichen Differentialgleichung Die Variationsgleichung hat die Form

und daher, wenn ein Problem im Intervall gelöst wird ( x 0 , X) kann man nicht davon ausgehen, dass die Konstante A(h) in der Hauptschätzung des Rechenfehlers deutlich besser ist als

Daher werden bei der Lösung dieses Problems am häufigsten einstufige Methoden vom Runge-Kutta-Typ oder Methoden vom Adams-Typ (siehe,) verwendet, bei denen das Problem hauptsächlich durch das Lösen der Gleichung in Variationen bestimmt wird.

Bei einer Reihe von Methoden akkumuliert der Hauptterm des Methodenfehlers nach einem ähnlichen Gesetz, während der Rechenfehler viel schneller akkumuliert (siehe). Tätigkeitsbereich Die Anwendbarkeit solcher Methoden erweist sich als deutlich eingeschränkter.

Die Anhäufung von Rechenfehlern hängt maßgeblich von der Methode zur Lösung des Gitterproblems ab. Wenn beispielsweise Gitterrandwertprobleme, die gewöhnlichen Differentialgleichungen entsprechen, mithilfe von Shooting- und Sweeping-Methoden gelöst werden, hat das Problem den Charakter A(h) h-q, wobei q gleich ist. Die Werte von A(h) für diese Methoden können so stark abweichen, dass in einer bestimmten Situation eine der Methoden nicht anwendbar ist. Bei der Lösung eines Gitterrandwertproblems für die Laplace-Gleichung mit der Schießmethode hat das Problem den Charakter s 1/h , s>1, und im Fall der Sweep-Methode Ah-q. Bei einem probabilistischen Ansatz zur Untersuchung von Rundungsfehlern gehen sie in manchen Fällen a priori von einer Art Fehlerverteilungsgesetz aus (siehe), in anderen Fällen führen sie ein Maß für den Raum der betrachteten Probleme ein und, basierend auf diesem Maß, erhalten Sie ein Gesetz der Rundungsfehlerverteilung (siehe, ).

Bei mäßiger Genauigkeit bei der Lösung des Problems liefern Majorant- und Wahrscheinlichkeitsansätze zur Bewertung der Anhäufung von Rechenfehlern in der Regel qualitativ die gleichen Ergebnisse: Entweder liegt der Fehler in beiden Fällen innerhalb akzeptabler Grenzen, oder in beiden Fällen überschreitet der Fehler diese Grenzen.

Zündete.: Voevodin V.V., Computational Foundations of Linear Algebra, M., 1977; Shura-Bura M.R., „Applied Mathematics and Mechanicals“, 1952, Bd. 16, Nr. 5, S. 575-88; Bakhvalov N. S., Numerische Methoden, 2. Aufl., M., 1975; Wilkinson J. X., The Algebraic Eigenvalue Problem, trans. aus dem Englischen, M.. 1970; Bakhvalov N. S., im Buch: Computational Methods and Programming, v. 1, M., 1962, S. 69-79; Godunov S.K., Ryabenkiy V.S., Difference schemes, 2. Aufl., M., 1977; Bakhvalov N. S., „Doc. Akademie der Wissenschaften der UdSSR“, 1955, Bd. 104, Nr. 5, S. 683-86; sein, „J. wird rechnen, Mathematik und mathematische Physik“, 1964; Bd. 4, Nr. 3, S. 399-404; Lapshin E. A., ibid., 1971, Bd. 11, Nr. 6, S. 1425-36.

  • - Abweichungen der Messergebnisse von den wahren Werten der Messgröße. Systematisch...
  • - messtechnische Abweichungen Eigenschaften oder Parameter von Messgeräten aus Gedenkstätten, die sich auf die Fehler der Messergebnisse auswirken ...

    Naturwissenschaft. Enzyklopädisches Wörterbuch

  • - Abweichungen der Messergebnisse von den wahren Werten der Messgröße. Sie spielen bei einer Reihe forensischer Untersuchungen eine bedeutende Rolle...

    Forensische Enzyklopädie

  • - : Siehe auch: - Fehler von Messgeräten - Fehler von Messungen...
  • - Sehen...

    Enzyklopädisches Wörterbuch der Metallurgie

  • - Abweichungen der messtechnischen Parameter von Messgeräten von den Nennparametern, die sich auf die Fehler der Messergebnisse auswirken...

    Enzyklopädisches Wörterbuch der Metallurgie

  • - „...Periodische Fehler sind Fehler, deren Wert eine periodische Funktion der Zeit oder der Bewegung des Zeigers des Messgeräts ist …“

    Offizielle Terminologie

  • - „...Permanente Fehler sind Fehler, die über einen langen Zeitraum, beispielsweise während der gesamten Messreihe, ihren Wert behalten. Sie treten am häufigsten auf...“

    Offizielle Terminologie

  • - „...Progressive Fehler sind kontinuierlich zunehmende oder abnehmende Fehler...“

    Offizielle Terminologie

  • - siehe Beobachtungsfehler...

    Enzyklopädisches Wörterbuch von Brockhaus und Euphron

  • - Messfehler, Abweichungen der Messergebnisse von den wahren Werten der gemessenen Größen. Es gibt systematische, zufällige und grobe P. und. ...
  • - Abweichungen der messtechnischen Eigenschaften oder Parameter von Messgeräten von den Nennwerten, die sich auf die Fehler der mit diesen Messgeräten erzielten Messergebnisse auswirken...

    Große sowjetische Enzyklopädie

  • - die Differenz zwischen den Messergebnissen und dem wahren Wert des Messwertes. Der relative Messfehler ist das Verhältnis des absoluten Messfehlers zum wahren Wert...

    Moderne Enzyklopädie

  • - Abweichungen der Messergebnisse von den wahren Werten der gemessenen Größe...

    Großes enzyklopädisches Wörterbuch

  • - Adj., Anzahl der Synonyme: 3 korrigierte beseitigte Ungenauigkeiten beseitigte Fehler...

    Synonymwörterbuch

  • - Adj., Anzahl der Synonyme: 4 korrigiert, Mängel beseitigt, Ungenauigkeiten beseitigt, Fehler beseitigt...

    Synonymwörterbuch

„Anhäufung von Fehlern“ in Büchern

Technische Fehler

Aus dem Buch Stars und ein wenig nervös Autor

Technische Fehler

Aus dem Buch Vain Perfections and Other Vignettes Autor Scholkowski Alexander Konstantinowitsch

Technische Fehler Geschichten über erfolgreichen Widerstand gegen Gewalt sind nicht so unglaubwürdig, wie wir latent befürchten. Ein Angriff setzt in der Regel die Passivität des Opfers voraus und ist daher nur einen Schritt nach vorne gedacht und kann einem Gegenangriff nicht standhalten. Papa hat mir von einem davon erzählt

Sünden und Fehler

Aus dem Buch Wie die NASA Amerika den Mond zeigte von Rene Ralph

Sünden und Irrtümer Trotz aller Fiktion ihrer Weltraumnavigation prahlte die NASA mit erstaunlicher Genauigkeit bei allem, was sie tat. Neunmal in Folge landeten die Apollo-Kapseln perfekt in der Mondumlaufbahn, ohne dass größere Kurskorrekturen erforderlich waren. Mondfähre,

Anfängliche Kapitalakkumulation. Zwangsenteignung der Bauern. Anhäufung von Reichtum.

Autor

Anfängliche Kapitalakkumulation. Zwangsenteignung der Bauern. Anhäufung von Reichtum. Die kapitalistische Produktion setzt zwei Grundbedingungen voraus: 1) die Anwesenheit einer Masse armer Menschen, die persönlich frei und gleichzeitig der Produktionsmittel beraubt sind und

Sozialistische Akkumulation. Akkumulation und Konsum in einer sozialistischen Gesellschaft.

Aus dem Buch Politische Ökonomie Autor Ostrovityanov Konstantin Wassiljewitsch

Sozialistische Akkumulation. Akkumulation und Konsum in einer sozialistischen Gesellschaft. Die Quelle der erweiterten sozialistischen Reproduktion ist die sozialistische Akkumulation. Unter sozialistischer Akkumulation versteht man die Verwendung eines Teils des Nettoeinkommens der Gesellschaft,

Messfehler

TSB

Fehler von Messgeräten

Aus dem Buch Große Sowjetische Enzyklopädie (PO) des Autors TSB

Ultraschallfehler

Aus dem Buch „Thyroid Restoration A Guide for Patients“. Autor Uschakow Andrej Walerjewitsch

Ultraschallfehler Als ein Patient aus St. Petersburg zu einer Konsultation zu mir kam, sah ich drei Ultraschalluntersuchungsberichte gleichzeitig. Alle wurden von verschiedenen Spezialisten hergestellt. Anders beschrieben. Gleichzeitig unterschieden sich die Daten der Studien erheblich voneinander

Anhang 13 Sprachfehler

Aus dem Buch „Die Kunst, sich durchzusetzen“. Autor Stepanow Sergej Sergejewitsch

Anhang 13 Sprachfehler Selbst scheinbar harmlose Formulierungen können oft zu einem ernsthaften Hindernis für den beruflichen Aufstieg werden. Der berühmte amerikanische Marketingspezialist John R. Graham hat eine Liste von Ausdrücken zusammengestellt, deren Verwendung nach seinen Beobachtungen

Sprachfehler

Aus dem Buch „How Much Are You Worth“ [Technologie für eine erfolgreiche Karriere] Autor Stepanow Sergej Sergejewitsch

Sprachfehler Selbst scheinbar harmlose Formulierungen können oft zu einem ernsthaften Hindernis für den beruflichen Aufstieg werden. Der berühmte amerikanische Marketingspezialist John R. Graham hat eine Liste von Ausdrücken zusammengestellt, deren Verwendung seiner Beobachtung nach nicht zulässig war

Katastrophale Fehler

Aus dem Buch Black Swan [Im Zeichen der Unvorhersehbarkeit] Autor Taleb Nassim Nicholas

Verheerende Fehler Fehler haben eine so destruktive Eigenschaft: Je bedeutsamer sie sind, desto größer ist ihre Maskierungswirkung. Niemand sieht tote Ratten, und je tödlicher das Risiko, desto weniger offensichtlich ist es, weil die Opfer von der Zahl der Ratten ausgeschlossen sind Zeugen. Wie

Orientierungsfehler

Aus dem Buch ABC des Tourismus Autor Bardin Kirill Wassiljewitsch

Orientierungsfehler Die übliche Orientierungsaufgabe, die ein Tourist lösen muss, besteht also darin, von einem Punkt zum anderen zu gelangen und dabei nur einen Kompass und eine Karte zu verwenden. Die Gegend ist unbekannt und zudem geschlossen, also frei von allem

Fehler: Philosophie

Aus dem Buch des Autors

Fehler: Philosophie Auf einer intuitiven Ebene verstehen wir, dass unser Wissen in vielen Fällen nicht korrekt ist. Wir können mit Vorsicht davon ausgehen, dass unser Wissen im Allgemeinen nur auf einer diskreten Skala genau sein kann. Sie können genau wissen, wie viele Bälle sich in der Tasche befinden, aber Sie können nicht wissen, wie schwer sie sind.

Fehler: Modelle

Aus dem Buch des Autors

Fehler: Modelle Wenn wir etwas messen, ist es praktisch, die zu Beginn der Messungen verfügbaren Informationen (sowohl bewusst als auch unbewusst) in Form von Modellen eines Objekts oder Phänomens darzustellen. Das „Nullniveau“-Modell ist ein Modell des Vorhandenseins einer Größe. Wir glauben, dass es existiert -

Fehler: was und wie zu kontrollieren ist

Aus dem Buch des Autors

Fehler: was und wie zu kontrollieren ist. Die Wahl der kontrollierten Parameter, des Messschemas, der Methode und des Umfangs der Kontrolle erfolgt unter Berücksichtigung der Ausgangsparameter des Produkts, seines Designs und seiner Technologie sowie der Anforderungen und Bedürfnisse der Person, die die kontrollierten Produkte verwendet . Wieder mal,

Unter Messfehler verstehen wir die Gesamtheit aller Messfehler.

Messfehler können in folgende Typen eingeteilt werden:

Absolut und relativ,

Positiv und negativ,

Konstant und proportional,

Zufällig und systematisch,

Absoluter Fehler A j) ist definiert als die Differenz der folgenden Werte:

A j = j ich- j ist.  j ich - j,

Wo: j i – einzelnes Messergebnis; j ist. – wahres Messergebnis; j– arithmetischer Mittelwert des Messergebnisses (im Folgenden Mittelwert genannt).

Konstante wird als absoluter Fehler bezeichnet, der nicht vom Wert der gemessenen Größe abhängt ( jj).

Fehler proportional , wenn die benannte Abhängigkeit existiert. Die Art des Messfehlers (konstant oder proportional) wird nach speziellen Untersuchungen ermittelt.

Relativer Fehler einzelnes Messergebnis ( IN j) wird als Verhältnis der folgenden Größen berechnet:

Aus dieser Formel folgt, dass die Größe des relativen Fehlers nicht nur von der Größe des absoluten Fehlers abhängt, sondern auch vom Wert der gemessenen Größe. Bleibt der Messwert unverändert ( j) Der relative Messfehler kann nur durch Reduzierung des absoluten Fehlers reduziert werden ( A j). Wenn der absolute Messfehler konstant ist, kann die Technik der Erhöhung des Wertes der Messgröße verwendet werden, um den relativen Messfehler zu verringern.

Das Vorzeichen des Fehlers (positiv oder negativ) wird durch die Differenz zwischen dem einzelnen und dem resultierenden (arithmetischen Mittel) Messergebnis bestimmt:

j ich - j> 0 (Fehler ist positiv );

j ich - j< 0 (Fehler ist negativ ).

Grober Fehler Messung (Fehlschlag) tritt auf, wenn die Messtechnik verletzt wird. Ein Messergebnis, das einen groben Fehler enthält, unterscheidet sich in der Regel deutlich in der Größenordnung von anderen Ergebnissen. Das Vorhandensein grober Messfehler in der Probe wird nur mit Methoden der mathematischen Statistik (mit der Anzahl der Messwiederholungen) festgestellt N>2). Lernen Sie die Methoden kennen, um grobe Fehler selbst zu erkennen.

ZU zufällige Fehler Schließen Sie Fehler ein, die keinen konstanten Wert und Vorzeichen haben. Solche Fehler entstehen unter dem Einfluss folgender Faktoren: dem Forscher unbekannt; bekannt, aber nicht reguliert; ständig ändernd.

Zufällige Fehler können erst nach erfolgter Messung beurteilt werden.

Die folgenden Parameter können eine quantitative Beurteilung des Moduls des zufälligen Messfehlers sein: Stichprobenstreuung von Einzelwerten und der Durchschnittswert; Stichprobe absoluter Standardabweichungen einzelner Werte und Mittelwert; Stichprobe relativer Standardabweichungen einzelner Werte und des Mittelwerts; allgemeine Streuung einzelner Werte usw.

Zufällige Messfehler lassen sich nicht beseitigen, sondern nur reduzieren. Eine der wichtigsten Möglichkeiten, die Größe zufälliger Messfehler zu verringern, besteht darin, die Anzahl (Stichprobengröße) einzelner Messungen zu erhöhen (die Größe zu erhöhen). N). Dies wird durch die Tatsache erklärt, dass die Größe zufälliger Fehler umgekehrt proportional zur Größe ist N, Zum Beispiel:

.

Systematische Fehler – Dies sind Fehler, deren Größe und Vorzeichen unverändert sind oder die nach einem bekannten Gesetz variieren. Diese Fehler werden durch konstante Faktoren verursacht. Systematische Fehler können quantifiziert, reduziert und sogar beseitigt werden.

Systematische Fehler werden in die Fehlertypen I, II und III eingeteilt.

ZU systematische FehlerICHTyp beziehen sich auf Fehler bekannter Herkunft, die vor der Messung durch Berechnung abgeschätzt werden können. Diese Fehler können eliminiert werden, indem sie in Form von Korrekturen in das Messergebnis einfließen. Ein Beispiel für einen solchen Fehler ist ein Fehler bei der titrimetrischen Bestimmung der volumetrischen Konzentration einer Lösung, wenn das Titriermittel bei einer Temperatur hergestellt und die Konzentration bei einer anderen Temperatur gemessen wurde. Wenn man die Abhängigkeit der Titriermitteldichte von der Temperatur kennt, kann man vor der Messung die mit einer Temperaturänderung einhergehende Änderung der Volumenkonzentration des Titriermittels berechnen und diese Differenz als Korrektur berücksichtigen Ergebnis der Messung.

SystematischFehlerIITyp– Hierbei handelt es sich um Fehler bekannter Herkunft, die nur im Rahmen eines Experiments oder als Ergebnis spezieller Untersuchungen beurteilt werden können. Diese Art von Fehlern umfasst instrumentelle (instrumentelle), reaktive, Referenz- und andere Fehler. Lernen Sie die Besonderheiten solcher Fehler selbst kennen.

Wenn jedes Gerät in einem Messverfahren verwendet wird, führt es seine eigenen Instrumentenfehler in das Messergebnis ein. Darüber hinaus sind einige dieser Fehler zufällig und der andere Teil systematisch. Zufällige Instrumentenfehler werden nicht separat bewertet; sie werden in ihrer Gesamtheit mit allen anderen zufälligen Messfehlern bewertet.

Jede Instanz eines Geräts weist ihren eigenen systematischen Fehler auf. Um diesen Fehler beurteilen zu können, müssen spezielle Studien durchgeführt werden.

Der zuverlässigste Weg, den systematischen Fehler von Instrumenten vom Typ II zu beurteilen, besteht darin, den Betrieb der Instrumente anhand von Standards zu überprüfen. Zur Messung von Glaswaren (Pipette, Bürette, Zylinder etc.) wird ein besonderes Verfahren durchgeführt – die Kalibrierung.

In der Praxis geht es meist nicht um die Schätzung, sondern um die Reduzierung oder Eliminierung systematischer Fehler vom Typ II. Die gebräuchlichsten Methoden zur Reduzierung systematischer Fehler sind Relativierungs- und Randomisierungsmethoden.Entdecken Sie diese Methoden selbst unter .

ZU FehlerIIITyp enthalten Fehler unbekannter Herkunft. Diese Fehler können erst erkannt werden, nachdem alle systematischen Fehler der Typen I und II beseitigt wurden.

ZU andere Fehler Berücksichtigen wir alle anderen Arten von Fehlern, die oben nicht besprochen wurden (zulässige, mögliche geringfügige Fehler usw.).

Das Konzept der möglichen maximalen Fehler wird bei der Verwendung von Messgeräten verwendet und geht vom maximal möglichen Wert des instrumentellen Messfehlers aus (der tatsächliche Wert des Fehlers kann kleiner sein als der Wert des möglichen maximalen Fehlers).

Beim Einsatz von Messgeräten können Sie den möglichen maximalen Absolutwert berechnen (
) oder relativ (
) Messfehler. So ergibt sich beispielsweise der mögliche maximale absolute Messfehler als Summe der möglichen maximalen Zufallsfehler (
) und nicht ausgeschlossene systematische (
) Fehler:

=
+

Für kleine Proben ( N20) einer unbekannten Grundgesamtheit, die dem Normalverteilungsgesetz gehorcht, können die zufällig möglichen maximalen Messfehler wie folgt geschätzt werden:

= =
,

Wo: – Konfidenzintervall für die entsprechende Wahrscheinlichkeit R;

–Quantil der Student-t-Verteilung für die Wahrscheinlichkeit R und Proben von N oder mit der Anzahl der Freiheitsgrade F = N – 1.

Der absolut mögliche maximale Messfehler beträgt in diesem Fall:

=
+
.

Wenn die Messergebnisse nicht dem Normalverteilungsgesetz entsprechen, werden die Fehler anhand anderer Formeln bewertet.

Wertermittlung
hängt davon ab, ob das Messgerät eine Genauigkeitsklasse hat. Wenn das Messgerät keine Genauigkeitsklasse hat, dann pro Größe
Sie können den Mindeststaffelpreis akzeptieren(oder die Hälfte davon) Messmittel. Für ein Messgerät mit bekannter Genauigkeitsklasse für den Wert
kann absolut genommen werden zulässig systematischer Fehler des Messgerätes (
):


.

Größe
berechnet anhand der in der Tabelle angegebenen Formeln. 2.

Bei vielen Messgeräten wird die Genauigkeitsklasse in Form von Zahlen angegeben A10 N, Wo A gleich 1; 1,5; 2; 2,5; 4; 5; 6 und N gleich 1; 0; -1; -2 usw., die den Wert des möglichen maximal zulässigen systematischen Fehlers anzeigen (E j , hinzufügen.) und Sonderzeichen, die seinen Typ angeben (relativ, reduziert, konstant, proportional).

Wenn die Komponenten des absoluten systematischen Fehlers des arithmetischen Mittelmessergebnisses bekannt sind (z. B. Gerätefehler, Methodenfehler usw.), kann dieser mithilfe der Formel geschätzt werden

,

Wo: M– die Anzahl der Komponenten des systematischen Fehlers des durchschnittlichen Messergebnisses;

k– Koeffizient bestimmt durch Wahrscheinlichkeit R und Zahl M;

– absoluter systematischer Fehler einer einzelnen Komponente.

Einzelne Komponenten des Fehlers können bei Vorliegen entsprechender Voraussetzungen vernachlässigt werden.

Tabelle 2

Beispiele für die Bezeichnung von Genauigkeitsklassen von Messgeräten

Klassenbezeichnung

Genauigkeit

Berechnungsformel und Wert des maximal zulässigen systematischen Fehlers

Merkmale systematischer Fehler

in der Dokumentation

auf dem Messgerät

Der angegebene zulässige systematische Fehler in Prozent vom Nennwert des Messwerts, der durch die Art der Skala des Messgeräts bestimmt wird

Der angegebene zulässige systematische Fehler in Prozent der Länge der verwendeten Skala des Messgeräts (A) bei der Ermittlung einzelner Werte der Messgröße

Konstanter relativer zulässiger systematischer Fehler als Prozentsatz des erhaltenen Einzelwertes der Messgröße

C = 0,02; D = 0,01

Proportionaler relativer zulässiger systematischer Fehler in Bruchteilen des erhaltenen Einzelwerts des Messwerts, der mit zunehmendem Endwert des Messbereichs eines bestimmten Messgeräts zunimmt ( j k) oder Verringerung des Einheitswerts der gemessenen Größe ( j ich)

Systematische Fehler können vernachlässigt werden, wenn die Ungleichung gilt

0,8.

In diesem Fall akzeptieren sie



.

Zufällige Fehler können unter der Voraussetzung vernachlässigt werden

8.

Ad hoc

.

Um sicherzustellen, dass der Gesamtmessfehler nur durch systematische Fehler bestimmt wird, wird die Anzahl der Wiederholungsmessungen erhöht. Die hierfür erforderliche Mindestanzahl an Wiederholungsmessungen ( N min) kann nur mit einem bekannten Wert der Grundgesamtheit der Einzelergebnisse mithilfe der Formel berechnet werden

.

Die Beurteilung von Messfehlern hängt nicht nur von den Messbedingungen ab, sondern auch von der Art der Messung (direkt oder indirekt).

Die Einteilung der Messungen in direkte und indirekte Messungen ist recht willkürlich. In Zukunft unter direkte Messungen Wir werden Messungen verstehen, deren Werte direkt aus experimentellen Daten entnommen werden, beispielsweise von der Skala eines Instruments abgelesen werden (ein bekanntes Beispiel für eine direkte Messung ist die Temperaturmessung mit einem Thermometer). ZU indirekte Messungen Wir werden diejenigen einbeziehen, deren Ergebnisse auf der Grundlage einer bekannten Beziehung zwischen dem gewünschten Wert und den als Ergebnis direkter Messungen ermittelten Werten erhalten werden. Dabei Ergebnis indirekte Messung durch Berechnung erhalten als Funktionswert , deren Argumente die Ergebnisse direkter Messungen sind ( X 1 ,X 2 , …,X J,. ..., X k).

Sie müssen wissen, dass die Fehler indirekter Messungen immer größer sind als die Fehler einzelner direkter Messungen.

Fehler bei indirekten Messungen werden nach den entsprechenden Gesetzen der Fehlerakkumulation (mit k2).

Gesetz der Akkumulation zufälliger Fehler indirekte Messungen sehen so aus:


.

Gesetz der Akkumulation möglicher maximaler absoluter systematischer Fehler indirekte Messungen werden durch die folgenden Abhängigkeiten dargestellt:

;
.

Gesetz der Akkumulation möglicher limitierender relativer systematischer Fehler indirekte Messungen haben die folgende Form:

;

.

In Fällen, in denen der erforderliche Wert ( j) wird als Funktion der Ergebnisse mehrerer unabhängiger direkter Messungen der Form berechnet
, das Gesetz der Akkumulation der begrenzenden relativen systematischen Fehler indirekter Messungen hat eine einfachere Form:

;
.

Fehler und Unsicherheiten bei Messungen bestimmen deren Genauigkeit, Reproduzierbarkeit und Richtigkeit.

Genauigkeit je höher, desto kleiner ist der Messfehler.

Reproduzierbarkeit Die Messergebnisse werden durch die Reduzierung zufälliger Messfehler verbessert.

Rechts das Messergebnis steigt mit abnehmenden systematischen Restmessfehlern.

Erfahren Sie selbst mehr über die Theorie der Messfehler und deren Merkmale. Ich möchte Sie darauf aufmerksam machen, dass moderne Formen der Darstellung der endgültigen Messergebnisse zwangsläufig die Einbeziehung von Fehlern bzw. Messfehlern (Sekundärdaten) erfordern. In diesem Fall sollten Fehler und Messfehler dargestellt werden Zahlen, die nicht mehr enthalten als zwei bedeutende Persönlichkeiten .

1.2.10. Verarbeitung indirekter Messungen.

Bei indirekten Messungen der gewünschte Wert einer physikalischen Größe Y anhand der Ergebnisse gefunden X 1 , X 2 , … X ich , … X N, direkte Messungen anderer physikalischer Größen, die mit der gewünschten bekannten funktionalen Abhängigkeit φ verbunden sind:

Y= φ( X 1 , X 2 , … X ich , … X N). (1.43)

Vorausgesetzt, dass X 1 , X 2 , … X ich , … X N– Korrigierte Ergebnisse direkter Messungen und methodische Fehler indirekter Messungen können vernachlässigt werden. Das Ergebnis indirekter Messungen kann direkt mithilfe der Formel (1.43) ermittelt werden.

Wenn Δ X 1 , Δ X 2 , … Δ X ich , … Δ X N– Fehler in den Ergebnissen direkter Mengenmessungen X 1 , X 2 , … X ich , … X N, dann der Fehler Δ des Ergebnisses Y Die indirekte Messung in linearer Näherung kann durch die Formel ermittelt werden

Δ = . (1.44)

Begriff

(1.45)

– Komponente des Fehlers im Ergebnis der indirekten Messung, der durch den Fehler Δ verursacht wird X ich Ergebnis X ich Die direkte Messung wird als Teilfehler bezeichnet, und die Näherungsformel (1.44) lautet Gesetz der Anhäufung privater Fehler. (1Q22)

Um den Fehler Δ des Ergebnisses der indirekten Messung abzuschätzen, müssen einige Informationen über den Fehler Δ vorliegen X 1 , Δ X 2 , … Δ X ich , … Δ X N Ergebnisse direkter Messungen.

Normalerweise sind die Grenzwerte der Fehlerkomponenten direkter Messungen bekannt. Zum Beispiel für den Fehler Δ X ich bekannt: die Grenze des Hauptfehlers, die Grenzen zusätzlicher Fehler, die Grenze nicht ausgeschlossener Residuen des systematischen Fehlers usw. Fehler Δ X ich gleich der Summe dieser Fehler:

,

und der Grenzwert dieses Fehlers ΔX ich,п – Summe der Grenzwerte:

. (1.46)

Dann ist der Grenzwert Δ des Fehlers des Ergebnisses der indirekten Messung P = 1 kann mit der Formel ermittelt werden

Δ p =
. (1.47)

Grenzwert Δ g des Fehlers des Ergebnisses der indirekten Messung für die Konfidenzwahrscheinlichkeit P = 0,95 kann mit der Näherungsformel (1,41) ermittelt werden. Unter Berücksichtigung von (1.44) und (1.46) erhalten wir:

. (1.48)

Nach der Berechnung von Δ p oder Δ g sollte das Ergebnis der indirekten Messung in Standardform (bzw. (1.40) bzw. (1.42)) niedergeschrieben werden. (1P3)

FRAGEN:

1. Zur Lösung welcher Probleme werden sie eingesetzt? Messinstrumente? Welche messtechnische Eigenschaften Kennen Sie sich mit Messgeräten aus?

2. Nach welchen Kriterien werden sie klassifiziert? messtechnische Eigenschaften Messinstrumente?

3. Welche Komponente des Fehlers eines Messgeräts heißt? Basic?

4. Welche Komponente des Fehlers eines Messgeräts heißt? zusätzlich?

5. Definieren absoluter, relativer und reduzierter Fehler Messgeräte.

6. Definieren absoluter Fehler des Messumformers für Ein- und Ausgang.

7. Wie würden Sie experimentell feststellen? Fehler des Messumformers am Ein- und Ausgang?

8. Wie sind sie miteinander verbunden? absolute Fehler des Messumformers für Ein- und Ausgang?

9. Definieren additive, multiplikative und nichtlineare Komponenten des Fehlers der Messgeräte.

10. Warum nichtlinearer Anteil des Fehlers der Messeinrichtung manchmal genannt Linearitätsfehler? Wofür Umrechnungsfunktionen von Messumformern es ergibt Sinn?

11. Welche Informationen über den Fehler eines Messgerätes gibt es? Genauigkeitsklasse?

12. Formulieren Gesetz der Akkumulation von Teilfehlern.

13. Formulieren Problem der Fehlersummierung.

15. Was ist korrigierter Wert des Messergebnisses?

16. Was ist das Ziel? Verarbeitung von Messergebnissen?

17. Wie man rechnet GrenzwertΔ p Fehler direktes Messergebnis für Konfidenzwahrscheinlichkeit P= 1 und ee GrenzwertΔ g für P = 0,95?

18. Welche Dimension heißt indirekt? Wie Finden Sie das Ergebnis einer indirekten Messung?

19. Wie man rechnet GrenzwertΔ p Fehler Ergebnis der indirekten Messung für Konfidenzwahrscheinlichkeit P= 1 und ee GrenzwertΔ g für P = 0,95?

20. Nennen Sie Beispiele für methodische Fehler bei direkten und indirekten Messungen.

Tests für Unterabschnitt 1.2 sind in angegeben (1KR1).

LITERATUR für Abschnitt 1.

2. METHODEN ZUR MESSUNG ELEKTRISCHER GRÖSSEN

2.1. Messung von Spannungen und Strömen.

2.1.1. Allgemeine Informationen.

Bei der Auswahl eines Mittels zur Messung elektrischer Spannungen und Ströme ist zunächst Folgendes zu berücksichtigen:

Art der gemessenen physikalischen Größe (Spannung oder Strom);

Das Vorhandensein und die Art der Abhängigkeit des Messwerts von der Zeit über das Beobachtungsintervall (hängt davon ab oder nicht, die Abhängigkeit ist eine periodische oder nichtperiodische Funktion usw.);

Bereich möglicher Werte des Messwertes;

Gemessener Parameter (Durchschnittswert, Effektivwert, Maximalwert über das Beobachtungsintervall, Satz von Momentanwerten über das Beobachtungsintervall usw.);

Frequenzbereich;

Erforderliche Messgenauigkeit;

Maximales Beobachtungszeitintervall.

Darüber hinaus müssen die Wertebereiche der Einflussgrößen (Umgebungstemperatur, Versorgungsspannung des Messgeräts, Ausgangswiderstand der Signalquelle, elektromagnetische Störungen, Vibration, Luftfeuchtigkeit usw.) je nach berücksichtigt werden die Bedingungen des Messversuchs.

Die Bereiche möglicher Spannungs- und Stromwerte sind sehr groß. Beispielsweise können Ströme bei Messung im Weltraum in der Größenordnung von 10 -16 A und in Stromkreisen leistungsstarker Kraftwerke in der Größenordnung von 10 5 A liegen. In diesem Abschnitt geht es hauptsächlich um Messungen von Spannungen und Strömen in den in der Praxis am häufigsten vorkommenden Bereichen: von 10 -6 bis 10 3 V und von 10 -6 bis 10 4 A.

Zur Messung von Spannungen werden analoge (elektromechanische und elektronische) und digitale Verfahren verwendet Voltmeter(2K1), Kompensatoren (Potentiometer) von Gleich- und Wechselstrom, analoge und digitale Oszilloskope und Messsysteme.

Zur Messung von Strömen werden elektromechanische Instrumente eingesetzt. Amperemeter(2K2), und auch Multimeter und Messsysteme, bei denen der gemessene Strom zunächst in eine dazu proportionale Spannung umgewandelt wird. Darüber hinaus wird zur experimentellen Bestimmung von Strömen eine indirekte Methode verwendet, bei der die Spannung gemessen wird, die durch den Stromfluss durch einen Widerstand mit bekanntem Widerstandswert entsteht.

2.1.2. Messung von Gleichspannungen mit elektromechanischen Geräten.

Um Voltmeter zu erstellen, verwenden Sie Folgendes Messmechanismen(2K3): magnetoelektrisch(2K4), elektromagnetisch(2K5), Elektrodynamisch(2K6), ferrodynamisch(2K7) Und elektrostatisch(2K8).

Bei einem magnetoelektrischen Messmechanismus ist das Drehmoment proportional zum Strom in der beweglichen Spule. Um ein Voltmeter zu bauen, wird ein zusätzlicher Widerstand in Reihe mit der Spulenwicklung geschaltet. Die an dieser Reihenschaltung anliegende Messspannung ist proportional zum Strom in der Wicklung; Daher kann die Instrumentenskala in Spannungseinheiten kalibriert werden. Die Richtung des Drehmoments hängt von der Stromrichtung ab, daher muss auf die Polarität der dem Voltmeter zugeführten Spannung geachtet werden.

Eingangsimpedanz R Der Eingang eines magnetoelektrischen Voltmeters hängt vom Endwert ab U auf den Messbereich und den Gesamtabweichungsstrom ICH entsprechend - Strom in der Spulenwicklung, bei dem die Instrumentennadel auf den vollen Skalenwert (auf die Markierung eingestellt) ausschlägt U Zu). Es ist klar, dass

R in = U Zu / ICH Von. (2.1)

Bei Mehrbereichsgeräten wird häufig nicht der Wert normiert R in und aktuell ICH Von. Die Spannung kennen U k für den in diesem Experiment verwendeten Messbereich, der Wert R inx kann mit der Formel (2.1) berechnet werden. Zum Beispiel für ein Voltmeter mit U k = 100 V und ICH um = 1 mA R in = 10 5 Ohm.

Um elektromagnetische, elektrodynamische und ferrodynamische Voltmeter zu bauen, wird eine ähnliche Schaltung verwendet, nur der zusätzliche Widerstand wird in Reihe mit der Wicklung der stationären Spule des elektromagnetischen Messwerks oder mit den Wicklungen der beweglichen und stationären Spulen des elektrodynamischen oder ferrodynamischen Messgeräts geschaltet Messwerke, die zuvor in Reihe geschaltet wurden. Die Gesamtablenkströme sind bei diesen Messwerken meist deutlich höher als bei magnetoelektrischen, daher sind die Eingangswiderstände von Voltmetern geringer.

Elektrostatische Voltmeter verwenden einen elektrostatischen Messmechanismus. Die gemessene Spannung wird zwischen festen und beweglichen Platten angelegt, die voneinander isoliert sind. Der Eingangswiderstand wird durch den Isolationswiderstand bestimmt (ca. 10 9 Ohm).

Die gebräuchlichsten elektromechanischen Voltmeter mit der Genauigkeitsklasse 0,2. 0,5, 1,0, 1,5 ermöglichen die Messung von Gleichspannungen im Bereich von 0,1 bis 10 4 V. Zur Messung hoher Spannungen (normalerweise mehr als 10 3 V) verwenden Spannungsteiler(2K9). Zur Messung von Spannungen unter 0,1 V, magnetoelektrisch Galvanometer(2Q10) und darauf basierende Geräte (z. B. photogalvanometrische Geräte), jedoch ist es ratsamer, digitale Voltmeter zu verwenden.

2.1.3. Messung von Gleichströmen mit elektromechanischen Geräten.

Verwenden Sie Folgendes, um Amperemeter zu erstellen Messmechanismen(2K3): magnetoelektrisch(2K4), elektromagnetisch(2K5), Elektrodynamisch(2K6) Und ferrodynamisch(2K7).

Bei den einfachsten Eingrenzstrommessgeräten besteht der Messstromkreis aus einer Drehspulenwicklung (für ein magnetoelektrisches Messwerk), einer Festspulenwicklung (für ein elektromagnetisches Messwerk) oder in Reihe geschalteten Wicklungen aus Dreh- und Festspulen (z elektrodynamische und ferrodynamische Messmechanismen). Daher enthalten sie im Gegensatz zu Voltmeterschaltungen keinen zusätzlichen Widerstand.

Multi-Limit-Amperemeter basieren auf Single-Limit-Amperemetern und nutzen verschiedene Techniken zur Reduzierung der Empfindlichkeit. Beispielsweise indem der gemessene Strom durch einen Teil der Spulenwicklung geleitet wird oder indem die Spulenwicklungen parallel geschaltet werden. Es werden auch Shunts verwendet – Widerstände mit relativ niedrigen Widerstandswerten, die parallel zu den Wicklungen geschaltet sind.

Die gebräuchlichsten elektromechanischen Amperemeter mit der Genauigkeitsklasse 0,2. 0,5, 1,0, 1,5 ermöglichen die Messung von Gleichströmen im Bereich von 10 -6 bis 10 4 A. Zur Messung von Strömen unter 10 -6 A magnetoelektrisch Galvanometer(2Q10) und darauf basierende Geräte (z. B. photogalvanometrische Geräte).

2.1.4. Messung von Wechselströmen und -spannungen

elektromechanische Geräte.

Elektromechanische Amperemeter und Voltmeter dienen zur Messung der Effektivwerte periodischer Ströme und Spannungen. Zu ihrer Herstellung werden elektromagnetische, elektrodynamische und ferrodynamische sowie elektrostatische (nur bei Voltmetern) Messmechanismen eingesetzt. Darüber hinaus zählen zu den elektromechanischen Amperemetern und Voltmetern auch Geräte, die auf einem magnetoelektrischen Messwerk mit Wechselstrom- oder Spannungs-Gleichstrom-Wandlern (Gleichrichter und thermoelektrische Geräte) basieren.

Die Messkreise elektromagnetischer, elektrodynamischer und ferrodynamischer Amperemeter und Wechselstromvoltmeter unterscheiden sich praktisch nicht von den Schaltkreisen ähnlicher Gleichstromgeräte. Mit all diesen Geräten können sowohl Gleich- als auch Wechselströme und -spannungen gemessen werden.

Der Momentanwert des Drehmoments wird bei diesen Geräten durch das Quadrat des Momentanwerts des Stroms in den Spulenwicklungen bestimmt, und die Position des Zeigers hängt vom Durchschnittswert des Drehmoments ab. Daher misst das Gerät den Effektivwert (rms) des gemessenen periodischen Stroms oder der gemessenen periodischen Spannung, unabhängig von der Form der Kurve. Die gängigsten Amperemeter und Voltmeter mit der Genauigkeitsklasse 0,2. 0,5, 1,0, 1,5 ermöglichen die Messung von Wechselströmen von 10 -4 bis 10 2 A und Spannungen von 0,1 bis 600 V im Frequenzbereich von 45 Hz bis 5 kHz.

Elektrostatische Voltmeter können auch zur Messung sowohl konstanter als auch effektiver Werte von Wechselspannungen verwendet werden, unabhängig von der Kurvenform, da der Momentanwert des Drehmoments bei diesen Geräten durch das Quadrat des Momentanwerts der gemessenen Spannung bestimmt wird. Mit den gängigsten Voltmetern der Genauigkeitsklassen 0,5, 1,0, 1,5 können Sie Wechselspannungen von 1 bis 10 5 V im Frequenzbereich von 20 Hz bis 10 MHz messen.

Magnetoelektrische Amperemeter und Voltmeter, die für den Betrieb in Gleichstromkreisen ausgelegt sind, können die Effektivwerte von Wechselströmen und -spannungen nicht messen. Tatsächlich ist der Momentanwert des Drehmoments in diesen Geräten proportional zum Momentanwert des Stroms in der Spule. Bei einem sinusförmigen Strom ist der Durchschnittswert des Drehmoments und dementsprechend der Instrumentenwert Null. Wenn der Strom in der Spule einen konstanten Anteil hat, ist der Messwert des Geräts proportional zum Durchschnittswert des Stroms in der Spule.

Zur Herstellung von Wechselstrom-Amperemetern und -Voltmetern auf Basis eines magnetoelektrischen Messwerks werden Wechselstrom-Gleichstrom-Wandler auf Basis von Halbleiterdioden oder thermische Wandler eingesetzt. In Abb. In Abb. 2.1 zeigt eine der möglichen Schaltungen des Amperemeters des Gleichrichtersystems und in Abb. 2.2 – thermoelektrisch.

Der im Amperemeter des Gleichrichtersystems gemessene Strom beträgt ich(T) richtet sich auf und durchläuft die Spulenwicklung des magnetoelektrischen Messwerks des IM. Der Instrumentenwert ist proportional zum durchschnittlichen Modul für den Zeitraum T aktueller Wert:

. (2.2)

Bedeutung ICH cp ist proportional zum effektiven Stromwert, der Proportionalitätskoeffizient hängt jedoch von der Art der Funktion ab ich(T). Alle Geräte des Gleichrichtersystems sind auf Effektivwerte von Strömen (oder Spannungen) mit Sinusform kalibriert und nicht für Messungen in Stromkreisen mit Strömen beliebiger Form vorgesehen.

Der im Amperemeter eines thermoelektrischen Systems gemessene Strom beträgt ich(T) durchläuft die Heizung des Wärmewandlers TP. Beim Erhitzen entsteht an den freien Enden des Thermoelements eine Thermo-EMK, die einen Gleichstrom durch die Spulenwicklung des magnetoelektrischen Messwerks des IM verursacht. Der Wert dieses Stroms hängt nichtlinear vom Effektivwert ab ICH gemessener Strom ich(T) und hängt wenig von seiner Form und seinem Spektrum ab.

Stromkreise von Voltmetern von Gleichrichter- und thermoelektrischen Systemen unterscheiden sich von Stromkreisen von Amperemetern durch das Vorhandensein eines zusätzlichen Widerstands, der in Reihe mit dem Stromkreis des gemessenen Stroms geschaltet ist ich(T) und Ausführen der Funktion eines gemessenen Spannungs-Strom-Wandlers.

Mit den gängigsten Amperemetern und Voltmetern des Gleichrichtersystems mit den Genauigkeitsklassen 1,0 und 1,5 können Sie Wechselströme von 10 -3 bis 10 A und Spannungen von 1 bis 600 V im Frequenzbereich von 45 Hz bis 10 kHz messen.

Die gängigsten Amperemeter und Voltmeter thermoelektrischer Systeme mit den Genauigkeitsklassen 1,0 und 1,5 ermöglichen die Messung von Wechselströmen von 10 -4 bis 10 2 A und Spannungen von 0,1 bis 600 V im Frequenzbereich von 1 Hz bis 50 MHz.

Typischerweise werden Geräte von Gleichrichter- und thermoelektrischen Systemen mehrbereichig und kombiniert hergestellt, wodurch sie sowohl zur Messung von Wechsel- als auch Gleichströmen und -spannungen verwendet werden können.

2.1.5. Gleichspannungsmessung

Im Gegensatz zu elektromechanischen analoge Voltmeter(2K11) Elektronische Voltmeter enthalten Spannungsverstärker. Die aussagekräftige Größe der gemessenen Spannung wird bei diesen Geräten in der Spulenwicklung des magnetoelektrischen Messwerks in Gleichstrom umgewandelt (2K4), dessen Skala in Spannungseinheiten unterteilt ist.

Der Verstärker des elektronischen Voltmeters muss in einem bestimmten Frequenzbereich ab einer bestimmten unteren Frequenz eine stabile Verstärkung aufweisen F n nach oben F V. Wenn F n = 0, dann wird ein solcher Verstärker üblicherweise genannt Gleichstromverstärker, und wenn F n > 0 und die Verstärkung ist Null bei F = 0 – AC-Verstärker.

Eine vereinfachte Schaltung eines elektronischen Gleichspannungsmessers besteht aus drei Hauptkomponenten: einem Eingangsspannungsteiler (2K9), einen an seinen Ausgang angeschlossenen Gleichstromverstärker und ein magnetoelektrisches Voltmeter. Ein hochohmiger Spannungsteiler und ein Gleichstromverstärker sorgen für eine hohe Eingangsimpedanz des elektronischen Voltmeters (ca. 1 MΩ). Die Teilungs- und Verstärkungskoeffizienten können diskret angepasst werden, wodurch Voltmeter mit mehreren Messbereichen ausgestattet werden können. Aufgrund der hohen Verstärkung bieten elektronische Voltmeter eine höhere Empfindlichkeit im Vergleich zu elektromechanischen.

Ein Merkmal elektronischer DC-Voltmeter ist Drift der Messwerte– langsame Änderungen der Voltmeterwerte bei konstanter gemessener Spannung (1Q14), verursacht durch Änderungen der Parameter von DC-Verstärkerschaltungselementen. Die Abweichung der Messwerte ist bei der Messung niedriger Spannungen am größten. Daher ist es vor Beginn der Messungen erforderlich, mit speziellen Einstellelementen den Nullwert des Voltmeters bei kurzgeschlossenem Eingang einzustellen.

Legt man an das jeweilige Voltmeter eine periodische Wechselspannung an, so misst dieses aufgrund der Eigenschaften des magnetoelektrischen Messwerks den Gleichanteil dieser Spannung, es sei denn, der Wechselanteil ist zu groß und der Voltmeterverstärker arbeitet im linearen Modus .

Mit den gängigsten analogen elektronischen DC-Voltmetern können Sie Spannungen im Bereich von 10 -6 bis 10 3 V messen. Die Werte der Grenzen des Hauptreduzierfehlers hängen vom Messbereich ab und liegen in der Regel bei ± (0,5 - 5,0). %.

2.1.6. Wechselspannungsmessung

analoge elektronische Voltmeter.

Analoge elektronische Voltmeter werden hauptsächlich zur Messung von Effektivwerten periodischer Spannungen in einem weiten Frequenzbereich verwendet.

Der Hauptunterschied zwischen der elektronischen AC-Voltmeter-Schaltung und der oben diskutierten DC-Voltmeter-Schaltung hängt mit dem Vorhandensein einer zusätzlichen Einheit darin zusammen – einem Wandler der informativen Wechselspannung in Gleichspannung. Solche Wandler werden oft als „Detektoren“ bezeichnet.

Es gibt Detektoren für Amplitude, Durchschnittsgröße und effektive Spannungswerte. Die konstante Spannung am Ausgang des ersten ist proportional zur Amplitude der Spannung an seinem Eingang, die konstante Spannung am Ausgang des zweiten ist proportional zum absoluten Durchschnittswert der Eingangsspannung und der dritte ist proportional zum Effektivwert Wert.

Jede der drei angegebenen Meldergruppen kann wiederum in zwei Gruppen unterteilt werden: Melder mit offenem Eingang und Melder mit geschlossenem Eingang. Bei Detektoren mit offenem Eingang hängt die Ausgangsspannung vom Gleichstromanteil der Eingangsspannung ab, bei Detektoren mit geschlossenem Eingang jedoch nicht. Wenn die Schaltung des elektronischen Voltmeters über einen Detektor mit geschlossenem Eingang oder einen Wechselstromverstärker verfügt, hängen die Messwerte eines solchen Voltmeters natürlich nicht von der Gleichstromkomponente der gemessenen Spannung ab. Der Einsatz eines solchen Voltmeters ist dann von Vorteil, wenn nur der Wechselanteil der gemessenen Spannung nützliche Informationen liefert.

Vereinfachte Diagramme von Amplitudendetektoren mit offenen und geschlossenen Eingängen sind in Abb. 1 dargestellt. 2.3 und 2.4.


Bei Anwendung auf den Eingang eines Amplitudendetektors mit offenem Spannungseingang u(T) = U M sinωt Der Kondensator lädt sich auf Spannung auf U M, wodurch die Diode ausgeschaltet wird. Gleichzeitig wird am Detektorausgang eine konstante Spannung aufrechterhalten U M. Wenn am Eingang eine Spannung beliebiger Form angelegt wird, lädt sich der Kondensator auf den maximalen positiven Wert dieser Spannung auf.

Bei Anwendung auf den Eingang eines Amplitudendetektors mit geschlossenem Spannungseingang u(T) = U M sinωt Der Kondensator wird ebenfalls auf Spannung aufgeladen U M und am Ausgang wird eine Spannung erzeugt u(T) = U M + U M sinωt. Wenn eine solche Spannung oder ein dazu proportionaler Strom an die Spulenwicklung eines magnetoelektrischen Messmechanismus angelegt wird, hängen die Messwerte des Geräts von der konstanten Komponente dieser Spannung ab, gleich U M (2K4). Wenn Spannung am Eingang anliegt u(T) = U Heiraten + U M sinωt, Wo U Heiraten– durchschnittlicher Spannungswert u(T) , lädt sich der Kondensator auf Spannung auf U M + U Heiraten, und die Ausgangsspannung ist eingestellt u(T) = U M + U M sinωt, unabhängig von U Heiraten .

Beispiele für Detektoren mit durchschnittlicher Größe und effektiven Spannungswerten wurden in Unterabschnitt 2.1.4 besprochen (Abb. 2.1 bzw. 2.2).

Detektoren für Amplituden- und Mittelwerte sind einfacher als Effektivwertdetektoren, darauf basierende Voltmeter können jedoch nur zur Messung sinusförmiger Spannungen verwendet werden. Tatsache ist, dass ihre Messwerte je nach Detektortyp proportional zur durchschnittlichen Größe oder Amplitude der gemessenen Spannung sind. Daher können die betrachteten analogen elektronischen Voltmeter nur für eine bestimmte Form der gemessenen Spannung in Effektivwerten kalibriert werden. Dies geschieht für die am häufigsten vorkommende Sinusspannung.

Mit den gängigsten analogen elektronischen Voltmetern können Sie Spannungen von 10 -6 bis 10 3 V im Frequenzbereich von 10 bis 10 9 Hz messen. Die Werte der Grenzen des Hauptreduzierfehlers hängen vom Messbereich und der Frequenz der gemessenen Spannung ab und betragen üblicherweise ± (0,5 – 5,0) %.

Die Messtechnik mit elektronischen Voltmetern unterscheidet sich von der Technik mit elektromechanischen Voltmetern. Dies ist auf das Vorhandensein elektronischer Verstärker mit Gleichstromversorgungen zurückzuführen, die in der Regel über ein Wechselstromnetz betrieben werden.


Wenn Sie Klemme 6 mit der Eingangsklemme 1 des Voltmeters verbinden und beispielsweise Spannung messen U 65, dann wird das Messergebnis durch die Störspannung verfälscht, deren Höhe von den Parametern der Ersatzschaltungen in Abb. abhängt. 2.5 und 2.6.

Bei direkter Spannungsmessung U Unabhängig davon, wie das Voltmeter angeschlossen ist, verfälschen Störungen das Messergebnis. Dies kann durch die indirekte Messung durch Spannungsmessung vermieden werden U 64 und U 65 und rechnen U 54 = U 64 - U 65. Allerdings ist die Genauigkeit einer solchen Messung möglicherweise nicht hoch genug, insbesondere wenn U 64 ≈ U 65 . (2Q12)