Nagromadzenie błędów. Encyklopedia matematyczna, czym jest nagromadzenie błędów, co to znaczy i jak to poprawnie przeliterować

Chemia analityczna

UDC 543.08+543.422.7

PRZEWIDYWANIE BŁĘDÓW FOTOMETRII Z WYKORZYSTANIEM PRAWA AKUMULACJI BŁĘDÓW ORAZ METODY MONTE CARLO

W I. Gołowanow, EM Danilina

W eksperymencie obliczeniowym, wykorzystującym połączenie prawa propagacji błędów i metody Monte Carlo, zbadano wpływ błędów przygotowania roztworów, błędów próby ślepej oraz błędów pomiaru transmisji na właściwości metrologiczne analizy fotometrycznej . Stwierdzono, że wyniki przewidywania błędów metodami analitycznymi i statystycznymi są wzajemnie zgodne. Pokazano, że cechą metody Monte Carlo jest możliwość przewidywania prawa rozkładu błędów w fotometrii. Na przykładzie scenariusza rutynowej analizy rozpatrzono wpływ heteroskedastyczności rozrzutu wzdłuż krzywej kalibracyjnej na jakość analizy.

Słowa kluczowe: analiza fotometryczna, prawo kumulacji błędów, wykres kalibracji, charakterystyki metrologiczne, metoda Monte Carlo, symulacja stochastyczna.

Wstęp

Przewidywanie błędów analizy fotometrycznej opiera się głównie na wykorzystaniu prawa akumulacji błędów (ELL). W przypadku postaci liniowej prawa pochłaniania światła: - 1§T \u003d A \u003d b1s, ZNO zwykle zapisuje się równaniem:

8A _ 8C _ 0,434-10^

„8T-

W tym przypadku przyjmuje się, że odchylenie standardowe pomiaru stopnia transmisji jest stałe w całym zakresie dynamicznym fotometru. Jednocześnie, jak zauważono w , oprócz błędów przyrządowych, na dokładność analizy ma wpływ błąd ślepej próby, błąd ustawienia granic skali przyrządu, błąd kuwety, czynniki chemiczne oraz błąd ustawienie analitycznej długości fali. Czynniki te są uważane za główne źródła błędów w wyniku analizy. Zwykle pomija się wkład w skumulowany błąd dokładności przygotowania roztworów kalibracyjnych.

Widzimy więc, że równanie (1) nie ma istotnej mocy prognostycznej, ponieważ uwzględnia wpływ tylko jednego czynnika. Ponadto równanie (1) jest konsekwencją przybliżonego rozwinięcia prawa absorpcji światła w szereg Taylora. Rodzi to pytanie o jego dokładność, ze względu na zaniedbanie warunków ekspansji powyżej pierwszego rzędu. Analiza matematyczna pozostałości rozkładu wiąże się z trudnościami obliczeniowymi i nie jest wykorzystywana w praktyce analizy chemicznej.

Celem niniejszej pracy jest zbadanie możliwości zastosowania metody Monte Carlo (metody testów statystycznych) jako samodzielnej metody badania i przewidywania kumulacji błędów w analizie fotometrycznej, która uzupełnia i pogłębia możliwości ZNO.

Część teoretyczna

W niniejszej pracy przyjmiemy, że końcowy błąd losowy funkcji kalibracji wynika nie tylko z błędów instrumentalnych pomiaru gęstości optycznej, ale również z błędów ustawienia skali przyrządu na 0 i 100% transmisji (błąd

prosty eksperyment), a także błędy w przygotowaniu roztworów kalibracyjnych. Zaniedbujemy inne źródła błędów wymienione powyżej. Następnie przepisujemy równanie prawa Bouguera-Lamberta-Beera w formie dogodnej do dalszej konstrukcji:

Ay \u003d ks " + A

W tym równaniu c51 jest stężeniem roztworu wzorcowego barwnej substancji, którego porcje (Ya) rozcieńcza się w kolbach o nominalnej objętości Vsp w celu uzyskania kalibracyjnej serii roztworów, Ay jest gęstością optyczną ślepej próby rozwiązanie eksperymentu. Ponieważ podczas fotometrii gęstość optyczna badanych roztworów jest mierzona względem roztworu ślepego, tj. Ay przyjmuje się jako zero warunkowe, to Ay = 0. (Zauważ, że zmierzoną w tym przypadku wartość gęstości optycznej można nazwać warunkową ekstynkcja.) W równaniu (2) bezwymiarowa wielkość c" oznacza stężenie roztworu roboczego wyrażone w jednostkach stężenia wzorca macierzystego. Współczynnik k nazywamy ekstynkcją wzorca, gdyż Ag1 = e1c81 przy c" = 1.

Zastosujmy do wyrażenia (2) operator prawa kumulacji błędów losowych, zakładając, że Ua, Ug i Ay są zmiennymi losowymi. Otrzymujemy:

Inną niezależną zmienną losową, która wpływa na rozrzut wartości A, jest stopień transmisji, ponieważ

A = -1§T, (4)

dlatego do dyspersji po lewej stronie równania (3) dodajemy jeszcze jeden wyraz:

52a \u003d (0,434-10a) H + 8Іbі +

W tym końcowym zapisie prawa akumulacji błędów bezwzględne odchylenia standardowe T, Ay i Yd są stałe, a dla Va względny błąd standardowy jest stały.

Konstruując stochastyczny model funkcji kalibracyjnej w oparciu o metodę Monte Carlo bierzemy pod uwagę, że możliwe wartości x* zmiennych losowych T, Ay, Ua i Yd mają rozkłady zgodne z prawem normalnym. Zgodnie z zasadą Monte Carlo zagramy możliwe wartości metodą funkcji odwrotnej:

X; \u003d M (x1) + p-1 (r]) - inX |, (6)

gdzie M(x) jest wartością oczekiwaną (rzeczywistą) zmiennej, ¥(r^) jest funkcją Laplace'a-Gaussa, q są możliwymi wartościami zmiennej losowej R równomiernie rozłożonej na przedziale (0,1) , czyli liczby losowe, sx - odchylenie standardowe odpowiedniej zmiennej, \ = 1...m - liczba porządkowa niezależnej zmiennej losowej. Po podstawieniu wyrażenia (6) do równań (4) i (2) mamy:

A" \u003d -18Xi \u003d -1810-a + P-1 (g]) 8t,

gdzie A” = „k-+ x2

Obliczenia według równania (7) zwracają osobną implementację funkcji kalibracji, tj. zależność A" od matematycznej wartości oczekiwanej M(s") (wartość nominalna c"). Zatem zapis (7) jest analitycznym wyrażeniem funkcji losowej. Przekroje poprzeczne tej funkcji uzyskuje się przez wielokrotne odtwarzanie liczb losowych w każdym punkcie zależności kalibracyjnej.Próbny zbiór implementacji jest przetwarzany metodami statystyki matematycznej w celu oszacowania ogólnych parametrów kalibracji i testowania hipotez dotyczących właściwości populacji generalnej.

Oczywiście oba rozważane przez nas podejścia do problemu przewidywania charakterystyk metrologicznych w fotometrii – oparte z jednej strony na ZNO, az drugiej na metodzie Monte Carlo – powinny się uzupełniać. W szczególności z równania (5) można otrzymać wynik przy znacznie mniejszej ilości obliczeń w porównaniu z (7), a także uszeregować

obliczyć zmienne losowe według istotności ich wkładu w wynikowy błąd. Ranking pozwala zrezygnować z eksperymentu przesiewowego w testach statystycznych i a priori wykluczyć z rozważań zmienne nieistotne. Równanie (5) jest łatwe do analizy matematycznej w celu oceny charakteru udziału czynników w całkowitej wariancji. Częściowe udziały czynników można podzielić na niezależne od A lub zwiększające się wraz ze wzrostem gęstości optycznej. Dlatego sA jako funkcja A musi być monotonicznie rosnącą zależnością bez minimum. Podczas aproksymacji danych eksperymentalnych za pomocą równania (5) częściowe wkłady tego samego rodzaju będą mieszane, na przykład pojedynczy błąd można zmieszać z błędem próby ślepej. Z drugiej strony, testując statystycznie model metodą Monte Carlo, można zidentyfikować tak ważne właściwości wykresu kalibracyjnego, jak prawo (prawa) rozkładu błędów, a także ocenić szybkość zbieżności szacunki przykładowe do ogólnych. Na podstawie ZNO taka analiza jest niemożliwa.

Opis eksperymentu obliczeniowego

Konstruując model symulacyjny do kalibracji przyjmujemy, że kalibracyjną serię roztworów przygotowano w kolbach miarowych o nominalnej pojemności 50 ml i maksymalnym błędzie +0,05 ml. Do serii kolb dodaj od 1 do 17 ml podstawowego roztworu wzorcowego z błędem pipetowania > 1%. Błędy pomiaru objętości oceniono zgodnie z podręcznikiem. Porcje dodaje się w przyrostach co 1 ml. Łącznie w serii znajduje się 17 rozwiązań, których gęstość optyczna mieści się w przedziale od 0,1 do 1,7 jednostek. Wtedy w równaniu (2) współczynnik k = 5. Błąd próby ślepej przyjmuje się na poziomie 0,01 jednostki. gęstość optyczna. Błędy pomiaru stopnia transmisji wg , zależą tylko od klasy urządzenia i mieszczą się w przedziale od 0,1 do 0,5% T.

W celu lepszego powiązania warunków eksperymentu obliczeniowego z eksperymentem laboratoryjnym wykorzystano dane dotyczące powtarzalności pomiarów gęstości optycznych roztworów K2Cr2O7 w obecności 0,05 M H2SO4 na spektrofotometrze SF-26. Autorzy przybliżają dane eksperymentalne na przedziale A = 0,1 ... 1,5 za pomocą równania paraboli:

sBOCn*103 = 7,9-3,53A + 10,3A2. (8)

Udało się dopasować obliczenia według równania teoretycznego (5) do obliczeń według równania empirycznego (8) metodą optymalizacji Newtona. Stwierdziliśmy, że równanie (5) w sposób zadowalający opisuje eksperyment przy s(T) = 0,12%, s(Abi) = 0,007 i s r(Va) = 1,1%.

Niezależne szacunki błędów podane w poprzednim akapicie są zgodne z tymi znalezionymi podczas dopasowania. Do obliczeń według równania (7) utworzono program w postaci arkusza arkuszy kalkulacyjnych MS Excel. Najbardziej znaczącą cechą naszego programu Excel jest użycie funkcji ROZKŁAD.NORMALNY.ODW(RAND()) do generowania błędów o rozkładzie normalnym, patrz równanie (6). W specjalnej literaturze poświęconej obliczeniom statystycznym w programie Excel szczegółowo opisano narzędzie do generowania liczb losowych, które w wielu przypadkach lepiej zastąpić funkcjami typu ROZKŁAD.NORMALNY.ODW(RAND()). Taka zamiana jest szczególnie wygodna przy tworzeniu własnych programów symulacyjnych Monte Carlo.

Wyniki i ich dyskusja

Zanim przejdziemy do testów statystycznych, oszacujmy udział składników po lewej stronie równania (5) w całkowitej dyspersji gęstości optycznej. W tym celu każdy termin jest normalizowany do całkowitej wariancji. Obliczenia przeprowadzono przy s(T) = 0,12%, s(Aw) = 0,007, Sr(Va)=l,l% i s(Vfi) = 0,05. Wyniki obliczeń przedstawiono na ryc. 1. Widzimy, że udziały w całkowitej wariancji błędów pomiaru Vfl można pominąć.

Natomiast wkłady innej wartości Va

dominują w zakresie gęstości optycznych 0,8__1,2. Wniosek ten nie jest jednak ogólny.

charakter, ponieważ przy pomiarze na fotometrze przy s(T) = 0,5% błędy kalibracji, zgodnie z obliczeniami, określane są głównie przez rozproszenie Ay i rozproszenie T. Na ryc. 2 porównuje względne błędy pomiarów gęstości optycznej przewidywane przez CLN (linia ciągła) i metodą Monte Carlo (ikony). W testach statystycznych krzywa

błędy zostały zrekonstruowane ze 100 realizacji zależności kalibracyjnych (1700 wartości gęstości optycznych). Widzimy, że obie prognozy są wzajemnie zgodne. Punkty są równomiernie zgrupowane wokół teoretycznej krzywej. Jednak nawet przy tak imponującym materiale statystycznym nie obserwuje się pełnej zbieżności. W każdym razie rozproszenie nie pozwala na ujawnienie przybliżonego charakteru choroby przenoszonej drogą płciową, patrz wstęp.

0 0.4 0.8 1.2 1.6

Ryż. 1. Ważone udziały wyrazów równania (5) w wariancji A: 1 - dla Ay; 2 - dla wah; 3 - dla T; 4 - za

Ryż. 2. Krzywa błędów wykresu kalibracji

Z teorii statystyki matematycznej wiadomo, że przy estymacji przedziałowej matematycznej wartości oczekiwanej zmiennej losowej niezawodność estymacji wzrasta, jeśli znane jest prawo rozkładu tej zmiennej. Ponadto w przypadku rozkładu normalnego oszacowanie jest najbardziej efektywne. Dlatego badanie prawa rozkładu błędów na wykresie kalibracyjnym jest ważnym zadaniem. W badaniu takim sprawdzana jest przede wszystkim hipoteza o normalności rozkładu gęstości optycznych w poszczególnych punktach wykresu.

Prostym sposobem sprawdzenia hipotezy głównej jest obliczenie współczynników skośności (a) i współczynników kurtozy (e) rozkładów empirycznych oraz porównanie ich z wartościami kryterialnymi. Wiarygodność wnioskowania statystycznego wzrasta wraz ze wzrostem objętości danych z próby. na ryc. Na fig. 3 przedstawiono sekwencje współczynników dla 17 odcinków funkcji kalibracyjnej. Współczynniki są obliczane na podstawie wyników 100 testów w każdym punkcie. Krytyczne wartości współczynników dla naszego przykładu to |a| = 0,72 i |e| = 0,23.

z ryc. 3, możemy stwierdzić, że dyspersja wartości w punktach wykresu na ogół nie

jest sprzeczne z hipotezą normalności, ponieważ sekwencje współczynników prawie nie mają preferowanej kierunkowości. Współczynniki są losowo zlokalizowane w pobliżu linii zerowej (pokazanej linią przerywaną). Dla rozkładu normalnego, jak wiadomo, wartość oczekiwana współczynnika skośności i współczynnika kurtozy wynosi zero. Sądząc po tym, że dla wszystkich przekrojów współczynniki asymetrii są znacznie niższe od wartości krytycznej, można śmiało mówić o symetrii rozkładu błędów kalibracji. Możliwe, że rozkłady błędów są nieco zaostrzone w porównaniu z krzywą rozkładu normalnego. Wniosek ten wynika z tego, co widać na ryc. 3 małe słupki

Ryż. 3. Współczynniki kurtozy (1) i współczynniki skośności (2) w punktach wykresu kalibracyjnego

żywe przesunięcie centralnej linii współczynników rozpraszania kurtozy. Zatem z badania modelu uogólnionej funkcji kalibracji analizy fotometrycznej metodą Monte Carlo (2) możemy stwierdzić, że rozkład błędów kalibracji jest zbliżony do normalnego. Dlatego obliczenie przedziałów ufności dla wyników analizy fotometrycznej za pomocą współczynników Studenta można uznać za całkiem uzasadnione.

Podczas wykonywania modelowania stochastycznego oszacowano szybkość zbieżności krzywych błędu próbki (patrz rys. 2) z matematycznym oczekiwaniem krzywej. Dla matematycznego oczekiwania krzywej błędu bierzemy krzywą obliczoną na podstawie ZNO. Zbliżenie wyników testów statystycznych przy różnej liczbie realizacji kalibracji n do krzywej teoretycznej będzie szacowane przez współczynnik niepewności 1 - R2. Współczynnik ten charakteryzuje proporcję zmienności w próbie, której nie można opisać teoretycznie. Ustaliliśmy, że zależność współczynnika niepewności od liczby realizacji funkcji kalibracyjnej można opisać równaniem empirycznym I - K2 = -2,3n-1 + 1,6n~/a -0,1. Z równania wynika, że ​​przy n = 213 należy spodziewać się prawie całkowitej zgodności krzywych błędu teoretycznego i empirycznego. Zatem spójne oszacowanie błędów analizy fotometrycznej można uzyskać tylko na dość dużym materiale statystycznym.

Rozważmy możliwości statystycznej metody testowej do przewidywania wyników analizy regresji krzywej kalibracyjnej i wykorzystania krzywej do wyznaczania stężeń roztworów fotometrycznych. Aby to zrobić, jako scenariusz wybieramy sytuację pomiarową rutynowej analizy. Konstrukcja wykresu odbywa się za pomocą pojedynczych pomiarów gęstości optycznych serii roztworów wzorcowych. Stężenie analizowanego roztworu określa się z wykresu na podstawie 3-4 wyników pomiarów równoległych. Przy wyborze modelu regresji należy wziąć pod uwagę fakt, że rozrzut gęstości optycznych w różnych punktach krzywej kalibracyjnej nie jest jednakowy, patrz równanie (8). W przypadku rozproszenia heterocedastycznego zaleca się stosowanie schematu ważonych najmniejszych kwadratów (LLS). W literaturze nie znaleźliśmy jednak jednoznacznych wskazań, dlaczego klasyczny schemat LSM, którego jednym z warunków stosowalności jest wymóg homoskedastycznego spreadu, jest mniej preferowany. Przyczyny te można ustalić, przetwarzając ten sam materiał statystyczny uzyskany metodą Monte Carlo zgodnie ze scenariuszem analizy rutynowej, z dwiema wersjami najmniejszych kwadratów - klasyczną i ważoną.

W wyniku analizy regresji tylko jednej implementacji funkcji kalibracyjnej uzyskano następujące oszacowania metodą najmniejszych kwadratów: k = 4,979 przy Bk = 0,023. Oceniając te same cechy HMNC, otrzymujemy k = 5,000 przy Bk = 0,016. Regresje odtworzono przy użyciu 17 rozwiązań standardowych. Stężenia w serii kalibracyjnej wzrastały w postępie arytmetycznym, a gęstości optyczne zmieniały się równie równomiernie w zakresie od 0,1 do 1,7 jednostek. W przypadku HMLC wagi statystyczne punktów krzywej kalibracyjnej wyznaczono stosując dyspersje obliczone z równania (5).

Wariancje oszacowań dla obu metod są statystycznie nie do odróżnienia za pomocą testu Fishera na poziomie istotności 1%. Jednak na tym samym poziomie istotności oszacowanie LLS dla k różni się od oszacowania LLS kryterium 1j. Oszacowanie metodą najmniejszych kwadratów współczynnika krzywej kalibracyjnej jest obciążone względem rzeczywistej wartości M(k) = 5,000, oceniając testem 1> na poziomie istotności 5%. Podczas gdy ważona metoda najmniejszych kwadratów daje oszacowanie, które nie zawiera błędu systematycznego.

Zobaczmy teraz, jak zaniedbanie heteroskedastyczności może wpłynąć na jakość analizy chemicznej. W tabeli przedstawiono wyniki eksperymentu symulacyjnego na analizie 17 próbek kontrolnych barwnej substancji o różnych stężeniach. Ponadto każda seria analityczna obejmowała cztery rozwiązania, tj. dla każdej próbki wykonano cztery równoległe oznaczenia. Do przetworzenia wyników wykorzystano dwie różne zależności kalibracyjne: jedną odtworzono metodą prostych najmniejszych kwadratów, a drugą metodą ważoną. Uważamy, że roztwory kontrolne zostały przygotowane do analizy dokładnie w taki sam sposób, jak roztwory kalibracyjne.

Z tabeli widać, że rzeczywiste wartości stężeń roztworów kontrolnych zarówno w przypadku HMNC, jak i w przypadku MNC nie wykraczają poza przedziały ufności, czyli wyniki analiz nie zawierają istotnych błędów systematycznych. Błędy krańcowe obu metod nie różnią się statystycznie, innymi słowy, oba oszacowania

Porównanie wyników oznaczania stężeń ma taką samą skuteczność. Z-

rozwiązań kontrolnych dwiema metodami, tutaj możemy stwierdzić, że kiedy

W rutynowych analizach zastosowanie prostego, nieważonego schematu najmniejszych kwadratów jest w pełni uzasadnione. Użycie WMNC jest preferowane, jeśli zadaniem badawczym jest jedynie określenie ekstynkcji molowej. Z drugiej strony należy pamiętać, że nasze wnioski mają charakter statystyczny. Prawdopodobne jest, że wraz ze wzrostem liczby równoległych oznaczeń hipoteza o bezstronnych oszacowaniach stężeń metodą najmniejszych kwadratów nie zostanie potwierdzona, nawet jeśli błędy systematyczne są nieistotne z praktycznego punktu widzenia.

Wystarczająco wysoka jakość analizy opartej na prostym klasycznym schemacie najmniejszych kwadratów, którą znaleźliśmy, wydaje się szczególnie nieoczekiwana, jeśli weźmiemy pod uwagę fakt, że w zakresie gęstości optycznych 0,1 h - 1,7 obserwuje się bardzo silną heteroskedastyczność. Stopień heterogeniczności danych można ocenić na podstawie funkcji wagi, którą dobrze przybliża wielomian w = 0,057A2 - 0,193A + 0,173. Z równania tego wynika, że ​​w skrajnych punktach kalibracji wagi statystyczne różnią się ponad 20-krotnie. Zwróćmy jednak uwagę, że funkcje kalibracyjne zostały zrekonstruowane z 17 punktów wykresu, podczas gdy podczas analizy wykonano tylko 4 równoległe oznaczenia. Dlatego istotną różnicę między funkcjami kalibracyjnymi najmniejszych kwadratów i HLLS, które znaleźliśmy, oraz niewielką różnicę w wynikach analizy przy użyciu tych funkcji można wytłumaczyć znacząco różną liczbą stopni swobody, które były dostępne podczas konstruowania wniosków statystycznych.

Wniosek

1. Zaproponowano nowe podejście do modelowania stochastycznego w analizie fotometrycznej w oparciu o metodę Monte Carlo i prawo kumulacji błędów z wykorzystaniem arkusza kalkulacyjnego Excel.

2. Na podstawie 100 implementacji zależności kalibracyjnej wykazano, że predykcja błędów metodami analitycznymi i statystycznymi jest wzajemnie zgodna.

3. Zbadano współczynniki asymetrii i kurtozy wzdłuż krzywej kalibracyjnej. Stwierdzono, że zmiany błędów kalibracji są zgodne z prawem rozkładu zbliżonym do normalnego.

4. Rozważono wpływ heteroskedastyczności rozrzutu gęstości optycznych podczas kalibracji na jakość analizy. Stwierdzono, że w rutynowych analizach zastosowanie prostego nieważonego schematu najmniejszych kwadratów nie prowadzi do zauważalnego spadku dokładności wyników analiz.

Literatura

1. Bernstein, IYa. Analiza spektrofotometryczna w chemii organicznej / I.Ya. Bernstein, Yu.L. Kamiński. - L.: Chemia, 1986. - 200 s.

2. Bułatow, MI Praktyczny przewodnik po fotometrycznych metodach analizy / M.I. Bułatow, I.P. Kalinkin. - L.: Chemia, 1986. - 432 s.

3. Gmurman, VE Teoria prawdopodobieństwa i statystyka matematyczna / V.E. Gmurman. - M.: Szkoła wyższa, 1977. - 470 s.

Liczba s", s", znaleziona (P = 95%)

n/i ustawione przez OLS VMNK

1 0,020 0,021±0,002 0,021±0,002

2 0,040 0,041±0,001 0,041±0,001

3 0,060 0,061±0,003 0,061±0,003

4 0,080 0,080±0,004 0,080±0,004

5 0,100 0,098±0,004 0,098±0,004

6 0,120 0,122±0,006 0,121±0,006

7 0,140 0,140±0,006 0,139±0,006

8 0,160 0,163±0,003 0,162±0,003

9 0,180 0,181±0,006 0,180±0,006

10 0,200 0,201±0,002 0,200±0,002

11 0,220 0,219±0,008 0,218±0,008

12 0,240 0,242±0,002 0,241±0,002

13 0,260 0,262±0,008 0,261±0,008

14 0,280 0,281±0,010 0,280±0,010

15 0,300 0,307±0,015 0,306±0,015

16 0,320 0,325±0,013 0,323±0,013

17 0,340 0,340±0,026 0,339±0,026

4. Pravdin, P.V. Instrumenty i wyposażenie laboratoryjne wykonane ze szkła / P.V. Prawdin. - M.: Chemia, 1988.-336 s.

5. Makarova, N.V. Statystyki w Excelu / N.V. Makarova, V.Ya. Trofimety. - M.: Finanse i statystyka, 2002. - 368 s.

PRZEWIDYWANIE BŁĘDÓW W FOTOMETRII Z WYKORZYSTANIEM PRAWA AKUMULACJI BŁĘDÓW I METODĄ MONTE CARLO

W trakcie eksperymentu obliczeniowego, w połączeniu z prawem akumulacji błędów i metodą Monte Carlo, zbadano wpływ błędów rozwiązania, błędów próby ślepej i błędów pomiaru transmisji optycznej na metrologiczne wykonanie analizy fotometrycznej. Wykazano, że wyniki predykcji metodami analitycznymi i statystycznymi są ze sobą spójne. Stwierdzono, że unikalną cechą metody Monte Carlo jest możliwość przewidywania nawarstwiania się prawa błędów w fotometrii. Dla wersji analizy rutynowej zbadano wpływ heteroskedastyczności dyspersji wzdłuż krzywej kalibracyjnej na analizę jakości.

Słowa kluczowe: analiza fotometryczna, prawo akumulacji błędów, krzywa kalibracji, właściwości metrologiczne, metoda Monte Carlo, modelowanie stochastyczne.

Gołowanow Władimir Iwanowicz – dr. Sc. (Chemia), profesor, kierownik Zakładu Chemii Analitycznej, Uniwersytet Stanowy Uralu Południowego.

Golovanov Vladimir Ivanovich - doktor nauk chemicznych, profesor, kierownik Katedry Chemii Analitycznej, South Ural State University.

E-mail: [e-mail chroniony]

Danilina Elena Ivanovna - dr (chemia), profesor nadzwyczajny, Zakład Chemii Analitycznej, Uniwersytet Stanowy Południowego Uralu.

Danilina Elena Ivanovna - dr (chemia), profesor nadzwyczajny, Wydział Chemii Analitycznej, Uniwersytet Stanowy Uralu Południowego.

w numerycznym rozwiązaniu równań algebraicznych - sumaryczny wpływ zaokrągleń dokonywanych w poszczególnych krokach procesu obliczeniowego na dokładność wynikowego rozwiązania liniowego równania algebraicznego. systemy. Najpowszechniejszą metodą szacowania a priori całkowitego wpływu błędów zaokrągleń w metodach numerycznych algebry liniowej jest tzw. schemat. analiza odwrotna. W zastosowaniu do rozwiązania układu algebraicznego liniowego równania

schemat analizy odwrotnej jest następujący. Rozwiązanie xui obliczone metodą bezpośrednią nie spełnia (1), ale może być reprezentowane jako dokładne rozwiązanie układu zaburzonego

Jakość metody bezpośredniej jest szacowana przez najlepsze oszacowanie a priori, jakie można podać dla norm macierzy i wektora. Takie "najlepsze" i tzw. odpowiednio macierz i wektor równoważnego zaburzenia dla metody M.

Jeśli szacunki dla i są dostępne, to teoretycznie błąd przybliżonego rozwiązania można oszacować na podstawie nierówności

Oto numer warunku macierzy A i zakłada się, że norma macierzy w (3) jest podporządkowana normie wektorowej

W rzeczywistości oszacowanie jest rzadko znane, a głównym znaczeniem (2) jest możliwość porównania jakości różnych metod. Poniżej przedstawiono kilka typowych oszacowań dla macierzy Dla metod z transformacjami ortogonalnymi i arytmetyką zmiennoprzecinkową (w systemie (1) A i b są uznawane za poprawne)

W tym oszacowaniu względna dokładność arytmetyki. obsługa komputera, jest normą macierzy euklidesowej, f(n) jest funkcją postaci , gdzie n jest rzędem systemu. Dokładne wartości stałej C wykładnika k wyznaczają takie szczegóły procesu obliczeniowego, jak metoda zaokrąglania, stosowanie kumulacji iloczynów skalarnych itp. Najczęściej k=1 lub 3/2.

W przypadku metod typu Gaussa prawa strona oszacowania (4) zawiera również współczynnik , który odzwierciedla możliwość wzrostu elementów macierzy Ana w krokach pośrednich metody w stosunku do poziomu początkowego (taki wzrost jest nieobecny w metodach ortogonalnych). Aby zmniejszyć wartość , stosuje się różne metody doboru elementu wiodącego, które zapobiegają zwiększaniu się elementów macierzy.

Dla metoda pierwiastkowa, która jest zwykle stosowana w przypadku dodatnio określonej macierzy A, uzyskuje się najsilniejsze oszacowanie

Istnieją metody bezpośrednie (Jordan, bordering, conjugate gradients), dla których bezpośrednie zastosowanie schematu analizy odwrotnej nie prowadzi do efektywnych oszacowań. W tych przypadkach w badaniu N. p. stosuje się również inne względy (patrz -).

Oświetlony.: Givens W., "TJ. S. Atomic Energy Commiss. Repts. Ser. OR NL", 1954, nr 1574; Wilkinson, JH, Błędy zaokrąglania w procesach algebraicznych, L., 1963; Wilkinson J.

XD Ikramov.

Np. zaokrąglenia lub błędy metody powstają przy rozwiązywaniu problemów, których rozwiązanie jest wynikiem dużej liczby kolejno wykonywanych działań arytmetycznych. operacje.

Znaczna część takich problemów jest związana z rozwiązywaniem problemów algebraicznych. problemów, liniowych lub nieliniowych (patrz wyżej). Z kolei wśród algebraicznych problemów, najczęstsze problemy pojawiają się podczas aproksymacji równań różniczkowych. Zadania te charakteryzują się pewnymi specyficznymi cechami. osobliwości.

NP metody rozwiązania problemu podlega tym samym lub prostszym prawom, co NP błędu obliczeniowego; N., str. Metoda jest badana przy ocenie metody rozwiązania problemu.

Podczas badania nagromadzenia błędów obliczeniowych wyróżnia się dwa podejścia. W pierwszym przypadku uważa się, że błędy obliczeniowe na każdym kroku są wprowadzane w najbardziej niekorzystny sposób i uzyskuje się oszacowanie błędu głównego. W drugim przypadku błędy te są uważane za przypadkowe z pewnym prawem dystrybucji.

Charakter N. p. zależy od rozwiązywanego problemu, metody rozwiązania i szeregu innych czynników, które na pierwszy rzut oka mogą wydawać się nieistotne; obejmuje to formę zapisu liczb w komputerze (stałoprzecinkową lub zmiennoprzecinkową), kolejność wykonywania działań arytmetycznych. operacje itp. Na przykład w problemie obliczania sumy N liczb

ważna jest kolejność wykonywania operacji. Niech obliczenia zostaną przeprowadzone na maszynie zmiennoprzecinkowej z t bitami i wszystkimi liczbami mieszczącymi się w obrębie . W przypadku bezpośredniego obliczenia przy użyciu formuły rekurencyjnej oszacowanie głównego błędu jest rzędu 2-tN. Możesz zrobić inaczej (patrz). Podczas obliczania sum parami (Jeśli N=2l+1 dziwne) załóżmy . Następnie obliczane są ich sumy parami i tak dalej.

uzyskać oszacowanie dużego błędu zamówienia

W typowych problemach ilości Na obliczane są według wzorów, w szczególności powtarzalnych, lub są wprowadzane sekwencyjnie do pamięci głównej komputera; w takich przypadkach zastosowanie opisanej techniki prowadzi do zwiększenia obciążenia pamięci komputera. Istnieje jednak możliwość zorganizowania sekwencji obliczeń w taki sposób, aby obciążenie pamięci RAM nie przekroczyło -log 2 N komórek.

W numerycznym rozwiązaniu równań różniczkowych możliwe są następujące przypadki. Ponieważ krok siatki h dąży do zera, błąd rośnie gdzie . Takie metody rozwiązywania problemów są klasyfikowane jako niestabilne. Ich użycie jest epizodyczne. postać.

Metody stabilne charakteryzują się wzrostem błędu as Błąd takich metod jest zwykle szacowany w następujący sposób. Równanie jest konstruowane w odniesieniu do zakłócenia wprowadzonego przez zaokrąglenie lub błędy metody, a następnie badane jest rozwiązanie tego równania (patrz , ).

W bardziej złożonych przypadkach stosuje się metodę zaburzeń równoważnych (patrz , ), opracowaną w związku z problemem badania kumulacji błędów obliczeniowych w rozwiązywaniu równań różniczkowych (patrz , , ). Obliczenia według jakiegoś schematu obliczeń z zaokrągleniami są traktowane jako obliczenia bez zaokrągleń, ale dla równania z zaburzonymi współczynnikami. Porównując rozwiązanie pierwotnego równania siatki z rozwiązaniem równania z zaburzonymi współczynnikami, uzyskuje się oszacowanie błędu.

Dużą wagę przywiązuje się do wyboru metody, o ile to możliwe, o mniejszych wartościach q i A(h) . Dzięki ustalonej metodzie rozwiązywania problemu wzory obliczeniowe można zwykle przekształcić do postaci gdzie (patrz , ). Jest to szczególnie ważne w przypadku równań różniczkowych zwyczajnych, gdzie liczba kroków w niektórych przypadkach okazuje się bardzo duża.

Wartość (h) może silnie rosnąć wraz ze wzrostem przedziału całkowania. Dlatego starają się w miarę możliwości stosować metody o mniejszej wartości A(h) . W przypadku problemu Cauchy'ego błąd zaokrąglenia na każdym konkretnym kroku w odniesieniu do kolejnych kroków można uznać za błąd w warunku początkowym. Zatem infimum (h) zależy od charakterystyki rozbieżności bliskich rozwiązań równania różniczkowego określonego równaniem wariacyjnym.

W przypadku numerycznego rozwiązania równania różniczkowego zwyczajnego równanie w odmianach ma postać

a zatem przy rozwiązywaniu problemu na segmencie ( x 0 , X) nie można liczyć na to, że stała A(h) w głównym estymacie błędu obliczeniowego będzie znacząco lepsza niż

Dlatego przy rozwiązywaniu tego problemu najczęściej stosuje się metody jednoetapowe typu Runge-Kutty lub metody typu Adamsa (patrz , ), gdzie N.p. jest głównie określane przez rozwiązanie równania w wariacjach.

W przypadku wielu metod główny składnik błędu metody kumuluje się zgodnie z podobnym prawem, podczas gdy błąd obliczeniowy kumuluje się znacznie szybciej (patrz ). Obszar praktyczny Stosowalność takich metod okazuje się znacznie węższa.

Nagromadzenie błędu obliczeniowego zasadniczo zależy od metody zastosowanej do rozwiązania problemu siatki. Na przykład, rozwiązując problemy z wartościami brzegowymi siatki odpowiadające równaniom różniczkowym zwyczajnym metodami strzelania i wymiatania, N. p. ma znak A (h) h-q, gdzie q jest takie samo. Wartości A(h) dla tych metod mogą różnić się na tyle, że w pewnej sytuacji jedna z metod staje się niemożliwa do zastosowania. Rozwiązując problem wartości brzegowej siatki dla równania Laplace'a metodą strzelania, N. p. ma charakter s 1/h , s>1, aw przypadku metody przemiatania Ah-q. W probabilistycznym podejściu do badania N. p. w niektórych przypadkach przyjmuje się a priori jakieś prawo rozkładu błędów (patrz ), w innych przypadkach wprowadza się miarę na przestrzeni rozważanych problemów i na podstawie na tej mierze uzyskuje się prawo rozkładu błędu zaokrąglania (patrz , ).

Przy umiarkowanej dokładności rozwiązania problemu podejścia majorantowe i probabilistyczne do szacowania nagromadzenia błędów obliczeniowych zwykle dają jakościowo te same wyniki: albo w obu przypadkach NP mieści się w dopuszczalnych granicach, albo w obu przypadkach NP przekracza te granice .

Oświetlony.: Voevodin VV, Obliczeniowe podstawy algebry liniowej, M., 1977; Shura-Bura MR, „Matematyka stosowana i mechanika”, 1952, t. 16, nr 5, s. 575-88; Bakhvalov N. S., Metody numeryczne, wyd. 2, M., 1975; Wilkinson J. X., Algebraiczny problem wartości własnej, przeł. z angielskiego, M.. 1970; Bakhvalov N. S., w książce: Metody obliczeniowe i programowanie, w. 1, M., 1962, s. 69-79; Godunov S. K., Ryaben'kiy V. S., Schematy różnicowe, wyd. 2, M., 1977; Bakhvalov N. S., „Raporty Akademii Nauk ZSRR”, 1955, t. 104, nr 5, s. 683-86; jego własny, „J. Calculate, Mathematics and Mathematics of Physics”, 1964; t. 4, nr 3, s. 399-404; Lapshin E. A., ibid., 1971, t. 11, nr 6, s. 1425-36.

  • - odchylenia wyników pomiarów od prawdziwych wartości wielkości mierzonej. Układ...
  • - odchylenia metrologiczne. właściwości lub parametry przyrządów pomiarowych od pogrzebowych, wpływające na błędy wyników pomiarów...

    Naturalna nauka. słownik encyklopedyczny

  • - odchylenia wyników pomiaru od prawdziwych wartości wielkości mierzonej. Odgrywają znaczącą rolę w produkcji wielu badań kryminalistycznych ...

    Encyklopedia kryminalistyczna

  • - : Zobacz też: - błędy przyrządów pomiarowych - błędy pomiarów...
  • - Patrzeć...

    Słownik encyklopedyczny metalurgii

  • - odchylenia parametrów metrologicznych przyrządów pomiarowych od nominalnych, mające wpływ na błędy wyników pomiarów...

    Słownik encyklopedyczny metalurgii

  • - "...błędy okresowe - błędy, których wartość jest okresową funkcją czasu lub ruchu wskazówki przyrządu pomiarowego.....

    Oficjalna terminologia

  • - "...Błędy stałe to błędy, które zachowują swoją wartość przez długi czas np. podczas całej serii pomiarów. Występują one najczęściej.....

    Oficjalna terminologia

  • - "...Błędy progresywne - ciągle rosnące lub malejące błędy...

    Oficjalna terminologia

  • - patrz Błędy obserwacji...

    Słownik encyklopedyczny Brockhausa i Euphron

  • - błędy pomiaru, odchylenia wyników pomiarów od prawdziwych wartości mierzonych wielkości. Rozróżnij systematyczne, przypadkowe i szorstkie P. i. ...
  • - odchylenia właściwości metrologicznych lub parametrów przyrządów pomiarowych od nominalnych, mające wpływ na błędy wyników pomiarów uzyskiwanych przy użyciu tych przyrządów...

    Wielka radziecka encyklopedia

  • - różnica między wynikami pomiarów a rzeczywistą wartością wielkości mierzonej. Względny błąd pomiaru to stosunek bezwzględnego błędu pomiaru do wartości prawdziwej ...

    Współczesna encyklopedia

  • - odchylenia wyników pomiarów od prawdziwych wartości wielkości mierzonej...

    Duży słownik encyklopedyczny

  • - przym., liczba synonimów: 3 poprawione wyeliminowane nieścisłości wyeliminowane błędy ...

    Słownik synonimów

  • - przym., liczba synonimów: 4 poprawianie, eliminowanie błędów, eliminowanie nieścisłości, eliminowanie błędów ...

    Słownik synonimów

„KUMULACJA BŁĘDÓW” w książkach

Błędy techniczne

Z książki Gwiazdy i trochę zdenerwowany autor

Błędy techniczne

Z książki Próżne doskonałości i inne winiety autor Żółkowski Aleksander Konstantynowicz

Techniczne nieścisłości Opowieści o skutecznym opieraniu się sile nie są tak naciągane, jak się obawiamy. Uderzenie zwykle zakłada bierność ofiary, dlatego jest przemyślane tylko o krok do przodu i nie wytrzymuje kontrataku. Tata opowiedział mi o jednym

Grzechy i błędy

Z książki Jak NASA pokazała Ameryce księżyc autor René Ralph

Grzechy i nieścisłości Pomimo fikcyjnego charakteru ich nawigacji kosmicznej, NASA szczyciła się niesamowitą dokładnością we wszystkim, co robiła. Dziewięć razy z rzędu kapsuły Apollo wylądowały idealnie na orbicie księżycowej bez potrzeby większych korekt kursu. moduł księżycowy,

początkowa akumulacja kapitału. Przymusowe wywłaszczenie chłopów. Akumulacja bogactwa.

autor

początkowa akumulacja kapitału. Przymusowe wywłaszczenie chłopów. Akumulacja bogactwa. Produkcja kapitalistyczna zakłada dwa podstawowe warunki: 1) obecność masy ludzi biednych, osobiście wolnych i jednocześnie pozbawionych środków produkcji, oraz

Akumulacja socjalistyczna. Akumulacja i konsumpcja w społeczeństwie socjalistycznym.

Z książki Ekonomia polityczna autor Ostrowitanow Konstantin Wasiljewicz

Akumulacja socjalistyczna. Akumulacja i konsumpcja w społeczeństwie socjalistycznym. Źródłem rozszerzonej socjalistycznej reprodukcji jest socjalistyczna akumulacja. Akumulacja socjalistyczna to wykorzystanie części dochodu netto społeczeństwa,

Błędy pomiaru

TSB

Błędy przyrządów pomiarowych

Z książki Wielka radziecka encyklopedia (PO) autora TSB

Błędy USG

Z książki Odzyskiwanie tarczycy Przewodnik dla pacjentów autor Uszakow Andriej Waleriewicz

Błędy USG Kiedy pacjentka przyjechała do mnie z Petersburga na konsultację, zobaczyłam od razu trzy protokoły badania USG. Wszystkie zostały wykonane przez różnych specjalistów. Opisane inaczej. Jednocześnie terminy studiów różniły się od siebie niemalże

Załącznik 13 Błędy mowy

Z książki Sztuka zdobywania własnego autor Stiepanow Siergiej Siergiejewicz

Załącznik 13 Błędy językowe Nawet pozornie niegroźne sformułowania często mogą stać się poważną przeszkodą w awansie. Słynny amerykański specjalista ds. Marketingu John R. Graham sporządził listę wyrażeń, których użycie, zgodnie z jego obserwacjami,

Błędy mowy

Z książki Ile jesteś wart [Technologia dla udanej kariery] autor Stiepanow Siergiej Siergiejewicz

Błędy językowe Nawet pozornie niegroźne sformułowania często mogą stać się poważną przeszkodą w promocji. Słynny amerykański specjalista ds. Marketingu John R. Graham sporządził listę wyrażeń, których użycie, zgodnie z jego obserwacjami, nie pozwoliło

fatalne błędy

Z książki Czarny łabędź [Pod znakiem nieprzewidywalności] autor Taleb Nassim Mikołaj

Śmiertelne błędy Błędy mają taką destrukcyjną właściwość: im bardziej znaczące, tym większy efekt maskujący.Nikt nie widzi martwych szczurów, a zatem im bardziej śmiertelne ryzyko, tym mniej oczywiste, ponieważ ofiary są wyłączone z liczby świadków . Jak

Błędy orientacji

Z książki ABC turystyki autor Bardin Cyryl Wasiljewicz

Błędy orientacji Częstym problemem związanym z orientacją, który turysta musi rozwiązać, jest przedostanie się z jednego punktu do drugiego przy użyciu jedynie kompasu i mapy. Okolica jest nieznana iw dodatku zamknięta, czyli pozbawiona jakichkolwiek

Błędy: filozofia

Z książki autora

Błędy: filozofia Na poziomie intuicyjnym rozumiemy, że nasza wiedza w wielu przypadkach nie jest dokładna. Możemy ostrożnie założyć, że nasza wiedza w ogóle może być dokładna tylko w dyskretnej skali. Możesz dokładnie wiedzieć, ile piłek jest w torbie, ale nie możesz wiedzieć, jaka jest ich waga,

Niepewności: modele

Z książki autora

Błędy: modele Kiedy coś mierzymy, wygodnie jest przedstawić informacje (zarówno świadome, jak i nieświadome) dostępne w momencie rozpoczęcia pomiarów w postaci modeli obiektu lub zjawiska. Model „poziomu zerowego” jest modelem posiadania ilości. Wierzymy, że ona jest -

Błędy: co i jak kontrolować

Z książki autora

Błędy: co i jak kontrolować Wybór kontrolowanych parametrów, schematu pomiarowego, sposobu i zakresu kontroli dokonywany jest z uwzględnieniem parametrów wyjściowych wyrobu, jego konstrukcji i technologii, wymagań i potrzeb użytkownika wyrobów kontrolowanych . Jeszcze raz,

Przez błąd pomiaru rozumiemy sumę wszystkich błędów pomiaru.

Błędy pomiarowe można podzielić na następujące rodzaje:

bezwzględny i względny,

pozytywny i negatywny,

stała i proporcjonalna,

Losowo i systematycznie

Absolutny błąd A y) definiuje się jako różnicę między następującymi wartościami:

A y = y I- y ist.  y ja- y,

Gdzie: y i jest pojedynczym wynikiem pomiaru; y ist. – prawdziwy wynik pomiaru; y– średnia arytmetyczna wartości wyniku pomiaru (dalej średnia).

Stały nazywamy błędem bezwzględnym, który nie zależy od wartości wielkości mierzonej ( yy).

Błąd proporcjonalny , jeśli nazwana zależność istnieje. Charakter błędu pomiaru (stały lub proporcjonalny) określa się po specjalnych badaniach.

Względny błąd pojedynczy wynik pomiaru ( W y) oblicza się jako stosunek następujących wielkości:

Z wzoru tego wynika, że ​​wielkość błędu względnego zależy nie tylko od wielkości błędu bezwzględnego, ale także od wartości wielkości mierzonej. Gdy zmierzona wartość pozostaje niezmieniona ( y) względny błąd pomiaru można zmniejszyć tylko poprzez zmniejszenie błędu bezwzględnego ( A y). Gdy bezwzględny błąd pomiaru jest stały, aby zmniejszyć względny błąd pomiaru, można zastosować metodę zwiększania wartości mierzonej wielkości.

O znaku błędu (dodatnim lub ujemnym) decyduje różnica między pojedynczym a otrzymanym (średnią arytmetyczną) wynikiem pomiaru:

y ja- y> 0 (błąd jest dodatni );

y ja- y< 0 (błąd jest ujemny ).

Gruby błąd pomiar (chybienie) występuje w przypadku naruszenia procedury pomiarowej. Wynik pomiaru zawierający błąd gruby zwykle znacznie różni się wielkością od innych wyników. Obecność dużych błędów pomiaru w próbce jest ustalana tylko metodami statystyki matematycznej (z liczbą powtórzeń pomiaru N>2). Zapoznaj się z metodami wykrywania rażących błędów we własnym zakresie.

DO przypadkowe błędy zawierać błędy, które nie mają stałej wartości i znaku. Błędy takie występują pod wpływem następujących czynników: nieznanych badaczowi; znane, ale nieuregulowane; ciągle zmieniający się.

Błędy losowe można oszacować dopiero po wykonaniu pomiarów.

Następujące parametry mogą służyć jako ilościowe oszacowanie modułu wielkości losowego błędu pomiaru: wariancja próbki pojedynczych wartości i wartość średnia; przykładowe bezwzględne odchylenia standardowe pojedynczych wartości i średniej; przykładowe względne odchylenia standardowe pojedynczych wartości i średniej; ogólna wariancja wartości jednostkowych), odpowiednio itp.

Przypadkowych błędów pomiaru nie można wykluczyć, można je jedynie zmniejszyć. Jednym z głównych sposobów zmniejszenia wielkości przypadkowego błędu pomiaru jest zwiększenie liczby (wielkości próby) pojedynczych pomiarów (wzrost wartości N). Wyjaśnia to fakt, że wielkość błędów losowych jest odwrotnie proporcjonalna do wielkości N, Na przykład:

.

Systematyczne błędy są błędami o stałej wielkości i znaku lub zmiennymi zgodnie ze znanym prawem. Błędy te są spowodowane stałymi czynnikami. Błędy systematyczne można określić ilościowo, zredukować, a nawet wyeliminować.

Błędy systematyczne dzielą się na błędy typu I, II i III.

DO błędy systematyczneItyp odnoszą się do błędów o znanym pochodzeniu, które można oszacować za pomocą obliczeń przed pomiarem. Błędy te można wyeliminować wprowadzając je do wyniku pomiaru w postaci poprawek. Przykładem tego typu błędu jest błąd miareczkowego określenia stężenia objętościowego roztworu, jeśli titrant przygotowano w jednej temperaturze, a stężenie zmierzono w innej. Znając zależność gęstości titranta od temperatury można obliczyć zmianę stężenia objętościowego titranta związaną ze zmianą jego temperatury przed pomiarem i uwzględnić tę różnicę jako poprawkę w wyniku pomiar.

SystematycznybłędyIItyp to błędy o znanym pochodzeniu, które można ocenić jedynie podczas eksperymentu lub w wyniku specjalnych badań. Ten typ błędu obejmuje błędy instrumentalne (instrumentalne), reaktywne, referencyjne i inne. Sam zapoznaj się z cechami takich błędów.

Każde urządzenie użyte w procedurze pomiarowej wprowadza do wyniku pomiaru swoje błędy instrumentalne. Jednocześnie część z tych błędów jest przypadkowa, a część systematyczna. Przypadkowe błędy przyrządu nie są oceniane oddzielnie, są oceniane razem ze wszystkimi innymi przypadkowymi błędami pomiarowymi.

Każde wystąpienie dowolnego instrumentu ma swój własny systematyczny błąd. Aby ocenić ten błąd, konieczne jest przeprowadzenie specjalnych badań.

Najbardziej niezawodnym sposobem oceny instrumentalnego błędu systematycznego typu II jest sprawdzenie działania przyrządu względem standardów. W przypadku przyrządów pomiarowych (pipet, biuret, cylindrów itp.) przeprowadza się specjalną procedurę - kalibrację.

W praktyce najczęściej wymagane jest nie oszacowanie, ale zmniejszenie lub wyeliminowanie błędu systematycznego II rodzaju. Najbardziej powszechnymi metodami ograniczania błędów systematycznych są: metody relatywizacji i randomizacji.Sprawdź te metody na stronie .

DO błędyIIItyp zawierają błędy niewiadomego pochodzenia. Błędy te można wykryć dopiero po wyeliminowaniu wszystkich błędów systematycznych typu I i II.

DO inne błędy uwzględnimy wszystkie inne rodzaje błędów nieuwzględnionych powyżej (dopuszczalne, możliwe błędy marginalne itp.).

Pojęcie możliwych błędów granicznych jest stosowane w przypadkach używania przyrządów pomiarowych i zakłada maksymalny możliwy instrumentalny błąd pomiaru (rzeczywista wartość błędu może być mniejsza niż wartość możliwego błędu brzeżnego).

Podczas korzystania z przyrządów pomiarowych możliwe jest obliczenie możliwego bezwzględnego limitu (
) lub krewny (
) błąd pomiaru. Na przykład możliwy graniczny bezwzględny błąd pomiaru jest obliczany jako suma możliwego granicznego błędu losowego (
) i niewykluczone systematyczne (
) błędy:

=
+

Dla małych próbek ( N20) nieznanej populacji ogólnej podlegającej prawu rozkładu normalnego, możliwe przypadkowe krańcowe błędy pomiaru można oszacować w następujący sposób:

= =
,

Gdzie: jest przedziałem ufności dla odpowiedniego prawdopodobieństwa R;

jest kwantylem rozkładu Studenta dla prawdopodobieństwa R i wielkości próbki N lub z liczbą stopni swobody F = N – 1.

Bezwzględny możliwy graniczny błąd pomiaru w tym przypadku będzie równy:

=
+
.

Jeśli wyniki pomiarów nie są zgodne z prawem rozkładu normalnego, wówczas błąd szacuje się za pomocą innych wzorów.

Definicja ilości
zależy od tego, czy przyrząd pomiarowy ma klasę dokładności. Jeśli przyrząd pomiarowy nie ma klasy dokładności, to dla wartości
możesz wziąć minimalny podział ceny na skali(lub jego połowę) środków miary. Dla przyrządu pomiarowego o znanej klasie dokładności dla wartości
można przyjąć jako absolutne dozwolony błąd systematyczny przyrządu pomiarowego (
):


.

Wartość
obliczone na podstawie wzorów podanych w tabeli. 2.

W przypadku wielu przyrządów pomiarowych klasa dokładności jest wskazywana w postaci liczb A10 N, Gdzie A jest równy 1; 1,5; 2; 2,5; 4; 5; 6 i N jest równy 1; 0; -1; -2 itd., które pokazują wartość możliwego maksymalnego dopuszczalnego błędu systematycznego (E y , dodać.) oraz specjalne znaki wskazujące na jego typ (względny, zredukowany, stały, proporcjonalny).

Jeżeli znane są składowe bezwzględnego błędu systematycznego średniej arytmetycznej wyniku pomiaru (na przykład błąd przyrządu, błąd metody itp.), Można go oszacować za pomocą wzoru

,

Gdzie: M jest liczbą składowych błędu systematycznego średniego wyniku pomiaru;

k- współczynnik określony przez prawdopodobieństwo R i numer M;

jest bezwzględnym błędem systematycznym pojedynczego składnika.

Poszczególne składowe błędu można pominąć przy spełnieniu odpowiednich warunków.

Tabela 2

Przykłady oznaczania klas dokładności przyrządów pomiarowych

Oznaczenie klasy

dokładność

Wzór obliczeniowy i wartość maksymalnego dopuszczalnego błędu systematycznego

Charakterystyka błędu systematycznego

w dokumentacji

na przyrządzie pomiarowym

Zmniejszony dopuszczalny błąd systematyczny jako procent wartości nominalnej wielkości mierzonej, który jest określony przez rodzaj podziałki przyrządu pomiarowego

Podany dopuszczalny błąd systematyczny jako procent długości zastosowanej skali przyrządu pomiarowego (A) przy uzyskiwaniu pojedynczych wartości mierzonej wielkości

Stały względny dopuszczalny błąd systematyczny jako procent uzyskanej wartości jednostkowej mierzonej wielkości

C = 0,02; D = 0,01

Proporcjonalny względny dopuszczalny błąd systematyczny w ułamkach uzyskanej wartości jednostkowej wielkości mierzonej, który wzrasta wraz ze wzrostem wartości końcowej zakresu pomiarowego przez ten przyrząd pomiarowy ( y k) lub spadek wartości jednostkowej wielkości mierzonej ( y I)

Błędy systematyczne można pominąć, jeśli nierówność

0,8.

W tym przypadku weź



.

Przypadkowe błędy można pominąć, pod warunkiem

8.

Doraźnie

.

Aby całkowity błąd pomiaru był określony tylko przez błędy systematyczne, zwiększa się liczbę powtarzanych pomiarów. Wymagana minimalna liczba powtarzanych pomiarów ( N min) można obliczyć tylko ze znaną wartością ogólnej populacji pojedynczych wyników za pomocą wzoru

.

Ocena błędów pomiarowych zależy nie tylko od warunków pomiaru, ale również od rodzaju pomiaru (bezpośredni lub pośredni).

Podział pomiarów na bezpośrednie i pośrednie jest raczej warunkowy. Później pod pomiary bezpośrednie będziemy rozumieć pomiary, których wartości są pobierane bezpośrednio z danych eksperymentalnych, np. są odczytywane ze skali urządzenia (dobrze znanym przykładem pomiaru bezpośredniego jest pomiar temperatury termometrem). DO pomiary pośrednie będziemy przypisywać takie, których wynik uzyskuje się na podstawie znanej zależności między wartością pożądaną a wartościami wyznaczonymi w wyniku bezpośrednich pomiarów. W której wynik pomiar pośredni otrzymane w drodze kalkulacji jako wartość funkcji , którego argumenty są wynikami bezpośrednich pomiarów ( X 1 ,X 2 , …,X J,. …, X k).

Trzeba wiedzieć, że błędy pomiarów pośrednich są zawsze większe niż błędy poszczególnych pomiarów bezpośrednich.

Błędy pomiarów pośrednich są szacowane zgodnie z odpowiednimi prawami akumulacji błędów (z k2).

Prawo kumulacji przypadkowych błędów pomiary pośrednie przedstawiają się następująco:


.

Prawo akumulacji możliwych granicznych bezwzględnych błędów systematycznych pomiary pośrednie reprezentują następujące zależności:

;
.

Prawo akumulacji możliwych granicznych względnych błędów systematycznych pomiary pośrednie mają postać:

;

.

W przypadkach, gdy żądana wartość ( y) oblicza się jako funkcję wyników kilku niezależnych bezpośrednich pomiarów formy
, prawo akumulacji granicznych względnych błędów systematycznych pomiarów pośrednich przyjmuje prostszą postać:

;
.

Błędy i pomyłki pomiarowe decydują o ich dokładności, powtarzalności i poprawności.

Dokładność im wyższy, tym mniejszy błąd pomiaru.

Powtarzalność wyniki pomiarów poprawiają się wraz ze spadkiem przypadkowych błędów pomiaru.

Prawidłowy wyniku pomiaru rośnie wraz ze spadkiem resztkowych błędów systematycznych pomiaru.

Dowiedz się więcej o teorii błędów pomiarowych i ich cechach. Zwracam uwagę na fakt, że nowoczesne formy prezentacji końcowych wyników pomiarów z konieczności wymagają redukcji błędów lub błędów pomiarowych (danych wtórnych). W takim przypadku należy przedstawić błędy i pomyłki pomiarowe liczby które nie zawierają więcej dwie cyfry znaczące .

1.2.10. Przetwarzanie pomiarów pośrednich.

Przy pomiarach pośrednich pożądana wartość wielkości fizycznej Y znaleźć na podstawie wyników X 1 , X 2 , … X I , … X N, bezpośrednie pomiary innych wielkości fizycznych związanych z pożądaną znaną zależnością funkcjonalną φ:

Y= φ( X 1 , X 2 , …X I , … X N). (1.43)

Przy założeniu, że X 1 , X 2 , … X I , … X N są skorygowanymi wynikami pomiarów bezpośrednich, a błędy metodologiczne pomiarów pośrednich można pominąć, wynik pomiarów pośrednich można znaleźć bezpośrednio ze wzoru (1.43).

Jeśli Δ X 1 , Δ X 2 , … Δ X I , … Δ X N– błędy w wynikach bezpośrednich pomiarów wielkości X 1 , X 2 , … X I , … X N, to błąd Δ wyniku Y pomiar pośredni w przybliżeniu liniowym można znaleźć za pomocą wzoru

Δ = . (1.44)

termin

(1.45)

jest składową błędu pośredniego wyniku pomiaru, spowodowaną błędem Δ X I wynik X I pomiar bezpośredni - nazywa się błędem cząstkowym, a przybliżony wzór (1.44) - prawo kumulacji błędów cząstkowych. (1K22)

Aby oszacować błąd Δ wyniku pomiaru pośredniego, konieczne jest posiadanie pewnych informacji o błędach Δ X 1 , Δ X 2 , … Δ X I , … Δ X N wyniki pomiarów bezpośrednich.

Zwykle znane są wartości graniczne składowych błędów pomiarów bezpośrednich. Na przykład dla błędu Δ X I znane: granica błędu podstawowego, granice błędów dodatkowych, granica niewykluczonych reszt błędu systematycznego itp. Błąd Δ X I jest równa sumie tych błędów:

,

oraz wartość graniczną tego błędu ΔX I,p - suma granic:

. (1.46)

Następnie wartość graniczna Δ p błędu wyniku pomiaru pośredniego P = 1 można znaleźć za pomocą wzoru

Δ str =
. (1.47)

Wartość graniczna Δ g błędu wyniku pomiaru pośredniego dla poziomu ufności P = 0,95 można znaleźć za pomocą przybliżonego wzoru (1,41). Uwzględniając (1.44) i (1.46) otrzymujemy:

. (1.48)

Po obliczeniu Δ p lub Δ g wynik pomiaru pośredniego należy zapisać w postaci wzorcowej (odpowiednio (1,40) lub (1,42)). (1P3)

PYTANIA:

1. Do jakich zadań są używane urządzenia pomiarowe? Który charakterystyki metrologiczne Sprzęt pomiarowy, który znasz?

2. Według jakich kryteriów są klasyfikowane charakterystyki metrologiczne urządzenia pomiarowe?

3. Jak nazywa się składowa błędu przyrządu pomiarowego podstawowy?

4. Jak nazywa się składowa błędu przyrządu pomiarowego dodatkowy?

5. Zdefiniuj błędy bezwzględne, względne i zredukowane urządzenia pomiarowe.

6. Zdefiniuj błąd bezwzględny przetwornika pomiarowego na wejściu i wyjściu.

7. Jak eksperymentalnie określiłbyś błędy przetwornika pomiarowego dla wejścia i wyjścia?

8. Jak wzajemnie połączone błędy bezwzględne przetwornika pomiarowego dla wejścia i wyjścia?

9. Zdefiniuj addytywne, multiplikatywne i nieliniowe składowe błędów urządzeń pomiarowych.

10. Dlaczego nieliniowa składowa błędu sprzętu pomiarowego Czasami nazywany błąd liniowości? Dla którego funkcje konwersji przetworników to ma sens?

11. Jakie informacje o błędzie przyrządu pomiarowego podaje klasa dokładności?

12. Sformułuj prawo kumulacji błędów cząstkowych.

13. Sformułuj problem sumowania błędów.

15. Co to jest skorygowana wartość wyniku pomiaru?

16. Jaki jest cel przetwarzanie wyników pomiarów?

17. Jak obliczyć wartość granicznaΔ str błędy bezpośredni wynik pomiaru dla poziomu ufności P= 1 i jego wartość granicznaΔ g dla P = 0,95?

18. Jak nazywa się pomiar pośredni? Jak znaleźć wynik pomiaru pośredniego?

19. Jak obliczyć wartość granicznaΔ str błędy pośredni wynik pomiaru dla poziomu ufności P= 1 i jego wartość granicznaΔ g dla P = 0,95?

20. Podaj przykłady błędów metodologicznych pomiarów bezpośrednich i pośrednich.

Prace kontrolne na podrozdziale 1.2 podano w (1KR1).

ODNIESIENIA do sekcji 1.

2. METODY POMIARU WIELKOŚCI ELEKTRYCZNYCH

2.1. Pomiar napięć i prądów.

2.1.1. Informacje ogólne.

Wybierając sposób pomiaru napięć i prądów elektrycznych, należy przede wszystkim wziąć pod uwagę:

Rodzaj mierzonej wielkości fizycznej (napięcie lub prąd);

Obecność i charakter zależności wartości mierzonej od czasu w przedziale obserwacji (zależy lub nie, zależność jest funkcją okresową lub nieokresową itp.);

Zakres możliwych wartości mierzonej wartości;

Mierzony parametr (wartość średnia, wartość efektywna, wartość maksymalna w przedziale obserwacji, zbiór wartości chwilowych w przedziale obserwacji itp.);

Zakres częstotliwości;

Wymagana dokładność pomiaru;

Maksymalny przedział czasu obserwacji.

Ponadto należy uwzględnić zakresy wartości wielkości wpływających (temperatura powietrza otoczenia, napięcie zasilania przyrządu pomiarowego, impedancja wyjściowa źródła sygnału, zakłócenia elektromagnetyczne, wibracje, wilgotność itp.), w zależności od warunków eksperymentu pomiarowego.

Zakresy możliwych wartości napięć i prądów są bardzo szerokie. Na przykład prądy mogą być rzędu 10-16 A mierzone w przestrzeni i rzędu 10 5 A - w obwodach potężnych elektrowni. W tym rozdziale omówiono głównie pomiary napięć i prądów w najczęściej spotykanych w praktyce zakresach: od 10 -6 do 10 3 V i od 10 -6 do 10 4 A.

Do pomiaru napięć, analogowych (elektromechanicznych i elektronicznych) oraz cyfrowych woltomierze(2K1), kompensatory DC i AC (potencjometry), oscyloskopy analogowe i cyfrowe oraz układy pomiarowe.

Do pomiaru prądu, elektromechaniczny amperomierze(2K2), I multimetry oraz układy pomiarowe, w których mierzony prąd jest najpierw przetwarzany na proporcjonalne do niego napięcie. Ponadto do eksperymentalnego wyznaczania prądów stosuje się metodę pośrednią, mierząc napięcie wywołane przepływem prądu przez rezystor o znanej rezystancji.

2.1.2. Pomiary napięć stałych przyrządami elektromechanicznymi.

Aby utworzyć woltomierze, użyj następujących elementów mechanizmy pomiarowe(2K3): magnetoelektryczny(2K4), elektromagnetyczny(2K5), elektrodynamiczny(2K6), ferrodynamiczny(2K7) I elektrostatyczny(2K8).

W magnetoelektrycznym mechanizmie pomiarowym moment obrotowy jest proporcjonalny do prądu w ruchomej cewce. Aby zbudować woltomierz szeregowo z uzwojeniem cewki, dołączony jest dodatkowy opór. Zmierzone napięcie przyłożone do tego połączenia szeregowego jest proporcjonalne do prądu w uzwojeniu; dlatego skala instrumentu może być wyskalowana w jednostkach napięcia. Kierunek momentu obrotowego zależy od kierunku prądu, dlatego należy zwrócić uwagę na polaryzację napięcia przyłożonego do woltomierza.

Impedancja wejściowa R wejście woltomierza magnetoelektrycznego zależy od wartości końcowej u do zakresu pomiarowego i całkowitego prądu odchylającego I on - prąd w uzwojeniu cewki, przy którym strzałka urządzenia odchyla się do pełnej skali (zostanie ustawiona na znaku u Do). To oczywiste

R w = u Do / I Przez. (2.1)

W instrumentach z wieloma limitami wartość jest często znormalizowana R w i aktualne I Przez. Znając napięcie u k dla zakresu pomiarowego użytego w tym eksperymencie, wartość R w można obliczyć ze wzoru (2.1). Na przykład dla woltomierza z u k = 100 V i I po = 1 mA R w = 10 5 omów.

Do budowy woltomierzy elektromagnetycznych, elektrodynamicznych i ferrodynamicznych stosuje się podobny obwód, tylko dodatkowy opór jest połączony szeregowo z uzwojeniem nieruchomej cewki elektromagnetycznego mechanizmu pomiarowego lub z uzwojeniami ruchomej i nieruchomej cewki elektrodynamicznego lub ferrodynamicznego mechanizmy pomiarowe wcześniej połączone szeregowo. Całkowite prądy odchylające dla tych mechanizmów pomiarowych są zwykle znacznie wyższe niż dla magnetoelektryków, więc rezystancje wejściowe woltomierzy są mniejsze.

Woltomierze elektrostatyczne wykorzystują elektrostatyczny mechanizm pomiarowy. Mierzone napięcie przykładane jest pomiędzy nieruchomą i ruchomą płytkę odizolowaną od siebie. Rezystancja wejściowa jest określana przez rezystancję izolacji (około 10 9 omów).

Najpopularniejsze woltomierze elektromechaniczne o klasach dokładności 0,2. 0,5, 1,0, 1,5 pozwalają na pomiar napięć stałych w zakresie od 0,1 do 10 4 V. Do pomiaru dużych napięć (zwykle powyżej 10 3 V) służą dzielniki napięcia(2K9). Do pomiaru napięć mniejszych niż 0,1 V, magnetoelektryczny galwanometry(2K10) i oparte na nich urządzenia (na przykład urządzenia fotogalwanometryczne), ale bardziej celowe jest stosowanie woltomierzy cyfrowych.

2.1.3. Pomiar prądów stałych przyrządami elektromechanicznymi.

Aby utworzyć amperomierze, użyj następujących elementów mechanizmy pomiarowe(2K3): magnetoelektryczny(2K4), elektromagnetyczny(2K5), elektrodynamiczny(2K6) I ferrodynamiczny(2K7).

W najprostszych amperomierzach jednogranicznych mierzony obwód prądowy składa się z uzwojenia cewki ruchomej (dla magnetoelektrycznego mechanizmu pomiarowego), uzwojenia cewki nieruchomej (dla elektromagnetycznego mechanizmu pomiarowego) lub połączonych szeregowo uzwojeń cewki ruchomej i stałej (dla elektrodynamicznych i ferrodynamiczne mechanizmy pomiarowe). Tak więc, w przeciwieństwie do obwodów woltomierza, nie mają one dodatkowych rezystancji.

Amperomierze wielograniczne zbudowane są na bazie amperomierzy jednogranicznych, wykorzystując różne techniki zmniejszania czułości. Na przykład przepuszczanie zmierzonego prądu przez część uzwojenia cewki lub równoległe uzwojenie cewki. Stosowane są również boczniki - rezystory o stosunkowo niskich rezystancjach, połączone równolegle z uzwojeniami.

Najpopularniejsze amperomierze elektromechaniczne o klasach dokładności 0,2. 0,5, 1,0, 1,5 pozwalają mierzyć prądy stałe w zakresie od 10 -6 do 10 4 A. Do pomiaru prądów mniejszych niż 10 -6 A można użyć magnetoelektrycznego galwanometry(2K10) oraz oparte na nich urządzenia (np. urządzenia fotogalwanometryczne).

2.1.4. Pomiar prądów i napięć przemiennych

urządzenia elektromechaniczne.

Amperomierze i woltomierze elektromechaniczne służą do pomiaru wartości skutecznych okresowych prądów i napięć. Do ich tworzenia stosuje się elektromagnetyczne, elektrodynamiczne i ferrodynamiczne, a także elektrostatyczne (tylko dla woltomierzy) mechanizmy pomiarowe. Ponadto wśród amperomierzy i woltomierzy elektromechanicznych znajdują się również przyrządy oparte na magnetoelektrycznym mechanizmie pomiarowym z przetwornikami prądu przemiennego lub napięcia na prąd stały (prostowniki i przyrządy termoelektryczne).

Obwody pomiarowe amperomierzy elektromagnetycznych, elektrodynamicznych i ferrodynamicznych oraz woltomierzy AC praktycznie nie różnią się od obwodów podobnych przyrządów prądu stałego. Wszystkie te urządzenia mogą służyć do pomiaru zarówno prądu stałego, jak i przemiennego oraz napięcia.

Chwilowa wartość momentu obrotowego w tych urządzeniach jest określona przez kwadrat wartości chwilowej prądu w uzwojeniach cewki, a położenie wskazówki zależy od średniej wartości momentu obrotowego. Dzięki temu przyrząd mierzy wartość skuteczną (rms) mierzonego prądu okresowego lub napięcia, niezależnie od kształtu krzywej. Najpopularniejsze amperomierze i woltomierze o klasach dokładności 0,2. 0,5, 1,0, 1,5 pozwalają na pomiar prądów przemiennych od 10 -4 do 10 2 A i napięć od 0,1 do 600 V w zakresie częstotliwości od 45 Hz do 5 kHz.

Woltomierzy elektrostatycznych można również używać do pomiaru zarówno stałych, jak i skutecznych wartości napięć przemiennych, niezależnie od kształtu krzywej, ponieważ chwilowa wartość momentu obrotowego w tych urządzeniach jest określana przez kwadrat wartości chwilowej mierzonego napięcia . Najpopularniejsze woltomierze o klasach dokładności 0,5, 1,0, 1,5 pozwalają na pomiar napięć przemiennych od 1 do 10,5 V w zakresie częstotliwości od 20 Hz do 10 MHz.

Amperomierze i woltomierze magnetoelektryczne przeznaczone do pracy w obwodach prądu stałego nie mogą mierzyć wartości skutecznych prądów i napięć przemiennych. Rzeczywiście chwilowa wartość momentu obrotowego w tych urządzeniach jest proporcjonalna do chwilowej wartości prądu w cewce. Przy prądzie sinusoidalnym średnia wartość momentu obrotowego i odpowiednio odczyt przyrządu wynosi zero. Jeżeli prąd w cewce ma składową stałą, to odczyt przyrządu jest proporcjonalny do średniej wartości prądu w cewce.

Do tworzenia amperomierzy i woltomierzy prądu zmiennego opartych na magnetoelektrycznym mechanizmie pomiarowym stosuje się przetwornice AC-DC oparte na diodach półprzewodnikowych lub przetworniki termiczne. na ryc. 2.1 pokazuje jeden z możliwych obwodów amperomierza układu prostownika, a na ryc. 2.2 - termoelektryczny.

W amperomierzu układu prostownika mierzony prąd I(T) prostuje się i przechodzi przez uzwojenie cewki magnetoelektrycznego mechanizmu pomiarowego IM. Odczyt urządzenia jest proporcjonalny do średniego modulo dla okresu T Aktualna wartość:

. (2.2)

Oznaczający I cp jest proporcjonalne do wartości skutecznej prądu, jednak współczynnik proporcjonalności zależy od rodzaju funkcji I(T). Wszystkie urządzenia układu prostownika są kalibrowane w wartościach skutecznych prądów (lub napięć) o postaci sinusoidalnej i nie są przeznaczone do pomiarów w obwodach z prądami o dowolnym kształcie.

W amperomierzu układu termoelektrycznego mierzony prąd I(T) przechodzi przez grzałkę konwertera termicznego TP. Po podgrzaniu na wolnych końcach termopary powstaje termo-EMF, powodując przepływ prądu stałego przez uzwojenie cewki magnetoelektrycznego mechanizmu pomiarowego IM. Wartość tego prądu zależy nieliniowo od wartości skutecznej I mierzony prąd I(T) i niewiele zależy od jego kształtu i spektrum.

Obwody woltomierza prostowników i układów termoelektrycznych różnią się od obwodów amperomierza obecnością dodatkowej rezystancji włączonej szeregowo do obwodu mierzonego prądu I(T) i działając jako przetwornik mierzonego napięcia na prąd.

Najpopularniejsze amperomierze i woltomierze układu prostownikowego o klasach dokładności 1,0 i 1,5 pozwalają na pomiar prądów przemiennych od 10 -3 do 10 A oraz napięć od 1 do 600 V w zakresie częstotliwości od 45 Hz do 10 kHz.

Najpopularniejsze amperomierze i woltomierze układów termoelektrycznych o klasach dokładności 1,0 i 1,5 umożliwiają pomiar prądów przemiennych od 10 -4 do 10 2 A i napięć od 0,1 do 600 V w zakresie częstotliwości od 1 Hz do 50 MHz.

Zwykle urządzenia prostowników i układów termoelektrycznych są wielozakresowe i łączone, co pozwala na ich stosowanie do pomiaru zarówno prądów przemiennych, jak i stałych oraz napięć.

2.1.5. Pomiar napięcia stałego

W przeciwieństwie do elektromechanicznych woltomierze analogowe(2K11) Woltomierze elektroniczne zawierają wzmacniacze napięcia. Parametr informacyjny mierzonego napięcia jest przetwarzany w tych urządzeniach na prąd stały w uzwojeniu cewki magnetoelektrycznego mechanizmu pomiarowego (2K4), którego skala jest skalibrowana w jednostkach napięcia.

Wzmacniacz woltomierza elektronicznego musi mieć stabilne wzmocnienie w pewnym zakresie częstotliwości od jakiejś niższej częstotliwości F n do góry F V. Jeśli F n = 0, wtedy zwykle nazywa się taki wzmacniacz Wzmacniacz prądu stałego, i jeśli F n > 0, a wzmocnienie wynosi zero w F = 0 – Wzmacniacz AC.

Uproszczony obwód elektronicznego woltomierza prądu stałego składa się z trzech głównych elementów: dzielnika napięcia wejściowego (2K9), wzmacniacz prądu stałego podłączony do jego wyjścia i woltomierz magnetoelektryczny. Wysokorezystancyjny dzielnik napięcia i wzmacniacz prądu stałego zapewniają wysoką impedancję wejściową woltomierza elektronicznego (rzędu 1 MΩ). Współczynniki podziału i wzmocnienia można dyskretnie regulować, co umożliwia wykonywanie woltomierzy wielozakresowych. Ze względu na duże wzmocnienie woltomierzy elektronicznych, zapewniona jest wyższa czułość w porównaniu do woltomierzy elektromechanicznych.

Cechą woltomierzy elektronicznych prądu stałego jest dryf- powolne zmiany wskazań woltomierza przy stałym mierzonym napięciu (1Q14), spowodowane zmianami parametrów elementów obwodów wzmacniacza prądu stałego. Dryf odczytów jest najbardziej znaczący przy pomiarach niskich napięć. Dlatego przed przystąpieniem do pomiarów konieczne jest zastosowanie specjalnych elementów nastawczych w celu ustawienia wskazania zerowego woltomierza przy zwartym wejściu.

Jeżeli do rozpatrywanego woltomierza zostanie przyłożone zmienne napięcie okresowe, to ze względu na właściwości magnetoelektrycznego mechanizmu pomiarowego dokona on pomiaru składowej stałej tego napięcia, chyba że składowa przemienna jest zbyt duża i wzmacniacz woltomierza pracuje w układzie liniowym tryb.

Najpopularniejsze analogowe woltomierze elektroniczne prądu stałego pozwalają na pomiar napięć w zakresie od 10 -6 do 10,3 V. Wartości granic podstawowego błędu zredukowanego zależą od zakresu pomiarowego i wynoszą zwykle ±(0,5 - 5,0)%.

2.1.6. Pomiar napięć przemiennych

analogowe woltomierze elektroniczne.

Analogowe woltomierze elektroniczne służą głównie do pomiaru wartości skutecznych napięć okresowych w szerokim zakresie częstotliwości.

Główna różnica między obwodem elektronicznego woltomierza prądu przemiennego a obwodem woltomierza prądu stałego rozważanym powyżej wynika z obecności w nim dodatkowego węzła - konwertera parametru informacyjnego napięcia przemiennego na prąd stały. Takie przetworniki są często nazywane „detektorami”.

Występują detektory wartości amplitudy, modulo średniej i efektywnej wartości napięcia. Stałe napięcie na wyjściu pierwszego jest proporcjonalne do amplitudy napięcia na jego wejściu, stałe napięcie na wyjściu drugiego jest proporcjonalne do wartości średniej modulo napięcia wejściowego, a trzecie jest skuteczne.

Każdą z trzech wskazanych grup czujek można z kolei podzielić na dwie grupy: czujki z wejściem otwartym oraz czujki z wejściem zamkniętym. W przypadku czujek z otwartym wejściem napięcie wyjściowe zależy od składowej stałej napięcia wejściowego, aw przypadku czujek z zamkniętym wejściem nie. Oczywiście, jeśli obwód woltomierza elektronicznego ma detektor z zamkniętym wejściem lub wzmacniaczem prądu przemiennego, to odczyty takiego woltomierza nie zależą od stałej składowej mierzonego napięcia. Korzystne jest stosowanie takiego woltomierza w przypadkach, gdy tylko składowa zmienna mierzonego napięcia niesie użyteczne informacje.

Uproszczone schematy detektorów amplitudy z wejściami otwartymi i zamkniętymi przedstawiono na rys. 2.3 i 2.4.


Po podaniu na wejście detektora amplitudy z otwartym wejściem napięciowym u(T) = u M grzech kondensator jest ładowany do napięcia u M, co wyłącza diodę. Jednocześnie na wyjściu detektora utrzymywane jest stałe napięcie. u M. Jeśli zastosujesz dowolne napięcie na wejściu, kondensator zostanie naładowany do maksymalnej dodatniej wartości tego napięcia.

W przypadku zastosowania do wejścia detektora amplitudy z zamkniętym wejściem napięciowym u(T) = u M grzech kondensator jest również ładowany do napięcia u M i napięcie wyjściowe u(T) = u M + u M grzech. Jeśli takie napięcie lub proporcjonalny do niego prąd zostanie przyłożony do uzwojenia cewki magnetoelektrycznego mechanizmu pomiarowego, to wskazania przyrządu będą zależały od stałej składowej tego napięcia, równej u M (2K4). Po przyłożeniu napięcia do wejścia u(T) = u Poślubić + u M grzech, Gdzie u Poślubić– średnia wartość napięcia u(T) , kondensator jest naładowany do napięcia u M + u Poślubić, a napięcie wyjściowe jest ustawione u(T) = u M + u M grzech, niezależnie od u Poślubić .

Przykłady detektorów napięcia modulo średniego i skutecznego omówiono w podrozdziale 2.1.4 (odpowiednio rys. 2.1 i 2.2).

Detektory średniej amplitudy i modulo są prostsze niż detektory RMS, ale oparte na nich woltomierze mogą służyć jedynie do pomiaru napięć sinusoidalnych. Faktem jest, że ich odczyty, w zależności od rodzaju detektora, są proporcjonalne do średniej modulo lub wartości amplitudy mierzonego napięcia. Dlatego rozważane analogowe woltomierze elektroniczne można skalibrować w wartościach skutecznych tylko dla określonej postaci mierzonego napięcia. Odbywa się to dla najczęściej spotykanego napięcia sinusoidalnego.

Najpopularniejsze analogowe woltomierze elektroniczne umożliwiają pomiar napięć od 10 -6 do 10 3 V w zakresie częstotliwości od 10 do 10 9 Hz. Wartości granic podstawowego błędu zredukowanego zależą od zakresu pomiarowego oraz częstotliwości mierzonego napięcia i zwykle wynoszą ± (0,5 - 5,0)%.

Metoda pomiaru za pomocą woltomierzy elektronicznych różni się od metody za pomocą woltomierzy elektromechanicznych. Wynika to z obecności w nich elektronicznych wzmacniaczy z zasilaczami prądu stałego, zwykle działających z sieci prądu zmiennego.


Jeżeli jednak zacisk 6 jest podłączony do zacisku wejściowego 1 woltomierza i np. u 65, to wynik pomiaru zostanie zniekształcony przez napięcie zakłócające, którego wartość zależy od parametrów obwodów zastępczych na rys. 2,5 i 2,6.

Z bezpośrednim pomiarem napięcia u 54 zakłócenia zniekształcą wynik pomiaru, niezależnie od sposobu podłączenia woltomierza. Można tego uniknąć poprzez pomiar pośredni poprzez pomiar napięć u 64 i u 65 i obliczone u 54 = u 64 - u 65 . Jednak dokładność takiego pomiaru może nie być wystarczająco wysoka, zwłaszcza jeśli u 64 ≈ u 65 . (2K12)