Jaki procent błędu jest zbyt wysoki?

Jaki procent błędu jest zbyt wysoki?
Anonim

Odpowiedź:

Dopuszczalność błędu procentowego zależy od aplikacji.

Wyjaśnienie:

W niektórych przypadkach pomiar może być tak trudny, że dopuszczalny może być błąd 10% lub nawet wyższy.

W innych przypadkach błąd 1% może być zbyt wysoki.

Większość instruktorów szkół średnich i wprowadzających na studia zaakceptuje błąd 5%. Ale to tylko wskazówka.

Na wyższych poziomach nauczania instruktorzy zazwyczaj wymagają wyższej dokładności.

Odpowiedź:

Nigdy nie jest za wysoko. Jest tym, czym jest (jeśli jest poprawnie obliczony). WYKORZYSTANIE wartości z wysokim procentowym błędem w pomiarze jest oceną użytkownika.

Wyjaśnienie:

Dokładność, precyzja i błąd procentowy muszą być wzięte razem, aby sens był miarodajny. Jako naukowiec i statystyk musiałbym powiedzieć, że nie ma górnej granicy „błędu procentowego”. Istnieje tylko niezbędna (ludzka) ocena tego, czy dane się odnoszą, może być przydatna, czy nie.

Dokładność i precyzja są nieodłącznie związane z projektami pomiarowymi. Są czymkolwiek są i można je ulepszyć tylko poprzez ulepszenie urządzenia. Wielokrotne pomiary mogą poprawić dokładność statystyk pomiaru, ale nie mogą poprawić właściwego błędu pomiaru. Błąd procentowy jest obliczany jako zakres odchylenia pomiaru od ostatniego, najlepszego ustalonego punktu metrycznego.

Na przykład mogę mieć rzeczywisty, podstawowy pręt licznika podstawowego. Ale bez skalibrowanych podprzedziałów mogę naukowo wykonywać „dokładne” pomiary do +/- 1 metra. Naprawdę nie mogę ufać moim oczom (szczególnie w porównaniu z innymi), aby dokładnie określić nawet ¼ metra.

Mój pomiar 0,5 metra zawiera błąd, ponieważ nie ma rzeczywistego 0,5-metrowego znaku odniesienia. Tak więc, w porównaniu do mojego dokładnego miernika, mój pomiar 0,5 metra ma błąd 0,5 / 1 * 100 = 50%. Jest to właściwie fizyczna rzeczywistość dla każdego przedziału pomiarowego. Nawet tam zakładamy, że nasza ostrość widzenia jest w stanie znaleźć ten „środkowy punkt” pomiędzy dwoma innymi znakami.

Precyzja polega na tym, jak konsekwentnie urządzenie dostarcza tę samą wartość dla tego samego pomiaru. Jest to zazwyczaj funkcja budowy i użytkowania urządzenia. Dokładność określa, jak blisko jest „rzeczywista” wartość mierzona. Często dotyczy to kalibracji urządzenia. Błąd procentowy to tylko określenie, w jaki sposób możliwe wartości mogą odbiegać od „prawdziwej” wartości z powodu ograniczeń urządzenia metrycznego i jego wykorzystania.