Что такое точность в физике??

0 голосов
30 просмотров

Что такое точность в физике??


Физика (14 баллов) | 30 просмотров
Дано ответов: 2
0 голосов

Теория:

Измерить какую-нибудь величину — это значит сравнить её с однородной величиной, принятой за единицу.

Всякое измерение может быть выполнено с большей или меньшей точностью.

В качестве примера рассмотрим измерение длины бруска линейкой с сантиметровыми делениями.(картинка 1)

Вначале определим цену деления линейки. Она будет равна 1 см. Если левый конец бруска совместить с нулевым штрихом, то правый будет находиться между 9 и 10 штрихами, но ближе к 10. Какое же из этих двух значений следует принять за длину бруска? Очевидно, то, которое ближе к истинному значению, т.е. 10 см. Считая, что длина бруска 10 см, мы допустим неточность, так как брусок чуть короче 10 см.

Погрешность измерения не может быть больше цены деления измерительного прибора. В нашем случае погрешность измерения бруска не превышает 1 см. Если такая точность измерений нас не устраивает, то можно произвести измерения с большей точностью. Но тогда придётся взять масштабную линейку с миллиметровыми делениями, т.е. с ценой деления 1 мм. В этом случае длина бруска окажется равной 9,8 см.(картинка 2)

В физике допускаемую при измерении неточность называют погрешностью измерений.

Для более точных измерений можно воспользоваться штангенциркулем с ценой деления 0,1 мм или 0,05 мм. (картинка 3)

Из этого примера видно, что точность измерений зависит от цены деления шкалы прибора.

Чем меньше цена деления, тем больше точность измерения.

Точность измерения зависит от правильного применения измерительного прибора, расположения глаз при отсчёте по прибору.

Вследствие несовершенства измерительных приборов и несовершенства в развитии наших органов чувств, при любом измерении получаются лишь приближённые значения, несколько бóльшие или меньшие истинного значения измеряемой величины.

Во время выполнения лабораторных работ или просто измерений следует считать, что:

Погрешность измерений равна половине цены деления шкалы измерительного прибора.

При записи величин (с учётом погрешности) следует пользоваться формулой: A=a±Δa, 
где A — измеряемая величина, a — результат измерений, Δa  — погрешность измерений (Δ — греческая буква «дельта»).


image
image
image
(174 баллов)
0 голосов

Ни одно измерение не может быть проведено абсолютно точно. Между измеренным значением величины и ее действительным значением существует всегда некоторая разница, которая носит название погрешности измерения. Чем меньше погрешности измерения, тем, естественно, выше точность измерения.
Точность измерения характеризует ту ошибку, которая неизбежна при работе самым точным измерительным инструментом или прибором определенного вида. На точность измерения оказывают влияние свойства материала измерительного инструмента и конструкция инструмента. Точность измерения может быть достигнута только при условии, если измерение производят по правилам.
Основными причинами, понижающими точность измерения, могут быть:
1) неудовлетворительное состояние инструмента: поврежденные грани, загрязненность, неправильное положение нулевой отметки, неисправность;
2) небрежное обращение с инструментом (удары, нагрев и т. д.);
3) неточность установки инструмента или измеряемой детали относительно инструмента;
4) разность температур, при которых производится измерение (нормальная температура, при которой следует производить измерение, 20°);
5) слабое знание устройства или неумение пользоваться измерительным инструментом. Неправильный выбор инструмента для измерения.
Степень точности измерения какого-либо прибора зависит от ухода за ним, а также правильного пользования им.
Повышения точности измерения можно добиться повторным измерением с последующим определением среднего арифметического, полученного в результате нескольких измерений.
Приступая к измерению, необходимо хорошо знать средства измерения, правила обращения с инструментом и владеть приемами пользования им.

(188 баллов)