Просмотр полной версии : Оформленение предельных погрешностей
Aspir bio
17.09.2007, 20:13
Подскажите как провильно записывать данные с предельными отклонениями. Например, у меня содержанеи общего белка в крови первой группы 45,075+-2,4567 во второй 46,07+-2,34, как мне их сократить и правильно записать, т.к. по моему это не совсем корректно. Может есть какие то правила?????
Chief CLMiS
17.09.2007, 22:21
Aspir bio
как провильно записывать данные с предельными отклонениями. Например, у меня содержанеи общего белка в крови первой группы 45,075+-2,4567 во второй 46,07+-2,34
В данном конкретном случае будет: 45,1+-2,5 и 46,1+-2,3 (и не забудьте единицы измерения :) ).
Может есть какие то правила?
Правила обязательно есть - есть такая область знаний - метрология, которая как раз подобные правила и определяет. А почитать лучше всего книгу: Новицкий П.В., Зограф И.А. Оценка погрешностей результатов измерений. Год издания - любой, какой найдете (одно из последних изданий - 1985 г.) Найдете там большинство ответов на подобные вопросы. Актуальная для вас тема - "Правила округления значений погрешности и результата измерений". Кстати, книгу в целом рекомендую всем, так как многие исследователи забывают, что нет абсолютно точных результатов измерений (экспериментов) и везде присутствует погрешность (или в общем - неопределенность). И выдают свои результаты за особо точные, хотя при ближайшем рассмотрении погрешности могут достигать десятков (и более!) процентов. А как оценить даже погрешность прямого (даже не косвенного) измерения знают не всегда...
Дополню тремя основными правилами:
1. Погрешность результата измерения указывается двумя значащими цифрами, если первая из них равна 1 или 2, и одной - если первая есть 3 и более.
2. Результат измерения округляется до того же десятичного разряда, которым оканчивается округленное значение абсолютной погрешности.
3. Округление производится лишь в окончательном ответе, а все предварительные вычисления проводят с одним-двумя лишними знаками.
Вот попалась мне на днях в руки лаб. работа по физике студента 1 курса (так называемое "нулевое" занятие - ознакомление с приборами), и возник у меня вопрос:
например, проводится эксперимент - подается сигнал, частота сигнала измеряется, затем по известной формуле T=1/f определяется период.
пусть частота была 33,00+-0,01 (погрешность прибора).
Период будет равен 1/33=0.(03).
Относительная погрешность измерения периода сигнала равна относительной погрешности значения частоты и равна 0,00(03)
Т.о. погрешность (абсолютная) - 9.182736455463728191e-06.
Т=0,(03)+-9.182736455463728191e-06...
Собственно сам вопрос: а как в этом случае записывать погрешность? Ск. цифр оставлять?
Правила приведённые выше тут не действуют, поскольку они имеют действие только при многократных измерениях. П.1 верен при количестве измерений порядка 10, при большем количестве измерений количество достоверных цифр больше.
Чем руководствоваться в данном случае?
Только здравым смыслом и необходимостью для той или иной задачи?
И вообще, на сколько корректно будет оценивать погрешность такого косвенного измерения?
Chief CLMiS
21.09.2007, 22:19
Damon
частота была 33,00+-0,01 (погрешность прибора)
На мой взгляд, в данном случае погрешность уже записана не верно, т.к. потерян знак в тысячных долях. Т.е. возможно должно быть записано 33,000+-0,010 Гц. Хотя не зная конкретного прибора, а также того, что именно было отображено на индикаторе и величины приборной погрешности, трудно утверждать наверняка. Поэтому показания прибора и формулу для вычисления приборной погрешности (особенно если это цифровой частотомер) - в студию! ;)
Правила приведённые выше тут не действуют, поскольку они имеют действие только при многократных измерениях. П.1 верен при количестве измерений порядка 10, при большем количестве измерений количество достоверных цифр больше.
Откуда такая информация? С чего же количество цифр будет больше, если у результат каждого отдельного измерения уже получен с определенной приборной погрешностью? Результат отдельного однократного измерения вы точнее не запишите. При большом количестве измерений м.б. точнее учтено влияние случайной составляющей погрешности, которая конечно же влияет на результат многократных измерений. При этом излишнее увеличение числа значащих цифр в самой погрешности, как вы понимаете, избыточно и бессмысленно, так как если записать, например, не 3% (как того требует П.1), а 3,5% то разница будет примерно 16% от 3%, что для самого результата измерения уже совсем не существенно и точности ему не добавит.
И вообще, на сколько корректно будет оценивать погрешность такого косвенного измерения?
Точно так же корректно, как и прямого измерения частоты :) Вы абсолютно правы, что их относительная погрешность будет одинаковой.
Т=0,(03)+-9.182736455463728191e-06...
Собственно сам вопрос: а как в этом случае записывать погрешность? Ск. цифр оставлять?
Т = 0,030303+-0,000009 с.
Chief CLMiS
Поэтому показания прибора и формулу для вычисления приборной погрешности (особенно если это цифровой частотомер) - в студию!
Числа я тут с потолка привел... чтобы считать было удобно... Там погрешность прибора, если не ошибаюсь) была 2,5*10^-3 (по паспортуприбора)
Откуда такая информация?
Я говорю о том, что случайную погрешность по результатам 1 измерения не оценить.
И приведённые выше правила следуют вот из чего:
относительная неточность оценки погрешности (не помню, как правильно называется) оценивается как 1/корень(n-1), т.о. при ~10 измерениях это порядка трети.
Т.о., если первая цифра 3 и более, то 3/3=1, т.е. вторая цифра уже не является достоверной, если 2 или 1, то она достоверна.
При этом излишнее увеличение числа значащих цифр в самой погрешности, как вы понимаете, избыточно и бессмысленно, так как если записать, например, не 3% (как того требует П.1), а 3,5% то разница будет примерно 16% от 3%, что для самого результата измерения уже совсем не существенно и точности ему не добавит.
Вот, только чем определяется эта самая существенность? Где эта грань?
Определяется ли она только самой задачей, здравым смыслом или есть какие-то четкие рекомендации? К примеру, результат измерения приводится с 3-4 значащими цифрами, если иного не требуют условия решаемой задачи.
Т = 0,030303+-0,000009 с.
А почему бы и не Т = 0,03030303+-0,00000918?
Ведь существенность это штука относительная, в одном случае достаточно и 3%, в другом надо бы и побольше.
Damon
По правилам погрешность округляется до первой значащей цифры, если это не 1 или 2, тогда оставляется ещё одна цифра.
А количество измерений, не может добавлять значащих цифр в погрешность. При большом количестве измерений для оценки случайной погрешности можно пользоваться формулами, полученными в приближении нормального закона распределения (в соответствии с центральной предельной теоремой).
Вы же сейчас обсуждаете приборную погрешность, которая является методической (то есть систематической, а не случайной) и рассчитывается по определенной формуле, указанной в паспорте прибора и округляется точно также по правилам округления погрешностей независимо от количества проведенных измерений.
Cobra
Хорошо, может кто-нибудь привести четкое математическое обоснование этому правилу (округления до 1-2 значащих цифр) или указать источник, где об этом можно почитать?
В учебниках по метрологии, справочниках, методичках и др, я нахожу только "принято", "обычно", "по правилам", "как правило" и т.п...
Damon
где об этом можно почитать?
Посмотрите, например, http://lib.homelinux.org/_djvu/P_Physics/PSch_School-level/Skvajrs%20Dzh.%20(_G.L.Squires_)%20Prakticheskaja% 20fizika%20(Mir,%201971)(ru)(K)(T)(248s)_PSch_.djv u Сквайрс Дж. ( G.L.Squires ) Практическая физика Мир, 1971 248 p -- очень толковая книжка.
Chief CLMiS
3. Округление производится лишь в окончательном ответе, а все предварительные вычисления проводят с одним-двумя лишними знаками.
Небольшое уточнение. Правило 3 говорит о том, что не нужно округлять промежуточные результаты вычислений. Но исходные данные для предварительных вычислений должны быть округлены в соответствии с http://www.aspirantura.spb.ru/forum/showthread.php?t=920 правилом 2 . Правда, сама процедура округления результатов вычислений уже не так проста, т.к. вычисления могут проводиться по формулам, в которые неравнозначно входят несколько исходных величин с разными погрешностями. Это надо учитывать.
Chief CLMiS
23.09.2007, 21:01
RuBor2
Правило 3 говорит о том, что не нужно округлять промежуточные результаты вычислений
Оно не говорит, что этого не нужно делать. Читайте внимательнее. К тому же правила не я формулировал, а они цитированы из указанного мной источника. Однако, очевидно, что они самые простые и понятные, особенно не посвященным во все премудрости метрологии, и использование этих правил (неспециалистами в области метрологии) сделает их работы более достоверными.
Хорошо, может кто-нибудь привести четкое математическое обоснование этому правилу (округления до 1-2 значащих цифр) или указать источник, где об этом можно почитать?
RuBor2
Посмотрите, например, Сквайрс Дж. ( G.L.Squires ) Практическая физика Мир, 1971 248 p -- очень толковая книжка.
Спасибо, но ответа на мой вопрос там нет. Там вновь рассматриваются случай многократных измерений, для которого все предельно ясно.
Для случая одного измерения в принципе тоже ясно, что действуют те же правила, но похоже на то, что четкого математического обоснования этому нет.
Damon
Вы не совсем правы. Как я понял, вопрос вызывает лишь одно правило, касающееся количества значащих цифр в оценке ошибки (для единичного измерения). Прямого ответа на этот вопрос у Сквайрса нет, но есть необходимый материал. Посмотрите внимательнее параграф 6 "Ошибка в величине ошибки" и гл. 4 "Ошибки и здравый смысл".
Когда измерение единственное, случайная ошибка не исчезает -- вы просто не в состоянии её оценить (что, вообще говоря, скверно). В этом случае вам остается только надеяться, что известная систематическая ошибка прибора окажется больше. Между тем определение ошибки прибора сводится всё к тем же многократным измерениям (только сделанным кем-то до вас) и сравнению с более точным эталонным прибором. В результате имеем, что погрешность прибора измерена и оценена не вами, но по тем же обсуждаемым правилам, и никакими своими вычислениями вы не можете повысить точность этой оценки.
Оценка ошибки измерений (погрешности прибора) -- это тоже своего рода измерение и точно так же оно имеет ошибку.
Но обратимся пока к другому вопросу.
Damon
Вот, только чем определяется эта самая существенность? Где эта грань?
Определяется ли она только самой задачей, здравым смыслом или есть какие-то четкие рекомендации? К примеру, результат измерения приводится с 3-4 значащими цифрами, если иного не требуют условия решаемой задачи.
Тут, правда, речь идёт не только об ошибке, но и о точности самого результата. Есть чёткие рекомендации, которые опираются в том числе и на здравый смысл, и на условия конкретной решаемой задачи. Как уже писали, количество значащих цифр в результате должно соответствовать указанной погрешности результата. Сколько их будет -- 3, 4 или 24 -- зависит от потребностей конкретной задачи и точности эксперимента. Нет смысла проводить измерения какой-то величины с высокой точностью, если в дальнейшем она будет использоваться только в грубых расчётах вместе с другими величинами, дающими существенную ошибку в конечный результат.
Цитата:
Т = 0,030303+-0,000009 с.
А почему бы и не Т = 0,03030303+-0,00000918?
Ведь существенность это штука относительная, в одном случае достаточно и 3%, в другом надо бы и побольше.
В самом деле, почему нет? А потому, что в данном случае цифры после девятки несущественны. И вот по каким причинам. Как Вы сами писали, у Вас есть единичный результат измерения, ошибка которого определена на основе известной погрешности прибора. А как я писал выше, погрешность прибора тоже оценивается с какой-то ошибкой. С какой? Простое правило "1-2 значащих цифры в оценке ошибки" означает, что сама ошибка оценивается с точностью 5-17% (половина следующего, не указанного, разряда). В Вашем примере погрешность измерения указана +-0,01, т.е. с точностью 50% (потому-то и требуют после 1 ещё одну цифру, чтобы повысить точность оценки погрешности)! Очевидно, что улучшить эту оценку вычислениями невозможно. Оттого, что вы преобразовали частоту в период и получили в оценке абсолютной ошибки бесконечную десятичную дробь, точность оценки ошибки не возрасла и по-прежнему осталась 50% (сколько намеряли производители прибора).
Почему обычно довольствуются точностью оценки ошибки в 5-17%? -- Пояснения есть в параграфе 6 у Сквайрса: истинное значение ошибки нам неизвестно, мы его лишь оцениваем, вычисляя по результатам серии измерений. И даже при значительном числе измерений вычисленная ошибка верна как раз с точностью около 10-20%. Во многих случаях и такая точность будет излишней.
P.S. Кстати, Вы ж сами писали:
относительная неточность оценки погрешности (не помню, как правильно называется) оценивается как 1/корень(n-1), т.о. при ~10 измерениях это порядка трети.
Т.о., если первая цифра 3 и более, то 3/3=1, т.е. вторая цифра уже не является достоверной, если 2 или 1, то она достоверна.
Оценка погрешности прибора, приведённая в его паспорте, тоже не является точной... :)
Chief CLMiS
Поскольку упомянутого Вами источника нет под рукой, спорить не буду. Я хотел лишь подчеркнуть, что тащить в вычисления недостоверные цифры в начальных данных нет никакого смысла -- точность результата это не повысит.
Оценка погрешности прибора, приведённая в его паспорте, тоже не является точной...
Убедили :)
vBulletin® v3.8.8, Copyright ©2000-2025, vBulletin Solutions, Inc. Перевод: zCarot