Основные сведения об измерении

Автор: Пользователь скрыл имя, 22 Декабря 2011 в 16:12, реферат

Описание работы

Базовой системой любой автоматизированной системы управления технологическими процессами (АСУ ТП) является системой автоматического контроля (САК), позволяющая получать измерительную информацию о режимных параметрах, процессах, параметрах качества сырья, промежуточных и конечных продуктах.
Научной основой САК являются метрология и физические принципы измерений, а технической базой служат средства измерений и преобразований. Эти вопросы рассматривает дисциплина «Технические измерения и приборы». В основу электронного учебника положен курс лекций, читаемый автором на протяжении многих лет в МГТУ «МАМИ». Курс лекций по дисциплине «Технические измерения и приборы» координирован с курсом лекций по электронике. По электронике предусмотрена курсовая работа, которая посвящена проектированию измерительного канала информационно-измерительной системы. В техническом задании на проектирование предусмотрены выбор датчиков, расчет генератора для питания датчика и измерительной схемы, расчет усилителя, выпрямителя, электрического фильтра, выбор мультиплексора и аналого-цифрового преобразователя.
По дисциплине «Технические измерения и приборы» предусмотрен лабораторный практикум, где конкретизируются знания по датчикам, измерительным схемам для формирования аналоговой информации, цифрового преобразования и средства отображения информации.

Работа содержит 1 файл

techizm1.doc

— 660.00 Кб (Скачать)

     Дополнительной  погрешностью измерительного преобразователя (или изменением показаний измерительного прибора) называют изменение его погрешности, вызванной отклонением одной из влияющих величин от ее нормативного значения или выходом ее за пределы нормальной области значений. Дополнительная погрешность может быть вызвана изменением сразу нескольких влияющих величин.

     Изменение погрешности, как и других характеристик  и параметров измерительных устройств под действием влияющих величин, описывается функциями влияния.

     Иными словами, дополнительная погрешность  – это часть погрешности, которая добавляется (имеется в виду алгебраическое сложение) к основной в случаях, когда измерительное устройство применяется в рабочих условиях. Рабочие условия обычно таковы, что изменения значений влияющих величин для них существенно больше, чем для нормальных условий, т. е. область рабочих (часть этой области называют расширенной областью) условий включает в себя область нормальных условий.

     В некоторых случаях основная погрешность  измерительных устройств определяется для рабочей области изменения значений влияющих величин. В этих случаях понятие дополнительной погрешности теряет смысл.

     В зависимости от режима применения различают  статическую и динамическую погрешности  измерительных устройств.

     По  форме представления принято  различать абсолютную, относительную и приведенную погрешности измерительных устройств. У измерительных приборов имеется шкала, отградуированная в единицах входной величины, либо шкала, отградуированная в условных единицах с известным множителем шкалы, поэтому результат измерения представляется в единицах входной величины. Это обусловливает простоту определения погрешности измерительных приборов.

     Абсолютной  погрешностью измерительного прибора  Δ называют разность показаний прибора  ХП и истинного (действительного) ХД значения измеряемой величины:

Действительное  значение определяется с помощью  образцового прибора или воспроизводится мерой.

     Относительной погрешностью измерительного прибора  называют отношение абсолютной погрешности  измерительного прибора к действительному значению измеряемой величины. Относительную погрешность выражают в процентах:

.

     Так как Δ << XД или ХП, то в вышеприведенном выражении вместо значения XД может быть использовано значение XП.

     Приведенной погрешностью измерительного прибора называют отношение абсолютной погрешности измерительного прибора к нормирующему значению ХN. Приведенную погрешность также выражают в процентах:

.

В качестве нормирующего значения используется верхний предел измерений, диапазон измерений и др., т. е.

.

     Средства  измерений могут использоваться в статическом или динамическом режиме работы. В статическом режиме измеряемая величина не изменяется во времени, а отсчет выполняется тогда, когда практически окончены переходные процессы, вызванные подключением измеряемой величины ко входу средства измерений. В динамическом режиме измеряемая величина изменяется во времени. В соответствии с этим различают статическую погрешность средства измерений и погрешность средства измерений в динамическом режиме.

     Очевидно, что погрешность средства измерений в динамическом режиме включает в себя статическую погрешность и погрешность, обусловленную инерционностью средства измерений. Последняя погрешность носит название динамической погрешности средства измерений и определяйся как разность между погрешностью средства измерений в динамическом режиме и его статической погрешностью, соответствующей значению величины в данный момент времени.

     При анализе погрешностей средств измерений и выборе способов их уменьшения весьма важным является разделение погрешностей по их зависимости от значения измеряемой (преобразуемой) величины. По этому признаку, погрешности делятся на аддитивные, мультипликативные, линейности и гистерезиса.

     Аддитивную  погрешность иногда называют погрешностью нуля, а мультипликативную – погрешностью чувствительности. Реально погрешность средства измерений включает в себя обе указанные составляющие.

     Кроме того, номинальная функция преобразования средства измерений – это в большинстве случаев более простая функция (обычно линейная), чем градуировочная характеристика.

     Графически  образование перечисленных погрешностей показано на рисунке 1.9.

Рис. 1.9. Реальные функции преобразования измерительных устройств 

      Аддитивная  погрешность постоянна при всех значениях измеряемой величины (рисунок 1.9, а). На рисунке видно, что реальная функция преобразования несколько смещена относительно номинальной , т. е. выходной сигнал измерительного устройства при всех значениях измеряемой величины X будет больше (или меньше) на одну и ту же величину, чем он должен быть, в соответствии с номинальной функцией преобразования.

     Если  аддитивная погрешность является систематической, то она может быть устранена. Для этого в измерительных устройствах обычно имеется специальный настроечный узел (корректор) нулевого значения выходного сигнала.

     Если  аддитивная погрешность является случайной, то ее нельзя исключить, а реальная функция преобразования смещается по отношению к номинальной во времени произвольным образом. При этом для реальной функции преобразования можно определить некоторую полосу (рисунок 1.9, б), ширина которой остается постоянной при всех значениях измеряемой величины.

     Возникновение случайной аддитивной погрешности  обычно вызвано трением в опорах, контактными сопротивлениями, дрейфом нуля, шумом и фоном измерительного устройства.

     Мультипликативной (получаемой путем умножения), или  погрешностью  чувствительности измерительных устройств, называют погрешность, которая линейно возрастает (или убывает) с увеличением измеряемой величины.

     Графически  появление мультипликативной погрешности  интерпретируется поворотом реальной функции преобразования относительно номинальной (рисунок 1.9, в). Если мультипликативная погрешность является случайной, то реальная функция преобразования представляется полосой, показанной на рисунке 1.9 (г). Причиной возникновения мультипликативной погрешности обычно является изменение коэффициентов преобразования отдельных элементов и узлов измерительных устройств.

     На  рисунке 1.9 (д) показано взаимное расположение номинальной и реальной функций  преобразования измерительного устройства в случае, когда отличие этих функций  вызвано нелинейными эффектами. Если номинальная функция преобразования линейная, то вызванную таким расположением реальной функции преобразования систематическую погрешность называют погрешностью линейности. Причинами данной погрешности могут быть конструкция (схема) измерительного устройства и нелинейные искажения функции преобразования, связанные с несовершенством технологии производства.

     Зависимость вход-выход измерительных приборов без учета гистерезиса и ухода  нуля может быть представлена в виде:

,

где xвх – измеряемая (входная) величина, yвых – выходная величина, a0, a1, …, an – градуировочные коэффициенты.

      Реальная  функция преобразования может быть представлена линией, примыкающей к прямой a0xвх (номинальная функция преобразования) (рисунок 1.10).

Рис. 1.10. Типичные градуировочные кривые: а – линейная; б – нелинейная при наличии в уравнении преобразования четных степеней xвх; в - нелинейная при наличии в уравнении преобразования нечетных степеней xвх; г – нелинейная при наличии в уравнении преобразования четных и нечетных степеней xвх. 

      Симметричная  кривая (рисунок 1.10, в), описываемая  уравнением с нечетными степенями  xвх, наиболее желательна с точки зрения линейности. Как будет показано ниже, нелинейные, но симметричные кривые двух чувствительных элементов, включенных дифференциально, дают улучшение линейности путем исключения членов xвх с четными степенями.

     Наиболее  существенной и трудноустранимой систематической  погрешностью измерительных устройств  является погрешность гистерезиса (от греч. hysteresis – запаздывание), или погрешность обратного хода, выражающаяся в несовпадении реальной функции преобразования измерительного устройства при увеличении (прямой ход) и уменьшении (обратный ход) измеряемой величины (рисунок 1.9, е). Причинами гистерезиса являются: люфт и сухое трение в механических передающих элементах, гистерезисный эффект в ферромагнитных материалах, внутреннее трение в материалах пружин, явление упругого последействия в упругих чувствительных элементах, явление поляризации в электрических, пьезоэлектрических и электрохимических элементах и др. Существенным при этом является тот факт, что форма получаемой петли реальной функции преобразования зависит от предыстории, а именно от значения измеряемой величины, при котором после постепенного увеличения последней начинается ее уменьшение (на рисунке 1.9, е, это показано пунктирными линиями).

     В цифровых (ЦИП) квантование по уровню и времени осуществляется путем  замены через время Δt (шаг квантования) значений непрерывной функции ближайшим дискретным уровнем с шагом Q. При этом максимальная погрешность от квантования составит 
Δкв = ± Q/2.

Приведенная погрешность определяется по формуле:

,

где ПД – полный диапазон измеряемой величины.

,

где N – число уровней квантования (интервалов).

.

Например, измеряет напряжение в диапазоне 0..150 В с γ = 0,1 %. Для определения шага квантования запишем:

. 

     Методы  повышения точности измерений

      Для технологических измерений повышение  точности измерений особенно важно  в связи с широким применением  АСУ ТП. Для решения этой задачи применяются различные методы (рисунок 1.11). 

Рис. 1.11. Классификация методов повышения  точности измерений 

     Уменьшения случайной составляющей погрешности измерений увеличивают число наблюдений (см. рисунок 1.10). Оценку среднеквадратического отклонения результата измерения, которая определяет собой случайную погрешность, теоретически можно сделать как угодно малой, увеличив число наблюдений n. Однако на практике в большинстве случаев трудно обеспечить постоянство самого объекта измерений в течение длительного времени, а это может при увеличении числа наблюдений n привести к увеличению погрешности, а не к ее уменьшению.

     Другим  методом повышения точности измерений  за счет уменьшения случайной составляющей погрешности является использование параллельных одновременных измерений одной и той же физической величины. Для этого необходимо использовать сразу несколько средств измерений. Результаты наблюдений, полученных при этих измерениях, обрабатывают совместно. Теоретическая основа этого метода та же, что и предыдущего метода.

     Ранее были рассмотрены основные методы исключения систематической погрешности, а именно: методы, основывающиеся на устранении источников систематической погрешности до начала измерений и методы исключения систематических погрешностей по окончании измерений. К числу последних относятся не только применение поправок и поправочных множителей, но и учет дополнительных погрешностей средств измерений.

     Кроме этих методов применяют методы, позволяющие  определять и исключать систематическую погрешность в процессе измерений. Последние основываются на такой организации процесса измерений и обработки получаемой измерительной информации, которые обеспечивают исключение погрешности или ее определение. Причем применение таких методов возможно и целесообразно в тех случаях, когда известна природа исключаемой систематической погрешности. К числу этих методов относятся: метод замещения, метод компенсации погрешности по знаку и различные методы, базирующиеся на совместных или совокупных измерениях.

Информация о работе Основные сведения об измерении