allgosts.ru17.020 Метрология и измерения в целом17 МЕТРОЛОГИЯ И ИЗМЕРЕНИЯ. ФИЗИЧЕСКИЕ ЯВЛЕНИЯ

ГОСТ 8.008-72 Государственная система обеспечения единства измерений. Методы и средства поверки приборов контроля пневматических показывающих и регистрирующих ГСП

Обозначение:
ГОСТ 8.008-72
Наименование:
Государственная система обеспечения единства измерений. Методы и средства поверки приборов контроля пневматических показывающих и регистрирующих ГСП
Статус:
Действует
Дата введения:
01.01.1973
Дата отмены:
-
Заменен на:
-
Код ОКС:
17.020

Текст ГОСТ 8.008-72 Государственная система обеспечения единства измерений. Методы и средства поверки приборов контроля пневматических показывающих и регистрирующих ГСП


ГОСТ 8.008-72

Группа Т88.1*
__________________________
* В указателе "Национальные
стандарты" 2004 г. группа Т88.4. -
Примечание "КОДЕКС".


ГОСУДАРСТВЕННЫЙ СТАНДАРТ СОЮЗА ССР



ГОСУДАРСТВЕННАЯ СИСТЕМА ОБЕСПЕЧЕНИЯ ЕДИНСТВА ИЗМЕРЕНИЙ

Методы и средства поверки приборов контроля
пневматических показывающих и регистрирующих ГСП

State system for ensuring the uniformity of measurements.
Methods and Means for Verification of Indicating and Recording Pneumatic Control Instruments


Дата введения 1973-01-01

ВВЕДЕН В ДЕЙСТВИЕ постановлением Государственного комитета стандартов Совета Министров СССР от 17 февраля 1972 г. N 433

ВЗАМЕН МУ 220; Инструкции 7-63, МУ 192 в части поверки вторичных приборов

ПЕРЕИЗДАНИЕ (март 1979 г.) с изменением N 1, опубликованным в октябре 1978 г.

Настоящий стандарт устанавливает методы и средства первичной и периодической поверки пневматических показывающих и регистрирующих приборов контроля по ГОСТ 14753-69, предназначенных для показания и записи абсолютного, избыточного и вакуумметрического давления, разности давлений, расхода жидкостей, паров и газов, значения которых преобразуются в унифицированный пневматический сигнал 0,2-1,0 кгс/см (0,02-0,1 МПа), а также пневматических интегрирующих приборов типа ПИК-1.

1. ОПЕРАЦИИ ПОВЕРКИ

1.1. При проведении поверки должны производиться операции, указанные в табл.1.

Таблица 1

Операции поверки

Номера пунктов

Внешний осмотр

5.1

Установка стрелки (пера) на нулевую отметку

5.2

Проверка герметичности узла чувствительного элемента измерительного блока

5.3

Определение влияния изменения давления воздуха питания на изменение выходного сигнала задатчика

5.4

Определение основной погрешности и вариации

5.5

Определение погрешности хода диаграммы

5.6

Проверка самопишущего устройства

5.7

Определение погрешности интегратора

5.8

2. СРЕДСТВА ПОВЕРКИ

2.1. При проведении операций поверки должны применяться следующие образцовые и вспомогательные средства:

а) манометры грузопоршневые типа МП-2,5 по ГОСТ 8291-69;

б) мановакуумметры грузопоршневые типа МВП-2,5 класса точности 0,05, пределы измерений 1-0-2,5 кгс/см (0,1-0-0,25 МПа);

в) манометры образцовые по ГОСТ 6521-72;

г) переносные приборы для поверки дифманометров-расходомеров типов ППР-1, ППР-2М, класса точности 0,3, пределы измерений избыточного давления 0-1000 мм рт.ст.;

д) манометры контрольные ртутные с дистанционным отсчетом типа МКД, классов точности 0,1; 0,2, пределы измерений 0-1,0-1,6 кгс/см (0-0,1-0,16 МПа);

е) автоматические контрольные задатчики типа АКЗ-1,6, класса точности 0,1, пределы измерений 0,1-1,6 кгс/см (0,01-0,16 МПа);

ж) манометры контрольные цифровые типа КМЦ-1,6, класса точности 0,1, пределы измерений 0-1,6 кгс/см (0-0,16 МПа);

з) автоматические задатчики давления типа АЗД-2,5, класса точности 0,05, пределы измерений 0,1-1,0; 0,1-1,6; 0,2-2,5 кгс/см (0,01-0,1; 0,01-0,16; 0,02-0,25 МПа);

и) манометры пружинные показывающие по ГОСТ 2405-72, класса точности не ниже 1 с верхним пределом измерения 1,6 кгс/см (0,16 МПа) и класса точности не ниже 0,6 с верхним пределом измерения 2,5 кгс/см (0,25 МПа);

к) морской хронометр механический по ГОСТ 8916-77;

л) секундомер по ГОСТ 5072-72;

м) электрические часы, работающие синхронно с частотой питающего тока;

н) ртутные стеклянные лабораторные термометры по ГОСТ 215-73 с диапазоном измерений 0-55 °С, аттестованные как образцовые с допустимой погрешностью показаний не более ±0,2 °С.

(Измененная редакция - "Информ. указатель стандартов" N 10 1978 г.)

.

2.2. Образцовые средства измерений должны быть аттестованы (поверены) органами метрологической службы.

2.3. Допускается применение не указанных в п.2.1 средств поверки, признанных по результатам метрологической аттестации в органах Государственной метрологической службы пригодными для проведения поверки в соответствии с требованиями настоящего стандарта.

3. УСЛОВИЯ ПОВЕРКИ

3.1. При проведении поверки должны соблюдаться условия поверки по ГОСТ 14753-69.

3.1.1. Допустимое содержание в воздухе питания пыли, масла, влаги и агрессивных примесей должно соответствовать указанному в ГОСТ 11882-73.

3.1.2. Изменение давления должно быть плавным, без перехода за поверяемое значение.

4. ПОДГОТОВКА К ПОВЕРКЕ

4.1. Перед проведением поверки производят следующие подготовительные работы.

Прибор выдерживают в нерабочем состоянии при температуре окружающего воздуха по ГОСТ 14753-69 не менее 2 ч.

Прибор устанавливают в рабочее положение.

Проверяют герметичность системы, состоящей из соединительных линий и образцовых приборов, для чего создают давление 1 кгс/см (0,1 МПа). Систему считают герметичной, если после трехминутной выдержки в течение 2 мин в ней не наблюдается падения давления.

5. ПРОВЕДЕНИЕ ПОВЕРКИ

5.1. Внешний осмотр

5.1.1. Приборы не должны иметь повреждений и дефектов, ухудшающих их внешний вид и препятствующих их применению.

5.1.2. Маркировка приборов должна соответствовать ГОСТ 14753-69.

На маркировочной табличке регистрирующих приборов должен быть указан номер диаграммы.

5.1.3. Синхронные электродвигатели для привода диаграмм должны соответствовать ГОСТ 2641-61.

5.1.4. В самопишущих приборах механизм для крепления и передвижения диаграммы должен обеспечивать установку диаграммы на нужную отсчетную линию времени, смену и перемещение диаграммы без перекосов, коробления и разрывов и снабжен устройством для пуска и остановки диаграммы.

5.1.5. При первичной поверке приборы должны иметь выпускной аттестат (паспорт) приборостроительного или прибороремонтного предприятия.

5.1.6. При периодической поверке приборы должны иметь эксплуатационный паспорт (или документ, его заменяющий).

5.2. Установка стрелки (пера) на нулевую отметку

5.2.1. Стрелка (перо) прибора должна устанавливаться с помощью корректора нуля на нулевую отметку шкалы (нулевую отсчетную линию диаграммы) при значении входного сигнала , равном:

для процентной шкалы (диаграммы) кгс/см;

для именованной шкалы (диаграммы):

для напоромеров, манометров, тягомеров и расходомеров кгс/см,

для вакуумметров в зависимости от конструкции прибора или 1,0 кгс/см,

для тягонапоромеров кгс/см,

для мановакуумметров кгс/см,

где:

- верхний предел измерений избыточного давления;

- верхний предел измерений вакуумметрического давления.

Примечание. Расчетное значение входного сигнала для приборов с мановакуумметрической шкалой (диаграммой) приведено в табл.2. При поверке приборов, градуированных в МПа, расчетные значения умножаются на коэффициент 0,1.

Таблица 2


кгс/см

Вакуумметрическое давление

Избыточное давление

1

0,6

0,700

1

1,5

0,520

1

3,0

0,400

1

5,0

0,333

1

9,0

0,280

1

15,0

0,250

1

24,0

0,232

5.2.2. Стрелка (перо) при значении входного сигнала должна устанавливаться на нулевую отметку шкалы (нулевую отсчетную линию диаграммы) с отклонением, не превышающим указанного в ГОСТ 14753-69.

5.3. Проверка герметичности узла чувствительного элемента измерительного блока прибора

5.3.1. Герметичность прибора определяют в процессе его поверки при определении основной погрешности при выдержке на верхнем пределе измерений в течение 5 мин.

5.3.2. Прибор должен быть отключен от устройства, создающего давление, а чувствительный элемент прибора - от дополнительных устройств, если они имеются.

5.3.3. Поверяемый прибор считают герметичным, если после 3-минутной выдержки в течение последующих 2 мин не наблюдается изменение показаний.

В случае изменений показаний прибор считают герметичным, если в течение 15 мин изменение показаний не превышает 1% от диапазона показаний прибора, при этом изменение температуры не должно превышать 0,5 °С. Изменения температуры и показаний прибора должны иметь одинаковый знак.

5.3.2, 5.3.3. (Измененная редакция - "Информ. указатель стандартов" N 10 1978 г.).

5.4. Определение влияния изменения давления воздуха питания на изменение выходного сигнала задатчика

5.4.1. Изменение величины выходного сигнала, вызванное отклонением давления воздуха питания от номинального значения (1,4 кгс/см) на ±10%, должно соответствовать ГОСТ 14753-69.

5.4.2. Влияние изменения давления питания определяют при значении входного сигнала, равном 0,2 или 1,0 кгс/см (0,02 или 0,1 МПа) и давлении воздуха питания 1,26, 1,40 и 1,54 кгс/см (0,13, 0,14 и 0,15 МПа).

Примечание. Допускается совмещать операции поверки по пп.5.4 и 5.5.

5.5. Определение основной погрешности и вариации

5.5.1. Основную погрешность определяют при соблюдении условий, указанных в разд.3, одним из следующих способов:

а) путем установки стрелки (пера) поверяемого прибора на отметку шкалы (отсчетную линию диаграммы) и определения расчетного значения входного сигнала, соответствующего поверяемой отметке (отсчетной линии), и отсчета действительного значения входного сигнала по образцовому прибору;

б) путем задания по образцовому прибору расчетного значения входного сигнала, соответствующего заданной поверяемой отметке (отсчетной линии), и отсчета показаний по шкале (диаграмме) поверяемого прибора.

Примечание. Определение основной погрешности по способу, указанному в п.5.5.1б, производят только в том случае, когда отсчетное устройство поверяемого прибора обеспечивает погрешность отсчитывания не более 0,2 величины предела допускаемой основной погрешности.

5.5.2. При выборе образцового прибора для определения погрешности показаний поверяемого прибора должно быть соблюдено следующее условие:


,

где и - пределы допускаемой основной погрешности образцового и поверяемого прибора при давлении, соответствующем поверяемой отметке шкалы (отсчетной линии диаграммы), выраженные в одних и тех же единицах.

5.5.3. Основную погрешность определяют путем сравнения действительных значений входных сигналов с расчетными.

5.5.4. Расчетные значения входных сигналов () в кгс/см для поверяемого значения измеряемой величины определяют по формулам:

для напоромеров, манометров, тягомеров и манометров абсолютного давления:


;

для манометров узкопредельных:


;

для тягонапоромеров и мановакуумметров:

при измерении избыточного давления:

;

при измерении вакуумметрического давления:

;

для вакуумметров при кгс/см:

при кгс/см:


;

для расходомеров при линейной зависимости между входным сигналом и показанием прибора:


;

при квадратической зависимости между входным сигналом и показанием прибора:


,

где - поверяемое значение избыточного, вакуумметрического или абсолютного давления;

- верхний предел измерений избыточного или абсолютного давления;

- начальное значение диапазона измерений манометров узкопредельных (измеряемое давление при входном сигнале, равном 0,2 кгс/см);

- конечное значение диапазона измерений манометров узкопредельных (измеряемое давление при входном сигнале, равном 1,0 кгс/см);

- верхний предел измерения вакуумметрического давления;

- верхний предел измерений расходомера;

- поверяемое значение расхода.

Примечан

ия:

1. Значения , , , , должны быть выражены в одних и тех же единицах давления, а и в одних и тех же единицах расхода или в процентах

.

2. Расчетные значения входного сигнала для поверяемого значения расхода приведены в табл.3.

3. В справочном приложении 3 приводятся таблицы со значением допустимых отклонений входных сигналов от расчетных для приборов с манометрической, мановакуумметрической, вакуумметрической, расходомерной шкалами (диаграммами).

Таблица 3

Поверяемое
значение расхода, %

Входной сигнал

при линейной зависимости между входным сигналом и показанием прибора

при квадратичной зависимости между входным сигналом и показанием прибора

кгс/см

мм рт.ст.

кгс/см

мм рт.ст.

0

0,200

147,6

0,200

147,6

30

0,440

324,8

0,272

200,8

40

0,520

383,9

0,328

242,1

50

0,600

442,9

0,400

295,3

60

0,680

502,0

0,488

360,2

70

0,760

561,0

0,592

436,9

80

0,840

620,1

0,712

525,6

90

0,920

679,1

0,848

625,9

100

1,000

738,2

1,000

738,2

5.5.5. Основную погрешность приборов класса точности 0,5 определяют не менее чем при девяти значениях входного сигнала и классов точности 1; 2,5 не менее чем при шести значениях, достаточно равномерно распределенных в диапазоне измерений, в том числе при нулевом значении входного сигнала.

5.5.6. У приборов, имеющих расходомерную шкалу (диаграмму), основную погрешность показаний приборов класса точности 0,5 определяют при значениях расхода, равных 30, 40, 50, 60, 70, 80, 90 и 100% верхнего предела измерений или близких к ним, и классов точности 1; 2,5 при значениях расхода 30, 40, 60, 80 и 100% верхнего предела измерений или близких к ним.

5.5.7. Нижний предел измерений приборов, имеющих расходомерную шкалу, должен составлять не более 30% предела измерений.

5.5.8. Поверку приборов при значениях, указанных в пп.5.5.6 и 5.5.7, производят вначале при плавно возрастающем значении входного сигнала, а затем, после выдержки на верхнем пределе измерений не менее 5 мин, при плавно убывающем значении входного сигнала.

5.5.9. Пределы допускаемой основной погрешности прибора и вариация должны соответствовать ГОСТ 14753-69.

(Измененная редакция - "Информ. указатель стандартов" N 10 1978 г.).

5.5.10. Основная погрешность прибора не должна превышать:

а) при первичной поверке (при выпуске из производства и после ремонта) - 0,8 ;

б) при периодической поверке (в эксплуатации) -.

5.5.11. Вариация показаний, определяемая по ГОСТ 14753-69 при каждом поверяемом значении измеряемой величины, кроме значений, соответствующих значению входного сигнала и верхнему пределу измерений, не должна превышать абсолютных величин, установленных в п.5.5.9.

(Измененная редакция - "Информ. указатель стандартов" N 10 1978 г.).

5.5.12. Невозвращение после поверки стрелки (пера) прибора к нулевой отметке шкалы (нулевой отсчетной линии диаграммы) не должно превышать абсолютной величины по ГОСТ 14753-69.

5.5.13. У многострелочных (многозаписных) приборов погрешность и вариацию определяют отдельно по каждой стрелке (перу) прибора.

5.5.14. В многострелочных (многозаписных) приборах разность показаний стрелок (перьев) при одном и том же значении измеряемой величины как при прямом, так и при обратном ходе не должна превышать абсолютного значения предела допускаемой основной погрешности.

5.5.15. У приборов со шкалой задания и шкалой исполнительного механизма погрешность и вариацию определяют в соответствии с п.5.

5.5.16. Показания у приборов с теневым методом отсчета отсчитывают по границе раздела между двумя цветами, образуемой визирной планкой.

5.5.17. Образцовые пружинные манометры, предназначенные для установки с их помощью расчетных значений входных сигналов, должны быть предварительно поверены при значениях, равных расчетным значениям.

5.5.18. При определении погрешности с помощью жидкостных образцовых манометров давление 1 кгс/см (0,1 МПа), создается столбом ртути высотой 738,2 мм при ускорении м/с и температуре 20 °С.

Указанной высотой столба ртути допускается пользоваться в диапазонах ускорений свободного падения тел 9,7970-9,8255 м/с для приборов классов точности 0,5 и 1,0 при температуре 20±2 °C, для приборов класса точности 2,5 - при температуре 20±5 °C.

При ускорении свободного падения тела, отличном от нормального, значение высоты столба ртути () в мм рт.ст. определяют из равенства:

,

где - высота столба ртути при , мм рт.ст.;

- нормальное ускорение свободного падения тел, м/с;

- ускорение свободного падения тел в месте поверки, м/с.

5.5.19. Основную погрешность в процентах вычисляют по формулам;

при поверке по способу, указанному в п.5.5.а, для приборов с именной и процентной шкалами:

а) напоромеров, тягонапоромеров, тягомеров, манометров, манометров абсолютного давления, манометров узкопредельных, мановакуумметров, вакуумметров и расходомеров при линейной зависимости между входным сигналом и показанием прибора:


;

б) расходомеров при квадратичной зависимости между входным сигналом и показанием прибора:


,

в) расходомеров с суженным нерабочим участком шкалы при линейной зависимости между входным сигналом и показанием прибора:

,

где - значение измеряемой величины в начале рабочего участка по шкале (диаграмме) поверяемого прибора;

- значение входного сигнала, соответствующее значению измеряемой величины в начале рабочего участка по шкале (диаграмме), кгс/см;

при поверке по способу, указанному в п.5.5.1б, для приборов с именованной шкалой:

а) напоромеров, манометров, манометров абсолютного давления:


;

б) манометров узкопредельных:


;

в) тягомеров и вакуумметров:


;

г) тягонапоромеров и мановакуумметров:

;

д) расходомеров:

;

для процентной шкалы:

,

где - отсчет по шкале поверяемого прибора с манометрической и вакуумметрической шкалами;

- отсчет по шкале поверяемого прибора с расходомерной шкалой;

- отсчет по шкале поверяемого прибора с процентной шкалой;

- поверяемое значение измеряемой величины, выраженное в процентах;

- действительное значение входного сигнала, соответствующее поверяемому значению измеряемой величины.

Примечания:

1. Значения , , , , , , , , , , должны быть выражены соответственно в одних и тех же един

ицах.

2. В справочных приложениях 3 и 4 приводятся вспомогательные таблицы для определения погрешности в зависимости от поверяемого значения расхода и абсолютной погрешности входного сигнала, выраженной в мм рт.ст. и кгс/см.

(Измененная редакция - "Информ. указатель стандартов" N 10 1978 г.).

5.5.20. Погрешность приборов, имеющих шкалу задания, и приборов, имеющих шкалу исполнительного механизма, вычисляют по формулам, указанным в п.5.5.19 для приборов с манометрической шкалой.

5.6. Определение погрешности хода диаграммы

5.6.1. Погрешность хода диаграммы с приводом от часового механизма и с пневматическим приводом определяют по хронометру, с приводом от синхронного двигателя - по электрическим часам, работающим синхронно с частотой тока в сети.

Примечание. Допускается погрешность хода диаграммы с приводом от часового механизма и с пневматическим приводом определять по радиосигналам точного времени.

5.6.2. Погрешность хода диаграммы за 24 ч не должна превышать ±3 мин для приборов с приводом от часового механизма и ±5 мин - для приборов с пневматическим приводом и приводом от синхронного двигателя.

5.6.3. Погрешность определяют следующим образом. Включают привод диаграммы. В момент нахождения пера на линии времени, наносят пером отметку на диаграмму и отсчитывают показания хронометра (электрических часов). В момент нахождения пера на линии времени, отстоящей от первой отмеченной линии на промежуток времени , наносят пером вторую отметку и второй раз отсчитывают показания хронометра (электрических часов). На дисковой диаграмме отметки наносят на отсчетной линии верхнего предела измерений.

Промежуток времени в часах принимают равным:

при допускаемой погрешности хода диаграммы - 3 мин за 24 ч:


;

при допускаемой погрешности хода диаграммы - 5 мин за 24 ч:

,

где - промежуток времени, равный 0,2 цены деления времени диаграммы (не менее 2 мм), мин.

5.6.4. Погрешность хода диаграммы за 24 ч определяют по формуле

,

где - промежуток времени по диаграмме, мин;

- промежуток времени по хронометру (электрическим часам), мин.

5.7. Проверка самопишущего устройства

5.7.1. Для проверки самопишущего устройства в приборе отключают от привода лентопротяжный механизм или механизм вращения диска.

5.7.2. Линии записи на неподвижной диаграмме при изменении входного сигнала от 0,2 до 1,0 кгс/см (0,02 до 0,1 МПа) и от 1,0 до 0,2 кгс/см (0,1 до 0,02 МПа) должны совпадать с отчетными линиями времени с отклонением, не превышающим 0,5 мм.

Правильность линии записи проверяют измерением расстояния между каждым концом линии, прочерченной пером при изменении входного сигнала и нанесенной на диаграмму линией времени.

5.7.3. Линии записи, нанесенные неподвижным пером на движущуюся диаграмму, не должны отклоняться от отсчетной линии измеряемой величины более чем на абсолютного значения предела допускаемой основной погрешности.

Совпадение линий проверяют при трех значениях измеряемой величины, соответствующих нулевому значению, половине верхнего предела измерений и верхнему пределу измерений, передвигая диаграмму при каждом значении измеряемой величины; при этом дисковая диаграмма должна совершать полный оборот, а ленточная - переместится не менее чем на 200 мм.

5.7.4. Линии записи должны быть сплошными, толщиной не более 0,5 мм у приборов с непрерывной записью и несмазанными у приборов с многоточечной записью.

5.7.5. В многоточечных приборах проверяют правильность работы переключателя, т.е. соответствие цвета (или номера) выбиваемых точек цвету (или номеру), фиксированному механизмом переключателя до момента удара.

5.7.6. В многоточечных приборах с диаграммой, имеющей одно поле записи показаний, расстояние между перьями не должно превышать 0,5 цены деления шкалы времени при ленточной диаграмме и 1/96 длины любой отсчетной окружности измеряемой величины при дисковой диаграмме.

5.8. Определение погрешности показаний интегратора

5.8.1. Показания интегратора при его поверке отсчитывают по счетчику интегратора и дополнительному устройству для отсчета дробных значений.

5.8.2. Погрешность отсчета по дополнительному устройству не должна превышать 1/5 величины предела допускаемой основной погрешности интегратора.

5.8.3. Входной сигнал, подаваемый при поверке в интегратор, должен быть равен расчетному значению. В процессе поверки значение входного сигнала не должно изменяться.

5.8.4. Необходимую продолжительность работы интегратора при поверке определяют исходя из погрешности отсчета по дополнительному устройству и конструктивных особенностей интегратора.

5.8.5. Требуемая минимальная продолжительность работы интегратора при его поверке () в минутах, обусловленная погрешностью отсчета, при поверяемом значении расхода вычисляют по формуле


,

где - погрешность отсчета по дополнительному устройству, равная цене деления, если длина деления менее 1 мм, и 0,5 цены деления, если длина деления равна или более 1 мм;

- расчетная разность показаний интегратора за час, соответствующая верхнему пределу измерений;

- предел допускаемой основной погрешности интегратора, выраженный в процентах от расчетной разности показаний интегратора, соответствующей верхнему пределу измерений.

5.8.6. Требуемая минимальная продолжительность работы интегратора, обусловленная его конструктивными особенностями, выбирается кратной периоду минимально необходимого целого числа оборотов элементов кинематической цепи механизма интегратора.

5.8.7. Погрешность показаний интегратора определяют при значениях расхода, составляющих 30, 50, 80 и 100% от верхнего предела измерений или близких к ним при возрастающем и убывающем значениях входного сигнала.

5.8.8. Погрешность показаний определяют одним из следующих способов:

а) путем определения действительной разности показаний, соответствующей заданной продолжительности работы интегратора при поверяемом значении расхода;

б) путем определения действительной продолжительности работы интегратора, необходимой для достижения расчетной разности, соответствующей поверяемому значению расхода.

Расчетную разность показаний вычисляют по формуле

.

5.8.9. Погрешность показаний интегратора вычисляют по формулам:

а) при поверке по способу, указанному в п.5.8.8а;


;

б) при поверке по способу, указанному в п.5.8.8б:


,

где - действительная разность показаний интегратора за заданную продолжительность работы;

- расчетная разность показаний интегратора за заданную продолжительность работы, вычисляемая по формуле

,

где - заданная продолжительность работы интегратора (время поверки), мин;

- действительная продолжительность работы интегратора, мин.

Примечание. В табл.4 приводятся расчетные значения величин , , , для поверяемых значений расхода приборов типа ПИК-1, классов точности 0,5 и 1,0.

Таблица 4

Поверяемое значение расхода, %

Расчетное значение входного сигнала

Время поверки , мин

Количество единиц за время

Допустимое отклонение , с

Допустимое отклонение показаний

кгс/см

мм. рт.ст.

Класс точности

0,5

1,0

0,5

1,0

0,5

1,0

0,5

1,0

30

0,272

200,8

13,3

13,3

8

8

±13,3

±26,6

±0,13

±0,27

50

0,400

295,3

8

8

8

8

±4,8

±9,6

±0,08

±0,16

80

0,712

525,6

10

-

5

16

±3,7

±3,7

±0,1

±0,1

100

1,0

738,2

8

-

4

16

±2,4

±2,4

±0,08

±0,08

6. ОФОРМЛЕНИЕ РЕЗУЛЬТАТОВ ПОВЕРКИ

6.1. Приборы, соответствующие требованиям настоящего стандарта, допускаются к применению.

6.2. При положительных результатах первичной поверки в выпускном аттестате (или паспорте) приборостроительного или прибороремонтного предприятия записывают, что прибор годен к применению, и указывают дату поверки.

6.2.1. Запись в выпускном аттестате (паспорте) результатов государственной первичной поверки заверяют подписью государственного поверителя и оттиском поверительного клейма.

(Измененная редакция - "Информ. указатель стандартов" N 10 1978 г.).

6.2.2. Запись в выпускном аттестате (паспорте) результатов первичной поверки, проведенной приборостроительным или прибороремонтным предприятием, заверяют в порядке, установленном предприятием.

6.3. При положительных результатах периодической поверки в эксплуатационном паспорте (или документе, его заменяющем) записывают, что прибор годен к применению, и указывают дату поверки.

6.3.1. Запись в эксплуатационном паспорте (или документе, его заменяющем) результатов государственной периодической поверки заверяется поверителем и оттиском поверительного клейма.

6.3.2. Запись в эксплуатационном паспорте результатов ведомственной поверки заверяется в порядке, установленном органом ведомственной метрологической службы.

6.4. При отрицательных результатах поверки приборы не допускаются к выпуску из производства и после ремонта, а находящиеся в эксплуатации - к применению. В выпускном аттестате (или паспорте) или в эксплуатационном паспорте (или документе, его заменяющем) производят запись о непригодности прибора.

6.5. По результатам поверки составляют протокол по форме, указанной в приложениях 1 и 2.

ПРИЛОЖЕНИЕ 1

ПРОТОКОЛ N _______


"____"______________ 19___ г.

поверки

, тип

, N

(наименование прибора)

пределы измерений

, класс точности

,

принадлежащего

Образцовые приборы:

тип

, N

верхний предел измерений

класс точности

Поверяемое значение измеряемой величины

Расчетное значение входного (выходного) сигнала

Действительное значение входного (выходного) сигнала или показание по шкале поверяемого прибора

Погрешность поверяемого прибора в % нормирующего значения или в единицах измерения

Вариация в процентах или единицах измерения

при прямом ходе

при обратном ходе

при прямом ходе

при обратном ходе

Предел допускаемой основной погрешности ________________%

Наибольшая погрешность показаний _______________%

Допускаемая вариация _____%

Наибольшая вариация показаний ______________%



кгс/см

Расчетные значения выходного сигнала

Действительное значение выходного сигнала при давлении воздуха питания

Изменение выходного сигнала при изменении давления воздуха питания в % от нормирующего значения или в единицах измерения

1,26

1,40

1,54

1,26

1,54

1

2

3

4

5

6

Допускаемое изменение выходного сигнала_______________ %

Наибольшее отклонение выходного сигнала_______________ %

Примечание. В графах 1-4 указать единицы измерения.

Прибор годен, забракован (указать причины) _______________________________________

Подпись лица, выполнившего поверку _____________________________________________

ПРИЛОЖЕНИЕ 2

ПРОТОКОЛ N ______

"____"______________ 19___ г.

поверки интегратора, тип

, N

,

класс точности

изготовленного (отремонтированного)

принадлежащего

Образцовые приборы:

тип

, N

верхний предел измерений

,

класс точности

Поверяемое значение расхода

Первый отсчет

Второй отсчет

Погрешность

по счетчику

по секундомеру

по счетчику

по секундомеру

Предел допускаемой основной погрешности _________________%

Наибольшая погрешность показаний ______________%

Прибор годен (забракован) - указать причины _________________________________________

Подпись лица, выполнившего поверку ________________________________________________


ПРИЛОЖЕНИЕ 3 к ГОСТ 8.008-72
Справочное

Определение погрешности приборов с расходомерной шкалой при квадратической
зависимости между входным сигналом и показанием приборов



Таблица 1

Рас- ход, , %

Абсолютная погрешность поверяемого прибора в единицах давления (кгс/см·10)

Основная погрешность , %

0,1

0,15

0,2

0,25

0,3

0,35

0,4

0,45

0,5

0,55

0,6

0,65

0,7

0,75

0,8

0,85

0,9

0,95

1,0

1,25

1,5

1,75

2,0

2,25

2,5

30

4,8

7,2

9,6

12

14,4

16,8

19,2

21,6

24

26,2

28,8

1,2

33,6

36

38,4

40,8

43,2

44,6

48

60

72

84

96

108

120

40

6,4

9,6

12,8

16

19,2

22,4

25,6

28,2

32

35,2

38,4

41,6

44,8

48

51,2

54,4

57,6

60,8

64

80

96

112

128

144

160

50

8,0

12

16

20

24

28

32

36

40

44

48

52

56

60

64

68

72

76

80

100

120

140

160

180

200

60

9,6

14,4

19,2

24

28,8

33,6

48,4

43,2

48

52,8

57,6

62,4

67,2

72

76,8

81,6

86,4

91,2

96

120

144

168

192

216

240

70

11,2

16,8

22,4

28

33,6

39,2

44,8

50,4

56

61,6

67,2

72,8

78,4

84

89,6

95,2

100,8

106,4

112

140

168

196

224

232

260

80

12,8

19,2

25,6

32

38,4

44,8

51,2

57,6

64

70,4

76,8

83,2

89,6

96

102,4

108,8

115,2

121,6

128

160

192

224

256

288

320

90

14,4

21,6

28,8

36

43,2

50,4

57,6

64,8

72

79,2

86,4

93,6

100,8

108

115,2

122,6

129,8

137

144

180

216

252

288

324

360

100

16,0

24

32

40

48

56

64

72

80

88

96

104

112

120

128

136

144

152

160

200

240

280

320

360

400



Таблица 2

Расход, , %

Абсолютная погрешность поверяемого прибора в единицах давления (мм рт.ст.)

Основная погрешность , %

0,1

0,15

0,2

0,25

0,3

0,35

0,4

0,45

0,5

0,55

0,6

0,65

0,7

0,75

0,8

0,85

0,9

0,95

1,0

1,25

1,5

1,75

2,0

2,25

2,5

30

0,4

0,5

0,7

0,9

1,0

1,2

1,4

1,6

1,8

1,9

2,1

2,3

2,4

2,6

2,8

3,0

3,2

3,3

3,5

4,4

5,3

6,1

7,0

7,9

8,8

40

0,5

0,7

0,9

1,2

1,4

1,6

1,9

2,1

2,4

2,6

2,8

3,1

3,3

3,6

3,8

4,0

4,2

4,5

4,7

5,9

8,3

8,1

9,4

10,6

11,8

50

0,6

0,9

1,2

1,5

1,8

2,1

2,4

2,6

2,9

3,2

3,5

3,8

4,1

4,4

4,7

5,0

5,3

5,6

5,9

7,4

8,8

10,3

11,8

13,3

14,7

60

0,7

1,1

1,4

1,8

2,1

2,5

2,8

3,2

3,6

3,9

4,3

4,6

5,0

5,3

5,7

6,0

6,4

6,7

7,1

8,9

10,4

12,4

14,2

16,0

17,8

70

0,8

1,2

1,7

2,1

2,5

2,9

3,3

3,7

4,1

4,5

5,0

5,4

5,8

6,2

6,6

7,0

7,4

7,8

8,3

10,4

12,4

14,5

16,6

18,7

20,7

80

0,9

1,4

1,9

2,4

2,8

3,3

3,8

4,2

4,7

5,2

5,6

6,1

6,6

7,1

7,5

8,0

8,5

9,0

9,4

11,8

14,1

16,5

18,8

21,2

23,5

90

1,1

1,6

2,1

2,6

3,2

3,7

4,2

4,8

5,3

5,8

6,4

6,9

7,4

8,0

8,5

9,0

9,5

10,0

10,6

13,4

15,9

18,6

21,2

23,8

26,5

100

1,2

1,8

2,4

2,9

3,5

4,1

4,7

5,3

5,9

6,5

7,1

7,7

8,3

8,9

9,4

10,0

10,6

11,2

11,8

14,7

17,7

20,7

23,6

26,5

29,5


ПРИЛОЖЕНИЕ 4 к ГОСТ 8.008-72
Справочное

Допустимое отклонение входных сигналов от расчетных значений:

а) для приборов с манометрической, мановакуумметрической, вакуумметрической и расходомерной шкалой с линейной зависимостью между входным сигналом и показанием прибора указаны в табл.1;

б) для приборов с расходомерной шкалой с квадратической зависимостью между входным сигналом и показанием прибора - в табл.2.

Таблица 1

Класс точности поверяемого прибора

Допустимое отклонение

кгс/см

мм рт.ст.

0,5

±0,004

±2,9

1,0

±0,008

±5,9

2,5

±0,020

±14,8



Таблица 2

Поверяемое значение расхода

Расчетное значение входного (выходного) сигнала

Предельное значение входного (выходного) сигнала для приборов классов точности

0,5

1

2,5

кгс/см

мм рт.ст.

кгс/см

мм рт.ст.

кгс/см

мм рт.ст.

кгс/см

мм рт.ст.

30

0,272

200,8

0,270

199,0

0,267

197,1

0,261

192,3

0,274

202,5

0,277

204,3

0,285

210,0

40

0,328

242,2

0,325

239,8

0,322

237,7

0,313

230,7

0,331

244,5

0,334

246,6

0,345

254,3

50

0,400

295,3

0,396

292,3

0,392

289,4

0,381

280,9

0,404

298,2

0,408

301,2

0,421

310,4

60

0,488

360,3

0,483

356,7

0,478

352,9

0,465

342,9

0,493

363,8

0,498

367,6

0,513

378,3

70

0,592

436,9

0,586

432,9

0,581

428,8

0,565

416,7

0,598

441,1

0,603

445,2

0,621

458,0

80

0,712

525,6

0,706

520,9

0,699

516,0

0,681

502,3

0,718

530,3

0,725

535,2

0,745

549,5

90

0,848

625,9

0,841

620,7

0,834

615,4

0,813

599,8

0,855

631,3

0,862

636,6

0,885

652,9

100

1,000

738,2

0,992

732,3

0,984

726,4

0,961

709,0

1,008

744,1

1,016

750,0

1,040

767,7

Текст документа сверен по:

М.: Издательство стандартов, 1979