top of page

1.3 CARACTERISTICAS ESTATICAS

                    Características de los Sistemas de Medición.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

- Las características estáticas de los instrumentos, sensores o sistemas de medida son las que aparecen en estos después de que ha pasado mucho tiempo, régimen permanente. Se cuantifica en términos de error. 

 

- Las características dinámicas se presentan en la respuesta de los sensores a un cambio brusco en su entrada, régimen transitorio, en general se presentan en los sensores que cuentan con elementos que almacenan energía (condensadores, inductancias, masas, resortes, etc). Estas características están representadas por el error dinámico y por la velocidad de respuesta.

                                   Características Estáticas

 

                                                                 Curva de calibración

 

La curva de calibración es la relación entre la entrada al sensor y su correspondiente correspondiente salida, salida, es decir que la curva de calibración calibración de un sensor o de un sistema de medida en general es la línea que une los puntos obtenidos aplicando sucesivos valores de la magnitud de entrada con sus respectivos valores de salida.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Para definir la curva de calibración adecuadamente se necesita como mínimo indicar su forma y sus límites. Estos últimos se especifican con algunos de los siguientes parámetros: Campo o margen de medida (range) (range): Es el conjunto de valores comprendidos entre los límites superior e inferior entre los cuales de puede efectuar la medida. Por ejemplo, si se dispone de un termómetro diseñado para medir entre -20 y 60 0C, el campo de medida será -200C /600C.

 

 

 

 

 

 

 

 

 

 

 

 

 

                                                  SENSIBILIDAD

Término utilizado para describir el mínimo cambio en la especie sensada que el instrumento puede detectar. Su definición es similar a la definición de ganancia pero se refiere, más bien, a la posibilidad de discriminar dos valores muy cercanos entre si. La sensibilidad se expresa cuantitativamente mediante la tasa de cambio de la medición respecto del cambio en la especie sensada.

 

Es común (pero erróneo) asociar la sensibilidad a la escala de lectura; p.e. si una escala de temperatura tiene divisiones cada un grado centígrado, se podría pensar que la sensibilidad fuese de ½ grado porque no sería posible "estimar" valores como ¼ de grado. En realidad, es posible que el sistema termómetro en uso necesite un cambió de un grado antes de modificar su aguja indicadora. 

 

La sensibilidad estática de un transductor mide la variación de la magnitud de salida por unidad de variación de la magnitud a medir, en condiciones de medida estabilizada.

 

En consecuencia, definimos la sensibilidad S, para un valor dado de m, como la derivada de la función de respuesta, es decir:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Obviamente, la sensibilidad es la pendiente de la tangente a la curva de respuesta en el punto (véase la figura). Como es obvio, la sensibilidad es constante si y sólo si la respuesta es lineal.

 

                                                  No linealidad

 

 

Es la máxima desviación de la curva de calibración con respecto a la línea recta por la que se ha

aproximado. Habitualmente se suele expresar en forma de % con respecto alalcance. También se conoce como linealidad o error de linealidad. La linealidad expresa hasta que punto es constante la sensibilidad del sensor

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Alcance Alcance o fondo de escala (span, input full scale), FS: Es la diferencia entre los límites superior e inferior de medida.

 

Ejemplo termómetro……..Alcance 80°C

 

Salida a fondo de escala (full scale output, output, FSO): Es la diferencia entre las salidas para los extremos del campo de medida

                                                     Zona muerta

Es el campo de valores de la variable que no hace variar la indicación, también se define como la región de la curva de calibración que presenta una sensibilidad nula.

 

 

 

 

 

 

 

 

 

 

 

 

 

                                                      HISTÉRESIS

 

Algunos instrumentos presentan un fenómeno de "memoria" que impone un histéresis a su respuesta.   La salida del sensor depende de los datos tomados anteriormente, es decir los datos arrojados por el medidor dependen de su historia.              

 

La histéresis es el fenómeno por el cual el valor medido depende del sentido en el que se alcance el punto de medida.

 

En particular, un sistema de medición de presión podría indicar los cambios de presión según si la presión anterior era más alta o más baja que la actual, debido a fenómenos de resistencia viscosa al desplazamiento de partes interiores del sensor.  

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Por ejemplo, un transductor de desplazamiento puede no medir lo mismo si el desplazamiento está aumentando o disminuyendo. Esto significa que hay dos curvas de respuesta, una cuando la variable a medir está creciendo y otra cuando está decreciendo.

 

En sistemas lineales ideales la histéresis es constante, ver la figura anterior, y está caracterizada por la distancia horizontal entre la rama ascendente y la descendente. En general la histéresis se caracterizará por la máxima distancia horizontal entre las ramas ascendente y descendente.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

                                                     RESOLUCIÓN

 

Es el incremento más pequeño que permite diferenciar una lectura de otra. Expresa la posibilidad de discriminar entre valores, debido a las graduaciones del instrumento. Se suele hablar de número de dígitos para indicadores numéricos digitales y de porcentaje de escala para instrumentos de aguja.

 

Es bien sabido, por ejemplo, que los termómetros de baja calidad sólo tienen indicaciones cada 10 ºC, sin subdivisiones, a fin de enfatizar al usuario que el instrumento sólo da una noción y no se debe usar como instrumento de alta resolución. La resolución está en directa relación a la escala del instrumento. 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

                                                                ERRORES

Medir una magnitud con el menor número de errores posibles. Siempre existe un grado de incertidumbre

 

Error absoluto

Diferencia entre el valor medido y el valor exacto en valor absoluto.

 

Error relativo:

Error absoluto dividido entre el valor exacto

 

 

 

 

 

 

 

 

 

 

 

                                      -PRECISIÓN - EXACTITUD

 

Grado de regularidad y correspondencia entre cierto numero de medidas independientes y realizadas en las mismas condiciones. Es decir es la característica de un instrumento o sistema de dar el mismo valor de la cantidad medida, al medir varias veces en unas mismas condiciones determinadas (operador, ambiental, etc).

 

Cuando dichos valores son tomados en intervalos de tiempo muy corto el concepto de precisión toma el nombre de Repetibilidad y cuando existe un método concreto para tomar los valores se denomina Reproducibilidad

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Para definir la variabilidad entre mediciones se tiene la precisión. Diversos factores contribuyen a la variabilidad de un método demedición, entre ellos:

 

1. El operador que realiza la medición.

2. Los equipos

3. La calibración de los equipos

4. El ambiente (T

°, humedad, etc)

5. El intervalo intervalo temporal temporal entre mediciones mediciones

 

                           REPETIBILIDAD - REPRODUCIBILIDAD

 

Repetibilidad: 

Es el grado de concordancia entre los resultados de mediciones sucesivas del mismo mesurando, realizadas bajo las mismas

condiciones de medida.

 

Reproducibilidad:

Es el grado de concordancia entre los resultados de mediciones sucesivas del mismo mesurando, realizadas bajo diferentes

condiciones de medida. Las medidas pueden realizarse a largo plazo, por personas distintas, con aparatos distintos o en distintos laboratorios.

 

                                                                     CALIBRACIÓN

Establecer, con la mayor exactitud posible, la correspondenciaentre las indicaciones de un instrumento de medida y los valores de la magnitud que se mide. Las tolerancias de los componentes y las no idealidades de los circuitos electrónicos conducen a que dos sensores o dos instrumentos de medida aparentemente idénticos no presenten nunca curvas idénticas idénticas de calibración calibración. La curva de calibración de los instrumentos varía a lo largo del tiempo y del grado de utilización de los mismos.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

                                                               Calibración a punto

 

Actuar sobre el sistema de medida de forma que para un punto concreto la salida sea lo más exacta posible.

 

Ejemplo:

Las básculas básculas analógicas analógicas incorporan incorporan un mando para ajustar ajustar el cero.

Las básculas digitales lo hacen automáticamente.

 

La calibración a un punto suele efectuarse sobre el valor cero de la variable de entrada porque suele ser uno de los puntos para los que más fácilmente suele ser conocido el valor verdadero. Básculas, velocímetros, acelerómetros, medida de desplazamiento

 

 

                              Calibración del cero y de la sensibilidad 

 

Para ajustar perfectamente una curva de calibración lineal se necesitarían ajustar dos puntos o un punto y la pendiente (sensibilidad). Algunos instrumentos incorporan esta posibilidad pero sin acceso al usuario, usuario, pero sí para el fabricante fabricante

 

bottom of page