Julio César Santana

Levítico, 19, 35-36.
El célebre científico ruso Dimitri Ivánovich Mendeléyev (1834-1907), quien fuera director de la Oficina de Pesos y Medidas de San Petersburgo (1893), escribió sobre la Metrología que “…la ciencia comienza donde empiezan las mediciones”, expresión que también ha sido traducida del ruso del siguiente modo: “La ciencia comienza donde empieza la medición, no siendo posible la ciencia exacta en ausencia de las mediciones” (“Наука начинается там, где измерение начинается, не представляется возможным в отсутствие измерения точной науки”).
En semejantes términos se expresó William Thomson (Lord Kelvin), eminente científico inglés, refiriéndose esencialmente al progreso del conocimiento en el ámbito de las ciencias naturales: “Cuando usted puede medir de lo que habla y lo expresa en números, usted sabe algo acerca de eso; pero cuando usted no puede medir, cuando usted no lo puede expresar en números, su conocimiento es de una clase escasa y poco satisfactoria; puede ser el comienzo del conocimiento, pero usted apenas ha podido, en sus pensamientos, avanzar en las etapas de la ciencia”.
Las opiniones de estos dos célebres científicos, que curiosamente fallecieron el mismo año de 1907, son más que suficientes para tener una idea de la importancia de la Metrología en el desarrollo económico, la ciencia, la investigación, los procesos de innovación y el desarrollo tecnológico en el mundo de nuestros días.
Hacia finales de 2004, en República Dominicana el término Metrología era prácticamente desconocido en su significado y connotaciones modernas. En algunas universidades la noción de la Metrología y de sus conceptos clave relacionados eran vagos y confusos, además estaba de hecho ausente en sus programas curriculares. Se necesitaron muchas intervenciones en los medios de comunicación, conferencias de expertos y reuniones de trabajo para que el país comenzara a entender la importancia crucial de esta apasionante disciplina científica.
En este capítulo se examinarán, en el marco ya conocido del Sistema Nacional de la Calidad, el concepto de Metrología, las ramas en las que se la divide, las cuestiones conceptuales básicas relacionadas, la estructura mundial de la Metrología, su importancia vista desde diferentes ángulos y, finalmente, algunos aspectos del estado actual de la Metrología en República Dominicana.
William Thomson (Lord Kelvin, 1824-1907) Dmitri Ivánovich Mendeleyev (1834-1907)
El Concepto de la Metrología
La Metrología se define como la ciencia de las mediciones y sus aplicaciones e incluye todos los aspectos teóricos y prácticos relacionados, cualesquiera que sean la incertidumbre de medida y el campo de aplicación (Vocabulario Internacional de Términos de Metrología Legal (VIM). Edición 2000. Mimeo).
Las ramas más importantes de la Metrología son:
La Metrología Científica se ocupa de la organización y desarrollo de los patrones de medida y de su mantenimiento (el nivel más alto). Generalmente se refiere al desarrollo de equipos y sistemas de medición patrones, métodos de medición, establecimiento de esquemas de jerarquía para la realización de una unidad de medida y diseño de métodos de evaluación de la incertidumbre de medición.
Actualmente, en la región solo México (CENAM), Brasil (INMETRO) y Cuba (INIMET) desarrollan actividades propias de la Metrología Científica (las cuales abarcan, al más alto nivel, aspectos teóricos, de conceptualización y definición).
En el campo de la Metrología Científica se destaca la Metrología Fundamental que no tiene una definición internacional, aunque supone el nivel más elevado de exactitud dentro de un campo dado (por lo que puede considerarse como la arista superior de la Metrología Científica).
La Metrología Industrial es la rama de la Metrología más vinculada a los conceptos de calibración y trazabilidad metrológica. Ella está llamada al aseguramiento del funcionamiento adecuado de los instrumentos de medida empleados en la industria, en los procesos de producción y de investigación, asegurando así la confiabilidad y reproducibilidad de las mediciones.
La Metrología legal (ML), ya definida en páginas anteriores, de acuerdo con el Vocabulario de ML difundido por la OIML es
“…la parte de la Metrología relacionada con las actividades que se derivan de los requisitos legales que se aplican a la medición, las unidades de medida, los instrumentos de medida y los métodos de medida que se llevan a cabo por los organismos competentes”.
Como señala este documento, el ámbito de aplicación de la Metrología legal puede ser diferente de un país a otro. En general, los organismos competentes en materia de ML tienen bajo su responsabilidad las actividades referidas al control metrológico legal y al control legal de los instrumentos de medida. El primero incluye el control legal de los instrumentos de medición, la supervisión metrológica y los conocimientos metrológicos. El segundo, es un término genérico utilizado para describir, en general, operaciones legales en las que los instrumentos de medida pueden ser objeto, por ejemplo, de aprobación de tipo, verificación, etc. (Vocabulario Internacional de Metrología (VIM). Ob. Cit.).
El objeto de la Metrología abarca la definición de las unidades de medida internacionalmente aceptadas, la realización de las unidades de medida mediante métodos científicos y el establecimiento de las jerarquías de calibración y de trazabilidad metrológica, determinando y documentando el valor y la exactitud de las mediciones para su diseminación en cualquier ámbito social o económico.
Se advierte entonces que el objeto de la Metrología apunta a tres aspectos:
a)Definición de las unidades de medida.
b)Realización de estas unidades de medida.
c)Establecimiento de las cadenas de trazabilidad metrológica para asegurar la diseminación de la exactitud de las unidades de medida hacia todos los sectores productivos, laboratorios y centros de investigación del país.
Magnitudes básicas y definición del Sistema de Unidades
Una magnitud es la propiedad de un fenómeno, cuerpo o sustancia, que puede expresarse cuantitativamente mediante un número y una referencia. (Ver: Centro Español de Metrología. Vocabulario Internacional de Metrología (VIM). Conceptos Fundamentales y Generales, y Términos Asociados. JCGM 200:2008, edición 2008. Mimeo). Tal comparación se hace en términos de igualdad, orden y número, siempre y en todos los casos.
La multiplicidad de mediciones existentes exige la formalización de un conjunto de unidades que cumpla con los siguientes requisitos mínimos:
•Que estén bien definidas y reconocidas universalmente.
•Que sean accesibles a todo el mundo.
•Que sean constantes en el tiempo y en el espacio.
•Que sean reproducibles con la mayor exactitud posible.
El Sistema Internacional de Unidades (SI) reúne por convención todas esas características y ha sido aceptado-aunque no necesariamente aplicado- por todos los países del mundo.
Este Sistema, que está basado en el Sistema Internacional de Magnitudes, fue adoptado por la Conferencia General de Pesas y Medidas (CGPM). En él se definen los nombres y símbolos de las unidades, una serie de prefijos con sus nombres y símbolos (ver cuadro que sigue), además de las reglas precisas para su utilización.
EL SISTEMA INTERNACIONAL DE UNIDADES (SI)
El establecimiento del Sistema Métrico Decimal en la época de la Revolución Francesa y el depósito el 22 de junio de 1799 de dos patrones de platino e iridio en los Archivos de la República de Francia en París, representativos del metro y el kilogramo, respectivamente, son hechos que pueden considerarse como el primer paso en el desarrollo del actual Sistema Internacional de Unidades. Más tarde la 11ª Conferencia General de Pesas y Medidas (CGPM), en 1960, adoptó el nombre de Sistema Internacional de Unidades (SI) para el sistema práctico y dinámico de unidades de medida basado en el Sistema Métrico Decimal. En la actualidad, el único país importante que se mantiene sin aceptar oficialmente el SI es EE. UU. El hecho de que los Estados Unidos, el principal socio comercial de la República Dominicana, haya retardado la adopción del SI, repercute negativamente en el proceso de adopción oficial del mismo en República Dominicana, lo cual se refleja tanto en la amalgama de unidades utilizadas en las transacciones comerciales y económicas del país como en la ausencia de interés en los centros académicos por su enseñanza y difusión.
El SI comienza por establecer un sistema de magnitudes y un conjunto de ecuaciones que las relacionan entre sí. Estas ecuaciones determinan también las relaciones entre sus unidades. Se comienza por seleccionar las magnitudes básicas y, a partir de estas, se obtienen las derivadas, que resultan de potencias de las anteriores.
La división de las magnitudes que se ilustra en el cuadro de referencia es convencional y no fundamental para la comprensión de la física subyacente. Lo más importante es medir con la exactitud adecuada en cada caso, ya se trate de procesos industriales o de transacciones comerciales, de dosis de substancias en los medicamentos o de cantidad de contaminantes presentes en el medioambiente.
Realización de las Unidades de Medida y Medición
No es lo mismo la definición de una unidad de medida que su realización práctica. La definición de cada unidad básica del SI está redactada cuidadosamente con el fin de que resulte única, comprensible y proporcione una base teórica sólida para realizar medidas con la exactitud y la reproducibilidad máximas requeridas. La realización práctica de la definición de una unidad, en cambio, es el procedimiento que permite establecer el valor y la incertidumbre asociada a dicha unidad, por ejemplo, la realización del metro mediante el empleo de láseres estabilizados.
Nota: El SI actual está compuesto por las siete magnitudes básicas siguientes: longitud, masa, tiempo, intensidad de corriente eléctrica, temperatura termodinámica, cantidad de sustancia e intensidad luminosa. Las correspondientes unidades básicas, elegidas por la CGPM, son: metro, kilogramo, segundo, amperio, kelvin, mol y candela (La 8ª edición del SI (la que se utiliza en este libro fue editada por el Centro Español de Metrología, accesible a través de su página web www.cem.es), define y presenta en profundidad el SI, hoy ampliamente utilizado en las industrias, comercio, salud, medioambiente, ciencias, etiquetado informativo de productos, etc.).
Cuando se mide algo se relaciona una magnitud con otra u otras consideradas patrones universalmente aceptados. En este contexto, de acuerdo con el VIM, la medición consiste en un proceso destinado a
“…Obtener experimentalmente uno o varios valores que pueden atribuirse razonablemente a una magnitud” y que no es aplicable “a las propiedades cualitativas”.
En términos más llanos, medir una cantidad de magnitud implica compararla con otra de la misma clase o especie seleccionada como unidad de medida, de tal forma que el resultado de la medición es el número de veces que la cantidad contiene a esa unidad de medida, o lo que es lo mismo:
Magnitud (4 kg)= valor de la magnitud (4) x unidad de medida (kg).
En este sencillo ejemplo, la magnitud medida es la masa (m), de naturaleza física, el número que la cuantifica es 4 y la unidad de medida es el kilogramo (kg).
Las mediciones requieren del cumplimiento riguroso de requisitos técnicos específicos; sin la observación de los mismos la calidad de la medición no resultaría confiable.
Estos requisitos pueden ser resumidos en los siguientes:
a)Trazabilidad de las mediciones al SI (calibración, verificación).
b)Evaluación de la incertidumbre de medición; principio, métodos y procedimientos de medición.
c)Expresión de los resultados en unidades del SI.
d)Confirmación metrológica que no es más que el conjunto de operaciones que aseguran que un equipo de medición cumple con los requisitos correspondientes para el uso al que está destinado.
El Concepto fundamental de Incertidumbre
La incertidumbre se define en el VIM como un
“…Parámetro no negativo que caracteriza la dispersión de los valores atribuidos a un mensurando, a partir de la información que se utiliza”.
Agrega que “la incertidumbre de medida incluye:
•Componentes procedentes de efectos sistemáticos, tales como componentes asociadas a correcciones y a valores asignados a patrones,
•así como la incertidumbre debida a la definición (la incertidumbre debida a la definición “es una componente de la incertidumbre de medida resultante de la falta de detalles en la definición del mensurando” o “la incertidumbre mínima que puede obtenerse en la práctica para toda medición de un mensurando dado”. Debe tomarse en cuenta “que cualquier modificación de los detalles descriptivos del mensurando conduce a otra incertidumbre debida a la definición”. Ver: Vocabulario Internacional de Metrología. Ob. Cit.).
Algunas veces no se corrigen los efectos sistemáticos estimados y en su lugar se tratan como componentes de incertidumbre.
Además de los tipos de evaluaciones de la incertidumbre, el VIM establece que:
“…en general, para una información dada, se sobrentiende que la incertidumbre de medida está asociada a un valor determinado atribuido al mensurando. Por tanto, una modificación de este valor supone una modificación de la incertidumbre asociada” (cursivas mías).
De este modo, toda medición lleva implícita una incertidumbre, la cual, resumiendo la definición VIM anterior, puede decirse que es un parámetro que caracteriza la dispersión de los valores que pueden ser atribuidos razonablemente al mensurando; es decir, a la magnitud que se desea medir. (El VIM aclara que “la medición, incluyendo el sistema de medida y las condiciones bajo las cuales se realiza esta, podría alterar el fenómeno, cuerpo o sustancia, de tal forma que la magnitud bajo medición difiriera del mensurando. En este caso sería necesario efectuar la corrección apropiada”. Pone el siguiente ejemplo: “la longitud de una varilla cilíndrica de acero a una temperatura de 23 ºC será diferente de su longitud a la temperatura de 20 ºC, para la cual se define el mensurando. En este caso, es necesaria una corrección”. (Ver: Vocabulario Internacional de Metrología. Ob. Cit.).
“…la incertidumbre es una medida cuantitativa de la calidad del resultado de medición, que permite que los resultados de medida sean comparados con otros resultados, referencias, especificaciones o Normas. Todas las mediciones están sujetas a error, por lo que el resultado de una medición difiere del valor verdadero del mensurando. Con tiempo y recursos, la mayoría de las fuentes de error en la medida pueden identificarse, y los errores de medición cuantificarse y corregirse, por ejemplo, mediante calibración. Sin embargo, nunca hay tiempo ni recursos suficientes para determinar y corregir completamente estos errores de medida” (EURAMET. Metrología Abreviada. Traducción de la 3ra. Edición. 2da. Edición en Español por: Centro Español de Metrología (CEM), Centro Nacional de Metrología de México (CENAM) e Instituto Nacional de Defensa de la Competencia y de la Protección de la Propiedad Intelectual (INDECOPI) de la República de Perú. Julio 2008. Mimeo).
Para ilustrar el significado de incertidumbre desde un punto de vista práctico se recurre a un ejemplo que es común en la literatura de divulgación de la Metrología y que originalmente aparece en el Manual de Metodología Abreviada de EURAMET.
Un resultado de medida viene expresado en un certificado en la forma
Y = y ± U
Donde la incertidumbre U está dada con no más de dos cifras significativas y el valor de “y” está consecuentemente redondeado al mismo número de dígitos, en este ejemplo, siete (7).
Una resistencia se mide con un medidor de resistencias obteniéndose un resultado de medición de 1,000 052 7 Ω (El ohmio u Ohm (símbolo Ω) es la unidad derivada de resistencia eléctrica en el Sistema Internacional de Unidades) con un valor de incertidumbre de 0,081 mΩ (miliohmios, 10−3 Ω), por lo que el resultado declarado en el certificado es
R = (1,000 053 ± 0,000 081) Ω
El valor de U, definido por el VIM y por la GUM como Incertidumbre Expandida, se determina a partir de la multiplicación de la Incertidumbre típica combinada por el Factor de Cobertura. La incertidumbre típica combinada se obtiene como la raíz cuadrada de las sumas al cuadrado de las incertidumbres típicas asociadas a las magnitudes de entrada (ver: JCGM 100-2008. GUM 1995 with minor corrections. Evaluación de los datos de las Mediciones — Guía para la expresión de la Incertidumbre de la Medición. Mimeo).
Factor de cobertura k = 2. La incertidumbre indicada en el resultado de medida es habitualmente una incertidumbre expandida, que se obtiene al multiplicar la incertidumbre típica combinada por un factor de cobertura numérico, a menudo k = 2, que corresponde a un intervalo con un nivel de confianza aproximado del 95 por ciento (EURAMET. Metrología Abreviada. Ob. Cit.).
La incidencia de las contribuciones de las diferentes fuentes de incertidumbre resulta inevitable por la definición del propio mensurando; otras influencias pueden provenir del principio, los métodos y procedimientos adoptados de medición.
Ejemplo: al medir la longitud de una barra, se tiene que la temperatura es una magnitud de entrada que tiene incidencia en el mensurando y que se puede reflejar en una expansión o contracción térmica de la misma. En este mismo caso, la fuerza de contacto es otra magnitud de entrada en el caso en que se usen instrumentos de contacto mecánico, por ejemplo los tornillos micrométricos o calibradores vernier.
Importante es conocer que otros atributos no cuantificables pueden afectar el resultado de una medición y, consecuentemente, también la incertidumbre.
En estos casos siempre es recomendable disminuir sus efectos mediante la aplicación de criterios comúnmente aceptados, como en el caso de la limpieza de las masas de alta exactitud, proceso en el que deben observarse de manera estricta los conocidos criterios llamados a asegurar su limpieza (Ver: Wolfgang A. Schmidt y Rubén J. Lazos Martínez. Guía para estimar la Incertidumbre de la Medición. Centro Nacional de Metrología de México (CENAM). Revisión 1, México, abril 2004. Mimeo).
Principio, método y procedimientos de medición son cruciales para hacer mediciones confiables.
Como señala el CENAM en su Guía para Estimar la Incertidumbre de la Medición:
“El principio de medición es el fundamento científico usado para realizar una medición. El conocimiento del principio de medición permite al metrólogo dominar la medición, esto es, modificarla, diseñar otra, evaluar su conveniencia, etc., además es indispensable para estimar la incertidumbre de la medición. El método de medición y el procedimiento de medición son descripciones de la manera de llevar a cabo la medición, la primera genérica, la segunda específica. El principio, el método y el procedimiento de medición son determinantes en el valor de la incertidumbre de la medición. Un conocimiento insuficiente de ellos muy probablemente conducirá a una estimación equivocada, o incompleta en el mejor de los casos, de la incertidumbre de la medición”.
PRINCIPIOS, MÉTODOS Y PROCEDIMIENTOS DE MEDICIÓN
El principio de medida se define en el VIM como un “fenómeno que sirve como base de una medición” y que puede ser de naturaleza física, química o biológica. Ilustran esta definición los siguientes ejemplos: el efecto termoeléctrico aplicado a la medición de temperatura; la absorción de energía aplicada a la medición de la concentración de cantidad de sustancia; la disminución de la concentración de glucosa en la sangre de un conejo en ayunas, aplicada a la medición de la concentración de insulina en una preparación. Por método de medida se entiende la “descripción genérica de la secuencia lógica de operaciones utilizadas en una medición”. Los métodos de medida pueden clasificarse de varias maneras como: método de sustitución, método diferencial y método de cero; o método directo y método indirecto (IEC 60050-300:2001). En cuanto al procedimiento de medida se establece que es “una descripción detallada de una medición conforme a uno o más principios de medida y a un método de medida dado, basado en un modelo de medida y que incluye los cálculos necesarios para obtener un resultado de medida. Un procedimiento de medida se documenta habitualmente con suficiente detalle para que un operador pueda realizar una medición. Puede incluir una incertidumbre de medida objetivo. El procedimiento de medida a veces se denomina Standards Operating Procedure (SOP) en inglés, o mode operatoire de mesure, en francés. Esta terminología no se utiliza en español”. Ver: Vocabulario Internacional de Metrología. Ob. Cit.
A la determinación del principio, el método y el procedimiento de medición, sigue la identificación de las posibles fuentes de incertidumbre. Estas provienen de los diversos factores involucrados en la medición, y pueden ser agrupadas en las siguientes categorías:
Los resultados de la calibración del instrumento.
La incertidumbre del patrón o del material de referencia.
La repetibilidad de las lecturas.
La reproducibilidad de las mediciones por cambio de observadores, instrumentos u otros elementos.
Características del propio instrumento, como resolución, histéresis, deriva, etc.
La definición del propio mensurando.
Realización imperfecta de la definición del mensurando.
Muestra no representativa del mensurando, la muestra analizada puede no representar al mensurando definido.
El modelo particular de la medición.
Variaciones en las magnitudes de influencia.
Conocimiento incompleto de los efectos de las condiciones ambientales sobre la medición, o medición imperfecta de dichas condiciones ambientales.
Lectura sesgada de instrumentos analógicos, por parte del técnico.
Resolución finita del instrumento de medida o umbral de discriminación.
Valores inexactos de los patrones de medida o de los materiales de referencia.
Valores inexactos de constantes y otros parámetros tomados de fuentes externas y utilizadas en el algoritmo de tratamiento de los datos.
Aproximaciones e hipótesis establecidas en el método y en el procedimiento de medida.
Variaciones en las observaciones repetidas del mensurando, en condiciones aparentemente idénticas. (Wolfgang A. Schmidt y Rubén J. Lazos Martínez. Guía para estimar la Incertidumbre de la Medición. Ob. Cit.).
“Es preferible la inclusión de un exceso de fuentes que ignorar algunas entre las cuales pudiera descartarse alguna importante. No obstante, siempre estarán presentes efectos que la experiencia, conocimientos y actitud crítica del metrólogo permitirán calificar como irrelevantes después de las debidas consideraciones. Por ejemplo, en la calibración de termómetros de mercurio en vidrio aparece una pequeña contribución de la temperatura ambiente, pero se considera despreciable aquella contribución debida a la radiación electromagnética en el ambiente”.
En resumen, cuando se mide algo puede producirse una perturbación en el sistema bajo observación. Por ejemplo, al medir la temperatura del cuerpo humano, lo que generalmente se hace es colocar el termómetro debajo de las axilas. Ello significa que el cuerpo y el dispositivo de medición hacen contacto, lo cual implica un intercambio de energía en forma de calor que provoca un pequeño cambio en la temperatura de ambos. En este caso, el instrumento de medida (termómetro) afecta la magnitud o variable que deseamos medir, en nuestro caso, la temperatura del cuerpo humano.
De todo lo expuesto hasta ahora se deduce que toda medición no es más una aproximación al valor real y, consecuentemente, siempre estará asociada a una incertidumbre. Todas las fuentes de incertidumbre señaladas, con su mayor o menor contribución, pueden ser clasificadas en determinados conjuntos de errores.
Las definiciones de los conceptos que siguen permitirán aclarar con mayor nivel de profundidad el concepto de incertidumbre, término relativamente nuevo dentro del vocabulario metrológico.
Lamentablemente, los términos error e incertidumbre se han utilizado frecuentemente como sinónimos, cuando su naturaleza es completamente diferente.
El término error se utiliza frecuentemente con dos significados bastante diferentes. El primero, para cuantificar la diferencia entre el resultado de una medida y el considerado como valor de la misma (valor verdadero, valor real o estándar). El valor de referencia es el valor de una magnitud que sirve de base de comparación con valores de magnitudes de la misma naturaleza. Puede ser el valor verdadero de un mensurando o un valor convencional.
De acuerdo con el VIM, el valor verdadero es el “el valor de una magnitud compatible con la definición de la magnitud”. Añade que “…en el enfoque en torno al concepto de error, el valor verdadero de la magnitud se considera único y, en la práctica, imposible de conocer en la descripción de la medición. El enfoque en torno al concepto de incertidumbre consiste en reconocer que, debido a la cantidad de detalles incompletos inherentes a la definición de una magnitud, no existe un único valor verdadero compatible con la definición, sino más bien un conjunto de valores verdaderos, compatibles con ella. Sin embargo, este conjunto de valores es, en principio, imposible de conocer en la práctica.
Otros planteamientos no contemplan el concepto de valor verdadero de una magnitud y se apoyan en el concepto de compatibilidad de resultados de medida para evaluar la validez de los resultados de medida. Finalmente, el valor convencional “es el valor asignado a una magnitud, mediante un acuerdo, para un determinado propósito”.
El segundo, para denominar la incertidumbre del resultado de una medida; es decir, para cuantificar la imperfección del método e instrumento de medida empleado. En todo caso, error e incertidumbre representan conceptos completamente distintos (aunque relacionados) que no deben confundirse entre sí ni utilizarse uno en lugar del otro.
Para los fines de la Metrología el error de medición es definido como
“Diferencia entre un valor medido de una magnitud y un valor de referencia”.
Esta diferencia puede tener valor positivo o negativo. De acuerdo con el Vocabulario, el concepto de error de medida puede emplearse en dos situaciones:
“a) Cuando exista un único valor de referencia, como en el caso de realizar una calibración mediante un patrón cuyo valor medido tenga una incertidumbre de medida despreciable, o cuando se toma un valor convencional, en cuyo caso el error es conocido.
“b) Cuando el mensurando se supone representado por un valor verdadero único o por un conjunto de valores verdaderos, de amplitud despreciable, en cuyo caso el error es desconocido” (Vocabulario Internacional de Metrología. Ob. Cit.).
E = Xm – Xr, donde E es el error de medición, Xm es el valor medido y Xr es el valor real.
El error se considera conformado por dos componentes: una componente aleatoria y una sistemática.
De acuerdo con el VIM, se entiende por error sistemático el
“…Componente del error de medida que, en mediciones repetidas, permanece constante o varía de manera predecible”. Explica que “el valor de referencia para un error sistemático es un valor verdadero, un valor medido de un patrón cuya incertidumbre de medida es despreciable, o un valor convencional. El error sistemático y sus causas pueden ser conocidas o no. Para compensar un error sistemático conocido puede aplicarse una corrección. El error sistemático es igual a la diferencia entre el error de medida y el error aleatorio”.
También puede definirse como la media que resultaría de un número infinito de mediciones del mismo mensurando efectuadas bajo condiciones de repetibilidad, menos el valor verdadero del mensurando.
Los errores sistemáticos tienen su origen en las imperfecciones de los métodos e instrumentos de medición cuyos resultados se ven afectados siempre en un mismo sentido (distorsión de la medición de la temperatura por el calor emitido por el cuerpo objeto de la medición). Pueden ser detectados y corregidos mediante la calibración contra patrones de mayor exactitud, la comparación de los resultados con los obtenidos por métodos alternativos y el examen del procedimiento de medición utilizado.
De acuerdo con el Comité Conjunto para las Guías de Metrología (JCGM del BIPM):
“El error sistemático, al igual que el error aleatorio, no puede eliminarse, pero frecuentemente puede ser reducido. Si se produce un error sistemático sobre un resultado de medida, debido a un efecto identificado de una magnitud de influencia (efecto sistemático), dicho efecto puede cuantificarse y, si es suficientemente significativo frente a la exactitud requerida en la medición, puede aplicarse una corrección o un factor de corrección para compensarlo. Se asume que, tras la corrección, la esperanza matemática del error debido al efecto sistemático es igual a cero” (Comité Conjunto para las Guías de Metrología (JCGM) del BIPM. Evaluación de datos de Medición. Guía para la expresión de la Incertidumbre de Medida. Ob. Cit.).
Por error aleatorio comúnmente se entiende el resultado de una medición menos la media de un número infinito de mediciones del mismo mensurando, efectuadas bajo condiciones de repetibilidad.
A diferencia de los errores sistemáticos, los aleatorios se producen al azar, en cualquier sentido y atendiendo a una función de distribución de probabilidades dada. De acuerdo con el VIM estos errores son un:
“…Componente del error de medida que, en mediciones repetidas, varía de manera impredecible. El valor de referencia para un error aleatorio es la media que se obtendría de un número infinito de mediciones repetidas del mismo mensurando. Los errores aleatorios de un conjunto de mediciones repetidas forman una distribución que puede representarse por su esperanza matemática, generalmente nula, y por su varianza. El error aleatorio es igual a la diferencia entre el error de medida y el error sistemático”.
Los errores aleatorios son de difícil detección y se minimizan aumentando el número de mediciones al objeto de utilizar su promedio como valor medido, siempre que la distribución sea Normal. Siguiendo al BIPM:
“El error aleatorio se supone que procede de variaciones de las magnitudes de influencia, de carácter temporal y espacial, impredecibles o estocásticas. Los efectos de tales variaciones, denominados en lo sucesivo efectos aleatorios, dan lugar a variaciones en las observaciones repetidas del mensurando. Aunque no es posible compensar el error aleatorio de un resultado de medida, habitualmente puede reducirse incrementando el número de observaciones. Su esperanza matemática o valor esperado es igual a cero” (Comité Conjunto para las Guías de Metrología (JCGM) del BIPM. Evaluación de datos de Medición. Guía para la expresión de la Incertidumbre de Medida. Ob. Cit.).
.
Para entender mejor estos conceptos se cita a continuación un sencillo e ilustrativo ejemplo contenido en un interesante trabajo sobre los conceptos de incertidumbre, precisión y exactitud, elaborados por un grupo de catedráticos del Departamento de Ingeniería Cartográfica, Geodésica y Fotogrametría de la Universidad de Jaén, España.
“El error de medida tiene dos componentes, el error sistemático y el error aleatorio. A modo de ejemplo, para aclarar estos conceptos, supóngase que se captura un dato, como puede ser la longitud de una distancia, con un determinado método e instrumento obteniendo una medida muy exacta. Considerando todas las correcciones necesarias, su valor final es de 317,518 m con una incertidumbre muy pequeña, casi despreciable, digamos por debajo de la décima de milímetro. Por tanto, la longitud 317,518 m se considerará como el valor de referencia de la distancia en cuestión.
“Supóngase, que con posterioridad se realiza una medición de esa distancia con otro instrumento, resultando un valor de 317,515 m. El error de medida de este resultado es de (317,515 –317,518) m = -0,003 m. Una segunda medición da un valor medido de 317,514 m, con un error medida de (317,514 – 317,518) m = -0,004 m.
“Tras tomar 200 medidas y sacar un promedio se obtiene un valor de 317,516 m con un error de medida de (317,516 – 317,518) m = -0,002 m.
“Este sesgo de medida, cuyo valor es de -0,002 m es el denominado error sistemático de medida…Así pues, queda claro que el error sistemático permanece constante independientemente del número de medidas, por lo que si en lugar de 200, se hubiesen realizado otro número mayor, este error no tendería a cero. El VIM aclara que el valor de referencia para un error sistemático puede ser un valor verdadero, un valor medido de un patrón cuya incertidumbre de medida es despreciable, o un valor convencional.
“El error sistemático y sus causas pueden ser conocidos o no, y para compensarlo se aplica una corrección, la cual lleva siempre asociada una determinada incertidumbre. La incertidumbre de todas las correcciones necesarias a aplicar a una medida habrá que considerarlas en la evaluación de la incertidumbre de la medida en cuestión. El error sistemático es igual a la diferencia entre el error de medida y el error aleatorio que se verá a continuación.
Siguiendo con el ejemplo, los autores terminan su explicación con el cálculo del error aleatorio y del error de medida:
“Volviendo de nuevo a los resultados individuales de los valores medidos, el primero fue de 317,515 m. Con respecto al promedio (317,516 m), su error es de (317,515 – 317,516) m= – 0,001 m. Este valor sería el denominado error aleatorio de medida, definido en el VIM como la componente del error de medida que, en mediciones repetidas, varía de manera impredecible. Por tanto, para la segunda medida el error aleatorio de medida es de (317,514 – 317,516)= – 0,002 m, y así sucesivamente.
“Los errores aleatorios de un conjunto de mediciones repetidas forman una distribución que puede representarse por su esperanza matemática, generalmente nula, y por su varianza. Así pues, el error de medida para el resultado de una medición individual es igual a la suma del error sistemático y el error aleatorio. En el caso de la primera medida el error de medida es (-0,002 – 0,001) = -0,003 m”. (En algunas ocasiones se asocian los términos aleatorio y sistemático al término incertidumbre al tocar los conceptos de incertidumbre aleatoria e incertidumbre sistemática. Estos términos deben aplicarse al término error y nunca al de incertidumbre. Ver: Ruiz Armenteros, Antonio Miguel; García Balboa, José Luis José Luis, y Mesa Mingorance, José Luis. Error, Incertidumbre, Precisión y Exactitud, términos asociados a la Calidad Espacial del Dato Geográfico. 1er Congreso Internacional de Catastro Unificado y Multipropósito (CICUM). Universidad de Jaén, España, julio 2010. Mimeo).
Los autores citados de la Universidad de Jaén concluyen entonces que:
1)Los conceptos de incertidumbre y error, aunque relacionados, son diferentes entre sí.
2)El resultado de una medición podrá tener un error pequeño y una incertidumbre elevada, o viceversa (lo cual significaría que al menos un efecto sistemático importante podría haberse pasado por alto). El resultado de una medición (tras su corrección) puede estar, sin saberlo, muy próximo al valor del mensurando (y, en consecuencia, tener un error despreciable) aunque tenga una incertidumbre elevada. Es por esto por lo que la incertidumbre del resultado de una medición no debe confundirse jamás con el error residual desconocido.
3)En cualquier caso, el error cometido al realizar varias veces una misma medición no es siempre el mismo, puesto que los errores aleatorios provocan que el error cometido en cada una sea diferente.
Si las mediciones se han llevado a cabo con el mismo instrumento y método de medida tendrán la misma incertidumbre, pero no tienen por qué tener el mismo error asociado.
En este punto es menester destacar las diferencias y las relaciones existentes entre Precisión, Exactitud y Veracidad de las mediciones, conceptos que, a semejanza de lo que ocurre con el de error e incertidumbre, suelen confundirse o usarse indistintamente -por la gente común- como si tuvieran el mismo significado. Lo veremos en la próxima entrega.