La exactitud es la medida de la proximidad existente entre el resultado de un experimento y el resultado esperado. Cuando una muestra se analiza varias veces, rara vez se obtienen resultados idénticos, por lo contrario, los resultados se dispersan de manera aleatoria y la precisión es una medida de esta variabilidad. El análisis de una muestra química genera una señal química o física de una magnitud proporcional a la cantidad de analito existente en la muestra, para ello se generan métodos los cuales consisten en la aplicación de técnicas a un analito en específico. Para seleccionar el método hay que tomar en cuenta dos criterios importantes, tales como la exactitud y la precisión.
Exactitud y los factores de error
Para realizar un análisis químico, los científicos deben efectuar una gran cantidad de mediciones y cada una de ellas se ve afectada por numerosos errores e incertidumbres, que se combinan para producir una dispersión de resultados. Es difícil eliminar por completo los errores e incertidumbres de medición, y por lo tanto los datos provenientes de estas, solo dan una estimación del valor verdadero. Generalmente, algunos de estos errores e incertidumbres se deben a equivocaciones del experimentador.
El error en una medición viene definido como la diferencia del valor observado o medido y el valor verdadero de la magnitud estudiada, y se expresa de la siguiente manera:
E= X-Xt
Donde, E corresponde al error absoluto, X al valor medido y Xt al valor verdadero. La exactitud indica la proximidad de la medida o valor aceptado al verdadero y por lo tanto es expresado mediante el error absoluto o relativo. Tal como ya se mencionó el error absoluto (E) viene dado por la ecuación mostrada anteriormente y el error relativo (Er) viene dado por la expresión:
Er=\(\frac{xi-xt~}{xi}x100%\)
El error relativo de una medida equivale al error absoluto dividido entre el valor verdadero, este error puede expresarse en porcentaje o partes por millón dependiendo de la magnitud del resultado.
Los errores que afectan la exactitud de un análisis se conocen como errores sistemáticos y se caracterizan por poseer una desviación sistemática en relación con el valor verdadero, es decir todas las medidas individuales son muy grandes o muy pequeñas. Un error sistemático positivo puede llevar a un valor central mayor que el valor verdadero y un error sistemático negativo puede dar lugar a un valor central menor que el valor verdadero, tanto los errores sistemáticos positivos como negativos pueden afectar el resultado final del análisis.
Los errores sistemáticos pueden clasificarse en cuatro categorías, errores de muestreo, errores de método, errores de medida y errores personales. Los errores de muestreo ocurren cuando el proceso de obtención de muestra no proporciona una muestra representativa como, por ejemplo, cuando se realiza la determinación de calidad medioambiental de un lago, a través de las muestras obtenidas en un solo lugar cercana a una fuente puntual de contaminación, como la salida de un desagüe industrial, esto proporciona resultados erróneos. Por otro lado, los errores también se producen debido a las limitaciones del método analítico utilizado (errores de método), por ejemplo, cuando la determinación de la sensibilidad y la señal producida por el blanco son incorrectas.
Los errores de medida corresponden a los instrumentos y equipos de análisis como material de vidrio y balanzas, estos suelen traer de fábrica una advertencia sobre el error de medida o tolerancia máxima, por ejemplo, el error máximo de un matraz de 25 mL es de 0,03 mL, por lo tanto, el volumen real que contiene el matraz se sitúa entre unos límites de 24,98-25,03mL.
Por último, los errores personales están sujetos a los errores producidos por el analista, esto puede abarcar, por ejemplo, desde la capacidad para ver un cambio de color de un indicador usado con el fin de determinar el punto final de una titulación, hasta una mala interpretación en las directrices del procedimiento.
Precisión
Por otro lado, el término precisión está relacionado con la reproducibilidad de las medidas, es decir, indica la cercanía entre los resultados obtenidos exactamente de la misma manera; para describir la precisión de un conjunto de datos, se utilizan tres términos, desviación estándar, varianza y coeficiente de variación.
La desviación estándar se define como la medida de la precisión de una población de datos y se calcula mediante la siguiente ecuación:
\(\sigma =\sqrt{\frac{\mathop{\sum }_{i=1}^{N}{{\left( xi-\mu \right)}^{2}}}{N}}\)
Donde xi es una de las mediciones individuales y μ es la media es decir el promedio numérico obtenido al dividir la suma de todas las medidas individuales por el número de medidas. Normalmente el valor que se informa es el valor de la desviación estándar relativa sr.
Sr= \(\frac{\sigma }{\mu }\)
Por otro lado, la varianza es el cuadrado de la desviación estándar, esta es otra medida habitual de la dispersión de datos y se expresa de la siguiente manera:
\({{\sigma }^{2}}=\frac{\mathop{\sum }_{i=1}^{N}{{\left( xi-\mu \right)}^{2}}}{N}\)
Mientras que el coeficiente de variación (CV) es la desviación estándar relativa expresada como porcentaje, tal como se muestra a continuación:
\(CV=\frac{\sigma }{\mu }*100\)
Referencias bibliográficas
1. Harvey D. Química analítica moderna. 1er Edición. Editorial Mc Graw Hill, (2002).2. Skoog D.A, West D.M, Holler F.J. Fundamentos de química analítica, 6ª Edición. Editorial Mc Graw Hill, (1995).