Publicación 2392605_LAB_OPE – Temas preparados para la oposición del Ayuntamiento de Bilbao por el que se aprueban las bases del proceso selectivo para la provisión de 2 plazas de Auxiliar Técnica/o de Laboratorio, con perfil lingüístico 2 de euskera no preceptivo, mediante el sistema de acceso libre por concurso-oposición, y la convocatoria de dicho proceso selectivo

Fecha de confección: 27/12/2024

Propietario: Multiversitas SLU © Contenido protegido por Copyright.

Prohibida la publicación, copia, difusión o venta de este contenido sin los permisos por escrito del autor.

Contenido:

Esta publicación consta de 24 temas (del 1 al 26, ambos incluidos) preparados para la oposición del Ayuntamiento de Bilbao por el que se aprueban las bases del proceso selectivo para la provisión de 2 plazas de Auxiliar Técnica/o de Laboratorio, con perfil lingüístico 2 de euskera no preceptivo, mediante el sistema de acceso libre por concurso-oposición, y la convocatoria de dicho proceso selectivo. Es un trabajo que se empezó a hacer para un cliente nuestro (del cual no daremos sus datos por privacidad) en diciembre de 2024, y que se oferta libremente para el que le interese comprar el contenido, ya que el cliente ha abandonado la atención del proyecto a falta de completar los pagos restantes y por tanto no es poseedor de los derechos de autor de lo que se le ha ido entregando.

TEMA 1. REACCIONES Y EQUILIBRIOS QUÍMICOS.

Clases de reacciones, constantes de equilibrio, estequiometría, concepto mol, peso atómico y peso molecular. Una reacción química es un proceso en el que una o varias sustancias iniciales llamadas reactivos se transforman en otra u otras finales llamados productos. Para representar estas reacciones se usan las ecuaciones químicas, representaciones abreviadas de las reacciones químicas en las que se expresa un cambio químico usando símbolos y fórmulas de las sustancias participantes. En las ecuaciones se presentan dos miembros separados por una flecha o una doble flecha (en caso de que la reacción sea reversible) sobre las cuales pueden colocarse indicaciones sobre las condiciones de reacción, como, por ejemplo, el uso de catalizadores, la temperatura de reacción, etc. El primer miembro a la izquierda representa los reactivos (R), el segundo miembro a la derecha representa los productos (P). En cada miembro las sustancias se separan con el signo +. A veces se puede indicar el estado físico de cada sustancia que participa en la reacción con subíndices (s) de sólido, (l) de líquido, (g) de gas, (ac) de ácido, y también pueden usarse flechas hacia arriba para indicar la generación de gases o flechas hacia abajo para indicar la formación de precipitados. Las ecuaciones, una vez descritas, deben de ajustarse para poder establecer cálculos químicos sobre el proceso. Este ajuste se efectúa teniendo en cuenta la ley de Lavoisier o ley de conservación de la masa que establece que “la masas no se crea ni se destruye durante los cambios químicos ordinarios. La masa que participa en un cambio químico permanece constante.” Clases de reacciones Las reacciones químicas se clasifican de diversas maneras según el aspecto que se quiera remarcar. ➢ Según el TIPO DE TRANSFORMACIÓN. Se tiene en cuenta como se enlazan o descomponen los integrantes de la reacción para formar nuevos productos. Se pueden diferenciar 4 casos: 1) Combinación o síntesis: A + B C / Ej: NH3 (g) + HCL (g) NH4CL (s) 2) Descomposición: AB A B / Ej: 2 H2O2 2 H20 (l) + O2 (g) 3) Desplazamiento o sustitución: AB C AC B / Ej: HCL (ac) + Sn (s) SnCL2 (ac) + H2 (g) 4) Doble descomposición o sustitución o metátesis: AB CD AD CB /Ej: (reacciones de neutralización) HCL (ac) + NaOH (ac) NaCl (ac) + H2O (l) ➢ Según la VARIACIÓN DEL ESTADO DE OXIDACIÓN. Este estado de oxidación se conoce también como número de valencia y es característico de cada átomo en un compuesto o elemento. Se pueden distinguir dos tipos de reacciones: 1) Aquellas donde NO varía el estado de oxidación de los elementos reaccionantes, por ejemplo, la formación de hidróxido de hierro (III) en medio básico, donde todos los elementos mantienen su estado de oxidación. En el primer miembro de la reacción, el cloruro de hierro III ,y en el segundo miembro de la reacción, el hidróxido de hierro III. FeCl3 + 3NaOH 3 NaCl + Fe (OH)3 2) Aquellas donde SÍ varía el estado de oxidación de algunos elementos reaccionantes a la transferencia de electrones entre un elemento oxidante (capta electrones) y un elemento reductor (cede electrones). Estas reacciones se conocen como reacciones de oxidación-reducción o redox. Ej: Fe + S FeS / Fe Fe2+ + 2 e- (reacción de oxidación) y S + 2e- S2- (reacción de reducción). El Fe actúa como reductor, cediendo 2 electrones al S, que actúa como oxidante. Normalmente, las reacciones redox vienen acompañadas de cambios de pH en el medio. Por ejemplo, esto ocurre en los procesos de oxidación y reducción del agua. Esta oxidación del agua acidifica el medio (se producen iones H+), mientras que su reducción lo alcaliniza (se generan iones OH-). Se podría decir que el valor es análogo al pH, pues este mide la actividad de los protones y el potencial redox mide la de los electrones. 2H2O O2 + 4H+ + 4e- 2H2O +2 e- H2 + 20H El potencial Redox (ORP) es una medida efectiva de medir la energía química de oxidación-reducción mediante un electrodo, convirtiéndola en energía eléctrica, la cual se utiliza, por ejemplo, para conocer el saneamiento del agua potable o el agua en piscinas. Se expresa en milivoltios (mV) e informa sobre el potencial de oxidación o de reducción. Este potencial redox es positivo cuando se produce una oxidación y negativo cuando se produce una reducción. La medida de este potencial es muy importante para la evaluación de la calidad sanitaria del agua potable, la Organización Mundial de la Salud adoptó en un valor de 650mV como adecuado para el mismo. También, esta medida del potencial se usa en la industria alimentaria, por ejemplo, en la detección de sulfitos (compuestos con el ion sulfito SO32-) que se añaden a algunos alimentos para favorecer su conservación ya que tiene un efecto antioxidante, evitando así entre otros, el pardeamiento de los alimentos. Los sulfitos usualmente se agregan a los alimentos en la forma de sales, como el metabisulfito de potasio o bisulfito de sodio, el problema está en que un exceso de sulfatos deteriora la calidad de los alimentos y resultan peligrosos para una pequeña porción de la población. Para su detección, el método de titulación más común el método ripper, en el cual, el yodo (agente oxidante), reacciona con una solución de dióxido de azufre bajo condiciones ácidas, y su punto de equivalencia se detecta utilizando un electrodo de ORP con pin de platino. ➢ Según la VELOCIDAD A LA QUE SE DESARROLLA LA REACCIÓN, se encuentran dos tipos: 1) Lentas, en las que la cantidad de productos formados es muy reducida respecto al tiempo transcurrido en la reacción, por ejemplo, en la oxidación del hierro a temperatura ambiente por efecto del oxígeno del aire: 2 Fe (s) + 3 O2 (g) 2Fe2O3 (s) 2) Rápidas, en las que la cantidad de productos formados es importante por unidad de tiempo de reacción, por ejemplo, en reacción entre metales alcalinos y el agua: 2Na (s) + 2H2O (l) 2 NaOH (ac) + H2 (g) ➢ Según la ENERGÍA IMPLICADA EN EL PROCESO, pueden ser: 1) Exotérmicas, con desprendimiento de calor, por ejemplo, en la combustión de metales: 4 Al + 3 O2 2 Al2O3 + calor 2) Endotérmicas, con absorción de calor, por ejemplo: 3 O2 + calor 2 O3 ➢ Según el SENTIDO DE REACCIÓN. Este aspecto está relacionado con la posibilidad de que una reacción evolucione en un único sentido o que, a partir de un momento dado, pueda evolucionar tanto hacia la formación de reactivos como de los productos. Se distinguen dos tipos: 1) Irreversibles, presentan rendimientos muy elevados cerca del 100% que tienen lugar en una dirección determinada. Por ejemplo, en la formación de precipitados: AgNO3 (ac) + NaCl (ac) AgCl (s) + NaNO3 (ac) y en la formación de un gas, como O2: KCLO3 (s) + calor KCl (s) + O2 (g) 2) Reversibles, con rendimientos muy inferiores al 100%. Los productos obtenidos vuelven a reaccionar entre sí para proporcionar los reactivos iniciales, alcanzando finalmente una situación de equilibrio, donde las tendencias a evolucionar hacia la formación de productos o reactivos se igualan. La situación de equilibrio se representa con una doble flecha. Es el caso de muchas reacciones de síntesis. En este equilibrio las concentraciones se mantienen constantes ya que las velocidades de reacción directa e inversa coinciden. Por ejemplo, la síntesis industrial del amoniaco: N2 + 3 H2 2 NH3 Equilibrio químico El equilibrio químico es un estado de un sistema reaccionante en el que no se observan cambios a medida que transcurre el tiempo, a pesar de que siguen reaccionando entré sí las sustancias presentes. En la mayoría de las reacciones los reactivos no se consumen totalmente para obtener los productos deseados, sino que llega un momento en que parece que la reacción ha concluido, en este momento existe un equilibrio. El número de moles transformados del primer al segundo miembro es idéntico al número de moles formados en el primer miembro provenientes del segundo. Esto no quiere decir que la reacción se haya parado, el equilibrio es un proceso dinámico en el que continuamente los reactivos se están convirtiendo en productos y viceversa. Por tanto, el equilibrio químico se establece cuando existen dos reacciones opuestas que tienen lugar simultáneamente a la misma velocidad. Por tanto, en términos de velocidad, en una reacción tenemos la Vd (velocidad de reacción directa) y la Vi (velocidad de reacción indirecta). Cuando ambas velocidades se igualan (Vd=Vi), se considera que el sistema está en equilibrio. Se puede deducir que el sistema evolucionará cinéticamente en uno u otro sentido, con el fin de adaptarse a las condiciones energéticas más favorables. Para una reacción química genérica: A + b B c C + d D, la velocidad global de la reacción, según la ley de acción de masas, es proporcional a las concentraciones de los reactivos (mol/L) elevadas a ciertas potencias. Por tanto, la velocidad global puede representarse como: V= k (A)X (B)Y, donde la k es la constante de velocidad específica, (A) y (B) son las concentraciones de los reactivos en mol/L y x e y son los órdenes de reacción de cada reactivo. Si tenemos una reacción en equilibrio, tenemos la velocidad de reacción directa (Vd) y la velocidad de reacción inversa (Vi). Kd y Ki son las constantes de velocidad específicas para ambas reacciones, como ambas velocidades son iguales en el equilibrio se cumple: , que reorganizando queda . A partir de esta ecuación se define la constante de equilibrio (Keq o Kc) como la relación entre las constantes Kd y Ki. Esta Kc varía con la temperatura. La ley de acción de masas dice que “en un proceso elemental, el producto de las concentraciones en equilibrio de los productos elevados a sus respectivos coeficientes estequiométricos, dividido por el producto de las concentraciones de los reactivos en el equilibrio elevados a sus respectivos coeficientes estequiométricos, es una constante para cada temperatura, llamada constante de equilibrio”. La magnitud de Kc nos informa sobre la proporción de reactivos y productos en el equilibrio, si Kc > 1, el equilibrio se encuentra desplazado hacia la derecha, a la formación de productos y si Kc < 1 el equilibrio se encuentra desplazado hacia la izquierda. Características del equilibrio ✓ En el estado de equilibrio las propiedades macroscópicas no varían en el tiempo ✓ En el estado de equilibrio no se intercambia materia con el entorno ✓ Se trata de un estado dinámico en el que se producen continuas transformaciones en ambos sentidos a la misma velocidad ✓ La temperatura es la variable fundamental que controla el equilibrio La expresión de la Ley de acción de masas para una reacción general que no haya conseguido alcanzar el equilibriose describe como Donde Q es el llamado cociente de reacción y las concentraciones expresadas en él no son las concentraciones en el equilibrio. Q se puede comparar con la Kc para una reacción en las condiciones de presión y temperatura a que tenga lugar, con el fin de prever si la reacción se desplazará hacia la derecha o hacia la izquierda, si Q < Kc se producirá la reacción hacia la derecha en mayor medida y si Q >Kc se produce lo contrario. El principio de Le Chatelier permite predecir el sentido de una reacción cuando está se ve perturbada al modificar alguna condición: “Un sistema en equilibrio sobre el cual se aplica una causa que tiende a modificarlo, evolucionará desplazando el equilibrio en el sentido que contrarreste el efecto modificador”. Este principio ha tenido mucha influencia en la industria química posteriormente, al guiar la fabricación de productos químicos con el máximo rendimiento. Estequiometría La estequiometría es el estudio de las relaciones numéricas según las cuales reaccionan los participantes de una reacción para formar nuevas sustancias, teniendo en cuenta las leyes cuantitativas de las transformaciones químicas. Los coeficientes estequiométricos son los coeficientes que aparecen delante de las fórmulas y a partir de ellos es posible describir cualquier relación molecular o molar entre los reactivos y los productos de la reacción. Los cálculos que permiten conocer cantidades de reactivos o productos implicados en una reacción se llaman cálculos estequiométricos. Un factor estequiométrico indica la relación molar de dos sustancias que intervienen en una reacción. Para la resolución de problemas estequiométricos siempre se usa el mismo método, primero se escribe la reacción química ajusta, después se transforma la información a moles, después se aplican factores estequiométricos para calcular los moles y, por último, se convierten los moles a las unidades requeridas. Una reacción en la que todos los reactivos se consumen por completo se dice que está en proporciones estequiométricas, sin embargo, en ocasiones uno de los reactivos se consume por completo mientras otros no llegan a consumirse. En estos casos el reactivo que se consume antes se denomina reactivo limitante, ya que limita la cantidad de producto que se formará. El reactivo limitante será aquel cuya proporción molar sea menor a la necesaria. En ocasiones la reacción no se produce completamente por lo que se obtiene una cantidad real (rendimiento real) menor de la cantidad calcular teóricamente (rendimiento teórico). Por lo que el rendimiento de la reacción (%) es el rendimiento real dividido por el teórico y multiplicado por 100. Conceptos Mol, peso atómico y molecular La unidad empleada en química para expresar el peso de los átomos recibe el nombre de mol. Según el Sistema Internacional, el mol se define como la cantidad de sustancia que contiene tantas entidades como el número de átomos existentes en 0,012 kg de carbono 12 puro. (1 mol = 6,022045 x 1023 partículas). Esta cantidad se denomina número de Avogadro, en honor al científico Amedeo Avogadro. La unidad de mol se refiere a un número fijo de entidades cuya identidad se debe especificar, indicando si se trata de un mol de átomos, de moléculas o de otras partículas. Avogadro. Esta constante se indica como una unidad explícita de «por mol». De acuerdo con su definición como unidad de cantidad, 1 mol de cualquier elemento contiene el mismo número de átomos que 1 mol de cualquier otro elemento. Sin embargo, las masas de 1 mol de diferentes elementos son diferentes, ya que las masas de los átomos individuales son diferentes. La masa molar de un elemento (o compuesto) es la masa en gramos de 1 mol de esa sustancia, propiedad que se expresa en unidades de gramos por mol (g/mol). La masa molar de cualquier sustancia equivale numéricamente a su peso atómico o de fórmula en u. (unidad de masa atómica). Según la definición de u, un solo átomo 12C pesa 12 u (su masa atómica es de 12 u). Un mol de 12C pesa 12 g (su masa molar es 12 g/mol). Esta relación es válida para todos los elementos, ya que sus masas atómicas se miden en relación con la de la sustancia de referencia de u, 12C. Ampliando este principio, la masa molar de un compuesto en gramos es igualmente equivalente numéricamente a su fórmula de masa en u. El peso atómico es la masa media ponderada de la masa de todos los isótopos de este y el peso molecular es la suma de las masas atómicas de todos los átomos de una molécula de un compuesto específico.  

TEMA 2. DISOLUCIONES.

Naturaleza y tipos. Propiedades de las disoluciones. Unidades Para realizar un análisis o estudio de una muestra o materia, esta se delimita en porciones que reciben el nombre de sistemas químicos. Estos sistemas químicos pueden ser homogéneos, donde su apariencia y sus propiedades son idénticas, así como su composición que se mantiene sea cual sea la porción elegida para el estudio; o. pueden ser heterogéneos, donde las características son variables en función de la porción que se elija para el estudio. Respecto a los sistemas homogéneos, se clasifican en dos tipos: -Sustancias puras, contienen un tipo de sustancia y por tanto una composición fija. Tienen propiedades características que permiten identificarlas de forma exclusiva. Se incluyen: • Sustancias simples o elementos químicos, como por ejemplo el O2, que no puede descomponerse en sustancias más sencillas. El número de estos elementos en la naturaleza es reducido y están recogidos de forma ordenada en la tabla periódica. • Sustancias compuestas o compuestos químicos, como por ejemplo el agua H2O, que puede descomponerse en sustancias más simples por procesos químicos. Ej: obtención de hidrógeno (gas) y oxígeno (gas) mediante la electrólisis del agua: 2H2O + energía eléctrica 2 H2 (g) + O2 (g) -Disoluciones, presentan más de un componente. Son las más usadas en la química analítica. Tienen dos categorías de propiedades: -Constitutivas, aquellas que dependen de la naturaleza de las partículas disueltas (ej: la conductividad eléctrica, viscosidad, densidad,) -Coligativas, son función solo de su concentración y no de la composición química del soluto. (ej: presión de vapor, presión osmótica, punto de ebullición, punto de congelación). Las disoluciones más simples son las formadas por dos componentes, llamada disoluciones binarias. En estas debe diferenciarse, por un lado, la sustancia dispersada (soluto), y por otro, el medio de dispersión (disolvente). Cuando no se tiene claro que componente de la disolución corresponde a soluto o disolvente se usan los siguientes criterios: -Si las dos sustancias tienen distinto estado físico, se considera como disolvente la sustancia que presenta el mismo estado físico que la disolución resultante. Ej: disoluciones de agua salada, el NaCl es un sólido cristalino (soluto) y el agua es un líquido (disolvente). -Si las dos sustancias tienen el mismo estado físico, el disolvente corresponde al que está en mayor proporción en la disolución. Ej: alcohol etílico comercial, que presenta un 96% de alcohol y un 4% de agua, ambas sustancias están en estado líquido, pero el alcohol está en mayor proporción por lo que se corresponde con el disolvente, y el agua en cambio, está en menor proporción y se corresponde con el soluto Solubilidad La cantidad máxima de soluto que puede disolverse hasta completar una determinada cantidad de disolución es la solubilidad. El valor de la solubilidad depende de tres factores: la naturaleza del soluto y disolvente, la temperatura y la presión. La velocidad de disolución varía con la superficie de contacto, el grado de agitación y la temperatura. En el caso de disoluciones de sólidos en líquidos, la presión ambiental no afecta, pero si la temperatura. De forma general, un aumento de temperatura hace aumentar la solubilidad, como ocurre en algunos compuestos de lantano. Existen excepciones a este comportamiento, como sería el caso de algunas sales que disminuyen su solubilidad con la temperatura. En el caso de disoluciones de gases en líquidos, de forma general el aumento de presión hace aumentar de forma notable la solubilidad, mientras que el aumento de la temperatura la hace disminuir. -Disoluciones saturadas: presentan la máxima solubilidad de soluto en las condiciones de trabajo. En este caso las disoluciones se encuentran en equilibrio dinámico con el soluto no disuelto y la adicción de más soluto a la disolución supondrá la formación de un precipitado. -Disoluciones no saturadas: se puede disolver aún más cantidad de soluto -Disoluciones sobresaturadas: concentración de soluto en el medio es superior a la prevista por su solubilidad. Son disoluciones inestables y pueden existir durante el tiempo necesario que se requiera para poder formar la forma sólida que será separada. La forma de forzar este proceso es mediante la adicción de un cristal de soluto, que desencadenará el inicio de la cristalización. Otra forma de expresar la concentración es de forma cuantitativa, y existen varias maneras: • En porcentaje ➢ % peso-peso: corresponde al número de gramos de soluto presentes en cada 100g de disolución. Se indica como % p/p y se calcula con la siguiente expresión: % p/p= ms / mD x 100, siendo ms la masa en gramos de soluto y mD la masa en gramos de disolución. Es la forma habitual de expresar las concentraciones de los reactivos concentrados, como por ejemplo HCl 35% ➢ % peso-volumen: corresponde al número de gramos de soluto presentes por 100 mL de disolución. Se expresa como % p/v y se calcula mediante la expresión: % p/v= ms /VD x 100, siendo ms masa en gramos soluto y VD el volumen en ml de disolución. Es una de las formas de expresar la concentración más habitual en el laboratorio ya que mayoritariamente los solutos que se usan son sólidos y su cantidad se determina mediante el peso con una balanza, la disolución resultante suele presentar un estado líquido y se controla su volumen final mediante un matraz aforado. El inconveniente que presenta esta forma de expresar la concentración es que el valor de la concentración preparada puede variar con la temperatura debido a la posibilidad de variación del volumen de la disolución con la temperatura. Es una unidad muy usada para fijar la cantidad de determinados productos alimentarios. Por ejemplo, la acidez de un vinagre de vino se expresa en grado, correspondiendo 1 grado a la concentración de 1 g de ácido acético por 100mL del vinagre. ➢ % volumen-volumen: corresponde al numero de mililitros de soluto presentes por cada 100 mL de disolución. Se expresa como % v/v y se calcula mediante la expresión: % v/v = Vs / VD x 100, siendo Vs el volumen en mililitros de soluto y VD el volumen en ml de disolución. En este caso, tanto el soluto como la disolución son líquidos. Por ejemplo, se usa principalmente para expresar el grado alcohólico de las bebidas, donde 1 grado de alcohol corresponde a un 1mL de alcohol por 100mL de bebida. La preparación de disoluciones mediante esta unidad tiene dos inconvenientes, la variabilidad de la concentración con la temperatura y la posibilidad de que los volúmenes participantes en la preparación de la disolución no sean aditivos, por ejemplo, si se suma 100 mL de etanol puro con 100mL de agua, no dan 200mL en total, sino un valor ligeramente inferior ya que la disolución resultante presenta contracción de volumen. • En gramos por litro: indica la masa de soluto en gramos que contiene cada litro de disolución. Se expresa como g/L. El agua mineral, el suero, o muchos medicamentos, se expresan en esta unidad. Ejemplo: Una disolución de azúcar en agua de 20 g/L significa que hay disueltos 20 g de azúcar en cada 1 L disolución. Se calcula mediante la siguiente expresión: C (g/L) = 10 C (% p/v) • En partes por millón: muy común en la química analítica cuando se hace referencia a concentraciones muy dilucidas. La forma más común consiste en usar la expresión en unidades de peso/ volumen, es decir, una parte por millón (1ppm) sería la relación existente entre una parte en peso de soluto y 106 partes en volumen de la disolución. De forma convencional, 1 ppm corresponderá a la relación entre 1 mg de soluto y 1 L de disolución. Se calcula mediante la expresión: C ppm (p/v) = ms (mg) / VD (L). Por ejemplo, en el estudio de la concentración de agentes químicos en la atmosfera, se usa la expresión ppm (v/v) y en este caso correspondería a la relación existente entre 1 volumen de soluto y 106 volúmenes de disolución. En este caso la fórmula para calcularlo sería: C ppm (v/v) = Vs (mL) / VD (L) • Molaridad: corresponde al número de moles de soluto presentes por cada litro de disolución. La molaridad se expresa en mol/L y se calcula mediante la siguiente fórmula: M= ns / VD, siendo ns el número moles y VD el volumen en litros. Para el cálculo del número de moles debe calcularse previamente la masa molar del soluto, la cual se puede hallar si se conoce la fórmula química y las masas atómicas de los elementos que la constituyen. El mol representa a la unidad de cantidad de sustancia que interviene en un proceso químico, y la molaridad está muy relacionada con la reactividad entre sustancias y en los procesos analíticos. • Molalidad: número de moles de soluto presentes por cada kilo de disolvente. Se calcula a partir de la fórmula: m= ns /md (kg). Esta unidad establece la relación entre el soluto y el disolvente, no la disolución. La molalidad se expresa en mol/kg. Su aplicación está limitada al estudio de las propiedades coligativas de las disoluciones, por ejemplo, el descenso del punto de congelación de las disoluciones o la variación de la presión de vapor de las disoluciones respecto al disolvente. • Normalidad: número de equivalente-gramo (eq-g) de soluto presente por cada litro de disolución. Se simboliza con una N. Se calcula mediante la fórmula: N= eq-g / V. El número eq-g se determina dividiendo el numero de gramos de soluto entre el valor del eq-g. El eq-g de una sustancia se define de acuerdo con la relación en la que participa teniendo en cuenta que debe corresponder a 1 mol de protones en una reacción acido-base o a un 1 mol de electrones en una reacción de oxidación-reducción. El inconveniente de la normalidad es que su valor depende no solo de la disolución prepara, sino también de la reacción en la que participa la sustancia. • Fracción molar: corresponde a la fracción entre los moles de soluto y de disolución. Esta unidad se indica mediante la letra griega ji (ꭔ) y no tiene unidades. Se calcula a partir de la fórmula: ꭔ = ns / nD. Su uso está limitado a casos particulares como en el estudio de la variación de propiedades en las disoluciones binarias o en el estudio de la mezcla de gases.

TEMA 3. VOLUMETRÍAS ÁCIDO-BASE.

Ácidos, bases y su estandarización. Punto final y formas de detectarlo. Volumetrías por retroceso. Aplicaciones analíticas Las volumetrías ácido-base, conocidas también como volumetrías de neutralización, son un conjunto de reacciones que tienen lugar entre un ácido y una base con la correspondiente formación de sal y agua. Mediante estos métodos, utilizando una solución valorada de algún ácido se puede realizar la determinación cuantitativa de sustancias que se comportan como base (acidimetría) o, empleando una solución valorada de algún álcali, se pueden determinar cuantitativamente sustancias que se comportan como ácidos (alcalimetría).Estos métodos poseen una enorme aplicación en el campo del análisis de los alimentos, para la determinación de compuestos con características ácidas o la determinación de acidez total valorable, proteínas, ésteres totales, amonio, carbonatos, etc. El procedimiento general empleado en los métodos volumétricos de análisis se denomina valoración y puede definirse como el procedimiento operativo que consiste en hacer reaccionar la sustancia que se cuantifica (analito) disuelta en un disolvente adecuado, con una solución de concentración exactamente conocida que se adiciona desde una bureta. A la solución de concentración exactamente conocida se le llama patrón valorante y a la solución del analito que se determina se le conoce como sustancia a valorar. La reacción entre ambas sustancias (valoración) termina cuando se alcanza el punto estequiométrico o punto de equivalencia, es decir cuando la cantidad de sustancias del equivalente del analito ha reaccionado completamente con una idéntica cantidad de sustancia del equivalente del patrón valorante adicionado. Ácidos y bases Se han descrito varias teorías que definen a los ácidos y bases, destacando las teorías de Arrhenius, Bronsted-Lowry y Lewis. Las tres teorías son formas distintas de ver un mismo tipo de reacción, un ion H+ es un ácido y un ion OH- es una base. Según Bronsted- Lowry cuando un ácido cede un protón, la nueva especie formada es una base potencial, ya que puede aceptar un protón y recibe el nombre de base conjugada. Lo mismo puede decirse con la base y la especie formada, que se llama ácido conjugado. Los sistemas formados por especies químicas que difieren en la presencia de un protón se denominan par acido-base conjugados. Cuando estos dos procesos se combinan tiene lugar una reacción de intercambio de protones llamada reacción ácido-base o de neutralización. Existen sustancias que actúan como ácidos o como bases según las circunstancias en que se encuentren. Así, por ejemplo, el agua en presencia de ácido clorhídrico acepta protones y se comporta como una base, mientras que en presencia de amoniaco actúa como donadora de protones, comportándose como un ácido: HCl + H2O H3O+ (acido conjugado) + Cl- (base conjugada) / NH3 + H2O NH4+ (acido conjugado) + OH- (base conjugada). Las especies químicas que, como el agua, pueden actuar como ácido o como base se denominan anfóteras o anfipróticas, por ejemplo, el ion H2PO3- es anfótera: H2PO3- + H+ H3PO3 (se comporta como una base) y H2PO3- HPO32- + H+ (se comporta como un ácido). El agua, como cualquier disolvente anfitrópico, es capaz de reaccionar consigo mismo. La reacción de autoionización del agua es: H2O (ácido) + H2O (base) H3O+ (acido conjugado) + OH- (base conjugada). La constante de equilibrio de esta ecuación sería: K = (H3O+) (OH-) / (H2O). Se sabe que el agua puro es muy poco conductora de la electricidad y por tanto se asume que la mayor parte del agua se encuentra en forma molecular. A 25ºC la densidad del agua es 0,997g/ml y, por tanto, la concentración molar del agua pura es, (considerando que la concentración molar es constante): K x 55,3 =(H3O+) x (OH-). Se puede escribir: KW =(H3O+) x (OH-). Esta nueva constante obtenida, se llama producto iónico del agua, se expresa en (mol/L)2 y depende de la temperatura. A 25ºC el valor de Kw es de 1 x 10-14, y si se considera en agua pura en una solución neutra se cumple que (H3O+) = (OH-). El valor exacto de Kw a 25ºC es de 1,008 x 10-14 (mol/l)2. En ocasiones se encuentra como pKw para evitar expresiones exponenciales, siendo pKw= -log (1,0 x 10- 14) = 14. La medida de la concentración del ion H3O+se establece a partir de la escala de pH. De acuerdo con la notación p, se define el pH de una disolución como el logaritmo decimal cambiado de signo de la concentración de ion hidrógeno (hidronio): pH = – log (H3O+). Análogamente, se define pOH como el logaritmo decimal cambiado de signo de la concentración de ion hidróxido: pOH = – log (OH-). De acuerdo con las propiedades de la función de logaritmo, se pueden calcular los valores de H3O+ y de OH- de una disolución a partir de los valores pH y pOH de la misma según: (H3O+) = 10-pH y (OH-) = 10- Poh. En el caso del agua pura a 25ºC: pH = -log (1,0 x 10-7) = 7 y pOH = -log (1,0 x 10-7) = 7. De esta forma las disoluciones también pueden clasificarse según su valor de pH, siendo ácida si pH es menor de 7, donde (H3O+) es mayor que (OH-), neutra si pH es igual a 7, donde (H3O+) es igual que (OH-) y básica si pH es mayor de 7, siendo (H3O+) es menor que (OH-). La reacción de un ácido o una base con el disolvente permite clasificarlos en fuertes y débiles. Un ácido o base fuerte es aquel que en medio acuoso se ioniza totalmente formando los iones correspondientes. El carácter ácido aumenta al hacerlo el carácter no metálico y el número de oxidación del elemento formado del ácido. Algunos ejemplos de ácidos fuertes son HCl, HI, HNO3, H2SO4, entre otros. El carácter básico aumenta al hacerlo el carácter metálico del elemento formador de la base al disminuir su número de oxidación. Alguno ejemplo de bases fuertes son NaOH, KOH, CsOH, LiOH, etc. Un ácido o base es débil cuando en disolución acuosa está parcialmente ionizado de forma que en el equilibrio final coexisten moléculas del ácido o la base sin ionizar con los iones resultantes de la ionización. En estos ácidos y bases parcialmente ionizados se define el grado de ionización o de disociación iónica (α) como la fracción de moléculas ionizadas. El valor de α se obtiene con la siguiente fórmula: α = base o ácido conjugada / ácido. Conociendo el valor de α, se pueden conocer las concentraciones de todas las especies en equilibrio de una disolución de un ácido o base. También se puede describir la fortaleza o debilidad de un ácido a partir del valor de la constante de equilibrio de la reacción de ionización: HA + H2O H3O+ + A-, K= (H3O+) x (A-) / (HA) x (H2O). Si se considera que la concentración molar del agua es contante, se obtiene la constante de acidez Ka: K x (H2O) =(H3O+) x (A-) / (HA), siendo pKa = – log Ka. Cuanto mayor sea la fuerza de un ácido, mayor es el valor de Ka y de α y menor el de pKa. Los valores de Ka se conocen para todos lo ácidos y están tabulados. En las bases se puede definir la constante de basicidad Kb: B + H2O BH+ + OH-, Kb = (BH+) x (OH-) / (B), siendo Pkb= – log Kb. Cuanto mayor sea la fuerza de una base, mayor es el valor de Kb y de α y menor el de pKb. Estos valores de Kb también están tabulados. Valoraciones acido-base Las valoraciones acido-base se usan para determinar la cantidad desconocida de un analito acido o básico que hay en la muestra, mediante un agente valorante de concentración conocida que reacciona con el analito. Esta reacción provoca que el pH del sistema vaya cambiando, el seguimiento de este pH permite conocer el final de la reacción y teniendo en cuenta la estequiometria de la reacción se calcula la cantidad de analito. En las volumetrías todos los cálculos se basan en la concentración del agente valorante y esta se ha de conocer con exactitud. Existen dos tipos de disoluciones patrón: -Disoluciones patrón ácidas. La más usada es la de HCl 0,1M. Las disoluciones se preparan por dilución a partir del ácido concentrado y posteriormente se determina la concentración exacta por estandarización con un patrón primario básico. Como ejemplos de patrones primarios básicos se encuentran los siguientes: o Tris (hidroximetil)aminometano: base débil y adecuada para reaccionar con ácidos fuertes. Se usa el rojo metilo o el verde de bromocresol como indicadores para valorar el HCl. La reacción con el HCl transcurre con una estequimetría de 1:1 y se representa por: (HOCH2)3CNH2 + H+ (HOCH2)3CNH3+ o Carbonato de sodio anhidro: sal de hidrólisis básica, se pesa una cantidad exacta y se disuelve en agua y se valora con HCl, usando rojo de metilo o verde bromocresol como indicadorers, al llegar a las proximidades del punto de equivalencia se hierve la solución para eliminar el CO2. Reacciona con el HCl en proporción 1:2: 2 NaHCO3 + calor Na2CO3 + H2O + CO2 o Tetraborato de sodio (borax): sal con hidrólisis básica, se disuelve en agua una cantidad previamente pesada y se valora con HCl usando rojo de metilo como indicador: B4O72- + 2 H3O+ + 3H2O 4H3BO3 – Disoluciones patrón básicas. La más usada es la de NaOH 0,1 M. Se prepara por pesada aproximada a partir del reactivo sólido y se conservan en recipientes de polietileno ya que el NaOH ataca al vidrio. Antes de su uso se debe normalizar con un patrón primario ácido. Algunos de ellos son: o Hidrogenoftalato de potasio (KHP): sal hidrogenada que se comporta como ácido débil. Debe secarse a 110ºC en estufa antes de su uso. Se usan como indicadores la fenolftaleína o el azul de timol para la valoración con NaOH. La reacción de neutralización durante la estandarización es: HC8H4O4- + OH- C8H4O42- + H2O o Ácido benzoico: ácido carboxílico no muy soluble en agua por lo que se le añade etanol para favorecer su disolución. Se usa la fenolftaleína como indicador. C6H5COOH + OH- C6H5COO- +H2O o Ácido oxálico dihidrato: ácido dicarbixílico, se usa la fenolftaleína como indicador. H2C2O4 +2 OH- C2O42- + 2H2O Punto final y formas de detectarlo El punto final es el instante en que se detecta que todo el analito ha reaccionado con el agente valorante y se mide por el volumen de disolución valorante añadida (Vf). La detección del punto final de la valoración se realiza con ayuda de los indicadores, los cuales son sustancia que producen un cambio visible, ya sea la variación de color, aparición de precipitado, en la solución que se valora, dando así por terminada la valoración. Hay dos tipos principales de puntos finales empleados en las volumetrías de neutralización. El primero es el punto final basado en el uso de indicadores químicos, y el segundo es el punto final potenciométrico, en el cual se determina el potencial de un electrodo de vidrio haciendo uso de un voltímetro. -Con electrodo de pH: el potencial medido es directamente proporcional al pH. Las valoraciones pueden hacerse de forma automática con un autovalorador. El valorante se encuentra en una botella de plástico, vertiéndose en pequeños incrementos mediante una jeringa, a la vez que se va midiendo el pH con unos electrodos sumergidos en el vaso del analito, que se halla situado sobre un agitador magnético. El instrumento espera a que el pH se estabilice después de cada adición, para proceder a la siguiente, mostrándose el valor de pH en la pantalla del dispositivo de valoración. El punto final se calcula automáticamente, hallando el punto de máxima pendiente de la curva de valoración. -Con indicadores ácido-base: Muchos compuestos presentan una coloración que depende del pH de la disolución en las que se hallen disueltas. Algunas de estas sustancias se utilizan como indicadores ácido-base, sustancias orgánicas cuyo color en disolución depende del pH de esta. Se usan como un sistema de determinación del punto final, siempre que el viraje coincida con el punto de equivalencia. El pH en el cual se produce el cambio de color está relacionado, para los indicadores ácidos, con el valor de su Ka. El equilibrio que corresponde a un indicador ácido débil se puede representar por: HIn (color A) + H2O ↔ In- (color B) +H3O+, donde HIn y In- presentan distinto color, debido a los cambios estructurales internos que tienen lugar con la disociación. El equilibrio de un indicador alcalino, In, es: In- + H2O ↔ InH+ + OH-. Si se reorganiza la expresión de la constante de equilibrio para la disociación del indicador, la concentración de iones hidronio determina la proporción entre el ácido (HIn) y la base conjugada (In-): pH = Pka + log (In-) / (HIn). El término log (In-) / (HIn) de la ecuación denominado razón de concentraciones, determina el color de la disolución. Se puede afirmar que se aprecia un color respecto de otra cuando la concentración de la primera es al menos 10 veces mayor que la segunda. Esto determina el llamado intervalo o zona de viraje del indicador, explicitado para cada indicador por la siguiente ecuación: pH viraje = pKa (HIn) ± 1. La elección de un indicador u otro dependerá del valor del pH donde se prevé que esté situado el punto de equivalencia. Para que se pueda considerar como un buen indicador, debe cumplir tres características: no reaccionar con el analito, cambio de color fácil de detectar y rápido. Como ejemplo de un indicador muy usado es el rojo de metilo con un viraje de pH de 4,4 a 6,2, su pKa es 5, su color ácido es rojo y su color básico es amarillo. Volumetrías por retroceso Existen dos formas de realizar una volumetría acido-base, la más común es la de las valoraciones directas, en las cuales se pone el agente valorante en contacto con la sustancia a valorar. La otra forma es por retroceso, en las que hay que añadir a veces un exceso de disolución patrón y después valor ese exceso con un segundo patrón (retovaloración). En este caso el punto de equivalencia correspondería al punto en el que el número de equivalentes de valorante inicial es igual al número de equivalentes de la muestra, más el numero de equivalentes del valorante añadido en la retrovaloración. Este procedimiento se usa por ejemplo en la determinación de sulfato de amonio en una muestra. En este caso se trata de averiguar la riqueza en sulfato de amonio de un fertilizante en la que se tiene como reacción central el desplazamiento de una base débil (NH4OH) por una base fuerte (NaOH) en una sal. Es decir: (NH4)2SO4 + 2 NaOH Na2SO4 + 2NH4OH; NH4OH NH3↑ + H2O. Para ello, primero se realiza la primera reacción añadiendo suficiente sosa caustica, y luego se calienta para hacer evaporar el amoníaco. Antes de realizar las reacciones anteriores, es necesario conocer la concentración de sosa de un cierto volumen de esta. Al final parte de la sosa se gasta en el desprendimiento de amoníaco y parte debe permanecer porque esta debe estar en exceso. Conociendo el volumen de sosa y la diferencia de concentraciones, se puede calcular la cantidad de sosa que ha reaccionado y a partir de aquí hallaremos la cantidad de sulfato amónico que había, y como se debería haber pesado la cantidad de muestra, se puede saber su riqueza. Aplicaciones Muchos productos de uso habitual se comportan químicamente como ácido o bases. El contenido ácido o básico suele ser un parámetro de calidad que indica si el producto es o no apto para su uso determinado. Dentro de las técnicas de análisis que emplean métodos de valoración directos pueden citarse la determinación de acidez total valorable en alimentos, la determinación de proteínas totales por el método Kjeldahl, la determinación del índice de acidez en aceites y grasas comestibles y la determinación de la alcalinidad total en aguas de proceso, entre muchas otras técnicas. Así mismo, constituyen ejemplos de determinaciones a través de métodos de valoración por retroceso, la determinación del índice de saponificación en aceites y grasas comestibles, la determinación de la alcalinidad de las cenizas en vinos, la determinación de ésteres totales en rones y aguardientes. A continuación, expongo alguno de estos métodos: -Determinación de la acidez en alimentos. La acidez en los alimentos es uno de los parámetros más importantes que debe ser controlado tanto en la materia prima, como durante el proceso de elaboración y en el producto terminado. De hecho, la determinación de acidez se realiza a una enorme cantidad de productos alimenticios como parte de su control de calidad. Esto se debe a la incidencia directa de este parámetro en las características organolépticas de los alimentos y en sus propiedades tecnológicas y de conservación. La acidez en los alimentos viene dada, de forma general, por una mezcla de ácidos orgánicos débiles; sin embargo, en la determinación de acidez total valorable no se cuantifican estos ácidos de forma independiente, puesto que el fundamento de la determinación se sustenta en la valoración con una base fuerte (generalmente NaOH) de todos los grupos ácidos capaces de ser neutralizados por el álcali. De ahí que los resultados de la acidez total valorable se expresan en función del ácido más abundante el cual es característico de cada tipo de alimento. La determinación de la acidez total valorable se basa en la reacción de neutralización de los ácidos orgánicos débiles presentes en los alimentos con una base fuerte en presencia de fenolftaleína como indicador, el cual debe cambiar de color en el intervalo de pH correspondiente al salto brusco de la curva de valoración. La etapa de preparación de la muestra y las concentraciones del patrón de álcali empleado en la valoración depende de las características del alimento y de las concentraciones de ácidos presentes en los mismos. En el caso de la carne, el grado de acidez es una expresión de las transformaciones posmortem que tienen lugar en ella. Cuando el animal es sacrificado, ocurren una serie de transformaciones sobre el glucógeno muscular de reserva, que conlleva la acumulación de ácido láctico, siendo éste el máximo responsable de tal acidificación, En los primeros momentos después del sacrificio, el ácido láctico presente en el músculo determina que éste tenga un pH cercano a la neutralidad, por otra parte, a medida que transcurre el tiempo de almacenamiento se desarrolla una microflora láctica que hace que la acidez aumente por la producción de ácido láctico. Este método se basa en la reacción de neutralización de los ácidos débiles presentes en la muestra con una base fuerte. El punto final de la valoración se detecta por el cambio de color en el indicador utilizado, el cual debe ser sensible en un intervalo de pH en el que está comprendido el pH final de neutralización. Procedimiento: -Pesar 10 a 20 g de muestra homogeneizada en un vaso de precipitado, se añaden 100 mL de agua y se deja en reposo durante 1 h. – -Pasar el contenido del vaso de precipitado a un matraz aforado de 250 mL, se enrasa, se agita y se filtra. De este filtrado se toma una alícuota de 10 ó 25 mL. -Transferir la alícuota tomada a un erlenmeyer y se añaden de 3 ó 4 gotas de solución indicadora de fenolftaleína – Valoración con solución de NaOH 0.1 N hasta que adquiera coloración rosada que perdura durante 30 segundos. Los resultados se expresan en porcentaje de acidez en función del ácido láctico y se calculan empleando la siguiente expresión: Acidez (%) = a × N × b meq × 100 donde: a: volumen en mL consumido de solución de NaOH 0.1 N. N: normalidad de la solución de NaOH. meq: miliequivalente gramo de cada ácido, (masa molar expresada en g/milimoles. Para el ácido láctico, meq= 0.090), b: masa en gramos de la muestra en la alícuota valorada. b = m× V 250 donde: m: masa inicial de la muestra (g) V: volumen de alícuota tomada (mL) – Determinación de proteínas totales por el método Micro Kjeldahl. Las proteínas son macromoléculas complejas de alto peso molecular que por hidrólisis completa rinden aminoácidos o compuestos similares. La calidad nutritiva de un alimento está asociada directamente al contenido y calidad de sus proteínas. Según la forma en la que se encuentre el nitrógeno el tratamiento inicial de la muestra puede variar. El método consta de cuatro etapas, una primera etapa de digestión donde la muestra se trata con ácido sulfúrico a ebullición prolongada en presencia de un catalizador y otros reguladores. La reacción se realiza en un matraz llamado Kjeldahl, en el cual todo el N se transforma en NH4+. La segunda etapa es la formación de amoniaco, en esta etapa se añade una disolución concentrada de NaOH que transforma el ion NH4+ en NH3, a continuación, se destila el NH3 formado y se recoge en una disolución ácida, puede ser en ácido clorhídrico o bórico y por último se realiza la valoración según la disolución ácida escogida, si se ha utilizado el ácido sulfúrico, se valora el exceso de ácido que no ha reaccionado con el NK3 absorbido, con una disolución patrón de NaOH (valoración por retroceso), si en cambio, se ha usado el ácido bórico, se valora el ion borato formado con HCl patrón. Los datos obtenidos en esta etapa permiten calcular la cantidad de N en la muestra. Actualmente esta determinación se puede realizar en el analizador automático Kjeldahl.

Tema 4. Volumetrías redox. Agentes oxidantes y reductores. Ajuste de las reacciones redox. Equivalentes de oxidación y reducción. Punto final y formas de detectarlo. Volumetrías de precipitación y formación de complejos. Aplicaciones analíticas

Oxidación es la reacción en la cual una especie química aumenta su número de oxidación. Este aumento corresponde a una pérdida de electrones, por ejemplo, la reacción que transforma el cobre metálico en un compuesto de cobre II, el número de oxidación del cobre ha pasado de 0 a +2: Ag+ + e- Ag Reducción es la reacción en la cual una especie química disminuye su número de oxidación, esto corresponde a una ganancia de electrones, por ejemplo, la reacción que transforma el ion plata en plata metálica ya que el número de oxidación de la palta pasa de +1 a 0: Cu + 2Ag+ Cu2+ + 2Ag Por tanto, a reacción de oxidación-reducción es aquella reacción de transferencia de electrones de una especie química a otra. Son consecuencia de la simultaneidad entre una reacción de oxidación y otra de reducción de forma que la especie que se oxida cede los electrones que son captados por la especie que se reduce. El número de oxidación es el número que expresa el estado de oxidación de los átomos de un elemento en una especie química. El valor puede ser positivo, cero o negativo. Se expresa siempre con una cifra precedida por un signo. Para asignar el número de oxidación se considera que cada átomo de un elemento en una especie química está presente en una forma iónica, al considerar que en cada enlace el elemento más electronegativo retiene los electrones del enlace. Las reglas de asignación del número de oxidación son: 1. Los elementos libres, no combinados con otros, tienen número de oxidación nulo 2. El número de oxidación del átomo de hidrógeno combinado es +1, excepto los hidrocarburos metálicos, en los cuales es – 1 3. El número de oxidación del átomo de oxígeno combinado es -2, excepto en peróxidos que es -14 4. El número de oxidación de los átomos de los metales en óxidos, hidróxidos, y sales coincide con su valencia 5. El número de oxidación del átomo de un elemento en un ion monoatómico de todos los átomos es igual a la carga del ion 6. En una molécula, la suma algebraica de los números de oxidación de todos los átomos es igual a cero Agentes oxidantes y reductores El agente oxidante es la especie química que actúa como aceptor de electrones. Por lo que disminuye su número de oxidación y se reduce. Como agentes oxidantes se encuentran los iones dicromato, nitrato, permanganato o los halógenos. Los agentes oxidantes más fuertes tienen un amplio campo de aplicaciones, pero tienden a ser menos estables ya que pueden oxidar el agua y suelen presentar menor selectividad. (Oxidante (1) + ne- Reductor (1)). El agente reductor es la especie química que actúa como donador de electrones y como consecuencia su número de oxidación aumenta y se oxida. Son agentes reductores los iones tiosulfato, Fe (II) o muchos metales en estado nativo. En general suelen usarse menos que los agentes oxidantes, debido a su menor estabilidad. Sus disoluciones están sujetas a la oxidación por el aire y se han de proteger del O2 o han de ser renormalizadas frecuentemente. También hay que considerar su posible efecto sobre el ion H+, lo cual produce una variación en su concentración y en las condiciones del medio. Es por lo que los agentes reductores se usan a menudo en combinación con un agente oxidante estable. (Reductor (2) – ne- Oxidante (2)). El proceso redox resultante se escribe como: Oxidante (1) + Reductor (2) Reductor (1) + Oxidante (2). Se habla de oxidante y reductor conjugados, si una sustancia es un oxidante fuerte, el reductor es débil y viceversa, y si una sustancia es un reductor fuerte el conjugado es débil. Ajuste de reacciones redox Se pueden usar varios métodos para el ajuste, pero el más usado es el llamado método del ion-electrón ya que en la ecuación iónica final que se obtiene aparecen solo las especies químicas que intervienen. Se aplica a todas las reacciones redox que implican especies iónicas en disolución acuosa tanto orgánicas como inorgánicas, y además se puede usar tanto en medio ácido como en básico. En este método de ion-electrón, la reacción se divide en dos procesos parciales: la semirreacción de oxidación y la semirreacción de reducción. Se ajustan de forma independiente las cargas eléctricas (balance de cargas) y las especies atómicas (balance de masas) teniendo en cuenta si la reacción transcurre en medio ácido o básico. ➢ Ajuste en medio ácido. Una reacción clásica en el medio ácido es la oxidación del ion Fe2+ a ion Fe3+ por la acción del ion MnO-4, que en medio ácido se reduce a Mn2+: Fe2+ + MnO-4 Fe3+ + Mn2+ Para el ajuste se siguen varios pasos: 1. Identificar el número de oxidación de cada elemento y localizar aquellos que hayan experimentado un cambio en el mismo. En este caso cambian de número de oxidación el Fe de +2 a +3 y el Mn de +7 a +2 2. Se ponen los iones o especies en los cuales se produce el cambio en el número de oxidación, en este caso el MnO4- y Fe2+ 3. Se escriben las correspondientes semirreacciones de oxidación y reducción: Fe2+ Fe3+ y MnO4- Mn2+ Se ajusta cada semirreacción respecto a las especies atómicas que intervienen de acuerdo con el siguiente orden de prelación: el elemento principal, el oxígeno, añadiendo una molécula de agua por cada átomo de oxígeno que falte en el correspondiente miembro de la semirreacción, formándose dos iones H en el otro miembro y el hidrógeno añadiendo tantos iones H como átomos de H falten en el correspondiente miembro de la semirreacción. En este caso la semirreacción de oxidación estría ajustada atómicamente y en el caso de la semirreacción de reducción, el Mn esta ajustado, pero faltaría ajustar los átomos de oxígeno ya que hay 4 en el primer miembro y ninguno en el segundo, por lo que se ponen cuatro moléculas de agua en el segundo miembro: MnO4- Mn2+ + 4 H2O. Ahora se ajustan los átomos de H, poniendo 8 átomos en el primer miembro: MnO4- + 8H+ Mn2+ + 4 H2O Se ajusta cada semirreacción respecto de las cargas eléctricas que intervienen añadiendo los electores necesarios. En este caso en la semirreacción de oxidación hay dos cargas positivas en el primer miembro y tres en el segundo, por lo que se añade un electrón a la derecha: Fe2+ -1e- Fe3+, en el caso de la semirreacción de reducción, en el primer miembro hay siete cargas positivas y en el segundo dos, por lo que se añaden 5 a la izquierda: MnO4- + 8H+ +5e+ Mn2+ + 4 H2O 4. Se multiplica cada semirreacción por el menor coeficiente de manera que el numero de electrones perdidos en el proceso de oxidación coincida con el de los electrones ganados en la reducción Se suman las dos semirreacciones para obtener la ecuación redox final. 5 x (Fe2+ -1e- Fe3+), MnO4- + 8H+ +5e+ Mn2+ + 4 H2O 5Fe2+ + MnO-4 + 8H+ Mn2+ + 4 H2O 5. En caso de que la ecuación fuera molecular, se ha de pasar los coeficientes hallados a las especies moleculares y ajustar el resto de las especies atómicas presentes ➢ Ajuste en medio básico El procedimiento es igual que la en el caso del medio ácido, pero con diferencias en ele ajuste del oxigeno y del hidrógeno ya que en lugar de intervenir H+ y H2O, intervienen OH- y H2O. Como ejemplo, la reacción de oxidación de Cr3+ a CrO2-4 por la acción del ion ClO3- que en medio básico se reduce a Cl-. Punto final y formas de detectarlo Se puede conocer la concentración de una disolución al hacerla reaccionar en un proceso redox con otra cuya concentración sea conocida. Esto se denomina valoración redox. En estas valoraciones es necesario determinar el punto final de la misma mediante distintas estrategias. • Autoindicación. No se añade indicador. Es un procedimiento apto para reacciones de precipitación cuantitativas cuyos precipitados floculan bien, dado que en el punto de equivalencia ya no se formaría más turbidez. • Indicadores. Pueden ser instrumentales o visuales. En los instrumentales se usa un potenciómetro equipado con un electrodo de referencia y un electrodo redox, combinados o no, sumergidos en la disolución a valorar. Permite conocer la diferencia de potencial eléctrico (potencial oxidación-reducción, POR) que existe entre los dos electros. Este potencial es una propiedad que depende siempre de la concentración de las especies del sistema redox. Este tipo de indicador permite obtener la curva de valoración del sistema redox, y por tanto el punto de equivalencia. En cuanto a los indicadores visuales, se clasifican en dos grupos, por un lado, los internos aquellos oxidantes o reductores que tienen un intenso color y permiten indicar su aparición o desaparición del medio redox en el que se lleva a cabo la valoración, un ejemplo es el KMnO4-. Por otro lado, se encuentran los indicadores externos, indicadores químicos, que pueden ser específicos si reaccionan de forma específica con alguno de los participantes de la reacción para producir un cambio de color. El mas conocido es el almidón, que forma un complejo azul oscuro con el ion I-3. También pueden ser indicadores redox, que son sustancias que sin participar en la reacción redox sufren un cambio de color cuando pasan de forma oxidada a reducida y viceversa. Algunos ejemplos de indicadores redox son la fenosafranina cuyo color en la forma oxidada es rojo y en forma reducida es incoloro, la difenilamina, es de color violeta de forma oxidada e incoloro de forma reducida. • Formación de un producto insoluble coloreado, como es el método de Mohr para determinar Cl– y Br– con Ag+, se añade CrO2-4 que en el punto final produce un precipitado rojo de Ag2CrO4. Se trabaja entre pH 7 y 10 para evitar la protonación del cromato y la precipitación del hidróxido de plata. • Formación de un complejo soluble coloreado como es por ejemplo el método de Volhard para determinación de Ag+ con SCN–, se añade Fe3+ como indicador que forma un complejo rojo, FeSCN2+, con el primer exceso de tiocianato. La valoración debe efectuarse en medio suficientemente ácido para evitar la hidrólisis del ion férrico. Este procedimiento no puede utilizarse en la valoración inversa (tiocianato con plata) pues el complejo rojo coprecipita con el AgSCN lo que impide ver la desaparición del color en el punto final. • Formación de un compuesto de adsorción (Método de Fajans). Se forma una laca por adsorción de un colorante en la superficie del precipitado. Por ejemplo, en la valoración de cloruro con plata, la fluoresceína en su forma aniónica se adsorbe sobre el precipitado alrededor del punto de equivalencia debido al cambio de carga que se produce en la superficie del precipitado al pasar de exceso de cloruro a exceso de plata: Antes punto de equivalencia se produce repulsión, en el punto de equivalencia se produce floculación y después del punto de equivalencia se produce absorción y cambio de color del precipitado. Para que el método funcione, es necesario que el precipitado posea una naturaleza coloidal para ofrecer una gran área superficial pues los cambios de color son tanto más intensos cuanto mayor es el área del precipitado. La elección del colorante es importante para que se adsorba justo en el punto de equivalencia. Así, la eosina no se puede utilizar para determinar cloruro ya que se adsorbe demasiado fuertemente sobre el AgCl, dando lugar a puntos finales prematuros. Este indicador proporciona buenos resultados con precipitados más insolubles como Br–, I– y SCN–. Este procedimiento no puede adaptarse directamente para la valoración inversa pues la desorción del colorante por el anión no suele ser suficientemente rápida y se ve dificultada por la floculación del precipitado. Volumetrías de precipitación y formación de complejos Las volumetrías de precipitación hacen uso de una reacción volumétrica en la que se forma un precipitado suficientemente insoluble. Existen pocas reacciones de precipitación que cumplan los requisitos necesarios para su utilización en análisis volumétrico, muchas reacciones no son suficientemente cuantitativas, otras son muy lentas, otras no proporcionan un producto de composición bien definida (debido a la adsorción y contaminación del precipitado) y, para algunas reacciones que podrían ser útiles, no se dispone de un indicador adecuado. Estos inconvenientes dan lugar a que las volumetrías de precipitación estén limitadas al análisis de unos pocos compuestos. Los ejemplos son la determinación argentimétrica de haluros, la de Ag+ con SCN-, la de SO42- con Ba2+ y la de Zn2+ con Fe (CN)64-. Aplicaciones analíticas Las volumetrías redox se usan en determinaciones analíticas de laboratorios ambientales, de calidad, industriales o farmacéuticos. Estas valoraciones pueden necesitar una etapa previa de pretratamiento de la muestra ya que es necesario que el analito tenga un solo estado de oxidación. El pretratamiento se realiza con los agentes auxiliares redox que pueden ser de dos tipos: ✓ Agentes auxiliares reductores: metales pesados que pueden estar en estado elemental o de amalgama. Destacan el reductor de Jones, formado por una amalgama de Zinc Zn(Hg) y el reductor de Walden, formado por plata metálica en contacto con iones cloruro. La semirreacción de actuación de los citados reductores es: Reductor Jones: Zn(Hg) – 2e- Zn2+ + Hg y reductor Walden: Ag + Cl- – e- AgCl ✓ Agentes auxiliares oxidantes: sustancias sólidas que se añaden a la disolución a analizar y una vez realizado el pretratamiento el agente auxiliar sobrante se separa por filtración o eliminándolo por ebullición. Se usan l peróxido de hidrógeno, el bismutato sódico y el peróxidisulfato amónico. Se distinguen por un lado las oxidimetrías y por otro lado la reductimetrías. Las oxidimetrías son aquellas volumetrías redox que usan un oxidante como agente valorante. Las más usadas son las que emplean como agente valorante al KMnO4, I2 y K2Cr2O7. De entre estas se encuentran: -Permanganimetrías: usan el KMnO4 como oxidante. Es el más usado y no requiere indicador. Su inconveniente es que oxida el ion cloruro, lo que impide trabajar en medio clorhídrico. Las disoluciones tienen estabilidad limitada y por ello se requieren renormalizaciones periódicas. La luz, polvo, materia orgánica y presencia de MnO2 yMn2+ catalizan la descomposición de estas disoluciones. La acción de KMnO4 depende del pH del sistema y pueden distinguirse tres semirreacciones distintas, primero reducción al estado +2 en medio suficientemente ácido, reducción al estado +4 con pH de 4 a 9 y reducción al estado +6 con pH muy básico. Algunas de las aplicaciones que tiene es la determinación de un gran número de iones y moléculas oxidables, destacando las determinaciones del hierro en minerales, del carbonato en calizas y del agua oxigenada. También se emplean para determinación de sulfuros, sulfitos, tiosulfatos y cianuros y para oxidar algunos compuestos orgánicos como alcoholes, aldehídos, cetonas o alquenos. El patrón primario usado para estandarizar estas disoluciones es el Na2C2O4 y el punto final se determina por el viraje a un color rosa al llegar al punto de equivalencia. -Dicromatometrías: usan el K2Cr2O7 como oxidante. Esta sal puede ser usada como patrón primario, además presenta la ventaja de no reaccionar con el HCl y formar disoluciones estables. Su uso es más limitado debido a que es menos oxidante y reacciona más lentamente. Estas disoluciones de Cr (IV) son tóxicas. La acción se lleva a cabo en medio fuertemente ácido. Las disoluciones de dicromato son de color naranja pero su intensidad no es suficiente para establecer el punto final, por lo que se suele usar difenilaminosulfónico como indicador. Algunas de las aplicaciones son la determinación de hierro en minerales, análisis ambiental, análisis orgánico como es el grado de alcohol de bebidas. -Yodimetrías: usan el I2 como oxidante. El sistema I 2 / I redox tiene capacidad oxidante intermedia, frente a oxidantes más fuertes el yoduro se transforma en yodo, y en presencia de reductores fuertes, el yodo es el que actúa como oxidante reduciendo a yoduro. El indicador es el almidón. Sus aplicaciones se encuentran limitadas por la inestabilidad de las disoluciones y la posibilidad de producir reacciones no completas. El yodo se puede usar como patrón primario, pero suele usarse la disolución de almidón que en el punto de equivalencia da un color azul. Algunas aplicaciones son la determinación de vitamina C y agua (método Karl Fischer). Este método se usa en la industria alimentaria, cosmética o farmacéutica entre otras por su precisión para determinar cuantitativamente el agua contenida en muestras sólidas o líquidas. Respecto a las reductimetrías se trata de volumetrías redox que usan un agente reductor como agente valorante. Dentro de estas se encuentran: -Yodometrías. Técnica indirecta que usa el sistema como agente reductor. Al determinar una sustancia oxidante se la añade un exceso de disolución de KI y produce la oxidación de I2, que posteriormente se valora con una disolución patrón de Na2S2O3. Las disoluciones de Na2S2O3 se han de normalizar porque son inestables, las principales variables que afectan a la estabilidad son el pH, presencia de microorganismos, exposición a la luz y presencia de oxígeno. En la normalización de las disoluciones patrón de tiosulfato recién preparadas se usan los patrones primarios KIO3 o K2Cr2O7. El punto final se establece mediante una disolución de almidón. Algunas de sus aplicaciones son la determinación de Cu2+, Br2+, Cl2+ , determinación del índice de yodo de un triglicérido, entre otros. -Reductimetrías con sal de Mohr. Esta sal es una sal doble que se usa como patrón primario reductor en la valoración por retroceso de la cantidad de agente oxidante patrón no consumido en una oxidimetría. Se usa en la determinación de un oxidante, adicionando un exceso de disolución de Fe2+ y valorando el exceso de la sal ferrosa no consumida con una disolución patrón de agente oxidante. Las disoluciones recién preparadas son inestables debido a la reacción espontánea con el oxigeno del aire que oxida lentamente. Las disoluciones almacenadas han de ser normalizadas antes de su uso con una disolución patrón oxidante como por ejemplo MnO4-. Alguna de sus aplicaciones es la determinación de compuestos orgánicos del agua, importante para conocer el correcto funcionamiento de una plata de tratamiento de agua. El parámetro para cuantificar está concentración es la demanda química de oxígeno (DQO), medida de la cantidad de sustancias oxidables por oxidantes químicos contenidos en el agua y se expresa en ppm de O2. La determinación de la DQO se realiza por valoración redox, la muestra de agua es tratada a ebullición con un volumen medido de disolución sulfúrica en presencia de sulfato de lata que actúa como catalizador. Después de la oxidación, el exceso no consumido se valora con disolución patrón de sal de Mohr. Las aguas no contaminadas contienen valores de DQO entre 1 y 5 ppm de oxígeno,

Tema 5. Operaciones básicas de laboratorio I: Medidas de volúmenes y densidad, pesada, preparación de soluciones, dilución y concentración. Sistemas de secado, filtración, cristalización, calcinación y sus aplicaciones

Medidas de volúmenes El material volumétrico de medición de laboratorio se compone de herramientas precisas para medir volúmenes líquidos. Incluyen buretas, pipetas y matraces. Estos instrumentos son calibrados para proporcionar medida exactas y repetibles de volúmenes de líquidos. Se usan en situaciones en las que la precisión es importante como es el caso de análisis cuantitativos. Las pipetas miden y transfieren volumen específico de un líquido con precisión, mientras que los matraces aforados contienen el volumen preciso del líquido y las buretas se usan para dispensar líquidos con mucha precisión en valoración. Las probetas se usan para medir sustancias líquidas desde los 10 ml a los 2000 ml. Son tubos transparentes de vidrio o plástico. Para medir con probeta, primero se debe asegurar que se encuentre limpia, se añade la cantidad de disolución que se desea medir y se leer el volumen teniendo en cuenta que la probeta está graduada. La lectura del volumen se realiza igual en todos los instrumentos, se debe tener en cuenta el menisco que forma el líquido en contacto con las paredes del instrumento. Los matraces aforados son recipientes de vidrio con un fondo liso, cuello largo y abertura ancha, las buretas son tubos alargados graduadas. Las pipetas pueden ser aforadas, que se usan para transferir líquidos de un recipiente a otro, graduadas con medidas desde 1 ml a 50ml y Pasteur, que sin graduadas de uso general. Densidad La densidad se define como el resultado de la división entre la masa de un cuerpo y el volumen que ocupa (p= m /v), se expresa en unidades del sistema internacional, en Kg/dm3 o g/dm3 o g/ml. Esta división entre masa y volumen hace referencia a la densidad absoluta., si se relaciona con la de otra sustancia que se toma como referencia, entonces recibe el nombre de densidad relativa (pr) o peso específico. La sustancia de referencia habitual es el agua considerada a 4ºC y 1 atmósfera. (Pr = densidad absoluta / densidad del agua a 4º y 1 atm). En este valor de Pr influye la temperatura y la flotabilidad. Las sustancias con menor densidad flotarán encima de las de mayor densidad. A 4ºC y 1 atm, 1 kg de agua ocupa 1 dm3. En el laboratorio existen diferentes métodos para determinar la densidad en sólidos y líquidos. En sólidos: 1. Método de la probeta: el peso del sólido se determina con una balanza electrónica y se mide su volumen a través del líquido desalojado contenido en una probeta graduada. 2. Método del principio de Arquímedes: se basa en el principio de Arquímedes, todo cuerpo sumergido en un fluido experimenta un empuje vertical hacia arriba igual al peso del fluido desalojado. El empuje es el peso del líquido desalojado. 3. Método del picnómetro (solidos pulverulentos): el picnómetro es un recipiente de vidrio provisto de un tapón con un tubo capilar marcado y con enrase en la parte superior. La masa del solido se determina por la pesada y el volumen mediante la determinación del peso del volumen del líquido desplazado por el sólido pulverulento, que equivale al volumen del sólido. En líquidos: 1. Método de la pesada: se realiza mediante pipetas graduadas o matraces aforados. 2. Método del picnómetro: se basa en pesar el picnómetro vacío (p0), después pesar el picnómetro de volumen conocido lleno de liquido cuya densidad se quiere averiguar (p1) y por último pesar el picnómetro con agua destilada (p2). La densidad del líquido se determina con la siguiente fórmula: p= (p1-p0) / (p2-p0), se mide en g/ cm3. 3. Método del densímetro: los densímetros están formados por un tubo hueco con un ensanchamiento en la parte inferior, el cual termina con un deposito con mercurio que sirve de lastre manteniéndolo vertical al hundirse en los líquidos. En la parte superior esta graduada que indica la densidad en el punto donde se ha hundido, cuanto menor es la densidad de un líquido más se hunde en él. Las mediciones no son muy precisas por lo que se emplea en determinaciones rápidas. Pesada Para realizar la pesada de las muestras se usan las balanzas, instrumentos para medir la masa de un cuerpo, se caracterizan por su exactitud, es decir, grado de aproximación de la medida de la masa realizada al valor verdadero, su precisión, que es el grado de concordancia entre varias pesadas sucesivas y la sensibilidad, que es el número de dígitos que puede apreciar la balanza. En el laboratorio se encuentran varios tipos de balanza, por un lado, las electrónicas de un solo plato, que funcionan basándose en un mecanismo electromagnético. Cuando se coloca un producto sobre el plato de una balanza, esté cambia de posición con una fuerza proporcional l peso que se le pone encima. El mecanismo interno de la balanza detecta el cambio de posición del plato generándose una fuerza que lo retorna a su posición inicial. La energía eléctrica que se necesita para generar esa fuerza es la que se mide y se muestra en la balanza. Otro tipo de balanzas son las balanzas analíticas se usan cuando se requiere conocer la masa con precisión. Estas balanzas tienen una capacidad máxima en general entre 120-200g. Su exactitud o fiabilidad de los resultados está relacionado con su emplazamiento y es por ello que se deben colocar en lugares con pocas vibraciones, sin corrientes de aire, con una temperatura y humedad lo más constantes posibles, y una superficie plana. Para asegurarse de que la balanza se encuentre bien nivelada se verifica que señale exactamente el cero, ya que, de no ser así, se debe de calibrar nuevamente. Para llevar a cabo la pesada de forma correcta y evitar algunos errores comunes como la manipulación incorrecta de la carga, diferencia de temperatura entre la carga y el entorno, absorción de humedad, evaporación y oscilación del valor debido a corrientes de aire, se deben de tener en cuenta varios aspectos como no pesar sustancias directamente sobre el plato de la balanza, usar recipientes limpios y secos, colocar el material en el centro del plato de la balanza y que tanto el recipiente como la carga se encuentren a la misma temperatura que el entorno. Para realizar la pesada, primero se debe pesar el recipiente (tarar), después se retira y se añade la sustancia que se quiere pesar con una espátula o pipeta según sea un sólido o un líquido. El recipiente con la muestra se coloca en el palto de la balanza y se efectúa la pesada, la diferencia entre este valor y la tara da el peso de la muestra. Entre estas dos pesadas se debe de lavar la espátula con un disolvente adecuado y secarla o en su caso cambiar de pipera. Finalmente, la balanza se debe poner a cero. Dentro de las balanzas analíticas se encuentran las macro balanzas que tienen una capacidad entre 160 y 200g y con una desviación estándar de más menos 0.1 mg, otro tipo sería la semimicroanalítica que tienen capacidad máxima entre 10 y 30 mg y una desviación estándar de mas menos 0,01 mg, luego las microanalíticas con capacidad máxima de 1 a 3 g y precisión de más menos 0,001 mg. Por último, encontramos las llamadas balanzas granatarias que presentan una capacidad de 150 y 200g y precisión de 1mg. Preparación de soluciones La ejecución de una técnica analítica puede requerir la preparación de dos tipos de soluciones de concentración exactamente conocida y soluciones de concentración aproximada. Ambos tipos de soluciones son importantes en el análisis volumétrico y en ambos casos se pueden preparar a partir de un sólido o un líquido o de una disolución. El paso previo común a la preparación es la realización de cálculos que serán diferentes según la naturaleza del compuesto del cual se parte Respecto a las disoluciones de concentración aproximada a partir de un sólido lo primero es pesar la sustancia hasta el peso que se desee, para ello se usa un vaso de precipitado y el granatario, pesando primero el vaso vacío para tararlo. Después se disuelve el sólido en el vaso usando la mínima cantidad de disolvente y se diluye hasta el volumen requerido, tras lo cual se agita para homogeneizar la disolución. En cuanto a la preparación a partir de un líquido, se vierte el volumen deseado en una probeta, el contenido de esta se trasvasa a un vaso de precipitado limpio y se diluye con el disolvente requerido. Finalmente se agita para la homogenización de la disolución. Dilución y concentración El procedimiento habitual para preparar diluciones en laboratorio es a partir de una disolución concentrada o madre en volumen. Para poder seguir este procedimiento, es necesario que partamos de una disolución madre cuya concentración conozcamos y esté expresada en términos de Molaridad, Concentración másica o porcentaje % (p/v, ya que estas tres magnitudes expresan la concentración de soluto en base al volumen de disolución. La Molaridad son los moles de soluto por cada litro de disolución, la concentración másica es la masa de soluto por unidad de volumen de disolución y % (p/v) son gramos de soluto por cada 100ml de disolución. Por ejemplo, para la preparación de una serie de diluciones de glucosa, a partir de una disolución al 60% p/v, donde debemos preparar 50ml de cada una, y que sus porcentajes p/v deben ser 42%. Primero se toma un matraz aforado de ese volumen, la masa de glucosa que debe contener ese matraz es: masa de glucosa = 50ml disolución ⋅ 42g glucosa 100ml disolución = 21g glucosa. Por supuesto, esa masa de glucosa proviene de la disolución madre. Por lo tanto, para que finalmente se encuentre en el interior del matraz, será necesario que el volumen de disolución madre que introducimos en el mismo contenga esa masa. Para hallar el volumen de disolución madre que contiene 21g de glucosa se realiza el siguiente cálculo: volumen de disolución = 21 g glucosa x (100ml disolución/ 60g glucosa) = 35g disolución. Así pues, el procedimiento de preparación de la dilución consistiría en: – pipetear 35 ml de la disolución madre, verterlos en el matraz de 50ml, completar el volumen con agua destilada y enrasar. Por lo tanto, el cálculo descrito puede realizarse en un solo paso aplicando la ecuación: dilución (% p/v) dilución madre x Vdisolución madre=% p/v dilución x V dilución. Sistemas de secado, filtración, cristalización, calcinación y sus aplicaciones El secado consiste en la eliminación del agua u otros disolventes volátiles de una muestra por vaporización. Es importante para la comparación de varias muestras similares, además de que facilita la manipulación y la conservación de estas. Los métodos de secado son los procedimientos más comunes para la valoración del contenido de humedad en alimentos. Se calcula el porcentaje en agua por la pérdida de peso debida a su eliminación por calentamiento bajo condiciones normalizadas. La humedad es la cantidad de agua disuelta en un gas o absorbida en un sólido. Los parámetros que se usan para la determinación de la humedad en el aire son: ✓ Humedad absoluta (H), que es la cantidad de vapor de agua contenida en el aire y se mide en Kg de vapor de agua/kg de aire seco, se mide con la siguiente expresión: ✓ Humedad de saturación (Hs), que es la máxima cantidad de vapor de agua que puede haber en una cantidad de aire, se mide en kg vapor de agua/kg aire seco. Se calcula con la siguiente expresión: ✓ Humedad relativa (HR), que es la relación entre la cantidad de vapor de agua que contiene el aire, y la que tendría si estuviera completamente saturado. Se calcula mediante la expresión: -Secado de sólidos: La humedad de una muestra varia en las operaciones de pretratamiento o en su almacenamiento, por lo que esta variabilidad debe de eliminarse, por tanto, la eliminación de la humedad de un sólido se realiza mediante mecanismos de transferencia de calor por convección, conducción o irradiación. Cuando un sólido húmedo se pone en contacto con el aire a una temperatura y humedad determinadas se alcanzan las condiciones de equilibrio entre el aire y el sólido húmedo. Se logran las condiciones de equilibrio cuando la presión parcial del agua que acompaña al sólido húmedo es igual a la presión de vapor del agua en el aire. Para la determinación de la humedad de los sólidos, el primer paso es secar la muestra para evitar que los resultados no se vean afectados por la humedad de la atmosfera que los rodea. Una muestra se lleva a paso constante mediante un ciclo que incluye calentamiento, enfriamiento y pesada. Este ciclo se repite tantas veces como sea necesario hasta la obtención de pesos sucesivos que varíen entre 0,2 mg y 0,3 mg entre ellos. La obtención de pesos constantes proporciona cierta seguridad de que los procesos químicos que ocurren durante el calentamiento o calcinación se han completado. La muestra una vez seca se guarda en desecadores mientras se enfrían con el fin de evitar que se humedezcan. El secado de un sólido puede realizarse de varias maneras: -A temperatura ambiente, en este caso el sólido se coloca encima de un papel o vidrio de reloj y se expone al aire hasta que establece el equilibrio con la humedad atmosférica y no varia su peso. Este método se recomienda para metales, aleaciones y materiales pulverizados no muy higroscópicos. -En estufas de secado, con temperatura entre 105-110ºC -En el desecador, el desecador es un contendor hermético al aire que mantiene una atmosfera de baja humedad, en él se deja la muestra con un agente desecante absorbente que extrae la humedad durante un tiempo. Los agentes desecantes mas usados son el cloruro de calcio, gel de sílice, óxido de calcio, oxido de aluminio, perclorato de magnesio, -Secado de líquidos y gases: en este caso se usan agentes desecantes o deshidratantes como son las sales inorgánicas que incorporan agua de cristalización en su estructura, por ejemplo, el sulfato de sodio magnesio y el cloruro de calcio. También se pueden secar los líquidos con tamices moleculares, que son unos solidos que contienen poros de una medida precisa y uniforme capaces de absorber las moléculas de agua. Como ejemplo de tamiz moléculas son las zeolitas, aluminosilicatos de calcio y sodio. Para secar un gas se hace pasar a través de columnas rellenas del agente desecante como puede ser un gel de sílice, óxido de calcio o los tamices moleculares entre otros, también se consigue el secado burbujeándolo a través de ácido sulfúrico concentrado. La determinación de humedad es una de las técnicas más importantes y de mayor uso en el procesamiento, control y conservación de los alimentos. De los diferentes métodos de determinación de humedad, el más rápido y utilizado es el método indirecto por volatilización, el cual se basa en la separación del agua del alimento por secado en estufa a temperaturas superiores a 100°C. Existen otros métodos de determinar la humedad, como puede ser por destilación directa, que consiste en colocar la muestra de alimento en un balón de destilación al cual se añade un solvente orgánico inmiscible en agua y de mayor punto de ebullición o también por métodos instrumentales, mediante los cuales se obtienen resultados en un tiempo mucho más cortos, un ejemplo de ello es la determinación de la humedad por el método Chataway, el cual se basa en la relación existente bajo determinadas condiciones entre el índice de refracción y el contenido de humedad en un producto. La filtración es un proceso de separación realizado en el laboratorio cuando se requiere disponer de disoluciones libres de partículas en suspensión o se necesita recoger el producto sólido. La separación se consigue por la retención de las partículas sólidas en medio filtrante. Para ello se usan filtros, cuyas principales características son la eficacia, es decir, la capacidad de retención y la velocidad de flujo, es decir, el volumen de liquido que pasa a través de un filtro por unidad de tiempo y superficie. Los filtros retienen todas las partículas mayores que el tamaño del diámetro del poro de su superficie. Algunos de los medios filtrantes mas usados son: papel de filtro, crisol de Gooch, embudo de placa porosa, crisol de porcelana porosa, coadyudantes, microfibra de vidrio, filtros de membrana y arena. Existen diferentes técnicas de filtración según la fuerza impulsora de la misma, distinguiéndose entre métodos de filtración por gravedad y a vacío. -Por gravedad: la fuera impulsora para que el líquido atraviese el filtro es la gravedad. Es el método más sencillo. Se usa cuando se requiere separar un sólido de un líquido y recuperar el líquido. El objetivo es hacer pasar la mezcla sólido líquido a través del filtro y recoger el líquido filtrado, para ello se coloca el papel de filtro dentro del embudo y éste se sitúa sobre el recipiente de recogida, sostenido por un aro metálico. El filtro se puede mojar con la misma clase de disolvente que contiene la suspensión. A continuación, se vierte lentamente la suspensión sobre el filtro con la ayuda de una varilla de vidrio, de forma que no se derrame el contenido. Finalmente, las partículas sólidas retenidas en el filtro pueden lavarse con pequeñas porciones de disolvente. -A vacío: en este caso la fuerza impulsora para que el líquido atraviese el filtro es la que ejerce la presión atmosférica cuando se aplica vacío al sistema. Es un método rápido que permite la filtración de suspensiones en las que la fuerza de gravedad no es suficiente. Consiste en producir una depresión o vacío en la disolución para que la filtración se realiza de forma más rápida. Se emplean embudos Buchner, de porcelana o de plástico, provistos de una placa perforada sobre la que se colocan discos de papel de filtro. La depresión se realiza con el uso de trompas de agua o bombas de vacío. Los receptores del líquido filtrado son los matraces Kitasato. Este método suele usarse para la separación de cristales en un proceso de cristalización o un sólido en reacciones de precipitación. Los métodos de filtración son muy importantes en la industria alimentaria para eliminar partículas en suspensión o polvo que puedan comprometer la higiene de los alimentos. Por ejemplo, en la producción de frutos secos, la filtración se encarga de eliminar partículas de cáscara y polvo generados en la manipulación, también en la producción de cereales como es el caso del arroz, o en las harinas y especias entre otros. La cristalización consiste en separar un sólido disuelto en un líquido mediante la formación de cristales, bien sea al enfriar o al evaporar el líquido. La condición principal para que se realice la cristalización de una sustancia es que su solubilidad en un disolvente varie considerablemente con la temperatura. para cristalizar una sustancia partiendo de una disolución, primero se debe saturar y después enfriar. La cristalización ocurre cuando el sistema es enfriado por debajo del punto de fusión de la sustancia. La cristalización tiene tres finalidades: obtener un producto puro a partir de una muestra de menor pureza, separar y de una mezcla compleja. En mezclas de compuestos inorgánicos es fácil la cristalización, y se usa el agua como disolvente, en cambio, en mezcla de compuestos orgánicos, la cristalización es más difícil, y es importante elegir un disolvente adecuado, el cual debe cumplir que a temperaturas altas disuelva de forma fácil al compuesto, que a temperaturas bajas el compuesto sea muy poco soluble, que no reaccione con el compuesto, que se evapore fácilmente, no sea tóxico, que en frío las impurezas sean más solubles que el compuesto y a ser posible que sea económico. La purificación de un producto por solidificación a partir de una mezcla líquida se llama cristalización a partir de la fusión o cristalización de la solución. El término cristalización a partir de la fusión se define como la separación de componentes en una mezcla binaria sin adicción de disolvente. Existen muchas técnicas para realizar este tipo de cristalización, algunas de ellas son: -Cristalización en columna: se realiza dentro de una columna con flujo a contracorriente de los cristales y el líquido puede dar lugar a un producto de mayor pureza que en la cristalización convencional. Estos dispositivos se componen de tres secciones distintas: una sección de congelación o recuperación, en donde se congela el soluto a partir de licor impuro; la zona de purificación, donde se ponen en contacto a contracorriente las fases sólidas y líquidas, y la sección de fusión y reflujo de los cristales. -Cristalización a partir de solución: se agrega un disuelven a la mezcla y después la solución se enfría y/o se evapora para realizar la cristalización. La calcinación es el proceso en el que una sustancia se somete a una temperatura elevada, pero por debajo de su punto de fusión para provocar un cambio de estado. Las sustancias que más se tratan con minerales, arcillas y óxidos gelatinosos. Cuando la calcinación se realiza bajo corrientes de aire, se dice que ocurre en una atmósfera oxigenada, si se reemplaza el oxígeno por nitrógeno o un gas noble, se dice entonces que la calcinación ocurre bajo atmósfera inerte. La diferencia entre las atmósferas que interactúan con el sólido calentado depende de la sensibilidad del mismo a oxidarse. El objetivo de la calcinación es modificar la sustancia química o físicamente para que cumpla con las cualidades que se requiere en sus aplicaciones. Como ejemplo de este método, es la calcinación de la piedra caliza CaCO3, para convertirla en cal, CaO. Existen dos tipos de calcinación: una química y otra física. La química es aquella donde la muestra, el sólido o precipitado sufre una descomposición térmica, es decir, el compuesto no es el mismo después de que se hayan aplicado las altas temperaturas. La física es aquella donde la naturaleza de la muestra no se modifica. Algunas de las aplicaciones de la calcinación son la descomposición de los carbonatos metálicos en sus respectivos óxidos, deshidratación de minerales, óxidos gelatinosos o alguna otra muestra para el análisis gravimétrico, activación de la alúmina o el carbón para aumentar el tamaño de sus poros y comportarse así como sólidos absorbentes., modificación de propiedades estructurales, vibracionales o magnéticas de nanopartículas de minerales, tales como el Mn0.5Zn0.5Fe2O4, o desulfuración de muestras.

Tema 6. Operaciones básicas de laboratorio II: fundamento, equipamiento y aplicaciones de extracción líquido a líquido, extracción en fase sólida, separación por destilación y digestión seca y húmeda de muestras

La extracción es la técnica empleada para separar un producto orgánico de una mezcla o de una fuente natural. Permite separar el producto deseado y dejar en la mezcla el resto de los productos, o bien extraer productos secundarios y dejar el principal. Para este método se debe tener en cuenta el principio de solubilidad “lo semejante disuelte a lo semejante”, es decir, los solutos polares solo pueden disolverse en solvente polares y los no polares en solventes no polares. Los métodos de extracción pueden ser de forma discontinua o continua. Extracción líquido-líquido La extracción líquido-liquido discontinua consiste en la transferencia que se realiza entre dos líquidos inmiscibles de una fase a otra (fase acuosa y fase orgánica) usando para ello un embudo de decantación o separación. La fase acuosa suele ser el agua y la fase orgánica es un disolvente orgánico inmiscible con el agua. La extracción es por tanto el paso del compuesto orgánico de interés de una fase acuosa a un disolvente orgánico. Se basa en la diferencia de solubilidad del compuesto a extraer en dos disolventes diferentes. Cuando se agita un compuesto con dos disolventes inmiscibles, el compuesto se distribuye entre los dos disolventes, de tal manera que, a una temperatura determinada, la relación de concentraciones del compuesto en cada disolvente es siempre constante, y esta constante se denomina coeficiente de distribución o de reparto (K = concentración en disolvente 2 / concentración en disolvente 1). Un aspecto importante a tener en cuenta en esta técnica es que, para un mismo volumen final de disolvente orgánico, es más efectivo realizar varias extracciones con un volumen menor que una sola extracción con todo el disolvente. Además, se pueden obtener mezclas de reacción en disolución, en estas situaciones, la extracción del producto deseado se consigue añadiendo un disolvente orgánico adecuado que sea inmiscible con el agua y capaz de solubilizar la máxima cantidad de producto a extraer. Cuando K sea muy grande (>100) será suficiente realizar una sola extracción, sin embargo, para compuestos solubles en agua donde K sea próximo a 1, se debe realizar la técnica de extracción líquido-líquido en continuo. La mayor parte de los compuestos orgánicos tiene coeficientes de reparto entre un disolvente y agua mayores de 4. Por lo tanto, una extracción doble o triple generalmente extraerá de una disolución acuosa la mayor parte del compuesto orgánico. Después de agitar la mezcla de las dos fases para aumentar la superficie de contacto entre ellas y permitir un equilibrio más rápido, se producirá una transferencia del producto deseado desde la fase acuosa inicial hacia la fase orgánica, en una cantidad tanto mayor cuanto mayor sea su coeficiente de reparto entre el disolvente orgánico de extracción elegido y el agua. Unos minutos después de la agitación, las dos fases se separan de nuevo de forma espontánea por decantación, debido a la diferencia de densidades entre ellas, con lo que la fase orgánica que contiene el producto deseado se podrá separar mediante una simple decantación de la fase acuosa conteniendo impurezas. La posición relativa de ambas fases depende de la relación de densidades. Tras la extracción, la fase acuosa suele contener cierta cantidad del producto deseado y es por ello por lo que se suele repetir el proceso de extracción un par de veces más con un disolvente orgánico puro. Una vez finalizada la operación de extracción, se tiene que recuperar el producto extraído a partir de las fases orgánicas reunidas. Para ello, se debe secar la fase orgánica resultante con un agente desecante, filtrar la suspensión resultante y finalmente eliminar el disolvente orgánico de la disolución seca conteniendo el producto extraído por destilación o evaporación. La extracción se emplea para separar el producto deseado de una mezcla, pero a veces lo que se pretende con la extracción es eliminar impurezas no deseadas de una disolución. Las etapas del proceso de extracción son: preparación del material, adición de las fases, agitación de la mezcla, separación de las fases, secado de la fase orgánica, filtración y eliminación del disolvente. El material necesario para realizar la extracción es el embudo de decantación que debe estar provisto de un tapón y una llave que se ajusten y giren para evitar pérdidas. El tapón y la boca esmerilada no deben engrasarse nunca. Primero se coloca el embudo sobre un aro metálico unido a un soporte, y se comprueba que la llave esté cerrada. Se realiza la adicción mediante un embudo cónico y seguidamente se adiciona el disolvente extractor. No se debe llenar el embudo a más de tres cuartas partes de su volumen ni introducir disoluciones calientes. Después se procede a la agitación, que para realizarla de forma correcta primero se tapa el embudo y se coge con ambas manos, sujetando con una la llave y con la otra el tapón. Se coloca el embudo en posición horizontal y se agitar mediante movimiento circulares. Al agitar un disolvente volátil su presión de vapor aumenta, generándose una sobrepresión en el interior del embudo; para eliminarla, se invierte el embudo y se abre la llave. Este paso es importante puesto que si mientras se agita no se elimina la sobrepresión, el tapón podría saltar bruscamente y derramarse parte del contenido del embudo. Finalmente se cierra de nuevo la llave y se repite la operación de agitar y abrir la llave varias veces. Tal como se ha mencionado anteriormente, la extracción selectiva de un componente de una mezcla disuelta en un determinado disolvente se puede conseguir añadiendo otro disolvente, el cual debe de cumplir las siguientes condiciones: que no sea miscible con el otro disolvente, que el componente deseado sea mucho más soluble en el disolvente de extracción que en el disolvente original, que el resto de los componentes no sean solubles en el disolvente de extracción, que sea suficientemente volátil, de manera que se pueda eliminar fácilmente del producto extraído mediante destilación o evaporación y que no sea tóxico ni inflamable. Los disolventes usados con más frecuencia son disolventes orgánicos con baja polaridad como el acetato de etilo, hexano, tolueno, diclorometano o éter dietílico entre otros. La extracción líquido-líquido continua se emplea cuando el compuesto a extraer en el disolvente es suficientemente favorable. Si esto no es así, y la solubilidad del compuesto a extraer no es muy alta, se usa otro procedimiento que implica la extracción continua de la fase inicial con porciones nuevas del disolvente orgánico de extracción. Para no usar grandes volúmenes de extracción, el proceso se realiza en un sistema cerrado en el que el disolvente de extracción se calienta en un matraz y los vapores del disolvente se hacen condensar en un refrigerante colocado sobre una cámara de extracción que contiene la disolución acuosa a extraer. El disolvente condensado caliente se pasa a través de la disolución acuosa para llegar con parte del producto extraído al matraz inicial en donde el disolvente orgánico se vuelve a vaporizar, repitiendo un nuevo ciclo de extracción, mientras que el producto extraído, no volátil, se va concentrando en el matraz. Extracción sólido-líquido La extracción sólido-líquido consiste en la separación de uno o más componentes de una mezcla sólida mediante un disolvente líquido. En este caso transcurre en dos etapas, primero hay un contacto del disolvente con el sólido que cede el soluto al disolvente y se puede realizar a temperatura ambiente o en caliente, y una segunda parte donde hay una separación de la disolución del resto del sólido. Una vez saturado el disolvente, se separa el sólido que queda por filtración. Esta separación se lleva a cabo aprovechando diferencias de solubilidad en un determinado disolvente. En el caso de una mezcla de sólidos en la cual uno de los compuestos es soluble en un determinado disolvente, mientras que los otros son insolubles, se puede realizar una extracción añadiendo este disolvente a la mezcla contenida en un vaso de precipitados, un matraz o una cápsula de porcelana, en frío o en caliente, agitar o triturar con ayuda de una varilla de vidrio y separar por filtración la disolución que contiene el producto extraído y la fracción insoluble que contiene las impurezas. Si, al contrario, lo que se pretende es disolver las impurezas de la mezcla sólida, dejando el producto deseado como fracción insoluble, el proceso se denomina lavado. La extracción sólido-líquido continua es más eficiente, se realiza con el disolvente de extracción caliente en un sistema cerrado, utilizando una metodología similar a la comentada para la extracción líquido-líquido continua, basada en la maceración con disolvente orgánico, previamente vaporizado en un matraz y condensado en un refrigerante, de la mezcla sólida a extraer contenida dentro de un cartucho o bolsa de celulosa que se coloca en la cámara de extracción. El paso del disolvente orgánico con parte del producto extraído al matraz inicial permite que el mismo disolvente orgánico vuelva a ser vaporizado, repitiendo un nuevo ciclo de extracción, mientras que el producto extraído, no volátil, se va concentrando en el matraz. Una de las técnicas tradicionales de extracción sólido-líquido es la extracción Soxhlet. El extractor de tipo Soxhlet se aplica a analitos que no se pueden separar por volatilización (en fase gas) pero sí son extraíbles empleando un disolvente orgánico adecuado. Esta técnica es usada para la determinación del contenido graso en muestras de diferente naturaleza. De igual modo, puede ser usada como técnica preparativa de muestra como paso previo al análisis mediante otra técnica instrumental, por ejemplo, la extracción de ácidos grasos en muestras de tocino para su posterior determinación mediante cromatografía de gases. Su campo de aplicación es principalmente agroalimentario, pero también se usa en el área medioambiental, así es el método de análisis recomendado para la determinación del aceite y la grasa total recuperable en aguas de vertidos industriales permitiendo la determinación de hidrocarburos relativamente no volátiles, aceites vegetales, grasas animales, ceras, jabones y compuestos relacionados. Destilación La destilación es una técnica de separación y purificación de líquidos. Se basa en la diferencia entre los puntos de ebullición de las sustancias que constituyen una mezcla. Las dos fases en una destilación son la vaporización o transformación del líquido en vapor y la condensación o transformación del vapor en líquido. Existen varios tipos de destilaciones, el uso de una u otra técnica se realiza según las propiedades del líquido que se pretenda purificar y de las impurezas que lo contaminan. -Destilación simple: se usa para eliminara un soluto no volátil o para separar una mezcla de líquidos con bastante diferencia en su punto de ebullición, entre los cuales sea de almenos25ºC. El componente del punto de ebullición más bajo destilará con más rapidez y la primera fracción del destilado será más rica en él, mientras que por el contrario el componente con punto de ebullición más alto será el principal en la ultimas fracción del destilado. El quipo usado para esta técnica consta de una fuente de calor como pueste ser una manta calefactora, un matraz de fonde esférico, pieza acodada de 75º, termómetro, adaptador para termómetro, refrigerante y terminal acodado. La mezcla se calienta en un matraz esférico, los componentes volátiles pasan a través de un refrigerante en donde condensan y el líquido resultante se recoge en el matraz. -Destilación a vacío o presión reducida: imprescindible en mezclas con sustancias inestables a su temperatura de ebullición o con un punto de ebullición muy alto. La presión reducida en el equipo de destilación se consigue con un terminal acodado con un tubo interior una oliva lateral que permite la conexión a un sistema de vacío. En la destilación a vacío, la ebullición del líquido se debe regular mediante un tubo capilar que haga borbotear aire o un gas inerte. La calefacción debe empezar cuando el vació se ha establecido. Cuando concluye la destilación debe enfriarse el sistema antes de detener el vacío. El paso del vació a presión normal se hace de forma lenta. -Destilación fraccionada: se usa para separar sustancias cuyos puntos de ebullición difieren menos de 25ºC. Incorpora una columna de fraccionamiento entre la disolución y el refrigerante. Esta columna de fraccionamiento consta de un tubo largo de vidrio que lleva en su interior un relleno inerte o unos platos de condensación. La columna aporta una gran superficie para el intercambio entre el vapor que sube y el condensado que desciende, lo que hace posible una serie de vaporizaciones y condensaciones a lo largo de la columna. En cualquier punto de esa columna de fraccionamiento, el condensado frío recibe calor del vapor que asciende y se vuelve a vaporizar parcialmente formando un vapor que se enriquece en el componente más volátil. De la misma manera, al ceder calor al condensado el vapor se enfría formando un condensado más rico en el componente menos volátil. Con la columna adecuada y un control suficiente de la temperatura se pueden separar con esta técnica líquidos que difieren unos pocos grados en su punto de ebullición. Una destilación fraccionada es equivalente a una secuencia de destilaciones simples y por tanto un proceso más eficiente. Esta técnica es importante en la industria del petróleo, donde el crudo se destila para obtener diferentes fracciones de intervalos de ebullición creciente. A partir de estas fracciones se pueden obtener sustancias puras mediante procesos ulteriores. -Destilación por arrastre de vapor: se usa para separar sustancias poco solubles en agua, destilar compuestos por debajo de su punto de ebullición y obtener sustancias termolábiles como vitaminas o esencias, como por ejemplo aceites esenciales contenidos en plantas. Al hacer pasar una corriente de vapor a través de la mezcla, ambos componentes se destilan juntos. Como el agua y el compuesto son inmiscibles, cada uno de ellos ejerce su presión de vapor independientemente del otro. Cuando la suma de la presión de vapor del compuesto y del agua se iguala a la presión atmosférica, por debajo de 100ºC, se produce la destilación conjunta de ambos componentes. La condensación de los vapores produce una mezcla acuosa a partir de la cual se extrae el compuesto deseado por filtración o extracción. Se emplea para separar una sustancia de una mezcla que posee un punto de ebullición muy elevado y que se descompone al destilar. Digestión seca y húmeda de las muestras La digestión de muestras se usa para la su preparación en diferentes métodos analíticos. El principio básico de la digestión es la destrucción oxidativa de la matriz de la muestra para extraer la sustancia a determinar para su posterior análisis. Con este objetivo, las muestras se suelen llevar a ebullición con un ácido a alta temperatura. Las industrias donde se usan a menudo los sistemas de digestiones son principalmente en los sectores de agricultura, medioambiente, plásticos, petroquímicos, geoquímicos, metales, cerámicas entre otros. La digestión o mineralización de las muestras se puede llevar a cabo por vía húmeda o digestión ácida y vía seca. El método vía seca consiste en incinerar la muestra en el horno-mufla convencional a menos de 600 °C. Las altas temperaturas a veces permiten la contaminación o pérdida del analito y por lo tanto ha tendido a subestimar o sobrestimar. El método de digestión húmeda incluye la descomposición por ácidos solos o mezclados, llevado a cabo en vasos de teflón sobre bloques de aluminio o en placas respectivamente calientes o en vasos de precipitado sobre plancha de calentamiento. La digestión húmeda puede realizarse en un sistema presurizado usando vasos cerrados climatizados en un horno microondas o autoclave. El uso de este sistema cerrado tiene varias ventajas con respecto a los sistemas abiertos, entre los que se incluye la reducción de los riesgos de contaminación y pérdida de analitos volátiles. Adicionalmente, el punto de ebullición del ácido es elevado cuando la presión interna del vaso aumenta, permitiendo una más rápida y completa digestión de la matriz. En la digestión húmeda se usa el equipo de digestión de microondas, donde se aplican parámetros como la temperatura, (220-240ºC), para la degradación parcial o completa de la muestra. Se requiere también de reactivos, siendo los más utilizados el ácido nítrico, ácido clorhídrico y peróxido de hidrógeno, provocando la digestión y se obtiene la disolución acuosa ácida de la muestra, la cual podrá ser posteriormente analizada con técnicas espectroscópicas. Mediante este equipo el proceso se simplifica considerablemente, y se hace más seguro al controlarse de manera precisa los parámetros del proceso, como la presión, temperatura y tiempo de digestión. Por lo anterior, la digestión de las muestras, se emplean con mucha frecuencia para la preparación de sustancias dirigidas hacia análisis medioambientales, la digestión de agua regia para el análisis de muestras de minerales y suelos o la determinación de la demanda química de oxígeno (DQO) en las aguas residuales o en la industria alimentaria, donde la digestión se utiliza en el análisis Kjeldahl, para la determinación del contenido de nitrógeno y proteínas en los productos alimenticios, o para la preparación de la muestra para la determinación del cianuro, por ejemplo, en las almendras o los frutos secos.

Tema 7. Instrumentación óptica: colorímetros, turbidímetros y refractómetros. Fundamentos y forma de empleo. Operaciones de verificación y calibración. Aplicaciones.

Colorimetría La colorimetría es una de técnicas empleadas para obtener información cualitativa y cuantitativa sobre sustancias en disolución. El colorímetro es un instrumento diseñado para dirigir un haz de luz paralela monocromática a través de una muestra líquida y medir la intensidad del haz luminoso emergente. Esta técnica se basa en la medida de la absorción de radiación de la zona visible por sustancias coloreadas. En algunas ocasiones la muestra que deseamos determinar no posee color por sí misma; en tal caso, es preciso llevar a cabo un desarrollo de color empleando reactivos que den lugar a sustancias coloreadas con la muestra que interesa. La colorimetría y fotocolorimetría no son en distintas, la diferencia se encuentra en el tipo de instrumental empleado, de forma que se denomina colorímetro a aquellos aparatos en los que la longitud con la que se trabaja se selecciona por medio de filtros ópticos mientras que en los fotocolorimetricos o espectrofotómetros la longitud de onda se selecciona mediante dispositivos mono- cromadores. El colorímetro es un instrumento diseñado para dirigir un haz de luz paralela monocromática a través de una muestra líquida y medir la intensidad del haz luminoso emergente. La fracción de luz incidente absorbida por una solución a una longitud de onda está relacionada con el paso óptico y con la concentración de la especie absorbente. Estas dos relaciones están combinadas en la ley de Lambert-Beer : Log Io / I = ∈ c l en donde Io e I son las intensidades de la luz incidente y emergente respectivamente, l el paso óptico de la muestra absorbente (cm), c la concentración de la especie absorbente (moles/litro) y ∈ el coeficiente de absorción molar (M-1 cm-1). La expresión log Io / I se denomina absorbancia y se designa por A (siendo adimensional). Fijando el paso óptico resulta que la absorbancia A es directamente proporcional a la concentración del soluto absorbente. El coeficiente de absorción molar varía con la naturaleza del compuesto absorbente, el disolvente, la longitud de onda y también con el pH. La aplicación obvia de la ley de Lambert-Beer es el uso del colorímetro para determinar la concentración de una gran variedad de moléculas que absorben luz (p. ej. Carotenos, clorofila, hemoglobina, etc.). La técnica se extiende a sustancias no coloreadas como azúcares o aminoácidos después de alguna reacción capaz de convertir sustancias incoloras en derivados coloreados. Las aplicaciones de los colorímetros son variadas, en la industria alimentaria se utilizan para análisis de alimentos, para asegurar la consistencia de color. Se usan también en laboratorios de agua para medir la pureza y calidad de la misma, permitiendo detectar contaminantes, también se usan en laboratorios químicos y farmacéuticos para medir la concentración de sustancias en soluciones, siendo cruciales en investigaciones y producción farmacéutica. Turbidimetría La dispersión de la radiación es un fenómeno físico mediante el cual la radiación electromagnética al incidir sobre una suspensión de partículas es desviada en su dirección de propagación, de forma caótica, en cada uno de los núcleos de dispersión, dando como resultado radiación dispersada en todas las direcciones del espacio. Esta radiación dispersada, si es de la misma longitud de onda que la fuente primaria, se denomina dispersión elástica y es la base de las técnicas analíticas de turbidimetría. La dispersión de la luz puede medirse por turbidimetría o nefelometría, ambas técnicas basadas en la dispersión de la radiación por partículas en suspensión en el seno de una dilución, cuyo objetivo es la medida de la turbidez o concentración de partículas dispersantes de la disolución. Cuando la dispersión de la luz es suficientemente grande como para originar una disminución apreciable en la intensidad de radiación incidente, se puede medir el rayo transmitido en el mismo sentido que el incidente, esta configuración da lugar a la turbidimetría. Los turbidímetros son instrumentos integrados por una fuente de radiación, selector de longitud de onda, detector, procesador de la señal. Como fuente de radiación se usan lámparas de filamento de wolframio o diodos fotoemisores, la longitud de onda se debe seleccionar de forma adecuada para que la absorción del medio se reduzca al mínimo, es por ello que como selectores se usan filtros o monocromadores. Las celdas para la muestra pueden tener diferentes formas y tamaños, aunque generalmente son prismáticas o cilíndricas, de vidrio con tapón roscado y suelen tener una línea indicando hasta donde deben de llenarse y respecto al detector, suelen ser tubos fotomultiplicadores. Para la determinación de la concentración mediante turbidimetría, lo que se mide es la transmitancia (T) , cociente entre la intensidad de la fuente de radiación transmitida por la muestra It, y la intensidad de la radiación n de la fuente transmitida por un blanco I0. La transmitancia es proporcional a la concentración de las partículas dispersantes, C, mediante una relación similar a la ley de Lamber-beer: Para expresar los resultados en la turbidez se usa la Unidad Nefelomérica de Turbidez (NTU) y la Unidad de Turbidez de la Formazina (FTU), ambas equivalentes. Esta técnica se usa para medir concentraciones situadas entre 10-4 y 10-9 mol/L y suele emplearse para medir turbidez, lo cual es importante para el control de calidad de aguas y de tratamientos de depuración. También se realizan medidas de turbidez en bebidas comerciales y en el control y monitorización de procesos de separación y filtrados nivel industrial. Se usan también para la medida de concentraciones de especies químicas como cationes y aniones inorgánicos, previa precipitación de estos, como es la determinación de sulfatos. Otra aplicación es la determinación de proteínas en fluidos. Debido a que la dispersión esta influida por la concentración, tamaño y forma de las partículas, se requiere una preparación de las muestras para mantener una distribución uniforme de las partículas por toda la muestra. Muchos métodos turbidímetros se basan en la formación de partículas mediante precipitación. Para que el tamaño de partículas sea uniforme hay que controlar una serie de parámetros como la concentración, orden de adicción de reacción, pH, temperatura, fuerza iónica, velocidad de agitación, etc, además es importante el tiempo transcurrido entre la formación del precipitado y el momento de la medida. Normalmente los equipos vienen calibrados de fábrica, pero si se deben hacer calibraciones periódicas, según uso y recomendación del fabricante. Este periodo suele ser de tres meses aproximadamente. La calibración se realiza con el patrón que se indica en las instrucciones del aparato, que está constituido por una suspensión de un polímero estable, normalmente la formazina. Para realizar medidas de turbidez, el patrón habitual para preparar las curvas de calibración es formazina, aunque existen otros patrones en el merado como por ejemplo el estireno-divinil-benceno (SDVB). Las celdas para la muestra se deben de manipular por la parte superior para evitar dejar huellas que interfieran en las medidas. Tras la introducción de la muestra, se deben limpiar con un paño suave, para eliminar cualquier residuo. A continuación, se aplica una fina capa de aceite de silicona, se depositan unas gotas sobre la superficie externa del vidrio y se extienden hasta que se reparta la silicona de forma uniforme, evitando aplicar en exceso pues podría retener suciedad y contaminar el compartimento para la celda. La silicona posee el mismo índice de refracción que el vidrio y al aplicarla rellena y enmascara los pequeños rasguños o imperfecciones que puede tener la celda. Es importante también la desgasificación de la muestra, ya que las burbujas de aire u otros gases alteran las medidas, por lo que se necesita su eliminación que puede realizarse por ultrasonido o aplicando vacío. La realización de las medidas se realiza previa homogenización de la muestra o patrones contenidos en la celda de medida. Es recomendable tomar varias lecturas y homogeneizar entre ellas. Refractometría La refractometría es una técnica de medición cuantitativa y no destructiva basada en principios ópticos evidentes en la naturaleza. Se aplica con fines de identificación y caracterización de aceites y grasas, en el control de la pureza de los alimentos, en la medición de jugos azucarados, determinación aproximada del contenido de alcohol en licores, entre otros. Un refractómetro es un instrumento óptico que mide el índice de refracción de una sustancia. Este índice es la relación entre la velocidad de la luz en el vacío y la velocidad de la luz en el material. En la obtención de este índice, se pueden calcular diferentes propiedades del elemento, tales como la concentración de proteína de sangre, densidad urinaria, contenido de azúcar o salinidad. Existen dos tipos de refractómetros en función de la detección del índice de refracción; sistemas transparentes y sistemas de reflexión. Los refractómetros portátiles y los refractómetros Abbe usan los sistemas transparentes, mientras que los refractómetros digitales usan los sistemas de reflexión. Además, existen refractómetros específicos para enología, alimentación u otros usos, que ofrecen valores en una gran variedad de escalas útiles en cada uno de estos sectores. Según su uso: -Refractómetros portátiles, que a su vez se pueden clasificar en Abbe o análogos y digitales. Se caracterizan por ser de fácil manejo y tamaño reducido, ideales para trabajo de campo por su facilidad de transporte y simplicidad en la entrega de resultados. -Refractómetros de mesa: debido a su tamaño, peso y condiciones especiales de medición, requieren conexión eléctrica, ambiente y estructura estable que los soporte con el fin de garantizar la exactitud de sus resultados. -Refractómetros de lectura en línea: por lo general requieren de una instalación alámbrica en sitio dentro de la línea de producción, debido a que permite realizar captura de datos en un punto específico del proceso de producción. Se pueden configurar para constantemente recopilar estadísticas especificadas del material objeto de forma remota. Según medición del índice de refracción: -Refractómetro de Abbe: permite medir la densidad, la concentración de sales, azúcares, ácidos, es decir de sólidos solubles en un medio. Se puede determinar el índice de refracción entre 1300 y 1700 para un rango de temperatura de 0ºC a 70ºC. Este refractómetro funciona a través del principio de reflexión de la luz. Su desventaja es que solo mide soluciones con índices de refracción menores del que indica el vidrio, pero esto tiende a ser corregido colocando un termostato dentro del sistema óptico. Las escalas para diferentes sustancias que puede tener un refractómetro de este tipo son; grados Brix, Mash Sacch o Baume. -Refractómetro Digital: más fácil analizar sustancias como lactosa, glucosa, entre otras. Sus resultados son precisos, rápidos y seguros. Brinda más ventajas que el refractómetro de Abbe, debido a que no hay necesidad de realizar anotaciones manuales, gracias a la incorporación de pantallas que muestran las temperaturas y los resultados de cada medición. Permite también medir varias muestras con un solo refractómetro, ya que cuenta con un software de programación para que el usuario tenga una gama amplia de escalas. El fenómeno de la refracción está basado en el cambio de velocidad que experimenta la radiación electromagnética al pasar de un medio a otro, como consecuencia de su interacción con los átomos y moléculas del otro medio. Dicho cambio de velocidad se manifiesta en una variación en la dirección de propagación. La medida de la variación entre dos medios tomando uno fijo como referencia se le conoce como índice de refracción (n) y en general está expresado con respecto al aire. El instrumento para medir este índice es básicamente un sistema óptico que busca medir el ángulo que se ha desviado la radiación, utilizando para ello dos prismas: uno fijo de iluminación sobre el cual se deposita la muestra y uno móvil de refracción. Los prismas están rodeados de una corriente de agua termostatizada, ya que la temperatura es una de las variables que afecta a la medida. Cuando la radiación electromagnética atraviesa un límite entre dos medios, cambia su velocidad de propagación. Si la radiación incidente no es perpendicular al límite, también cambia su dirección. El cociente entre la velocidad de propagación en el espacio libre (vacío) y la velocidad de propagación dentro de un medio se llama índice de refracción del medio. La lectura con los refractómetros debe realizarse a 20º C debido a que la temperatura es una variable que afecta a los valores obtenidos en las mediciones. Dado que no siempre es fácil mantener la temperatura estable se precisa realizar correcciones de las medidas en función de la temperatura ambiente. Estos factores están tabulados. Debido a esta peculiaridad, muchos refractómetros incorporan un sistema de compensación de la temperatura, miden la temperatura de la muestra que se va a medir y ofrecen el valor compensado sobre la base de 20ºC. La estructura de un refractómetro está compuesta por las siguientes partes, un prisma: lugar donde se colocan las muestras y tiene una lámina que permite cubrir las sustancias que aquí se depositan, un tornillo de Ajuste que permite el ajuste del dispositivo, un tubo de espejo que refleja la luz hacia arriba a través del refractómetro, el ocular, que es la lente de enfoque por donde se observa la escala y el reticulado, ubicada el interior, indica la escala de medición. Para el adecuado uso se siguen los siguientes pasos, primero se colocan 1 o 2 gotas de la muestra que se va a medir sobre el prisma, se cierra la lámina transparente que permite la entrada de luz, se espera que la muestra se extienda sobre la superficie del prisma, y se observa a través del lente ocular, la lectura de la escala es el horizonte donde se observa una diferencia de color. Finalmente se procede a limpiar y secar suavemente la muestra del prisma con un papel y agua. Para obtener mediciones fiables, es conveniente ajustar periódicamente el refractómetro, para ello debe estar totalmente limpio, se usa agua destilada que se coloca sobre el prisma, cubriéndolo completamente, se cierra el cubreobjetos y se gira el tornillo de esta manera el limite claro/ oscuro se alinea a cero, y por tanto el refractómetro estará ajustado. La frecuencia del ajuste dependerá del uso del equipo. Para asegurar el correcto funcionamiento del instrumento, se debe mantener limpia la tapa y el prisma, evitar ralladuras en el prisma, evitar golpes y limpiarlo solo con un paño húmedo. Como ejemplos de algunos de los valores que pueden determinarse a partir de las mediciones realizadas por medio de un refractómetro son: cantidad de alcohol que tiene una bebida, para lo cual existe una escala concreta, alcohol probable o potencial (% V/V), que se aplica al vino, mosto y otras bebidas. En el caso del vino, el Reglamento (CEE) nº 2676/90 de la Comisión Europea determina los métodos de análisis comunitarios aplicables en el sector del vino y establece el método de referencia para determinar el grado alcohólico del destilado por refractometría. Otro ejemplo es la medida del contenido de azúcar que correlaciona con la cantidad de alcohol, para lo cual también existe una escala y son los grados Brix (ºBx), que miden la concentración total de sacarosa disuelta en un líquido. Otra escala que puede utilizarse para la medición del azúcar es la escala de azúcar invertido (% w/w). Por otra parte, la escala Baumé es otra de las utilizadas para medir la cantidad de azúcares de un mosto en función de su densidad. Un grado Baumé equivale aproximadamente a 18g/l de azúcares reductores, que correlaciona con el alcohol probable en una bebida.

Tema 8. Principios básicos de la espectroscopía visible UV: equipos, operaciones de calibración y verificación.

Aplicaciones La espectrofotometría UV-visible es una técnica analítica que permite determinar la concentración de un compuesto en solución. Se basa en que las moléculas absorben las radiaciones electromagnéticas y a su vez que la cantidad de luz absorbida depende de forma lineal de la concentración. Para hacer este tipo de medidas se emplea un espectrofotómetro, en el cual se puede seleccionar la longitud de onda de la luz que pasa por una solución y medir la cantidad de luz absorbida por la misma. Con este método se pueden identificar y cuantificar biomoléculas en solución y en muestras biológicas. El fundamento de la espectroscopía se basa en la absorción por parte del analito de radiación electromagnética de la región ultravioleta y visible del espectro. La radiación UV corresponded a longitudes de onda desde 10 a 380 nm. En la espectroscopía UV se hace uso solo de la región llamada ultravioleta próximo, de 180 a 380 nm, ya que la radiación UV lejano, de 10 a 180 nm es absorbida por el oxígeno del aire, siendo necesario llevar a cabo las medidas en ausencia de este gas, lo cual es bastante complejo. Por otro lado, la región visible del espectro se extiende desde los 380 a 780 nm. La energía asociada la radiación UV-visible es de magnitud suficiente como para ser absorbida en transiciones entre niveles energéticos electrónicos. La energía absorbida se disipa después en forma de calor. El proceso que tiene lugar puede representarse mediante la siguiente ecuación: A + hv A*+ calor. Donde A y A* representan respectivamente una especie química en estado fundamenta y excitado. El producto hv, donde h es la constante de Planck y v la frecuencia de la reacción electromagnética incidente, que es una forma de representar la energía correspondiente a dicha radiación. Cuando la radiación electromagnética incide sobre la materia, está absorbe aquellas frecuencias que proporcionan la energía exacta que corresponde a una transición desde el estado fundamental a uno o más de los posibles estados excitados. Un espectro de absorción representa la distribución de la energía absorbida por una especie química en función de la frecuencia o longitud de onda de la radiación involucrada en el proceso. En el caso de especies poliatómicas cada estado electrónico engloba estados vibracionales, y estos a su vez rotacionales, los espectros están formados por bandas anchas en las que están comprendidas todas las transiciones a estados energéticos vibracionales y rotacionales dentro de un estado electrónico excitado determinado. Las diferencias energéticas entre el estado fundamental y excitados son únicas para cada especie por lo que el análisis de las frecuencias absorbidas aporta información sobre la identidad de los constituyentes de una muestra. Por otro lado, la cantidad de energía transferida desde una determinada radiación monocromática a una especie química concreta depende de la concentración de esta especie en la muestra analizada. Esta relación proporciona un medio para cuantificar presencia de un determinado analito. La medida de la intensidad o potencia de la radiación que ha sido absorbida se realiza indirectamente a partir de la intensidad o potencia de la radiación incidente I0 y de la transmitida I1 a través de la muestra. Para ello es necesario la definición de dos términos: la transmitancia y absorbancia. La transmitancia se define como la relación entre la intensidad transmitida y la incidente, siendo habitual expresarla en porcentaje: T (%) = I1/I0 x 100. La relación entre %T y la concentración no es lineal, pero asume una relación logarítmica inversa. La absorbancia es un concepto más relacionado con la muestra, indica la cantidad de luz absorbida por la misma, y se define como: A = log 1/T = 2-log T (%). Cuando la intensidad incidente y transmitida son iguales (Io = It), la transmitancia es del 100% e indica que la muestra no absorbe a una determinada longitud de onda, y entonces A vale log 1 = 0. A medida que la energía se transfiere desde la radiación electromagnética a la materia se produce una disminución de la transmitancia y un aumento de la absorbancia. La ley de Lambert-Beer expresa la relación entre absorbancia de luz monocromática (de longitud de onda fija) y concentración de un cromóforo en solución: A = log I/Io = ε·c·l , donde c es la concentración de la especie absorbente o cromóforo, l es la longitud atravesada por la radiación electromagnética a través del medio absorbente y ε es la absorbancia específica o absortividad de la especie que absorbe y depende de la naturaleza del cromóforo y las condiciones experimentales. La absorbancia de una solución es por tanto directamente proporcional a su concentración, a mayor número de moléculas mayor interacción de la luz con ellas. También depende de la distancia que recorre la luz por la solución, a igual concentración, cuanto mayor distancia recorre la luz por la muestra más moléculas se encontrará; y, por último, depende de ε, la constante de proporcionalidad, denominada coeficiente de extinción, que es específica de cada cromóforo. Como A es adimensional, las dimensiones de ε dependen de las de c y l. La magnitud l se expresa siempre en cm mientras que la magnitud c se hace, siempre que sea posible, en M, con lo que las dimensiones de ε resultan ser M-1·cm-1. Este coeficiente así expresado, en términos de unidades de concentración molar se denomina coeficiente de extinción molar (εM). Cuando, por desconocerse el peso molecular del soluto, la concentración de la disolución se expresa en otras unidades distintas de M, por ejemplo, g·L-1, las dimensiones de ε resultan ser distintas, por ejemplo, g-1·L·cm-1, y al coeficiente así expresado se denomina coeficiente de extinción específico (εs). La ley de Lambert- Beer se cumple para soluciones diluidas; para valores de c altos, ε varía con la concentración, debido a fenómenos de dispersión de la luz, agregación de moléculas, cambios del medio, etc. Cuando en la muestra hay varias especies que absorben la misma frecuencia de radiación, la absorbancia que se obtiene es la suma de las correspondientes a cada una de las especies, es por ello importante que no haya especies interferentes. La medición de absorbancia de la luz por las moléculas se realiza en unos aparatos llamados espectrofotómetros. Aunque pueden variar en diseño, en general, todos los espectrofotómetros constan de: una fuente de energía radiante: (lámpara de deuterio y tungsteno), un monocromador para la selección de radiaciones de una determinada longitud de onda (filtros, prismas, redes de difracción), un compartimento donde se aloja un recipiente transparente (cubetas o tubos) que contenga la muestra, pueden ser de vidrio, cuarzo o plástico transparente. Para medir en UV se deben usar las de cuarzo o sílice fundido, porque el vidrio no transmite la radiación UV, un detector de luz y un amplificador convertidor de las señales luminosas en señales eléctricas y un registrador o sistema de lectura de datos. El monocromador permite separar el espectro de iluminación y proporcionar, con ello, un haz de energía a una longitud de onda concreta. De esta manera, es posible realizar tareas que requieran una separación precisa de longitudes de onda diferentes. La calibración en longitud de onda es la que se realiza a esta parte del equipo, especialmente cuando la longitud de onda es crítica o afecta a las medidas que se realizan. Este tipo de calibración comprueba la diferencia entre la longitud de onda que mide el equipo y la longitud de onda del patrón de referencia empleado. Es posible calibrar diferentes puntos de longitud de onda en todo el rango del equipo, desde los 200nm hasta los 2500nm. Por otra parte, el detector se encarga de transformar la señal que recibe (fotones) y convertirla en señal eléctrica, de tal manera que, en función de la intensidad de ésta, pueda quedar registrada por un sistema que proporciona los valores numéricos de transmitancia y absorbancia. Conocer con exactitud los valores de absorbancia y transmitancia a cada longitud de onda es también un aspecto crítico. La calibración del detector, o escala de absorbancia y transmitancia, permite conocer la desviación del equipo en estos valores. La calibración en absorbancia se realiza a todas las longitudes de onda necesarias. Para cada longitud de onda se realizan medidas para diferentes valores de absorbancia. Después, se evalúa la diferencia entre el valor medido por el equipo y el valor certificado de los patrones empleados. El mantenimiento preventivo del espectrofotómetro debe ajustarse a lo que establezca el fabricante, generalmente se suele limpiar de forma externa el equipo con una tela fina húmeda con agua destilada o desionizada, se debe también inspeccionar y limpiar el cable de alimentación eléctrica, revisar el fusible de protección y verificar que la lámpara está en buen estado. Con respecto a las cubetas, es importante también limpiarlas de forma interne y externa con agua destilada o desionizada, evitando limpiar las caras de la celda entre las medidas del blanco y de la muestra. La metodología a seguir para realizar este ensayo es, en primer lugar, seleccionar la fuente de luz y longitud de onda a la que se va a realizar la medida. Hay espectrofotómetros de un solo haz (con una sola celdilla para alojar la cubeta con la muestra) y de doble haz (con dos celdillas para dos cubetas). Se mide primero la absorbancia del disolvente (conocido como blanco) y al que se le asigna el valor de cero mediante el ajuste del mando, de forma que la intensidad incidente y transmitida sean iguales (Io = It), y por tanto la absorbancia es cero. A continuación, se pone en la celdilla la cubeta con la muestra y se lee la absorbancia de ésta. El espectro de absorción es una representación gráfica que indica cantidad de luz absorbida (ε) a diferentes valores de longitud de onda. A partir de una solución diluida de un compuesto, cuya absorbancia máxima entra dentro del rango de medida del espectrofotómetro, se verá el valor de absorbancia a diferentes longitudes de onda frente a un blanco que contenga el disolvente de la solución de la muestra a caracterizar. A partir del espectro de absorción se obtendrá el valor de longitud de onda al que el compuesto presenta la mayor absorbancia y esta se utilizará a la hora de hacer determinaciones cualitativas y cuantitativas del compuesto. El espectro de absorción de un cromóforo depende, fundamentalmente, de la estructura química de la molécula. No obstante, hay una gran cantidad de factores que originan variaciones en los valores de longitud de onda máxima y εM, entre los que se incluye el pH, la polaridad del solvente o moléculas vecinas y la orientación de los cromóforos vecinos; y cada uno afecta de forma particular. Para obtener una curva de calibrado de un compuesto se preparan soluciones de diferentes concentraciones del mismo, determinándose para cada una de ellas el valor de absorbancia a longitud de onda máxima. Estos valores de absorbancia se representan en el eje de abscisas (eje de x) y los de concentración en el eje de ordenadas (eje de y). Se observará que, a bajas concentraciones, el aumento de concentración se corresponde con un incremento lineal en la absorbancia (zona de cumplimiento de la ley de Lambert-Beer). A concentraciones altas la linealidad se pierde y se observa que la línea se aplana, por lo que las medidas son poco fiables. La representación de Lambert-Beer, permitirá calcular el valor del coeficiente de extinción molar, que corresponde a la pendiente de la recta. Esta técnica se aplica principalmente a muestras en disolución, aunque también es posible en muestras gaseosas, usando para ello celdas cilíndricas e incluso en muestras sólidas mediante la reflectancia difusa. La selectividad de esta técnica es alta, basándose en la elección de una longitud de onda en la que solo absorba el analito, de forma que no interfieran otros componentes de la muestra. Tiene también alta sensibilidad, que depende de la capacidad de absorción del analito. Muchas especies presentan alta absorbancia específica con lo que pueden ser determinadas directamente. Cuando el analito no absorba a un nivel suficientemente alto se puede aumentar la sensibilidad sometiéndolo a una reacción concreta que origine un producto de alta absorbancia específica. Esto es útil en el caso de iones metálicos escasamente absorbentes que puedan originar complejos fuertemente coloreados por la adicción de un ligando adecuado, Por ejemplo, es el caso que se usa para la determinación de Cu+2 con NH3. Los límites de detección que presenta esta técnica son bajos, entre 10-4 y 10*5 M. Aplicaciones La espectroscopía visible UV presenta múltiples aplicaciones en diferentes ámbitos: -Análisis cuantitativo y cualitativo de compuestos químicos: cuantificación precisa de compuestos químicos en soluciones líquidas y la identificación de compuestos desconocidos. -Control de calidad en la industria farmacéutica y química: medir pureza y concentración de productos químicos y farmacéuticos, así como para verificar la consistencia y calidad de los lotes de producción. -Investigación bioquímica: ayuda en el estudio de reacciones bioquímicas, interacciones de biomoléculas y cambios en la conformación de proteínas. -Caracterización de materiales: determinación de propiedades ópticas de materiales -Investigación ambiental: análisis de aguas, suelos y aire para la detección de contaminantes y sustancias tóxicas. Con respecto al sector de la alimentación, es común el uso de estos equipos para el control de la calidad de los alimentos, a través del contenido en los mismos de hidroxiprolina, almidón o nitritos en carne y productos cárnicos; lactosa en alimentos y bebidas alcohólicas, entre otros. Además, se hace uso de esta técnica para controlar la trimetilamina, la histamina, el ácido domótico o el fósforo en productos de pesca y acuicultura. Asimismo, para mediciones en jugos de fruta que permiten controlar el ácido cítrico, el fósforo, el ácido L-málico, el ácido D- isocítrico, la glucosa, la fructosa y la sacarosa. También se utiliza para determinar la acidez volátil, la cantidad de dióxido de azufre, ácido acético, ácido L-málico, ácido tartárico, ácido D-glucónico o la intensidad de color y tonalidad en el vino. Además, las empresas de tratamiento de aguas utilizan esta técnica, entre otras cosas, para la detección de detergentes aniónicos, cianuros, amonio, nitritos, cromo o cloro residual en aguas de consumo y aguas envasadas. Por otra parte, el uso de esta técnica para determinar, por ejemplo, la demanda bioquímica de oxígeno (DQO), la cantidad de formaldehído, tensioactivos aniónicos, fósforo, fosfatos, nitritos, nitratos, nitrógeno, amonio, cromo, fenoles o sulfuros, en aguas continentales. Su uso es común también para medir la cantidad de algunos de estos compuestos y elementos químicos en aguas residuales y en aguas marinas; o bien para determinar la cantidad de nitrógeno Kjeldahl en suelos, sedimentos y lodos. Los espectros de absorción UV y visible son menos útiles con fines cualitativos que los espectros de otras regiones debido a que las bandas son mas anchas y por tanto poco útiles en la identificación de moléculas. La identificación de una sustancia requiere la comparación empírica de los detalles del espectro de la sustancia en cuestión con los del compuesto puro. Hay que considerar la existencia de máximos y mínimos, la relación de sus alturas, longitudes de onda a la que aparecen. Otra manera de identificación consiste en comparar los espectros de las dos sustancias en varios disolventes, si experimentan las mismas variaciones al cambiar de disolvente, es una prueba de identidad. También puede usarse los cambios de pH como prueba de identificación. Con frecuencia se preparan mezclas a partes iguales de la sustancia conocida y desconocida y si el espectro que se obtiene coincide con el de las sustancias sin mezclas, aporta otra prueba de identidad. Para el análisis cuantitativo usan esta técnica, la base es la ley de Lamber-Beer, que indica que la absorbancia de una sustancia es directamente proporcional a su concentración. Para realizar los análisis cuantitativos deben seguirse una serie de pasos genéricos: 1. Selección de la longitud de onda. En principio siempre se trabaja en la longitud de onda en la que la absorbancia de la sustancia analizada es máxima, de esta manera se consigue máxima sensibilidad. A veces en esta longitud de onda puede hacer interferencias de otras sustancias absorbentes presentes en la muestra, en cuyos casos debe elegirse otra longitud de onda. 2. Determinación experimental de la relación absorbancia/concentración. Para ello se suele usar varias diluciones patrón, preparadas en las mismas condiciones que la muestra y se mide su absorbancia obteniendo así una recta de calibrado. Si no fuera posible reproducir en los partos las mismas condiciones de las muestras, se recurre al método de las adiciones estándar. 3. Medición de la absorbancia de la muestra y mediante la recta de calibrado se mide la concentración de la especie absorbente. La espectroscopía UV visible sirve también para la determinación del punto final en valoración volumétricas, para lo cual es necesario que uno o mas reactivos o productos implicados en la reacción absorban radiación o que la valoración se haga en presencia de un indicador que cambie su capacidad de absorber en las inmediaciones del punto de equivalencia de la reacción.

Tema 9. Principios básicos de la espectroscopía de absorción atómica. Equipos, operaciones de calibración y verificación.

Aplicaciones. La espectroscopía de absorción atómica (EAA) consiste en la determinación de un analito previamente atomizado mediante la medida de la absorción de radicación de una longitud de onda determinada. Esta radiación es absorbida previamente por átomos que tengan niveles energéticos cuya diferencia en energía corresponda en valor a la energía de los fotones incidentes. La cantidad de fotones absorbidos está determinada por la ley de Lambert-Beer, la cual relaciona la absorción con la concentración de la especie absorbente. Los átomos absorben aquellas radiaciones cuyas energías coinciden exactamente con las de sus transiciones electrónicas. Las transiciones que más se van a producir y a detectar son las correspondientes a la excitación del átomo desde el estado fundamental a uno de sus estados excitados. En un espectro estas transiciones dan lugar a las llamadas líneas de resonancia. Esta técnica por tanto se basa en la absorción, emisión y fluorescencia de radiación electromagnética por partículas atómicas. Se usan radiaciones del espectro ultravioleta, visible y rayos x. La emisión o absorción de rayos x comporta la excitación de los electrones más cercanos al núcleo y por tanto que no participan en enlaces. Como consecuencia, los espectros atómicos de rayos x se producen con independencia del estado de combinación del elemento en la muestra. Sin embargo, la obtención de un espectro en la región UV o visible exige la conversión del analito a partículas monoatómicas en fase gaseosa, es decir, átomos o iones, ya que en estas regiones la absorción o emisión requiere la excitación de electrones mas externos. El espectro puro solo se consigue separando previamente el analito de todo lo demás mediante atomización de la muestra. Esta técnica es el procedimiento por el cual los componentes de una molécula se convierten en átomos gaseosos libres. El espectro de absorción o emisión de un elemento atomizado consiste en unas pocas líneas discretas, las líneas aparecen a una serie de longitudes de onda características de cada elemento. La intensidad de la línea está directamente relacionada con la concentración del elemento en disolución. Con el estudio del espectro obtenido se puede identificar el elemento mediante la posición de las líneas y cuantificarlo a través de la intensidad de las líneas. Los componentes del instrumento que se usa para la realización de esta técnica son: fuentes de radiación, compartimento para las muestras, monocromador, detector, amplificador y sistema de procesamiento de datos. -Fuente de radiación, se usan las lámparas de cátodo hueco y lampara de descarga sin electrodos. En el primer caso, consiste en un tubo de vidrio con argón o helio a baja presión y dos electrodos. El ánodo suele ser de wolframio y el cátodo esta construido por el metal que se va a determinar, Cuando se aplica una diferencia de potencial entre los dos electrodos ocurre la ionización del gas, la corriente circula y los iones emigran hacia los electrodos. Si el potencial es grande, los cationes gaseosos adquieren suficiente energía cinética ahora arrancar átomos metálicos de la superficie del cátodo. Alguno de estos átomos metálicos es excitado al chocar con los iones gaseoso y al retornar a su estado fundamental emiten radiación que es característica del metal en cuestión. Se usa una lámpara para cada elemento, pero actualmente existen lámparas multielementales que tienen el cátodo formado por varios elementos, aunque la intensidad y pureza que ofrecen estas lámparas es inferior a las individuales. Respecto a las lámparas de descarga sin electrodos, están constituidas por un tubo de cuarzo herméticamente cerrado con un gas inerte en su interior, como es el argón a baje presión y una pequeña cantidad del metal para el cual se va a usar la lámpara. Para la activación se usa un campo intenso de radiofrecuencias o radiación microondas, de esta manera se produce la ionización del gas formándose iones que son acelerados hasta que adquieren la suficiente energía para excitar átomos del metal. Al volver a su estado fundamental, emiten radiación. Estas lámparas son mas duraderas y ofrecen mayor intensidad de emisión, aunque solo se fabrican para elementos fácilmente volatilizables. -Monocromador: su función es seleccionar la línea de absorción, separándola de las otras líneas de emisión emitidas por el cátodo hueco. Los instrumentos de absorción atómica deben ser capaces de proporcionar una anchura de banda lo suficientemente estrecha como para permitir la separación de la línea escogida para la medición de las otras líneas capaces de interferir o disminuir la sensibilidad del análisis. -Detector, miden la intensidad de la radiación antes y después de la absorción por la muestra, a partir de los valores obtenidos se calcula la radiación absorbida. El detector universal es el tubo fotomultiplicador -Sistema de atomización. La más usada en llama. El sistema se compone de una cámara de nebulización o nebulizador y un quemador. La atomización conlleva las siguientes etapas: La muestra en disolución es aspirada a través de un tubo capilar y conducida al nebulizador. La aspiración se realiza mediante un chorro a alta presión formado por uno o varios gases de combustión. En el nebulizador la muestra impacta sobre un cuerpo solido llamado perla o esfera de impacto, convirtiéndose así e una fina capad e niebla formada por pequeñas gotitas de disolución. El nebulizador tiene un conducto adicional por donde llegan el resto de los gases de combustión que sean precisos, mezclándose así con la niebla formada. Otra línea que se conecta con el nebulizador es la del tubo de drenaje, cuyo fin es desechar las gotas que por su mayor tamaño condensan en el nebulizador. Las pequeñas gotas formadas son arrastradas por el flujo de gases de combustión y pasan al quemador o mechero, donde ocurre la de solvatación, el disolvente es vaporizado produciéndose un aerosol molecular sólido, vaporización, las moléculas pasan al estado líquido y luego al gaseoso y disociación, las moléculas se disocian formando un gas atómico. Además, ocurre también una ionización, que ocurre cuando la temperatura es suficientemente alta o el elemento tiene bajo potencial de ionización, parte de los átomos del elemento pueden perder uno o mas de sus electrones, ionizándose parcialmente. Una llama es el resultado de una reacción exotérmica entre un gas combustible y un agente oxidante gaseoso. En la llama se pueden distinguir tres zonas: una zona interna o de combustión primaria, la más próxima al mechero. La combustión en este punto es incompleta, suele ser de color azul y de temperatura baja, otra zona intermedia o región interconal, es la parte mas caliente de la llama y en ella la combustión es completa. Es la que más se usa en espectroscopia analítica. Por ultimo la zona externa o de combustión secundaria, es la parte que se enfría por el aire circulante. Cada elemento tiene un perfil de absorción distinta, en función de las reacciones secundarias que puedan producirse según se encuentre en una zona u otra de la llama. Para el análisis de cada elemento se debe usar la zona de la llama en la que la absorbancia sea máxima. El ajuste de la posición de la llama respecto a la rendija de entrada del monocromador es un punto muy crítico. La llama deber ser transparente, es decir, no debe absorber radiación proveniente de la lampara, y además debe tener una alta eficiencia en la producción de átomos libre y evitar que ocurran reacciones del elemento que se va a determinar con productos de la combustión. El parámetro usado para caracterizar la llama es la temperatura de la región intermedia., que viene dada por la mezcla de gases que se usen. La elección de la mezcla de gases depende de la temperatura requerida para la disociación de los compuestos y de características químicas del elemento que se va a determinar. La mas habitual es la formada por aire/acetileno ya que ofrece una temperatura y n medio adecuado para la atomización de muchos elementos. La llama de N2O /acetileno permite la determinación de aquello elementos que no se pueden determinar con la llama anterior, posee una baja velocidad de combustión, aunque se ionizan muchos elementos y tiene una emisión fuerte. El sistema de nebulizador-quemador se llama premezcla o flujo laminar. Según el tipo de llama que se use, se emplean diferentes cabezales, Se construyen de titanio para que tengan resistencia al calor y a la corrosión. La altura de la llama sobre la cabeza del quemador se puede controlar mediante un ajuste del flujo de mezcla de combustible. El haz de luz pasará a través de la llama por el eje más largo del quemador y llegará al detector. Los atomizadores electrotérmicos conocidos como horno de grafito están formados por un tubo cilíndrico de grafito, sujeto por dos electrodos de grafito. Este tubo se encuentra en un sistema que sella los extremos del tubo con unas ventanas transparente. El conjunto permite el paso de un chorro continuo de gas inerte que protege al grafito de la oxidación y elimina los productos gaseosos que aparecen durante la atomización. La atomización se realiza en tres fases, una primera fase donde la muestra se seca usando una corriente que eleva la temperatura del tubo de grafito hasta 110ºC quedando la muestra en forma de residuo sólido. Una segunda fase donde se realiza la calcinación, así todo el material orgánico se convierte en CO2 y H2O, y una tercer y última fase donde la muestra se atomiza debido a un aumento de la temperatura de 2000 a 3000ºC al incrementarse la corriente. Estas tres fases transcurren en apenas unos segundos, y en estas condiciones se mide la absorción de plas partículas atómicas en la zona situada por encima de la superficie calentada, dando como resultado un pico de absorbancia transitorio. Las ventajas de estos atomizadores es que tiene una alta eficiencia en generar vapor atómico, se puede emplear pequeños volúmenes de muestra y permite un análisis directo de muestras solidas. Aparte de en llama, existen otros sistemas de atomización: -Introducción de muestras por generación de hidruros: es el método para analizar muestras con arsénico, antimonio, estaño, selenio, bismuto y plomo. La técnica consiste en generar hidruros volátiles añadiendo a una disolución acuosa acidificada de la muestra a una disolución de borohidruro de sodio en un frasco de vidrio. El hidruro generado es arrastrado a la cámara de atomización por un gas inerte. -Atomización por descarga luminiscente: permite introducir y atomizar de forma simultánea la muestra. La descarga luminiscente ocurre en una atmosfera de argón a baja presión entre un par de electrodos, este potencial causa la descomposición del argón en iones positivos y electrones. El campo eléctrico acelera los iones argón hacia la superficie del cátodo que contiene la muestra. Se produce la expulsión de átomos neutros de la muestra. Los átomos proyectados son succionados en el eje del dispositivo donde absorben la radiación procedente de la fuente del espectrofotómetro. -Atomización en vapor frío: solo se aplica a la determinación de mercurio debido a que es el único elemento metálico que tiene una presión de vapor apreciable a temperatura ambiente. El mercurio se transforma a ion Hg2+ por tratamiento de la muestra en una mezcla oxidante, seguido se reduce a ion Hg con SnCl2. De esta manera el mercurio es conducido hacia la trayectoria óptica del equipo burbujeando con un gas inerte. Se mide la absorbancia 253,7 nm sin necesidad de llama ni atomización electrotérmica. En esta técnica se pueden encontrar algunas interferencias: -Espectrales: se producen cuando la línea de absorción de un analito se superpone o aparece muy próxima a la banda de absorción de un interferente de modo que su resolución es imposible. Existen a su vez: -Espectrales en línea, cuando hay superposición de dos líneas atómicas. Se puede eliminar seleccionando la segunda línea de resonancia del elemento de interés. -Espectrales de banda, debido a la absorción de la radiación por moléculas o radicales, puede corregirse mediante la lámpara de espectro continuo -Por dispersión por partículas. Cuando las partículas de solidos causan una deflexión de parte de la radiación de la fuente fuera del eje del sistema monocromador-detector. -Químicas: mas comunes que las espectrales. Los efectos pueden minimizarse escogiendo condiciones adecuadas de trabajo. Son aquellas en las que el analito no se atomiza totalmente, queda formando parte de algún compuesto químico con la consiguiente disminución de la población de átomos libres. Pueden producirse por disociación incompleta de las moléculas que contienen el elemento a analizar o por formación de compuesto poco volátiles con el mismo. Se pueden minimizar empleando temperaturas mayores, añadiendo un agente liberador que forme con el elemento interferente un compuesto estable y preparando disoluciones patrón de forma que su composición sea semejante a la posible disolución del analito. -Por ionización: cuando la temperatura de atomización es muy alta o el elemento pierde uno o mas de sus electrones ocurre la ionización. Este proceso no es deseable puesto a que las características electroscópicas de un átomo y sus iones son distintos. Esta interferencia depende de la temperatura como del potencial de ionización del elemento, su incidencia es mayor según aumenten ambas. Se pueden eliminar agregando a todas alas disoluciones paro y a la muestra un supresor de ionización, que son elementos fácilmente ionizables. -Físicas: se produce en la atomización por llama y se relaciona con la efectividad de que la disolución sea transportada hacia la llama. Son causadas por diferencias en las propiedades físicas de las disoluciones. La forma de compensar estas interferencias es preparar disoluciones patrón con los mismos componentes que la matriz de la muestra. Para llevar a cabo el análisis por EAA primero se debe tratar la muestra y seleccionar las condiciones del trabajo del aparato y después proceder a su calibrado. Respecto al tratamiento de la muestra, se exige que esté en disolución. Las muestras liquidas no llevan apenas pretratamiento, pueden analizarse directamente o diluirse o extraerse. En las muestras gaseosas se extrae el analito por borboteo de la muestra. Para el análisis se debe fijar las condiciones del elemento que se va a analizar y que vienen especificadas por el fabricante del aparato. En una EAA por llama hay que seleccionar el tipo de llama que va en función del oxidante y combustible que se use, la región de observación de la llama y se selección regulando la altura del quemador, la velocidad de aspiración de la disolución, el paso de la banda espectral del monocromador empleado para la selección de la longitud de onda, la intensidad de corriente de la lámpara de cátodo hueco y os parámetros del sistema de detección y lectura La EAA tiene la ventaja de ser una técnica muy específica, con amplia empleabilidad y gran sensibilidad. Como inconvenientes destacan que solo puede analizar elementos de uno en uno, que no se pude usar para análisis cualitativo y que existen diferentes tipos de interferencias. La EAA permite el análisis de casi todos los elementos de la tabla periódica, tanto en muestras líquidas y sólidas Los campos de aplicación de la EAA son varios: -En industria medioambiental, se usa por ejemplo para determinar contaminantes en aguas y suelos -En industria alimentaria, para la realización de controles de calidad -En industria farmacéutica para analizar presencia de elementos traza en medicamentos y asegurar que se cumplen los requisitos de pureza y calidad de estos.

Tema 10. Fundamentos de electroquímica. Potenciometría, conductimetría, electrodos de referencia y selectivos, pH, equipos y operaciones de calibración y verificación.

Aplicaciones Las técnicas electroquímicas se basan en las propiedades eléctricas que tienen los analitos cuando están en disolución. En estas técnicas se hace formar parte a la muestra de un circuito eléctrico y se mide la variación de algunos de los parámetros básicos como el potencial, resistencia, intensidad de corriente, entre otras. De esta forma, según el parámetro medido se distinguen varias técnicas electroquímicas, como son entre otras la potenciometría que mide el potencial eléctrico o la conductimetría que mide la conductividad. La potenciometría consiste en una media del potencial, el cual está relacionado con la concentración de la especie que se quiere determinar. Se basa en la aplicación de la ley de Nernst, según la cual el potencial de un electrodo varía con la concentración de una o más de las especies presentes en la disolución con la que está en contacto, por lo que a partir de la medida del potencial se puede obtener la concentración de una sustancia. La señal analítica que se obtiene en esta técnica es una diferencia de potencial entre dos electrodos, un de los cuales debe ser sensible a la concentración del analito, llamado electro indicador y otro debe presentar un potencial constante, independiente de la composición de la disolución en la que se encuentre, conocido como electrodo de referencia. Las muestras que serán analizadas por potenciometría deben estar en disolución a concentraciones de analito mayores de 10-6 M, además la sustancia debe ser electroactiva dentro del rango de trabajo. La ventaja de este método es que los análisis son rápidos y reproducibles, pero presenta el inconveniente de que hay muchos iones para los cuales no existe electrodo selectivo. El equipo necesario para la realización de la potenciometría es: un electrodo de referencia, un electrodo indicador y un dispositivo para medir el potencial que recibe el nombre de potenciómetro. Respecto al electrodo de referencia, proporciona la misma medida independientemente de la naturaleza de la disolución y del sentido en que tenga la reacción. Genera un potencial constante y reproducible. Su función es completar el circuito de medida permitiendo el contacto eléctrico entre el electrodo indicador, la disolución y el dispositivo de lectura. El electrodo de referencia debe cumplir varios requisitos que son: debe tener un potencial que se conozca con exactitud, que sea constante e independiente de la composición de la disolución, que sea resistente, reversible, reproducible y fácil de usar. Están formados por un conductor metálico en contacto con una sal poco soluble del metal del que están formados, y una disolución de composición constante y alta concentración llamada electrolito de referencia. Este electrolito debe estar en contacto con la disolución que se vaya a analizar. Este contacto se realiza mediante un diafragma, que es una pared porosa que permite la unión liquida, produciéndose un pequeño y constante flujo del electrolito de referencia a la disolución. La movilidad distinta de los aniones y cationes del electrolito produce una diferencia de potencia que recibe el nombre de potencial de unión líquida. Este potencial depende del tipo, concentración y temperatura del electrolito de referencia. La contribución de este potencial debe ser constante y con un valor lo más pequeño posible. El nivel del electrolito interno debe mantenerse por encima del nivel de la disolución de la muestra para evitar la contaminación de la disolución del electrodo. El diafragma es el elemento más importante del electrodo e influye en el tiempo de vida del mismo, así como del tipo a usar depende de la aplicación, siendo el más común el que está formado por una placa cerámica porosa quicamente inerte. Los electrodos de referencia más usuales son: -Electrodo normal de hidrógeno, se obtiene haciendo burbujear el gas hidrógeno a 1 atm de presión dentro de una solución de HCl 1M en la que está sumergido un alambre o lámina de platino platinado. En este electrodo se da la siguiente reacción: 2H+ + 2e- H2. Puede darse la reacción contraria si actúa como ánodo. El hecho de que actúe como ánodo o cátodo depende de la tendencia a la reducción u oxidación que tenga la reacción de la semicelda con la que se enfrente. Al electrodo normal de hidrógeno se le asigna un potencial de 0,00 voltios, los potenciales de los demás electrodos se fijan con respecto a este. En la práctica no se utiliza porque su preparación es difícil y su manipulación conlleva riesgos debido a que el hidrogeno es un gas muy inflamable y explosivo. -Electrodo de calomel o calomelanos: compuesto por un hilo de platino en contacto con una mezcla de mercurio, dicloruro de dimercurio y cloruro potásico. El sistema se encuentra dentro de un tubo de vidrio dotado de un diafragma. La semirreacción del electrodo es la siguiente: Hg2Cl2 + 2e- 2Hg + 2Cl-. El potencial de este electrodo varía con la concentración de cloruro de potasio. La desventaja de este tipo es que al contener mercurio es peligroso y nocivo para el medio ambiente. -Electrodo de plata-cloruro de plata: consiste en un conductor de plata sumergido en una disolución de cloruro de potasio que a su vez está saturada con cloruro de lata. Todo va dentro de un tubo de vidrio con un diafragma. La semirreacción que ocurres es: AgCl + e- Ag + Cl-. Una ventaja de este tipo que es que puede usarse a altas temperaturas, incluso por encima de 60ºC El electrodo indicador genera un potencial que varia de manera conocida con la actividad del analito de forma rápida y reproducible. Hay dos tipos de electrodos indicadores: -Metálicos, pueden estar formador por hilos, espiras, placas metálicas, o piezas cilíndricas macizas, Presentan gran superficie de contacto con la disolución asegurando así la rapidez en alcanzar el equilibrio. Dentro de estos se distinguen varios: -De primera especie para cationes, constituido por un conductor de un metal puro que se encuentra en equilibrio directo con su catión en disolución. Se usan para la cuantificación del catión proveniente del metal con que esta construido el electrodo. -De segunda especie para aniones: son sensibles a la concentración de un ion que ni participa directamente en le proceso de transferencia de electrones -De tercera especie: el potencial depende de dos o mas procesos químicos acoplados, que, en condiciones controladas, varía con la concentración de una especie química determinada. -Para sistemas redox: los electrodos responden al potencial redox de una disolución formada por uno o más pares redox. Estos electrodos no intervienen en la reacción, desarrollan un potencial que depende solo del sistema oxidorreducción de la disolución en la que se sumergen. Suelen usarse en las medidas del punto final de volumetrías redox y para estudiar el carácter oxidante o reductor de aguas residuales. -De membrana o selectivos de iones, que consisten en un dispositivo con una membrana sensible a un determinado ion. Si se pone esta membrana en contacto con disoluciones de diferente concentración, se genera una diferencia de potencial a ambos lados de esta. Las disoluciones son, por una parte, el electrolito interno con concentración conocida y por otra parte, la disolución de la muestra que contiene los iones que se quieren determinar. Para completar el circuito se usa otro electro de referencia externo y se mide la diferencia de potencial entre ellos. Los electrodos selectivos de iones difieren en composición y diseño de la membrana, según esto, se distinguen varios tipos: -De membrana cristalina, pueden ser de cristal formados por un solo compuesto iónico (electrodo de fluoruro) o policristalinos formados por una mezcla de compuestos iónicos (electrodo de sales de plata). Es una membran con sitios catiónicos que responde de forma selectiva a los aniones. -De membrana no cristalina, pueden ser de vidrio o de membrana líquida -Sensibles a moléculas, pueden ser electrodos sensores de gases, que son celdas electroquímicas formadas por un electrodo indicador y otro de referencia sumergidos en una disolución electrolítica interna que se pone en contacto con la disolución del analito mediante una membrana semipermeable de gases o electrodos sensores a enzimas, donde la muestra se pone en contacto con una enzima inmóvil, la cual reacción con el analito y da lugar a algún producto, siendo la concentración de este producto proporcional a la concentración del analito. -De vidrio, son electrodos que se usan para determinar pH y concentración de algunas especies iónicas con solo una carga. La composición del vidrio influye en la sensibilidad, resistencia química o mecánica del electrodo y en la escala de medida. Los electrodos de pH de vidrio suelen presentarse en una forma combinada que incluye un electrodo indicado y otro de referencia dentro de una misma carcasa, simplificándose así el trabajo. El potenciómetro es el dispositivo que mide el voltaje de la celda que forman el electrodo de referencia y el indicador. Se encarga de amplificar la señal eléctrica que producen los electrodos. Los análisis potenciométricos pueden ser de dos tipos: 1) Medida directa del potencial o potenciometría directa Consiste en medir de forma directa el potencial de una disolución. El objetivo es tener conocimiento de ese potencial o el pH de la disolución o la concentración de una especie determinada. Se compara el potencial obtenido con el potencial que desarrollan los electrodos en disoluciones patrón de concentraciones conocidas del analito. La temperatura afecta a el valor del potencial a través de la ecuación de Nerst. Para evitar este efecto, es importante que la temperatura se mantenga constante en todo el análisis. Las posibles variaciones que ocurran de la temperatura pueden corregirse mediante la compensación automática de la temperatura. Para realizar la medida de pH se debe calibrar primero el equipo con uno o más patrones, siendo uno de ellos de pH con valor 7. Para la calibración, se deben seguir las instrucciones del fabricante, pero de forma general se debe sumergir el electrodo primero en la solución tampón de 7 y luego en disoluciones tampón distintas según la región donde se vayan a realizar las mediciones. Para la medida de la concentración de una especie es necesario preparar una serie de patrones con concentración conocida de la especie en cuestión. La relación entre la señal analítica y la concentración del analito viene dada por la ecuación de Nerst, mediante una relación logarítmica. Para linealizar la relación se representa el potencial frente al logaritmo del a concentración del analito, obteniéndose una recta con pendiente negativa. Una vez que se mide el potencial de los patrones, se representan los pares de valores potencial/ logaritmo de concentración, se calcula la ecuación de la recta que mejor se ajusta y con esta se puede calcular la concentración del analito en la muestra problema a partir de la medida de potencial de la misma. Para que a respuesta del electrodo sea lineal, los patrones deben estar en concentraciones entre 0,1 M y 10-5 M. Como el potencial de un electrodo responde a la actividad de los iones y no a su concentración, para que ambas magnitudes se igualen, se añade tanto a los patrones como a las muestras un ajustador o tampón de fuerza iónica, conocido con las siglas ISA o TISAB. Un tampón ISA es una disolución de electrolitos que no interfiere con la muestra u con una fuerza iónica elevada. 2) Valoraciones potenciométricas La valoración es la determinación cuantitativa de un analito mediante su reacción con una sustancia de concentración conocida llamada agente valorante. Consiste en la medida del potencial de la disolución de la muestra problema según se va añadiendo el agente valorante desde una bureta. Tras cada acción del reactivo se deja transcurrir un tiempo necesario para que alcance el equilibrio. El punto final se detecta cuando ocurre un cambio de potencial grande tras la adicción de una pequeña cantidad de valorante. Estas valoraciones facilitan datos mas precisos que las valoraciones con indicadores químicos. Hay varios métodos para determinar el punto final de una valoración potenciométrica, se puede hacer una representación directa del potencial en función del volumen de reactivo, donde el potencial vario gradualmente en la mayor parte del intervalo de valoración, pero cuando se aproxima al punto de equivalencia, cambia de forma abrupta. El punto final corresponde por tanto a la máxima velocidad de cambio del potencial por unidad de volumen de valorante añadido y se obtiene a partir del punto de inflexión de la curva de valoración. Otro método consiste en calcular el cambio de potencial por unidad de volumen de reacción, Un gráfico de este valor en función del volumen añadido conduce a un pico máximo agudo que corresponde con el punto de inflexión de la curva norma de valoración. Otro método de mayor exactitud es usando la curda de la segunda derivada, que se obtiene representando la aceleración de la relación potencial /volumen, en función del volumen de valorante añadido. En el punto final, la segunda derivada es numéricamente igual a cero La conductimetría se basa en la medida de la conductividad eléctrica que presenta una disolución, Las disoluciones al incorporar como un elemento conductor a un circuito obedecen la ley de Ohm que indica que cuando entre dos puntos de un conductor se aplica una diferencia de potencial, se establece entre ellos una corriente eléctrica cuya intensidad es directamente proporcional a la diferencia de potencial aplicada e inversamente proporcional a la resistencia del conductor. Esta técnica mide la conductancia, es decir, la capacidad de a disolución de conducir la corriente eléctrica y es una magnitud inversa a la resistencia, se representa por la letra G y su unidad es el siemens (S), equivalente a la inversa de un ohmio: 1S= 1Ω-1. El sistema para mediar la conductividad esta formado por una sonda, celda o célula de conductividad, que se sumerge en la disolución y que está conectada a un dispositivo de lectura donde la señal de medida por la celda se transforma para ser mostrada en la pantalla como conductividad. Existen dos sondas de conductividad: -Sondas conductivas: miden conductancia de la disolución a partir de la resistencia que presenta al paso de una corriente eléctrica y la aplicación de la ley de Ohm, la corriente eléctrica debe establecerse en un cierto volumen de disolución situado entre dos electrodos enfrentados y separados por una distancia fija, delimitando el volumen de la celda y fijando el valor de la constante de celda. Los electrodos pueden estar formado por gráfico, acero inoxidable, titanio o platino., siendo este último el más común, en cuyo caso suele estar recubierto por una capa de platinado para aumentar el área superficial y minimizar fenómenos de polarización. El parámetro de una sonda de conductividad es la constante de celda que depende de la geometría de la misma, es habitual usar celdas de constante 1 cm-1 (electrodos de 1 cm2 separados por 1 cm). Estos son adecuados para medidas den amplio rango de conductividad -Sondas sin electrodos o inductivas: formadas por dos bovinas en el interior de una carcasa en forma de anillo a través de la cual fluye el líquido del que se quiere conocer la conductividad. Sobre la primera bovina se aplica un voltaje de V1 que induce una corriente en la segunda bovina, cuyo valor depende de la resistencia del liquido que rodea ambas. Las ventajas de estas sondas son que no requieren electrodos, por lo que no hay efecto de polarización, el sensor está aislado de la muestra y proporcionan medidas exactas La conductimetría se aplica amuestras liquidas, es una técnica sencilla, de respuesta rápida y económica, su limitación es la falta de selectividad, ya que la conductividad de la disolución se debe a la contribución de todas las especies iónicas presentes en ella. Las aplicaciones de esta técnica están agrupadas en dos: 1) Conductimetría directa. Se basa en la medida de la conductividad de una muestra evaluando de esta forma la cantidad global de especies iónicas en disolución. Algunas de las aplicaciones de la medida de la conductividad son: control de calidad del agua de consumo humano, control de calidad en industrias alimentarias, en tratamiento de aguas residuales, control calidad en procesos de desalinización, control y diagnóstico de funcionamiento de diversas unidades de proceso industrial, monitorización de disoluciones que contienen un tipo de electrolito dado, sobre todo es útil en cuantificación de electrolitos fuertes con OH y H gracias a la alta conductancia de estos, y en sistemas de detección en cromatografía líquida. 2) Valoraciones conductimétricas Se usan para ver el punto final de una valoración sustituyendo a los indicadores visuales. Mide la conductancia de una disolución problema a medida que se va añadiendo el agente valorante desde una bureta. Las curvas obtenidas en la valoración muestran formas distintas según la reacción involucrada, pero de manera general forman segmentos rectilíneos con pendientes distintas antes y después del punto de equivalencia. El punto final se obtiene por la intersección de la extrapolación de los segmentos obtenidos. La evolución de la conductividad a lo largo de la valoración se deberá al cambio en la concentración de compuestos que tengan cargas eléctricas, contribuyendo así a la conductividad global. A lo largo de la valoración la conductividad se ve afectada por un efecto de dilución debida a la adicción del agente valorante, para evitar o minimizar este efecto se aconsejable usar un agente valorante de concentración 10 veces mayor a la del analito. La calibración de este equipo consiste en ajustar los valores proporcionados por un conductímetro a la conductancia que corresponde a una o varias disoluciones patrón. La calibración puede realizarse de diferentes formas: -Calibración en un punto, se usa cuando se miden valores de conductividad cercanos a los del patrón que se emplea para la calibración. -Calibración en dos puntos, se usa cuando se requiere mayor precisión en un intervalo concreto. -Calibración en tres o más puntos, se usa cuando las muestras que se analizan tienen conductividades en un amplio rango. Algunas de las aplicaciones de las valoraciones conductimétricas son para la detección del punto final en valoraciones acido-base o en valoraciones de precipitación o formación de complejos. Las valoraciones conductimétricas tienen la ventaja de ser aplicables a disoluciones muy diluidas y a casos en los que la relación analito y valorante es incompleta. Es muy útil sobre todo para valoración de disoluciones turbias o muy coloreadas.

Tema 11. Fundamentos y aplicaciones de la cromatografía en capa fina, gaseosa y líquida. Equipamiento y aplicaciones.

La cromatografía es la técnica analítica que permite la separación, identificación y cuantificación de los componentes de mezclas. La separación se realiza haciendo pasar una fase llamada fase móvil por otra segunda fase, llamada fase estacionaria. La muestra se inyecta en la fase móvil y a medida que se va desplazando, los componentes de la muestra se reparten entre la fase móvil y la estacionaria. Las sustancias retenidas fuertemente por la fase estacionaria se mueven más lentamente que las que son retenidas débilmente. La velocidad con la que se mueva cada sustancia dependerá de su afinidad relativa por cada fase. El fundamento de esta técnica es la diferencia en alguna o algunas de las propiedades físicas o fisicoquímicas de los analitos a separar. Cromatografía en capa fina En análisis cualitativos para conocer la pureza de un producto o para controlar el avance de una reación se usa la cromatografía plana, donde la fase estacionaria es una superficie de diferentes materiales. Se suele distinguir entre cromatografía en papel o en capa fina según como sea esta superficie aunque el modo de operar es igual en ambos casos. En capa fina, se deposita un capa de una sólido absorbente (gel de sílice o alúmina) finamente dividido sobre un soporte plano como una lamina de plástico o alumino. El tamaño de ñas placas suele ser de 5×10, 10×20, 20×20 cm. El desarrollo de un análisis mediante este método consiste en depositar una pequeña cantidad de la mezcla cuyos componentes se desea separar, con ayuda de un capilar en el extremo de una placa cromatográfica. Se deja evaporar el disolvente en el que se encuentra disuelta la muestra y se coloca la placa dentro de un recipiente cerrado con el eluyente , saturado de su vapor, por debajo de su punto de aplicación. El eluyente se desplaza sobre la placa cromatográfica por capilaridad y cuando llega la pinto de aplicación de la muestra, la disuelte y arrastra. Los componentes de la muestra se mueven con el eluyente y según sus interacciones con la superficie de la plca, llegará más o menos lejos. La cromatografía se detiene una vez que el eluynt haya recorriedo 2/3 partes de la placa. Para determinar la posición de los componentes de la mezcla, se deja secar la placa y se localiza la nueva posición de los componentes. Si los componentes son coloreados se pueden observar manchas a simple vista, si no lo son, se procederá a su revelado. El revelado de la placa cromatográfica se realiza por diferentes métodos. Los compuestos fluorescentes se observan bajo luz UV, los aminoácidos y aminas reaccionan con la ninhidrina dando compuestos azules o púrpuras, vapores de yodo o ácido sulfúhirco reacción con ciertos compuestos orgánicos haciéndolos visibles. La identificación de los componentes de una mezcla mediante esta técnica requiere disponer de sustancias patrones constituyentes de la mezcla. Los patrones, junto con la muestra, se sitúan sobre una línea recta trazada con un lápiz que cruza la plca unos centímetros por enci,a de su fondo. La identificación se realiza comparando el perfil cromatográfico de la mezcla con el de los patrones. Si se comparan los resultados obtenidos con la muestra y los patrones, se observa que las manchas rojas y naranjas aparecen en la mustra, lo cual significa que la muestra en una mezcla de patrones, si por el contrario no aparece ninguna mancha amarilla en el perfil cromatográfico de la muestra quiere decirque no forma parte de la misma. El factor de retención es un parámetro que relacciona la distancia recorrida por el compuesto y la distancia recorrida por el disolvente. Los valores del factor de retención varían desde 1, para nalitos que no se retiente, hasta valores aporximados a cero. Cada compuesto tiene un factor de reteincion característico que depende del disolvente y tipo de placa cromatográfica usados, pero independientemente del recorrido del disolvente. La identificación de un compuesto desconocido se realiza comparando los factores de retención con un patrón. Cromatografía de gases Para realizar una separación mediante cromatografía de gases, se inyecta y volatiza una pequeña cantidad de una muestra en una columna cromatográfica. La elucción se produce por el flujo de un gas inerte, que constituye la fase móvil. Esta corriente de gas atraviesa la columna arrastrando a los componentes de la muestra, que se van separando en función del grado en que interaccionan con la fase estacionariaa. El orden de elución estará determinado por la volatilidad de los componentes. Los componentes separdos emergerán de la columna a intervalos discretos y pasasran a través de un sistema de detección adecuado o serán dirigidos a un dispositivo de recogida de las muestras. La fase móvil no interaciona con las moléculas de las muestras, su función es transportarlas, de ahí que reciba el nombre de gas portador. Tipos de cromatografía de gases: -Gas-Liquido: se basa en la distribución de los componentes de la muestra entre una fase móvil gaseosa y una fase estacionaria inmovilizada sobre la superficie de un solido inerte. Las sustancias se separan en función de su volatilidad y según diferencias de solubilidad en la fase estacionaria. -Gas-sólido: fase estacionaria sólida, separación de los componentes de la muestra según volatilidad y su capacidad para ser absorbidos por la fase estacionaria. La aplicación de esta modalidad es limitada por que muchas moléculas son retenidas en eexceso por el sólido, de forma que el gas portador no puede arrastrarlas, danto tiempos de retención muy largos. La cromatografía puede usarse para cualquier tipo de muestra, sólida, liquida o gaseosa, siempre y cuando que sus componentes sean estables a la temperatura de trabajo. De forma general se usa en separacion y análisis de muestras cuyos componentes tengas puntos de ebullición hasta 300ºC y todos los componentes deben ser volátiles. Los componentes de un cromatógrafo de gases son: ➢ Fuente de gas. El gas portador debe ser una especie química inerte químicamente, no debe reaccionar con la muestra ni con la fase estacionaria ni las superficies del instrumento. Debe ser puro y barato. Los de mayor uso son el helio, el nitrógeno, hidrógeno y argón. Como fuente de gas se usa normalmente cilindros de gas comprimido de elevada pureza, capaces de suministrar una presión de gas adecuada y constante. ➢ Sistema de inyección. La forma de introducir la muestra en el cromatógrafo de gases va a depender del estado físico de la misma y del rango de concentraciones de las sustancias que la componene y condiciones cromatográficas. Respecto a las muestras líquidas, los dos sistemas usados para su inyección son las válvulas rotatorias y las jeringas de inyección, siendo este ultimo el método más usado. Este método consiste en intrudocir la muestra con una microjeringa a través de un diafragma de silicona a una cámara de vaporización, esta cámara se calienta para pasar de muestra liquida a vapor, debe llegar a una temperatura de 50ºC encima de la temperatura de ebullcion del componente menos volátil. A través de la cámara pasa el gas portador que arrastra la muestra ya vaporizada a la columna. En muestras gaseosas, se introducen usando uno de los sistemas descrito anteriormente, siendo más habitual usar las válvulas rotatorias. Por último, en el caso de muestras sólidas, se disuelven en un dislvenre adecuado y su introducon se realiza igual que las liquidas. Algunos istemas permiten la encapsulación de la muestra sólida en un capilar de vidrie, introduciendo el bloque calentado ➢ Columna, pueden ser de dos tipos: empaquetadas, que son tubos de vidrio o metal de entre 1 a 6 metros y diámetro entre 2 a 6 mm. Se configuran de forma helicoidal y se rellenan densamente con un soporte solido que e recubre con una capa de fase estacionaria liquida. El soporte solido mas empleado es la tierra de diatomeas ya que son superficies muy porosas proporcionan un gran contacto entre ambas fases, o columnas capilares o abiertas, que son tubos de 5 a 50 metros con diámetro inferior a 1 mm, y pueden ser columna de pared recubierta por una capa fina de fase estacionaria o columnas recubiertas con soporte solido revestido por una fase estacionaria liquida. De forma general son más eficaces que las empaquetadas. ➢ Horno, lugar donde se aloja la columna. Requiere ser calentado y enfriado rápidamente, lo cual implica un sistema de flujo de aire adecuado. ➢ Detector, existen varios tipos: -Detector de ionización de llama (FID): es el más usado, tiene una alta sensibilidad, un gran intervalo de respuesta lineal y bajo ruido. El efluente de la columna se mezcla con hidrógeno y aire, después se enciende la llama eléctricamente. -Detecto de conductividad térmica (TCD): se basa en cambios en la conductividad térmica de la fase móvil ocasionada por la presencia de los compuestos de la muestra. Es sencillo, con amplio intervalo lineal, y con sensibilidad baja. En este caso, el gas portador al salir de la columna pasa por un filamento de wolframio. -Detector de captura electrónica (ECD): se usa una fuente de radiación beta. Detectores muy selectivos para compuestos que tiene grupos funcionales electronegativos, tiene un límite de detección alto, aunque su respuesta lineal es limitada. Los electrones emitidos ionizan al gas portador que suele ser nitrógeno, provocando la emisión de electrones adicionales que originan una corriente eléctrica entre un par de electrodos. La caída de la corriente actúa como señal analítica. -Detector de emisión atómica (AED): el gas de salida de la columna se introduce en un plasma de helio. La alta temperatura alcanzada en el interior del plasma es suficiente para atomizar y excitar los elementos de la muestra. Al volver al estado fundamental los elementos emiten radiación que se refleja en una red de difracción, descomponiéndose en sus longitudes de onda individuales y recogiéndose en una fila de diodos que detectan la radiación desde 170 a 180 nm. -Detector termoiónico de llama (FTD): detector selectivo de los compuestos orgánicos que tienen fósforo y nitrógeno. Su configuración es similar al detector de llama. El gas caliente fluye alrededor de una perla de silicato de rubidio calentada eléctricamente. Se forma un plasma donde se producen muchos iones, originándose una corriente proporcional a la cantidad presente en la muestra. ➢ Sistema de registro Esta técnica que ofrece alta resolución, sensibilidad y selectividad para medir compuestos volátiles, midiendo componentes mayoritarios y ultratrazas. El tiempo de análisis oscila entre varios minutos hasta mas de una hora. Tiene la ventaja frente a la c liuida de disponer de detectores mas univerasales, además de que los métodos son mas simples, rápidos y sensibles. La instrumentación es mas sencilla y económica que en HPLC. Sus limitaciones es que no es aplicable a compuestos poco volátiles ni termolábiles. Se puede aplicar al análisis medioambiental, química industrial, industria alimentaria, análisis clínico, etc. Puede usarse a escala preparativa para la obtención de compuestos de alta pureza, y también es útil para obtener datos fisicoquímicos relativos a propiedades superficiales, cinética y termodinámica de procesos de adsorción y separacion. DSe emplea también como citerio de pureza de compuestos orgánicos. Los contaminantes aparecen como picos adiccionales. Las áreas bajo los picos dan una estimación aproximada del grado de contaminación. Para el análisis cualitativo, los tiempos de retención aportan información limitada, además depende mucho de latemperatura, velocidad de flujo y volumen de fase liquida, es por ello que se usa un parámetro llamado índice de retención de Kovacs que es independiente de estos factores. Cromatografía de líquidos En esta cromatografía la fase móvil es un líquido y la estacionaria puede ser un sólido o un líquido inmiscible con la fase móvil. Actualmente, el sistema más avanzado de este tipo de cromatografía recibe el nombre de cromatografía de líquidos de alta presión o eficacia, conocida con las siglas del inglés HPLC (High Performance Liquid Chromatography).Según sea la naturaleza de la fase móvil y estacionaria se distinguen varios tipos: 1. Cromatografía de reparto o de partición: la fase estacionaria es un líquido retenido sobre un soporte sólido. El analito se reparte entre este liquido y una fase móvil liquida o gaseosa. 2. Cromatografía de absorción: la fase estacionaria es un sólido y la móvil es liquida o gaseosa. Las sustancias pueden adsorberse en la superficie de las partículas sólidas de la fase estacionaria por fuerzas de Van der Waals. La causa de separación es el equilibrio entre adsorción y desorción de la sustancia entre la fase sólida y móvil. 3. Cromatografía de intercambio iónico: se unen aniones o cationes covalentemente a una fase estacionaria sólida, de forma que adquiere una carga neta. Loa iones del a muestra, de carga opuesta a los existentes en la fase estacionaria, son atraídos por esta por fuerzas electrostáticas. La fase móvil es un líquido. Se usa en separación de sustancias iónicas. 4. Cromatografía de exclusión por tamaño: la base de la separación es la capacidad del soluto de penetrar en los poros de la columna. La fase móvil puede ser liquida o gaseosa y la estacionaria actúa como un simple tamiz El cromatógrafo de líquidos consta de una serie de partes: ➢ Sistema de suministro de fase móvil. En esta cromatografía la fase móvil es líquida, puede ser un disolvente puro o una mezcla de disolventes, además puede mantener siempre la misma composición o variar a lo largo del proceso. Esta variación de la concentración se llama gradiente y aumenta la eficacia de la separación. En cualquiera de los casos, los disolventes que se usan deben tratarse previamente para eliminar gases disueltos ya que estos interfieren formando burbujas en la columna y el detector. Esta desgasificación se puede realizar de varias maneras: borboteo con helio, este elemento es capaz de desplazar el nitrógeno y oxígeno que pudiera haber en la fase móvil, por vacío, usando una bomba de vacío o usando un ultrasonido, desgasificación por sonicación de forma que los gases disueltos se aglomeran formando burbujas con un tamaño suficiente para flotar hasta la superficie del líquido. Las partículas se eliminan mediante filtración, que puede hacerse en el mismo aparato o antes de colocar los disolventes en sus depósitos. Estos depósitos suelen ser recipientes de vidrio o acero inoxidable de entre 200 y 1000 ml. En HPLC se debe trabajar con altas presiones y es por ello necesario usar bombas que den un flujo aceptable de eluyente. El sistema de bombeo debe presentar varias características: ofrecer un amplio rango de presiones altas, flujo libre de pulsaciones, componentes resistentes a la corrosión, control y reproducibilidad del caudal y presentar un Intervalo de caudales de 0,1 a 10 ml/min. Se usan tres tipos de bombas: -Bombas recíprocas, las más usadas. Consisten en un pistón situado en el interior de una cámara de volumen que succiona el eluyente y lo impulsa a la columna a alta presión. -Bombas de desplazamiento, consisten en una cámara equipada con un émbolo. Suministran flujo continuo, pero tienen una capacidad de disolvente limitada. -Bombas neumáticas, hacen uso de la presión de un gas aplicado al recipiente que contiene la fase móvil. Si se trabaja con varios disolventes es necesario su mezcla, para ello existen dos sistemas de mezclado de los componentes de la fase móvil, por un lado, el mezclado a alta presión, en donde se usa una bomba para cada uno de los disolventes, estando la salida de cada bomba conectado a una conexión en T o cámara de mezcla. Esta mezcla se realiza una vez que los disolventes han pasado por la bomba, y por tanto tienen la presión de trabajo, de ahí el nombre. Por otro lado, está el mezclado a baja presión, donde se lleva a cabo antes de que estos entren en la bomba. ➢ Sistema de inyección de la muestra, son montajes diseñados para introducir un volumen de muestra liquida en el sistema. La introducción de la muestra suele ser el factor limitante en la precisión de las medidas de esta técnica. El inyector ideal debe tener las siguientes características: capaz de introducir volúmenes pequeños y reproducibles, originar la menor dispersión física posible del volumen mezclado, no alterar características hidrodinámicas del sistema y se fácil de manejar. Existen dos sistemas inyectores manuales: inyector de jeringa, se realiza con una jeringa con una aguja que entra en el sistema mediante un disco de material elástico llamado septum e inyector de válvula, se basan en el funcionamiento de una válvula de 6 vías, dos vías de entrada, dos de salida y dos conectadas entre sí por un bucle de volumen dado, la válvula tiene dos posiciones, la de llenado, donde la bomba y la columna están conectadas pasando la fase móvil directamente a la columna, La muestra se introduce mediante una jeringa o aspiración a un depósito tubular llamado bucle o loop, la otra posición es la de inyección , donde la fase móvil pasa a través del bucle que contiene la muestra y la arrastra hacia la columna ➢ Columna, parte esencial de esta técnica, en ella a través de diferentes mecanismos ocurre la separación de los analitos. Las columnas son tubos de acero que miden entre 10 a 30 cm y diámetro entre 2 y 10 mm. Son rectas generalmente, aunque algunas pueden ser helicoidales. Para cerrar el tubo se colocan los llamados fritados que son mallas de un tamaño de poro inferior al diámetro de las partículas del relleno de las columnas. En HPLC se usan varios tipos de relleno para las columnas, un relleno pelicular, bolas no porosas de vidrio o partículas porosas que son micropartículas que actúan como fase estacionaria. El material usado para el relleno es la sílice debido a sus propiedades: gran resistencia mecánica, amplia gama de formas y tamaños, gran variedad de superficie específica a presentar. Las columnas más usadas en HPLC son las llamadas C18, se usan en cromatografía liquido-liquido en fase inversa. Contiene el gel de sílice modificado con grupos hidrofóbicos, concretamente una cadena recta de 18 carbonos. Antes de colocar la columna se debe purgar el sistema de conducciones con la fase móvil a usar para evitar restos de otros eluyentes y para eliminar posibles burbujas de aire. Elegida la columna se coloca en el equipo colocando la entrada de la columna a la salida del inyector, se pone la fase móvil a un flujo bajo y se espera hasta que salga por el extremo opuesto, entonces se conecta el final de la columna con el detector. Después se aumenta el flujo de la fase móvil hasta la velocidad del análisis, de forma progresiva. Tras terminar el análisis, se debe lavar la columna, y en caso de que vaya a ser usada en un corto periodo de tiempo puede dejarse colocada en el sistema, en cambio si no es así, se debe retirar tapando las entradas con los tapones correspondientes. También se debe comprobar periódicamente la resolución de la columna por medio de patrones, de esta forma cuando se detecta perdida de la sensibilidad o una alta presión se debe proceder a su limpieza. ➢ Detector. El detector se sitúa en la salida de la columna y proporciona información de la composición del eluyente que circula a su través. Comparan o detectan la diferencia en alguna propiedad física entre la fase móvil y la fase móvil más la muestra. Un detecto idóneo en HPLC debe ser sensible a pequeñas concentraciones de analitos, dar una respuesta lineal amplia, tener poco ruido de fondo, ser estable en el tiempo y ser insensible a cambios de concentración. Existen dos tipos de detectores en cromatografía de líquidos, detectores que se basan en la medida de una propiedad de la fase móvil y detectores que se basan en alguna propiedad de los componentes de la muestra. Tipos de detectores: -Detector de índice de refracción, se basa en medir el cambio del índice de refracción cuando aparece la muestra eludida junto con la fase móvil. -Detector ultravioleta/visible, se basan en que muchas moléculas absorben luz UV, es muy común en HPLC. -Detector de fluorescencia, son sensibles y selectivos, solo se aplican a compuestos fluorescentes. Se basan en la irradiación con UV al componente que interesa y su medida de la luz fluorescente que emite. -Detector electroquímico, responden a analitos que puedan oxidarse o reducirse, Se basan en métodos como la amperometría o coulombimetría. -Detector de conductividad eléctrica, es el más usado cuando los analitos son iónicos, tienen alta sensibilidad, son baratos y de larga duración.

Tema 12. Fundamentos básicos de los métodos electroforéticos, inmunológicos y de biología molecular. Equipamiento y aplicaciones

Técnicas electroforéticas La electroforesis es una técnica de separación basada en la migración diferencial de las partículas cargadas en un campo eléctrico establecido. Es una técnica donde las fuerzas son de origen físico. Se asemeja a la cromatografía en que es una técnica también de separación. En general se pueden diferenciar dos tipos de técnicas: -Técnicas de electroforesis libre, donde se aplica un potencial eléctrico a una disolución en estado estacionario o no en la que las especies se mueven libremente, si más implicaciones que las derivadas de las características de la disolución y de las especies cargadas, por un lado, técnicas de electroforesis de zona, y por otro lado, electroforesis en medio estabilizada, en donde el movimiento se realiza a través de un medio solido impregnado en la disolución electrolítica y que dificulta el movimiento iónico libre. En función de que el transporte sea en disolución o en un medio estabilizante, se pueden tener en cuenta los siguientes fenómenos: -Fenómenos de transporte por disolución, el transporte de la materia puede deberse a la difusión provocado por un gradiente de concentración, a la migración, movimiento producido por la fuerza externa del campo eléctrico y su intensidad y por convección, un fenómeno no deseado que consiste en el transporte de todas las especies. -Fenómenos de transporte en un medio estabilizante, en este caso, el medio se sitúa entre los electrodos y así se minimiza los efectos indeseables de la electroforesis libre. Algunos de los medios estabilizantes mas usados son de dos tipos, soportes compactos con una microestructura interna capilar o geles de agar-agar o de poliacrilamida. Existen varias técnicas electroforéticas y formas de clasificación, entre ellas se encuentran: -Electroforesis libre o método electroforético de limite móvil, solo válida para determinar movilidades absolutas de proteínas solubles. Se miden los índices de refracción a lo largo de los tubos. -Isotacoforesis, es la técnica mas usual, tiene alto poder resolutivo, gran precisión y flexibilidad, pero tiene el inconveniente de que solo puede separar especies iónicas cargadas con el mismo signo. La detección se consigue con varios detectores. -Electroforesis zonal, caracterizado por la existencia de un medio estabilizante, se puede realizar en columna o en superficie plana con soporte sólido o en gel: -Enfoque isoeléctrico, basado en formar un gradiente de pH en el medio estabilizante donde al colocar la mezcla de sustancias a separar, estos se mueven hacia el cátodo o ánodo hasta llegar a la zona de pH en que se alcanza su punto isoeléctrico -Electroforesis capilar, basada en la diferente movilidad electroforética de las sustancias que se quiere analizar bajo la acción de un campo eléctrico en el interior de un tubo capilar. Esta técnica tiene gran importancia debido a su elevada rapidez de análisis, alta eficacia, es universal, fácil de automatizar y se usan bajos volúmenes. Las columnas capilares son tubos de diámetro entre 25-100 micras y 25-100 cm de longitud y suelen ser de sílice o teflón. En técnicas especiales se recurre al uso de columnas capilares rellenas de geles o partículas como por ejemplo en la electroforesis con micelas con el uso de SDS, en redes poliméricas con el uso de ADN o en geles anclado con el uso de poliacrilamida lineal, entre otros. Este empleo de columnas especiales de lugar a técnicas como la isotacoforesis capilar, electrocromatografía capilar o isoelectroenfoque capilar. En resumen, estas técnicas electroforéticas se usan para el análisis cuantitativo de diversos campos de ciencias biológicas, entre las más usadas son en el análisis de ácidos nucleicos usando la electroforesis en gel de agarosa, electroforesis de campo pulsado (PFGE) o electroforesis en gel con gradiente de desnaturalización (DGGE), a su vez, también se usan para la separación de proteínas usando para ello la electroforesis en gel de poliacrialmida con SDS y la electroforesis bidimensional. -Electroforesis de proteínas: Se usa para comprobar su la proteína de interés de ha separado del resto, se lleva a cabo mediante geles de poliacrialmida, geles porosos, cuya porosidad puede regularse en función de la concentración de poliacrilamida. La fuerza impulsora de la migración es un campo eléctrico y el gel actúa como filtro molecular, ralentizando la migración de proteínas en función de su carga/masa. Las proteínas mayores son retrasadas ya que se desplazan mas lentamente a lo largo del gel mientras que las más pequeñas avanzan más rápido. Hay dos tipos de electroforesis, en condiciones nativas o en condiciones desnaturalizantes. Las proteínas de interés de analizan incluyendo calles con marcadores moleculares, proteínas de peso molecular conocido y permite así detectar el peso molecular de la proteína de estudio. Existe una relación lineal entre el logaritmo del peso molecular de las proteínas y la distancia recorrida en el gel. La electroforesis en geles de poliacrilamida conocida como PAGE se desarrolla en condiciones nativas donde las proteínas se separan en función de su carga/masa. La carga de la proteína está determinada por la composición en aminoácidos y es en función del pH. En condiciones nativas solo migran proteínas con carga neta al pH de electroforesis, de entre ellas las proteínas de mayor y tamaño tienen mayor dificultad para atravesar los poros del gel u por tanto se establece un patrón de migración característicos. Las muestras de proteínas se disuelven en una solución tampón que contiene glicerol, que hace que la muestra se sitúe en el fondo del pocillo y un colorante azul, el azul de bromofenol, indica la migración respecto del frente. El tampón cierra el circuito entre el cátodo y el ánodo. El sistema se conecta a una fuente de alimentación y las proteínas migran hacia el polo positivo situado en la base del gel. Tras esto, el gel se saca del recipiente que lo contiene y se incube en presencia del colorante azul de Coomasie, que tile totalmente el gel, tras su incubación, el gel se destiñe con una disolución de etanol7acético y el gel queda transparente y las bandas de proteínas quedan teñidas de color azul. Respecto a la electroforesis en condiciones desnaturalizantes, es cuando se usan algunos compuestos químicos que hacen que la proteína pierda la estructura tridimensional y por tanto sin su función biológica, estos compuestos son agentes desnaturalizantes, algunos de ellos son el ditiotreitol (DTT), la urea, o algunos detergentes. En estas condiciones, la electroforesis se realiza en presencia de un detergente aniónico, el SDS, que se une a todas las proteínas en la misma proporción formando una especie de micela cargada negativamente. Esta carga negativa enmascara la carga de la propia proteína, por lo que de esta manera se separan solo en función de su masa, independientemente de su carga. El inconveniente que presenta esta técnica es que el SDS desnaturaliza las proteínas y las proteínas multiméricas se separan en sus subunidades. La SDS-PAGE es la técnica electroforética más usada para análisis de proteínas debido a que la mayoría de las proteínas son solubles en SDS, los complejos formados de SDS-proteína se tiñen fácilmente, la velocidad de migración es rápido y la separación depende de la masa. -Electroforesis de los ácidos nucleicos: es el método más común para su análisis, obtención y purificación. Se ha de tener en cuenta el tipo de agarosa. La agarosa estándar gelifica a 35ºC y se funde a 80-90ºC, datos a tener en cuenta ya que el gel puede licuar a temperatura superior a la de fusión. También debe tenerse en cuenta la fragilidad del gel, la agarosa estándar tiene una resistencia de 1000 a 2000 g/cm2. En la agarosa el flujo electroendosmótico va en contra de la dirección de la migración del ADN lo cual perjudica la resolución, por lo que se suele usar agarosa con valores bajo de este flujo. El modelo habitual que se emplea es de cubeta horizontal, la electroforesis se lleva a cabo de modo que el tampón cubra todo el gel. La separación de fragmentos lineales de ADN de doble cadena se realiza a un pH cercano a la neutralidad, pero para el ADN monocatenario se usa NaOH. La muestra de ADN se carga en los pocillos con una disolución, a la que se le añade uno o varios marcadores como por ejemplo el azul de bromofeno o el verde bromocresol. El volumen de muestra que se puede cargar depende de las dimensiones de los pocillos, pero de forma general no suele sobrepasar los 50 microlitros. Para poder estimar el tamaño de los fragmentos del ADN se incluye en el gel una serie de patrones, fragmentos de ADN de tamaño conocido. El voltaje que se aplica varia entre 1-10 voltios por centímetro. La separación de fragmentos de ADN grandes es mejor a bajos voltajes y viceversa. Respecto a la temperatura, esta no afecta a la movilidad electroforética entre 4 y 30ºC, por ello suele realizarse a temperara ambiente. La electroforesis en campo pulsante (PFGE) consiste en la separación de grandes fragmentos de ADN induciendo su reorientación mediante cambio periódicos en el campo eléctrico, cuya duración determina el intervalo de tamaño que se pueden separar, Los fragmentos se someten a dos campos eléctricos de distinta orientación, cuando se aplica el primero lo fragmentos se estiran y orientan, y cuando se aplica el segundo, de forma perpendicular al anterior, los fragmentos de se relajan y alargan., de esta forma al aplicarse sucesivos cambios de campo eléctrico se consigue la separación de los fragmentos en función de su tamaño. Técnicas inmunológicas Técnicas basadas en la unión de anticuerpos y antígenos. Destaca la inmunohistoquímica que permite la detección de proteínas específicas de una muestra mediante el uso de anticuerpos marcados. Se usa por ejemplo en test de embarazos, análisis de insulina, diferenciación entre tipos celulares tumorales, entre otras. Como parte de este grupo de técnicas, destaca la ELISA Enzyme-Linked Immunosorbent Assay (ensayo inmunoabsorbente ligado a enzimas), que se basas en la detección de un antígeno inmovilizado sobre una fase solida mediante anticuerpos que directa o indirectamente producen una reacción cuyo producto puede ser medido espectrofotométricamente. Se usa ampliamente para la detección y cuantificación de biomoléculas con alta especificidad. Con respecto a análisis de alimentos, permite detectar contaminantes como micotoxinas o alérgenos entre otros. Se trata de un método ampliamente usado en laboratorios por ofrecer resultados rápidos, precisos y fiables. Las fases de un ensayo de ELISA de forma general son, primero la conjugación del anticuerpo o del antígeno, la unión de este a los pocillos, saturación del resto de la superficie con seroalbúmina bovina y la formación de una o más capas de inmunocomplejos. Existen varios tipos de ELIS según la sustancia diana: -ELISA directo, consiste en la detección directa de un antígeno inmovilizado mediante un anticuerpo ligado al enzima específico del antígeno. -ELIS indirecto, se usa un anticuerpo primario específico del antígeno y en anticuerpo secundario marcado que se une al primario. Aumenta la sensibilidad del ensayo, es principalmente beneficiosos para la detección de contaminantes en alimentos. -ELIS sándwich, usa dos anticuerpos que se unen al antígeno en diferentes epítopos. Ideal para la detección de alérgenos alimentarios a bajas concentraciones. -ELISA competitivo, se necesitan tres anticuerpos específicos. El anticuerpo terciario marcado reconoce al secundario. Es útil para la detección de toxinas, pesticidas, y otros contaminantes. Otras técnicas inmunológicas para destacar son: -La seroneutralización, se usa para estudios serológicos, se puede valorar la capacidad de los anticuerpos presente en un suero para neutralizar la actividad biológica de un antígeno. Son técnicas muy sensibles y específicas. -Reacción de fijación de complemento, método para el diagnostico de forma indirecta de enfermedades infecciosas veterinarias como la brucelosis, tiene alta especificidad y sensibilidad. Se basa en que los complejos antígeno- anticuerpo fija el complemento impidiendo que este se una a un sistema indicador de glóbulos rojos recubiertos de anticuerpos anti-hematíes. En la primera etapa in vitro, el consumo del complemento por la unión del antígeno- anticuerpo evita que los glóbulos rojos sean lisados, si se observa hemólisis, se revela por tanto la fijación de los complementos a este inmunocomplejo, demostrando la ausencia de anticuerpos específicos al antígeno de la primera fase. -Pruebas de protección, son similares a los de neutralización, pero se realizan completamente in vivo, Se basan en la capacidad de protección que tiene un suero y puede ser valorado mediante su inoculación en disoluciones seriadas en un grupo de animales de laboratorio y luego desafiarlo con el antígeno. El valor de protección de los sueros se expresa como dosis protectora 50% (DP50). -Test de histocompatibilidad, se basa en la identificación del antígeno de histocompatibilidad Técnicas de biología molecular Estas técnicas se emplean para la determinación, aislamiento y manipulación del ADN, ARN y proteínas. Algunas de las técnicas más usadas hoy en día son: -Los llamados chips de ADN o microarrays son herramientas que permiten realizar análisis genéticos. En el ámbito de la alimentación, permite detectar la presencia en un alimento de material procedente de distintas especies comestibles. Saber si procede de una producción sostenible o ilegal y principalmente detectar y cuantificar posibles microorganismos patógenos o alterantes. El funcionamiento de estos chips se basa en la capacidad de las moléculas complementarias de ADN de hibridar entre sí. Pequeñas cantidades de ADN son depositadas en una base de cristal. A estas muestras depositadas en los chips se las llama dianas. De forma general, dentro de estos chips puede haber más de 10000 dianas. De las células de las cuales se quiere medir su expresión, se obtienen una muestra de ARN que se convertirá en ADN complementario y se marcará con una molécula fluorescente, esta muestra marcada recibe el nombre de sonda, y se enfrentará con las dianas contenidas en el chip. Cada molécula de ADN complementario marcada de la sonda se moverá por difusión hacia la diana que contenga su molécula complementaria para la hibridación. Después de un tiempo, se lava el chip y se realiza la medición de la cantidad de ADN de la sonda que ha quedado fijada en cada diana. -La reacción en cadena de la polimerasa (PCR), procedimiento por el cual se generan millones de copies de un segmento de ADN por ciclos repetidos. Se usa en estudios de genéticos, enfermedades, test de paternidad, y otras aplicaciones. Hay variedades de la PCR convencional, como es la PCR cuantitativa o llamada también PCR a tiempo real que se usa para amplificar y cuantificar el producto de la amplificación del ADN. Esta técnica es útil para detectar de forma específica al microorganismo Sardina pilchardus en muestras de conserva. El uso de esta técnica es múltiple, en la industria analítica para el control de alimentos, para identificar alérgenos, microorganismos modificados genéticamente, microrganismos patógenos o para identificar la especie. Esta técnica se ha usado y se usa para la detección del SARS-CoV (COVID-19). -La secuenciación de ADN o ARN tiene como objetivo determinar el orden de las bases nitrogenadas. Se usa para detección de mutaciones, diagnóstico prenatal, identificación de especies, entre otras. Con respecto al ámbito de la calidad alimentaria, permite identificar los microorganismos de una muestra y conocer la composición cuantitativa microbiana en alimentos. Esta técnica tiene además como ventaja el hecho de poder conocer comunidades de microorganismos que no se pueden cultivar en laboratorio, además no requiere tomas una muestra interna del producto. -La hibridación in situ, consiste en marcar una secuencia de ADN o ARN que al unirse a su secuencia complementaria emite una seña detectable, se usa para detección de alteración cromosómicas, diagnóstico de enfermedades, entre otras.

Tema 13. Muestras de análisis químicos. Métodos de preservación y conservación de la muestra hasta su análisis. Tratamiento y preparación de muestras para su análisis.

Una muestra es una parte representativa del conjunto de la población que se requiere estudiar. El muestreo es el conjunto de técnicas para obtener esas muestras, permite generalizar las conclusiones al conjunto de la población. El objetivo del muestreo es la obtención de una parte representativa del materia que se requiere estudiar. La muestra se transporta y se almacena antes de su análisis en el laboratorio, momento en que debe de preservar las características originales. Por este motivo es imprescindible la adecuada conservación de las muestras y que así no ocurran cambios en la composición que puedan alterar los resultados del análisis. En ciertos casos, el objetivo del muestreo es determinar si cumple las normas específicas por ley, y por tanto la responsabilidad de la preservación y adecuado transporte de las muestras es asumida por los responsables del muestreo. Es por estos motivos por lo que las técnicas de muestreo deben de garantizar que la muestra que se toma sea representativa de la población, es decir, que mantenga las características esenciales de la misma. La obtención de la muestra es una de las etapas mas complejas e importantes del proceso analítico. La misión del analista es obtener muestras representativas de los sistemas materiales objeto de estudio. Alguna de las causas de la pérdida de esta representatividad son: equipos de muestreo sucios, cambios fisicoquímicos en la muestra, por ejemplo la degradación de la materia orgánica por parte de microorganismos, analitos volátiles, reacción con la luz o el oxígeno, y un sistema de conservación y almacenaje no adecuado. Es por ello que la toma de muestras requiere de establecer un plan de muestreo donde se garantice la representatividad e integridad de las muestras, seleccionando los lugares, tamaño, numero de muestras así como los equipos y métodos de transporte, almacén, y conservación mas adecuados. Cuanto mayor sea la porción analizada, más seguro es que se obtengan resultados correctos. La toma de muestras introduce una fuente de errores que no puede corregirse durante el análisis. La desviación estándar global del proceso se relaciona con la desviación estándar analítico y con la desviación estándar de la operación del muestreo. La desviación estándar del análisis viene limitada por la etapa del muestreo. La estimación de la desviación estándar del análisis se obtiene a partir de los análisis de muestras replicadas y la desviación estándar del método de análisis por análisis de muestras estándar. Las diferencias entre la varianza de las muestras replicadas y la varianza del método dará la varianza para la etapa de muestreo. Con respecto al tamaño de las muestras sebe ser adecuado para minimizar el error. Si la muestra es demasiado pequeña su composición puede ser diferente del sistema objeto de estudio y por tanto el resultado tiene un error significativo. Si la toma de muestra es por el contrario demasiado grande, requiere de más tiempo y no aporta en la mayoría de ocasiones una mejor al muestreo. El tamaño de la muestra a coger se calcula por métodos estadísticos. En el caso de que el materia de estudio contenga dos tipos de partículas, una partícula A conteniendo el analito a concentración fija y otra partícula B sin contenerlo y la distribución sea al azar, la muestra es tomada sigue una distribución binomial. Al tomar n partículas el número de partículas que contienen el analito son nA, cumpliéndose lo siguiente: nA = np, donde nA es el número de partículas que contienen A, n el número total de partículas tomadas y p la probabilidad de seleccionar un partícula tipo A. Las diferentes estrategias de muestreo se pueden dividirse en muestreo probabilístico y no probabilístico. Con respecto al muestro probabilístico, se usan técnicas que dan a cada individuo de la población la misma probabilidad de ser seleccionado, es una técnica fiable y elimina cualquier tipo de segso. En cambio, el muestreo no probabilístico es donde alguno de los elementos de la población tienen una probabilidad nula de ser tomados. En el caso del muestreo probabilístico, se distinguen varios tipos: -Muestreo a juicio del muestreador. Se basa en el criterio del analista. -Muestreo de conveniencia, el coste de conseguir la muestra y la accesibilidad son los factores que se usan en la selección de la muestra. -Muestreo aleatorio simple. Es el más sencillo, las muestras se seleccionan de manera que cualquier porción o elemento tenga la misma probabilidad de salir escogido. Se suele dividir la población en partes iguales a las cuales se les atribuye un número seleccionando las unidades que formarán parte de la muestra con tablas de números aleatorios. Se requiere de mas tiempo ya que se necesita tomar gran cantidad de muestras. -Muestreo sistemático, las porciones de muestra se toman en intervalos de tiempo y espacio predeterminados y definidos en el plan de toma de muestra. Si la población ocupa cierta superficie se usan patrones o plantillas geométricas predeterminadas. Si por ejemplo el objetivo de la muestra es el establecer unos valores de unas determinadas propiedades en una zona se suelen usar patrones irregulares en forma de W, X o S. Otras plantillas pueden ser regulares, simples, alternadas, circulares o agrupadas con el fin de estimar el impacto de una fuente de contaminación en la zona de estudio o estudiar niveles de contaminación . Las plantillas estarán diseñadas para estudiar áreas de todos los puntos puedan tener una concentración similar del analito de interés. La toma de muestras con agrupaciones es una combinación de las estrategias de muestreo aleatoria y sistemática que consiste en elegir de forma aleatoria o sistemáticamente un numero de bloques dentro de una plantilla regular y tomar un numero de puntos aleatorias. Es esta estrategia de muestreo sistemático hay riesgo de sesgo en el caso de que en la población haya tendencia periódica de variación espacial o temporal -Muestreo estratificado, si la población es muy heterogéneas se divide en grupos mas homogéneos llamados estratos. Establecidos los estratos y el numero de muestras total, se toman las porciones de muestras al azar de cada estrato proporcionalmente a su peso o volumen relativo. Como ejemplo, una de las técnicas más usadas de muestreo en las industrias para poder determinar la calidad de un lote de producción es la técnica de aceptación por muestreo, donde se usan los planes de muestreo basados en las tablas del Muestreo Military Standard 105D, aceptadas por ISO 2859 o UNE 66020. La norma establece un sistema de aceptación por muestreo para la inspección por atributos. Está tabulada en términos de Nivel de Calidad Aceptable (NCA). El fin es estimular al proveedor a través de la presión económica de la no aceptación de los lotes para mantener una media del proceso por lo menos como NCA especificado. Se usan para series continuas de lotes, series tan grandes que permitan aplicar las reglas del cambio que proporcionan una protección para el clientes cuando se detecta un deterioro en la calidad, pasando así a una inspección rigurosa o una suspensión de la inspección por muestreo. Generan un estímulo para reducir el coste de inspección cuando se consiga una buena calidad de forma continuada en el tiempo, pasando a inspecciones mas reducidas. Los tipos de muestras que se pueden obtener son las siguientes: -Simples, muestras tomadas en un tiempo y lugar determinado para su análisis de forma individual -Compuestas, obtenidas por la mezcla y homogenización de muestras simples recogidas en el mismo punto en diferentes tiempos -Integradas, obtenidas por mezclas de muestras simples recogidas en puntos diferentes y de forma simultánea. Es muy difícil la preservación de las muestras de forma completa. Las técnicas de preservación retrasan los cambios químicos y biológicos que se dan inevitablemente después de que la muestra se retire de su fuente. Los métodos de preservación incluyen la medida del pH, adicción de reactivos, uso de recipientes opacos, filtración, congelación, entre otros. Antes de enviar la muestra al laboratorio es conveniente envolverla junto con hielo seco triturado. En la elaboración del plan de muestreo se debe de redactar la siguiente información, los parámetros que se van a medir, características del sistema material objeto de estudio, técnicas de muestreo, tamaño y numero de muestras, equipos de muestreo, medidas de protección, responsable de la toma de muestreo, fecha, hora y lugar de la toma de la muestra, sistemas de conservación, transporte y almacén. Con respecto al transporte, conservación y almacén, son etapas clave en el proceso analítico donde pueden producirse cambios importantes en la composición de los analitos que se van a analizar. En general, las muestras deben de analizarse lo antes posible. El almacén de las muestras se realiza cuando el análisis no puede ser inmediato o para realizar alguna comprobación de los resultados analíticos en un futuro. Las medidas que deben llevarse a cabo durante la etapa de transporte o almacén son: reducción de los riesgos de alteraciones, evitar exposición a luz o aire, mantener el ambiente sedo, refrigerar las muestras que sean necesarias o uso de conservantes que no interfieran en el posterior análisis y evitar exposición a humedades extremas. Los recipientes que se utilizan en el muestreo y donde se guarda la muestra deben ser inertes no absorber ningún analito ni cederlo, con una superficie lisa y con cierre hermético. Suelen ser generalmente de vidrio borosilicatado o de polietileno de alta densidad y deben limpiarse, debiendo estar seguros que en ellos están ausentes los analitos que se estudian. Los recipientes de vidrio no deben usarse para muestras destinadas a ser analizadas por metales traza ya que el vidrio libera silicio y sodio, a su vez, pueden adsorber trazas de metales contenidas en la muestra. Por otra parte los recipientes de plástico deben descartarse para muestras que contengan compuestos orgánicos, estos materiales liberan sustancias del plástico y a su vez disuelven algunos compuestos orgánicos volátiles de la muestra. La forma de conservación depende de las características de la muestra pero suele basarse en el empleo de sustancias químicas como ácidos o bases para controlar el pH , ácido ascórbico o tiosulfato que reducen el efecto del cloro residual y otros oxidantes en las aguas , etc. También, almacenar a baja temperatura, generalmente a 4ºCen casos de bajo contenido microbiológico o a -20ºC cuando tienen alta actividad enzimática, en la oscuridad y en frascos de color topacio. La conservación de la muestra siempre tiene un aspecto cuantitativo asociado a la obtención de resultados reproducibles. El tiempo necesario entre la toma de muestra y el análisis es crítico ya que los analitos pueden degradarse o sufrir pérdidas a partir de un determinado momento, por ello, es necesario llegar a un compromiso entre entre el tipo de recipiente utilizado en el muestreo, procedimiento de conservación y tiempo recomendado de conservación. Las muestras deben etiquetarse en el momento en que se toman, y en esa etiqueta se debe de poner la descripción del material, un código de la muestra, lugar donde se tomo la muestra, fecha y hora del muestreo, muestreador y método de muestreo y otra información adicional que se considere. La cadena de vigilancia de la muestra es esencial para asegurar la integridad de la misma. El seguimiento de la cadena de vigilancia garantiza la trazabilidad de la muestra, en este plan se ha de incluir el origen de la muestra, el nombre del muestreador, la fecha y hora en que se tomó la muestra y los parámetros que se van a analizar. El pretratamiento de la muestra es el conjunto de procedimientos que se aplican antes del análisis y que suelen implicar de forma general métodos físicos como el lavado, secado, molienda, tamizado, refrigeración, filtración, homogenización, disolución y centrifugación entre otros. El objetivo es preparar a la muestra para su tratamiento. El tratamiento de una muestra implica pasos adicionales para extraer y concentrar los analitos y eliminar posibles interferencias. Los métodos de tratamiento más comunes son la extracción liquido-liquido, extracción en fase sólida, digestión, evaporación,y concentración. Los objetivos del pretratamiento y del tratamiento son: -Extracción del analito de interés, asegurándose de que los componentes deseados se aislen de forma eficaz -Eliminar interferencias, posibles sustancias que pueden interferir con los resultados -Aumentar la concentración de los analitos de interés para aumentar la sensibilidad y detección -Asegurarse que la muestra esté en las condiciones óptimas para en análisis Métodos de pretratamiento de la muestra: ✔ Lavado. Elimina contaminantes superficiales ✔ Secado. Es necesario para eliminar la humedad que puede interferir con el análisis. Es especialmente importante en sustancias sensibles al agua. ✔ Homogenización. Garantiza que todas las partes de la muestra representen el mismo contenido. ✔ Agitación. Se usa para mezclar soluciones. Existen para ello varios tipos de agitadores: vórtex, de plataforma, magnético, rotatorio, etc ✔ Tamizado. Separa las partículas de una muestra en función de su tamaño. Se emplean los tamices, son dispositivos formados por hilos entrecruzados sujetos a un bastidor. La luz de malla, es decir, la abertura de este tamiz determina las dimensiones de los sólidos que quedan retenidos. ✔ Molienda. Reduce el tamaño de las partículas de una muestra. Se usan morteros, trituradoras de mandíbulas, molinos de rotor, de corte, de cuchillas, de discos, etc ✔ Disolución. Implica la preparación de disoluciones a partir de muestras sólidas. El agua es un buen disolvente para muchas sales inorgánicas, otros disolventes comunes son los alcoholes, compuestos clorados, hidrocarburos que disuelven compuestos orgánicos. Si las muestras no se disuelven con estos, se procede al uso de alcalís, o ácidos. ✔ Filtración. Se usa para eliminar partículas sólidas de una disolución, Las características esenciales de un filtro son la eficacia en la retención de las partículas y la velocidad de flujo, que es el volumen de líquido que pasa a través de un filtro por unidad de tiempo y unidad de superficie. Como filtros que suele usarse en el laboratorio son el papel de filtro, membranas, placas filtrantes o microfibras de vidrio. ✔ Centrifugación. Se basa en separar los componentes de una mezcla en función de su densidad por la acción de la fuerza centrífuga. De este modo, permiten la sedimentación de las partículas al someterlas a altas velocidades durante un corto periódo de tiempo. Métodos de tratamiento de la muestra: ✔ Extracción líquido-líquido. Se basa en la separación de componentes de una disolución acuosa usando un medio liquido que es un disolvente orgánico. Suele aplicarse para la separación de analitos no polares o semipolares en muestras acuosas. Los disolventes más empleados son el n-hexano y el ciclohexano. Se lleva a cabo utilizando un embudo de separación, en el cual se introduce la muestra solvatada y luego se agrega el disolvente inmiscible. El embudo es invertido varias veces para permitir la mezcla de los contenidos. ✔ Extracción en fase sólida. Se basa en pasar una muestra líquida a través de un material absorbente sólido que retine a los analitos de interés. Permite extraer analitos polares o semipolares. Primero los analitos son retenidos en la fase sólida, y después se extraen mediante un tampón. Esta técnica es más selectiva en comparación con la anterior. ✔ Digestión. Se realiza para la descomposición de muestras complejas y liberar los analitos para su posteríor análisis. Suele usarse en muestras de alimentos o suelos. ✔ Evaporación ✔ Concentración. Se trata de reducir el volumen de disolvente y aumentar así la concentración de los analitos. ✔ Destilación. Proceso de separación que se basa en las diferencias de los puntos de ebullición de los distintos componentes de una mezcla La elección de los métodos de pretratamiento y tratamiento es importante pues afecta de forma directa a los resultados de los análisis. Los criterios que se usan son en función de la naturaleza del analito, si es orgánico o inorgánico, volátil o no; la sensibilidad del analito y el propósito del análisis. También, la composición de la matriz de la muestra influye en el tratamiento, ya que muestras con matrices complejos suelen requerir técnicas de limpieza adiccional, el estado físico de la muestra y las posibles interferencias. Se debe tener en cuenta también características fisicoquímicas como la solubilidad, estabilidad o polaridad. La toma de muestras de sólidos depende de como se encuentren los materiales, si se encuentran como materiales compactos o como partículas de distintos tamaños. En los sistemas materiales sólidos formados por partículas existe el riesgo de segregación por tamaños, por ello se usan sondas para la toma de muestras. Las sondas son tubos que se insertan en el sistema material reteniendo una muestra cilíndrica. Respecto a los materiales sólidos compactos, la toma de muestra depende del análisis que se requiera realizar posteriormente, si el objetivo del análisis es determinar la concentración de un componente o si se quiere medir una propiedad física del material. En este caso se usan sondas tipo barrera que llevan acoplado un dispositivo para la perforación. Los sólidos se suelen recoger en bolsas de plástico de polietileno que se atan sin cerrar herméticamente o en contenedores de vidrio. Las muestras líquidas se suelen tomar fácilmente por decantacion o con una pipeta, jeringuilla o botella. Las muestras liquidas tomadas en grandes masas de agua o en depósitos se encuentran estratificadas, y por tanto es necesario tomar varias muestras simples en diferentes puntos para obtener una muestra completa representativa. Los contenedores en este caso son de vidrio o plástico. Las muestras de gases se toman llenando un recipiente con una porción del gas. Una bomba de succión ayuda a la introducción del mismo en el recipiente. Por su dificultad para almacenarse, estas muestras se recogen usando una trampa que contiene un reactivo.

Tema 14. Aguas de consumo. Su calidad sanitaria, control y vigilancia. Tipos de análisis y parámetros de control: análisis de control y control en grifo

El agua de consumo se define según el Real Decreto 3/2023, de 10 de enero, por el que se establecen los criterios técnico-sanitarios de la calidad del agua de consumo, su control y suministro, como aquel agua para uso humano, en su estado original o después del tratamiento, utilizada para beber, cocinar, preparar alimentos, higiene personal u otros fines domésticos, ya sea en locales públicos como privados, independientemente de su origen y si se suministra desde redes de distribución, desde cisternas o en depósitos móviles y que sea salubre y limpia. Según este mismo real decreto, se considera un agua salubre y limpia cuando se encuentra libre de microorganismos, parásitos o sustancias en cantidades que pueden suponer un riesgo para la salud humana, de esta forma se pueden clasificar en aguas aptas para consumo o no aptas. En la Unión Europea, la normativa 98/83 establece los valores mínimos y máximos del contenido en minerales, iones y gérmenes patógenos en las aguas de consumo tanto humano como animal. La vigilancia del agua de consumo es responsabilidad de la autoridad sanitaria correspondiente a la comunidad autónoma, la cual se encarga de actualizar el programa de vigilancia sanitaria del agua de consumo, el cual debe ser revisado y actualizado de manera continua. Este programa debe de contemplar las operaciones realizadas por los operadores, como son el análisis y frecuencias que se especifican en el RD 3/2023 mencionado con anterioridad, revisión de la zona de abastecimiento y de las infraestructuras de captación, tratamiento, almacenamiento y red de distribución de agua de consumo, revisión de protocolos, recogida y análisis de muestras de agua, mediciones, entre otros. Ademas puede contemplar las actividades a realizar por la autoridad sanitaria, como son, inspecciones de los registros relativos al estado de funcionalidad y mantenimiento de los equipos; inspecciones de la zona de abastecimiento como las infraestructuras de toma de captación, tratamiento, almacenamiento y distribución de agua y laboratorios de control, entre otras. Con respecto a la vigilancia en las zonas de captación, es realizada por la administración hidráulica según se indica en el Real Decreto 817/2015, de 11 de septiembre, por el que se establecen los criterios de seguimiento y evaluación del estado de las aguas superficiales y las normas de calidad ambiental. En la vigilancia municipal, se realiza para tener información sobre la calidad del agua de consumo en el punto de cumplimiento de las instalaciones interiores. Se lleva a cabo a través de la inspección de la administración local mediante el control en grifo. Si en esta muestra no se cumplieran los valores, se toma un muestra del grifo del armario de contadores para verificar si el incumplimiento es debido a la instalación interior o a la red de distribución. Esta vigilancia de la calidad del agua comienza en los embalses, los ríos, pozos, etc, y continua en las estaciones de tratamiento de agua potable (ETAP). En todos estos puntos se recogen muestras que después se analizan en los laboratorios. Las frecuencias de muestreo están definidas en el RD 03/2003. Cualquier incumplimiento de los parámetros que se analizan, debe de ser confirmado mediante un segundo análisis, tomándose una muestra antes de pasar 24 horas del primer análisis y todo ello se notificará a la autoridad sanitaria. Si de nuevo hay un análisis con unos valores paramétricos elevados, deben de realizarse medidas correctoras para garantizar la calidad del agua. El aseguramiento de esta calidad viene dada por la normativa europea Directiva 98/83/CE, que toma de base las recomendaciones de la OMS. Algunas de las principales causas de que el agua no sea apta para el consumo son la presencia de bacterias, virus y otros microorganismos, depósitos o partículas en suspensión y productos tóxico disueltos. Para la eliminación de los microorganismos patógenos se lleva a cabo la desinfección del agua por métodos químicos mediante compuestos como cloro, dióxido de cloro, ozono, hipoclorito de sodio, cloruro de bromo, halógenos, metales como plata o cobre, peróxido de hidrógeno, jabones y detergentes, entre otros. De todos estos, el cloro es el que se usa de forma más frecuente ya que es barato y eficaz contra gran cantidad de microorganismos. También puede realizarse esta desinfección por métodos físicos, como luz UV, calor, radiación electrónica, rayos gamma o sonido. Los desinfectantes deben matar a los microorganismos y tener un efecto residual, es decir, mantenerse como agentes activos en el agua tras el tratamiento para la prevención del crecimiento de nuevos microorganismos. El control del agua de consumo deberá verificar que las medidas establecidas para controlar los posibles riesgos esta funcionando correctamente y de forma efectiva, y debe de proporcionar información sobre la calidad del agua suministrada al consumidor así como establecer posibles medidas correctoras cuando sea necesario. Los parámetros que se miden son físicos, químicos y microbiológicos. Con respecto a los físicos, se analizan las características organolépticas, color, olor y sabor, también elementos flotantes, temperatura, pH, conductividad, radioactividad y densidad. El color es debido a la presencia de materiales como ácidos húmicos, plancton, y de ciertos metales como hierro, manganeso, cobre y cromo. El efecto que tiene es la disminución de la transparencia, es decir, hace de barrera a la luz, disminuyendo los procesos fotosintéticos en el fitoplancton así como una restricción de la zona de crecimiento de las plantas acuáticas. Con respecto al olor, se debe a compuestos como el cloro, fenoles, ácido sulfhídrico, etc. La ausencia de olor es un indicador de no contaminación. La turbidez, es la medida de la dispersión de la luz por el agua como consecuencia de la presencia en la misma de materiales suspendidos coloidales y/o particulados. La presencia de materia suspendida en el agua puede indicar un cambio en su calidad y la presencia de sustancias inorgánicas o materiales orgánicos. La turbidez es un factor ambiental importante ya que afecta a la actividad fotosintética , ademas esta turbidez constituye un obstáculo para la eficacia de los tratamientos de desinfección. La temperatura de las aguas es importante por su efecto sobre la solubilidad del oxígeno y, en consecuencia, sobre las velocidades en el metabolismo, difusión y reacciones químicas y bioquímicas. Unas temperaturas altas provocan que se acelere el proceso de putrefacción. La conductividad eléctrica de una solución es una medida de la capacidad de la misma para transportar la corriente eléctrica y permite conocer la concentración de especies iónicas presentes en el agua y depende también de la temperatura. La contaminación radiactiva es origina por uranio, torio y actinio, y sus productos de descomposición, procedentes tanto de fuentes naturales, pero principalmente por actividades humanas. Las aguas subterráneas suelen tener mayores concentraciones de estos elementos. Los parámetros químicos que se miden principalmente son: El pH, que se define como el logaritmo de la inversa de la concentración de protones: pH = log 1/[H+ ] = – log [H+ ] El valor del pH en aguas no contaminadas está comprendido entre 5 y 9. La materia orgánica en el agua puede estar disuelta o en forma de partículas. Se mide mediante el parámetro carbono orgánico total (TOC, total organic carbon). Estos compuestos orgánicos existentes en el medio acuático se miden mediante los parámetros denominados DQO (Demanda Química de Oxígeno) y DBO (Demanda Bioquímica de Oxígeno), siendo la DQO la cantidad de oxígeno consumido por los cuerpos reductores presentes en el agua sin la intervención de los organismos vivos, y la DBO determina la materia orgánica biodegradable. Es la cantidad de oxígeno necesaria para descomponer la materia orgánica presente, por la acción bioquímica aerobia. Los detergentes, sustancias que poseen unas importantes propiedades limpiadoras. De todos ellos, los más característicos son los surfactantes, productos químicos orgánicos que reducen la tensión superficial del agua y de otros líquidos. Pesticidas, especialmente los pesticidas fosforados ya que son mucho más tóxicos para el hombre y los mamíferos que los pesticidas clorados. Otros parámetros químicos son: el aluminio, componente natural del agua, si contienen altas concentraciones se genera un pH bajo, el mercurio, es un metal pesado considerado un contaminante nada deseado por su toxicidad. En el agua se encuentra de forma inorgánica, que por acción de microorganismos puede pasar a su forma orgánica e ir acumulándose en la cadena trófica. El plomo también se mide, prácticamente no esta en aguas superficiales naturales, se suele detectar más en aguas subterráneas procedente de vertidos industriales. El hierro, cuya presencia afecta al sabor del agua, puede formar depósitos en las redes de distribución y generar averías y obstrucciones. El cloruro se genera por la adicción de cloro en las ETAP, los iones cloruro a partir de ciertas concentraciones tienen efecto corrosivo. También se miden sulfatos de calcio y magnesio que contribuyen a la dureza del agua, si están en altas concentraciones puede generar sabor amargo y efecto laxante. Los nitritos y nitratos, que se encuentran en aguas de zonas rurales por la adición de fertilizantes. En cuanto a los parámetros biológicos que se analizan son bacterias, hongos, mohos, levaduras y algas. Los análisis que se realizan son los siguientes: -Control rutinario para valorar las características organolépticas y controlar la desinfección del agua. En este control de rutina, los puntos de muestreo son: red de distribución, grifo del usuario y grifos de buques de pasaje y se controlarán, al menos, los siguientes parámetros: color, sabor, olor, turbidez y pH, y cuando se usen desinfectantes en los que se libere cloro activo, se debe de analizar el cloro libre residual. -Análisis de control, cuyo fin es facilitar al operador y a la autoridad sanitaria la información sobre la calidad organoléptica y microbiológica del agua y dar información sobre la eficacia del tratamiento de potabilización. Este análisis se podrá realiza en los puntos de salida de la ETAP o de la salida depósito de cabecera, salida de depósito de distribución, en red de distribución y en la salida de la cisterna. En este análisis se controlan los siguientes parámetros: E. coli; Enterococo intestinal; bacterias coliformes; recuento de colonias a 22 ºC, color, sabor; olor pH; conductividad, turbidez, y, si se usan desinfectantes donde se libere cloro activo, se analiza el cloro libre residual. En caso de que los resultados de estos parámetros superen el valor paramétrico en el ultimo análisis completo, se deben de medir también clorito y clorato o ácido haloacético. Cuando se lleve a cabo una cloración deben evaluarse también nitritos, amonio y cloro combinado residual. Cuando en el tratamiento de potabilización se usen sales de aluminio o hierro, se debe de analizar aluminio y hierro y en la salida de la ETAP o deposito de cabecera debe medirse presencia de Clostridium perfringens, incluyendo las esporas. Este control de rutina se realizará semanalmente, siempre y cuando en esa semana no se haya realizado un análisis de control o completo. Con respecto al análisis bacteriológico, se suele investigar principalmente los gérmenes totales, coliformes totales, coliformes fecales, enteroccos fecales y salmonella, y otros en menor mediada como shigella, enterovirus, bacteriófagos fecales, pseudomonas aeruginosa, staphylococcus aureus, y clostridios sulfito reductores. Para el recuento se usa principalmente la filtración de membrana. -Análisis completos, que tienen como objetivo facilitar al operador y a la autoridad sanitaria la información necesaria para determinar el cumplimiento de los valores paramétricos de todos los parámetros. Este análisis se lleva a cabo en la salida de la ETAP o salida depósito de cabecera, salida de depósito de regulación o de distribución y red de distribución. Los parámetros a controlar en este caso son, con respecto a microorganismos:Escherichia coli, Enterococo intestinal, Clostridium perfringens (incluidas las esporas. Otros parámetros a medir son sustancias como la acrilamida, antimonio, arsénico, benceno, bisfenol a, boro; bromato, cadmio, cianuro total, cobre, cromo total, fluoruro, mercurio, níquel, nitrato, nitritos, plomo, selenio, uranio entre otros. Ademas se realiza una medida del color, olor, sabor, pH, conductividad, turbidez, entre otros. -Control de radiactividad, para dar información al operador y a la autoridad sanitaria sobre la presencia de sustancias radiactivas naturales o artificiales. El muestreo se realiza en la salida de planta de tratamiento o en depósito de cabecera, salida de depósito de regulación o de distribución o red de distribución en el caso que no haya depósito entre la captación y la red de distribución. Se controlan los siguientes parámetros: actividad alfa total y actividad beta resto. Cuando el origen del agua sea subterráneo se medirá el radón. En cambio, si el origen del agua es superficial, se mide el iridio siempre y cuando haya una central nuclear cerca de la zona de captación -Control operacional para comprobar de la eficacia del tratamiento y los problemas de calidad del agua, permitiendo una acción correctora rápida. En este control, se tienen en cuenta los resultados de la identificación de peligros y evaluaciones de riesgos del suministro. Se mide siempre la turbidez. Tras una limpieza se debe medir Clostridium perfringens, y tras la desinfección se mide pH y cloro residual. Además, en la toma de captación deben realizarse siempre la medida de Colífagos somáticos. En caso de que el origen del agua sea de embalse, lago o laguna, se controla microcistina LR, y si es mayor de 1 μg/L, se controlará clorofila a. Si la clorofila es mayor de 50 mg/m³, se realizará la identificación de cianobacterias y otras cianotoxinas. Si la captación se encuentra en zona agrícola, se controlan plaguicidas individuales autorizados. -Caracterización del agua, con el fin de dar información al ciudadano las características generales del agua. Este análisis se realiza en la red de distribución y se mide la dureza, el calcio, el magnesio y el potasio. -Control en grifo, con el objetivo de facilitar al titular de la instalación, al operador y a la autoridad sanitaria la información necesaria para determinar la calidad del agua. Este análisis se realiza en el grifo de la instalación interior más utilizado o en los que designe el titular de la instalación. Los parámetros a medir siempre son: Escherichia coli; recuento de colonias a 22 ºC, color; turbidez; pH; conductividad, cloro libre residual y plomo. Además de estos, cuando se realice cloraminación se controla cloro combinado residual, nitritos y amonio. En caso de sospecha de una instalación con tuberías metálicas, se controlan cobre, cromo total, níquel, hierro u otro parámetro inorgánico. Si por el contrario, las tuberías son de plástico, se controla bisfenol a y cloruro de vinilo. En edificios prioritarios ademas también se mide Legionella, y en edificios o centros sanitarios se controla Pseudomonas aeruginosa, temperatura del agua fría y del agua caliente. -Control en buque, con el fin de facilitar al operador del buque de pasaje y a la autoridad sanitaria la información necesaria para determinar la calidad del agua de la instalación interior del buque. Los parámetros que se miden siempre son Escherichia coli; Legionella spp. Plomo, hierro, cobre, cromo total, Cloruro de vinilo y bisfenol a. Los buques de pasaje que desalinicen el agua de mar, deberán de medir el boro y además realizar el control operacional. Por el contrario, los buques de pasaje que no desalinicenel agua de mar y utilicen como agua de consumo, el agua de la red de distribución pública, el titular del buque solicitará un boletín de análisis del último análisis de control y análisis completo realizado en el agua de la red al operador de la red de distribución tal como dice el RD. El muestreo en grifo debe cumplir varios requisitos, las muestras para análisis de parámetros como cobre, plomo o níquel, se toman en un solo grifo del usuario sin descarga previa. Debe realizarse un muestreo aleatorio diurno de un litro de volumen. Cuando los niveles de los parámetros mencionados superen los paramétricos, se puede realizar otro método de muestreo, que puede ser con descarga previa o colocando una botella conectada al grifo que recoge un porcentaje del agua consumida en una semana. Los muestreos de los parámetros microbiológicos en el grifo del usuario se tomarán y manipularán con arreglo a la norma UNE-EN ISO 19458 sobre la calidad del agua. Las frecuencias de muestreo son establecidas por la autoridad sanitaria, cumpliéndose los mínimos fijados en las zonas de abastecimiento mas grandes se toman de forma diaria. Para el control de rutina siempre se realiza una vez a la semana como se recogen en el RD citado. Con respecto a la industria alimentaria, esta será responsable de la calidad del agua desde el punto de entrega. Si la empresa alimentaria recibe el agua mediante suministro en cisternas o depósito móvil será responsable de todas aquellas fases que realice y que como tales estén descritas en los sistemas de autocontrol basados en los principios del Análisis de Peligros y Puntos de Control Crítico (APPCC). Además, será la propia empresa la que defina los puntos de muestreo según los principios del APPCC.

Tema 15. Legionella. Importancia sanitaria. Riesgos en torres de refrigeración y otras instalaciones. Programa de muestreo y análisis.

La Legionella es una bacteria de la familia Legionellaceae, gran negativa, su hábitat habitual es el medio acuático, aunque es capaz de sobrevivir a condiciones ambientales variadas entre los 20 y 45ºC, siendo su temperatura óptima de crecimiento de 35-37ºC. Desde su reservorio natural puede colonizar sistemas de abastecimiento de agua mediante la red de distribución, incorporándose a los sistemas de agua sanitaria o torres de refrigeración. El mecanismo de transmisión es por vía respiratoria mediante la inhalación de aerosoles de aguas contaminadas, no se transmite por ingestión. Esta bacteria se presenta de dos formas diferentes, por la fiebre de Pontiac, que es un proceso gripal con una incubación corta, se caracteriza por un malestar general, fiebres intensas y cefaleas, sin afección de los pulmones. Por otra parte, se manifiesta mediante la enfermedad del legionario, que es un cuatro neumónico con una incubación larga, se caracteriza por fiebres muy altas, dolores de cabeza, náuseas, vómitos, y tiene un riesgo de entre el 10-15% de mortalidad. En España, cabe destacar el RD 865/2003 de 4 de junio, establece los criterios higiénico-sanitarios para la prevención y control de la legionelosis, aunque ha sido derogado por el RD 487/2022 de 21 de junio. Las instalaciones que tienen mas riesgo de sufrir una proliferación de Legionella son las torres de refrigeración, sistemas de agua caliente sanitaria con acumulador y circuito de retorno, sistemas de agua climatizada con agitación constante y recirculante y centrales humidificadoras industriales. Las torres de refrigeración son sistemas destinados a enfriar masas de agua en procesos que necesitan disipar el calor. El enfriamiento de estos equipos se basa en la evaporación. El uso habitual de estos equipos está asociado a los sistemas de refrigeración. Respecto a los condensadores evaporativos son equipos similares a las torres de refrigeración, pero estos están destinados a condensar gases refrigerantes en los sistemas de acondicionamiento de aire y frio industrial. El agua es conducida por una serie de conductos en cuyo interior circula el refrigerante. Centrándome en las torres de refrigeración, algunos de los aspectos básicos en el diseño adecuado son: estar correctamente ubicados, de forma que se reduzca al máximo la exposición de las personas a aerosoles, por ejemplo, en la cubierta de edificios. La descarga del aerosol debe de estar al menos a 2 metros y a una distancia de 10 metros en horizontal, además, los aparatos se situarán a sotavento de los lugares. Deben estar dotados de separadores de gotas cuyo caudal de agua arrastrado sea inferior al 0’05% del caudal de agua circulante. Deben también facilitar las labores de limpieza y mantenimiento, estar situados en lugar de fácil acceso, estar hechos de materiales resistentes a la acción agresiva del agua, cloro u otros desinfectantes. Para tener un correcto mantenimiento de las instalaciones se deben contemplar una serie de controles en diferentes puntos: -Controlar las incrustaciones que pueden aparecer por la formación de cristales insolubles en la superficie de estas instalaciones (torres de refrigeración y condensadores evaporativos). Estos cristales suelen ser carbonatos de calcio e hidróxidos de magnesio principalmente. La capacidad que tenga el agua de ser incrustante, es decir, el grado de dureza, depende su concentración de iones de calcio y magnesio. Otra serie de factores con la temperatura y pH determinan la formación de esta incrustación. Para saber las medidas que se deben tomar al respecto para evitar la formación de incrustaciones se debe conocer primero la calidad del agua y las características de funcionamiento del sistema de refrigeración, a partir de aquí se determinan el numero de ciclos de concentración y el tratamiento que sea mas adecuado. Se pueden aplicar tratamiento externos o internos, los externos evitan la entrada de iones de calcio o magnesio y los internos evitan la precipitación de las sales en las superficies del interior del sistema. Como ejemplo de un tratamiento externo es la instalación de un sistema de desclasificación que capta los iones calcio y magnesio intercambiándolos por iones de sodio. Un ejemplo de tratamiento interno es el uso de aditivos como fosfatos, fosfonatos o policrilatos que actúan interfiriendo la formación de cristales. -El control del posible crecimiento de algas: el factor más determinante en la aparición de algas es la luz. Las algas facilitan la aparición y protección de Legionella frente a productos biocidas en el agua, por ello es importante la ausencia de estas algas para evitarlo, para ello se debe realizar una limpieza de las superficies interiores de forma periódica y usar biocidas con efecto alguicida. -El control del crecimiento de microorganismos: se emplean tratamientos que destruyan o evitan el desarrollo de bacterias en el agua, principalmente bacterias aerobias y Legionella. Los productos que se usen deben estar inscritos en el Registro Oficial de la Dirección General de Salud Pública del Ministerio de Sanidad y Consumo. El nivel de bacterias aerobias es un indicador del grado de desinfección, aunque no implique la presencia de Legionella, la cual deberá confirmarse con una analítica posterior. Se recomienda también el control de batería sulfato reductoras ya que son capaces de generar corrosiones graves. -El control de la posible formación de biocapa es importante ya que esta biocapa esta formad por sustancias orgánicas segregadas por bacterias como mecanismo de defensa cuando las condiciones no son adecuadas para su desarrollo, formando un entorno endosimbionte en el que se produce un intercambio de nutrientes y protección mutua frente a agresiones externas. Está formada por polisacáridos mayoritariamente, y se puede eliminar por uso de detergentes o biodispersantes. -El control de la corrosión, consistente en el desgaste superficial de los metales. La corrosión mas importante se produce por la disolución del metal por el efecto de formación de pila electrolítica, parte de la superficie metálica actúa como cátodo, cediendo electrones al agua que los usa para generar grupos oxidrilo (OH-) y otra parte actúa como ánodo, la parte que se desgasta, y en la que el metal pasa al agua en forma de ion. Para evitar que ocurra la corrosión, de emplean productos que formen una película protectora sobre las superficies metálicas, como, por ejemplo, poliaminas, fosfatos de zinc, silicatos, molibdatos, etc. Para evaluar la protección frente a la corrosión se pueden emplear las técnicas de la Norma ASTM D-2688-94 que describe los métodos para evaluar la corrosividad del agua por test de pérdida en peso en testigos de corrosión. -El control de sólidos disueltos. La evaporación constante de parte del agua en circulación en la torre aumenta la concentración de los iones presentes en el agua, estos iones se incorporan la fracción soluble de las partículas que el agua recoge del aire en el proceso de pulverización y el tratamiento químico realizado mediante la adición de biocidas, algicidas, antiincrustantes, etc. Esto contribuye a un aumento de la salinidad que favorece la aparición de incrustaciones y corrosión. La presencia de iones disueltos incrementa el nivel de conductividad del agua, por tanto, ésta es una medida indirecta de la calidad de la renovación del agua de la balsa de la torre. La relación entre la conductividad del agua en la balsa y la del agua de aporte permite establecer los ciclos de concentración. Según estos factores se determina un nivel máximo admisible que sirve para definir el nivel de purga adecuado. -El control de sólidos en disolución. La pulverización del agua sobre una corriente de aire provoca continuamente el ensuciamiento de esta agua con partículas del ambiente, estas partículas se valoran mediante el grado de turbidez, este grado se mide en Unidades Nefelométricas de Formacina (UNF, también se usan las siglas en inglés NTU). El agua debe estar libre de partículas ya que son potenciales nutrientes para las bacterias. El control de estos se realizar diluyendo con agua nueva la balsa de la torre y retirando físicamente las partículas mediante filtración colocando filtros en las tomas de aire de exterior de los ventiladores. Respecto a la limpieza y desinfección realizada en la instalación se distingues tres tipos de actuaciones, primero una limpieza y desinfección de mantenimiento, otra de choque y otra en caso de brote. En las limpiezas de mantenimiento se sigue el protocolo descrito en el RD ya mencionado, y se usan biocidas autorizados como cloro, u otros. Los biocidas se aplican en forma líquida o sólida y se adicionan por dosificación en continuo. Esta dosificación se puede hacer por una bomba dosificadora temporizada, proporcional al caudal de agua de entrada al sistema o comandada por una sonda de medición de residual de biocida. No se puede la adición manual periódica directa a la balsa del biocida. En las limpiezas de choque, también se sigue el procedimiento del RD mencionado y se usa cloro como biocida u otro biocida autorizado exclusivamente para tratamiento de choque. Por último, en el caso de un brote, se debe de realizar una limpieza específica que viene definida en el RD mencionado donde, está solo autorizado a usarse el cloro como biocida.  La evaluación del riesgo de la instalación se debe de realizar mínimo una vez al año, cuando se pone en marcha la instalación, tras una modificación o reparación, cuando lo aconseje una revisión general o determine la autoridad sanitaria y debe realizarse por personal cualificado. En el RD del 2022 se incide en la importancia de la planificación de un programa de muestreo que contemple los puntos críticos de las instalaciones, insistiendo principalmente en realizar las tomas de muestra adecuadamente. El muestreo debe ser representativo y debe incluir todas las partes de la instalación, definiendo el número de puntos a muestrear. El plan de muestreo debe incluir parámetros microbiológicos, físicos, químicos y fisicoquímicos, los métodos de muestreo y las condiciones de transporte y conservación de las muestras, así como los métodos de ensayo y evaluación de resultados. El muestreo en los sistemas de agua sanitaria se realiza recogiendo una muestra del agua como mínimo de los siguientes puntos de la instalación indicados en el RD del 2022, en el depósito, en el acumulador, en el circuito de retorno y en cada uno de los puntos terminales identificados como puntos de toma de muestras. En función del objetivo del muestreo, en los puntos terminales la muestra puede recogerse sin dejar correr el agua, el objetico aquí es muestrear el terminal y la tubería, y representa la colonización de este punto, y otra manera es dejando correr el agua. Se recomienda realizar la recogida de la muestra de esta segunda manera en el primer tramo en puntos terminales, en puntos terminales alejados y de poco uso, en tramos de baja circulación, en puntos terminales de agua mezclada con temperaturas por debajo de 50 ºC. Con respecto a las torres de refrigeración y condensadores evaporativos, según el Real Decreto del 2022, las muestras se deben de tomar en al menos uno de los siguientes puntos por orden de preferencia: en la tubería del circuito de retorno, en el depósito o la balsa de agua, en el punto más alejado del aporte, así como de la inyección de biocida. En los sistemas de agua climatizada o con temperaturas similares a las climatizadas (≥ 24ºC) y aerosolización con/sin agitación y con/sin recirculación a través de chorros de alta velocidad o la inyección de aire, el RD del 2022 establece que los puntos de toma de muestra de agua serán representativos de cada vaso y del circuito, además de un número de muestras representativas de los elementos de aerosolización. Al menos en cada muestreo se debe de recoger agua de estos dos puntos de la instalación. Estos puntos de toma de muestra se realizarán preferentemente en el depósito de compensación, en el retorno, punto más lejano o en la zona de recirculación, en el propio vaso alejado del aporte de agua. La frecuencia de muestreo dependerá del tipo de instalación. De forma general, debe realizarse una determinación de Legionella en muestras de puntos representativos de la instalación como mínimo 15-30 días después de la realización del tratamiento de limpieza y desinfección. Con respecto a la toma de la muestra para análisis microbiológicos, se toma en un envase con un neutralizante y para tomar la muestra de biocapa mediante raspado con torunda, en este caso el envase es sin neutralizante y está destinado a ensayos fisicoquímicos. El procedimiento de muestreo en sistemas de agua sanitaria es el siguiente, en el caso de acumuladores, la muestra se debe tomar en la parte baja del mismo, y registrar la temperatura. En los depósitos de agua fría de consumo humano, la muestra debe de recogerse en alguno de estos puntos: en la parte baja del depósito a través de la purga, en el interior del depósito o en el grifo a la salida del depósito. En los grifos y duchas, primero debe de ponerse en posición máxima de agua caliente o fría según se requiera muestrear, y en función de si se recoge con o sin purga se procede de la siguiente manera: -Si se recoge sin purga, el grifo debe abrirse y recoger de forma inmediata el volumen necesario y medir la temperatura -Si se recoge con purga se debe dejar correr el grifo por lo menos 2 minutos, después tomar el volumen de muestra requerido y medir la temperatura. En ambas situaciones primero se recoge el volumen de muestra necesario para los análisis microbiológicos, y después se recoge para los análisis fisicoquímicos El procedimiento de muestreo en las torres de refrigeración y condensadores evaporativos se lleva a cabo de la misma manera, en primer lugar, se recoge el volumen necesario para el ensayo microbiológico, medir la temperatura y recoger volumen para análisis fisicoquímicos. Para el análisis de Legionella se sigue el método de cultivo que describe la norma UNE-EN ISO 11731:2017 de calidad del agua.  Existen situaciones en donde se puede usar otro método de análisis, como son en investigación de riesgo para la salud de la población, investigación de la aparición de casos, investigación de la aparición de un brote., cuando la autoridad sanitaria lo considere o cuando los equipos presentan un funcionamiento irregular o múltiples paradas. Estos métodos alternativos tienen una certificación nacional o internacional de validez según establece la norma UNE-EN ISO 16140-2:2016 Protocolo para la validación de métodos alternativos frente a los métodos de referencia. El riesgo asociado a cada instalación concreta es variable y depende de múltiples factores específicos relacionados con la ubicación, tipo de uso, estado, etc. La evaluación del riesgo de la instalación se realizará una vez al año mínimo, cuando se ponga en marcha por primera vez o tras alguna modificación estructural o cuando la autoridad sanitaria lo aconseje. Existen tablas con factores asociados a las características de las instalaciones y con los criterios para establecer el factor de riesgo bajo, medio o alto y las funciones correctoras que deben de llevarse a cabo en cada caso. La valoración en conjunto de estos factores se determina con el llamado índice global, que se calcula para cada grupo de factores y establece un valor global ponderado. Este índice permite la visión conjunta de todos los factores y así ver si se necesita implementar acciones correctoras. Si el índice global es menor a 60, se debe cumplir con los requisitos del RD mencionado, si el índice global es mayor de 60 pero menor de 80 se lleva a cabo medidas correctoras y si el índice global es mayor a 80, se deben tomar de forma inmediata medidas correctoras, que incluirán, entre otras, parar la instalación hasta bajar el índice.

Tema 16. Seguridad química de los alimentos: aditivos alimentarios, plaguicidas, residuos de fármacos veterinarios, biotoxinas, micotoxinas, contaminantes de procesos y contaminantes ambientales.

Las sustancias químicas tienen un papel importante en producción de alimentos, mejora del rendimiento de cosechas y mejora en producción ganadera. Sin embargo, el uso de estas sustancias implica su presencia en los alimentos y pueden llegar a ser un riesgo potencial para el consumidor. La presencia de sustancias químicas en los alimentos puede deberse por varios factores, por contaminación medioambiental a través del agua, aire o suelo, mediante la adicción intencionada de sustancias como plaguicidas, medicamentos veterinarios, por presencia de sustancias tóxicas presentes en alimentos como las micotoxinas, o por uso de aditivos, aromas, coadyudantes tecnológicos durante los procesos de fabricación de los alimentos. De esta forma, el Codex Alimentarius ha establecido normas cuantitativas para establecer niveles tolerables de los distintos peligros químicos. La Autoridad Europea de Seguridad Alimentaria (EFSA) es el organismo responsable de evaluar el riesgo de la Unión Europea, emitiendo opiniones científicas sobre factores de peligro identificados, creando una base de datos sobre los riesgos químicos. Por parte de la Comisión Europea y los Estados miembros se debe realizar una adecuada gestión del riesgo, que implica la elaboración de legislación al respecto. Aditivos Los aditivos alimentarios son sustancias añadidas de forma intencionada a alimentos y bebidas para mejorar o mantener su seguridad, aspectos, textura, sabor, etc. La Organización Mundial de la salud los define como sustancias que son añadidas a los alimentos con el objetivo de mantener o mejorar algunas de sus cualidades. Algunas de las sustancias que se usan como aditivos son generadas de forma natural como es la pectina de las frutas, la lecitina, vitamina C o licopeno, entre otros. Todos los aditivos se identifican siempre con la letra E seguida de un número. Se encuentran autorizados más de 300 sustancias para su uso como aditivo que se recogen en listas que están en contina actualización. Todos los aditivos presentes en esta lista cumplen con una serie de especificaciones legales. Se puede acceder a la lista a través de la base de datos de aditivos alimentarios de la Comisión Europea. Los aditivos se clasifican según la función para la cual se usan en varios grupos. La evaluación de los aditivos es importante ya que pueden ocntener químicos tóxicos si se consumen en cantidades determinadas. Algunos de los aditivos con mayores efectos nocivos para la salud son los colorantes artificiales (ej carmoisina E-122), edulcorantes artificiales (ej: aspartamo E-951), bromato de potasio (E-924ª), un estabilizador de gluten presente en masas y panes, glutamato monosódico (E-621), un potenciador de sabor, nitrato de sodio (E-251), evita proliferación hongos y bacterias, sulfito de sodio (E-221), ayuda a conservar los alimentos evitando también la proliferancion de microorganismos y el butilhidroxianisol, el BHA, (E-320) que previene la oxidación de las grasas. Residuos de medicamentos veterinarios Se trata de sustancias farmacológicamente activas, principios activos, excipientes o productos de degradación y sus metabolitos que permanezcan en los productos alimenticios obtenidos a partir de animales a los que se les hubiese administrado el medicamento veterinario de que se trate. Estos residuos son l cantidad de sustancia activa que pueden encontrarse en los alimentos, considerando residuo tanto al medicamento administrado como a las sustancias que se puedan generar en el organismo tras su administración, y que por tanto pueda ser ingerido por parte del ser humano. El reglamento 470/2009 de la UE fija los límites máximos de estos residuos de estas sustancias en alimentos de origen animal. Es importante respetar el tiempo de espera entre la última dosis administrada al animal y su sacrifico para garantizar un límite inferior a los máximos establecidos. Respecto a la contaminación medioambiental/ industrial, todos los contaminantes de origen industrial tienen varias características en común que determina su peligrosidad: son sustancias muy persistentes en el ambiente, con tiempos de vida media altos, son difíciles de metabolizar y eliminar por los seres vivos, por lo que surge la bioacumulación a lo largo de la cadena trófica, su toxicidad por unidad de peso aumenta al ascender la escala filogenética y además pueden sufrir procesos de biotransformación en el medio y convertirse en compuesto aún más tóxicos. Plaguicidas Un gran número de plaguicidas y de sus productos de metabolización pueden tener efectos nocivos para los consumidores de productos vegetales y animales, por ello la aplicación de estos debe ser lo más bja posible y el intervalo entre la aplicación y el consumo el más amplio posible para que el residuo se reduzca al mínimo. Para proteger a los consumidores se establecen Límites Máximos de Residuos (LMR), que se definen como la concentración máxima de residuos expresada en mg o kg para que se permita legalmente su uso en los productos alimenticios de consumo humano y de piensos. Los límites máximos de residuos se basan en los datos de buenas practica agrícola y tienen como objetivo lograr que los alimentos derivados de los productos básicos sean toxicológicamente aceptables. Estos límites no son por tanto límites toxicológicos, sino limites toxicológicamente aceptables. Esto es así porque su superación no implica la existencia de un riesgo para la salud, su cumplimiento asegura que no producen efectos tóxicos. Estos límites son establecidos en base a las conclusiones de los informes elaborados por un Estado miembro de la UE. El informe junto con los LMR pasa a mano de la EFSA que emite posteriormente un dictamen. La validez de estos LMR se debe revisar al menos cada 10 años. Nitratos Son compuestos presentes en el medio ambiente de forma natural como consecuencia del ciclo del nitrógeno, están distribuidos por varios alimentos, aunque la principal fuente de exposición humana es a través del consumo de verduras y hortalizas y en menor medida de agua de consumo. Algunas especies vegetales acumulan gran cantidad de nitratos es sus partes verdes, por ejemplo, la lechuga y espinacas. Además, los nitratos son usados como fertilizantes y en la elaboración de embutidos como aditivo autorizado. El problema de los nitratos viene dado por su conversión a nitritos mediante la reducción realizada por algunas bacterias ya sea en los alimentos o en el propio organismo. Los nitritos en sangre oxidan el hierro de la hemoglobina produciendo metahemoglobina, que es incapaz de transportar el oxígeno. Además, los nitratos reaccionan con los aminoácidos de los alimentos en el estómago, produciéndose nitrosaminas y nitrosamidas, que son sustancias con efectos cancerígenos. Las condiciones climáticas también influyen bastante en los niveles de nitrato en las hortalizas, por ello se han establecido contenidos máximos en función de la estación del año. A nivel comunitario los niveles máximos están regulados en el reglamento 1881/2006, mientras que los métodos de análisis y control oficial del contenido de nitratos en alimentos se recoge en el reglamento 1882/2006. Metales pesados Los metales son elementos químicos con alta densidad y cierta toxicidad para el ser humano. Los que presentan mayor riesgo medioambiental son los metales pesados. La peligrosidad de estos es mayor debido a que no son biodegradables, pueden permanecer cientos de años en el ambiente contaminando el suelo y acumulándose en plantas u tejidos orgánicos, su concentración en los seres vivos aumenta a lo largo de la cadena trófica por bioacumulación. Además, también son componentes de la corteza terrestre- En general la presencia de estos contaminantes de debe a efluyentes industriales que afectan a las aguas superficies de las zonas terrestres y después a las aguas marinas, es por ello que los productos de pesca son los más susceptibles de contener este tipo de contaminantes. De todos los metales pesados los más destacados a nivel toxicológico son el plomo, mercurio y cadmio. Aunque, las intoxicaciones y sus efectos varían en función del metal, se pueden generalizar dos aspectos comunes en ellos, su capacidad de inhibir los sistemas enzimáticos, y de acumularse en tejidos y órganos. E este aspecto cabe destacar el R (CE) 1881/06 a través del cual se fijan los límites máximos admisibles en diferentes productos alimenticios de plomo, cadmio, mercurio, estaño y arsénico inorgánico y a través de R(CE) 333/2007 en el cual se describe la toma de muestras y procedimientos de análisis. -Plomo: es uno de los cuatro metales que tienen un mayor efecto dañino sobre la salud humana. Este metal puede entrar en el cuerpo humano a través de la cadena alimentaria y del aire. Alimentos como fruta, carne, mariscos, refrescos, vegetales, pueden contener cantidad importante de plomo. Este metal bloquea enzimas que participan en la síntesis de la hemoglobina, generando una enfermedad crónica llamada saturnismo. El plomo es también neurotóxico cuando está en la sangre ocasionando daños neurológicos irreversibles. Se ha establecido una ingesta semanal tolerable de 25 microgramos por kilogramo. -Cadmio: metal que forma parte de la corteza terrestre y se encuentra normalmente asociado a minerales de cinc, cobre o plomo. Su presencia en el medio es de origen natural pero su nivel puede incrementarse por la acción humana debido a la minería principalmente. El cadmio puede pasar del suelo a los vegetales. La absorción de este metal en el aparato digestivo es baja, pero se acumula en el organismo, estando su vida media entre 20-30 años. Este metal actúa principalmente en el riñón y en el hígado. Es un metal con efectos tóxicos, siendo la disfunción renal el principal efecto por una exposición prolongada. El reglamento 1881/2006 fija los contenidos para este metal en varios alimentos. -Mercurio: este metal no se encuentra de forma natural en los alimentos. Las principales fuentes de contaminación son industrias químicas que vierten el mercurio inorgánico a ríos y sistemas costeros, a través de las bacterias en un medio rico en materia orgánica, se transforma en mercurio orgánico, que es más liposoluble y fácil de que se acumule, por tanto, más tóxico para el ser humano. Este metal puede provocar alteraciones en el desarrollo normal del cerebro de los lactantes y alteraciones neurológicas en adultos. Se ha aprobado una ingesta semanal tolerable de 1.6 microgramos por kilogramos. Las especies con alto contenido en mercurio (pez espada, emperador, atún rojo, tiburón y lucio) tienen recomendaciones de la Agencia Española de Seguridad Alimentaria para su consumo. -Estaño inorgánico: puede encontrarse en los botes de conservas y lastas de bebidas. Para alimentos en general se fija un límite máximo de 200mg/kg y para bebidas enlatadas en 100mg/kg en adultos. La absorción de este metal en el tracto gastrointestinal es mínima, es por ello por lo que tiene baja toxicidad en hombre y animales -Arsénico inorgánico: presente en la naturaleza de forma natural o antropogénica y se presenta en diferentes formas químicas, orgánicas e inorgánicas. Las formas inorgánicas son más toxicas. El mecanismo de toxicidad de este metal se debe a la inhibición de la actividad enzimática, inhibe la fosforilación oxidativa, la respiración celular y produce un fallo multiorgánico. El grado de toxicidad varía según el derivado del metal en cuestión, la arsina es el más toxico y letal a dosis mayores de 150ppm, le sigue el arsénico trivalente con una dosis inferior a 5 ppm y por último el arsénico pentavalente con dosis de 5 a 50 ppm. Dioxinas y PCBs Las dioxinas y los bifenilos policlorados (PBC) son sustancias químicas que se encuentran en el medio y se acumulan en la cadena alimentaria. Ambas sustancias se encuentran en concentraciones bajas en muchos alimentos, y se ha demostrado que una exposición prolongada a ellas causa efectos adversos en el sistema nervioso, inmune y endocrino. Además, también pueden ser causantes de cáncer. El término dioxinas abarca un grupo grande de policlorodibenzeno-p-dioxinas (PCDD) y de policlorodibenzofuranos (PCBs). Estos últimos se clasifican a su vez en dos grupos, los conocidos por PCBs similares a las dioxinas por sus propiedades toxicológicas similares a las dioxinas y los PCBs no similares a dioxinas con un perfil toxicológico diferente. Para estudiar la toxicidad de estas sustancias se introduce el concepto de factores de equivalencia toxica (FET). El R 1881/06 establece contenidos máximos de tres categorías de PCBs en diversos productos de origen animal. Perclorato Se trata de otro contaminante ambiental derivado del uso de los abonos nitrogenados y fabricación de perclorato de amonio. El agua, el suelo y por ello los abonos son fuentes de contaminación de los alimentos por esta sustancia. Se encuentra mayoritariamente en las hortalizas y algunos vegetales sobre todo en las cultivadas en zona cubierta o invernaderos. Micotoxinas Dentro de los contaminantes bióticos, los hongos son los más destacados, y especialmente por los productos de su metabolismo, las micotoxinas, las cuales pueden afectar a animales, vegetales y hombres mediante su consumo. Algunas de las micotoxinas más destacables son:
  • Aflatoxinas, se han identificado 18 tipos, siendo las de tipo B1 y M1 las más toxicológicos. Son producidas por las especies de Aspergillus y Penincillum, hongos que forman parte de la flora espontánea del suelo y del aire, asociados a productos vegetales y animales usados para elaborar alimentos como cereales, cacahuetes, carne, pescado, etc. Necesitan temperaturas de entre 25-30ºC y humedad de 88-95%. El efecto de estas toxinas está asociado con una capacidad mutagénica y oncogénica para el hombre y animales.
  • Ocratoxina producida por diversas especies de Asperguillus y Penincilum, se han identificado hasta 7 variedades, de entre las cuales el A es el más trascendente, detectándose en cereales, cacahuetes, cítricos, uvas pasas, tabaco, legumbres y café.
  • Citrinina generada por tipos de Aspergillus y Presentan gran toxicidad renal. Se han encontrado niveles altos de esta toxina en complementos alimenticios a base de arroz fermentado con levadura roja.
  • Patulina, llamada también micocina C o clavicina, producida por Asperguillus, Penicillum y Byssochamys, colonizadores de frutas, zumos, mantequillas, carnes. Tienen efectos mutagénicos.
  • Toxinas de Fusarium, generada por el hongo Fusarium graminerarum, suelen estar presentes en cereales cultivados enregiones templadas de america, Europa y Asia
Los tratamientos descontaminantes que se usan al respecto son, tratamientos físicos, bioquímicos/biológicos y químicos. Respecto a los físicos, se trata de aplicar calor, por encima de los 300ºC, puede hacerse mediante luz UV o irradiación. Como tratamiento biológico o bioquímico se usan otras especies de hongos que pueden inhibir la producción de estas especies productoras de micotoxinas mediante competencia ecología. Por ejemplo A.candidus inhibe la producción de aflatoxinas por A. flavus. Sin embargo, son los tratamientos químicos los más usados por su fácil aplicación y efectividad, se usa amoniaco, agua oxigenada, formaldehido, hidróxido cálcico, entre otros. Con respecto a la normativa en este ámbito destacan, el reglamento 401/06 por el cual se establecen métodos oficiales de análisis y toma de muestras para detección de micotoxinas en alimentos, y el reglamento 1881/2006 que señala limites de aflatoxinas en los distintos alimentos. Biotoxinas Se trata de sustancias toxicas generadas por especies de diatomeas y dinoflagelados, estas sustancias se acumulan en tejidos de peces y moluscos, los cuales, cuando son consumidos por el hombre provocan una serie de síntomas como trastornos digestivos, neurológicos y cardiovasculares. Dentro de este grupo hay una amplia gama de sustancias con diversos mecanismos de acción. Los factores que favorecen su aparición es el uso de aguas de costa en acuicultura, la transferencia de mariscos de una zona a otra, presencia de metales traza en suelo, lluvia ácida, entre otras.

TEMA 17. MEDIOS DE CULTIVO. CONCEPTOS GENERALES. TIPOS DE MEDIOS, PREPARACIÓN, EVALUACIÓN Y CONTROLES DE CALIDAD

Medios de cultivo. Conceptos generales Un medio de cultivo es un conjunto de nutrientes, factores de crecimiento y otros componentes que crean las condiciones que se necesitan para el desarrollo de los microorganismos. No existe un medio de cultivo universal adecuado para todos los microorganismos, pero, en cualquier caso, debe contener los componentes necesarios para el crecimiento de estos. Los constituyentes habituales en los medios de cultivo son: -Agar, usado como gelificante para dar solidez a los medios de cultivo. Su componente principal es un polisacárido no puro extraído de algas marinas. Un gel de agar al 1-2% en agua se licua hacia los 100ºC y se gelifica alrededor de los 40ºC. El agar no es empleado como nutriente, con excepción de algunos microorganismos marinos. -Extractos, que se preparan a partir de órganos o tejidos de animales o vegetales extraídos con agua y calor para se concentrados hasta la forma de pasta o polvo. -Peptonas, mezclas complejas de componentes orgánicos nitrogenados y sales minerales que se obtienen por digestión enzimática o química de proteínas animales o vegetales. Son ricas en péptidos y aminoácidos, pero deficitarias en algunas vitaminas y sales minerales- -Fluidos corporales, sustancias que neutralizan a los inhibidores del crecimiento de algunas bacterias. Se usa sangre desfibrilada, plasma o suero sanguíneo. La sangre, al no poder ser esterilizada debe de obtener directamente del animal sano en condiciones asépticas. -Sistemas amortiguadores, mantienen el pH del medio dentro del rango óptimo del crecimiento bacteriano. -Indicadores de pH o ácido-base, que se añaden con el objetivo de detectar las variaciones del pH después de un proceso de incubación. -Agentes reductores, como son la cisteína o el tioglicolato que se añaden para el desarrollo de gérmenes microaerófilos o anaerobios ya que eliminan o minimizan la presencia de oxígeno en el medio. -Agentes selectivos, como son las sales biliares, violeta cristal, telurito potásico, antibióticos, etc; transforman un medio de cultivo general en uno más selectivo. Dentro de los componentes del medio de cultivo, se pueden distinguir aquellos que son fuentes energéticas para los microorganismos, y los que no son fuentes energéticas. De las fuentes de energía, siempre debe haber al menos una fuente de carbono y una fuente de nitrógeno. Las fuentes de carbono son sustancias orgánicas, y prácticamente la mayoría son azúcares en forma de monosacáridos o disacáridos (glucosa, lactosa, maltosa, etc..). Por otro lado, la fuente de nitrógeno, que es más energética que la de carbono, la forman las proteínas, péptidos o aminoácidos, se presentan en forma de peptonas, extractos de carne, extractos de levadura, gelatina, caseína, etc. O también, otra fuente de nitrógeno son los nitratos, nitrógenos orgánicos, amoníaco, sales de amonio, etc. Respecto a los requerimientos no energéticos, algunos de ellos son: fuentes de azufre, en forma de sulfatos o tiosulfatos, fuentes de fósforo, en forma de fosfatos, fuentes de agua, iones metálicos como el sodio, hierro, calcio, magnesio, potasio, esenciales para el crecimiento microbiano, factores de crecimiento (componentes que no pueden fabricar por sí solos algunas bacterias y suelen ser algún aminoácidos), factores de arranque (sustancias que permiten a la bacteria salir de su fase de latencia y comenzar la fase de crecimiento exponencial, y suelen ser fuentes de energía como la glucosa o factores no energéticos como algún ion; factores inhibidores, componentes que van a inhibir el crecimiento de algún tipo de microorganismo por el bloqueo de sus procesos metabólicos, por ejemplo, la azida sódica inhibe el crecimiento de las bacterias Gramnegativas y factores solidificantes como el agar o la gelatina. Tipos de medios de cultivo Los medios de cultivo se pueden clasificar según su origen, según estado físico, según su uso o según su presentación. Según el origen, se encuentran: -Empíricos o naturales, origen natural y de composición desconocida -Sintéticos, de composición conocida. Son los más usados -Semisintéticos, parte de la composición son extractos naturales y parte constituyentes sintéticos -Complejos, los primeros en usarse en bacteriología, pero actualmente su uso está restringido en parasitología y virología. Se preparan de forma compleja a partir de tejidos animales y a veces de vegetales. Según el estado físico: -Líquidos o caldos, su componente principal es el agua, no contienen agar -Sólidos, contienen agar o gelatina. Suele usarse más el agar ya que la gelatina funde a 24ºC y existen muchas bacterias gelatinasas-positivas que la hidrolizan. La proporción de agar está siempre por encima del 1,5% o 15g/L. -Semisólidos, contienen menos de un 0,5% de agar o 5g/L. Suelen usarse para ver la movilidad de los gérmenes y para la realización de pruebas bioquímicas. Según su uso: -Generales o no selectivos, son medios que permiten el crecimiento de una gran variedad de microorganismos. De uso general. Por ejemplo, el caldo nutritivo o el agar de recuento en placa (PCA). -De enriquecimiento, favorecen el crecimiento de un determinado tipo de microorganismos sin llegar a inhibir el crecimiento del resto. Se obtienen cultivos mixtos por lo que es posible, si están superficiales, el aislaminto de las bacterias requeridas para su resiembra en este tipo de medios. Son medios líquidos, y por tanto no se pueden obtener cultivos puros. Por ejemplo, clado tetrationato de Muller-Kauffman y selenito verde brillante sulfamida para el enriquecimiento de Salmonella. -Electivos, medios que satisfacen las necesidades nutritivas de microorganismo con características poco comunes, por tanto, el resto de los microorganismos no crecen o lo hacen muy lentamente. Por ejemplo, agar lisina para aislar levaduras salvajes. -Selectivos, permiten el crecimiento de un tipo de microorganismos inhibiendo el desarrollo de los demás. Suele ser un medio básico que ha sido alterado con algún agente inhibidor, limitándose asi el desarrollo de bactericas no interesantes. Los agentes inhibidores que pueden usarse son antibióticos, alcalís, colorantes, ácidos, entre otros. Por ejemplo, el colorante violeta cristal o el antibiótico penincilina evitan el crecimiento de las Grampositivas favoreciendo el crecimiento de las Gramnegativas, o el Agar McConkey con sales biliares como agente inhibidor, inhiben el crecimiento de casi todas las bacterias, pero en menor grado las coliformes. -Diferenciales, medios en los que se pone de relieve propiedades de un determinado microorganismo, generalmente formando colonias reconocibles. Por ejemplo, el agar McConkey es un medio donde los coliformes forman colonias rojas y otoras bacterias intestinales como Salmonella forman colonias incoloras. -De transporte o mantenimiento, se usan en la recogida, transporte o conservación de muestras microbiológicas. Son medios no nutritivos que inhiben las reacciones enzimáticas autodestructivas y además son medios donde no se debe de potenciar el crecimiento excesivo de los microorganismos. -Cromogénicos, medios en cuya composición tienen una sustancia incolora, que gracias a una enzima específica de cada microorganismo de degrada liberando una sustancia con color intenso y específico que permite identificar al microorganismo a simple vista. Según la presentación: -Liofilizados o deshidratados, se presentan tal cual y en el laboratorio se hidratan con agua en condiciones asépticas -Preparados, elaborados por casas comerciades presentando un control de calidad y características específicas a cada tipo de cultivo. -Sólidos en placa Petri, se pueden visualizar colonias. Es de los medios donde mejor se pueden aislar los microorganismos que crecen en él. -Líquidos en tubo, no permiten visualizar colonias, pero tienen muchas aplicaciones como para el aumento de concentración del microorganismo inoculado o en ciertas pruebas bioquímicas -Semisólidos en tubo, se siembran por picadura y corresponden a un término medio entre líquidos y sólidos. Suelen usarse en ciertas pruebas bioquímicas. -De doble fase en frasco, frascos formados por una fase sólida y otra líquida. Suele usarse para la determinación rápida de microorganismos en sangre Preparación de medios de cultivo De forma general, la preparación de un medio de cultivo se reduce a pesar en función de la cantidad deseada, y disolver en agua destilada. Las sustancias termolábiles se esterilizan por filtración y se añaden al resto de los componentes previamente esterilizados en autoclave, Antes de la esterilización, los medios líquidos en caldo se distribuyen en los recipientes adecuados, tubos o matraces, y en ningún caso la altura del liquido en el recipiente debe de exceder de un tercio del volumen total de este. Si en cambio es un medio sólido, se procede a fundir el agar al baño maría antes de la esterilización. Los recipientes usados nunca deben estar cerrados de forma hermética. Una vez fundido, se distribuye caliente en tubos o matraces, se tapa y se esteriliza. La esterilización en autoclave es suficiente a 121ºC durante 15 minutos. Finalizada la esterilización, los medios líquidos se dejan enfriar a temperatura ambiente y los medios sólidos contenidos en tubos deben inclinarse para que cuando solidifique adopten forma de agar inclinado. (denominado “slant”). Se preparan ahora las placas Petri, vertiendo el medio aún fundido y estéril dentro de ellas en un ambiente aséptico y previamente enfriado a la temperatura de vertido (45-55ºC como máximo para evitar exceso de condensación). Una vez añadido 15-20mL, las placas se remueven circularmente, se eliminan posibles burbujas y se dejan solidificar por enfriamiento. Posteriormente, se procede a su secado, que puede hacerse de forma rápida con las placas abiertas e invertidas a 30-40ºC durante 2-3 horas o en estufa a baja temperatura con placas cerradas e invertidas durante 2-3 días. Este último procedimiento es preferible puesto que así además de secar las placas, se detecta si están contaminadas. Los caldos y los medios sólidos de cultivo pueden conservarse una vez esterilizados a temperatura ambiente, pero es preferible conservarlos a 4ºC en refrigerador. Cuando el medio de cultivo tiene un pH menor a 5 se debe de trabajar con mucho cuidado ya que el agar se hidroliza, por tanto, en este caso se recomienda no refundir y en caso de absoluta necesidad añadir más agar-agar base. En ocasiones un medio debe de contener una sustancia termolábil por lo que el proceso de esterilización con ellas se destruiría, es por esto que se prepara para su esterilización lo que se denomina “base” para una vez esterilizado y atemperado, añadirle de forma aséptica dicho componente, esterilizado por un medio no destructivo, en la proporción adecuada. Así, por ejemplo, cuando se prepara agar Baird-Parker se suspenden los ingredientes en ele agua destilada agitando 15 minutos. Calentamos agitando frecuentemente y se deja hervir 1 minuto para disolver por completo. Se esteriliza en autoclave a 121ºC 15 minutos. Se enfría entre 45-50ºC y se agrega de forma aséptica 10 mL de solución de telurito de potasio al 1% esterilizado por filtración y 50mL de una emulsión de yema de huevo. Se mezcla suavemente para colocar 20mL de medio por placa y se deja solidificar, Las placas invertidas y cerradas se secan a 37ºC durante 48horas. Poniendo de ejemplo la preparación del medio Plate Count Agar (PCA), utilizado para el recuento de bacterias mesófilas aerobias, lleva en su composición triptona (5g), extracto de levadura (2,5g), glucosa (1g) y agar (10,5g); su preparación sería la siguiente: Se realiza la disolución de 19g de medio en 1 litro de agua destilada, se calienta hasta ebullición, agitando para una buena disolución y se reparte en tubos o frascos para llevar a la autoclave a 121ºC unos 15 minutos. El color final del medio es blanco-crema. Aunque las casas comerciales ya realizan controles de calidad del medio, es prudente que se repita en el laboratorio, especialmente si han pasado más de tres meses sin usarse. Control de medios preparados De forma general, el cuatro por ciento de unidades de todos los lotes que se preparen se controlan en una estufa durante 5-7 días a una temperatura de 37ºC. Durante este tiempo se debe de verificar el color del medio, la gelificación, los precipitados atípicos, etc, para de esta manera poder desechar los lotes en lo que se observen variaciones atípicas. También hay que verificar la capacidad del medio para respaldar el desarrollo de los microorganismos con un inóculo en suspensión diluida. El inóculo que se use debe ser de la especie más exigente que se puede esperar que contenga la muestra que se va a controlar. Además de todo esto, deben tenerse en cuenta otras dos cuestiones: 1. La caducidad del medio preparado, la cual varía en función de su presentación. De forma general las placas de Petri y RODAC duran dos meses y medio, los tubos, viales y laminocultivos duran seis meses y los frascos duran ocho meses. 2. Almacenamiento. Los medios recién preparados deben de almacenarse en cámaras frías a temperatura entre 4-8ºC. Las placas Petri deben almacenarse en bolsas de plástico invertidas para evitar la evaporación excesiva de la humedad del medio, debe ser una bolsa microporosa para evitar una excesiva condensación de agua en la misma.

Tema 18. Sistemas de desinfección y esterilización en microbiología. Métodos para su control. Sistemas de control microbiológico ambiental y de superficies.

El trabajo en un laboratorio microbiológico precisa de una limpieza exhaustiva debido a que el material se puede contaminar con mayor facilidad. En microbiología la destrucción (eliminación) o inhibición (evitar el crecimiento) de los gérmenes es muy importante para prevenir la infección en hombres, animales y/o plantas por contagio; para evitar la descomposición de alimentos y otros productos, eliminar las interferencias de microorganismos contaminantes en procesos que necesiten de cultivos puros y para prevenir la contaminación de materiales y equipos usados en el análisis. La desinfección es la muerte o eliminación de los gérmenes capaces de causar infecciones, se trata de eliminar determinados microorganismos patógenos en ciertas situaciones. El desinfectante ideal debería de cumplir con varios requisitos; entre los cuales; ser muy efectivo frente a una amplia variedad de microorganismos, ser efectivo a concentraciones bajas, que no sea tóxico para animales ni plantas, rápido, de fácil aplicación, que no manche, no sea ofensivo para el gusto ni el olfato, que se pueda almacenar de forma estable, que sea buen reductor de la tensión superficial, barato y que no dé un estado de microbiostasis que genere un falso sentido de seguridad. Debido a que ningún desinfectante posee todas las propiedades, se suele medir su actividad por varias pruebas: -Prueba de Rideal-Walker, en la que se compara la actividad del desinfectante con el fenol que se toma como patrón, y el resultado obtenido se conoce como coeficiente fenólico. Solo se aplica a compuestos similares al fenol. -Prueba de la suspensión, que consiste en añadir un numero dado de bacterias en suspensión a una solución desinfectante para determinar el numero de bacterias supervivientes después de ciertos intervalos de tiempo. -Prueba de la capacidad, que permite obtener datos en relación con la capacidad que tiene una dilución de uso de un desinfectante para permanecer en contacto con bacterias sin que su actividad desinfectante se vea disminuida. Por otra parte, la esterilización de una sustancia u objeto implica mantenerlo libre de toda clase de vida. Se trata de la destrucción de todo agente microbiológico contenido en un producto, tanto en forma vegetativa como en forma de resistencia. En este ámbito por tanto se distinguen los agentes microbiostáticos, que actúan inhibiendo a las bacterias, virus u hongos de forma reversible al cesar su acción, pero no los destruyen, mientras que por otro lado están los agentes microbicidas, que si matan a los microorganismos. Algunos agentes microbicidas y microbiostáticos se clasifican en función de su acción; entre estos están la destrucción por calor seco o húmedo, por agentes químicos, por radiación o por agentes mecánicos; por separación mediante filtración o ultra centrifugación; y por inhibición mediante desecación, liofilización, presión osmótica elevada, productos químicos o bajas temperaturas. Con respecto a la esterilización por calor seco se pueden emplear varias técnicas como son, por ejemplo, el flameado al rojo, usando un mechero tipo Bunsen. Se suele usar para esterilizar asas, o instrumentos metálicos resistentes al fuego y usados para sembrar. También puede realizarse por flameado sin rojo, en este caso para materiales que no pueden llevarse al rojo vivo como es el caso de espátulas y escalpelos. Este método no garantiza la esterilización completa por lo que se debe de reiterar el tratamiento. Puede usarse también el horno de aire caliente o horno Pasteur para material de vidrio seco como tubos de ensayo, placas de Petri, matraces, pipetas, etc. Suele usarse a unos 160ºC durante al menos dos horas. Otra técnica es usando el esterilizador de sal o perlas de vidrio, donde los instrumentos se introducen en un recipiente con sal o perlas de vidrio a temperatura de unos 218ºC durante diez segundos. En el caso de la esterilización por calor húmedo, los métodos son más efectivos que en la esterilización por calor seco. Los más usados son, el baño de agua hirviendo, donde se usa agua destilada para por ejemplo eliminar bacterias no formadoras de esporas; el esterilizador Koch de vapor, que es un generador de vapor a presión atmosférica y a temperatura próxima a 100ºC. Se usa para aquellos medios que no resisten temperaturas altas como son los azúcares, la leche o gelatinas. El vapor fluente se puede usar mediante una sola exposición durante 90 minutos o mediante calentamiento intermitente durante tres días seguidos 30 minutos; y el coagulador, un sistema usado para la preparación de medios como el suero de Loeffler donde el medio se distribuye en tubos inclinados y la temperatura aumenta hasta los 85ºC y manteniéndose así dos horas. Sin embargo, de todos los métodos de esterilización por calor húmedo, el más usado y eficaz para la esterilización de medios de cultivo y materiales resistentes a altas temperaturas es el autoclave, en el cual la temperatura depende de la presión de vapor. Normalmente se usa a 121ºC durante 15-30 minutos en vapor puro saturado a 1,054 kg/cm2 sobre la presión atmosférica, aunque el período de tiempo necesario a la temperatura deseada depende de una serie de factores como son la carga microbiana del material, el tamaño de los envases, la naturaleza de los contaminantes y del contenido de los envases. Es importante comprobar que el autoclave quede sin aire ya que este no permite alcanzar la temperatura deseada ni la homogeneización de la misma. En la esterilización por filtración se emplea para líquidos y soluciones que resultarían alterados por el calor o cuando se necesita una fuente de aire estéril como en los fermentadores. Se usan bujías de loza (actualmente en desuso), filtros de asbesto, que son una matriz de material ordenado al azar con una gran variedad de tamaños de poro. Cuando mayor presión se use en el proceso de filtración, mayor avance de las bacterias en el filtro: y se usan también los filtros de membrana, fabricados con acetato de celulosa con gran variedad de tamaño de poro. La esterilización por radiación se emplea cuando el material es sensible al calor o para la esterilización de gran cantidad de material a la vez. Se emplea radiación UV y radiaciones ionizantes llamado radio esterilización. Con el empleo de la radiación UV se consigue una acción bactericida a longitudes de onda de 2500 a 2800 amperios. Esta desinfección se limita superficies y al aire debido a su bajo poder de penetración. Sin embargo, en la radio esterilización se usa una fuente de cobalto 60 o de cesio 137 que emite radiaciones de hasta 500000 curios con gran poder de penetración (rayos gamma) que esterilizan el material al ser capaz de ionizar los átomos y moléculas de los mismos. Con respecto a los desinfectantes químicos, se suelen usar para la desinfección de la piel, suelos, u objetos no resistentes al calor. Los más empleados son: óxido de etileno, ozono, cloro e hipocloritos, yodóforos, compuestos de amonio cuaternario, ácidos y álcalis fuertes, formol, metales pesados, entre otros. Cuando surge una contaminación de fuente desconocida, es necesario controlar los procesos de esterilización que deben ser asépticos para evitar resultados positivos falsos, para ello se aplica el siguiente control en los diferentes materiales: En los medios, una vez esterilizados se incuban a temperaturas de uso durante 48 horas dejándolos después a temperatura ambiente durante otras 48 horas antes de su uso. Si no se observa crecimiento bacteriano, se deduce una buena esterilización. Las pipetas se enjuagan en un tubo con caldo nutritivo estéril aspirando y soplando el caldo unas 10 veces. Se desechan las pipetas y el caldo se cultiva a 30ºC durante 48 horas, si no hay crecimiento en el caldo las pipetas están estériles. Las placas Patri se llenan con 10 ml de agar estéril y fundido a 45ºC para incubarlas a 30ºC durante 48 horas, si no se observa crecimiento, se deduce que estaban bien esterilizadas. Los líquidos de lavado como soluciones Ringer y otras se ponen 2 ml de líquidos en una placa añadiendo 10 ml de agar fundido a 45ºC, dejándolo solidificar. Se incuba a 30ºC durante 48 horas, si no hay crecimiento, los líquidos estaban bien esterilizados. Los frascos de muestras, tubos de cultivo y otros recipientes se llenan con 10 o 25 ml de líquido de lavado y se agita varias veces. Con 2 ml de liquido usado se realiza lo mismo que en el punto anterior. Igualmente, toda esterilización requiere como medida de seguridad uno o más controles, para ello, los métodos que se usan son métodos físicos, es decir, llevar a cabo un registro gráfico de la temperatura, presión, humedad, concentración o radiación recibida; métodos químicos, como el uso de indicadores colorimétricos que viran el color a determinadas temperaturas; o métodos biológicos o bioindicadores, usando por ejemplo esporas de Bacillus subtilis (para calor seco) y Bacillus stearothermophilus ( para el autoclave). Los sistemas de esterilización deben comprobarse al menos dos veces al año por coesterilización de al menos tres paquetes de esporas repartidas de forma homogénea en el aparato lleno del material que se va a esterilizar. Control microbiológico ambiental y de superficies Para en control microbiológico ambiental, se analiza el aire, el suelo y las superficies. Con respecto al control de superficies, es muy útil para verificar el estado de limpieza de las instalaciones de una industria alimentaria, farmacéutica, de centro sanitarios, entre otros. Los métodos generales de toma de muestra se aplican en función del tipo de superficie, extensión y localización. De forma general son usados: -Torundas o hisopos para grandes superficies o para superficies fáciles de acceder -Lavados o enjuagues para piezas de pequeño tamaño, superficies no accesibles o pequeños envases. -Impresión, en casos particulares mediante cintas adhesivas, cilindros de agar, placas de contacto, portas de impresión, entre otros. -Sistemas comerciales para los problemas más comunes. Se caracterizan por ser muy fáciles de preparar y de usar, no requieren personal especializado y tienen un coste asumible. Los sistemas más usados son: -PlacasContact Plate, más pequeñas que las Petri, sobre las que se encuentra un medio de agar solidificado y en ligero exceso para permitir el contacto con la superficie a examinar. Su uso es general, el medio que contiene es agar tripticasa soja con lecitina y polisorbato 80. Son de la casa comercial de BD BBL. Su uso es muy simple, se quita la tapa y se coloca sobre la superficie que se desee manteniendo una presión ligera unos segundos, después la placa se tapa y se incuba. -Placass Count-tact, usadas como las anteriores, pero tienen el fondo cuadriculado. Son de la casa BioMerieux y su uso se recomienda para establecer programas de control bacteriológico de las superficies de ciertas instalaciones. -Probetas Easicult, sistema de ensayo válido para fluidos industriales y enjuagues y lavados de superficies. -Placas Petrifilm, son una prueba lista para usar en la enumeración de diferentes microorganismos en superficies tanto con aristas como con curvas. Son de la casa 3M y existen varios tipos diferentes según el microorganismo a identificar. -Swab test kit, sistemas para realizar muestreos que vienen estériles y listos para usarse. Consisten en una lengüeta de plástico que lleva incorporado un filtro de membrana, para obtener el inóculo de la superficie lleva un pincel que se descarga después en el envase. Se suministra para hongos y levaduras, para coliformes totales y fecales y para aerobios totales. -Hy food test, es un laboratorio de bolsillo que se puede usar en análisis para superficies u otros usos. Es una barra cuya base está adherida al tapón de un tubo cerrado herméticamente y esterilizado el conjunto por irradiación. Cada lado de la barra tiene un medio de cultivo que puede ser presionado directamente sobre la superficie. Se venden en combinaciones diferentes, pueden ser las dos caras con el mismo medio o medios diferentes. Son de la casa HyLabs. -Desinfectest, laminocultivos de la casa Microkit para el control cuantitativo de superficies usado por inmersión de líquidos por comparación con patrón de referencia, existen diferentes según el microorganismo a identificar. -Membranas filtrantes para recipientes y depósitos grandes como tuberías o líneas de transporte Tras la evaluación del grado de contaminación de superficies se necesita tener en cuenta los límites de aceptabilidad que deben de fijarse previamente. Los sistemas comerciales tienen generalmente sus propios criterios de clasificación, por ejemplo, para las placas Contact plate, el número de colonias consideradas como aceptables depende del tipo de superficie, de donde se encuentra (zona) y de la orientación. Tabla 1. Clasificación para el recuento total de bacterias usando placas Contact Plate Número de colonias en 16cm2 Evaluación Clasificación en desarrollo microbiano 0 – Ausencia 1-9 +- Mínimo 10-20 + Ligero 20-100 ++ Moderado >100 +++ Considerable Recuento imposible +++ Considerable Para el control del aire existen varios métodos, la sedimentación en placa, la filtración, muestreo por impacto, choque en líquidos o precipitación electrostática. De todos ellos, los tres primeros son los más usados. El método más sencillo es el de sedimentación en placa, aunque los resultados son orientativos puesto que los microorganismos presentes en el aire están sujetos a corrientes, tamaño de partículas en suspensión, etc. Este método se basa en destapar las placas de cultivo en el lugar cuyo nivel de contaminación se desee examinar, durante intervalos de tiempo preestablecido para luego incubar las placas en condiciones de tiempo y temperatura más adecuada al microrganismo a estudiar. De forma general, en ambientes sin corrientes de aire se estima que el número de unidades formadoras de colonias por placa abierta en 15 minutos equivale al numero de unidades formadoras de colonia que precipitan en 0,1m2 por minuto. Con respecto al análisis por filtración se usa mediante un sistema de filtración por aspiración. Se conecta a una bomba de vacío durante un tiempo predeterminado. El aire pasa por uno o más tamices de diámetro de poro variable donde los microorganismos quedan atrapados en la superficie de un material poroso. Los filtros recogen los microorganismos por sedimentación, difusión o atracción electrostática. Los filtros se pueden llevar posteriormente sobre la placa de agar con el medio de cultivo deseado. Este sistema aporta mayor precisión de la carga microbiana del aire siempre que se conozca el caudal de aire aspirado por nuestro sistema y el tiempo de aspiración. En el método de muestreo por impacto se realiza a través de un muestreador de aire, donde el aire del ambiente es aspirado a través de una superficie perforada a una velocidad preestablecida y durante un tiempo predeterminado para ser guiado sobre una placa de tipo RODAC que contiene el medio específico para los microorganismos a investigar. Al final del muestreo la placa es quitada del sistema para su correcta incubación. Los valores obtenidos se llevan a unos índices de aceptabilidad predeterminados. Este método es el que se emplea en la NTP 299: Método Para el recuento de bacterias y hongos en aire del Instituto Nacional de Seguridad y Salud en el Trabajo del Ministerio de Trabajo y Asuntos Sociales. Con respecto al análisis por choque de fluidos el fundamento es parecido al impacto sobre sólidos y la fuerza de inercia es esencial para separar los microorganismos contenidos en el aire y que se depositen en el medio líquido. El flujo de aire puede ser de 12,5 a 20 litros por minuto. Los dispositivos usados llamados trampa liquida, hacen pasar el aire mediante un aspirador a través de líquidos que retienen a los microrganismos. Este liquido puede sembrarse en placa para determinar el número de microorganismos Por último, el análisis por precipitación electrostática se realiza con un precipitador con una fila de alambres finos seguidos por pilas de placas planas de metal. La corriente de aire pasa a través de los espacios entre los alambres y atraviesan el apilado de placas. Una fuente de alto voltaje transfiere electrones de las palcas hacia los alambres, desarrollando así una carga negativa de varios voltios, mientras que la materia de partículas atraviesa la fuerte carga negativa del alambre, la materia de partículas toma la carga y se ioniza. Las partículas ionizadas pasan a través de las placas cargadas positivamente siendo atraídas por estas placas. Este sedimento puede ser recolectado para luego evaluarse o bien se usa como sistema purificador de aire.

Tema 19. Muestras para el análisis microbiológico de alimentos y aguas. Métodos de preservación y conservación de la muestra hasta el análisis. Preparación muestras para análisis y preparación de diluciones decimales.

El análisis microbiológico de alimentos junto con el del agua es el más extendido y su control está sujeto a legislación. Para realizarlo es imprescindible aplicar las técnicas adecuadas durante la selección, toma y preparación de las muestras, teniendo en cuenta también su transporte y conservación. Muestreo y preparación de muestras de alimentos El muestreo y preparación de la muestra es importante que se realice de forma adecuada porque de ello depende que el análisis de un resultado coherente y fiable. Algunas consideraciones que se deben tener en cuenta a la hora de la toma de muestras y su envío a laboratorio son las siguientes: • En muestreo de alimentos fijarse que estén dentro de su vida útil • Toma de muestra siempre en condiciones asépticas • Etiquetar siempre las muestras con la información del sitio de la toma, numero de lote, fecha caducidad producto, día, hora y lugar de la toma, responsable de la toma, condiciones de almacenamiento entre otros aspectos. • Realizar el análisis en el laboratorio en el menor tiempo posible. Su envío siempre será en recipientes adecuados a una temperatura tal que se conserve de forma intacta y se reduzcan los riesgos de alteraciones que pueda experimentar En lo posible las muestras se tomarán en los envases originales del producto. En el caso de productos a granel, barriles, sacos grandes. se deben transferir las muestras a recipientes estériles en condiciones de asepsia. • Si transcurre un tiempo entre la toma de la muestra y su análisis, la muestra se debe mantener a unos 4ºC. • Evitar su exposición al aire, luz y cualquier tipo de manipulación Una vez que las muestras son recibidas en el laboratorio pueden ser cultivadas o sometidas a diversas pruebas de identificación. Se puede dividir este proceso de preparación de las muestras en dos partes: muestras sólidas y pastosas, en cuyo caso la muestra debe licuarse para que pueda ser tratada e investigada. El procedimiento por seguir es el siguiente: • Separación de la muestra analítica. • Peso de la muestra en condiciones estériles. Se puede realizar de dos maneras: añadir cantidad exacta de muestra y el diluyente correspondiente (calculado previamente) o añadir la cantidad más aleatoria y medir el diluyente (habitualmente en proporción 1:10) necesario en una probeta aséptica. • Homogeneización de la muestra. • Muestras con una carga bacteriana muy elevada, es necesario diluir la muestra en mayor proporción. El procedimiento de dilución dependerá de los fines que se persiguen. Como ejemplo es el caso de la carne fresca, cuyas características microbianas se determinan tomando muestras de tejidos superficiales y de zonas profundas. Las zonas superficiales se obtienen mediante corte finos usando escapelos y pinzas, mientras que las zonas profundas se obtienen usando cubiertos o sacabocados. Tras tomar la muestra, se procede a la homogenización, para ello se suelen pesar 10g del alimento en un recipiente estéril para añadir unos 90ml del diluyente estéril, el cual suele ser agua de peptona o triptona o suero salino entre otros. A veces es más representativo si se usa más muestras, pero siempre la primera dilución por homogenización es 1/10 o dilución madre y puede hacerse con 25g/225ml de diluyente o con 50g/450ml diluyente. En el caso de la carne que se ha puesto de ejemplo, la dilución se lleva a cabo en una bolsa mediante el empleo del Stomacher. Finalmente, se procede a la preparación de las diluciones decimales, teniendo en cuenta que el proceso de homogenización conduce a la disolución madre o 10-1. Se preparan 5 0 6 diluciones decimales consecutivas a partir de 1 ml de la dilución anterior y 9 ml de diluyente estéril, en función de los valores paramétricos a determinar. De forma general, en alimentos se analizan los mismos microorganismos indicadores, patógenos, toxigénicos independientemente de la muestra, aunque en ciertos alimentos especiales se suelen investigar microorganismos específicos. Los más comunes son: flora aerobia mesófila, coliformes, enterobacterias totales, anaerobios sulfitoreductores, E.coli, Salmonella y S.aureus. Por otro lado, también se investigan, pero con menos frecuencia los siguientes: Listeria, P.Aeruginosa, Shigella, Campylobacter, B.Cereus, mohos y levaduras y Enterobacter sakazakii. Para todos ellos se usan las técnicas de recuento en placa con medio sólido en masa y en superficie y la fermentación en series de tubos con medio líquido NMP. En la actualidad una técnica frecuente es la evaluación de la actividad de agua de los alimentos para conocer de forma rápida y exacta la calidad de estos. Permite saber cuánta agua hay en el producto, que es lo que el agua le esta haciendo y como incidirá esta con el paso del tiempo. La actividad del agua es una imagen de la calidad total, es un parámetro que establece el límite para el desarrollo de muchos microorganismos a diferencia de otros parámetros como son el pH, temperatura o azúcares que influyen en la velocidad de crecimiento. La actividad de agua más baja para el crecimiento de la mayoría de las bacterias que producen deterioro en alimentos está alrededor de 0,90, para el crecimiento de hongos y levaduras está próxima a 0,61 y para el crecimiento de hongos micotoxigénicos es 0,78. Para el caso de la carne fresca, a partir de diluciones decimales hasta 10-5, se realizan: 1. Enumeración general de gérmenes viables en PCA incubadas a 5,15 y 37ºC por unos 7, 3 y 2 días respectivamente 2. Recuento de coliformes bien en masa con VRBA o bien usando la técnica del NMP con BGBL 3. Enumeración de bacterias anaerobias viables usando series de disoluciones con medio reforzado para clostridios o en placa con agar sangre incubando en anaerobiosis durante dos días. 4. Investigación de presencia de Clostridium perfringens Ejemplo de muestreo y preparación de la muestra en la carne picada: En los mataderos y locales que producen carne picada y preparados cárnicos, la selección de las localizaciones de toma de muestra y las normas para el almacenamiento y su transporte se describen en la norma ISO 17604 (Si no hay normas específicas sobre la recogida de muestras y su preparación, se usan como referencia las normas ISO y las directrices del Codex Alimentarius), la cual establece lo siguiente, de forma resumida: o Canales de animales superiores: en cada sesión de muestreo se toman muestras de 5 canales aleatoriamente, Las localizaciones de las muestras se seleccionan teniendo en cuenta la tecnología de sacrificio usada en el matadero. Cuando se hagan un muestreo para efectuar recuentros de colonias de bacterias aerobias y para enterobacterias, se toman muestras de 4 localizaciones de cada canal. Mediante el método destructivo se obtienen cuatro muestras de tejido que representen un total de 20 cm2; si se usa el método no destructivo, la zona de muestreo abarcará unos 100 cm2 (50cm2 en el caso de canales de pequeños rumiantes) por cada localización de toma de muestras. Cuando se tomen muestras para analizar Salmonella, se usará un método de muestreo de hisopo abrasivo. Se seleccionarán las zonas de mas probable contaminación y el área total del muestreo tendrá como mínimo 400 cm2. Cuando se tomen muestras de distintas localizaciones de un canal, se juntarán antes de examinarlas. o Canales de aves de corral: Para los análisis de Salmonella, se toman muestras de un mínimo de 15 canales aleatoriamente durante cada sesión de muestreo y tras la refrigeración. De cada canal se tomará una muestra de piel del cuello, de unos 19g. Antes de examinarlas, se mezclarán cada vez las muestras de piel de cuello procedentes de tres canales para obtener 5x 25g de muestras finales. Se pueden incluir directrices pormenorizadas sobre la toma de muestras de los canales en las guías de prácticas correctas del reglamento (CE) 852/2004. Con respecto a la frecuencia de muestreo, los explotadores de las empresas alimentarias de los mataderos o establecimiento productores de carne picada o preparados cárnicos tomarán muestras para el análisis microbiológico al menos una vez a la semana. El día de toma de muestras cambiará cada semana, de modo que queden cubiertos todos los días de la semana. Para la toma de muestras en carne picada y preparados cárnicos para análisis destinados a detectar presencia de E.Coli y hacer recuentro de colonias aerobias, así como para análisis de enterobacterias, la frecuencia puede reducirse a una prueba cada dos semanas si se obtienen resultados satisfactorios durante seis semanas consecutivas. Para el caso de Salmonella, la frecuencia podrá reducirse cada dos semanas cuando se obtengan resultados satisfactorios durante treinta semanas consecutivas, además, también puede reducirse si existe un programa nacional o regional de control de Salmonella y si dicho programa incluye pruebas que sustituyan al muestreo citado. Dicha frecuencia podrá recudirse aún más cuando este programa nacional o regional de control demuestre que es baja la prevalencia de Salmonella entre los animales que compra el matadero. Muestreo y preparación muestras de agua La primera dificultad que se encuentra en la toma de muestras de aguas es la obtención de muestras representativas; lo cual es aún más difícil a medida que aumenta la profundidad. Suelen usarse para esto recogedores de aguas especiales. dragas y succionadores. En función del tipo de muestra y de su posterior uso hay diferentes análisis, en los cuales se suele investigar principalmente los siguientes microorganismos: gérmenes totales, los coliformes totales, coliformes fecales, Eneterococos fecales y Salmonella; en menos frecuencia se investigan: Enterovirus, Bacteriófagos fecales, Clostridios sulfito reductores, Shigella, Staphyllococcus aureus, Pseudomonas aeruginosa. En cuanto a los métodos de recuento, se ha usado durante años la técnica del número mas probable (NMP), aunque cada vez se usa más la técnica de filtración por membrana, sobre todo en casos donde la muestra a analizar representa un gran volumen. Con respecto a la legislación para la toma de muestras de aguas, se legisla en función del tipo de agua y su posterior uso; así, para aguas potables (que son las de mayor importancia) de consumo público se encuentra la orden de 27 de julio de 1983 que se desarrolla en normas relativas a la toma de muestras para el análisis de aguas: ✓ Norma UNE-EN 25667-1:1995 referida a el programa de muestreo ✓ Norma UNE-EN 25667-2:1995 referida al muestreo ✓ Norma UNE-EN ISO 5667-3:1996 referida a la conservación y manipulación de muestras De forma general cuando hay que tomar varias muestras en un mismo lugar para diversos tipos de análisis, la muestra destinada a análisis microbiológicos se efectúa siempre en primer lugar con el fin de evitar contaminación. El frasco debe ser estéril y debe de abrirse solo antes de realizar la toma, cerrándolo rápidamente. Respecto a los envases deben de ser de vidrio neutro o de plástico, bien con cierre hermético o con tapón y su volumen mínimo debe ser de 250ml. La muestra, además de representativa, debe ser simple, es decir, única y tomada en un lugar y tiempo determinado para su análisis individual. No se deben mezclar aguas de diferentes procedencias en el mismo frasco. En caso de que la muestra de agua esté sometida procesos de desinfección como la cloración, hay que determinar in situ la concentración de desinfectantes residuales y añadir 1ml de solución de tiosulfato sódico por litro de agua de muestra de una disolución acuosa de tiosulfato sódico cristalizado de 18g/l. Obtención de muestra de un grifo de un sistema de distribución o abastecimiento: lo primero es la retirada de accesorios, limpiar el grifo con agua o alcohol etílico, abrir el grifo y dejar correr el agua hasta que se renueve durante 2 minutos y cerrar nuevamente, flamear la boca del grifo con la llama de un algodón empapado en alcohol y sostenido con pinzas, abrir el grifo y dejar correr el agua 2 minutos, abrir el frasco estéril, tomar la muestras y cerrar el frasco y el grifo. Se debe de tener en cuenta que la muestra para análisis microbiológicos debe de tener un pH inferior a 7, conservarse en oscuridad, tener una temperatura de almacenamiento de 2-5ºC y no mantenerse más de 24 horas antes del análisis. Preparación de diluciones en microbiología de alimentos La dilución es una técnica usada para reducir de manera progresiva la concentración de una sustancia en disolución hasta una concentración necesaria para poder contabilizar fácilmente el número de colonias mediante las técnicas de conteo. La técnica de las diluciones seriadas. Parte de una solución concentrada y de la que se va diluyendo en proporción 1/10 (Factor de dilución) de manera sucesiva hasta llegar a una concentración deseada. Es una técnica muy útil cuando se va a analizar una matriz nueva o cuando es conocido que el recuento de bacterias es muy alto de la solución madre. En microbiología de alimentos las diluciones se usan para determinar la carga microbiana o el número de microorganismos presentes en una muestra de alimentos o en agua. Esto se consigue diluyendo la muestra original en una serie de diluciones sucesivas y luego se analiza cada dilución para contar el número de colonias de microorganismos que crecen en un medio de cultivo adecuado. Según las características del alimento y del método seleccionado se debe de realizar una preparación de la muestra previa a la dilución. Por ejemplo, si tenemos las siguientes matrices: cacao en polvo y un snack para perros masticable, los pasos previos de preparación serán mas complejos en el snack de perros que en la matriz en polvo. Se suele usar como diluyente agua de peptona al 1% o 0,1 % de concentración, es un medio de cultivo enriquecedor con características que permiten el crecimiento de varios microorganismos. Se debe tener en cuenta que, una vez inoculado dicho medio no debe de pasar más de 45 minutos antes de sembrar en placa. Las diluciones se pueden realizar de forma manual, pesando la muestra en una bolsa estéril y añadiendo el diluyente con una pipeta, por ejemplo, en una muestra de 10g de un alimento en polvo se homogenizan con 90 ml de agua peptonada al 1% (solución madre), a continuación, se realizan dos diluciones seriadas en tubos de dilución con 9 mL de agua peptonada al 1% previamente esterilizados. En el primer tubo se coloca 1 mL de cada dilución y se incuba a las condiciones óptimas. Una vez transcurrido el tiempo de incubación se realiza el conteo y se obtiene, por ejemplo: en la primera dilución > 250 colonias, en la segunda dilución > 250 colonias y en la tercera dilución 100 colonias. Se observa que en la dilución se logra una concentración que permitirá luego realizar el cálculo de UFC/g ó mL utilizando la fórmula para ello. Como resultado se obtienen disoluciones con concentraciones microbianas que exijan un método en específico o solo concentraciones manejables para el analista de laboratorio durante el conteo en placa. ✓ Ejemplo de cálculo de concentración final en una dilución en serie: para obtener una dilución final de 1:1000 a partir de una muestra original con una concentración de 10^6 UFC/mL. Si se quiere preparar 1 mL de la dilución final. C1 = 10^6 UFC/mL V1 = ? C2 = 1/1000 = 10^(-3) V2 = 1 mL Aplicando la fórmula: C1V1 = C2V2 (10^6 UFC/mL)(V1) = (10^(-3))(1 mL) Resolviendo para V1:V1 = (10^(-3))/(10^6) = 10^(-9) mL = 1 μL Por lo tanto, debe tomar 1 μL de la muestra original y diluirlo en 999 μL de diluyente para obtener una dilución final de 1:1000. ✓ Ejemplo de cálculo de recuento de microorganismos en una placa de Petri: si se parte de una dilución seriada de una muestra de alimento y se siembra 1 mL de una dilución 1:10 en una placa de Petri y tras de incubar la placa, se contabilizan 50 colonias; el recuento de microorganismos en la muestra original se calcula: Dilución de siembra = 1:10 Volumen sembrado = 1 mL Número de colonias contadas = 50 Recuento en UFC/mL = (Número de colonias contadas) /(Dilución de siembra × Volumen sembrado) Recuento en UFC/mL = 50/(1:10 × 1 mL) = 50 × 10 = 500 UFC/mL Por lo tanto, el recuento de microorganismos en la muestra original es de 500 UFC/mL

Tema 20. Métodos convencionales microbiológicos de alimentos y aguas. Métodos de detección, identificación y recuento de microorganismos en muestras de alimentos y aguas.

La detección, identificación y recuento de microorganismos en alimentos y aguas tiene como fin conocer a través de diferentes técnicas la presencia o ausencia de estos y/o sus toxinas, ver de que tipo de microorganismo se trata, tratando de diferenciar los patógenos de los no patógenos. Para ello, existen actualmente kits de diagnóstico específicos para ciertos microorganismos, facilitando así su detección rápida y automatizada. Todas las diferentes técnicas deben llevarse a cabo en un medio estéril para evitar posibles contaminaciones. Estos diferentes métodos se pueden realizar mediante métodos clásicos o convencionales, teniendo en cuenta que estos últimos requieren un mayor número de etapas y de tiempo para obtener resultados, pero igualmente son eficaces y presentan la ventaja de ser de bajo coste. Estas pruebas convencionales se tratan de realizar pruebas fenotípicas a los diferentes patógenos, las cuales se basan en métodos de cultivo específicos y selectivos, recuento de microorganismos indicadores y pruebas de caracterización bioquímica e inmunológicas. Con respecto a los métodos basados en el cultivo de microorganismo, son los métodos por excelencia en microbiología, en el que los microorganismos se cultivan y se aíslan mezclando con la muestra a analizar en placas con medios sólidos o líquidos de enriquecimiento para aumentar su concentración y poder recuperar los dañados o heridos para después realizar el cultivo en medios selectivos y finalmente enumerarlos. Estos medios de cultivo selectivos son útiles para que se aislé el microorganismo de interés en gran cantidad, evitando contaminaciones. Para la realización del conteo clásico de los microorganismos, se debe realizar una dilución en serie, a partir de una suspensión madre. Se deben hacer diluciones como mucho de hasta 10-5 o 10-6 en placas de medio de cultivo con agar, para después incubarlos en estufa a 37ºC, que es la temperatura óptima habitualmente, durante 1 o 2 días. Tras la incubación, se realiza el conteo de las unidades formadoras de colonias (UFC) siguiendo la siguiente ecuación: 𝑈𝐹𝐶 𝑚𝑙 = 𝑛º 𝑑𝑒 𝑐𝑜𝑙𝑜𝑛𝑖𝑎𝑠 𝑥 𝐹𝐷 (𝑓𝑎𝑐𝑡𝑜𝑟 𝑑𝑒 𝑑𝑖𝑙𝑢𝑐𝑖ó𝑛) / 𝑉𝑜𝑙𝑢𝑚𝑒𝑛 𝑒𝑛 𝑚𝑙. Se realiza el recuento en la dilución en la que el número de colonias en placa esté comprendido entre 50 y 300 colonias y posteriormente se aplica la ecuación anterior. Otra manera de realizarse el recuento es mediante el uso del microscopio, en el cual se parte del cultivo, pasando los microorganismos a un portaobjetos realizando una tinción específica del patógeno de interés y después se realiza el recuento. Es fácil y sencillo, pero el conteo puede ser impreciso. Otra forma de realizarse es mediante el recuento de bacterias indicadoras de ciertos patógenos como coliformes o enterobacterias, indicadoras fecales de contaminación, principalmente en el agua. Tras la detección e identificación de los patógenos mediante el cultivo se suele confirmar mediante técnicas bioquímicas y serológicas, y también a veces, mediante técnicas moleculares. Tabla 1. Comparación de muestras utilizadas, patógenos a detectar, tipos de estudio y diferentes maneras de identificación. Técnicas de caracterización bioquímica Las pruebas bioquímicas se basan en la actividad de distintas enzimas, proteínas o actividades metabólicas que ponen de manifiesto la identificación de un microorganismo en concreto. En el mercado existen kits de estas pruebas para averiguar el tipo de microorganismo del cual se trata. Estos métodos se suelen usar para la confirmación de los cultivos selectivos para diferenciar unos microorganismos de otros. Una de las técnicas que más se usa es la prueba de CAMP, que estudia la proteína CAMP que produce hemólisis junto con β-lisina en Listeria monocytogenes o estreptococos, diferenciándolos así de otras especies; aunque también existen otras pruebas que miden diferentes características bioquímicas como la actividad catalasa, actividad oxidasa, fermentación de azúcares, etc. Algunos ejemplos de esto es el agar manitol salado, medio de cultivo en el cual se realiza la prueba de la catalasa, la prueba de DNAsa, coagulasa y resistencia a Novobiocina. Si salen todas positivo, se trata de Staphylococcus aureus. Técnicas inmunológicas Las técnicas inmunológicas consisten en la unión de antígeno-anticuerpo. La existencia de un determinado anticuerpo específico de un patógeno en concreto o su toxina permite la detección e identificación de este. La técnica más común es la llamada ELISA, basada en la unión anticuerpo-antígeno, este complejo es reconocido por un anticuerpo secundario asociado a una enzima que emite fluorescencia tras la unión, permitiendo así la detección de forma rápida y especifica del patógeno. Para la realización de esta técnica se requiere un anticuerpo específico, que puede no ser válido para distintas especies. Para ello primero deben aislarse los antígenos y después se realiza la formación de anticuerpos específicos, mediante inoculación en animales produciendo la inmunización de estos. Se forman así anticuerpos asociados a enzimas específicos que reconocen la unión antígeno-anticuerpo. Tabla 2. Ventajas y desventajas de las técnicas tradicionales basadas en el fenotipo del patógeno Técnicas moleculares Las técnicas moleculares se basan en los ácidos nucleicos de los microorganismos, a diferencia de las técnicas convencionales que se basan en la morfología, fisiología y fenotipo de estos. Estas técnicas moleculares se basan en la composición de los ácidos nucleicos, es decir en el genotipo. Algunas de las técnicas más destacadas son la secuenciación, hibridación, microarrays, PCR, electroforesis en gel de campo impulsado, entre otros. Con respecto a la reacción en cadena de polimerasa (PCR), se trata de la amplificación de una secuencia de ADN específica mediante una ADN polimerasa (Taq polimerasa) y cebadores específicos a la secuencia que se quiere amplificar. Es necesario conocer la secuencia de ADN diana para poder diseñar los cebadores. La amplificación se realiza en el termociclador, transcurrido el tiempo de amplificación, en la PCR convencional realiza una electroforesis al producto de PCR y se analizan los resultados bajo luz ultravioleta. Actualmente hay muchas variaciones de la PCR como RT-PCR, PCR inversa, PCR en tiempo real, PCR múltiple, etc.; ya que es una técnica muy usada en la detección e identificación de patógenos en alimentos, tiene una alta especificidad y sensibilidad, además de ser una prueba rápida y eficaz. Tabla 3. Comparación de los diferentes tipos de PCR. Técnicas de hibridación. Se trata de una técnica que permite la detección de fragmentos de ADN o ARN que son complementarios a fragmentos de secuencia conocida, llamadas sondas. Estas sondas se encuentran marcadas, de manera que mediante la hibridación se consigue detectar el fragmento del ácido nucleico que se desea, así se obtiene una sonda específica y complementaria al fragmento de interés. Existen diferentes tipos de hibridación, hibridación in situ, dot-blot, microarrays, etc. Tabla 4. Comparación entre hibridación in situ e hibridación mediante microordenaciones. Otras técnicas moleculares Otra técnica que permite la caracterización molecular de los patógenos es la electroforesis en gel de campo pulsado (PFGE), basada en una electroforesis en gel de agarosa utilizando dos campos eléctricos usando enzimas de restricción que cortan el ADN facilitando la interpretación y comparación de los resultados. Las ventajas y desventajas que presentan todas las técnicas moleculares descritas anteriormente se reflejan en la siguiente tabla 5. Tabla 5. Ventajas y desventajas de las diferentes técnicas moleculares. Otras técnicas Dentro de estas otras técnicas de detección e identificación que no se atribuyen ni a métodos convencionales ni métodos moleculares, se encuentran la fagoterapia o espectrometría de masas, también llamado MALDI- TOF. Con respecto a la fagoterapia, se trata del uso de bacteriófagos, es decir virus que infectan y matan bacterias permitiendo la detección de patógenos y otorgando un control sobre la seguridad de los alimentos. MALDI-TOF o espectrometría de masas es una técnica en el que los microorganismos se exponen a un rayo láser permitiendo la separación de las proteínas según su masa permitiendo su caracterización, detección e identificación. Ambas técnicas tienen sus ventajas e inconvenientes (resumidas en la tabla 6) Tabla 6. Ventajas y desventajas de la fagoterapia y el MALDI-TOF.

Tema 23. Microorganismos patógenos transmisibles por el uso y consumo del agua

El agua potable se define como aquel adecuado para el consumo humano y para su uso doméstico habitual, incluida la higiene personal, además, es libre de microorganismos causantes de enfermedades. La presencia o aumento de bacterias, parásitos, virus y hongos en el agua surge como consecuencia de cambios en el medio ambiente y en la población como el crecimiento industrial, urbanización no controlada, etc. Algunas de las actividades que favorecen la contaminación de aguas son por ejemplo abonos orgánicos mal procesados y disposición inadecuada de aguas residuales que afectan la calidad microbiológica de las fuentes de agua. La Organización Mundial de la Salud (OMS) en sus Guías para la calidad del agua potable y la Directiva 98/83/CE1 y otras normas internacionales, establecen o recomiendan requisitos de calidad para el agua de consumo humano, de forma general, la normativa establece que el agua es apta bacteriológicamente para consumo si está exenta de microorganismos patógenos de origen entérico y parasitario intestinal debió a que estos microorganismos transmiten enfermedades tales como salmonelosis (Salmonella), shigelosis (Shigella), colera (Vibrio Cholerae), amebiasis (Entamoeba histolytica), alteraciones gastrointestinales (Aeromonas mesófilas, Helicobacter pylori, Campylobacter); giardiasis (Giardia lamblia), cristosporidiosis (Crystosporidium), esquistosomiasis (Schistosoma), desórdenes hepáticos (virus de hepatitis), etc. La vigilancia y control del agua se define como la evaluación y examen de forma continua de la inocuidad y aceptabilidad de los sistemas de abastecimiento de agua de consumo. Esto incluye conocer la calidad del agua en sus fuentes y sistemas de potabilización, identificar microorganismos y parásitos que están presentes en ella con el fin de poder establecer medidas de intervención para evitar la propagación de enfermedades transmitidas por el agua. Esta vigilancia tiene limitaciones debido a la gran variedad de bacterias patógenas cultivables, a la complejidad de los ensayos de aislamientos y a la presencia en baja concentración de varias especies altamente agresivas, sin que el orden detallado indique prioridad. Esto se ve afectado por el gran coste que tienen las herramientas diagnósticas y el uso de tecnologías especializadas. Resulta muy importante conocer los agentes microbianos patógenos y no patógenos presentes en el agua con el fin de definir posibles indicadores microbiológicos de calidad, cuyo uso simplifica en gran medida las actividades de campo y laboratorio y son un principio de aceptación universal en la evaluación de la seguridad microbiana de los sistemas de abastecimiento de agua. Los análisis bacteriológicos apuntan a la búsqueda de microorganismos indicadores de contaminación fecal y se centran en la cuantificación de coliformes, cuyo grupo está integrado por enterobacterias, siendo Escherichia coli el microorganismo indicador universal de contaminación fecal. Indicadores microbiológicos de calidad del agua Los indicadores microbiológicos de calidad del agua aquellos organismos con un comportamiento similar a los microorganismos patógenos, de tal manera que la presencia de estos determina la existencia de patógenos y permite comparar sus reacciones a cambios de pH y temperatura o aplicación de medios físicos o químicos de desinfección, con la ventaja de ser más fácil de cultivar e identificar. Para que puedan establecerse como indicadores deben cumplir una serie de requerimientos como estar ausentes en agua no contaminada y mantener una correlación de su presencia con la de los patógenos; además, deben sobrevivir en el agua más tiempo y ser igual o más resistente a factores externos que los patógenos, sin ser patógenos y no deben reproducirse en animales poiquilotermos; también deben de ser fáciles y rápidos de aislar, identificar y cuantificar; y en lo posible tener criterios microbiológicos comunes internacionalmente. Deben hallarse de forma constante en las heces y estar asociados a aguas residuales; estar distribuidos al azar en las muestras y ser resistentes a la inhibición de su crecimiento por otras especies. Hay que nombrar que no existe un único microorganismo que se constituya en indicador ideal de calidad del agua. Los patógenos relacionados con las enfermedades de transmisión hídrica pueden ser de origen bacteriano, viral, parasitario y, en menor medida, micótico. Con base en los criterios mencionados los indicadores microbiológicos de contaminación del agua generalmente han sido bacterias de la flora saprófita intestinal, entre las que se encuentran Bacteroides fragilis, bacterias mesófilas, coliformes totales, y fecales, Escherichia coli y estreptococos fecales. Principales microorganismos transmitidos por el agua e indicadores microbiológicos de contaminación Bacterias Principalmente bacterias entéricas, provenientes del tracto intestinal de animales y humanos, reciben el nombre de bacterias fecales y se asocian con infecciones recientes o con presencia de materia orgánica y condiciones de pH, humedad y temperatura que faciliten su reproducción. Tienen ciertas características que les dan ventajas sobre otros organismos, como la metodología de muestreo estandarizado y muy bien definido para obtener una respuesta rápida a cambios ambientales como la contaminación. Son indicadores de contaminación fecal a corto plazo por descarga de desechos y a largo plazo, indicadores de efectividad de programas de control. Dentro de las bacterias establecidas como contaminantes del agua se han aislado Gram negativas pertenecientes a los géneros Pseudomonas, Flavobacterium, Gallionella, Aeromonas, Vibrio, Achromobacter, Alcaligenes, Bordetella, Neisseria, Moraxella y Acinetobacter. Sin embargo, el grupo bacteriano que cumple con las características de potencial bioindicador de calidad del agua es el de las bacterias coliformes, enterobacterias o Enterobacteriaceae, que se trata de bacterias anaerobias facultativas, no esporulantes, productoras de gas y fermentadoras de lactosa por vía glucolítica, que generan ácidos como producto final. Este grupo pertenece al 10% de los microorganismos intestinales humanos y animales, por lo que su presencia en el agua está asociada con contaminación fecal e indica tratamientos inadecuados o contaminación posterior, en él se incluyen géneros como Escherichia, Edwarsiella, Enterobacter, Klebsiella, Serratia, y Citrobacter. De todos ellos, los géneros Enterobacter y Klebsiella colonizan superficies interiores de las tuberías de agua y tanques de almacenamiento formando biopelículas en presencia de nutrientes, temperaturas cálidas, bajas concentraciones de desinfectantes y tiempos largos de almacenamiento. Dentro del género Escherichia se incluyen cepas patógenas y no patógenas. Seis cepas enteropatógenas pueden causar diarrea aguda: E. coli enterohemorrágica, E. coli enterotoxígena, E. coli enteropatógena, E. coli enteroinvasiva, E. coli enteroagregativa y E. coli de adherencia difusa. Dentro de las enterobacterias se encuentras otros géneros como Shigella y Salmonella, causantes de disentería bacilar; Salmonella typhimurium y Salmonella typhi productoras de gastroenteritis y fiebre tifoidea, respectivamente. Otro grupo es el género Vibrio, cuya especie más representativa es V. cholerae, transmitida mediante el consumo de aguas contaminadas y causante de diarrea aguda, acuosa y profusa, con altas tasas de mortalidad en brotes y epidemias de cólera. Destacan también otros géneros implicados en las enfermedades de transmisión hídrica como Aeromonas, Neisseria, Moraxella y Acinetobacter y con respecto a las bacterias gram positivas algunos géneros son Micrococcus, Staphylococcus y Enterococcus; como ejemplo, E. faecalis afecta a los humanos, habitando en su intestino, por lo que también se considera indicador de contaminación fecal. El género Pseudomonas está constituido por bacilos aerobios gram negativos móviles. Ha sido aislada de equipos destiladores, agua potable, tanques cisterna, tanques domiciliarios, redes de distribución de agua para consumo humano, demostrando su capacidad de sobrevivir y multiplicarse en aguas sometidas a procesos de desinfección. Su resistencia al cloro es superior a la de otros microorganismos aislados del agua; además, es su capacidad de inhibir coliformes que, al ser indicadores de contaminación de agua más comúnmente usados en el mundo, existe gran probabilidad de consumir agua con índice de coliformes cero, que podrían estar inhibidos por microorganismos del género Pseudomonas. Otras especies de los géneros Pseudomonas como Sarcina, Micrococcus, Flavobacterium, Proteus, Bacillus, Actinomyces y algunas levaduras, son microorganismos que influyen en la detección del grupo coliforme debido a que ejercen sobre éstos una acción inhibitoria. Los géneros Bacillus (aerobio) y Clostridium (anaerobio), se aíslan de fuentes hídricas subterráneas. Algunas especies como C. difficile cuyas esporas pueden estar presentes en el suelo pueden contaminar aguas cloradas, ríos, lagos y muestras de agua de mar. Las esporas de C. perfringens se utilizan como indicadores de contaminación fecal del agua, ya que son extremadamente resistentes a varios tipos de estrés ambiental y sobreviven períodos de tiempo en agua. Otros indicadores de contaminación fecal, como E. coli y Enterococcus, se utilizan más frecuentemente para emdir la calidad del agua debido a su mayor cantidad en las heces. El grupo de los Enterococos incluye especies como E. faecalis, E. faecium, E. gallinarum y E. avium; los cuales pueden crecer en medios con 6,5% de cloruro de sodio, a pH 9,6, a 10°C y a 45°C. Debido a su resistencia a estos factores ambientales, les permiten un mayor tiempo de supervivencia y son considerados como indicadores de contaminación fecal a largo plazo en contraste con la presencia de coliformes que indican contaminación fecal a corto plazo. Virus Los virus son la principal causa de morbilidad y mortalidad en las enfermedades de transmisión hídrica. La mayoría de las enfermedades transmitidas por agua se deben a los virus de la Hepatitis, Adenovirus y Rotavirus. -Enterovirus: grupo constituido por los poliovirus, virus de ARN causantes de poliomielitis y propuestos como bioindicador de calidad del agua por algunos autores con la limitación de estar en cantidades variables en los ecosistemas acuáticos, además de su difícil diagnóstico. -Virus de la hepatitis: causantes de hepatitis. Dentro del grupo se encuentran virus de la hepatitis A, B, C, D, E, F, G, siendo el A y el E los más frecuentemente transmitidos por medio de aguas contaminadas. En países desarrollados el virus de la hepatitis A (VHA) afecta principalmente casos aislados de individuos y aunque existe prevención vacunal eficiente, las condiciones de saneamiento ambiental y potabilización del agua son la forma más eficaz de evitar su propagación. El genoma del VHA presenta una gran estabilidad genética en todas las cepas aisladas y debido a sus características estructurales es un virus muy estable y resistente a los agentes físicos y químicos, lo que explica su gran habilidad para transmitirse a través del agua y de alimentos en condiciones teóricamente desfavorables. -Rotavirus: su representación la hacen siete grupos siendo más prevalentes los grupos A, B y C con predominio del primero, causante de diarrea acuosa y vómito especialmente en niños. Son virus no envueltos, estables en el medio ambiente y de fácil propagación por su pequeña dosis infectiva. -Calicivirus: pertenecientes a la familia Caliciviridae, son los principales causantes de la gastroenteritis en humanos y animales a nivel mundial. El género Norovirus es uno de los principales causantes de enfermedades diarreicas de transmisión hídrica y se define como el indicador viral perfecto de enfermedades transmitidas por el agua y los alimentos. Las dificultades en el diagnóstico de estos agentes patógenos se deben al coste, y el requerimiento de tecnologías especializadas que hacen difícil que se establezcan como indicador de calidad. Por esto se recurre a los fagos, concretamente a los colifagos, se encuentran de manera abundante en aguas contaminadas con materia fecal y pueden aislarse por métodos más sencillos y económicos que los enterovirus, presentando mecanismos de resistencia similares a éstos en los procesos de desinfección. Por otro lado, son más resistentes a las condiciones ambientales adversas que las bacterias coliformes. Parásitos Dentro de los parásitos patógenos transmitidos por el agua se encuentran los protozoos y helmintos. Con respecto a los Protozoos, sus formas parasitarias, quistes u ooquistes y trofozoitos, son en su mayoría retenidos en el proceso de filtración de los sistemas de tratamiento y algunos son resistentes a la cloración. Son causantes de enfermedades diarreicas en las especies que parasitan y, en algunas ocasiones, son organismos oportunistas causantes de enfermedades graves e incluso la muerte en niños, ancianos y pacientes inmunocomprometidos. Los patógenos más encontrados en aguas contaminadas son: Giardia intestinalis, Entamoeba histolytica, Balantidium coli, Toxoplasma gondii, Blastocystiss pp., Enterocytozoon bieneusi, Encephalitozoon intestinalis, Cryptosporidium spp. y algunas otras especies. Con respecto a los Helmintos, son muy resistentes a los cambios de pH, humedad y temperatura y son causantes de altas tasas de morbilidad por consumo de agua contaminada. Algo que les caracteriza es su mínima dosis infectiva y la resistencia a la desecación de los huevos de estos parásitos, que logran durar largos períodos de tiempo en el ambiente externo. Las ventajas de establecer una especie de helminto como bioindicador son su resistencia, su fácil identificación por laboratorio y su prevalencia. Los principales helmintos patógenos transmitidos por el agua son Ascaris lumbricoides, Trichuris trichiura, Paragonimus spp., Schistosoma spp., Necator americanus y Ancylostoma duodenale. Patógenos emergentes A este grupo pertenecen las cianobacterias, de color verdes-azules, fotosintéticas y productoras de oxígeno molecular. Su patología entérica la causan las toxinas que generan, afectando además el sistema nervioso y hepático.

Tema 24. Microorganismos patógenos transmisibles por el consumo de alimentos.

Los microorganismos patógenos son agentes, ya sean virus, bacterias u hongos, que causan enfermedades. Ciertos patógenos se transmiten vía alimentaria, generando un tipo de enfermedades llamadas Enfermedades transmitidas por alimentos (ETAs), las cuales se definen como aquellas enfermedades causadas por cualquier organismo presente en los alimentos y que entra en el cuerpo humano cuando se ingieren éstos. Las ETA se dividen por un lado en infecciones, cuando se debe a una ingesta de un alimento que contiene microorganismos patógenos vivos, como por ejemplo es el caso de la Salmonelosis causada por Salmonella; por otro lado; pueden ser intoxicaciones, cuando es causada por la ingesta de un alimento que tiene toxina, la cual puede estar producida por ciertos microorganismos, en este caso se habla de toxiinfección alimentaria. Como ejemplo, el caso del Botulismo, causado por la toxina botulínica de Clostridium botulinum. De entre todos los patógenos causantes de las ETAs, destacan cuatro bacterias responsables de la mayoría de estas enfermedades: Salmonella, Listeria, Campylobacter y E. coli. Cuanto mayor número de patógenos, más posibilidades de padecer una ETA. Estas ETAs son un gran problema de salud, siendo algunos de los principales factores que contribuyen a su aparición unas prácticas incorrectas de manipulación, falta de higiene y/o limpieza y desinfección y una mala conservación de los alimentos. Para que ocurra una ETA, el patógeno o su toxina debe estar presente en el alimento, aunque la presencia del patógeno no implica que la enfermedad ocurra siempre, deben darse una serie de premisas: que el patógeno esté presente en cantidad suficiente, el alimento debe ser capaz de sustentar el crecimiento de patógenos, el alimento debe de permanecer en la zona de peligro de temperatura durante un tiempo suficiente para que el patógeno se multiplique o produzca toxinas y además, debe ingerirse una cantidad suficiente de alimento contaminado. Intoxicaciones de origen bacteriano • Intoxicación por Estafilococos. El microorganismo responsable se llama Staphylococcus aureus. De manera natural, se encuentra en la nariz, garganta, oídos, piel y manos de las personas sanas. Cuando el manipulador estornuda o tose sobre los alimentos o cuando tiene heridas y no los cubre puede transmitir el microorganismo. S.aureus, es capaz de generar una toxina causante de provocar la enfermedad. Estos microorganismos crecen muy bien en sustancias ricas en proteínas, previamente cocidas, destacan por ejemplo el jamón cocido y otros cárnicos, leche, quesos, platos de pescado, entre otros. Alimentos en salmuera o con soluciones de azúcar concentrado no tienen efecto sobre los estafilococos. Se suelen destruir al cocinar, pero la toxina es resistente y no se destruye con calor. La enfermedad tiene un tiempo de incubación de entre a 2 y 6 horas tras la ingesta del alimento contaminado. Los síntomas frecuentes son náuseas, vómitos, dolor abdominal y a veces diarrea. Para la prevención de la intoxicación se debe de mantener los alimentos a temperaturas por debajo de los 7ºC • Intoxicación por Clostridium botulinum (Botulismo) El botulismo es la intoxicación causada por la toxina que produce la bacteria Clostridium botulinum Es una bacteria presente en la tierra y el intestino de animales. La toxina que produce es una de las más potentes que existe, teniendo la enfermedad un índice de mortalidad muy elevado. Esta bacteria crece mejor en ausencia de oxígeno, encontrándose de forma habitual en botes de conserva. Es capaz de formar esporas (bacteria protegida con una dura cubierta que le hace estar de forma latente en condiciones extremas de temperatura), de esta manera, cuando las condiciones son de nuevo favorables, la bacteria vuelve a su estado normal, multiplicándose. Las esporas que se encuentran en el suelo pueden contaminar los alimentos vegetales. Al prepararse las conservas, si hay esporas en el alimento fresco y no se detectan durante el tratamiento térmico, estas se desarrollan y dan lugar a bacterias que se multiplican produciendo las toxinas. El periodo de incubación dura de 12 a 36 horas y al tratarse de una neurotoxina, los síntomas asociados afectan al sistema nervioso central, los cuales son una visión borrosa, dolor fuerte de cabeza, debilidad muscular, dificultad para tragar, y riesgo de muerte por asfixia. La prevención es un buen tratamiento térmico y agregar ciertos ácidos aprobados capaces de impedir o retrasar el desarrollo de estas bacterias. • Intoxicación por Clostridium perfringens Este microorganismo se caracteriza por ser capaz de formar esporas. Se encuentran en las secreciones corporales de los individuos infectados, así como en la tierra, polvo, agua contaminada y deshechos de animales. Sus esporas no se destruyen en el cocinado y pueden resistir mas de 5 horas de hervido. Tras la preparación culinaria, las esporas germinan convirtiéndose en bacterias que se multiplican de forma fácil a temperaturas menores de 50ºC. Los alimentos más afectados son carnes, aves y salsas cuando se han cocinado y se han enfriado lentamente. El periodo de incubación es de entre 8 a 22 horas y los síntomas que se presentan son dolo abdominal y diarrea. Para prevenir la enfermedad se debe de hacer una buena cocción de los alimentos y enfriarlos rápidamente • Intoxicación por Bacillus cereus Se trata de bacterias que también pueden formar esporas, las cuales son termorresistentes sobreviviendo por tanto a las temperaturas de tratamientos culinarios habituales. Estas esporas se encuentran en el aire y agua por lo que cualquier alimento es susceptible a ser contaminado. Cuando se multiplican en un alimento puede producir dos tipos de toxinas, emética y diarreica, las cuales producen dos formas distintas de presentarse la enfermedad. En el caso de la toxina diarreica los son dolor abdominal y diarrea y se encuentra principalmente en productos cárnicos y salsas. Por otra parte, la toxina emética produce náuseas y vómitos y se encuentra frecuentemente en el arroz, pasta y patatas. Para la prevención de la intoxicación es importante realizar un correcto calentamiento de los alimentos, refrigeración rápida tras el cocinado, una buena limpieza, evitando contaminaciones cruzadas. Infecciones de origen bacteriano • Infección por Salmonella (Salmonelosis) Salmonella spp son bacterias causantes de la mayoría de las ETAs, siendo algunos casos mortales como suelen ser en bebés, ancianos o enfermos. Estas bacterias viven de forma natural en el tracto intestinal de las personas y otros animales sin tener efectos nocivos, pero cuando proliferan más de lo normal se produce entonces la enfermedad, que recibe el nombre de Salmonelosis. Las bacterias pueden llegar al área de manipulación de alimentos, en la superficie de alimentos crudos como la carne y en la cáscara de los huevos. Si el alimento no es cocinado y se conserva inadecuadamente, las bacterias presentes comenzarán a multiplicarse. Estas bacterias se destruyen de forma rápida por calor, por ello, como medidas preventivas se debe de cocinar muy bien las carnes y el huevo y mantenerlos en una buena refrigeración. La enfermedad se incuba de entre 6 a 72 horas, y produce diarrea, fiebre y dolor abdominal entre otros. • Infección por Campylobacter Bacteria causante de la mayoría de las gastroenteritis del mundo. Es considerada una zoonosis, ya que se transmite por animales. El animal puede estar o parecer sano, pero transmitirnos esta bacteria. La enfermedad aparece de entre a 2 a 5 días y la infección no suele ser grave. La principal vía de infección es la carne poco hecha, principalmente aves de corral o leche cruda. Se recomienda cocinar muy bien los alimentos y evitar consumir leche que no ha sido tratada con un tratamiento térmico. En la población existen grupos de riesgo donde la enfermedad puede complicarse, como son las embarazadas, niños, personas mayores e inmunodeprimidos. • Infección por Listeria (Listeriosis) Existen muchas especies de la especie Listeria, pero la L. monocytogenes es la más relacionada con enfermedades en las personas. Esta bacteria es resistente a ambientes poco favorables, pudiendo sobrevivir a condiciones de temperatura de refrigeración. Se puede presentar en alimentos vegetales crudos como animales, principalmente en quesos, helados, carnes de ave, pescados, etc. Esta bacteria puede causar una gastroenteritis acompañada de fiebre, pero sin mayor repercusión en adultos sanos. En el caso de embarazadas, población infantil, personas mayores e inmunodeprimidos, esta enfermedad puede albergar problemas más severos y complicaciones serias. • Infección por Escherichia coli Se trata de una bacteria presente de forma natural en el intestino humano y de animales. La mayor parte de las infecciones por E. coli son inofensivas, pero algunos tipos pueden provocar diarrea grave. Los rumiantes, y el ganado bovino, son el principal reservorio de estas bacterias, con respecto a las vías de transmisión, la más frecuente es la carne de vacuno y sus derivados cuando están poco cocinados. Los síntomas tardan en aparecer entre 2-3 días tras el consumo del alimento contaminado. En el caso de los adultos sanos se recuperan sin complicaciones en el plazo de una semana, pero en algunos grupos de personas, como población infantil y personas mayores, la enfermedad puede evolucionar hacia el síndrome hemolítico-urémico (SHU), una afección que puede causar graves lesiones renales que pueden llegar a un fatal desenlace. • Infección por Trichinella (Triquinosis) La triquinelosis o triquinosis se trata de una enfermedad parasitaria producida por diversas especies del género Trichinella (triquina), que afecta a las personas y a numerosas especies hospedadoras, principalmente mamíferos silvestres y domésticos (jabalíes, cerdos domésticos, cerdos asilvestrados o híbridos). Las especies habitualmente identificadas son T. spiralis y T. britovi. Esta infección se debe al consumo de carne contaminada, principalmente de cerdo, que no ha sido cocinada lo suficiente para destruir las larvas del parásito Trichinella. Muchos animales pueden infectarse con larvas de trichinella, pero la rata es animal con mayor probabilidad debido a que la basura es uno de los alimentos habituales de las ratas, al comerla la contaminan con sus secreciones infectadas, las que a su vez pueden ser ingeridas por los cerdos junto con la basura. Los síntomas son náuseas, vómitos, diarreas, dificultad para respirar y dolores musculares, acompañados de debilidad general. • Infección por Anisakis (Anisakiasis) El Anisakis es un parásito que se encuentra en ciertos productos de pesca y cuyas larvas pasan activas al aparato digestivo humano al ingerir pescado crudo o poco cocinado. Se trata de un gusano nematodo macroscópico, es decir, se puede ver a simple vista, pero al ser de color blanco, casi transparente, se confunde perfectamente con el resto de los tejidos del pescado, especialmente si son de color blanco. Los síntomas se presentan de forma repentina y son dolor abdominal intenso acompañado de nauseas e incluso vómitos. Cuando el parásito llega a la mucosa del estómago se va a adherir a ella y se va a introducir en su interior, por lo que para poder retirarla será necesaria una endoscopia o cirugía digestiva si se encuentra en tramos más alejados del tubo digestivo Este parásito se puede destruir simplemente por congelación. Por lo que una medida de prevención eficaz es congelar el pescado por debajo de –18º C durante 24-48 horas. • Hepatitis A Enfermedad inflamatoria hepática aguda causada por el virus de la hepatitis A (VHA). El VHA es un virus ARN, que pertenece a la familia Picornaviridae. En condiciones favorables, el VHA puede sobrevivir en el medio ambiente durante meses y se inactiva mediante tratamiento térmico. Este virus se puede encontrar en las heces de las personas infectadas. La enfermedad se transmite por la ingestión de agua o alimentos contaminados por heces de personas infectadas. Los alimentos asociados suelen ser frutas y hortalizas crudas, moluscos bivalvos que se consumen crudos. La contaminación de estos alimentos se suele producir cuando entran en contacto con aguas contaminadas con el VHA, antes de su cosecha (frutas y hortalizas), o recolección (moluscos). También, los alimentos listos para consumo (como bocadillos o ensaladas) pueden contaminarse cuando han sido preparados por una persona infectada que no ha adoptado medidas adecuadas de higiene al manipularlos.

Tema 25. Microorganismos indicadores en alimentos y agua. Importancia sanitaria.

La calidad microbiológica de los alimentos es muy importante ya que influye en la conservación y vida útil de estos; además los microorganismos presentes pueden ser causantes de enfermedades transmitidas por alimentos (ETAs). La detección de microorganismos en el laboratorio es complicada, lenta y costosa, y es por ello por lo que generalmente se establece la calidad microbiológica en términos de microorganismos indicadores. Estos organismos o grupos de organismos reflejan las condiciones microbiológicas generales de un alimento, un equipo o un entorno de producción, siendo por tanto muy útiles para detectar el estado higiénico de equipos o entornos de producción, validar y verificar los sistemas de limpieza y desinfección, verificar el proceso de producción, evaluar el riesgo de contaminación, entre otras múltiples cosas. La detección de estos organismos en el laboratorio es más sencilla, rápida y económica; de hecho, se usan en la microbiología alimentaria debido a que aportan una visión más amplia de la presencia de microorganismos en los productos y el entorno que los análisis que se realizan para la busca de organismos específicos. Dentro de estos organismos indicadores, se distinguen dos grupos, los denominados índices, aquellos cuya presencia en un alimento o agua indica la posible presencia simultánea de microorganismos patógenos ecológicamente relacionados; esto sería el caso de E. coli, microorganismo que se usa como índice de la posible presencia de patógenos de procedencia entérica, entre ellos Salmonella spp, tanto en el agua y los alimentos. El otro grupo que se distingue es el de los llamados indicadores. En este caso se trata de organismos que ponen de manifiesto deficiencias en la calidad microbiológica de un determinado alimento., en este caso, como ejemplo sería la presencia de un número en exceso de bacterias del grupo coliformes en la leche pasteurizada, lo cual puede poner de manifiesto deficiencias de este producto, como un tratamiento térmico insuficiente, una contaminación posterior al tratamiento o un almacenamiento del producto final a una temperatura demasiado elevada. Un microorganismo determinado puede funcionar como índice o como indicador, incluso en un mismo alimento. Por ejemplo, la presencia de números significativos de unidades formadoras de colonias (ufc) de E. coli en camarones o gambas precocidos o congelados, pone de manifiesto un tratamiento de inocuidad inadecuado (función indicadora) pero también puede indicar una posible presencia de microorganismos patógenos de procedencia entérica, (función de índice). Los organismos indicadores que se pueden usar para los programas de monitoreo ambiental incluyen los que se encuentran en las pruebas de recuento total de aerobios, coliformes y enterobacterias. Recuento total de aerobios (APC) Es una de las pruebas con indicadores que más se realiza. Existen varios métodos, pero todos tienen en común el uso de un medio no selectivo incubado en condiciones aeróbicas. El fin de este método es proporcionar información sobre la población total de bacterias presentes que pueden crecer en presencia de oxígeno a temperaturas mesófilas, entre los 25 y 40ºC. El APC proporciona información sobre la población microbiana total en una superficie o muestra, que puede utilizarse con diversos fines, por ejemplo, el número total de microorganismos puede afectar tanto a la calidad como al riesgo de deterioro de un producto determinado. Y, además se trata de un método valioso para validar y verificar procedimientos de higienización. Los recuentos por encima de un cierto umbral indican que la higienización de un entrono o un equipo específico no ha sido efectivo o no se ha realizado de manera adecuada. Su detección se lleva a cabo a partir de diluciones decimales de la muestra, las cuales se inoculan en placas vertidas de agar triptona glucosa extracto o agar estándar. Se incuban en condiciones de aerobiosis, es decir, en presencia de oxígeno, a 35ºC durante 24 a 48 horas. Recuentos de mohos y levaduras Los hongos y las levaduras se encuentran ampliamente distribuidos en el medio ambiente por lo que son frecuentes en el microbiota de muchos alimentos, además, se dispersan por el aire y por el polvo. Debido a su lento crecimiento y baja competitividad, se manifiestan en alimentos donde las condiciones no favorecen el crecimiento bacteriano, como suele ser un pH bajo, baja humedad, alto contenido en sales o carbohidratos, baja temperatura de almacenamiento, presencia de antibióticos u otros antibacterianos. Como grupo indicador, son útiles para indicar en grado general de contaminación en alimentos con estas características o cuando los mesófilos aerobios no son útiles, como suele ser el caso en alimentos fermentados. También son útiles por ser indicadores de desarrollo de hongos tooxigénicos en alimentos como cereales, frutos secos, especias, etc. Su recuento se lleva a cabo a partir de diluciones decimales de la muestra, las cuales se inoculan en placas vertidas de papa dextrosa agar (PDA) y agar extracto de malta (AEM) acidificados con ácido tartárico para favorecer a estos microorganismos e inhibir bacterias. A veces pueden usarse antibióticos para hacer el medio aún más selectivo. Bacterias entéricas indicadoras: Escherichia coli, coliformes y Enterobacteriaceae Con respecto al término coliformes, comprende E. coli y otras diversas especies pertenecientes a otros géneros de la familia Enterobacteriaceae. Este grupo pueden ser o no fecales. Los de origen fecal son capaces de fermentar la lactora. Se detectan mediante el método del número más probable (NMP) o por agar bilis rojo violeta (ABRV) donde las colonias fermentadoras de lactasas viran a color rojo. Concretamente, E. coli habita de forma habitual en el intestino del hombre y animales y es por ello por lo que su presencia en un alimento indica generalmente una contaminación directa o indirecta de origen fecal. Se caracteriza por ser termo tolerante (fermenta la lactosa a 44,5ºC) y produce indol a partir de triptófano, así como producción de glucuronidasa, características usadas para su detección. Se trata del indicador clásico de la posible presencia de patógenos entéricos en el agua, en moluscos, productos lácteos y otros alimentos. La presencia de este microorganismo en un alimento no constituye una connotación directa de la presencia de un patógeno, sino que implica un cierto riesgo de que pudiera estar presente. Una práctica común es utilizar las pruebas para coliformes, que incluyen E. coli, Si de estas pruebas iniciales se deduce una posible contaminación fecal, los coliformes y otras Enterobacterias se someten a posteriores estudios para determinar si entre ellos está presente E.coli. Las pruebas de los coliformes, por tanto, se basan en la búsqueda de E.coli. Estas pruebas se usan como indicador de una limpieza inadecuada, condiciones insalubres o contaminación posterior a las etapas de procesado. Una presencia alta de coliformes puede desencadenar en pruebas adicionales de seguimiento de búsqueda de patógenos. Sin embargo, estas pruebas sólo detectan un subconjunto de los organismos que pueden estar presentes por ejemplo en una planta de procesado de alimentos y algunos miembros del género Pseudomonas, los cuales representan organismos importantes de deterioro para diversos alimentos, no se detectan con estas pruebas de coliformes. Por este motivo, es recomendable combinar las pruebas de coliformes con otros tipos, como la APC. Enterococos Dentro de este grupo se destaca a los conocidos como grupo D de Lancefield de Estreptococos, como indicadores de contaminación fecal. El grupo D incluye, además de los Enterococos (Strep. faecalis y Strep. faecium), Estreptococos menos resistentes al calor, tales como Strep. bovis y Strep. equinus. Al conjunto del grupo se le llamada “Estreptococos fecales” debido a que están presentes de forma habitual en las heces de los mamíferos, aunque también están distribuidos en el medio ambiente. Su uso como indicadores deberá limitarse a situaciones en las que se sepa que son manifestaciones de polución fecal, por ejemplo, en agua de piscinas o en alimentos que han sido calentados, curados, congelados, deshidratados o tratados de tal modo que la microflora original muera gradualmente. Se ha visto una escasa correlación entre la presencia de Enterococos y de E. coli, coliformes o Enterobacterias. Sin embargo, en alimentos crudos no industrializados, la correlación entre los Enterococos y los coliformes puede ser mayor. La presencia de una gran cantidad de Enterococos en los alimentos implica falta de higiene. Los Enterococos son importantes como microorganismos indicadores, principalmente en las industrias alimentarias, debido a su gran resistencia a la desecación, altas y bajas temperaturas, a los detergentes y desinfectante. Por todo ello su presencia o ausencia puede dar a conocer si las prácticas de limpieza y desinfección son deficientes. Como característica a destacar, es su resistencia a la congelación, es por esto que este grupo son los indicadores preferidos para las prácticas de sanitización deficientes en las industrias de alimentos congelados. Con respecto a su resistencia al calor, pueden sobrevivir a los tratamientos térmicos que permitirían también la supervivencia de virus en algunos alimentos deshidratados o pasteurizados. Esta alta resistencia que tienen es al mismo tiempo la razón de la falta de la validad de estos microorganismos como indicadores generales de contaminación fecal, ya que al poder resistir a condiciones adversad, su presencia guarda poca relación con el peligro de existencia simultánea de patógenos como Salmonella o Shigella que son mucho menos resistentes. Su determinación es mediante métodos sencillos usando sustratos específicos. Microorganismos sulfitoreductores esporulados anaerobios Los sulfitoreductores esporulados anaerobios, pueden proceder del intestino del hombre o de los animales. Se caracterizan por su procedencia fecal. Al ser anaerobios y capaces de esporular, al contacto con el aire forman esporas y en este estado, pueden permanecer mucho tiempo en la tierra, en el agua, en alimentos vegetales, y en general en todo nuestro entorno, por lo que es muy fácil que se incorporen a los alimentos, ya sea formando parte de la materia prima, o en el proceso tecnológico de fabricación, conservación, empaquetado, transporte o almacenamiento. De este grupo destaca el género Clostridium, cuyas especies más importantes son C.botulinum y C.perfringers. La consecuencia de su presencia es que no hay una contaminación fecal reciente. Destacando a C. perfringens, tiene esporas muy resistentes a los desinfectantes, siempre está en aguas negras, pero no se multiplican en el sedimento, lo cual los hace muy útiles como indicadores cuando se sospecha de contaminación con protozoos o virus, los cuales no tienen relación con enterococos o coliformes. Son muy buenos indicadores en trabajos de seguimiento o para relacionarlos por contaminación fecal en peritrajes. La detección C. perfringens se hace por cuenta en placas vertidas de agar triptona sulfito cicloserina (TSC), con yema de huevo incubadas en condiciones anaerobias. Importancia sanitaria de los microorganismos indicadores -Detección de contaminación fecal -Riesgo para la salud pública, la detección de estos microorganismos permite tomar medidas preventivas para proteger la salud de los consumidores -Evaluación de higiene en alimentos, la detección de estos microorganismos indicadores sugiere malas prácticas de higiene, y puede desencadenar un riesgo de enfermedades transmitidas por alimentos -Control de procesos, ayudan a monitorizar la eficacia de los procesos de limpieza y desinfección en las industrias alimentarías y del agua, asegurando así la calidad y seguridad de los productos.

Tema 26. Política calidad en laboratorio certificación y acreditación. Acreditación laboratorio ensayos y calibración para norma UNE-EN ISO 17025:2017. Requisitos relativos a la estructura, recursos y del sistema de gestión.

La Acreditación es el acto por el cual un organismo demuestra formalmente su competencia para realizar tareas específicas. Esta acreditación, en el caso de laboratorios de ensayos o calibración, se realiza por un organismo de acreditación llamado también Entidad Acreditadora, el cual evalúa la conformidad de cumplimiento de cada uno de los requisitos de la norma bajo la cual el laboratorio quiere acreditarse. Los requisitos de acreditación pueden variar en función del país o de la región. La ISO (Organización Internacional para la Estandarización) es una organización mundial formada por grupos colaboradores en más de 160 países. Se encarga de la preparación de normas internacionales mediante comités técnicos. Cada organismo miembro interesado en un asunto para lo cual se ha establecido un comité técnico tiene derecho a estar representado en ese comité. Organizaciones internacionales, gubernamentales y no gubernamentales, en coordinación con ISO, también participan en el trabajo. Con respecto a la norma código UNE-EN ISO 17025:2017, establece los requisitos relativos a la competencia técnica de laboratorios de ensayo y de calibración. Se aplica a todas las organizaciones que realizan actividades de laboratorio. Los clientes de laboratorio, las autoridades reguladoras y las organizaciones que utilizan organismos de acreditación o revisión por pares utilizan la norma ISO 17025:2017 como base para confirmar o reconocer la competencia de los laboratorios Distinguiendo que un laboratorio de ensayo realiza análisis sobre muestras aisladas de forma rutinaria en el ámbito de ensayos microbiológicos, biotecnológicos, físicos, químicos, etc, cuyos resultados son la base para certificar el cumplimiento de determinados requisitos. Mientras un laboratorio de calibración presta sus servicios a aquellas entidades (como pueden ser laboratorios de ensayo, organismos de inspección y control, etc) que necesitan tener seguridad de que los resultados que les proporcionan sus equipos de medida son correctos cuando se usan en actividades clave como es el aseguramiento de la calidad y toma de decisiones importantes. Esta norma se aplica a laboratorios que actúan tanto de primera, segunda o tercer parte, siendo los de primera parte aquellos integrados en la estructura de una organización que controla y garantiza el cumplimiento de las especificaciones de un producto propio. Los de segunda parte son aquellos que llevan a cabo la evaluación de productos por interés propio o por encargo de otra organización. Finalmente, los de tercera parte son aquellos laboratorios independientes tanto de la organización proveedora del producto como de los intereses del cliente o usuario de dicho producto. La norma contiene 5 secciones de requisitos que los laboratorios de ensayo o calibración deben cumplir: requisitos generales, estructurales, de los recursos, del proceso y del sistema de gestión. En cada sección se establecen una serie de requisitos que el laboratorio debe satisfacer, entre ellos, se incluye la elaboración de documentación, donde queden plasmados los procedimientos y que sirva de evidencia de la eficaz implantación de un sistema de gestión de la calidad. La Entidad Acreditadora establece como parte de sus atribuciones una serie de procedimientos encaminados a satisfacer, a satisfacer criterios nacionales e internacionales asociados con el proceso de acreditación. Por tal motivo, es conveniente que el laboratorio contemple la documentación que establece la Entidad Acreditadora en el proceso de Acreditación. Algunos de los documentos típicos que suelen usarse en el proceso de Acreditación son los siguientes: ➢ Procedimiento de acreditación, desde el inicio de la solicitud hasta las visitas de seguimiento una vez acreditado el laboratorio. ➢ Criterios de interpretación y aplicación de la norma ISO/IEC 17025:2017, ➢ Criterios de categorización y levantamiento de no conformidades durante las visitas (auditorías/evaluaciones). ➢ Criterios técnicos aplicables o listas de verificación a los alcances del laboratorio, enfocados a los ensayos o calibraciones. ➢ Políticas y condiciones para participar en Ensayos de Aptitud (técnica). ➢ Políticas y condiciones para estimar y reportar las incertidumbres de las mediciones realizadas. ➢ Políticas y condiciones sobre la o las maneras de obtener trazabilidad. ➢ Derechos y obligaciones del laboratorio y su personal una vez lograda la acreditación. ➢ Políticas y procedimientos para apelaciones y quejas sobre el proceso de acreditación. ➢ Condiciones de uso de símbolos y referencias comerciales propiedad de la entidad acreditadora Requisitos de la norma técnica de servicio (calibración, ensayo o muestreo) Para el caso de los laboratorios de ensayo y/o calibraciones, basados en normas o recomendaciones técnicas (métodos), son sujetos a evaluación de cumplimiento de estas normas para que la Entidad Acreditadora pueda constatar de la competencia técnica del laboratorio para realizar esas actividades descritas o sus requisitos de aplicación. La norma o normas pueden contemplar algunos de los siguientes requisitos: infraestructura del laboratorio, condiciones ambientales, equipamiento, patrones de referencia, formación de personal, estimación de incertidumbres, manera de informar los resultados, etc. Generalmente, cuando un laboratorio desea acreditarse, debe atender una serie de regulaciones que rigen en el país donde opera, tales pueden ser a asuntos legales de operación, uso de sistemas de unidades, trazabilidad, derechos y responsabilidades, entre otros. A mayores de los requisitos enumerados anteriormente, en ocasiones, algunos laboratorios que les aplica deben contemplar la atención de requisitos como los establecidos para certificación de productos, evaluaciones de modelo o de tipo, clientes, socios, corporativos, etc. El personal que realiza actividades técnicas debe demostrar su competencia técnica en temas como en la norma ISO/IEC 17025:2017, la metrología básica (Sistema Internacional, vocabulario, reglas de escritura, trazabilidad, etc.), la estimación de incertidumbres, ensayos de aptitud, validación de métodos, etc. Requisitos relativos a la estructura ✓ El laboratorio debe ser una entidad legal, es decir, que es responsable legalmente de sus actividades de laboratorio. ✓ Debe identificar el personal de la dirección que tiene la responsabilidad general del laboratorio. ✓ Debe definir y documentar el alcance de las actividades de laboratorio que cumplen con la norma ✓ Las actividades de laboratorio se deben llevar a cabo de manera que cumplan los requisitos de la norma, de los clientes del laboratorio, de las autoridades reglamentarias y de las organizaciones que otorgan reconocimiento. Lo anterior debe incluir las actividades de laboratorio realizadas en todas sus instalaciones permanentes, en sitios fuera de sus instalaciones permanentes, en instalaciones temporales o móviles asociadas, o en las instalaciones del cliente. Además de todo ello, el laboratorio debe de definir la organización y la estructura de gestión del laboratorio, su ubicación dentro de una organización, así como las relaciones entre la gestión, las operaciones técnicas y los servicios de apoyo. También debe especificar la responsabilidad e interrelación de todo el personal que dirige, realiza o verifica el trabajo que afecta a los resultados de las actividades de laboratorio, así como documentar sus procedimientos para asegurar que se aplican de forma correcta. El laboratorio debe contar con personal que tenga la autoridad y los recursos necesarios para llevar a cabo sus tareas, lo cual incluye implementar, mantener y mejorar el sistema de gestión, identificar posibles desviaciones del mismo, tener acciones preventivas o correctivas en caso de desviaciones, informar de las desviaciones, y asegurar la eficacia de las actividades de laboratorio. Por otra parte, con respecto a la dirección del laboratorio, se debe asegurar de que hay una comunicación efectiva con relación al sistema de gestión y a la importancia de cumplir los requisitos del cliente y otros requisitos y que se mantiene la integridad del sistema de gestión cuando se planifican e implementan cambios en éste. Requisitos relativos a los recursos ✓ Debe tener disponibles el personal, las instalaciones, el equipamiento, los sistemas y los servicios de apoyo necesarios para gestionar y realizar sus actividades de laboratorio. ✓ El personal del laboratorio debe actuar imparcialmente, ser competente y trabajar de acuerdo con el sistema de gestión del laboratorio. ✓ El laboratorio debe documentar los requisitos de competencia para cada función que influye en los resultados de las actividades del laboratorio. ✓ Debe asegurarse de que el personal tiene la competencia para realizar las actividades de laboratorio de las cuales es responsable y para evaluar la importancia de las desviaciones ✓ La dirección del laboratorio debe comunicar al personal sus tareas, responsabilidades y autoridad. ✓ El laboratorio debe tener procedimientos y conservar registros para: determinar los requisitos de competencia; seleccionar, formar, supervisar y autorizar al personal y realizar su seguimiento. ✓ El laboratorio debe autorizar al personal para llevar a cabo actividades de laboratorio específicas, incluidas, pero no limitadas a las siguientes: desarrollar, modificar, verificar y validar métodos; analizar los resultados, incluidas las declaraciones de conformidad o las opiniones e interpretaciones e informar, revisar y autorizar los resultados. Requisitos relativos al sistema de gestión Como se ha comentado anteriormente, el laboratorio debe de establecer, documentar y mantener un sistema de gestión que sea capaz de apoyar y demostrar el logro de los requisitos de esta norma y asegurar la calidad de los resultados. Para ello, el laboratorio puede implantar un sistema de gestión de dos maneras diferentes, por un lado, opción A, el sistema de gestión debe tratar de la documentación, control de documentos, control de registros, acciones para riesgos, mejora, acciones correctivas, auditorias internas y revisiones por parte de dirección; o como opción B, el laboratorio que ha establecido y mantiene un sistema de gestión de acuerdo con los requisitos de la Norma ISO 9001,(norma que establece los requisitos que debe cumplir un sistema de gestión de la calidad) y que sea capaz de apoyar y demostrar el cumplimiento coherente de los requisitos establecidos anteriormente. Con respecto a la documentación del sistema de gestión, la dirección del laboratorio es la encargada de establecer los objetivos para el cumplimiento del propósito de este documento y asegurar que las políticas y objetivos se entienden e implementen en todos los niveles de la organización del laboratorio, los cuales deben de abordar la competencia, imparcialidad y operación coherente del laboratorio. Toda la documentación relacionada con el cumplimiento de los requisitos de este documento se debe incluir, referenciar o vincular al sistema de gestión, además, el personal que realiza las actividades de laboratorio debe tener acceso a las partes de la documentación del sistema de gestión y a la información relacionada que sea aplicable a sus responsabilidades. Con respecto al control de la documentación del sistema de gestión, el laboratorio debe controlar los documentos y asegurarse de que los documentos se aprueban en cuanto a su adecuación antes de su emisión por personal autorizado; los documentos se revisan periódicamente, y se actualizan, según sea necesario; se identifican los cambios y el estado de revisión actual de los documentos; las versiones pertinentes de los documentos aplicables están disponibles en los puntos de uso y cuando sea necesario, se controla su distribución; los documentos están identificados inequívocamente; prevenir el uso no intencionado de los documentos obsoletos, y la identificación adecuada se aplica a éstos si se conservan por cualquier propósito. Con respecto al control de registros, el laboratorio debe de establecer y conservar los registros para demostrar el cumplimiento de los requisitos de la norma. Debe implementar los controles que sean necesarios para la protección, copia de seguridad, archivo, recuperación, tiempo de conservación y disposición de estos registros. Los registros deben de conservarse durante un período coherente con sus obligaciones contractuales y el acceso a estos debe ser coherente con los acuerdos de confidencialidad. Con respecto a las acciones para una mejora, el laboratorio debe identificar y seleccionar oportunidades e implementar cualquier acción necesaria, debe buscando un feedback de sus clientes. Con respecto a las acciones correctivas, cuando hay una no conformidad el laboratorio debe de reaccionar ante la no conformidad, emprendiendo acciones para controlar y corregir dicha no conformidad, hacer frente a las consecuencias, implementar cualquier acción necesaria; revisar la eficacia de cualquier acción correctiva tomada. Estas acciones correctivas deben ser apropiadas a los efectos de las no conformidades encontradas. Con respecto a las auditorías internas, el laboratorio debe llevar a cabo estas a intervalos planificados para obtener información acerca de si el sistema de gestión. El laboratorio debe planificar, establecer, implementar y mantener un programa de auditoría que incluya la frecuencia, los métodos, las responsabilidades, los requisitos de planificación y presentación de informes que debe tener en consideración la importancia de las actividades de laboratorio involucradas, los cambios que afectan al laboratorio y los resultados de las auditorías previas; definir los criterios de auditoría y el alcance de cada auditoría; asegurarse de que los resultados de las auditorías se informen a la dirección pertinente; implementar las correcciones y las acciones correctivas apropiadas, sin demora indebida; conservar los registros como evidencia de la implementación del programa de auditoría y de los resultados de la auditoría. Además, la dirección del laboratorio debe revisar su sistema de gestión a intervalos planificados, con el fin de asegurar su conveniencia, adecuación y eficacia, incluidas las políticas y objetivos establecidos relacionados con el cumplimiento de este documento. Estas revisiones deben estar documentadas y debe de incluirse información relacionada con cambios en las cuestiones internas y externas que sean pertinentes al laboratorio; cumplimiento de objetivos; adecuación de las políticas y procedimientos; resultado de auditorías internas recientes; acciones correctivas; evaluaciones por organismos externos; retroalimentación de los clientes y del personal; quejas; adecuación de los recursos entre otros aspectos.

Publicación disponible para comprar

El autor del contenido de esta publicación (profesor especializado en redacción de Trabajos Fin de Grado y Trabajos Fin de Máster por encargo) ofrece este trabajo para el que lo quiera comprar.

La compra del contenido incluye:

1.160,24 

Preguntas Frecuentes:

· ¿Puedo usar este contenido para mi Trabajo Fin de Grado (TFG), de Máster (TFM) o cualquier otro tipo de uso?

Si compra el contenido, sí podrá usarlo para lo que usted quiera, pero si no, no.

A pesar de que lo vea aquí, no quiere decir que esto sea un recurso gratuito. De hecho el contenido está plublicado en esta sección porque es contenido que algún profesor especializado en redacción científica ha hecho, pero que finalmente no ha tenido comprador. Por tanto la idea es que el contenido se le venda a aquel que pudiera estar interesado en él, y que el comprador haga el uso del mismo que estime oportuno.

Este contenido tiene derechos de autor, y si se viese publicado en cualquier institución (página web, blog, libro, revista, o publicación académica como trabajo presentado a nombre distinto del autor (Multiversitas SLU), se procedería a contactar con dicha institución para reclamar la autoría del contenido, así como a la toma de las correspondientes acciones legales en materia de derechos de autor.

· Pero si este contenido está aquí... cuando lo compre seguirá apareciendo en internet.

No. Este contenido está aquí porque se ofrece para la venta de cualquiera al que le pudiera interesar comprarlo, pero una vez vendido, el sistema lo retirará automáticamente de aquí, por lo que dejará de existir en la base de datos del sitio y por tanto los buscadores también dejarán de mostrarlo.

· ¿Pueden comprar dos personas distintas este contenido?

No. Este contenido solo tiene una unidad de stock, por lo que una vez vendido, desaparecerá de este lugar, y los derechos de autor serán cedidos al comprador.

· Aquí hay contenido escrito por mí... ¿cómo solicito que se borre de aquí?

Es bastante improbable que usted encuentre aquí contenido escrito por usted, ya que aquí solo ponemos el contenido que ciertos profesores especializados en redacción de textos científicos han hecho, pero que la persona que los solicitó los ha rechazado y no quiere ni el contenido ni la consecuente cesión de los derechos de autor del mismo. Pero aún así, si hubiésemos cometido un error y aquí figurase cualquier contenido escrito por usted, puede escribirnos un correo a gestion[arroba]areadealumnos.com, y lo revisaremos: si efectivamente hubiésemos cometido un error y cualquier parte del contenido que aquí figurase hubiese sido desarrollado por usted, lo borraríamos de inmediato.