Ministerio de Desarrollo Social y Medio Ambiente Secretaría de Desarrollo Sustentable y Política Ambiental Metodologias Diseño de redes de monitoreo, estadísticas, precisión de las determinaciones analíticas, control de calidad Programa Desarrollo Institucional Ambiental Control de Contaminación Industrial El PRODIA fue financiado por el Tesoro Nacional Y los préstamos Nº 768 / OC - AR y 907 / SF - AR del BID
136
Embed
Metodologias Diseño de redes de monitoreo, estadísticas ...
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Ministerio de Desarrollo Socialy Medio Ambiente
Secretaría de Desarrollo Sustentable y Política Ambiental
Metodologias
Diseño de redes de monitoreo,
estadísticas, precisión de las
determinaciones analíticas, control de
calidad
Programa Desarrollo Institucional AmbientalControl de Contaminación Industrial
El PRODIA fue financiado por el Tesoro NacionalY los préstamos Nº 768 / OC - AR y 907 / SF - AR del BID
i
INDICEI. - Diseño de Redes de Monitoreo de Calidad de Agua 1I.1. Criterios básicos para la selección de zonas a monitorear en cursoshídricos superficiales. 4I.1.1. Finalidad de los estudios que priorizan el enfoque por cuencas 5I.1.2. Finalidad de los estudios que priorizan el enfoque por ríos o lagos 11I.2. Ejemplos prácticos para la selección del centroide representativo de lacalidad ambiental de cuencas y/o tramos de ríos. 12I.3. Microlocalización de las estaciones de muestreo 22I.4. Incidencia de la descarga de efluentes de tipo industrial en la calidad decursos de agua superficiales y como adecuar el diseño de redes de Monitoreo para sucaracterización 25I.5. Evaluación de los parámetros de diseño de Redes de Monitoreo deCalidad de Agua y sedimentos: número de muestras a colectar y establecimiento defrecuencia de muestreo. 28I.5.1 Tratamiento estadístico de la información, estimación de los intervalos deconfianza de los datos a colectar a través de la red ce monitoreo de C. A. Yparámetros de diseño N (número de muestras a colectar) y f (frecuencia de monitoreo)para la misma 28I.5.1.a. Establecimiento de frecuencias de monitoreo de Calidad de Agua 33I.6. Alternativas para optimizar el diseño de Redes de Monitoreo de Calidadde Agua y anejo estadístico de datos cuando se posee información. 38I.7. Evaluación de costos de campaña de Monitoreo de Calidad de Agua 45I.8. Monitoreo de Suelos contaminados 48I.8.1. Prioridades para el diseño de Monitoreo de suelos en áreas de la cuencapresumiblemente contaminadas o en las que debe certificarse la no asistencia depoluentes. 50I.8.2. Canales o rutas de migración de los poluentes desde sus fuentes al medioambiente. 51I.8.3. Representatividad de las muestras de suelo colectadas. 53I.9. Dragado del lecho de canales y ríos 56II. Estadística, Herramientas de Ayuda en la Toma de Decisiones sobreControl de Contaminación. 57II.1 Selección de los procedimientos de análisis de datos 60II.1.1 Determinación de medias en calidad de aguas 60II.1.2. Determinación de Tendencias en Calidad de Aguas. 61II.1.3. Violaciones de estándares de calidad 63II.2. Confirmación de los supuestos estadísticos. 64II.2.1. Pruebas de normalidad 65II.2.2. Pruebas de la homogeneidad de la variancia 65II.2.3. Pruebas de independencia de observaciones 66II.3. Procedimientos para el análisis de datos. 67II.3.1. Medidas de la tendencia central 67II.3.2. Medidas de la dispersión 68
ii
II.3.3. Distribuciones de probabilidad 70II.3.4. Ensayos paramétricos 77II.3.5. Pruebas de normalidad 85II.3.6. Ensayos no paramétricos 89II.4. Calidad de las Determinaciones Analíticas como Prioridad en una BuenaPolítica de Control. 94II.4.1 Criterios de evaluación de laboratorios de análisis. 95II.4.1.a Definiciones generales: 95II.4.1.b Requisitos generales referidos a la competencia técnica de los laboratoriosde análisis. 97II.4.1.c. Cooperación 104II.4.1.d. Obligaciones Resultantes de la Acreditación 105II.4.2. Programa de Control de Calidad Intra-Laboratorio. 107II.4.2.a Calibración 107II.4.2.b Blanco del método 109II.4.2.c Blanco de campo 109II.4.2.d. Precisión 110II.4.2.e. Prueba de la recuperación usando soluciones estándar 113II.4.2.f. Prueba de la exactitud usando la recuperación de muestras de adiciónconocida 114II.4.2.g. Resumen del programa de Control de Calidad Analítico Intra-Laboratorio 117II.4.2.h. Programa mínimo de Control de Calidad Analítico 117II.4.2.i Corrección de problemas 118II.4.2.j. Mejora de prácticas de laboratorio 120II.4.2.k. Revisión de performance 123II.4.2.l. Muestras de Control de Calidad 123Anexo I: Tablas N° 3 al N° 10 124
1
I. Diseño de Redes de Monitoreo de Calidad Ambiental
Los criterios de diseño deben responder a los Objetivos del Programa de Monitoreo
Ambiental que las autoridades nacionales y/o regionales, hallan definido como prioritarios para
las diferentes zonas y matrices a analizar (Agua, sedimentos, suelo). Las definiciones adoptadas
para los términos aquí empleados son:
Ø Monitoreo: Medida y observación continua y estandarizada
del medio ambiente.
Ø Reconocimiento: Serie de Programas de duración finita
diseñados para medir y observar solo algunos detalles del medio
ambiente.
Ø Vigilancia: Observación, medida continua y específica del
medio ambiente dirigida a su control y manejo.
Para el caso de caracterización de la calidad del agua, los programas y estudios pueden
clasificarse conceptualmente, como asociados a los siguientes objetivos:
þ Programas de monitoreo para conocer el estado general del
curso de agua en un periodo definido, o cuando no se posee
ninguna información previa del mismo para su
caracterización.
þ Relevamiento de poluentes específicos en el cuerpo hídrico.
þ Proyectos especiales (a corto o mediano plazo) para :
• Caracterizar el estado de situación de diferentes cuencas
hidrográficas.
• Estudio del impacto de obras civiles (por ejemplo
puentes, represas)
• Relevamientos para verificar el cumplimiento de
objetivos de calidad de agua.
þ Programas de evaluación de tendencias, asociadas a :
2
• Proyectos y/o medidas de saneamiento implementados
(plantas de tratamiento de efluentes, canalización,
limpieza de cauces de ríos, etc.) en la cuenca en estudio a
corto y/o mediano plazo.
• Detección de eventos de polución relevantes e
instrumentación de sistemas de alarma temprana, para
controlar y/o mitigar sus efectos sobre el medio ambiente,
mediano y/o largo plazo.
Cada uno de estos programas adecua su metodología para satisfacer los requerimientos
respectivos y pueden ser aplicados en diferentes escenarios, por ejemplo la evaluación de
tendencias respecto al nivel de nutrientes y poluentes convencionales que aportan diferentes
tributarios en zonas lacustres de la provincia de Córdoba, posee una relevancia regional mayor
(eutroficación / uso recreativo) que la caracterización del comportamiento de poluentes tóxicos.
Una situación inversa puede darse en zonas de la provincia de Buenos Aires, donde la
prioridad suele ser el aprovechamiento de la fuente para provisión de agua potable y la evaluación
de cargas máximas admisibles por el curso receptor (por ejemplo ríos), es determinante para
dicho uso.
Existen actividades comunes en los cuatro programas enunciados, tales como las etapas
de diseño y planeamiento de la red de monitoreo a implementar, metodología de colecta de las
muestras en campo, determinaciones analíticas a efectuar in situ y en laboratorio.
La determinación de la cantidad de parámetros a medir en las diferentes matrices ya
enunciadas, los requerimientos estadísticos para determinar el número de datos y frecuencia de
monitoreo, que deben satisfacer las expectativas de confiabilidad y precisión del estudio en
cuestión acorde a los objetivos del programa aplicado en la región.
Los programas generales, proveen una estimación superficial de la C.A. en puntos
determinados de la cuenca, la frecuencia de monitoreo regularmente empleada es de tipo
3
estacional e implican generalmente la cobertura de un amplio espectro de parámetros en un área
territorial relativamente extendida.
Solo la casual detección de valores anómalos respecto a Valores Guía, puede conducir a
otro tipo de estudios intensivos para explicitarlos, como un seguimiento temporal donde
aconteció el problema, convirtiéndose luego en un programa de evaluación de tendencias,
fijándose un nuevo cronograma de muestreo para ese sitio y parámetro en especial.
La generación de productos tóxicos asociados a la acción antrópica, en especial la
industrial ha modificado las tradicionales evaluaciones del nivel de iones mayores y algunos
poluentes convencionales en la fase acuosa, por programas de relevamiento de poluentes
específicos que se asocian además a otras fases sedimentos e inclusive a la biota afectando la
salud humana por diferentes rutas (por ejemplo consumo de peces).
Las actividades de monitoreo en este caso deben dirigirse al medio más sensitivo. Los
niveles de concentración, en ocasiones a nivel de trazas implican ahora nuevos condicionantes en
la selección de metodologías de muestreo, número de datos y frecuencia de los muestreos además
de un buen manejo estadístico de los datos para poder arribar a resultados confiables. Si solo se
trabaja en áreas determinadas (por ejemplo sub - cuencas) y por un periodo determinado estamos
en presencia de proyectos especiales.
Debe ahora analizarse el presupuesto que implica cada una de las alternativas factibles,
en especial el costo del tipo de compuestos a medir, número total de muestras requeridas,
frecuencia de los muestreos en las diferentes matrices, entre los aspectos más relevantes y para
ello nos referiremos primeramente a los diferentes criterios para el diseño de la Red de
Monitoreo.
4
I.1 Criterios básicos para la selección de zonas a monitorear en cursos hídricos
superficiales.
La localización de la estación de muestreo es un factor clave que puede determinar la
validez de la información que se pretende inferir, a través del análisis de las muestras colectadas
en la misma. Este tema fue ya enunciado al referirnos a la representatividad de las fases y/o
matrices que se extraen de un tramo del río, efluente o sedimento y que sirven para definir las
condiciones de calidad media del mismo, prevalecientes en el ámbito espacial y/o temporal que
pretende identificar el estudio y objetivos de las tareas que se realizan en dicha cuenca.
Pueden definirse tres niveles en el proceso de selección de las estaciones de monitoreo y
puntos de toma, una primera aproximación mediante la macrolocación o tramos del río que son
representativos del nivel de calidad de toda la cuenca, la microlocación que implica la ubicación
dentro del tramo precedente, de la estación de muestreo y la selección final del; o de los puntos de
toma de muestras, que van a dar un valor representativo del área de monitoreo (por ejemplo de
toda la sección transversal del tramo del río en cuestión o columna de agua en un cuerpo
lacustre).
Es conveniente sistematizar la metodología con que se efectúa la macrolocación a fin de
independizarla de preferencias, o sesgos que el grupo de tareas posee sobre la temática a abordar
para el caso en cuestión, esta fase se asocia unívocamente al objetivo del estudio encarado.
Esto se visualiza mejor luego, mediante técnicas para caracterizar por ejemplo la carga
poluente aportada por determinado río hasta una zona determinada de la cuenca, o para comparar
las de diferentes provincias por las que circula un río.
La microlocalización de estaciones se halla más vinculada al tema de lograr un punto de
toma óptimo, donde la mezcla respecto a los poluentes de interés sea perfecta, es decir que el
tramo o zona seleccionada posea homogeneidad, esto es en función de aspectos hidrológicos y
geomorfológicos del cauce y el objetivo que se busca es caracterizar la zona mediante pocas
muestras simples.
5
La última fase consiste en definir exactamente el, o los puntos de toma en la transecta,
que cuando se opera por ejemplo en ríos estos aporten un dato válido para evaluar tanto el nivel
de concentración medio, como el flujo másico de los poluentes de interés. Si en la fase anterior
(macrolocalización) se ubicó un tramo homogéneo quizás una única muestra sub superficial sea
suficiente, pero si el contaminante necesita tiempo y distancia desde su punto de descarga para
una mezcla total en la sección transversal, la situación se complica.
Las autoridades regionales son las que en definitiva deciden ejecutar las actividades de
monitoreo y control en forma intensiva y rigurosa, a fin de preservar los usos del agua de todos
los cursos de agua de su jurisdicción para una caracterización del nivel de calidad medio
existente, en cuyo caso esta opción esta asociada a priorizar las estaciones de monitoreo acorde a
Objetivos de tipo general o por Cuenca.
La importancia de estas últimas se basa en el área de aporte a los diferentes ríos,
población asentada en su área de influencia, su relevancia socioeconómica y/o política. Esta es la
primera fase de definiciones que los Entes Ambientales de Control nacionales y/o regionales
deben tomar para distribuir racionalmente sus recursos, que determinan finalmente la
disponibilidad de medios materiales, por ejemplo, vehículos, botes y equipos de campo para
campaña, capacidad operacional de sus laboratorios (ejemplo, para detección de contaminantes
convencionales, tóxicos a niveles medios y en orden de trazas), personal y en definitiva la
distribución de los presupuestos asignables al control y solución de los problemas de
contaminación que afectan la salud de la población y al medioambiente, en su zona de influencia.
I.1.1 - Finalidad de los estudios que priorizan el enfoque por cuencas
Retomando esta temática, que es la más frecuente en estudios a nivel mundial,
recordamos que el comportamiento de los niveles de calidad en ellas, posee una variación
temporal y espacial cuando se las compara e inclusive dentro de las mismas si estas pueden
dividirse en subcuencas relevantes, en cuanto al grado de polución alcanzado por los parámetros
de calidad de agua de interés para la preservación de usos prioritarios en la región.
Una estimación de la carga contaminante que vuelca un río en su desembocadura,
vinculada a la acción antrópica en una cuenca, puede expresarse mediante la siguiente fórmula:
6
Mo = # Mi + # Mg + # Mb + # Mh
Donde:
Mo= Carga mineral, de contaminantes y nutrientes que llega (en forma disuelta
principalmente) a la desembocadura del río en cuestión.
# Mi= Carga de minerales y compuestos poluentes asociados a la deposición atmosférica
en la cuenca de drenaje del río ya sea proveniente de fuentes naturales o
Evaluación y /odeterminación de impactoambiental de poluentes en
una región determinada
a Datos sobre efectos contaminantes de lospoluentes detectados sobre la biota y/o saludhumana, cuantificación de su incidenciasegún Usos a preservar in situ y enlaboratorio
4 Transitorias
Desarrollo de niveles de C.A. Guía u objetivos para untramo del río o una regióndeterminada de la cuenca
a Determinación del grado de mineralizacióny/o estabilización de poluentes por zonas otramo de río.
a Determinación de niveles de afectaciónmínimos NOEL de poluentes en biota yespecies de interés regional acorde a Usosprioritarios pretendidos
4 Fijas
4 Transitorias
Estimación de cargasmásicas de poluentes
a Determinación de los flujos másicosaportados por cada tributario y/o en ladesembocadura del curso en estudio
4 Transitorias
Evaluación de laefectividad de medidas
correctivas y/o desaneamiento
implementadas en lacuenca
a Determinación de cambios estadísticamentesignificativos en los niveles de calidad deagua desde la ejecución de las obras aludidas.
Tributario B = aportael efluente a :2.073,6 Kg DBO/día
Tributario D = aportael efluente b:4,76 Kg DBO/día
Tributario E = aportael efluente d:13,82 Kg DBO/día
Tributario H = aportael efluente c:4.525,6 Kg DBO/día
Tributario I = aporta elefluente e:8.372,4 Kg DBO/día
Tributario LL = aportael efluente f y al g:417,3 Kg DBO / día +1.748,7 Kg DBO / día
Tributario Ñ = aportael efluente h :35,4 Kg DBO/día
Tributario Q = aportael efluente i y el j:(i) 213,8 + 58,7 (j) =272,5 Kg DBO/día
Tributario R = aportael efluente j:24.330 Kg DBO/día
Se contabilizará ahorael total recibido porcada tramo del canalprincipal del río
Se mantiene para lostramos la numeraciónasignada acorde al N°de tributarios recibidos.
Tramo N° 1 =15 m3/saporta naturalmente1555,2 Kg DBO/día
Tramo N° 3 = A + B+Daporta en total = 829,4(Ap Nat) + 2.073 (Ap.Efl a) + 4,76 (Ap Efl b)=4.462 Kg DBO / día
Tramo N° 4 = 3° + Eaporta en total = 4.462+ 197 (Aporte Naturalde E) +13,82(ap delefluente d) =4.672,8 Kg DBO/día
Tramo N° 6 = 4° + H,aporta en total =4.672,8 + 435,5 (Apo.Nat de H) + 4.525,6(aporte efluente e) = 9.633,9 Kg DBO/día
Tramo N° 7 = 6° + Iaporta en total =9.633,9 + 207,3 (Apor.Nat de I) + 8.372,4(Aporte. Efluente e) = 18.213,6 Kg DBO/día
Tramo N° 10 = 7° +LL aporta en total =18.213,6 + 705,1 (Ap.Nat de LL) + 417,3 (apEfl f) + 1748,7 (Ap.efluente g) = 20.667,4 Kg DBO / día
Tramo N° 12 = 10° +Ñaporta en DBO total =20.667,4 + 580,6 (Ap.Nat) + 35,38 (Ap.efluente h) =21.283,4 Kg DBO/día
Tramo N° 14 = 12° +Qaporta en DBO total=21.283,4 + 466,5 (ap.Nat) + 213,84(ap. efl i)+ 58,75 (ap efl j) =21.963,7 Kg DBO/día
19
continuaciónTramo N° 15 = 14° + Japorta en DBO total=21.963,7 + 414,8 (ap.Nat) + 24.330,2 Ap.Efluente k=46.708,74 Kg DBO/día
Primer centroide parael total de la cuenca =23.354,4 Kg DBO/día,que podría situarsecerca del tramo N° 14Estación de Jerarquía1° . Se adopta el tramoN° 14 para localizar lamisma.
Centroides de subcuencas / solo podemosanalizar la superior (eltramo cabecera hasta elN° 14, excluyendo altributario Q) =21.283,4/2 = 10.641,7Kg DBO/día quesituaríamos al final deltramo N° 6 (Estación de2° Jerarquía)
Existen como hemos visto diferentes criterios para el diseño de la red, que pueden variar
según el enfoque, objetivos del estudio y condiciones que los investigadores fijan como
prioritarias para el estudio de calidad ambiental de la Cuenca hídrica en cuestión.
Una variante intermedia entre las ya ejemplificadas está en seguir los lineamientos del
Ejemplo N° 1, pero considerando los efluentes como tributarios y asignando nuevas categorías a
los cursos realmente existentes y a los Tramos del curso principal acorde al valor hallado como
resultante de esta metodología. Se atendería en este caso a todo tipo de vuelcos o a los que se
consideren relevantes (por ejemplo solo incrementan la categoría del tributario receptor los que
descarguen poluentes convencionales y/o tóxicos).
Como pudimos apreciar los centroides hallados difieren según la metodología que se
aplique, y no podríamos asegurar que las estaciones de 1° Jerarquía halladas cuando el poluente
prioritario es DBO, sean representativas cuando se investiga la incidencia de tóxicos o metales
pesados, si en el Ejemplo N° 2 se evaluara en función de las descargas de cromo el centroide se
situaría cerca de los tributarios que recepcionan las descargas de curtiembres o industrias que
emplean estos compuestos. Los flujos másicos del cauce principal y los tributarios que ahora
reciben altas cargas orgánicas (efluentes cloacales, zona alcoholera) serían en este caso
irrelevantes por lo que el nuevo centroide se trasladaría a otros Tramos.
El problema se vuelve más complejo cuando se investiga la incidencia de diferentes
compuestos, que puede llevar a diferentes redes o al empleo de valores que representen al
conjunto. Esta variante fue ya propuesta para el caso del Area Piloto: Canal Pescara (Provincia
20
de Mendoza), mediante los denominamos Indices de Calidad de Agua que integran los valores
derivados de la concentración de varios parámetros, en los que la relevancia ambiental para
proteger los Usos priorizados en el área, se manifiesta a través de los coeficientes que poseen y
que integran la formulación de los mismos. Los criterios de exclusión tanto para las variantes de
categorización ejemplificados en el caso 1 o asociados a flujos másicos podrían ahora
correlacionarse a estos Indices de Calidad de Agua.
21
Ejemplo N° 2Jerarquía acorde al flujo másico o carga en DBO recibida hasta el tramo en cuestión
Tramo N° 1A 15.55,2 Tributario C ⇐
KgDBO/día
⇓
0 ⇒ B ⇐ D Tributario CH ⇐⇐
E 1 ⇒
Tramo ---N°3
4.462 KgDBO / día
⇓Tramo ---N°4 Tribut.
4.672,8 Kg DBO/ día H⇐
Tribut G
⇓ Tribut F
⇐⇐
**SegundoCentroide
⇓---------------I
---------- **
⇒
Tramo --- N°6
9.633,9 KgDBO/ día
⇐
acorde a sub cuenca TramoN°7 18.213,6 Kg DBO / día
Tribut K
⇓⇓LL
J⇐⇐ ⇐
Tribut L ⇐
TramoN°10
20.667,4 Kg DBO / día
Tribut N Categ 1 Tribut Ñ Cat 2 ⇒⇒Tribut M ⇐
Cat 1 ⇓ TramoN°12 ⇐
21.283,4 Kg DBO / día⇐
TributarioO Categ 1
Tribut Q
⇓ Categ 2 Tributario P Categoría 1 ⇐
Efluente .k=24.330 KgDBO/ día
Tributario R Categ1
TramoN°14 * ---
21.963,7Kg DBO /día
* Primer Centroideacorde a Cuenca
⇒ Tramo 46.708,7Kg DBO /
22
⇓ N°15 ----- día
⇓⇓Desembocadura
I.3 - Microlocalización de las estaciones de monitoreo.
Una vez cumplimentada la etapa previa se pasa a definir el punto de toma real a utilizar
en el tramo seleccionado en la macrolocación, este debe cumplimentar con el objetivo de
representar fielmente las condiciones de calidad del tramo y sección transversal de la cual se
extrae, es decir constituye la evidencia del estado contaminante, o del cumplimiento de las
Normas de Calidad de Agua que rigen para el río, en el tramo en cuestión. Este dato puede, si
corresponde a los centroides por cuenca y/o sub cuenca definir el estado y situación de las mismas
por ello posee una incidencia crucial en los estudios ambientales a efectuar.
La condición fundamental para cumplir el requisito de representatividad que exigen este
tipo de estudios está en colectar muestras, en zonas homogéneas en cuanto al nivel de
concentración de los parámetros de interés para el estudio, es decir el poluente en la sección
transversal maestreada debe estar completamente mezclado tanto horizontal como verticalmente.
Si estas condiciones no se cumplen en el tramo preseleccionado el valor promedio debe
calcularse en función del flujo en las diferentes zonas del río para que el valor medio adoptado se
asocie al que circula por ejemplo en el canal central, márgenes y acorde a la profundidad del
cauce en dichas zonas. El criterio adoptado debe basarse en estudios de campo tales como los
derivados del empleo de trazadores para detectar el nivel de preponderancia de las zonas ya
enunciadas. Se definirá luego la composición de las muestras compensadas que se tomen o como
correlacionar las individuales para obtener el valor medio que mejor represente a la transecta
monitoreada.
Para cumplimentar los aspectos normativos (estándares / valores objetivos de C.A.),
reiteramos que esta temática depende de la importancia que cada provincia o municipio afectado
de al tema zona de mezcla, o si esta se halla en vigencia a nivel nacional.
23
El poder trabajar luego de las mismas, es decir donde exista homogeneidad total permite
caracterizar la transecta con el mínimo de las muestras requeridas para dar precisión y
confiabilidad al dato a reportar.
Cuando se ignora el comportamiento de los poluentes y corrientes preponderantes en la
zona a muestrear se emplea el método de prueba y error, si existen suficientes medios (personal,
materiales y tiempo), algunos investigadores aconsejan inclusive chequear la tesis de mezcla
completa comparando series de valores colectados en las diferentes márgenes, canal y a diferentes
profundidades cuando los estudios a efectuar implican decisiones trascendentes para la salud de la
comunidad.
La microlación de zonas de mezcla, puede llegar a ser definida en un río, asumiendo
algunas hipótesis respecto al comportamiento del efluente volcado, tales como que la distribución
de la concentración del poluente en la transecta horizontal y vertical es gausiana o normal se
puede así estimar teóricamente una distancia para el mezclado óptimo, a partir de su incidencia en
un canal uniforme y rectilíneo. Esta distancia es función de la velocidad media en el río, la
localización puntual específica de la descarga en el río (por ejemplo orillas vs. canal central), los
valores de los coeficientes que rigen la dispersión longitudinal y vertical en el curso en cuestión.
Las propuestas de algunos investigadores para dilucidar este problema se basan en el
empleo de ecuaciones para el estado de régimen permanente en dos dimensiones, considerando el
transporte advectivo y dispersivo en ellas; es decir se asume que la mayoría de los ríos o arroyos
en estudio son de poca profundidad y/o permiten que la mezcla en el sentido vertical se concrete
rápido, a distancias no significativas.
La fórmula que emplea Ruthven (1971) para determinar la distancia en la que solo
acontece un 10% o menos de variación en el nivel de concentraciones del poluente, en toda la
sección transversal es la siguiente:
L = (0,075) x [(w) Exp 2 x (u) / Dy]
Donde :
L = Distancia en la que se logra la mezcla perfecta.
24
w = Ancho del canal.
u = Velocidad media de la corriente en el río.
Dy = Coeficiente de difusión lateral (E / turbulento)
Otras fórmulas dan relevancia a factores tales como la ubicación de la fuente puntual en
el río, es decir el punto en la sección transversal en donde realmente incide el efluente y el grado
de uniformidad en los gradientes de concentración generados (Coeficientes estimados por Sayre)
cuya fórmula es la siguiente:
L = [ (1) / 2 (Ó) Exp 2 ] x [(w) Exp 2 x (u) / Dy]
Existen condicionantes que pueden llegar a invalidar los resultados de estas estimaciones
y se dan cuando aparece estratificación térmica y/o de concentraciones y cuando el caudal del
efluente vertido deja de ser insignificante respecto al que circula por el cauce principal o la
trayectoria del río presenta curvas que generan otro tipo de corrientes laterales, no tomadas en
cuenta en las fórmulas presentadas.
El tema costos es también determinante, no solo en esta etapa final para la detección de
las zonas de mezcla, sino también el la precedente al establecer la jerarquía de los diferentes
tramos del río en base al compuesto o a cierto tipo de parámetros a investigar, tanto para las
estaciones fijas (en las que se pretende un muestreo continuo / permanente) como para las
transitorias. El relevamiento de las condiciones medias de OD (Oxigeno Disuelto),
conductividad, pH, turbidez, mediante electrodos sensores en campo, es considerablemente más
barata y genera menos trastornos que la colecta, preservación y transporte de muestras para la
detección del nivel de poluentes orgánicos convencionales por ejemplo DBO, metales, tóxicos en
el laboratorio.
La optimización del diseño de las Redes de Monitoreo de Calidad de Agua que ya hallan
operado por un cierto período, e inclusive la determinación de la distancia a la que se alcanza un
mezclado perfecto de los poluentes priorizados en un estudio o Proyecto a nivel regional o
nacional están asociados al costo de las campañas de muestreo, determinaciones analíticas y
condicionantes estadísticos fijados para precisión y confiabilidad de las mediciones.
25
Cuando se analiza la información de redes en operación se agregan otros factores para
definir si existen o no diferencias significativas entre los valores medios de concentración de
diferentes grupos de datos, provenientes de series temporales y/o espaciales las estaciones
operadas en la red.
I.4. Incidencia de las descargas de efluentes de tipo industrial en la calidad de cursos
de agua superficiales y como adecuar el Diseño de Redes de Monitoreo para su
caracterización.
Los ríos y lagos son receptores naturales del drenaje pluvial de sus cuencas de aporte,
que suelen contener nutrientes y plaguicidas en proporciones no siempre autodepurables por los
cuerpos receptores, además reciben las descargas domésticas de centros urbanos e industriales de
establecimientos instalados en su área de influencia, no siempre con el tratamiento óptimo
deseable.
Existe en la mayoría de los casos requerimientos para suplir agua fresca para los
procesos y servicios auxiliares de las plantas fabriles instaladas, tomas para zonas agrícolas y para
el abastecimiento de agua potable a las ciudades, esto motiva una primera evaluación preliminar
del grado de afectación que generan el consumo y en especial los efluentes en la calidad del
cuerpo receptor.
La prioridad en este tipo de estudios la tienen los cuerpos lacustres, que son mas
sensibles la contaminación que los ríos por su menor poder de autodepuración (tiempo de
residencia alto / poco mezclado / eutrofia).
En cuanto a los aspectos ambientales más recurrentemente afectados, asociados a
elevadas cargas orgánicas, se tiene en la lista de parámetros prioritarios al nivel de OD, la DBO
(carbonacea y nitrogenada) y bacterias coliformes. La incidencia de efluentes industriales que
operan con procesos de cierta complejidad o con materias primas asociadas a hidrocarburos,
compuestos químicos orgánicos; o que los producen, se nota su impacto en el nivel de
compuestos tóxicos (metales, hidrocarburos y sus derivados, etc.) que llegan luego del
tratamiento (si es que poseen plantas para ese fin) al curso de agua en cuestión.
26
La trascendencia ambiental de estas descargas en el aspecto temporal y espacial debe ser
analizada, en especial cuando están en juego usos restrictivos del recurso, tales como fuentes de
agua potable, recreación, pesca a nivel industrial, cerca del punto de impacto del vuelco.
La legislación actual a nivel nacional y provincial está revisando este tipo de efectos, que
son ahora atendidos solo en pocas jurisdicciones al presente; a través de las Evaluaciones de
Impacto Ambiental / Certificados de Aptitud Ambiental y normativas equivalentes que están
siendo instrumentadas como requisito previo para las nuevas plantas industriales a instalar en las
cercanías de grandes centros urbanos.
Además de la verificación de los permisos de vuelco de las industrias, que implica para
los Entes Ambientales responsables una rutina independiente de la que se asocia a la evaluación
de la calidad de agua del cuerpo receptor, debe tenerse en consideración en especial para evaluar
las condiciones ambientales críticas (por ejemplo estiaje / verano) el tipo y magnitud de los
vuelcos.
Es decir estimar la incidencia del flujo másico de poluentes y el modo de aporte
(continuo vs batch) de cada vuelco y analizar para cuando la carga poluente sea máxima, el nivel
que se detecta, por ejemplo luego de la zona de mezcla de los efluentes provenientes de un parque
industrial en el curso receptor, si el impacto ambiental del vuelco es significativo será
conveniente planificar los muestreos de la Red de Monitoreo, adecuando el programa para cubrir
los horarios críticos: todas las industrias funcionando a pleno y coincidiendo con los vuelcos
batch de los establecimientos que no operan en forma regular.
Si en estas condiciones no se detectan problemas ambientales graves (incluyendo por
ejemplo ensayos de toxicidad) y se respetan los Niveles Objetivo planificados para la calidad del
agua en el curso receptor; las frecuencias y localización de las estaciones de la red pueden
independizarse de las zonas de descarga y periodos aludidos, en caso contrario van a competir
con las ya delineadas por las otras metodologías ya aludidas en los puntos I.2 y I.3, por ejemplo
deberían revisarse los centroides por tributarios y/o descargas o flujos másicos por parámetro de
interés, para validar la ubicación de estaciones en la cuenca y frecuencias acorde a objetivos del
estudio en ejecución tales como detección de tendencias de C.A. (a largo plazo).
27
La recomendación general es efectuar este tipo de chequeo antes de implantar un nuevo
Programa y /o Red de Monitoreo de Calidad de Agua en un área conflictiva ya sea porque las
autoridades regionales hallan definido su ejecución ante denuncias de la población o por rutinas
ya planificadas por las provincias y /o Comités de Cuenca.
Los trabajos comienzan recopilando y analizando toda la información ambiental posible,
en especial la proveniente de población afectada por las descargas al curso de agua en cuestión y
la oficialmente suministrada por los responsables de establecimientos industriales, respecto a
horarios de funcionamiento, magnitud y calidad de los efluentes vertidos (especialmente de las
tipo batch).
De ser factible los Entes regionales a cargo de la preservación ambiental y salud de la
población deben efectuar monitoreos sorpresivos y/o instalar equipos que puedan colectar
muestras compensadas para evaluar el nivel de descargas y conocer de antemano la situación para
efectuar luego una visita formal con los posibles infractores y acordar con ellos fechas para un
muestreo intensivo a fin de satisfacer el requerimiento total del estudio a encarar.
Esta temática, en caso de anomalías y/o violación de estándares de vuelco por parte de
algunas industrias deben siempre ser solucionadas llegando en lo posible a un acuerdo con los
infractores y negociando planes y plazos para resolución de los problemas puntuales; que pueden
deberse a fallas accidentales y /o de metodologías de producción o del tratamiento de efluentes.
La experiencia en muchos lugares del mundo ha demostrado el éxito de este tipo de
lineamientos frente a medidas coercitivas rígidas (apercibimientos, multas, suspensiones, etc.),
avalados además por las dificultades de constancia ante infracciones detectadas en el curso de
agua receptor y atribuibles a determinados compuestos vertidos por un establecimiento industrial
(pruebas tangibles en el ámbito judicial).
En síntesis, es difícil probar que los efluentes de una determinada industria o
establecimiento sean los causantes de polución, pese a que sospechemos de ella.
28
I.5 Evaluación de los parámetros de diseño de Redes de Monitoreo de Calidad de
Agua y sedimentos: número de muestras a colectar y establecimiento de frecuencia de
muestreo.
Acorde a los lineamientos establecidos en „METODOLOGÍAS – MONITOREO DE AGUA Y
SEDIMENTOS EN CURSOS SUPERFICIALES AFECTADOS POR CONTAMINANTES DE ORIGEN INDUSTRIAL“
se presenta la información relevante sobre esta temática, se incluye al manejo matemático /
estadístico de los datos ambientales y a la optimización del diseño de redes.
I.5.1 Tratamiento estadístico de la información, estimación de intervalos de
confianza de los datos a colectar a través de la Red de Monitoreo de C.A. y
parámetros de diseño n (número de muestras a colectar) y f (frecuencia de
monitoreo) para la misma.
Este tema posee una relevancia especial en el diseño de Redes, superior al de la selección
de los parámetros a medir y ubicación espacial de las estaciones en la cuenca de aporte, dado que
estas últimas se derivan del objetivo del estudio a encarar y la existencia de información previa de
descargas localizadas y estaciones de la cuenca relevadas en otros estudios similares.
De la cantidad de muestras y frecuencia dependen la confiabilidad de los resultados a
obtener, derivados del tratamiento estadístico que se de a los mismos y a la información ya existente
de redes que hallan operado en la cuenca.
Se establece además el costo que genera la operación de la red de monitoreo, que implica
el derivado de las determinaciones analíticas en laboratorio y el de las campañas para llegar a los
puntos de muestreo seleccionados.
En ocasiones el costo impone una limitante adicional en el diseño de la red y obliga a
replantear las variables, número de muestras a colectar N y frecuencia F limitando el alcance de los
objetivos del estudio encarado a través de la Red de Monitoreo que se desea implementar. La
necesidad de aforos asociados al dato de C.A. implica también costos y una dedicación extra cuando
esta información no es reportada y/o medida regularmente.
29
La determinación de los valores medios anuales, mensuales y de tendencias temporales de
parámetros de Calidad de Agua, requiere en principio definir aspectos que hacen al correcto manejo
estadístico de los datos, en función de los objetivos del estudio ellos son:
1. Precisión requerida. / cuan cerca está el valor calculado del valor real, por ejemplo el
investigador desea que el promedio de los datos a colectar esté en el rango de ± 10%
del valor medio real de la población muestreal (*x~).
2. Probabilidad de que la información a reportar sea correcta.
El investigador desea por ejemplo que los valores medios a reportar sean dados con un
90% de seguridad al respecto / Nivel de significancia o de confianza del 90 %.
El número de muestras requeridos para caracterizar fehacientemente el comportamiento de
las variables de calidad de agua de un río se basa en estimaciones efectuadas a partir del análisis de
una información base del sistema, que puede consistir en una colecta mínima de datos actuales,
datos históricos de ese río o de otros muy similares de esa cuenca, de ellos puede inferirse niveles de
concentración y varianza de la población de interés.
Del nivel de esta primera estimación depende luego la confiabilidad de los resultados
obtenidos.
Existen básicamente dos metodologías para calcular el número de muestras N a colectar en
un estudio que tenga objetivos a mediano plazo como los enunciados para el nuestro: uno basado en
la variabilidad de los parámetros a medir y otro en la precisión de los valores medios que se
pretende obtener (X~ temporales u espaciales).
Recordando algunos preceptos de la estadística inferencial, por el que se llega a decisiones
acerca de un gran número de datos, examinando solo una pequeña porción de los mismos, y se
definen condicionantes como los que afectan ahora a la determinación de las variables N y F ya
enunciadas.
Se tiene que cuando deseamos estimar el valor medio u (real) de una muestra poblacional
de datos a través de x~ (promedio de datos realmente colectados) estamos asumiendo la posibilidad
de un error, lo que implica que estamos estimando u mediante un Intervalo (IC) .
30
Si la muestra proviene de una población normalmente distribuida, la distribución muestreal
de la media de la muestra será normal con una media u x~, igual a la media de la Población u y una
Varianza igual a:
( ) ( )@ @ /..x N2 2=
Se sabe que el 95% de los valores posibles de x~ que constituyen la distribución están
dentro de 2 desviaciones Standard respecto a la media
Dichos puntos extremos son u - 2 * [@ x~ ] y u+ 2 *[@ x~] . Como no se conoce el valor
de u se construyen intervalos (IC) alrededor de todo valor posible de x~, calculados a partir de todas
las muestras posibles de diferente tamaño N de la población de interés .
Se desea obtener para ello un Intervalo de Confianza IC óptimo en las mediciones de las
medias X~ (pequeño y uniforme) y trabajar además con nivel de significancia o confianza elevado
(por ejemplo del 95%) se utilizan para ello las siguientes formulaciones de tipo estadístico.
Cuando la información previa existente solo permite trabajar con estimadores de la
varianza de la población muestreal S2, en lugar de Õ2 (real), se utiliza la siguiente expresión para
delimitar el intervalo de confianza, en el que se espera quede incluido el valor medio del set de datos
colectado, que proviene de la población ya aludida: datos registrados (medidos recientemente /
estimados / históricos) en el período analizado.
( ) ( )S xi x N= − −∑2
1/ ///// aprox = a @ si N > a 30 muestras
( )Z x u N= − / @../ ; @ puede estimarse mediante el desvío Estándar de la muestra S
Z = intervalo de confianza //// = I.C. = t
Esto último como resultado de los estudios de W.S. Gosset que diseño las popularizadas
Tablas t de Student, existiendo una distribución diferente para cada valor de los grados de libertad
(N -1)
31
I.C. = [X` - t (n-1, Ó/2)* S / n ; X` + t(n-1,Ó/2)* S/ n ]
donde t (n-1, Õ/2) es el valor extraído de la tablas de la distribución t Student para n-1
grados de libertad y el nivel de confianza especificado Ó.
De esta pueden derivarse expresiones para estimar N (N° de muestras a colectar)
Magnitud del Intervalo de Confianza IC.
Ecuación III.8.2.a =
( )[ ]I C t S N. ../= ×2 2
de allí se deriva la Ecuación III.8.2.a* =
( )[ ]N t S IC= ×2 22
/
-Determinación de N, cuando el limitante es la variabilidad ∏ de los datos a colectar.
Se necesita contar con la siguiente información:
aa)) Error relativo permisible en el Desvío Estandard = @ / Sx
@: Valor del intervalo de confianza del Desvío Estandard.
bb)) Nivel de significancia requerido 1 - Ó
En base a esta situación uno esta trabajando para que el valor de cierta variable se dé solo
dentro de un intervalo específico.
Se asume en estos cálculos una distribución normal de los datos.
Por ejemplo: determinar el número de datos requerido por un programa de monitoreo de
C.A. de un efluente, tal que el desvío estándar estimado esté dentro del 25% de su valor real (es
decir (± 12,5 %); con un Nivel de significancia (confiabilidad) del 98 %).
32
El valor Ó = 1 - 0,98 = 0.02
y @ / Sx = 0,25
Es usual hallar en la bibliografía estadística gráficos que dan este último valor (en
ordenadas) en función de Ó y el Número de muestras requerido en abscisas.
Ref N° / Figura 4.8 US-EPA Hanbook for sampling.
Es decir puede determinarse a partir de ellos el N, basado en la precisión requerida para los
valores extremos
Determinación del N, cuando las restricciones se vinculan al valor medio X~, a obtener de
los datos colectados.
Para aplicar esta técnica se precisa contar con la siguiente información:
- Nivel de confianza requerido: (1- Ó)
- Coeficiente de variación de la población fuente a ser maestreada C.V. = S x / X~
- Precisión requerida para el valor medio X~
Se recomienda el uso de una doble iteración, en especial si el Número de muestras hallado
es pequeño (N < 30). Se asume también para estos cálculos una distribución normal.
N = 180 muestras anuales (el factor 1,96 proviene de la Tabla t de Student, 1/2 del área de
la curva para el nivel de confianza elegido)
Este tipo de tratamiento es similar al ya explicitado para el uso del Indice de Calidad de
Agua (ICA), que constituye en síntesis un promedio ponderado de una serie de parámetros de C.A.
Puede en algunos casos priorizarse algún parámetro sobre el resto de los que intervienen,
para definir un intervalo de confianza común I.C., como acontece en el ICA diseñado por BROWN
para el uso recreativo.
En esos casos se establecen factores de ponderación: wi acorde a la relevancia de los
parámetros en juego y al igual que en los ICA la suma de los wi será = 1.
Es decir se tendrá I.C. = w1 * [X~1] + w2 * [X~2] ... + +..... + Wn * [X~n]
Nuestra intención es considerar al ICA en el futuro como única variable de control y
manejar el diseño de la red en el Colector Pescara en base al su comportamiento estadístico.
Se analizaría en nuestro caso la cantidad de datos requeridos para obtener valores medios
[X~] de ICA, con una precisión del orden del [+, - (10 % del U.~ o media real) y una confiabilidad
del 95 % para cada uno de los tramos en que se prevé dividir el canal colector Pescara.
Antes de presentar nuestra propuesta deseamos enunciar los factores que inciden en la
selección de los intervalos de confianza, cuando deben manejarse varios parámetros que se
monitorean en varias estaciones de muestreo.
Este es un problema frecuente en el diseño de redes y si uno desea obtener igual calidad de
información en cualquier estación, referida a un parámetro en particular, debe asumir idénticos
36
intervalos de confianza de los valores medios de una estación respecto a las otras, si las medias son
semejantes.
El objetivo es también lograr un intervalo de confianza de amplitud mínima, dentro de lo
económicamente factible para el estudio encarado.(el costo de las determinaciones analíticas es
generalmente significativo al aumentar N y la frecuencia)
Regularmente la asignación del número de muestras a extraer de cada estación Ni, se fija
en función de un factor de ponderación wi, similar al utilizado en los ICA, es decir:
Ni = wi * N
donde N: es el número total de muestras a ser distribuidas en la Red en un período
determinado (anual, estacional, mensual, etc.)
La sumatoria de los wi es unitaria (todas las estaciones).
El criterio para fijar el wi de cada estación de la red se basa en la relevancia de las mismas
acorde a los siguientes aspectos:
• .Densidad de población / establecimientos industriales en la Subcuenca analizada ///
descargas que llegan al tramo /// canales de riego.
• .Existencia de información previa de C.A. en la estación y/o efluente específico que
llega a ella
• Variabilidad de los datos reportados en ella.(curso receptor y efluente)
• Caudal que circula regularmente en dicho tramo del río / canal y niveles de vuelco
recepcionados / frecuencia temporal.
Por ejemplo si el wi se establece en función de la variancia de un único parámetro
relevante, podrían obtenerse iguales intervalos de confianza en la medición de los valores medios
respectivos en todas las estaciones de la red.
37
Cuando el wi se hace proporcional a S, el desvío estándar, las frecuencias de muestreo
serán más uniformes de una estación a otra.
Si se correlacionan al valor S * x~, un mayor número de muestras se localizará en las
estaciones que posean valores altos de concentración o muy variables en el tiempo.
Cuando se analiza el caso de varios parámetros monitoreados en varias estaciones, se
puede utilizar una variancia ponderada para la serie de parámetros más relevantes (Por ejemplo las
que integran el ICA) y computada para cada estación en particular.
Esta variancia ponderada puede luego ingresar a la fórmula general.
WiS
Sidesde i
a i Ns=
=
=
∑
2
1..
.. ni = wi * N
Debemos destacar que cuando se trabaja con varias variables no es posible lograr un
mismo intervalo de confianza para todas ellas en todas las estaciones (asumiendo que todos los
parámetros se muestrean y analizan con la misma frecuencia en cada estación).
Lo mejor que puede lograrse en ese sentido es un igual valor promedio del intervalo de
confianza para todos los parámetros que son relevados en la red de monitoreo.
38
I.6 Alternativas para optimizar el diseño de Redes de Monitoreo de Calidad de Agua y
manejo estadístico de datos cuando se posee poca información .
Tal como se enunció en el punto anterior, suele ser costosa la implementación de
campañas de monitoreo y determinación analítica de poluentes a fin de evaluar la calidad de
cursos superficiales y de efluentes industriales.
En particular de estos últimos, si se requiere un monitoreo amplio en cuanto al número
de parámetros a caracterizar y extenso y/o intensivo para evaluar su comportamiento en el aspecto
temporal.
La información a colectar en las campañas debe ser confiable, coherente y en lo posible
práctica a los fines del estudio encarado.
Para este fin cuanto más rápido se analice el comportamiento del primer set de datos
menor es la posibilidad de cometer errores que nos lleven a un gasto excesivo, si se colecta más
información que la necesaria o una mala inversión derivada del extremo opuesto (pocos datos).
En este caso y para cuando se cuenta con muy poca información sobre calidad de
efluentes y cursos de agua, son de suma utilidad los monogramas que indican, para sets de menos
de 20 datos una buena aproximación respecto a los siguientes ítems:
♦ Cual es la magnitud de la dispersión existente en la población de datos de la cual
se extraen las muestras?
♦ ¿Existe diferencia significativa entre los valores medios de dos sets de datos
equivalentes?
♦ ¿Deben descartarse del set los datos anómalos; muy diferentes del promedio del
resto de los colectados hasta ese momento?
Los monogramas que se muestran en las figuras subsiguientes deben ser considerados
como herramientas prácticas o una alternativa válida como primera aproximación, nos sirven para
las prioridades enunciadas al comienzo, es decir para orientar sobre el prediseño de la red y plan
39
de monitoreo propuesto para un caso particular de efluente o problema de polución que afecta a
un curso de agua superficial, para optimizar el mismo.
Los cuestionamientos aludidos pueden ser resueltos en primera instancia para muestras
de menos de 20 datos, si se trabaja con medidas de dispersión basadas en el rango (diferencia
entre el valor mas alto y el mas bajo), que son de una validez comparable a métodos mas
rigurosos. (Ref. Philip F. Jackisch, Shortcuts to Small - Sample Statistics Problems Chemical
Engineering June 1978)
FIGURA N° 1 / Estimación Del Desvío Estándar S a partir del rango de los datos y su
cantidad para muestras pequeñas (N < de 20 datos // Test t)
En este monograma se trabaja conectando el valor indicado en la escala de la derecha,
que corresponde al rango obtenido del set de datos monitoreado y el número de datos respectivo,
en la escala de la izquierda la línea que los une cruza la escala central indicando en la misma el
valor S buscado. Los números indicados en las escalas del monograma que se han utilizado como
base, para arribar al valor del desvío S, son válidos para múltiplos de estos, como acontece
cuando se trabaja con reglas de cálculo. Los resultados obtenidos no difieren mucho de los que se
obtienen cuando se trabaja utilizando la raíz cuadrada de los desvíos.
40
41
FIGURA N° 2 / Estimación de diferencias significativas entre valores promedio de dos
set de datos para muestras pequeñas (N < de 20 datos // Test t)
En este monograma se tiene en la escala de la derecha al valor diferencia entre
promedios de los grupos de datos analizados, a la izquierda el valor suma de rangos respectivos y
en la central el número de datos con los que se está trabajando. Esta última línea que es la que
interceptan la conformada con los datos base provenientes de las escalas laterales, define el
cuestionamiento respecto a la diferencia entre medias indicando que esta es significativa si el
número de datos interceptado es superior al que corresponde al realmente utilizado en el
muestreo.
Además la línea central divide el plano en dos mitades asignando una confiabilidad del
95% a los resultados obtenidos hacia la derecha y del 90 % hacia el otro lado; la utilidad adicional
de este monograma está en la orientación que da a los investigadores respecto al número de datos
mínimo requerido para lograr resultados más confiables indicando además la conveniencia de
efectuar (o no) cálculos adicionales mas estrictos, desde el punto de vista estadístico si los
derivados del gráfico son poco claros para definir la situación.
En este sentido los Monogramas sirven para planificar y/o modificar el diseño de redes
de monitoreo o trabajos específicos en una estación determinada (por ejemplo descarga de
efluentes) que es uno de los objetivos enunciados al comienzo, aunque no pueden competir con
formulaciones estadísticas en cuanto a exactitud de los resultados.
Cuando se opera con diferente cantidad de datos en cada set puede adoptarse el valor
promedio de ellos si no difieren demasiado, redondeando hacia el valor entero menor; por
ejemplo si un grupo posee 5 datos y el otro 10, el valor medio sería = 7,5 por ello se adopta para
operar en el monograma al Valor 7.
42
43
FIGURA N° 3. Cuando es válido estadísticamente desestimar un dato de la Serie
analizada, para muestras pequeñas (N < de 20 datos // Test t)
Un problema bastante frecuente cuando se trabaja con poca información es evaluar la
validez de un dato anómalo, los investigadores se sienten tentados a descartarlos; pero esto debe
efectuarse de manera tal de no invalidar los presupuestos estadísticos que implica el manejo de
este tipo de información en el estudio ambiental que se está realizando. Es práctico en este caso el
uso del monograma indicado en la figura, que trabaja acorde a dos presupuestos en uno cuando no
se conoce el rango y/o una estimación del desvío estándar de los primeros 10 datos normales y el
otro corresponde a cuando se posee dicha información.
En el primer caso la línea que une el valor del rango de la muestra (escala de la derecha),
con el valor de la diferencia entre el valor del dato sospechoso y su vecino mas cercano (escala de
la izquierda). Si el punto de corte en la escala central que indica la cantidad de datos con que se
opera, está por debajo del que realmente corresponde; el valor anómalo puede rechazarse (Ref.
Criterio Dixon).
44
45
Todas las escalas están divididas en dos zonas, una asociada al primer caso aludido (no
se posee información de los 10 primeros datos) y otra al segundo, ubicadas a la izquierda y
derecha respectivamente de la escala central, que es la que define el número de datos de la
muestra analizada.
Para el segundo caso, cuando se conoce el rango de los primeros 10 datos este valor
(escala de la derecha) se alinea con el Rango de la muestra total analizada (escala de la izquierda),
si el punto de corte en la escala central está por debajo del correspondiente al número de datos de
la muestra el valor anómalo puede rechazarse (Ref. Criterio de Nair)
El monograma cubre un rango pequeño de datos factibles, debido a las limitaciones del
Criterio Dixon cuya base operacional y cálculos derivan en valores muy fluctuantes por encima
de un tamaño de muestras de 7, aún así se considera útil esta primera evaluación para este nivel
donde el incluir o no un dato sospechoso puede ser crucial para los resultados del estudio.
I.7 - Evaluación de costos de campañas de monitoreo de Calidad de Agua
El manejo de esta problemática se hace a través de Modelos de Optimización
Económica, que toman en consideración las diferentes fuentes de variación en la estimación de
los valores medios cuando se monitorean diferentes parámetros de calidad de agua, existen por
ejemplo, modelos estadísticos desarrollados por P Kleiber, P.H. Whitfield y W. E. Erlbach, que
emplean como base el análisis particional de la varianza para encarar las soluciones a este
problema.
Uno de los trabajos consultados, que aplica este criterio fue utilizado para el caso de
detección de tendencias entre dos periodos sucesivos y equivalentes de monitoreo de calidad de
agua para una única estación y para varias en un río. (Ref. Juan G. Gavilán, Calamante A. - Una
Propuesta Metodológica para el Diseño de una Red de Monitoreo de Calidad de Agua INCTYH -
CTUA - Agosto de 1.984 y una actualización de dicho trabajo presentada en un Workshop
auspiciado por US-EPA - J. G Gavilán, Economic Optimization Model for Water Quality
Monitoring . INCYTH –CTUA).
46
En el primer trabajo referenciado se trabajó utilizando datos del Río Paraná del tramo
Iguazú - Posadas (Convenios COMIP - INCYTH). Esta herramienta fue aplicada en dos
situaciones diferentes, una general en donde se evalúa a todo el curso principal durante el periodo
en estudio y otra más en detalle donde se trata de analizar la metodología de extracción y análisis
químico para una sección de muestreo particular (estación piloto).
En el primer análisis se evalúa el peso de las diferentes fuentes de variación que influyen
en la determinación del valor medio de cada parámetro de Calidad de Agua durante todo el año y
se vuelcan como conclusiones generales pautas metodológicas para implementar el monitoreo:
cantidad de estaciones y frecuencia.
Con el segundo análisis, se orienta a como realizar la operación de muestreo para cada
parámetro incrementando la precisión en la estimación del valor medio adoptado para las
variables de calidad de agua en la sección.
Esto sirve al objetivo final del trabajo que es conocer los factores que rigen los datos
medios generados a fin de optimizar su proceso para poder evaluar información confiable y no
arribar a conclusiones falsas en el estudio o proyecto ambiental ejecutado.
En los trabajos citados se analizan dos fuentes de variación para cada uno de los
parámetros monitoreados, una tiene componentes operacionales: muestreo y determinación
analítica y la otra posee origen temporal: variación estacional, se basa en los modelos ya citados
y los limitantes considerados en este caso particular fueron los siguientes:
Capacidad analítica de los laboratorios, factibilidad técnica y presupuestaria para
ejecutar las campañas de monitoreo y el nivel de discriminación D requerido.
Generalmente este tipo de estudios involucran el seguimiento de varios parámetros
indicadores de polución, a fin de satisfacer los objetivos del proyecto, en estos casos para
detección de tendencias que indiquen un mejoramiento o deterioro de la situación existente.
Los componentes del costo total están integrados por el referido al de la determinación
analítica y el asociado al viaje y colecta de muestras en la estación de la Red de Monitoreo.
47
Cuando se siguen pocos parámetros el costo de la campaña es significativo. Cuando el
seguimiento se efectúa sobre mas compuestos el costo analítico y réplicas entra a competir, la
solución óptima depende ahora del nivel de discriminación que deseamos utilizar para llegar a
conclusiones confiables.
El empleo de esta metodología permite llegar a soluciones equilibradas que satisfagan
tanto las limitaciones presupuestarias como los objetivos prioritarios de quienes son responsables
del estudio en cuestión.
La solución óptima se logra a través de un proceso de particiones sucesivas del universo
de las soluciones factibles, utilizando el siguiente criterio:
þ Búsqueda de una solución inicial a través de un método de
optimización para cada uno de los parámetros de calidad de agua
analizados (se utiliza una variante del método de Kleiber).
þ Búsqueda del segundo nivel de solución analizando la matriz que
incluye cantidad de campañas (viajes) / vs réplicas y limitantes del
sistema o proyecto a ejecutar.
þ Búsqueda del nivel o solución óptima, que da el número de
campañas de muestreo para cada parámetro de calidad de agua y el
mínimo de determinaciones analíticas que satisface los limitantes
del sistema.
Si el objetivo es reducir los costos de monitoreo en una estación en particular asumiendo
un nivel de discriminación D entre un año y el siguiente para idénticos periodos de muestreo
algunos investigadores proponen un modelo que permita definir los parámetros de diseño que
hagan mínima la siguiente formula asociada al costo total de campañas de monitoreo.
CT = (CV) x (NMV) + @ desde j = 1 a N de (R j) x (Vj) x (Crj)
La fórmula esta condicionada a las siguientes premisas:
48
Dj < DAj /// Rj, R MAX j /// Vj, V Max j
Donde:
@ = Sumatoria
CT = Costo total
CV = Costo fijo de cada viaje para el muestreo (se asume constante)
MNV = Número total de viajes para el monitoreo CRj Costo de la determinación analítica para el
parámetro j
Daj = Porcentaje de discriminación que se desea implementar entre valores promedio.(x~ de cada
parámetro de calidad de agua relevante para el estudio)
RMAX j =Número máximo de determinaciones químicas por campaña de muestreo y por
parámetro j acorde a la capacidad del laboratorio.
VMAX j = Número máximo de campañas de muestreo a ser ejecutadas durante dicho período.
R j; V j y D j = Son los parámetros de diseño de los programas de campañas de monitoreo y se
hallan asociados al número óptimo de determinaciones químicas, número de
campañas de muestreo y nivel de discriminación observado para cada uno de
los parámetros de calidad seguidos.
Existe un algoritmo matemático que va resolviendo todo el problema enunciado en la
fórmula general arriba descripta.
I.8 - Monitoreo de suelos contaminados
Los principios básicos enunciados para el caso de redes de monitoreo de Calidad de Agua
podrían aplicarse a esta temática, aunque el caso es ahora más complicado por el tipo de matriz
que debe analizarse, las velocidades de traslación de los poluentes (por ejemplo metros/día vs
metros/sg en aguas superficiales de ríos) y los diferentes procesos de transformación /
estabilización y/o inactivación del poder tóxico de los poluentes en cuestión.
49
Los estudios se efectivizan en principio ante la sospecha de procesos contaminantes
derivados de acciones antrópicas o como reconocimiento de zonas de la cuenca que desean
aprovecharse para usos específicos (ejemplo: parques recreativos, agricultura intensiva,
asentamientos humanos / zonas residenciales)
Además de la variabilidad del tipo de poluentes y sus concentraciones en determinado
sitio o zona de una cuenca hídrica, existe como ya enunciamos una variabilidad asociada al tipo
de suelos (aspectos geológicos) sobre los que puede estar aconteciendo la acción contaminante.
Los suelos no pueden considerarse una masa homogénea y deben analizarse los estratos
más sensibles para caracterizar la magnitud del efecto contaminante generado en ellos, que puede
ser diferente al que acontece en otros horizontes de la misma región afectada y que a los fines del
estudio encarado pueden o no ser prioritarios, por ejemplo requerimientos para implantación de
cultivos hortícolas vs. localización de centros habitacionales o recreacionales para la población o
instalación de parques industriales.
Estas características deben tenerse en cuenta cuando se muestrea suelos, lo ideal es
subdividir la muestra en porciones representativas de la población de datos referidos a los estratos
sensibles (vertical y horizontalmente) en la calicata extraída en un sitio en particular y su
representabilidad respecto a toda la zona que interesa inspeccionar.
Existen diferencias si los procesos de formación del suelo provienen de una única fuente y
periodo (o tipo de roca madre) o si nuevas formaciones geológicas alteran una zona o estratos ya
asentados en la cuenca en estudio. Estos horizontes pueden definir diferentes velocidades de
propagación de los poluentes o alterar la modalidad de los procesos de transformación que venían
aconteciendo aguas arriba si consideramos el flujo del poluente desde su punto de emisión hacia
la zona en estudio.
Como ya enunciamos los costos asociados a la toma de muestras y la detección del nivel
de poluentes en ellas constituyen las variables más significativas en los costos de las campañas de
relevamiento, por lo que la posibilidad de analizar sub- muestras es un factor clave en las
investigaciones que se realicen, pero su representatividad de la zona en estudio debe derivarse de
un equilibrio entre costos y precisión. No siempre la subdivisión del terreno o la elección de un
50
tramo de muestras de Core nos libera de los errores asociados a este hecho, respecto a la
presencia del poluente y su nivel de concentración en la porción de muestra seleccionada que
puede diferir del universo de muestras factibles a colectar en la zona o estrato en cuestión.
I.8.1 - Prioridades para el diseño del monitoreo de suelos en áreas de la cuenca
presumiblemente contaminadas o en las que debe certificarse la no existencia de
poluentes.
Debe tratar de obtenerse la mayor cantidad de información histórica de la región por parte
de pobladores y autoridades regionales, sobre asentamientos de tipo industrial y/o agrícolas que
puedan haber generado contaminación en el área, recopilar fotos aéreas, mapas recientes (a nivel
nacional, provincial y municipal) sobre los aspectos geológicos, agrícolas caracterización de tipo
de suelos y cultivos, mapas de rutas y centros turísticos.
Datos de matrices ya analizadas en la cuenca, tales como contaminación derivada de
efluentes industriales de plantas ya instaladas, calidad de agua en cursos superficiales,
contaminación atmosférica. Todos estos datos deben analizarse cuidadosamente a fin de
seleccionar los puntos de muestreo en nuestra área de interés.
4 En caso de existir establecimientos industriales en operación, determinar
con precisión los lugares de disposición final de efluentes sólidos y
líquidos, por ejemplo, la situación generada por playas de secado de barros
de proceso plantas de cinc catalítico, que contienen metales pesados que se
desestiman industrialmente, pero que son peligrosos para el medio
ambiente, en especial si por lixiviado alcanzan las napas subterráneas de
agua potable.
4 Conocer las materias primas y servicios utilizados en las plantas y definir
sobre el terreno las zonas de depósito de insumos y productos finales
cuando son potencialmente tóxicos (por ejemplo tanques subterráneos de
combustibles o reactivos químicos utilizados en la planta industrial)
51
4 Reconocimiento in situ del terreno preseleccionado, esto es conveniente
efectuarlo antes del muestreo, para evaluar las áreas potencialmente
contaminadas y los riesgos asociados al muestreo en sí y poder
instrumentar con antelación las precauciones a tomar en el diseño del plan
de muestreo.
4 Entrevistar a pobladores y/o empleados de las plantas industriales sobre las
prácticas de disposición final de los efluentes y zonas de basurales
autorizados o no en el área en cuestión. De existir información oficial, se
debe verificar la misma y /o obtener datos actualizados.
4 Cuando se efectúe esta inspección, el personal debe estar provisto de los
equipos de protección adecuados, y registrar toda la información posible
(fotos, mapas y/o croquis de acceso a las zonas seleccionadas, etc.); el
destino final de las cañerías de efluentes de tratamiento y barros, estado de
los depósitos, de tanques de insumos usados y medidas de seguridad ya
tomadas, zonas destinadas a relleno sanitario, canales, piletas, lagunas
artificiales, estado de la vegetación y suelos circundantes al área de interés.
I.8.2- Canales o rutas de migración de los poluentes desde sus fuentes al medio
ambiente.
Nos referiremos aquí a la forma en que los contaminantes puedan llegan al suelo y
afectar la salud de operadores de plantas industriales y la de pobladores de las regiones aledañas o
acuíferos de la zona. Una primera aproximación la da el análisis de los siguientes ítems:
þ Zonas afectadas por la incidencia de centros poblacionales y/o rurales las
causas pueden ser: el desagüe de las colectoras pluviales, y de efluentes
municipales (sin tratamiento), drenaje de acequias / alcantarillas que
atraviesan los barrios marginales y zonas de cría de ganado, sumideros de
52
establecimientos industriales pequeños, talleres mecánicos, estaciones de
servicio (fallas en tanques de combustibles /disposición de residuos).,
pérdidas en los sistemas de cañerías de los servicios que llegan a la
población (agua, cloacas, gas, etc.).
þ Drenaje superficial: los contaminantes pueden ser absorbidos en
sedimentos finos, disolverse en el agua de escorrentía pluvial o mobilizarse
vía lixiviación en las zonas de drenaje llegar hasta las napas de agua
subterráneas aptas para potabilizar
þ La contaminación superficial y la derivada de tanques subterráneos
fallados: suele percolar atravesando en ocasiones el perfil de dicha zona,
alcanzar los estratos sub superficiales y por último las napas ya aludidas, o
afectar directamente los cursos superficiales.(ejemplo lagunas, pantanos,
arroyos, ríos).
þ Dispersión por efecto de vientos: los contaminantes derivados de la
disposición final de efluentes industriales o basurales y que se hallen
absorbidos en las capas superficiales del terreno, pueden migrar de dichas
zonas a otras asociados al material particulado arrastrado por los vientos
predominantes en la región. Los lugares de deposición de los mismos están
ligados a las velocidades de los vientos y pesos de las partículas que
determinan la sedimentación en zonas próximas o su permanencia en la
fase gaseosa afectando en este caso la salud de los pobladores que los
inhalan. La dispersión puede llegar a ser en algunos casos beneficiosa
cuando constituye un medio de disminución del potencial tóxico si el
poluente que está afectando la zona se volatiliza.
þ Actividades humanas: el personal que trabaja en las Plantas industriales, el
tráfico y la circulación peatonal en zonas contaminadas es también una
causa de migración de los contaminantes, aunque solo significativa para
ciertos compuestos tóxicos.
53
La incorporación de las rutas de migración de los contaminantes y de sus posibles
transformaciones desde la fuente a su destino final en tierra, facilita el éxito del muestreo y el
diseño del plan de monitoreo de terrenos contaminados. Otro factor que permite optimizar estas
tareas es un primer tamizado o relevamiento en campo de los posibles poluentes que uno
sospecha se hallan en el área, existen para ello técnicas fisicoquímicas simples y otras algo más
complejas.
Pero si es posible aprovechar la capacidad de equipos de mayor sofisticación y se
dispone de ellos para los trabajos de campo se puede, acotar la serie de compuestos y parámetros
a analizar (por ejemplo, detectores de fotoionización y de rayos X / fluorescencia; portátiles).
Este primer tamizado de parámetros a medir permite distribuir mejor el presupuesto
asignado en principio al monitoreo, evaluando luego en laboratorio con mayor confiabilidad y
precisión la concentración de las muestras colectadas (más determinaciones analíticas).
En caso necesario (por ejemplo, presencia de la fuente o sospechas fundadas de procesos
contaminantes) constatar la existencia de los parámetros desestimados en principio (datos
cualitativos / primer relevamiento), utilizando luego técnicas analíticas que sean capaces de
detectar las concentraciones a nivel de trazas cuando el compuesto es peligroso.
Estas tareas suelen efectuarse cuando se dictamina sobre la efectividad de los trabajos de
limpieza y/o remediación de sitios contaminados, en el terreno se efectúa un primer relevamiento
en campo y luego un muestreo de confirmación de los resultados con técnicas de detección y
equipos más sensibles en el laboratorio.
I.8.3 - Representatividad de las muestras de suelo colectadas
Como ya enunciamos la o las muestras colectadas deben caracterizar la calidad del área o
terreno en estudio, del que deseamos dar el veredicto respecto al nivel de contaminación
existente, acorde al nivel registrado para una serie de parámetros críticos para el uso que la
54
población prioriza en la región analizada (agricultura, zonas residenciales, recreación, etc.). Se
desea conocer no solo la existencia del poluente, sino también su nivel en los diferentes estratos y
su distribución superficial en toda el área en estudio.
Los responsables del muestreo deben considerar estos aspectos además de extraer
siempre el material suficiente que requiere el laboratorio para la determinación de todos los
parámetros de interés para el estudio en cuestión y para que los resultados hallados puedan
extrapolarse a la zona elegida para representar el terreno o área total sobre la que se dictamina el
estado de calidad.
Hemos ya resumido antes la metodología de muestreo para un relevamiento de tipo
general, que suele contrastarse con la concentración (Niveles Guía) de series de parámetros que
permiten la categorización del terreno acorde a los usos pretendidos (Tablas / Ley de Residuos
Peligrosos)
Enfatizamos ahora la incidencia de las rutas de migración y objetivos de estudios
particulares para constatar la existencia de poluentes generados por fuentes conocidas, tales como
depósitos de materiales finos (por ejemplo residuos peligrosos) que pueden ser arrastrados por los
vientos de la zona y depositarse en áreas determinadas, afectando a simple vista las capas
superficiales del terreno.
Los accidentes, por ejemplo, vuelco de camiones tanque y/o rotura de oleoductos /
poliductos o contenedores sustancias solubles en agua que sean contaminantes; que se hallaban en
piletones o estanques no impermeabilizados, generan procesos contaminantes que poseen otro
patrón migratorio diferente al que acontece con las aguas superficiales.
En este caso suele hallarse a los poluentes a distancias de pocos metros de la superficie,
dado que su velocidad de traslación y transformación (por ejemplo estabilización y/o decaimiento
del potencial tóxico), dependen de la estructura y naturaleza del terreno en cuestión. Reiteramos
que las velocidades en juego son ahora de menor magnitud.
55
La extensión de la pluma contaminante varía según las propiedades del compuesto y sus
posibilidades de difusión en el terreno (diferentes estratos, horizontes con propiedades
específicas) la profundidad y superficie afectada y el crecimiento o fin del proceso dependen
principalmente de la naturaleza del terreno. Debe dejarse constancia de las causas que motivan un
tipo de muestreo y de las limitaciones que este implica para los objetivos pretendidos en el
estudio.
En ocasiones solo se buscan pruebas de un proceso contaminante por lo que la selección
de los lugares más afectados a simple vista son los elegidos (estos no son representativos de toda
el área o región en estudio) indican sin embargo las peores condiciones que el proceso poluente
ha generado en el área, deben aún en este caso, tomarse otras muestras como referencia y/o de
control (Nivel de Base) en zonas aledañas que se ven sanas.
La variabilidad que surge naturalmente de la heterogeneidad de los suelos en diferentes
regiones de una misma cuenca, hace aconsejable en los primeros relevamientos generales la
integración de varias muestras del área seleccionada, su mezcla / homogeneización y someter una
alícuota (lo más grande posible en tamaño) a un tratamiento de digestión ácida examinando en el
extracto la serie de parámetros que nos interesa buscar como prioritarios para determinar si el área
fue o no afectada por un vuelco o proceso contaminante específico.
Estas muestras compuestas tienen la desventaja de ocultar o diluir los picos, este
problema puede solucionarse trabajando con muestras simples colectadas en las zonas en las que
se sospecha la mayor incidencia del proceso contaminante que nos indicarían el orden de
magnitud del fenómeno (por ejemplo, manchas en el suelo, vegetación muerta, etc.).
Una vez que el enfoque del problema ha sido delineado en una primera fase, la selección
de las estaciones de monitoreo a relevar en el futuro sobre el suelo en el área elegida para
caracterizar espacial y temporalmente el fenómeno o proceso contaminante, sea este de naturaleza
continua o accidental, se basan en un diseño de los lugares de toma, acorde a bases estadísticas y
en la selección del equipamiento más adecuado para operar en el punto de muestreo finalmente
seleccionado acorde a la textura y condiciones de los estratos a analizar.
56
57
I.9 - Dragado del lecho de canales, ríos y cuerpos lacustres.
Los fundamentos que determinan la necesidad del dragado pueden se las siguientes:
♦ Hidráulicas, se desea un mejor escurrimiento de las aguas superficiales. Esta
acción repercutirá en la velocidad de sedimentación de las partículas
suspendidas y en la relocalización de los sedimentos y contaminantes a ellos
ligados, aguas abajo del punto de descarga del efluente contaminante y
presumiblemente a una mayor distancia, en el mismo sentido de la que
actualmente se encuentran depositando los sedimentos aludidos.
♦ Razones de navegabilidad
♦ Razones de saneamiento, se desea eliminar una fuente potencial de
contaminación para las aguas superficiales.
Respecto a este último punto debemos tener en claro los siguientes aspectos para el manejo
del tema:
ΠΠ Precauciones a tomar en caso que el material extraído posea características
tóxicas y pueda ser calificado como Residuo peligroso acorde a la Ley
24.051.
ΠΠ En ese caso deben disponerse solo en zonas específicas autorizadas para
recibir ese tipo de cargas y no en predios como los de los denominados
rellenos sanitarios, que aceptan sedimentos y desechos con niveles de
contaminación moderados.
ΠΠ Debe evaluarse en especial el estado en que queda el sedimento remanente
luego del dragado, que puede ocasionar mayores problemas que los ya
existentes en el curso superficial analizado.
ΠΠ Su incidencia sobre las fuentes de agua superficiales y subterráneas debe ser
evaluada a través de ensayos de lixiviación establecidos en el Decreto
58
reglamentario N° 831/93 de la Ley enunciada, acorde a la metodología
específica que define la característica tóxica o no del residuo testeado.
ΠΠ La disposición de los barros, aún en el caso de los no tóxicos deberá ser
acordada con las autoridades comunales y gubernamentales que
correspondan, para que no se vean afectados los usos de la cuenca ni la
seguridad de la población allí residente.
ΠΠ Sirven de referencia para los fines enunciados los Valores Guía de Calidad de
Sedimentos canadienses, referidos al nivel de concentración de parámetros
que generan efectos no detectables, leves y graves sobre los organismos
acuáticos (incluye metales, compuestos orgánicos y contaminantes
convencionales).
Cuando los niveles de poluentes en el sedimento son menores, es factible incluso su vuelco
aguas abajo luego de operaciones de dragado (por ejemplo limpieza del canal de navegación o cerca
de represas / colmatación) debiéndose analizar su incidencia en la calidad para constatar si afectan
las normativas dispuestas acorde a los usos del agua priorizados en el tramo en cuestión.
II.-Estadística, herramientas de ayuda en la toma de decisiones sobre control de
contaminación.
Los funcionarios técnicos y políticos que se encuentran ante la necesidad de diseñar las
políticas de control de contaminación, seleccionar áreas prioritarias, asignar presupuestos, definir
los roles de instituciones participantes, fijar niveles de descarga y, en definitiva, establecer los
cursos de acción para las décadas venideras, necesitan de elementos de juicio adecuados a las
respuestas que deben dar.
Los primeros esfuerzos para manejar los problemas de calidad de aguas han estado
centrados en el control de la contaminación, asegurando que las descargas de efluentes a los
recursos hídricos no causasen mortandad de peces, problemas de salud u otros inconvenientes. El
59
monitoreo de calidad de aguas ha estado centrado en el control de contaminación y el desarrollo
de soluciones.
En los últimos años se ha comenzado a analizar las condiciones generales de calidad de
las aguas y las tendencias de las mismas. La opinión pública puede están interesada por ejemplo,
en saber si la calidad del agua en una parte del país ha mejorado o no y si los fondos asignados a
las políticas de saneamiento han dado resultados.
Esta necesidad de conocer los cambios en la calidad de las aguas ha llevado a que
muchos reportes analicen información histórica para el manejo de tendencias, en este sentido, el
manejo estadístico de la información tiene un papel preponderante.
Normalmente en un estudio de calidad de aguas donde se genera o debe generarse cierta
cantidad de datos, se formulan preguntas sobre la interpretación de la información; las más
frecuentes son:
4 ¿Cuál es la calidad del agua en una región o localidad específica?
4 ¿Cuáles son las tendencias de calidad del agua, está mejorando o
empeorando?
4 ¿Cómo se relacionan ciertos parámetros en lugares determinados?
4 ¿Cuál es la masa de materiales que entra o sale de los sistemas
hídricos?
4 ¿Cuáles son las fuentes de contaminación y cuál es su magnitud?
4 ¿Puede predecirse la calidad futura del agua a partir de la calidad
pasada ?
El proceso de toma de decisiones comienza con la preparación de un plan de generación
de información adecuado, así un Programa de Monitoreo de Calidad de Aguas es visualizado
como un sistema de operaciones, las cuales cuando son realizadas correctamente, proveen
información sobre el comportamiento de las variables de calidad de aguas en el medio ambiente.
Este sistema de operaciones consiste de las siguientes etapas:
1. Toma de muestras.
60
2. Análisis en campo o en laboratorio.
3. Manejo de los datos.
4. Análisis de los datos.
5. Reporte.
6. Difusión del comportamiento de la calidad del agua.
Ward y Mc Bride (1986) han categorizado el diseño de un sistema de monitoreo de
calidad de aguas, en cinco pasos:
PPaassoo 11.. Definir que se pretende obtener de la información y, los métodos
estadísticos y reportes necesarios para lograrlo.
PPaassoo 22.. Confirmar que las características de la población de muestras no
violen las suposiciones establecidas en el análisis de datos del punto
anterior.
PPaassoo 33.. Utilizando la información de los pasos 1 y 2, determinar donde
muestrear, que medir y con que frecuencia hacerlo.
PPaassoo 44.. Definir en detalle todos los planes y procedimientos involucrados en
el sistema de monitoreo.
PPaassoo 55.. En especial, definir los procedimientos de reporte de información.
En los pasos definidos anteriormente, la estadística juega un papel muy importante para
definir los productos a obtener de la información generada (paso n° 1); confirmar que las
herramientas estadísticas seleccionadas son apropiadas considerando el comportamiento de las
variables de calidad de aguas (paso n° 2); y los controles de calidad necesarios para todo el
sistema (paso n° 4).
Durante mucho tiempo, los monitoreos de calidad se han llevado a cabo sin considerar si
las conclusiones que se pretendían obtener, podrían ser obtenidas en una forma estadística válida.
La relación entre las conclusiones buscadas y los métodos empleados para ello, debe ser analizada
considerando las limitaciones estadísticas y de presupuesto. Lo propuesto en el paso n° 1 permite
61
lograr el consenso entre aquellos que usarán la información y los encargados de diseñar la red de
monitoreo. En el punto siguiente se discutirán algunos de los métodos estadísticos propuestos
para fines determinados.
Sin embargo, el conocer que métodos cumplen con las expectativas buscadas es solo la
mitad del trabajo. Las suposiciones incluidas en los métodos estadísticos empleados para el
análisis de datos deben satisfacer las características de la población de calidad de aguas
maestreada.
II.1.- Selección de procedimientos estadísticos para análisis de datos
En general, se pueden resumir las formas de manejo de datos provenientes de estaciones
fijas en las siguientes categorías:
aa)) La determinación de valor medio en calidad de agua que puede
ser usado para describirla en un contexto espacial, por ejemplo:
para comparar la calidad a lo largo de un río o entre dos ríos
bb)) La detección de tendencias en calidad de agua, puede ser usada
para describirla a lo largo del tiempo; por ejemplo: comparación
entre años.
cc)) La detección de la violación de un estándar de calidad de aguas o
de la probabilidad de ser violada.
II.1.1.- Determinación de medias en calidad de aguas
Las medidas de la tendencia central para un determinado período de tiempo, pueden ser
expresadas como medias aritméticas, medianas o modos. En algunos casos, como por ejemplo
distribuciones muy sesgadas, la media geométrica puede ser la más adecuada. La incertidumbre
en la medida de la tendencia central puede tomar la forma del intervalo de confianza, el rango de
observaciones o los percentiles. Se considera que el intervalo de confianza de la media es válido
cuando el tamaño de la muestra n es mayor de 2, para datos ligeramente sesgados; cuando n es
62
mayor de 10, para datos moderadamente sesgados; y cuando n es mayor de 40, para datos
altamente sesgados.
Una vez que se ha efectuado la medición de la tendencia central, la misma puede ser
presentada conjuntamente con el nivel de incertidumbre en forma gráfica. Este demuestra en
forma rápida las condiciones de calidad de aguas en un área determinada.
II..1.2.- Determinación de Tendencias en Calidad de Aguas:
En general, podemos decir que existen tres formas para determinar tendencias:
1. Representación gráfica de series de tiempo
Dichos gráficos pueden mostrar considerable cantidad de
información, como la detección de valores extremos, tendencias,
estacionalidad, no-estacionalidad, ciclos de largo plazo,
dependencia entre observaciones, necesidad de transformación de
datos, etc..
2. Ensayos paramétricos
Estos ensayos están basados en la suposición de normalidad y deben
ser usados sólo si esta suposición es satisfecha. El uso de una
prueba t para dos muestras, implica que el registro de datos puede
ser dividido en dos partes a fin que las medias puedan ser
comparadas a lo largo del tiempo; tal sería el caso de antes y
después de un sistema de tratamiento o, comparaciones de año a
año.
63
Esta prueba se considera robusta lo que significa que sus resultados
son relativamente confiables aún si la suposición de normalidad es
violada.
Algunos autores establecen que los resultados no son válidos si la
distribución es altamente sesgada y, desafortunadamente esta
característica se presenta frecuentemente en calidad de aguas.
La regresión lineal aplicada a una parte o la totalidad de los datos
puede ser usada para evaluar tendencias en determinados períodos
de tiempo. La importancia de la tendencia lineal puede ser
demostrada probando si la pendiente de la línea es
significativamente diferente de cero.
3. Ensayos no-paramétricos para Tendencias.
Muchos de estas pruebas de tendencia están basados en rangos más
que en valores numéricos y evitan los problemas asociados a la
suposición de normalidad. Por estas características ocupan un lugar
muy importante en los análisis de datos de rutina. La prueba de
Wilcoxon para dos muestras independientes es el equivalente no
paramétrico de la prueba t para igualdad de medias.
Algunos autores sugieren la prueba no paramétricas de Spearman
para tendencias escalonadas y lineales respectivamente. Otra prueba
que se puede utilizar es: la prueba de la Mediana.
A partir de trabajos realizados por diferentes investigadores sobre tendencias en calidad
de aguas en el tiempo, se infiere que los datos deben ser generados en una estación determinada
empleando igual frecuencia y durante período de tiempo razonable. Una suposición importante
cuando se evalúan tendencias es que las muestras son independientes entre sí a lo largo del
64
tiempo. Los tipos más importantes de dependencia son: la estacionalidad y la correlación de
series.
II.1.3- Violaciones de estándares de calidad
Tradicionalmente, la forma de informar las violaciones a estándares estuvo enfocada a
unos pocos datos que excedían un valor fijo, sin que se hallan hecho esfuerzos para evaluar las
violaciones en el contexto de un panorama total de calidad de agua en tiempo o espacio. Este
proceder es útil para acciones de regulación, pero desde un punto de vista más general puede
resultar útil el conocer cuán cerca está un curso de agua de violar un estándar en comparación con
los valores de cinco años atrás o, cuanto más puede violar el estándar un curso de agua que otro.
El porcentaje de muestras que exceden un estándar es una simple estimación de la
probabilidad de excedencia del mismo en un punto dado. Una estimación más sofisticada puede
ser estimar la probabilidad de excedencia del estándar.
Resumen:
La elección de los métodos de análisis de datos para el manejo de información de
calidad, previo a la generación de los mismos, amplía enormemente la definición de diseño de
sistema de monitoreo. Obliga al diseñador del sistema, a conocer que información se busca y a
entender el comportamiento estadístico subyacente de la calidad del agua que está siendo
medida. Se entiende que los procedimientos detallados precedentemente no constituyen la
totalidad de los disponibles sino, los básicos.
En la tabla siguiente se aprecia un resumen de los procedimientos para el análisis de
datos detallados precedentemente.
65
Tabla N° 2
Resumen de Procedimientos más comunes para el Análisis de Datos
I.- Determinación de características básicas de la información• Medidas de la tendencia central• Medidas de la dispersión• Distribuciones de probabilidad
II.- Determinación de tendencias• Representación gráfica• Ensayos paramétricos
♦ Distribución t de Student♦ Prueba t para dos muestras♦ Prueba F para diferencias entre variancias
• Pruebas de normalidad• Ensayos no paramétricos
♦ Prueba de Wilcoxon♦ Prueba de correlación de Spearman♦ Prueba de la Mediana
III.- Violación de estándares• Porcentaje de muestras que exceden el estándar• Probabilidad de violación
II.2.- Confirmación de los supuestos estadísticos
Los procedimientos estadísticos disponibles para analizar datos de calidad de aguas
incluyen suposiciones sobre la población que está siendo maestreada. Estas suposiciones
necesitan ser evaluadas con respecto a las características estadísticas de esas poblaciones,
mientras hay ciertas características que pueden ser generalizadas, hay otras que no pueden serlo.
Es por lo tanto difícil definir cual es el procedimiento estadístico más apropiado para un
programa de monitoreo sin un análisis de los datos existentes; para programas nuevos debe
confiarse en la experiencia y la intuición hasta que se obtengan datos de la población maestreada.
Hay tres suposiciones importantes relacionadas con el uso de estadística en calidad de
aguas:
66
1. Observaciones normalmente distribuidas
2. Homogeneidad de la variancia en el período registrado: implica
por ejemplo que ninguna nueva descarga de aguas residuales a
resultado en un cambio en la variancia del proceso.
3. Independencia de las observaciones: esta suposición puede ser
violada por la estacionalidad o correlación de la serie.
Los datos de calidad de aguas en general violan las suposiciones precedentes.
II..2.1.- Pruebas de normalidad
Hay varias formas de probar si los datos están normalmente distribuidos. Los gráficos de
probabilidad normales o log-normales nos indican si los datos están distribuidos en forma normal
o log-normal.
Un histograma de frecuencia también provee información de la distribución de los datos.
La prueba Ji-Cuadrada de bondad de ajuste se emplea para probar si un conjunto de datos se
ajusta a una determinada distribución (normal, log-normal).
Otras pruebas son efectivas para detectar la no normalidad, tal es el caso de la prueba de
Kolmogorov-Smirnov.
II.2.2.- Pruebas de la homogeneidad de la variancia
La revisión de un gráfico de series de tiempo nos dará indicación si a habido cambios en
la variancia.
Si existen sospechas de cambios, la serie de datos puede ser dividida en dos o más
segmentos dependiendo de la cantidad de supuestos cambios, cuando resultan dos grupos, se
puede usar una prueba F para determinar si las variancias son significativamente diferentes.
67
Cuando las variancias son heterogéneas a tal punto que pueden existir problemas serios,
puede ser necesario revisar la serie de datos para determinar la causa de los cambios. Puede
suceder que cierta información pasada no sea representativa de la situación actual y, cuando se la
retira se alcanza la homogeneidad de la variancia.
Proyecciones de futuros cambios en la variancia puede determinar el empleo de
procedimientos de análisis que no sean sensitivos a las suposiciones de violación de la variancia.
II.2.3. Pruebas de independencia de observaciones
Las series de tiempo de datos de calidad de aguas presentan con cierta certeza
dependencia del tiempo.
La observación de un gráfico de una serie de tiempo puede mostrar abundante
información sobre el comportamiento periódico, la magnitud y regularidad de los cambios
periódicos puede ser evaluada. Se puede determinar la necesidad y posibilidad de aplicación de
un tratamiento separado de los componentes periódicos de las series de tiempo.
Existen técnicas para remover, por ejemplo, la estacionalidad de una serie de datos. Se
puede, luego graficar las series de tiempo originales y aquellas donde las medias y desvíos
estándar periódicos fueron removido, si la gráfica de los datos originales muestra un
comportamiento cíclico, es aconsejable el tratamiento de estacionalidad. Del análisis de los datos
sin la componente estacional se puede entonces inferir si existe correlación de series.
En la tabla siguiente se presenta un resumen de lo expresado.
68
Resumen de técnicas de confirmación de los supuestos estadísticospropuestos
I.-Graficar los datos de calidad de aguas vs el tiempo.
II.-Probar la normalidad.• Histogramas de frecuencia.• Prueba de Ji-Cuadrada• Prueba de Kolmogorow-Smirnow
III.-Probar la homogeneidad de la variancia.• Examen del gráfico de serie de tiempo.• Prueba F de diferencia de variancias.
IV.-Prueba de independencia de observaciones.• Examen del gráfico de tiempo en busca de ciclos periódicos.• Gráficos sin ajuste estacional.• Gráficos con ajuste estacional.• Cantidad efectiva de muestras independientes.
II.3. Procedimientos para el análisis de datos
II.3.1. Medidas de la tendencia central
No definiremos media aritmética y geométrica dado que son expresiones conocidas pero
si definiremos las siguientes expresiones:
Mediana:
De un conjunto finito de valores es el valor que divide al conjunto en dos partes
iguales tales que, el número de valores ≥ la mediana sean iguales al número de
valores ≤ que ella. Cuando el número de observaciones es impar, la mediana
será el valor que está en el medio. Si el número de observaciones es par, la
mediana es el valor medio de las dos observaciones centrales. La mediana tiene
la ventaja sobre la media de no estar afectada tanto por los valores extremos y
69
puede ser estimada aún cuando la mitad de los valores sean no detectados o
menor que.
Modo:
De un conjunto de valores es el valor que ocurre más frecuentemente. Si todos
los valores son diferentes no existe modo. Se emplea para describir datos
cualitativos.
II.3.2.- Medidas de la dispersión
La dispersión de un conjunto de observaciones se refiere a la variedad que exhiben los
valores de las observaciones. Si todos los valores son los mismos no existe dispersión; en caso
contrario hay dispersión de datos y esta puede ser pequeña o elevada. Presentaremos algunas
medidas de la dispersión:
Rango:
Es la diferencia entre el mayor y el menor valor de un conjunto de
observaciones. Es una medida muy pobre de la dispersión dado que toma en
cuenta solo dos valores pero, tiene a su favor su sencillez.
Variancia:
Cuando los valores de un conjunto de observaciones están próximos a su media
la dispersión es menor que cuando están distribuidos en un amplio recorrido. La
variancia es una medida de la dispersión alrededor de la media. Para el cálculo
de la variancia de la muestra se emplea la siguiente expresión:
S2 = ( )
)(x x
n
ii
n
−
−=∑ 2
1
1
Para el cálculo de la variancia de la población, la expresión empleada es la
siguiente:
σ2 = )(x
n
ii
n−
=∑ µ 2
1
Donde:
70
σ2 = variancia de la población
S2 = variancia de la muestra
n - 1 = grados de libertad
n = número de datos
µ = media de la población
x = media de la muestra
Desviación estándar:
La variancia se expresa en unidades cuadradas y por lo tanto no es una medida
de la dispersión apropiada cuando se desea expresar este concepto en términos
de la unidades originales. Para obtener una medida en unidades originales,
simplemente se toma la raíz cuadrada de la variancia . El resultado se llama
desviación estándar.
σ = (σ2)1/2
S = (S2)1/2
Donde:
σ = desviación estándar de la población
S = desviación estándar de la muestra
Coeficiente de variación:
La desviación estándar es útil como medida de la variación dentro de un
conjunto dado de datos. Sin embargo, cuando se desea comparar la dispersión
en dos conjuntos de datos, comparar las desviaciones estándar puede conducir a
resultados ilógicos. Puede ser que las dos variables que intervienen se midan en
unidades diferentes, o aunque se use la misma unidad de medición, las dos
medidas pueden ser bastante diferentes. Lo que se necesita en situaciones como
ésta es una medida de variación relativa, en lugar de una variación absoluta. Esa
medida se encuentra en el coeficiente de variación, el cual expresa a la
desviación estándar como un porcentaje de la media.
CV= )(s
x100
71
72
Ejemplo N° 1:
Se tienen resultados de programas de muestreo de la siguiente forma:
Muestra 1 Muestra 2Duración del Programa 2,5 meses 1,1 mesDBO 7,25 mg/l 4,0 mg/lDesviación Media 0,5 mg/l 0,5 mg/lCoeficiente de variación 6,9 12,5
La comparación de las desviaciones nos indicaría que ambas muestras tienen igual
variabilidad. Sin embargo la comparación de los coeficientes de variación nos demuestra lo
contrario. Este coeficiente también es útil para comparar los resultados obtenidos por personas
diferentes que ejecuten un mismo análisis.
II.3.3. Distribuciones de probabilidad
Distribución Normal:
Es la distribución más importante en toda la estadística, y es conocida como
Distribución de Gauss.
Esta distribución se rige por lo que llamamos: función de densidad - f(x), que es
una fórmula que representa la distribución de una variable aleatoria continua.
La densidad normal que rige esta distribución es:
f(x) =[1 / 2π ] e( )
−−x µ
σ
2
22
- ∞ < x < ∞Donde:
π = 3,1416
µ = media de la población
σ = desvío estándar de la población
Para el caso que tratamos podemos decir que µ es una medida de la tendencia
central y σ de la dispersión.
Las características de esta distribución son :
73
1. Simétrica respecto a la media.
2. La media, la mediana y el modo son iguales.
3. Debido a la simetría ya mencionada, el 50% del área está hacia la
derecha de una perpendicular levantada en la media y el 50% está
hacia la izquierda.
4. Si se levantan perpendiculares a partir de la media, a la distancia de
una desviación estándar, se tendrá el 68 % del área total; a dos σ el
95% y a tres σ el 99,7 %.
74
75
5. Los valores de µ y σ determinan la distribución normal o sea habrá
una distribución normal para cada valor de µ y σ.
Distribución Normal Unitaria :
Este es el miembro más importante de la familia de las Distribuciones Normales
y sus características son que tiene: µ = 0 y σ = 1. La variable aleatoria que
resulta se denomina Z y se expresa como :
Z = (x - µ) / σ
Donde:
σ = desviación estándar de la población
µ = media de la población
x = variable aleatoria
La ecuación para la distribución normal unitaria será :
76
( )f ez
z
=−1
2
2
2
π-∞ < z < ∞
Para encontrar la probabilidad de que Z tome un valor entre dos puntos
cualesquiera del eje Z o sea por ejemplo entre Z0 y Z1 ; debe encontrarse el área
entre las perpendiculares levantadas por estos puntos. La fórmula de integración
es :
( )f dzzz
z
0
1
∫Afortunadamente no debe llevarse a cabo la integración porque existen tablas
que proporcionan información de todas aquellas integraciones que pueden
resultan interesantes. La variable aleatoria Z puede ser usada para inferir
probabilidad acerca de la media de la muestra ( x ) de las variables aleatorias.
Esta relación se puede usar para determinar probabilidad de excedencia si se
supone que se conocen µ y σ .
Z x n= − µ σ/ ( / )
Donde:
σ = desviación estándar de la población
µ = media de la población
x = media de la muestra
n = número de datos
Ejemplo N° 1:
Dada la distribución normal unitaria, encontrar el área bajo la curva por encima del eje
Z, entre Z = 0 y 2.
De la Tabla N° 3 se obtiene que para Z = 2; el área va a ser 0,4772.
77
En este área se puede interpretar:
1. La probabilidad que una Z elegida al azar tenga un valor entre 0 y 2.
2. La frecuencia relativa de la ocurrencia de los valores de Z entre 0 y 2;
puede decirse que el 47,72 % de las Z tiene un valor entre 0 y 2.
Ejemplo N° 2 :
En este ejemplo se dan las ventajas de transformar distribución normal en unitaria.
Un químico nota que los valores de un grupo de datos es ≅ normal, con una media (µ) de
10 y un desvío estándar de (σ) 2,5. De un ensayo elegido, determinar cuál es la probabilidad que
su valor sea 15 o más.
78
79
Si la distribución fuera normal unitaria se tendría la media µ = 0 y el desvío estándar σ =
1. Se podría usar entonces la Tabla para hallar la probabilidad con poco esfuerzo.
Afortunadamente cualquier distribución normal puede transformarse en unitaria,
transformando los valores de x en Z.
Ahora debe determinarse el valor de Z, digamos Z 0 corresponde a x = 15.
Para ello usamos la expresión:
Z = (x - µ) / σ = (15 - 10) / 2,5 = 2 = Z 0
Debemos observar que cuando trabajamos con las x, la distancia entre el valor que
interesa (15) y la media (10) es 15 - 10 = 5 o sea igual a dos desvíos estándar. Para el caso de
transformar a Z, nuevamente la distancia hasta Z 0 es igual a 2 σ, porque σ = 1.
Consultando la Tabla N° 3 tenemos que para Z = 2; el área bajo la curva es 0,4772. Si
restamos 0,5 (el área de media curva) menos 0,4772 tendremos la superficie del área de nuestro
Prueba t para determinar cuando dos muestras derivan de la misma población :Dos muestras tienen medias que no son estadísticamente diferentes cuando:
x - y / Sω (1 / Nx + 1 / Ny)1/2 < tNx + Ny - 2; 1 - α
Donde:
x = 1
1Nx
xii
N x
=∑ = media de concentración de calidad de agua de la variable para un período dado.
y = 11Ny
yyi
N y
=∑ = media de concentración de calidad de agua de la variable para un período base.
Donde:Nx = N° de muestras para un período dado de tiempo.Ny = N° de muestras para otro período de tiempo.t Nx +Ny - 2; 1 - αα = t de Student teniendo Nx + Ny - 2 grados de libertad a 100 α % nivel deconfianza.Sω2 = [ (Nx - 1) Sx2 + (Ny - 1) Sy2 ] / (Nx + Ny - 2) = Variancia de ambas muestras.
85
Sx2 = ( )1
1 1
2
Nx x
xii
Nx
−−
=∑ = Variancia de la muestra xi.
Sy2 = ( )1
1
2
1Ny y
yii
Ny
−−
=∑ = Variancia de la muestra yi.
Ejemplo N° 1:
Dados los datos de calidad de aguas de OD de dos años diferentes, colectados en iguales
intervalos de tiempo, pero con diferentes frecuencias; determinar si las medias son
significativamente diferentes a un nivel de confianza del 90 y 95 %.