viernes, 31 de agosto de 2007

TIPO DE SUELO

TIPO DE SUELO
La clasificación del USDA (United States Department of Agriculture) reconoce varios órdenes de suelos, cuyos nombres se forman anteponiendo una partícula descriptiva a la terminación –sol.

ORDEN
Características
ENTISOL
Casi nula diferenciación de horizontes; distinciones no climáticas: aluviones, suelos helados, desierto de arena...
VERTISOL
Suelos ricos en arcilla; generalmente en zonas subhúmedas a áridas, con hidratación y expansión en húmedo y agrietados cuando secos.
INCEPTISOL
Suelos con débil desarrollo de horizontes; suelos de tundra, suelos volcánicos recientes, zonas recientemente deglaciadas...
ARIDISOL
Suelos secos (climas áridos); sales, yeso o acumulaciones de carbonatos frecuentes.
MOLLISOL
Suelos de zonas de pradera en climas templados; horizonte superficial blando; rico en materia orgánica, espeso y oscuro.
ALFISOL
Suelos con horizonte B arcilloso enriquecido por iluviación; suelos jóvenes, comúnmente bajo bosques de hoja caediza.
SPODOSOL
Suelos forestales húmedos; frecuentemente bajo coníferas. con un horizonte B enriquecido en hierro y/o en materia orgánica y comúnmente un horizonte A gris-ceniza, lixiviado.
ULTISOL
Suelos de zonas húmedas templadas a tropicales sobre antiguas superficies intensamente meteorizadas; suelos enriquecidos en arcilla.
OXISOL
Suelos tropicales y subtropicales, intensamente meteorizados formándose recientemente horizontes lateríticos y suelos bauxíticos.
HISTOSOL
Suelos orgánicos. depósitos ogánicos: turba, lignito.... sin distinciones climáticas.

Utilización del modelo 3-PG

Modelo 3-PG. El modelo 3-PG es un modelo de crecimiento basado en procesos. De acuerdo a la descripción de Landsberg y Waring (1997), el modelo tiene la siguiente estructura:

i) Estima la Producción Primaria Bruta (PG) a partir de la radiación fotosintéticamente activa utilizable ( p।a.u) y el quantum de eficiencia del dosel ( C). El valor de p.a.u se obtiene por una reducción del valor de la radiación fotosintéticamente activa ( p.a.) a través de factores modificadores adimensionales cuyos valores varían entre 0 y 1. Los coeficientes modificadores reflejan las condiciones impuestas sobre p.a.u debido al cierre de estomas, causados por altos niveles de déficit de presión de vapor (D), sequías hídricas y estado nutricional del suelo. La sequía del suelo está definida por la proporción de agua en la zona radicular con respecto a la máxima cantidad de agua disponible ( ) o por temperaturas de congelamiento.

ii) Estima la Productividad Primaria Neta (PN) a partir de PG। Para ello el modelo utiliza la proporción PN/PG=Cpp, la que se ha estimado en 0,47 ± 0,04 SD. Este valor ha demostrado ser relativamente constante para diversos tipos de bosques y localidades geográficas (Waring et al. 1998).

iii) Para estimar el carbono localizado en la biomasa de raíces, utiliza relaciones simples derivadas de información proporcionada por la literatura actual para evaluar el crecimiento radicular, la tasa de recambio de raíces finas y los efectos de las condiciones del sitio sobre el crecimiento radicular। Para ello se han considerado dos relaciones básicas: i) la relación inversa entre el crecimiento fustal y la fracción de PN localizada en el suelo (Beets y Whitehead 1996) y, ii) el efecto ambiental causado por condiciones de sequías, régimen de temperatura y nutrición, que incrementan la localización anual del carbono en biomasa de raíces entre un 25% y 60% (Santantonio 1989, Beets y Whitehead 1996).

iv) El modelo 3-PG utiliza un submodelo, que ha sido derivado de la ley de autorraleo y de las tasas de crecimiento fustal, que permite calcular los cambios en la densidad del rodal con el tiempo (ley de –3/2 o de autorraleo)।

v) Para determinar la localización del carbono en los diversos componentes del árbol como follaje, fuste y raíces, se utilizan relaciones alométricas, de la forma:
Wi = aiWNi
En que W es la biomasa total del árbol e i es el componente del árbol। El parámetro Ni refleja las características genéticas de la especie.

vi) Para estimar el efecto del decrecimiento de la biomasa aérea del bosque con la edad, el modelo usa la relación lineal entre conductividad hidráulica y PN (Mencuccini y Grace 1996)। Esta relación sustenta la hipótesis de que la conductancia del fuste declina con la edad induciendo una menor gc. Para incorporar este efecto, Landsberg y Waring (1997) utilizaron una función de decrecimiento de la biomasa aérea con la edad.

Antecedentes del sitio para la aplicación del Modelo 3-PG. Las variables temperatura máxima, mínima y media mensual, entre los años 1983 y 1999, se obtuvieron de la estación meteorológica ubicada en el predio Tanumé, contigua al área de estudio. El déficit de presión de vapor mensual se estimó mediante la diferencia de presión de vapor saturado (Pvs), utilizando la temperatura máxima (T1) y mínima mensual (T2) en ºC, de acuerdo a la fórmula de Runing et al. (1987), en que:
Pvs, kPa = 0,61078 * exp(17,269*(T1/T2+273,3) (1) La radiación solar diaria se derivó de los datos de temperatura máxima y mínima de Tanumé, de acuerdo al procedimiento descrito por Bristow y Campbell (1984)। Estos valores fueron corregidos con antecedentes de localización, latitud, longitud y altitud y considerando una superficie plana del área de estudio, obteniéndose el máximo potencial de radiación solar। Este potencial se corrigió mediante la variación mensual del ángulo de declinación solar sobre la superficie terrestre (Waring 2000)। La influencia de nubes y la constante neblina en el área de estudio, por su cercanía al mar, reduce el potencial de radiación solar। Para estimar esta reducción se utilizaron las ecuaciones desarrolladas por Bristow y Campbell (1984) y corregidas por Waring (2000)। Se asumió un valor 0,15 para la proporción entre la radiación difusa y directa, valor que es considerado constante durante el año

Bosque (Valdivia) - Utilización del modelo 3-PG, un modelo basado en procesos, en el análisis de la productividad de plantaciones de pino radiata manejado con diferentes regímenes silviculturales

Bosque (Valdivia) - Utilización del modelo 3-PG, un modelo basado en procesos, en el análisis de la productividad de plantaciones de pino radiata manejado con diferentes regímenes silviculturales

Bosque (Valdivia) - Utilización del modelo 3-PG, un modelo basado en procesos, en el análisis de la productividad de plantaciones de pino radiata manejado con diferentes regímenes silviculturales

Bosque (Valdivia) - Utilización del modelo 3-PG, un modelo basado en procesos, en el análisis de la productividad de plantaciones de pino radiata manejado con diferentes regímenes silviculturales

miércoles, 29 de agosto de 2007

AREA FOLIAR INDICE (IAF)

El índice de área foliar (IAF) es la capacidad de ocupación del terreno por las partes aéreas de la planta; es decir, la relación entre el área foliar y el área del suelo cubierta por la planta.

AREA FOLIAR INDICE (IAF) = área foliar / área de suelo

Convencionalmente, se considera como área foliar, el área plana (una fase) y no la superficie (ambas fases) de la hoja.
Se ha demostrado que a medida que el IAF se incrementa, aumenta la intercepción de luz y la fotosíntesis neta, hasta alcanzar un valor crítico del IAF, más allá del cual no hay incremento de la fotosíntesis del cultivo. El IAF óptimo no es estático para un determinado cultivo, sino que cambia de acuerdo con las variaciones de la intensidad de la luz, etc. La fotosíntesis neta es la resultante de la diferencia entre la fotosíntesis total y la respiración, ya que este último proceso consume parte de la primera para que la planta pueda realizar las funciones vitales.
En la Figura 1 se muestran valores teóricos de IAF de un campo, densamente sembrado con un cultivo perenne cualquiera, por ejemplo pasto elefante (Pennisetum purpureun). En la misma figura se presenta la curva de productividad, medida en valores relativos de materia seca por unidad de tiempo y de superficie de terreno, a través de las diferentes fases de crecimiento del cultivo.

La producción de materia seca por unidad de superficie es muy pequeña durante la fase inicial del crecimiento de la planta, debido al escaso desarrollo del área foliar. A medida que aumenta el área foliar, la productividad también aumenta hasta alcanzar un valor máximo, el cual correspondería a un IAF aproximado de 5. Con aumentos del IAF, la productividad decaería, pudiendo reducirse a cero, si el desarrollo foliar fuera excesivo. La disminución de la productividad a medida que el IAF pasa de cierto valor óptimo, es consecuencia del autosombreamiento de las hojas.
En árboles de naranjo, Turell (1961), estudiando el crecimiento del área fotosintética en la zona subtropical en relación con la producción, indica que pasados los primeros diez años de vida de la planta, el aumento del área foliar del árbol se incrementa notablemente en relación con la eficiencia productiva de la misma. Este decrecimiento de la eficiencia productiva, de acuerdo con Wheaton et al. (1978), es aproximadamente de media caja de frutos (20 kg) por cada 20 m3 del incremento del volumen de la copa. Es importante destacar que en Venezuela (zona tropical) la pérdida de la eficiencia productiva se inicia a partir del sexto año de la plantación (Avilán,1986).



El IAF durante el ciclo se midió en forma directa e indirecta. Las mediciones directas se realizaron por un método fotográfico (Rodríguez et al., 2000), determinando la superficie foliar total de las plantas extraídas de un m2 de suelo. La medición indirecta se realizó por medio de un interceptómetro óptico (PAR/LAI Ceptometer, Decagon Devices, Pullman, Washington, USA), efectuando cada fecha entre cinco y siete repeticiones por tratamiento, con la barra dispuesta de manera perpendicular al surco, en distintos sectores de la parcela experimental. Los valores de IAF se calcularon a partir de las lecturas de la radiación fotosintéticamente activa (PAR), medida por encima (PARa) y por debajo (PARd) del dosel, con la siguiente expresión:
donde K es el coeficiente de extinción lumínico, que al considerar un parámetro de distribución angular esférico (x = 1), simplifica su cálculo a K = 1/(2*cos u), siendo u el ángulo cenital; fb es la fracción de la radiación directa con respecto a la radiación solar recibida, y A es un coeficiente de absorción general del dosel que resulta igual a 0,86 para un valor de absortividad de 0,9 (Campbell, 1986).
También se utilizó el interceptómetro para medir el IAF in situ, esto es en el lugar donde se extrajo la muestra para determinar su valor por fotografías. Las observaciones con el interceptómetro se realizaron sólo bajo condiciones de cielo despejado y durante las horas próximas al mediodía solar. De esta forma el ángulo cenital fue el menor posible, y el factor fb correspondió siempre a fracciones elevadas de radiación solar directa, lo que permitió homogeneizar los datos.
La determinación de la fracción de suelo cubierto por papa (%C) se realizó también utilizando fotografías digitales y técnicas de interpretación de imágenes. Al igual que para determinar el IAF, se empleó el método de máxima verosimilitud como algoritmo de clasificación de las imágenes (Eastman, 1997). En todas las fechas, el muestreo para obtener la fracción cubierta de suelo consistió de tres fotografías verticales en distintas ubicaciones, tomando el surco entre los camellones centrales como eje longitudinal medio.


El período de plena producción, corresponde a la etapa en la que existe una estrecha relación entre el incremento del volumen o follaje de la copa y el número de frutos producidos. Durante este período se alcanzan los mayores índices de fructificación, a través de todo el ciclo de vida productivo de la planta, el cual se inicia en el mango alrededor de los nueve años y se prolonga hasta los 14 años de edad.
El período de producción se caracteriza por un discreto aumento del follaje y una tendencia a mantener los niveles de producción de frutos alcanzados durante el período anterior o a incrementarlos en forma discreta. Sin embargo, el índice de fructificación va disminuyendo paulatinamente con el pasar de los años; es decir, decrece progresivamente la eficiencia productiva de la planta, ya que los aumentos del área foliar no se corresponden con los incrementos en la producción de frutos. Este período ocurre a partir de los 15 hasta los 28 años de edad o más. La duración del mismo está muy asociado a las condiciones edafoclimáticas, donde esté localizado el huerto y el manejo dispensado en los períodos que le precedieron.
El período de senescencia comienza con la etapa final, y está caracterizado por un escaso aumento del follaje y la disminución muy acentuada de los rendimientos. Los valores del índice de fructificación son bajos. Esta etapa se presenta después de los 30 años de edad de la planta.
Se puede observar que a partir del período de plena producción, cuando las plantas tienen de diez a 12 años de edad, la eficiencia productiva comienza a decrecer, lo que implica que para restaurarla o evitar que la misma se acentúe, se debe hacer una remoción del follaje para restablecer nuevamente el equilibrio entre el desarrollo vegetativo y el productivo; es decir, podar. Las razones de la pérdida de eficiencia productiva ya fueron mencionadas.

Los días del grado crecientes (GDD

es una herramienta heurística en el phenology. GDD son usados por los horticultores y jardineros para predecir la fecha que una flor florecerá o una madurez de alcance de cosecha.



GDD calculation

GDD son calculados tomando el promedio del máximo diario y las temperaturas mínimas comparado a una temperatura baja, Tbase, (normalmente 10 °C). Como una ecuación:

Tmax+Tmin
GDD=________________ __ Tbase
2

GDDs son típicamente moderados del invierno bajo. Se pone cualquier temperatura debajo de Tbase a Tbase antes de calcular el promedio. Igualmente, la temperatura máxima normalmente está el capped en 30 °C porque más plantas e insectos no crecen cualquier más rápido sobre esa temperatura. Sin embargo, algunos calientan que las plantas templadas y tropicales tienen los requisitos significantes durante días sobre 30 °C madurar fruta o semillas.

Por ejemplo, un día con un alto de 23 °C y un bajo de 12 °C contribuirían 7.5 GDDs.


23 + 12
_______ __ 10 = 7.5
2

Un día con un alto de 13 °C y un bajo de 7 °C contribuirían 1.5 GDDs.

13 + 10
_____ __ 10 = 1.5
2

Ecotono o fronteras

ecotonoDetección cuantitativa de fronteras ecológicas y ecotonos। La detección cuantitativa de fronteras es una herramienta fundamental para estudiar la forma y dinámica de los ecotonos o transiciones entre comunidades distintas. El análisis geográfico de fronteras consiste en la detección y evaluación estadística de su significación mediante tests de aleatorización. Una frontera es una posición espacial donde la tasa de cambio de una serie de variables es la más elevada. El método de la ventana móvil dividida ha sido muy utilizado para detectar fronteras en transectos y calcula la diferencia entre dos mitades de una ventana móvil que va recorriendo el transecto. La metodología más utilizada para la detección de fronteras de variable cuantitativas en dos dimensiones se basa en el cálculo de la derivada primera parcial en dos direcciones de los valores medidos en cuatro posiciones adyacentes de muestreo situadas en una malla regular ("lattice-wombling"). En el caso de datos irregularmente espaciados o de variables cualitativas se utilizan el "triangulation-wombling" y el "categorical-wombling", respectivamente. Existen estadísticos de fronteras que describen el número y tamaño de las fronteras detectadas. Para estudiar la relación espacial entre dos tipos de fronteras se definen los estadísticos de solapamiento basados en el grado de coincidencia espacial y en la distancia entre ambos tipos de fronteras. La significación de los estadísticos de frontera y de solapamiento se evalúa mediante tests de aleatorización restringida de las fronteras que consideran su autocorrelación espacial. Otras técnicas de detección de fronteras incluyen las onditas. El análisis y la comparación de las posiciones de distintos tipos de fronteras son fundamentales para entender los cambios ecológicos complejos.

Introducción. Definición de ecotonos y fronteras
Las fronteras, los umbrales, las interfaces y las discontinuidades definen las relaciones entre un sistema y su entorno permitiendo la aparición de diversidad, estructura espacial y, al fin y al cabo, de organismos vivos capaces de retener y transmitir información en medio de un universo más caótico (Rubert de Ventós, 2006). La persistencia de fronteras a distintas escalas espaciotemporales permite distinguir individuos, poblaciones, especies y comunidades. La detección de fronteras es pues fundamental para distinguir entidades biológicas diferentes.
Los ecotonos son transiciones entre comunidades diferentes a lo largo de cambios en los gradientes ambientales compuestas por fronteras más o menos conspicuas (Holland et al., 1991; Hansen y di Castri, 1992). El intercambio de especies entre comunidades vecinas y su presencia en ecotonos sugiere su valor como reservorios de diversidad a lo largo de gradientes ecológicos (Schilthuizen, 2000). Los ecotonos han sido además muy estudiados por considerarse especialmente sensibles a cambios ambientales pasados y recientes como el caso del ecotono bosque subalpino-pastos alpinos que incluye los límites altitudinales del bosque y del árbol. Sin embargo, las variables a estudiar y el método de cuantificación de las fronteras deben estar bien fundamentados dada la inercia y la variabilidad en la respuesta de los ecotonos al clima y otras perturbaciones (Kullman, 1989; Noble, 1993).
En sentido estricto, un ecotono es una zona de tensión o diferencia brusca entre las comunidades separadas (van Leeuwen, 1966; van der Maarel, 1976, 1990). Por contra, una ecoclina es una zona de cambios graduales donde los patrones espaciales son de grano fino y aparecen límites sinuosos entre las comunidades adyacentes. En teoría, las ecoclinas serían más sensibles a cambios ambientales que los ecotonos y responderían de forma más rápida a cambios de las variables abióticas, sobre todo en situaciones de gran estrés ambiental como el ejemplo citado del límite altitudinal del bosque (Brubaker, 1986). Desgraciadamente, la frontera semántica entre ecotono y ecoclina definida por los botánicos europeos ha desaparecido y el término ecotono es el predominante en la terminología actual aunque se refiera tanto a transiciones graduales como a bruscas (Hansen y di Castri, 1992).
Los ecotonos pueden considerarse compuestos por grupos de fronteras ecológicas o zonas de cambio entre comunidades distintas (Fortin, 1994, 1997; Cadenasso et al., 2003). Una frontera es una línea o una superficie que une los puntos donde los gradientes de los descriptores medidos muestran pendientes máximas. La frontera es una estructura espacial y por tanto puede registrar en su forma procesos pasados subyacentes implicados en su creación (Margalef, 1991). La descripción del patrón espacial permite así inferir los procesos que lo generaron, siempre teniendo en cuenta que un mismo patrón puede ser el producto de procesos diversos. Existen desde fronteras lineales, bruscas y bien conectadas (bordes), más propias de un ecotono en sentido estricto, hasta fronteras zonales de transición

Los ecotonos plantean una problemática estadística a la hora de analizarlos espacialmente ya que las variables estudiadas no suelen mostrar valores finitos y similares en el área de estudio (no son estacionarias) dado que los ecotonos son zonas de transición entre comunidades distintas (Fortin, 1999a). Como consecuencia de esta propiedad cualquier muestreo cuyo objetivo sea la detección de fronteras debe plantearse suficientes posiciones espaciales, ya sea en un transecto o en un área, de tal manera que abarquen las localizaciones donde aparecen fronteras (ecotono) y aquellas adyacentes que corresponden a las comunidades separadas. Por ejemplo, si quisiéramos detectar fronteras de diversidad en el ecotono bosque subalpino-pastos alpinos deberíamos muestrear el propio ecotono y localizaciones situadas en el bosque subalpino y en los pastos alpinos próximos al ecotono (Camarero et al., 2000, 2006).
Finalmente, las distintas fronteras desde gradual-difusa hasta brusca-nítida pueden ser debidas a distintos tipos de gradientes ambientales subyacentes ya sean lineales, graduales o bruscos. Algunos autores postularon la necesidad de retroalimentaciones positivas entre plantas y medio, como la modificación del microclima por parte de las plantas en situaciones de elevado estrés climático, para explicar la aparición de fronteras abruptas en el caso de gradientes ambientales graduales (Wilson y Agnew, 1992). Otros las explicaron apelando a la existencia de interacciones positivas fuertes entre individuos de la misma especie (Wilson et al., 1996; Wilson y Nisbet, 1997) o bien mediante procesos de competencia interespecífica intensa (Yamamura, 1976). Sin embargo, no parece ser éste el caso en el límite superior del bosque subalpino que podría responder más a cambios internos en tasas de crecimiento y a procesos demográficos (Wiegand et al., 2006).

jueves, 23 de agosto de 2007

En el mundo pueden encontrarse diferentes definiciones o interpretaciones de la nueva disciplina. Entre ellas se mencionan las siguientes:
"Arte, ciencia y tecnologías relacionadas al manejo de información geográficamente referenciada" (Universidad de New Brunswick, Canadá. 2001).
"Geomática se preocupa de las mediciones, análisis, manejo, extracción y despliegue gráfico de datos espaciales relacionados con las características físicas de la Tierra" (Universidad de Melbourne, Australia. 2000).
"Geomática es un campo de actividades que, usando una aproximación sistémica, integra todos los medios para adquirir y manejar datos espaciales requeridos como parte de actividades científicas, administrativas, legales y técnicas que se preocupan de la producción y manejo de información espacial (Instituto Canadiense de Geomática, Canadá. 2000).
"Geomática es un término científico moderno que se refiere a una aproximación integrada de mediciones, análisis y manejo de la descripción y localización de datos de la Tierra, a menudo denominados datos espaciales" (Universidad de Florida, Estados Unidos. 2000).
"Ingeniería Geomática es un campo de actividades que integra la adquisición, procesamiento, análisis, despliegue gráfico y manejo de información espacial" (Colegio Universitario de Londres, Inglaterra. 1999).
"La definición más elemental de Geomática aparece como una integración de percepción remota, sistema de posicionamiento global y sistemas de información geográfica" (Universidad Estatal de Colorado, Estados Unidos. 1997).
"Geomática es recolección, manejo, análisis y presentación de datos espacialmente referenciados". "Quizás hay una simple respuesta para la pregunta ¿qué es Geomática? GEOMATICA = GEOGRAFIA APLICADA" (Organización GEOMATICS pensando espacialmente, Reino Unido. 2001).
Finalmente, se pueden agregar dos definiciones más generales que las anteriores:
"Geomática es la informática aplicada a la Geografía" (Academia de Nice, Francia. 2000).
"Geomática es el término que mejor describe un amplio rango de técnicas utilizadas para medir y describir la Tierra" (Universidad Estatal de California, Estados Unidos. 2001).
Todas las definiciones presentadas apuntan a la integración sistémica de algunas técnicas, tales como las relacionadas con levantamientos de datos, posicionamiento global, percepción remota y fotogrametría, cartografía automatizada y sistemas de información geográfica.
En la actualidad el levantamiento de datos se apoya en una amplia gama de instrumentos, técnicas y métodos matemáticos para realizar mediciones de objetos, en rangos de tamaño que van desde una cabeza de alfiler hasta el planeta Tierra en su totalidad. Una de las tecnologías modernas, que ya están incorporadas en las actividades de levantamiento de datos, es el Sistema de Posicionamiento Global que se ha convertido en una técnica de apoyo imprescindible, si se requiere una localización precisa de los objetos.
Por otro lado, existen tecnologías como Percepción Remota y Fotogrametría, las que permiten inferir datos de un objeto o del ambiente físico en forma remota sin estar en contacto físico con ellos y resultan muy importantes cuando se requieren datos distribuidos sobre amplias zonas geográficas, incluyendo información en tres dimensiones. Los instrumentos que posibilitan estas formas de recopilar datos pueden estar montados en plataformas aéreas o espaciales.
Para el procesamiento y análisis de los datos recopilados con una u otra técnica, se utilizan programas computacionales tales como procesadores de imágenes o sistemas de información geográfica, los que además permiten realizar funciones de simulación y modelado. Finalmente los resultados obtenidos se presentan o despliegan gráficamente con técnicas modernas de cartografía automatizada.

AGUA

DEPURADORAS
La depuradora del futuro
Ocupan menos espacio, son más baratas y reciclan el agua mejor y más deprisa, dejándola lista para que pueda ser reutilizada incluso en regadíos, sin otros pasos posteriores que ahora son necesarios tras una depuración tradicional.
14 Ago 2007, 09:35 Fuente: COLPISA
Las depuradoras del futuro ya están aquí. Ocupan menos espacio, son más baratas y reciclan el agua mejor y más deprisa, dejándola lista para que pueda ser reutilizada incluso en regadíos, sin otros pasos posteriores que ahora son necesarios tras una depuración tradicional. En San Pedro del Pinatar (Murcia) se han enterado enseguida de todas esas ventajas y este mismo mes inaugurarán el «nuevo sistema de bio-reactor de membrana», que así es como se denomina técnicamente el invento, con el que podrán depurar hasta una cantidad de 20.000 metros cúbicos de aguas residuales por día. Todo ello lo sabe y lo cuenta a ABC José Manuel Poyatos, investigador del Departamento de Ingeniería Civil de la Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos en la Universidad de Granada.
Mayor calidad
Sostiene Poyatos que, «si se compara este sistema de descontaminación de aguas residuales con los que se emplean actualmente, se consigue un agua de mayor calidad a un precio mucho más asequible, se reduce considerablemente el tamaño de las plantas de tratamiento y se minimiza la producción de fango resultante».
Todo ello es posible gracias a los bio-reactores de membrana, que aportan una diferencia sustancial en relación al «sistema de fangos activos» (el sistema de tratamiento convencional de depuración), «al sustituir el decantador secundario por un sistema de filtrado constituido por módulos de membranas de ultrafiltración o de microfiltración». De este modo «la calidad final de agua es similar a la que se conseguiría utilizando un tratamiento terciario en el proceso de depuración», añade el investigador.
En otras palabras, con la depuradora del futuro, que en San Pedro del Pinatar ya casi es del presente, se ahorra uno el obligado paso de la «decantación secundaria», que ahora existe en todas las depuradoras tradicionales, y, además, no se necesita un posterior «tratamiento terciario» para que el agua depurada sea reutilizable para el riego. Y encima se abaratan los costes y se reducen los espacios.
Ésa es, al menos, la conclusión a la que llegan las tesis doctorales realizadas por José Manuel Poyatos y Marisa Molina, que han estudiado a fondo el campo de los bio-reactores de membrana, bajo la dirección de los prestigiosos investigadores Ernesto Hontorio y Jesús González.
Tecnología eficaz
En palabras de Poyatos, del mencionado estudio se deduce que «los sistemas de bio-reactores de membrana (BRM) son una tecnología eficaz para el tratamiento de las aguas residuales urbanas, permitiendo la obtención de efluentes con calidad suficiente para ser directamente reutilizables».
En concreto, desvela que, «con un sistema de bio-reactor de membrana sumergida a escala piloto y equipado con membranas de ultrafiltración, se ha realizado un estudio de cómo afecta en los tratamientos de aguas residuales urbanas la concentración de los sólidos en suspensión del licor mezcla (MLSS), el tiempo de retención celular».
Asimismo, asegura que el sistema se ha sometido a nada menos que siete procesos de puesta en marcha, «alcanzando el estado estacionario en cada uno de ellos» y «trabajando a distintos intervalos de concentración de MLSS, de temperatura y de superficie de membrana».
Como es lógico, los investigadores ya mencionados, que a su vez han trabajado junto con miembros del Instituto del Agua de la propia Universidad de Granada, confirman que han valorado adecuadamente «la capacidad de eliminación de materia orgánica, de sólidos en suspensión, de turbidez, de color y de microorganismos patógenos», entre otras cuestiones.
Evolución de los nitrogenados
Pero tampoco se han olvidado de estudiar «la evolución de los compuestos nitrogenados en diferentes circunstancias de concentración de biomasa para optimizar la nitrificación», ni de supervisar «el efecto de la carga hidráulica en el ensuciamiento de la membrana».
Todos esos trabajos han servido para obtener unos resultados experimentales que, siempre según Poyatos, «muestran cómo mediante este sistema se puede garantizar una calidad de agua depurada acorde con los requisitos exigibles en reutilización de aguas residuales con tiempos de retención hidráulicos de doce horas y con concentraciones de MLSS de 4.315 miligramos por litro, además de conseguir una nitrificación completa al trabajar con TRH de más de doce horas y concentraciones de MLSS en torno a 7.000 miligramos por litro.

miércoles, 22 de agosto de 2007

II JORNADAS NACIONALES DE GEOMATICA

II JORNADAS NACIONALES DE GEOMATICA
Caracas, del 03 al 05 de octubre de 2007
FUNDACIÓN INSTITUTO DE INGENIERÍA (FII).
CENTRO DE PROCESAMIENTO DIGITAL DE IMÁGENES (CPDI)
LLAMADO A PONENCIAS El Instituto de Ingeniería es una fundación del estado venezolano, adscrita al Ministerio de Ciencia y Tecnología destinada a la Investigación y Desarrollo Tecnológico. Está integrado por cuatro centros, entre los cuales el CENTRO DE PROCESAMIENTO DIGITAL DE IMÁGENES (CPDI), es pionero en el uso de la Geomática en el país. Desde su creación en 1983, ha promovido el desarrollo de aplicaciones con imágenes de sensores remotos, su análisis e integración a los Sistemas de Información Geográfica, con el objeto de apoyar las instituciones que han requerido de esta tecnología.
En este sentido, y como aporte a la comunidad usuaria de la Geomática, se está promoviendo la realización de las Segundas Jornadas Nacionales de Geomática.
Se invita a investigadores y profesionales a presentar ponencias para compartir y conocer el estado de avance de esta tecnología, y las aplicaciones realizadas recientemente, vinculadas con el desarrollo del país. TEMAS CENTRALES Aplicaciones en las áreas de: - Aplicaciones y Desarrollo con Sensores Remotos. - Sistemas Globales de Navegación Satelital. - S.I.G.: Modelaje, Análisis Espacial y Aplicaciones. En estas Jornadas se podrá participar en las siguientes modalidades: Ponente: presentador de trabajos técnico- científicos. Asistente: participante en las jornadas como oyente FECHAS IMPORTANTES Convocatoria y llamado de trabajos: 30/01/2007 Recepción de resúmenes: 30/03/2007 Notificación de trabajos aprobados: 04/05/2007 Entrega de trabajos: 31/07/2007 CARACTERÍSTICAS DE LOS RESUMENES 1. Señalar el Tema Central en el cual se ubica el resumen. 2. Máximo 250 palabras, en Microsoft Word, hoja tamaño carta, letra Arial, tamaño 11, espacio sencillo. 3. Márgenes de la página: superior e izquierdo 3 cm.; inferior y derecho 2,5 cm. 4. El título debe estar en mayúsculas, en negritas y centrado. Debe indicarse debajo el nombre del autor(es), igualmente la institución, ciudad, país, teléfono, fax y correo electrónico. 5. Al final del resumen debe indicarse las palabras claves. Los resúmenes deben ser enviados como archivo adjunto por correo electrónico a:

jgeomatica2007@fii.org

Esta dirección de correo electrónico está protegida contra los robots de spam, necesita tener Javascript activado para poder verla


Fundación Instituto de Ingeniería Teléfonos: (58 0212)- 9034610 / 903 4660 Fax: (58-0212)- 903 4781 Caracas-Venezuela Contactos : Olga Matos y Maribel Vieira www.fii.org/wwwcpdi/cpdi06/Paginas/JornadaII/index.html

II JORNADAS NACIONALES DE GEOMATICA

II JORNADAS NACIONALES DE GEOMATICA
Caracas, del 03 al 05 de octubre de 2007
FUNDACIÓN INSTITUTO DE INGENIERÍA (FII).
CENTRO DE PROCESAMIENTO DIGITAL DE IMÁGENES (CPDI)
LLAMADO A PONENCIAS El Instituto de Ingeniería es una fundación del estado venezolano, adscrita al Ministerio de Ciencia y Tecnología destinada a la Investigación y Desarrollo Tecnológico. Está integrado por cuatro centros, entre los cuales el CENTRO DE PROCESAMIENTO DIGITAL DE IMÁGENES (CPDI), es pionero en el uso de la Geomática en el país. Desde su creación en 1983, ha promovido el desarrollo de aplicaciones con imágenes de sensores remotos, su análisis e integración a los Sistemas de Información Geográfica, con el objeto de apoyar las instituciones que han requerido de esta tecnología.
En este sentido, y como aporte a la comunidad usuaria de la Geomática, se está promoviendo la realización de las Segundas Jornadas Nacionales de Geomática.
Se invita a investigadores y profesionales a presentar ponencias para compartir y conocer el estado de avance de esta tecnología, y las aplicaciones realizadas recientemente, vinculadas con el desarrollo del país. TEMAS CENTRALES Aplicaciones en las áreas de: - Aplicaciones y Desarrollo con Sensores Remotos. - Sistemas Globales de Navegación Satelital. - S.I.G.: Modelaje, Análisis Espacial y Aplicaciones. En estas Jornadas se podrá participar en las siguientes modalidades: Ponente: presentador de trabajos técnico- científicos. Asistente: participante en las jornadas como oyente FECHAS IMPORTANTES Convocatoria y llamado de trabajos: 30/01/2007 Recepción de resúmenes: 30/03/2007 Notificación de trabajos aprobados: 04/05/2007 Entrega de trabajos: 31/07/2007 CARACTERÍSTICAS DE LOS RESUMENES 1. Señalar el Tema Central en el cual se ubica el resumen. 2. Máximo 250 palabras, en Microsoft Word, hoja tamaño carta, letra Arial, tamaño 11, espacio sencillo. 3. Márgenes de la página: superior e izquierdo 3 cm.; inferior y derecho 2,5 cm. 4. El título debe estar en mayúsculas, en negritas y centrado. Debe indicarse debajo el nombre del autor(es), igualmente la institución, ciudad, país, teléfono, fax y correo electrónico. 5. Al final del resumen debe indicarse las palabras claves. Los resúmenes deben ser enviados como archivo adjunto por correo electrónico a:
' );
//-->\n
jgeomatica2007@fii.org
' );
//-->

Esta dirección de correo electrónico está protegida contra los robots de spam, necesita tener Javascript activado para poder verla
' );
//-->

Fundación Instituto de Ingeniería Teléfonos: (58 0212)- 9034610 / 903 4660 Fax: (58-0212)- 903 4781 Caracas-Venezuela Contactos : Olga Matos y Maribel Vieira www.fii.org/wwwcpdi/cpdi06/Paginas/JornadaII/index.html

jueves, 16 de agosto de 2007

nanopegamento

Crean un nanopegamento que puede pegar casi cualquier cosa (y además es barato)
El proyecto lo dirige Ganapathiraman Ramanath, profesor de Ciencia e Ingeniería de los Materiales en el Instituto Politécnico Rensselaer.
19 Jun 2007, 09:05 Fuente: SOLOCIENCIA.COM La tira de nanopegamento, de menos de un nanómetro de espesor, es barata de fabricar y puede resistir temperaturas muy superiores a lo esperado previamente. De hecho, los enlaces moleculares del adhesivo se fortalecen cuando es expuesto al calor.El nuevo método permite que una nanocapa de moléculas autoensambladas se convierta en un poderoso nanopegamento capaz de "enganchar" dos superficies que normalmente no se pegan bien entre sí.Cuando se intercala el nanopegamento entre una delgada película de cobre y una capa subyacente de sílice, y luego el conjunto es expuesto al calor, la fuerza de adherencia de la estructura aumenta de manera espectacular. El método también permite a la nanocapa resistir temperaturas de por lo menos 700 grados Celsius.El descubrimiento conducirá sin duda a aplicaciones comerciales en la nano y la microelectrónica. Otros usos previstos incluyen recubrimientos para turbinas y motores a reacción, así como adhesivos para usar en ambientes de altas temperaturas.El pegamento base del que deriva el nuevo producto ya está disponible comercialmente, pero el método del equipo de investigación para tratarlo con el fin de reforzar de modo crucial su capacidad de adherencia y su resistencia al calor es del todo nuevo.Debido a su pequeño tamaño, estas nanocapas reforzadas probablemente serán útiles como adhesivos en un amplio surtido de dispositivos de microelectrónica y nanoelectrónica, donde las capas adhesivas más gruesas, simplemente no pueden utilizarse.Otra característica sin precedentes es que las nanocapas intercaladas continúan fortaleciéndose hasta temperaturas del orden de los 700 grados Celsius. La capacidad de estas nanocapas adhesivas de resistir y hacerse más fuertes con el calor podría tener nuevos usos industriales, como por ejemplo pinturas que permanezcan aplicadas sobre las superficies calientes dentro de motores a reacción o turbinas de centrales generadoras de energía eléctrica.Ramanath está seguro de que el nuevo nanopegamento tendrá otros usos imprevistos, además de los asociados a la escala nanométrica o a las aplicaciones para altas temperaturas, los dos ámbitos más fácilmente previsibles.Este nanopegamento podría ser una solución versátil y barata para unir dos materiales cualesquiera que no se peguen bien entre sí. El concepto podría utilizarse para una amplia variedad de posibles aplicaciones comerciales.Los colaboradores de Ramanath son, entre otros, Darshan Gandhi, Amit Singh, Saroj Nayak y Yu Zhou (Instituto Politécnico Rensselaer), Michael Lane (IBM), y Ulrike Tisch y Moshe Eizenberg (Instituto de Tecnología de Israel, Technion).