miércoles, 27 de enero de 2010

El Costo de Electricidad por Desalar y Bombear Agua

(Vox Populi de la Ciencia, Radio Bemba)
27 de enero de 2010
El costo de desalar agua
Tomando datos de 1998, publicados en el portal intitulado “Enciclopedia de Desalinización y Fuentes de Agua”, encontramos que ellos afirman que el costo actual del metro cúbico de agua desalada es de 1 dólar y que puede bajar hasta 50 centavos de dólar, y que se espera que para la década de 2020 a 2030 el metro cúbico de agua desalada podrá bajar a un precio de 25 a 50 centavos de dólar.

En este portal se afirma que no hay obstáculos mayores en la desalación de agua para proporcionar agua fresca sin límites. Ellos afirman que el gran reto se encuentra en los requerimientos tan altos de energía en el proceso de desalación, pues teóricamente basta con 0.86 kilowatts hora de energía por cada metro cúbico de agua desalada. Sin embargo, con la maquinaria disponible al cerrar el siglo XX, las plantas desaladoras usaban de 5 a 26 veces más energía que ese mínimo.
Lo anterior significa que el gasto de electricidad se ubica entre los 4.3 kwh y los 21.5 kwh.
Considerando un costo de 10 centavos de dólar por kwh, se tienen entonces que el precio del agua desalada va desde los 43 centavos de dólar por metro cúbico, hasta los 2 dólares con 15 centavos por esa misma cantidad.



En moneda mexicana, y pasando por alto que en México es más cara la electricidad que en Estados Unidos, lo anterior significa un intervalo de $5 pesos con 60 centavos, hasta $27 pesos con 95 centavos por metro cúbico.

Todavía sin considerar el traslado del agua hasta la Ciudad de Hermosillo, sin agregar el margen de ganancia que buscan los empresarios privados, ni el impuesto al valor agregado, el recibo de una familia que gaste 40 metros cúbicos de agua al mes sería de $224 a $1 118 pesos.
Por otra parte, esa energía es obtenida en gran medida por medio de la combustión de combustibles fósiles, los cuales son fuente de contaminación del aire mediante gases con efecto invernadero.
http://www.desware.net/Economics-Water-Energy-Technology.aspx

El costo del bombeo de agua
Tomamos datos del portal de la organización conocida con el nombre de Earth Policy Institute, que se traduce como: Instituto de Política de la Tierra. En la sección “Plan B Updates”, que podemos traducir como Actualizaciones del Plan B, se encuentra un artículo de Edwin C. Clarke, que se intitula Incremento de los Precios del Agua en el Mundo, fechado el 7 de marzo de 2007.
Escribe Clarke: “Bombear agua desde el interior de la tierra o elevarla a emplazamientos a mayor altitud son procesos con un uso intensivo de la energía. Bombear 480 metros cúbicos de agua una altura de 100 metros requiere de aproximadamente 200 kWh de electricidad. A un precio de 10 centavos de dólar por kWh, el coste es de US$20 – sin incluir el coste de la bomba, el pozo y el sistema de tuberías.”

Sin tomar en cuenta que el costo de la energía es más alto en México que en Estados Unidos, podemos aprovechar los datos anteriores para realizar los siguientes cálculos:
Dividiendo los 200 kilowattshora entre 480 metros cúbicos, encontramos que bombear cada metro cúbico de agua una altura de 100 metros hacia arriba, consume 0.41 kwh.
Para subir un metro cúbico de agua desde el nivel del mar hasta 350 metros de altura, en la ladera de un cerro, se requiere consumir 1.45 kwh.

A precios estadounidenses de la electricidad, que nunca es menor de 10 centavos de dólar por cada kwh, resulta que el costo de cada metro cúbico se incrementa en $1 peso con 90 centavos mexicanos. Es decir, al intervalo que ya mencionamos, de $5 pesos con 60 centavos como mínimo, y hasta $27 pesos con 95 centavos por cada metro cúbico, es necesario agregar $1.90, para obtener que el precio será necesariamente mayor a $7.50.

Para una familia que consuma 40 metros cúbicos de agua al mes, el recibo se incrementa en más de $76 pesos, sin considerar margen de ganancia del empresario, ni el impuesto al valor agregado.
¿Por qué razón pensar en elevar el agua hasta 350 metros sobre el nivel del mar? Si se busca mover el agua desde algún punto cercano a la Ciudad de Guaymas, para poderlo usar en la Ciudad de Hermosillo, es necesario tomar en cuenta que muchas de las colonias de la capital se encuentra por encima de los 230 metros sobre el nivel del mar.

Si además tomamos en cuenta que la separación entre ambas ciudades es superior a los 120 kilómetros en línea recta, se necesitará una tubería en la cual se perderá energía debido a la fricción del agua contra las paredes internas de los tubos, además de la viscosidad del agua entubada.

También es necesario tomar en cuenta que el camino más apropiado no es la recta imaginaria que podemos trazar en el mapa, pues ésta pasa por encima de una sierra que se encuentra cerca del sitio conocido con el nombre de La Pintada, donde se encuentran montañas con alturas superiores a los 500 metros sobre el nivel del mar.

El camino más apropiado es seguir la vía del ferrocarril, lo cual da lugar a que el trayecto a recorrer sea superior a los 140 kilómetros.

En consecuencia con lo anterior, la estrategia sería elevar, mediante bombeo, el agua desalada a una gran pila situada en la serranía que se encuentra al norte de la Ciudad de Guaymas, a una altura de cuando menos 350 metros sobre el nivel del mar. Por lo tanto, el precio de la energía necesaria sería del orden de 1.25 dólares por cada metro cúbico.
Todo lo anterior sin considerar el costo de mantenimiento del sistema de bombeo ni el de la tubería de casi 140 kilómetros.
http://www.earth-policy.org/
http://www.earth-policy.org/index.php?/plan_b_updates/2007/update64



Conclusiones:
1.Los costos que hemos presentado son más altos de lo expresado aquí porque falta incluir la ganancia de los empresarios, más los impuestos federales, más otros gastos de mantenimiento del equipo y de administración.
2.Los costos también crecen si se introduce el hecho de que el costo de la electricidad en México es mayor que en Estados Unidos.
3.La instalación de una desaladora en Sonora es inviable en la actualidad, debido al bajo poder de compra de los sonorenses.
4.Las proyecciones del gasto de electricidad en las plantas desaladoras que podrán ser construidas en la década de los años 2020 a 2030 indican que consumirán hasta la mitad de los kwh que consumen en la actualidad.
5.Probablemente entonces sería viable el uso de agua desalada en Sonora. En la actualidad es un proyecto prematuro.

El territorio de Haití acumuló energía elástica durante más de 200 años

(Vox Populi de la Ciencia, Radio Bemba)
27 de enero de 2010

Otra advertencia planteada por los expertos haitianos, de que un temblor de grandes proporciones podría ser inminente, fue publicada el jueves 9 de octubre de 2008, en la sección AGORA, del portal de la publicación Le Matin, que puede ser consultada en internet. En ese medio de comunicación se publicó un artículo de Claude Prepetit, ingeniero geólogo haitiano, en el cual citaba a Moreau de Saint-Mery, un historiador que vivió de 1750 a 1819, y escribió sobre la Isla de Santo Domingo. Basado en los datos de este historiador, Prepetit mencionó 18 fechas en las cuales se habían registrado temblores en lo que ahora es Haití, éstas se ubicaban entre 1564 y 1789.

En especial, Prepetit prestó atención a un temblor que destruyó Puerto Príncipe en 1751. Cita “El 18 de octubre de 1751, a las dos de la tarde, con tiempo calmado y sereno, la tierra empezó a temblar en Puerto Príncipe con dos sacudidas violentas que duraron aproximadamente tres minutos.” Según Saint-Mery, la tierra volvió a temblar de nuevo, ese mismo mes, los días 28 y 29; apareciendo un cuarto temblor el 19 de noviembre siguiente.

Catorce días antes, el jueves 25 de septiembre de 2008, Phoenix Delacroix había publicado en el mismo portal un artículo que se intitulaba: “Riesgo Sísmico Elevado sobre Puerto Príncipe”. Iniciaba citando al geólogo Patrick Charles, de 65 años, ex profesor del Instituto de Geología Aplicada de la Habana, había declarado que todas las condiciones estaban reunidas para que se produjera un sismo mayor en Puerto Príncipe.

Esta reseña de Prepetit se suma a la que ya relatamos de Phoenix Delacroix, quien antes había reportado las declaraciones de Patrick Charles, en el sentido de que Puerto Príncipe estaba construido sobre una gran falla geológica que va a lo largo de toda la península del sur, pasando por Ciudad Pétion y llegando hasta el Lago Enriquillo en la República Dominicana. Según los expertos, el asunto no era si iba a ocurrir o no, sino cuándo sucedería.

Claude Prepetit, escribió el 9 de octubre de 2008 que la Isla de Haití está situada en la frontera de las placas tectónicas de América del Norte y la del Caribe. Estas placas se desplazan una respecto a otra con una rapidez de 2 centímetros por año. Estos desplazamientos se acomodan debido al desarrollo de movimientos sísmicos sobre las fallas activas identificadas en dos zonas principales de Haití: una en el mar, a lo largo de la costa norte, hay una falla en la dirección oriente poniente que se prolonga hasta tierras en el Valle del Cibao en la República Dominicana, en esta se originó el sismo de 1842. Otra falla se encuentra en tierra, desde Puerto Príncipe hasta un lago con agua muy salada que se encuentra en la República Dominicana, que se llama Lago de Enriquillo. Éste se encuentra a 44 metros por debajo del nivel del mar. A lo largo de esta falla existió un canal marino que unía a Puerto Príncipe con Neiba, en República Dominicana.



La falla situada en el sur se encuentra en tierra, fue muy activa entre 1751 y 1771 y es la responsable de la topografía escarpada en una parte de Puerto Príncipe. La inactividad de esta falla durante un periodo muy largo hizo creer a los habitantes de Haití que su país no era un sitio sísmico, pero lo que en realidad estaba sucediendo es que partes distintas de la falla se habían atorado sin que ninguna cediera, lo cual llevó a la acumulación de energía durante muchas décadas. Sobre la base de mediciones de geodesia espacial, el ingeniero geólogo Claude Prepetit escribió, el 10 de octubre de 2008, que ellos habían registrado deformaciones de 7 milímetros por año en algunas regiones de la falla en el sur de Haití y movimientos relativos del orden de 1.7 centímetros anuales entre las costas norte y sur de Haití, lo cual en un siglo produciría una deformación elástica del territorio de ese país del orden de dos metros a lo largo de las dos fallas activas mencionadas aquí. Prepetit hizo ver que la relajación de la energía elástica acumulada daría lugar a sismos de magnitud superiores a 7 grados en la escala de Richter y afirmó que esa agitación sería de las mismas magnitudes que uno de los sismos que habían destruido Puerto Príncipe entre 1751 y 1770, o como el que destruyó Cabo Haitiano (en la costa norte) en 1842.



Claude Prepetit también hizo ver que la vulnerabilidad de su pueblo era preocupante, porque en la región de Puerto Príncipe y de la costa sur de Haití viven ahora más de 2 millones de personas, de modo que la mortalidad sería de una magnitud nunca vista en el pasado. Hizo ver que cuatro grandes comunidades son atravesadas por las fallas secundarias de esta gran falla del sur de la que venimos hablando.
Fuentes: http://www.lematinhaiti.com/Article.asp?ID=15034
http://www.lematinhaiti.com/Article.asp?ID=14646

Nota sobre las fallas geológicas
Los materiales rocosos que forman la corteza terrestre tienen un grado de elasticidad variable. Éste es máyor en las rocas blandas de tipo sedimentario y es menor en las rocas metamórficas. Cuando actuan fuerzas intensas, como las producidas en el choque entre continentes, la roca cede elásticamente y se dobla adoptando una forma que depende de su elasticidad y de la intensidad de la fuerza.

Estos procesos de plegamiento pueden producirse a poc profundidad y son los responsables de la formación de las grandes cordilleras de la Tierra. Si la fuerza supera la elasticidad, la roca se rompe y se forma una falla.

Actualidades Científicas (Vox Populi de la Ciencia, 27 de enero de 2010)

I. Se busca mejorar el funcionamiento del cerebro en enfermos de Alzhemeir. El método consiste en terapia genética y hay resultados alentadores.

En los pacientes de Alzheimer, el cerebro sufre tanta destrucción de neuronas que se contrae de tal forma que macroscópicamente es visible la diferencia entre un cerebro sano y uno enfermo. Se puede apreciar en la siguiente figura




Investigadores de la Universidad Emory, en el Estado de Virginia, en Estados Unidos, se encuentran trabajando con un fármaco llamado CERE-110, que induce a las neuronas para que produzcan una sustancia llamada Factor de Crecimiento Nervioso (NGF, por su nombre en inglés). Este factor de crecimiento nervioso no tiene relación con estados de ansiedad en las personas. Se trata de una proteína que aparece de manera natural en las neuronas y las ayuda a mantenerse vivas y funcionales en el cerebro.

Los investigadores han superado una primera etapa, en la cual han podido demostrar que el tratamiento puede ser tolerable y que mejora la actividad neuronal cuando se aplica el medicamento CERE-110. El método consistió en aplicar el fármaco a 10 sujetos durante 12 meses a la vez que se monitoreaba el funcionamiento de su cerebro mediante resonancia magnética y con tomografía de emisión de positrones. Los científicos pudieron observar que desde el sexto al duodécimo mes se observó mejora en la actividad neuronal de regiones del cerebro que se atrofian en los enfermos de Alzheimer. La conclusión de los investigadores es que se puede pasar a una segunda fase de estudios clínicos en los cuales se atenderá a 50 pacientes con un nivel moderado de la enfermedad.
Fuente: http://www.sciencedaily.com/releases/2010/01/100125174922.htm

II. El control de la presión sanguínea es anormal en los bebés de madres fumadoras.
Los bebés de las madres que fumaban durante su embarazo presentan mala regulación de la presión sanguínea durante las primeras semanas de vida y empeora a lo largo de su primer año de vida. Los investigadores suecos que realizaron la investigación fueron dirigidos por Gary Cohen y publicaron sus resultados en la revista intitulada: Hipertension: Journal of the American Heart Association.


Ellos encontraron que cuando los niños son inclinados para cambiarlos de la posición horizontal a la vertical, ocurren modificaciones severas en su presión sanguínea, lo cual no sucede con los bebés que son hijos de madres no fumadoras. Reportaron también que en los niños de una semana de edad, expuestos al tabaco durante su gestación, la presión sanguínea crecía al doble de la de los bebés no expuestos al tabaco cuando eran inclinados ligeramente a partir de la posición horizontal. Al año de edad, la situación empeoraba en lugar de mejorar. El Doctor Gary Cohen afirma que se trata de resultados sorprendentes.
Fuente: http://www.sciencedaily.com/releases/2010/01/100125172950.htm

III. Los astrónomos encuentra que el universo es 30 veces más desordenado de lo que se pensaba.
El estudiante de doctorado Chas Egan, y su director, el Doctor Charley Lineweaver, de la Universidad Nacional Australiana, estudiaron el desorden del universo, encontrando que es 30 veces más grande de lo que se pensaba.



La medida del desorden de un sistema físico se consigue mediante una magnitud física que llamamos entropía. Por ejemplo, un conjunto de soldados marchando en filas organizadas geométricamente, con el paso coordinado para mover simultáneamente el pie izquierdo o el derecho, según sea el caso, es un sistema más ordenado que el de la misma cantidad de niños jugando en un gran jardín.
Los investigadores Egan y Lineweaver consideraron todas las contribuciones a la entropía en el universo, como estrellas y radiación, además de estimar la entropía de la materia oscura. Realizando la suma correspondiente encontraron que el valor de esa entropía es 30 veces superior.
Como comentario final, procede agregar que la llamada materia oscura es
hasta ahora hipotética, que su composición es desconocida porque no emite o refleja suficiente radiación electromagnética como para ser observada directamente con los medios técnicos actuales. Sin embargo su existencia puede inferirse debido a la existencia de los efectos gravitacionales que causa sobre la materia visible.
http://www.sciencedaily.com/releases/2010/01/100127134239.htm

miércoles, 20 de enero de 2010

Actualidades científicas Vox Populi de la Ciencia Radio Bemba (20 de enero de 2010)

Vox Populi de la Ciencia, Radio Bemba
20 de enero de 2010

I. Varios grupos científicos han encontrado relación estadística entre los ataques cardiacos y una sustancia presente en los recibos electrónicos de compras y las envolturas de las latas.
Un grupo de investigadores, apoyados por el Centro Estadounidense de Control y Prevención de Enfermedades, realizó un análisis de datos entre 2005 y 2006. En su estudio encontraron relación entre las concentraciones de bisphenol A en orina y el riesgo de enfermedades cardiovasculares. En forma similar otro grupo había llegado a la misma conclusión con estudios realizados entre 2002 y 2003. Una tercera evidencia se encontró en un estudio en el que se examinó tejido grasoso de humanos, encontrando que el bisphenol A tiende a suprimir una hormona que protege a las personas de los ataques al corazón y de la diabetes tipo 2. Además, un grupo distinto estudió el efecto del bisphenol A sobre ratones de laboratorio, encontrando que incrementa la actividad de las células pancreáticas conocidas como células beta, que funcionan como un motor de arranque para la producción de insulina. El bisphenol A es un compuesto orgánico que se encuentra en muchos plásticos importantes, entre ellos los plásticos con capacidad para adherirse a varias superficies, razón por la que se encuentran en las envolturas de las latas y de los recibos electrónicos que nos entregan en las máquinas registradoras.
Fuente: http://www.sciencenews.org/view/generic/id/53958/title/Study_supports_connection_between_BPA_and_heart_disease

II. El genoma del frijol de soya ha sido descifrado completamente y muestra características muy especiales. Es extremadamente repetitivo, y en consecuencia, relativamente pequeño en variantes.
El genetista Scott Jackson de la Universidad de Purdue en Lafayette Oeste, afirma que los cromosomas del frijol de soya se duplicaron al menos en dos ocasiones durante su evolución. La primera vez hace 59 millones de años y la segunda hace 13 millones de años. Jackson y sus colegas reportaron sus descubrimientos en el número de la revista Nature que fue publicado este 14 de enero de 2010. Ellos afirman que no saben cómo ni por qué ocurrió ese proceso de autoduplicación. Cerca del 59% del genoma del frijol de soya está compuesto de cadenas repetitivas de ADN y se conduce de tal forma que cuando hay una sección de ADN aparentemente muerto, e incapaz de replicarse (es decir, autocopiarse), resulta que ante la presencia de otros tramos de si mismo se recupera y reinicia su autocopiado, o replicación. El genoma del frijol de soya es apenas un tercio del tamaño del genoma del maíz y se considera extremadamente pequeño para una planta.
Fuente: http://www.sciencenews.org/view/generic/id/54017/title/Soybean_genome_turns_out_to_be_soysoybeanbean



III. Los científicos se encuentran atareados tratando de entender las causas del terremoto de Haití.
Como es de conocimiento público, el pasado 12 de enero, a las 16:53, hora local, se registró un sismo con epicentro a 25 kilómetros al oeste-suroeste de Puerto Príncipe, con una magnitud de 7.0 en la escala de Richter. El sismo ocurrió a lo largo de la falla Enriquillo-Garden Plantain. Una sección de aproximadamente 50 kilómetros de la falla se movió durante el sismo y algunos puntos de la misma se deslizaron hasta 4.5 metros. Según Eric Calais, geofísico de la Universidad Purdue en Lafayette Oeste, Indiana, la falla de Enriquillo se caracteriza por tener muchas vueltas y salientes en los que el deslizamiento puede atorarse para empezar a generar más tensión, de nuevo, o para evitar que la tensión acumulada durante mucho tiempo se libere en un sólo sistema de sismo principal más sus réplicas (es decir, temblores posteriores). Según Calais, la falta de infraestructura científica en Haití, y la situación generalizada de desorden del país, hace que localmente no se realice investigación y que no existan puestos regionales de investigación. Calais afirma que fue hasta el año 2003 cuando ellos estuvieron en condiciones de ir a Haití a cuantificar movimientos de tierra mediante receptores portátiles de GPS que les permitieron hacer monitoreos alrededor de la falla. En 2008 su equipo de trabajo anunció en una conferencia en el Congreso Geológico del Caribe, que la falla poseía peligro sísmico mayor. El grupo explicó que el movimiento de la pequeña placa estudiada era de 7 milímetros anuales, apenas la quinta parte del movimiento que se presenta en San Andrés, en California, sin embargo, el problema en Haití era que no había reportes de movimientos telúricos desde el año 1770.
Fuente: http://www.sciencenews.org/view/generic/id/55006/title/Scientists_scramble_to_analyze_Haiti_quake

Datos geográficos de Haití

Vox Populi de la Ciencia, Radio Bemba
20 de enero de 2010

Descripción de Haití
Haití se encuentra en la región occidental de la Isla La Española, descubierta por Cristobal Colón el 5 de diciembre de 1492, en su primer viaje a América. Tiene una superficie de 76 480 Km2, que es equivalente al 42% de la superficie del Estado de Sonora. Su longitud máxima es de 650 Km., de oriente a poniente, y su anchura máxima es de 241 Km., de norte a sur. Es una de las Antillas Mayores, su costa noroeste se encuentra a 86 Km. al este de la costa más oriental de Cuba, pero las separa una zanja marítima muy larga, que tiene una profundidad de más de 3 700 metros entre las dos islas. Esta zanja está orientada casi de este a oeste, pasa por el norte de Jamaica y por el sur de las Islas Caimán, directo hasta la costa de Guatemala con el Mar Caribe. Es la separación entre dos placas tectónicas, de las que hablaremos más adelante, y en algunos segmentos tiene profundidades superiores a los 5 000 metros.

La Española se conoce también con el nombre de Isla de Santo Domingo y hay en ella dos naciones: una de habla hispana, que es la República Dominicana, y otra es Haití, que es francófona. A esta última le corresponde el 36.28% del territorio, que es apenas un poco más de la tercera parte de la isla, pero su población es ligeramente menor: 9 776 000 habitantes en Haití en el 2009, contra 10 090 000 de la República Dominicana.

Haití tiene frente a si las costas de Venezuela, Colombia, Panamá, Costa Rica, Nicaragua, Honduras y México. En términos de estrategia militar es mejor posición que Puerto Rico y que Guantánamo porque el número de países vecinos es mayor y en algunos casos las distancias de las trayectorias aéreas disminuye, con el consecuente ahorro de tiempos y combustible.

Debido a esa situación estratégica se la disputaron: España, Francia e Inglaterra durante los siglos XVII y XVIII. Las primeras colonizaciones fueron de españoles que se dedicaron a buscar y explotar yacimientos de oro. Después explotaron la caña de azúcar, cuyo comercio decreció en el siglo XVII. Cuando llegaron los españoles había en ella una población aborigen que es conocida como la etnia taína. En 1508, 16 años después de la llegada de Colón, quedaban todavía cerca de 60 000 taínos, pero 23 años después, en 1531, solamente había unos 600.


Los investigadores encuentran relación de la simbología y la mitología taína con los pueblos mayas de Yucatán, Guatemala, y otras regiones adyacentes. Por ejemplo, Rudolf Schuller señala en su obra muchos paralelismos con las tradiciones mayas. La etnia de los taínos pobló todas las Antillas y los especialistas en su historia concuerdan en que fueron exterminados por la explotación a que los sometieron los europeos y por las enfermedades que portaban desde Europa, que eran desconocidas en América.



Entre 1519 y 1533 hubo rebeliones de los taínos contra los españoles, quienes los habían esclavizado mediante el sistema de encomiendas. Cabe recordar que el reino de España asignó (encomendó) grupos de aborígenes a cada español propietario de tierras, con el supuesto propósito de que les enseñara a ser buenos católicos. La realidad fue que se dedicaron a explotarlos. La rebelión más significativa durante las primeras décadas de la conquista fue la de Guarocuya, conocido también como Enriquillo, quien en 1522 encabezó una rebelión a la que se unieron los esclavos negros. Para los españoles no resultaba rentable combatirlos, pues ya estaban enfocados hacia el control de la tierra de los mayas y los aztecas, de modo que firmaron con Enriquillo un tratado en el que los aborígenes adquirían el derecho a la libertad y a tener propiedades, sin embargo, su población fue disminuyendo hasta desaparecer como consecuencia de las enfermedades traídas por los europeos. A partir de entonces, la trata de africanos se utilizó para poblar la isla con esclavos.

El Riesgo de un Gran Sismo en Haití era Conocido por los Especialistas

(Vox Populi de la Ciencia, Radio Bemba, 20 de enero de 2010)
La Geodesia es la ciencia que estudia la forma y las dimensiones de la Tierra, su representación en mapas y en planos, además del campo gravitatorio de la misma.

La Geodesia Espacial se basa en la observación o recepción de señales formadas por radiaciones electromagnéticas que proceden de objetos que no están físicamente ligados al suelo terrestre. Esos objetos son fundamentalmente los satélites, aunque también pueden ser globos flotando sobre la atmósfera, o señales enviadas a la Luna.

Un paso fundamental para la geodesia espacial fue el lanzamiento de los primeros satélites artificiales, que obligaron a desarrollar sistemas de seguimiento de los diversos objetos que se ponían en órbita. Estos se fueron modificando hasta disponer de los sistemas de navegación y posicionamiento a base de satélites, que permiten sistemas de referencia geodésica globales, con alta precisión y homogeneidad para el posicionamiento y la navegación. Hay satélites fijos que nos sirven de referencia con el cual fijar posiciones de puntos sobre la superficie de la tierra.

El punto de partida es la forma que tendría la tierra si toda su superficie estuviera cubierta de agua. Así, el nivel del mar nos da una figura imaginaria que ha sido bautizada con el nombre de geoide.

La idea es conocer las desviaciones respecto a ese geoide, a fin de conocer las alturas y las profundidades de continentes y de fondos marinos.



Además, de la misma forma que la técnica permite conocer la posición de un avión, o de un barco, equipado con el sistema de posicionamiento global, es posible saber cuál es la posición de un cerro, o de un punto que se toma como referencia de ese cerro.

La técnica consiste en colocar satélites en torno a la tierra, que intercambian señales para medir el tiempo de tránsito de la onda electromagnética que se envía de un lugar a otro. Una vez conocidos los cambios que esa diferencia va presentando, se puede saber cuál es la posición y tener una historia de eso.




Por ejemplo, pensemos en un niño que porta una campana, misma que hace sonar una vez cada 5 segundos. Si sabemos la velocidad del sonido en ese momento, y tenemos todos los instrumentos para medir el tiempo que tarda en llegarnos el sonido, podremos saber que el niño está más cerca o más lejos. Además, si podemos precisar la dirección desde la cual nos llega el sonido, tenemos los dos datos necesarios para usar ciertas fórmulas matemáticas y calcular el punto desde el cual se emitió el sonido.

No sólo eso, si disponemos de los instrumentos necesarios para medir la frecuencia con que se emite el sonido de la campana, podemos recurrir a otras fórmulas matemáticas que nos permiten calcular la velocidad con que se mueve el niño que porta la campana.

Este es el caso de algunas aplicaciones a la geología. Una vez ubicado un punto de un terreno con gran precisión, se puede volver a ubicar posteriormente cuantas veces sea necesario para tener una historia de la posición del punto sobre el terreno seleccionado. Por ejemplo, se sabe cuánto se mueve cada año un punto seleccionado en la península de Baja California y encontrar la velocidad con la que se separa cada año del resto del continente.



Con estas técnicas, los expertos haitianos sabían desde el año 2008 que la costa norte de su país tenía un movimiento más rápido hacia el este que la costa sur, de modo que el terreno de Haití se estaba deformando.

Los expertos ya esperaban un terremoto en Haití

(Vox Populi de la Ciencia, Radio Bemba)
20 de enero de 2010


El jueves 25 de septiembre de 2008, el periódico de Haití Le Matin publicó en uno de sus suplementos, llamado “AGORA”, un artículo escrito por Phoenix Delacroix, que su intitulaba: “Haití, amenaza de catástrofes naturales, Riesgo sísmico elevado al sur de Puerto Príncipe”, a continuación presentamos una selección del mismo, tomado de la traducción que nos ha proporcionado el Dr. Arturo Rosas Burgos:

El logo del periódico Le Matin es el que sigue:



“Todas las condiciones están dadas para que un sismo mayor se produzca en Puerto Príncipe. Los habitantes de la capital haitiana deben prepararse para este escenario que, tarde o temprano, terminará por llegar”. Patrick Charles, 65 años, geólogo y profesor retirado del Instituto de Geología aplicada de La Habana, se defiende de ser alarmista. Sin embargo, no se fue por cuatro caminos cuando Le Matin le ofreció la oportunidad de reaccionar acerca del asunto de la amenaza sísmica que ronda el sur de Puerto Príncipe. El viejo investigador respondió a nuestras preguntas con el rigor de un universitario informado. Desde su punto de vista, el peligro es inminente “Gracias a Dios, la ciencia puso a nuestra disposición instrumentos que puedan prever este tipo de acontecimientos, permitiéndonos demostrar nuestras conclusiones. Es el tiempo y el azar los que juegan con nuestra capital. Una gran catástrofe ronda sobre nuestras cabezas”, predijo.
No es tanto la gravedad de las palabras de Patrick Charles lo que nos intriga, sino su convicción inquebrantable en su predicción. Para convencernos, no vaciló en exponernos un curso detallado de geología, ayudándose de mapas geológicos muy precisos y de su PC. “Puerto Príncipe está construido sobre una gran falla que parte de Ciudad Pétion, atraviesa toda la península del sur, hasta llegar a Tiburón. En 1751 y en 1771 este pueblo fue completamente destruido por un sismo. Apuesto mis ojos a que esto se repetirá. La ciencia puede fácilmente confirmarlo”, declaró.
Sobre la base de conocimientos y datos científicos sobre este tema que él ha acumulado durante muchos decenios, Patrick Charles, en buen ciudadano, tiene por qué rebelarse. La inminencia del peligro se precisa con el clima y los acontecimientos. Y para reforzar su predicción, Patrick Charles toma como ejemplo las últimas sacudidas registradas los últimos días al nivel de la capital haitiana. “Durante estas últimas semanas, la tierra ha temblado repetidas veces al nivel de la zona metropolitana de Puerto Príncipe. Del 1º al 12 de septiembre, tres sacudidas menores han sido registradas en Ciudad Pétion, Delmas, Croix-desBouquetes, la planicie de Cul-de-Sacc. El director del Ministerio de Minas y de Energía (BME), el ingeniero Dieseul Anglade, confirmó esta información. Estas sacudidas menores son inquietantes. Generalmente anuncian sismos de mayor intensidad”, informó.
Gracias a Dios, Patrick Charles no es el único interesado en este asunto. La pregunta de la amenaza sísmica sobre Puerto Príncipe es un asunto de actualidad. Ha sido debatida los últimos días por muchas personas, algunas de ellas intelectuales de alto rango. Las conclusiones son unánimes: Puerto Príncipe está en riesgo de transformarse, de un día para otro, en un montón de ruinas, después de una violenta sacudida telúrica. “Durante dos siglos ningún sismo mayor ha sido registrado en la capital haitiana. La cantidad de energía acumulada entre las fallas nos hace correr el riesgo de un sismo de 7.2 grados en la escala de Richter. Mejor no hablar, ni tener pánico. Pero esta sería una catástrofe”, admitió recientemente en la prensa el responsable del Ministerio de Minas y de Energía.
El problema está planteado en toda su magnitud. Avisos precautorios son enviados regularmente. Pero las medidas puntuales serias tardan en venir. En caso de un sismo violento al nivel de la zona metropolitana, Patrick Charles evoca dos escenarios catastróficos: un tsunami gigante al nivel de Lac Azuél, inundando la planicie de Cul-de-Sac; la separación de morne l’Hopital. “En los dos casos, el mal sería infinito. Estas son cosas completamente posibles. Lo esencial es realizar disposiciones para atenuar sus efectos. Yo yo izarl mal es inmenso. Estas dectos tomar dna, M. en la escala de Richter. or intensidad"icciestoy listo para ponerme el hábito del peregrino para ayudar a mis compatriotas a salir de su letargo”, afirma el geólogo.
Frente a tal amenaza, muy pocas medidas preventivas han sido anunciadas por las autoridades. El aumento de ocupación habitacional en morne l’Hopital y en la planicie de Cul-de-Sac, así como la explotación anárquica de Sable de Laboule continúan inexorablemente. No obstante, deben señalarse los esfuerzos del Ministerio de Minas y Energía para instalar sobre toda la extensión del territorio nacional instrumentos que permitan medir la amplitud de sacudidas sísmicas. El mapa que presenta el sitio Science News es el que sigue:



Recordemos, para nuestros lectores, que dos grandes fallas atraviesan el país. Una al nivel de la región septentrional y la otra al nivel de la península del Sur. Todos nuestros Departamentos [equivalentes a los Estados de México], excepto el Centro, están expuestos a sismos y tsunamis. “Las autoridades están obligadas a tomar medidas puntuales aunque sean impopulares para proteger ciertas zonas. El balance después del paso de los últimos tres ciclones sobre Haití reclama nuestra conciencia. La cuenta regresiva ha comenzado. La naturaleza nos exige cuentas. Se necesita actuar para salvar lo que todavía pueda ser”, sostuvo Patrick Charles.

miércoles, 13 de enero de 2010

Actualidades Vox Populi de la Ciencia

Radio Bemba

13 de enero de 2010

I. Los estudiantes de postgrado mexicanos recibieron el día 8 de enero las becas que el Conacyt debió depositar el día primero del año. ¿Es esto parte de la política científica del CONACYT? ¿Qué haría usted con esos recursos si fuera inversionista?
Sabemos en medios universitarios que los estudiantes de postgrado mexicanos recibieron con siete días de retraso su beca correspondiente al mes de enero de 2010. De acuerdo a datos reportados en el periódico La Jornada del 24 de diciembre de 2008, el CONACYT tenía hace un año aproximadamente 23 mil becarios. Trabajando con la hipótesis de que ese número no se modificó, y de que el promedio de las becas es de $6 400 pesos mensuales, la cantidad congelada durante 7 días asciende a $147 200 000 (147 millones 200 mil pesos). Los bonos emitidos por el gobierno federal, conocidos como CETES, dan en este momento un rendimiento de 4.48% anual, si Usted lo deposita a 7 días. Por lo tanto, depositar a este plazo los $147 millones de pesos le proporcionaría $549 546.66. Es decir, más de medio millón de pesos en regalías, tan solo por hacer sufrir a los becarios que además de preocuparse con sus obligaciones como estudiantes de postgrado, tienen que pagar la renta, la electricidad, el agua y comprar alimentos.







II. El oso polar está cambiando su hábitat y la probabilidad de encuentros con el ser humano se incrementa.
Se define un hábitat como el espacio que reúne un conjunto de condiciones adecuadas para la residencia y la reproducción de una especie, de forma tal que mantiene su permanencia. Debido a las nuevas condiciones del hielo en el mar, el oso polar se está mudando para tratar de vivir en otros sitios. En un estudio realizado con la acumulación de datos desde 1979 hasta 2005, científicos del Servicio de Vida Salvaje y Peces de Anchorage, Alaska, reportan que se ha venido observando que los osos polares están buscando con más frecuencia los lugares en tierra y en aguas abiertas sin presencia del hielo. Los seres humanos suelen frecuentar esos mismos sitios, de modo que se piensa que el número de encuentros entre unos y otros habrá de crecer. Entre 1979 y 1987, del total de avistamientos de osos polares, el 12% ocurrieron en sitios sin hielo, en cambio, entre 1997 y 2005, el número de avistamientos de osos polares en lugares sin presencia de hielo fue del 90%. Karyn Rode, del grupo de investigación mencionado, afirma que sus datos sugieren que el oso está optando por hábitat sin hielo porque éste está escaseando. También hace ver que por esa razón se han incrementado los encuentros de estos animales con los hombres nativos de Alaska y el Norte de Canadá: los esquimales.
Fuente: http://www.sciencedaily.com/releases/2010/01/100107151657.htm



III. A los virus les gusta volar en avión. Frase jocosa para informar que la pandemia del virus AH1N1 parece haberse distribuido mediante infecciones transmitidas en los aviones.
Sally Blower, directora del Centro de Modelaje Biomédico del Instituto de Neurociencias y Conducta Humana Semel, de la Universidad de California en Los Ángeles, junto con Bradley Wagner y Brian Coburn, quienes ocupan sendos puestos de postdoctorado en el grupo de investigación de Blower, han estado desarrollando un nuevo modelo matemático para predecir la transmisión del virus AH1N1 durante vuelos. Ellos encuentran que la transmisión se incrementa durante los vuelos más largos, especialmente cuando se viaja en la clase económica. Según sus datos, ocurren de 2 a 5 infecciones durante vuelos cuya duración es de 5 horas, mientras que puede haber de 5 a 10 infecciones cuando los vuelos duran 11 horas. Asimismo, cuando los vuelos duran del orden de 17 horas las infecciones suben desde 7 a 17. El grupo de investigación considera que es evidente que las infecciones individuales fueron las que transportaron la enfermedad desde México como epicentro. Los investigadores consideran necesario perfeccionar su modelo para lograr una predicción más precisa de la probabilidad de tomar una infección durante un vuelo.
Fuente: http://www.sciencedaily.com/releases/2010/01/100107114724.htm


IV. El sistema de cámaras del Telescopio Espacial Hubble ha permitido desarrollar un mosaico de fotografías que dan una imagen del universo hasta hace 12 mil millones de años.
El Telescopio Espacial Hubble fue puesto en órbita de la tierra en abril de 1990 y tiene la ventaja de que evita deformaciones de imagen ocasionadas cuando la luz de las estrellas atraviesa la atmósfera. En éste trabaja un sistema de cámaras que funciona desde el año 2004 y se llama Cámaras Avanzadas para Exploración. Funciona junto con la Cámara de Campo Amplio número 3, instalada en el otoño de 2009 y ha proporcionado fotografías que fueron combinadas en un rango de colores que van desde la luz infrarroja hasta la luz ultravioleta, pasando por las frecuencias de la luz visible al ojo del ser humano.
Fuentes: http://hubblesite.org/
http://www.sciencedaily.com/releases/2010/01/100105161542.htm
http://www.nasa.gov/mission_pages/hubble/servicing/SM4/main/Summary_FS_HTML.html

V. El 4 de enero de 2010 la NASA anunció en su portal que ya han sido descubiertos 5 exoplanetas.
El Telescopio Espacial Kepler gira en torno a la Tierra y fue colocado en órbita en marzo de 2009. Está diseñado para concluir su misión a fines de 2012 y ha sido diseñado para encontrar planetas del tamaño de la tierra en la zona habitable de estrellas similares al sol, se ofrece como resultado que hasta ahora se han podido descubrir cinco planetas, bautizados por ahora como: Kepler 4b, 5b, 6b, 7b y 8b. La zona habitable de una estrella similar a la nuestra se define como aquélla en la cual las condiciones de radiación recibida desde la estrella es similar a la nuestra. Es decir, más cerca, se siente demasiado caliente, más lejos, es demasiado frío para la vida tal como la conocemos. De todos los planetas descubiertos, el Kepler 4b es el más pequeño, con casi 4 veces el radio de la tierra. Los otro cuatro son más grandes que Júpiter, siendo el planeta Kepler 7b el mayor de todos. Todos estos planetas son muy calientes y su masa es más de 1/10 de la necesaria para formar una estrella. Sin embargo, son tan calientes que sus temperaturas en la superficie van desde 3 900 hasta 5 400 grados Celsius. Si traemos a la memoria que la temperatura en la superficie del sol es del orden de 6 000 grados Celsius, podemos comprender que estos planetas alcanzaron una masa apenas por debajo de la necesaria para convertirse en estrellas. Jon Morse, director de la División de Astrofísica de la Nasa, afirma que esos descubrimientos eran los esperados al iniciar la investigación y que solamente es cuestión de tiempo para que el Telescopio Kepler logre descubrir planetas más pequeños.
El siguiente portal contiene imágenes realmente bellas.
Fuente: http://kepler.nasa.gov/
http://www.lanasa.net/Nasa/Nasa/Nav_Nasa_News.asp

Datos Sobre el Agua Subterránea en la Costa de Hermosillo

(Vox Populi de la Ciencia)
13 de enero de 2010

La explotación extensiva de la tierra para fines agrícolas en la Costa de Hermosillo se inicia en la década de los años 1940.

En 1949 actuaba una “Comisión Deslindadora y Colonizadora”, que originalmente “bautizó” la zona como Distrito de Colonización “Presidente Miguel Alemán”. El papel de esta empresa fue lotificar terrenos nacionales y regularizar las propiedades de particulares existentes dentro del área que comprendía los límites de una región que se denomina como distrito de riego.

Es conveniente resaltar que se trató de terrenos originalmente pertenecientes a la nación.

El 29 de octubre de 1953 fue formalmente denominado Distrito Nacional
de Riego de la Costa de Hermosillo No. 051, delimitado con una superficie de 1 480 000 hectáreas. Está localizado entre los paralelos 28° 22 ́ y 29° 45 ́ de latitud norte y entre los meridianos 111° 00 ́ y 112° 25 ́ de longitud oeste. Se ubica en la región noroeste del país en el estado de Sonora, limita al este con la ciudad de Hermosillo desde donde se extiende hacia Bahía de Kino y al oeste colinda con el Golfo de California.




En el sexenio de Carlos Salinas de Gortari, el gobierno federal mexicano realizó un programa de descentralización del uso del agua, que llamó: Programa para la Modernización del Sector Agrícola.

Como parte de este proceso, una de las decisiones fue transferir a los usuarios la responsabilidad por la operación, conservación y manejo de los distritos de riego. Esta iniciativa se cristalizó en la Ley de Aguas Nacionales, publicada en el Diario Oficial de la Federación el 1o. de diciembre de 1992. Éste es el Distrito de Riego 051 de la Costa de Hermosillo.

Si tratamos de describirlo, podemos decir que es una amplia zona, rica en aguas subterráneas, que se extiende desde la confluencia del río San Miguel con el Río Sonora y que tiene una gran cantidad de pozos profundos. Colinda con las aguas de la presa Abelardo Rodríguez, que en sus orígenes fue utilizada para el riego de terrenos dentro del Distrito 051, pero posteriormente se dejó para abastecer de agua potable a la ciudad de Hermosillo y para incrementar la recarga de acuíferos y regularizar avenidas del Río Sonora.

La decisión de transferir el manejo del acuífero a los empresarios agrícolas no se respalda en una historia de responsabilidad, pues el volumen extraído de agua en el acuífero de la Costa de Hermosillo ha provocado que la elevación media de su nivel estático disminuya de valores positivos en la década de los años cuarenta, en que el espejo del agua de los pozos se encontraba por encima del nivel del mar, hasta casi -40 metros bajo el nivel del mar en el año 2003. Cuando se perfora un pozo, inicialmente se extrae tierra y piedra, posteriormente se encuentra lodo, y si se sigue con la excavación, llega un momento en que la humedad de los alrededores produce una corriente de agua hacia el pozo, llenando el cilindro hueco que se ha producido. Cuando el nivel del agua se estabiliza, se dice que ese es el espejo del agua.

De manera natural, los mantos acuíferos se recargan cuando el agua de las avenidas de los ríos y arroyos se va filtrando hacia el interior, hasta alcanzar la profundidad en la que se presenta un equilibrio entre la fuerza de gravedad que la lleva hacia abajo, y el resto de agua que ya estaba allí, y que no puede ir más abajo porque hay capas de material geológico impermeable.



La razón del descenso en el nivel de los mantos acuíferos de la Costa de Hermosillo ha sido el resultado del excesivo bombeo al extraer volúmenes mayores a la recarga natural. Al quedar el nivel del agua dulce por debajo de la del nivel del mar, aparece una diferencia de presión que produce corrientes de agua desde el mar hacia el interior de la tierra firme, provocando intrusión salina y la pérdida de terrenos que eran de utilidad para la agricultura. En 2003 se contabilizaban aproximadamente 22 mil hectáreas de terrenos perdidos.

Otro paso dudoso ha sido confiar en las presuntas estimaciones privadas acerca de la recarga anual del acuífero de la Costa de Hermosillo. En 1968 la empresa Ariel Construcciones S. A. estimó que la recarga anual era de 350 millones de metros cúbicos. Sin embargo, un estudio citado por José Luis Quevedo Estrada como “Universidad de Sonora. 2002. Estudio de cuantificación de la recarga del acuífero Costa de Hermosillo, municipio de Hermosillo, Sonora. Hermosillo. ”, señala que la recarga es de sólo 250 millones de metros cúbicos, de los cuales 151 millones de metros cúbicos corresponden a agua dulce y los otros 99 millones de metros cúbicos son de agua salada .

El gasto del agua en la costa de Hermosillo

(Vox Populi de la Ciencia 13 de enero de 2010)

Las fuentes de datos

Presentaremos varias reflexiones tomando datos desarrollados por nosotros a partir de la información obtenida en una tesina de José Luis Quevedo Estrada cuyo título es “Propuesta de acción para la gestión integrada en la Costa de Hermosillo, Sonora”, tesina para obtener el diploma de Especialidad en Gestión Integrada de Cuencas Hidrológicas , en el Colegio de Sonora, dirigida por José María Martínez y fechada en junio de 2007.

La segunda fuente de datos son las declaraciones hechas al programa Zenit, de Radio Bemba, por el profesor de la Universidad de Sonora Manuel de Jesús Sortillón.

La tercera fuente de datos es un boletin de CONAGUA. Se trata del Comunicado de Prensa No. 232-09, fechado en la Ciudad de México, D.F., el 10 de diciembre de 2009. En este se afirma que en 2010 se iniciarán importantes proyectos de abastecimiento de agua potable, plantas desaladoras y de tratamiento de agua en el país. Afirman que se contempla también la construcción de la planta de tratamiento de
aguas residuales de Hermosillo, Sonora, que tendrá un costo de 500
millones de pesos, 60% recursos privados y 40% a través del FONADIN.

La cuarta fuente de datos es el portal de Internet de CONAGUA, en particular el referente a la Subdirección General de Agua Potable, Drenaje y Saneamiento. Allí se puede consultar la sección llamada: Proyectos Emblemáticos, donde se encuentra un documento que se llama:
PROGRAMA NACIONAL HÍDRICO 2007 – 2012, firmado por la Gerencia de Estudios y Proyectos de agua potable y redes de alcantarillado. Su fecha es el 10 de julio de 2009. En particular la diapositiva número 77 de
ese documento de CONAGUA, dice que está en proceso de licitación una tratadora de agua con 60% de participación privada y 40% de FONADIN. Sería ubicada en Hermosillo y tendría capacidad de 2 500 litros por segundo. Si este dato es correcto, nuestros cálculos nos dicen que se tratarían al año 78.8 millones de metros cúbicos al año, que es el 65.5% de las necesidades de agua de Hermosillo cada año, según datos oficiales.

Cabe señalar que FONADIN significa: Fideicomiso Fondo Nacional de Infraestructura.

Una reflexión sobre las ganancias de los empresarios agrícolas de la Costa de Hermosillo.

Empezaremos citando un párrafo de la página 21 de la tesina mencionada:

“Antes de su transferencia en 1994, el distrito tenía una superficie total de 66,296 hectáreas sembradas. En el año agrícola 2004-2005, la superficie regada y sembrada fue de 55,981 ha y la cosechada de 55,545. El volumen de agua utilizado mediante bombeo fue de 473.035 hm3|,
con una lámina media de 84 centímetros. El valor de la cosecha fue de $2,735.33 millones de pesos, con un costo de $5,782.50 pesos por m3 utilizado. El número de usuarios es de 1,671, de los que 212 son ejidatarios y 1,459 pequeños propietarios. El valor cosechado por usuario es de $1,636,942 pesos”.



Cabe aclarar que 1 hectómetro cúbico es un millón de metros cúbicos, o sea, un millón de tinacos de agua de mil litros llenos. A su vez, la lámina de riego es el grosor que tendría el agua dispersada sobre una superficie si en lugar de permitir su infiltación en la tierra, la retuviéramos con una superficie impermeable. Por ejemplo, está bien determinado que muchos campos de golf que se encuentran sobre la latitud 31°, logran mantener su césped en buen estado si son regados hasta que la lámina de riego es de 1 cm, diario.

Supongamos que la inversión de los empresarios agrícolas les proporciona una rentabilidad apenas similar a la que obtendrían si depositan su dinero en un banco a plazo fijo. Entonces introducimos como hipótesis de trabajo que la ganancia es de 5%, es decir, que del $1,636,942 pesos, el 95% son gastos de producción y el 5% son ganancias. Tenemos entonces que, por cada usuario, hay una ganancia neta de $81,847.10. Considerando que se trata de 1,671 usuarios, tenemos ingresos libres por una cantidad de $136,766,504.10 pesos.

En la Comisión Nacional del Agua no existe, hasta ahora, un dato publicado acerca del costo de la desaladora que se viene mencionando, pues solamente se reporta que está en estudio. En cambio, si se afirma que está aprobada y en licitación una planta tratadora de aguas residuales con 60% de participación particular y 40% de apoyo gubernamental.

Sin embargo, en la prensa se ha publicado que la construcción de la desaladora de agua costaría 300 millones de pesos, por lo tanto, con sólo tres años de sus ganancias, los agricultores de la Costa de Hermosillo tienen una ganancia superior en 36% al costo supuesto de la construcción de la desaladora y con 4 años de ganancia construirían la planta tratadora.

La agricultura fue un enorme negocio en las primeras décadas de explotación de las tierras de la Costa de Hermosillo, sin embargo, si suponemos que desde 1945 hasta 2009 han tenido 64 años iguales a los de 1994, lo cual es en realidad una hipótesis muy conservadora, resulta que con las ganancias de los empresarios agrícolas de la Costa de Hermosillo ya se habrían construido 29 desaladoras como la que se ha venido mencionando.

La razón por la cual quieren asignarnos el costo de la desaladora a los ciudadanos de Hermosillo, es de rentabilidad empresarial. El problema para los agricultores de la costa es de rentabilidad, pues si tirando 400 millones de metros cúbicos de agua al año, obtienen ventas por 136 millones de pesos, resulta que las desaladoras que producen un metro cúbico en 50 centavos de dólar, como la de Singapore, pagarían 200 millones de pesos, lo cual excede sus ganancias en 19 veces.

Una reflexión sobre la cantidad de agua gastada en la Costa de Hermosillo por los empresarios agrícolas.

Iniciamos de nuevo con una cita de la tesina mencionada, se encuentra en la página 28:
“En el uso agrícola, si se analiza el comportamiento de las variables principales como superficie programada contra superficie realizada, lámina programada contra lámina aplicada, volúmenes programados versus volúmenes extraídos, de los planes de riego en los últimos 14 años, se observa lo siguiente: la superficie media programada para riego fue de 50,314 hectáreas y la real regada fue de 57,979, es decir, 15 por ciento más. Asimismo, el volumen medio programado a extraer fue de 381 hm3 y el extraído fue de 403 hm3, considerando la recarga del acuífero en 350 hm3, se tiene un volumen medio anual excedido de 53 hm3. ”

Tomando como base los datos del INEGI, en el año 2005, había en Hermosillo, 641,791 habitantes. Considerando los datos vertidos a Radio Bemba por Manuel de Jesús Sortillón, profesor de la Universidad de Sonora, podríamos asignar un máximo de 150 litros de agua, por día, para cada habitante. Traducido a metros cúbicos, se trata de 0.15 metros cúbicos de agua. Entonces tenemos 35 millones de metros cúbicos (35,138,057.25) anuales de agua para todo Hermosillo.

Suponiendo que somos, en el 2010, 750 mil habitantes, el consumo de agua de la Ciudad de Hermosillo serían 41 millones de metros cúbicos de agua (41,062,500).

La cantidad expresada por Agua de Hermosillo supone un gasto de más de 300 litros diarios de agua por persona, lo cual contradice nuestra experiencia cotidiana, ya que, por ejemplo, quienes tenemos tinacos de mil litros, y una familia de 5 personas, nunca agotamos el tinaco en un día de consumo cuando nos hemos quedado sin apoyo de la red pública de agua, aún cuando el consumo sea el acostumbrado.

Después de sumar el gasto de agua de los agricultores de la Costa de Hermosillo, desde 1945 hasta el año 2006, encontramos que han extraído 37,502.3 millones de metros cúbicos de agua.



Para darnos una idea de la magnitud de este volumen de agua extraída, dividimos entre los 41 millones de metros cúbicos anuales de una ciudad como Hermosillo, con sus 750 mil habitantes, y encontramos que equivale a 914.6 años de agua para nuestra ciudad, si se mantuviera de este tamaño.

Otra conclusión importante es la siguiente: como ya afirmamos, José Luis Quevedo Estrada escribe en su tesina que el volumen en que se excedieron en la extracción de agua en un año en la costa de Hermosillo fue de 53 millones de metros cúbicos. Eso significa 12 millones de metros cúbicos más que lo necesario para los hogares de la Ciudad de
Hermosillo en un año.



En una frase coloquial podemos decir que los empresarios agrícolas podrían resolver el desabasto de agua de Hermosillo “con las manos en la cintura”.

No tendrían que hacerlo por razones filantrópicas, deberían hacerlo por su propia sobrevivencia como empresarios, ya que la ausencia de agua en Hermosillo convierte a la ciudad en un asentamiento urbano inviable para la industria en general, para el comercio, la construcción, y en general, para todos los especuladores de terrenos y de casas habitación. Una ciudad con el agua demasiado cara es en realidad inhabitable.

miércoles, 6 de enero de 2010

Actualidades científicas Vox Populi de la Ciencia Radio Bemba (6 de enero de 2010)

I. La diferencia entre los elementos masculinos y femeninos es un gene llamado Foxl2.
Robin Lovell Badge de la División de Biología de Células Madre y Desarrollo Genético del Instituto Nacional de Investigación Médica del Reino Unido, en colaboración con Matthias Treier y otros colegas del Laboratorio de Biología Molecular Europea, de Heidelberg Alemania, han demostrado que la actividad de un solo gene, llamado Foxl2, es todo lo que se requiere para evitar que células típicas de un ovario adulto se transformen en células típicas de las que aparecen en un testículo. Trabajando con ratones femeninos, los investigadores suprimieron el gene Foxl2 y encontraron que rápidamente se desarrollaron cambios en los que se detectaron factores típicamente masculinos, como la producción de la hormona testosterona. Las células se reorganizaron en estructuras similares al esperma. Según los autores, estos hallazgos demuestran que los procesos que llevan a la masculinidad requieren ser activamente suprimidos aún en la etapa adulta, lo cual difiere de la creencia previa, en el sentido de que el desarrollo femenino ocurre en forma automática si no se dispone de la presencia de elementos necesarios para la masculinidad.
Fuente: el portal del Instituto Nacional de Investigación Médica del Reino Unido, http://www.nimr.mrc.ac.uk/news/2009/foxl2/.

Diccionario de términos para entender la próxima explicación:
Mutágeno: es una sustancia que puede producir modificaciones en la estructura del ADN de una célula.
Células mutantes o clones: células cuyo ADN ha sido modificado y está reproduciéndose para generar otras similares.
Replicación del ADN: proceso de autocopiado del ADN.
Bases del ADN: como hemos explicado en otros programas de Vox Populi de la Ciencia, la molécula del ADN se forma con dos espirales de átomos unidos por complejos de átomos que se llaman bases. En total hay cuatro tipos diferentes y sus nombres son: adenina, timina, citosina y guanina.
Genoma: es todo el material genético codificado que distingue a una especie o sistema celular.

II. Mike Stratton, del Instituto Sanger, nos explica cómo se produce el cáncer.
Se puede leer lo siguiente en el portal de Internet del Instituto Sanger para el cual trabaja Mike Stratton: “A través de la vida, el genoma dentro de las células de los cuerpos humanos es expuesto a mutágenos que llevan a que las células cometan errores en su replicación. Esas influencias corrosivas resultan progresivas, dando lugar a diferencias sutiles de la secuencia de ADN de cada célula, que se va separando de la secuencia original constituida en el huevo fertilizado. Ocasionalmente, una de esas mutaciones somáticas altera la función de un gene crítico, dando lugar a un crecimiento desventajoso de una célula, lo cual se traduce en la aparición y expansión de clones derivados de esa célula. La adquisición adicional de mutaciones, y las ondas consecuentes de expansión clonal resultan en la evolución de células mutantes que invaden el tejido circundante y producen metástasis. Una de cada tres personas en el mundo occidental desarrollan cáncer y uno de cada cinco muere de esa enfermedad. El cáncer es por consiguiente la enfermedad genética más común.”
El Instituto Sanger del Reino Unido investiga sobre las modificaciones específicas de ADN que producen formas determinadas de cáncer.
El trabajo necesario para identificar toda la secuencia de un solo tipo de cáncer requerirá el análisis de más de un millón de millones de pares de bases de ADN.
Fuente: La dirección del portal es: www.sanger.ac.uk

III. Se descubre un hoyo negro involucrado en destrucción de estrellas.
Este lunes 4 de enero de 2010, el portal “Diario de la Ciencia” (ScienceDaily) anunció que el Observatorio de rayos X, Chandra, de la NASA, y el personal del telescopio Magallanes, sugieren que ciertos remanentes de estrellas que están siendo estudiados ofrecen evidencia de que un hoyo negro de masa intermedia destrozó una estrella cercana. Las señales detectadas, que aún están siendo estudiadas, son rayos X provenientes de un racimo muy denso de estrellas viejas. Los científicos consideran que se trata de una estrella enana blanca que fue calentada por la fuerza de gravedad mientras caía hacia un hoyo negro. Este estudio tiene importancia por dos novedosas razones: la primera es que se trataría de una evidencia muy fuerte de que los hoyos negros de masa intermedia (apenas unas decenas de masas de nuestro sol) efectivamente existen, la segunda es que sería la primera ocasión en que se detecta un agujero negro destrozando una estrella cercana.
Fuente del portal ScienceDaily: http://www.sciencedaily.com/



IV. Estrellas viejas rejuvenecen mediante actos de vampirismo.
Se trata de un proceso en el que una estrella catalogada como vieja debido a que contiene núcleos pesados, absorbe los núcleos livianos de una estrella cercana y modifica ligeramente sus emisiones de luz, asemejándose a las de una estrella joven debido a que sus nuevas componentes producen colisiones de núcleos de hidrógeno y de helio. Se sabe que el proceso de evolución de una estrella empieza cuando éstas queman hidrógeno, es decir, los núcleos de hidrógeno chocan entre si para formar núcleos de helio, después estos chocan entre si, y con otros núcleso de hidrógeno, para formar litio, berilio y así sucesivamente, de modo que la naturaleza de las estrellas viejas es que se forman con núcleos más pesados que las jóvenes, lo cual les da propiedades diferentes al emitir las señales que nosotros detectamos en la tierra. Los científicos que estudian las señales captadas mediante el Telescopio Hubble de la NASA han encontrado que el racimo de estrellas Messier 30, formado por estrellas muy viejas, con edades de 12 mil a 13 mil millones de años, contienen una pequeña fracción de estrellas que parecen ser significativamente más jóvenes. En lugar de verse como las estrellas gigantes rojas de la región del universo en que se encuentran, se presentan como estrellas azules jóvenes. El racimo Messier 30, formado hace 13 mil millones de años, fue descubierto en 1764 por Charles Messier, se encuentra a 28 mil años luz de la Tierra y contiene cientos de estrellas. Después de años de estudio, el grupo de investigadores en que participa Francesco Ferraro, de la Universidad de Bolonia, Italia, publicará esta semana un artículo en la revista Nature en la que presenta como conclusiones que las estrellas azules del racimo Messier 30 son en realidad estrellas muy viejas que han recibido una “mano de gato” cósmica surgida de colisiones de estrellas. El procedimiento consiste en que grupos de al menos dos estrellas de diferente masa chocan de tal forma que la menos masiva succiona el hidrógeno de la más masiva, lo cual le sirve como nuevo combustible nuclear. Este es el combustible que utiliza actualmente nuestro sol para emitir energía y consiste en que colisionan pares de núcleos de hidrógeno para formar un núcleo de helio cuya masa es ligeramente menor a la suma de masas de los dos hidrógenos originales. Una parte de la masa ha desparecido, convirtiéndose en energía que es emitida por la estrella.
Fuente: http://www.sciencedaily.com/releases/2009/12/091223133339.htm



V. La actividad física de larga duración tiene efectos preventivos contra el envejecimiento.
Ulrich Laufs, profesor de medicina clínica y experimental en el Departamento de Medicina de la Universidad Saarland en Homburg, Alemania, ha dirigido una investigación en la que se llega a la conclusión de que el ejercicio físico de los atletas profesionales lleva a la activación de la enzima conocida con el nombre de telomerasa, misma que estabiliza los telómeros. Éstos se encuentran en la parte final de un cromosoma y funcionan como protección para la parte del ADN que tiene información vital para la vida de una célula. Los científicos consideran que los telómeros más largos son garantía de que las moléculas de ADN se pueden replicar durante más ocasiones y asocian el envejecimiento celular con los telómeros más cortos. Según el grupo de Ulrich Laufs, lo que ellos presentan es evidencia directa del efecto de antienvejecimiento del ejercicio físico, el cual podría prevenir el envejecimiento del sistema cardiovascular como consecuencia de un principio molecular.
Las afirmaciones anteriores se alcanzaron mediante la realización de un estudio que consistió en la comparación de 32 atletas profesionales jóvenes con edad promedio de 20 años, pertenecientes al Equipo Nacional Alemán de Pista y Campo, quienes practicaban un promedio de 73 kilómetros por semana. Los compararon con atletas con edades mayores, con historias de ejercicio continuo desde su juventud y edad media de 51 años. Las distancias promedio de estos últimos era de alrededor de 80 kilómetros por semana. Además, ambos grupos fueron comparados con atletas sin entrenamiento, no fumadores, pero que hacían ejercicio regularmente. Cuidando mantener edades promedio similares, llegaron a las conclusiones que ya mencionamos.
fuente: http://www.sciencedaily.com/releases/2009/11/091130161806.htm

El cambio climático y el fracaso de la cumbre en Copenhague

(Vox Populi de la Ciencia, Radio Bemba, 6 de enero de 2010)

El pasado 18 de diciembre terminó la cumbre sobre el cambio climático en Copenhague. En palabras de Amy Goodman, en su artículo intitulado “De la esperanza al fracaso en Copenhague”, publicado por
La Jornada, el 30 de diciembre de 2009, hechos importantes habían ocurrido el último día de la reunión, el viernes 18 mencionado: “... Obama se enteró el viernes de una reunión que se estaba realizando entre los jefes de Estado de China, India, Brasil y Sudáfrica, e irrumpió en la sala, llevando al grupo a lograr un consenso sobre el llamado Acuerdo de Copenhague.”


Según relata Amy Goodman, “Obama y su pequeño grupo pasaron por alto el procedimiento colectivo de la ONU, lo que tuvo como consecuencia un documento no vinculante, que fue presentado bajo la premisa de tómalo o déjalo.”




Siguiendo el relato de Goodman “El respetado climatólogo James Hansen me dijo: Los países ricos están intentando, básicamente, comprar a estos países que, en efecto, desaparecerán. No tiene sentido. Y el peligro es que estas naciones ni siquiera vean ese dinero, ...”

Lo que haremos ahora es tratar de explicar a qué se refiere Hansen con esa afirmación:

En varias publicaciones científicas, James Hansen y sus colaboradores han llamado la atención sobre el hecho de que el cambio climático es lo que en la física y las matemáticas llamamos un fenómeno no lineal.

Esta clase de fenómenos se caracteriza porque las conductas de los principales parámetros del sistema presentan comportamientos que parecen ocurrir al azar, aunque no es así. Para diferenciarlo de los fenómenos de azar, como el juego de baraja, o los dados, se les ha llamado fenómenos caóticos.

Ejemplo de esto es un fenómeno conocido como la ecuación logística, de la cual pueden ser encontrados diversas animaciones en Internet. (Favor de consultar la dirección: http://demonstrations.wolfram.com/DiscreteLogisticEquation/ )

En el caso del clima los parámetros más importantes son: la temperatura, la humedad del aire, la dirección de los vientos y las mismas variables para el agua del océano. La extensión y grosor de los hielos en los polos también juega un papel importante.

Existen patrones de vientos y de corrientes oceánicas que son bien conocidas, de modo que la actividad humana está organizada tomándolos en cuenta. Por ejemplo, en el caso de Sonora sabemos bien que en invierno se presentan vientos del suroeste hacia el noreste cuyas temperaturas son relativamente más altas que las masas de aire frío provenientes del norte. Sabemos también que hay años en los que esos vientos del suroeste portan humedad suficiente para provocar una clase de lluvia de baja intensidad pero con duración de varios días y que reciben el nombre de equipatas, lo cual se traduce en precipitaciones importantes.

En el caso del Océano Atlántico Norte sabemos que existe un patrón de corrientes de agua tibia que salen del Mar Caribe, pasando por en medio de Cuba y la Florida, para avanzar hacia el noreste y alcanzar latitudes más al norte de Inglaterra, formando un sistema de remolinos muy variado de los cuales surgen formaciones de nubes que producen lluvia y nieve sobre Europa. Aunque fría para la sensación humana, esa gran masa húmeda mantiene la temperatura europea muy por encima de los gélidos registros de Siberia y de gran parte del territorio ruso.

En el Océano Pacífico se produce un sistema intermitente de un fenómeno conocido con el nombre de El Niño, mismo que ya hemos explicado en otro programa de Vox Populi de la Ciencia. Por ejemplo, en el caso de Sonora, las últimas grandes lluvias de invierno fueron causadas por uno de estos fenómenos.

Esta conducta cualitativa de los patrones de vientos y corrientes oceánicas podría cambiar hacia conductas desconocidas ahora, ya que, como dice Janes Hansen en su artículo Peligrosa Interferencia Humana en el Clima (Dangerous human-made interference with climate)”, lo que tenemos es un problema no lineal, en el cual el incremento del nivel del mar, como consecuencia del deshielo de la Antártida y del Ártico, no admite predicciones para el siglo XXI que se basen en ajustes lineales, es decir mediante gráficas en las que los datos son representados con puntos en una hoja cuadriculada y luego se hace pasar por ellos la recta más cercana, de modo que extendiendo la recta hacia el futuro se pretende saber cómo será el nivel del mar, la temperatura del agua y de la atmósfera, dentro de varias décadas.

Hansen ha insistido en que los estudios más conocidos no han tomado adecuadamente en cuenta la influencia del deshielo de los polos y propone que, ante la enorme dificultad que significa modelar matemáticamente ese fenómeno, lo que conviene es revisar qué ha ocurrido en el pasado, basándose en los datos proporcionados por la Paleoclimatología. Esta clase de estudios son conocidos como empíricos, y según Hansen, ofrecen resultados aterradores, como enumeramos enseguida:
1.En los últimos 500 mil años, el nivel más alto del mar, comparado con el de ahora, fue de aproximadamente 5 metros.
2.Buscando datos más antiguos, en la época del Plioceno, hace 3 millones de años, el nivel del mar era muy superior al de ahora, en número que técnicamente llamamos 25 metros más menos 10, lo cual significa que el intervalo podría estar entre los 15 y los 35 metros del nivel del mar, por encima del actual.
3.El punto preocupante es que, según dos estudios citados por Hansen, la temperatura en el Plioceno estaba apenas 3 grados por encima de la actual. Lo que debería llevarnos a pensar que al paso que vamos, estamos muy cerca de provocar un incremento acelerado del nivel del mar.
4.El problema principal es que más de mil millones de personas viven por debajo de los 25 metros sobre el nivel del mar.



En el próximo programa abundaremos sobre este tema. En esta ocasión conviene terminar esta alocución criticando a los líderes ambientalistas que suponen que “a los países más ricos no les preocupa porque a ellos no les va a pasar nada”, es decir, afirman sin demostrar, que los efectos negativos del cambio climático serán exclusivos de los países pobres.

Tales afirmaciones no solamente son falsas, además, en nada ayudan a que los propios pueblos de esos países ricos se convenzan de que toda la humanidad, incluidos ellos, vamos a la catástrofe. Para hacer ver que así es, el 9 de diciembre de 2009 presentamos datos que mostraban cómo afectaría a Sonora el incremento de 25 metros en el nivel del mar, ahora lo que haremos es enumerar, qué le ocurriría a los Estados Unidos, para hacer ver que la actitud de Barack Obama y su delegación en Copenhague muestra una profunda irresponsabilidad para con su propio pueblo. Los datos son los siguientes:

Con un incremento de 25 metros del nivel del mar:
I.A la izquierda de Nueva Orleans, longitud 90 33 46.20 el mar penetraría casi 157 kilómetros hacia el norte.
II.En la longitud 91 04 09.82 el mar penetraría casi 200 kilómetros hacia el norte.
III.En la longitud 92 15 38.15 el mar penetraría más de 103 kilómetros hacia el norte.
IV.En la longitud 93 12 04.98 el mar penetraría 78 kilómetros hacia el norte.
V.En Texas, al oriente de Houston, en la longitud 93 12 04.98 el mar penetraría más de 92 kilómetros.
VI.En Houston, Texas, el mar penetraría 88.5 kilómetros al noroeste de la Isla de Galveston.
VII.Casi toda la Ciudad de Houston desaparecería bajo el agua y al suroeste el mar penetraría casi 70 kilómetros.
VIII.En Texas, en la región de Corpus Christi, longitud 97 09 04.55, el mar penetraría 28 kilómetros hacia el noroeste. Toda la ciudad desaparecería bajo el agua y la zona agrícola situada al norte quedaría bajo el agua. Lo mismo ocurriría al sur de esa ciudad. El mar penetraría hasta 55 kilómetros, con la costa situándose 55 kilómetros tierra adentro y la desaparición del actual sistema de agricultura del delta del Río Nueces.
IX.Al norte del Río Bravo, más del 50% de la zona agrícola que se sitúa al oriente de McAllen Texas quedaría bajo el agua, pues la costa avanzaría hacia el occidente casi 75 kilómetros.
Brownsville Texas quedaría bajo el agua.



X.En México, toda la Ciudad de Matamoros quedaría debajo del agua y por la margen sur del Río Bravo el agua salada avanzaría hasta 20 kilómetros al oriente de Reynosa Tamaulipas.
XI.La Península de la Florida desaparecería, hasta el paralelo 29 31 04.
XII.Incluso la Ciudad de Jacksonville quedaría sepultada por el agua del mar y el mar avanzaría para situar la costa hasta 100 kilómetros al sur de la división del Estado de Georgia con el de Florida.
XIII.En el Estado de Georgia la costa se recorrería, en algunos puntos, hasta 63 kilómetros hacia el Occidente de su posición actual y se perdería casi toda la zona agrícola cercana al mar. Son cerca de 7,800 kilómetros cuadrados, casi el doble del Estado de Tlaxcala, pero de agricultura de altísimo nivel tecnológico.
XIV.En el Estado de Carolina del Sur ocurriría algo similar, en algunos puntos el mar avanzaría hasta 70 kilómetros, absorbiendo gran parte de su zona agrícola, que se encuentra en la llamada Costa Este. En síntesis, desaparecerían decenas de ciudades costeras.
XV.En el Estado de Carolina del Norte ocurriría algo similar. Hay regiones en las que el mar avanzaría 85 kilómetros. Especialmente en los deltas de los ríos que surcan esa región. En ellos la costa se recorrería hasta más de 100 kilómetros tierra adentro.
XVI.Por ejemplo, en la frontera con el Estado de Virginia, la costa se recorrería 130 kilómetros al occidente de su localización actual.



XVII.Debido a la pendiente mínima del Río Delaware, el mar avanzaría por su delta hasta Washington, dejando la Casa Blanca por debajo del agua, con la costa situada a cerca de un kilómetro al norte de ésta.
XVIII.El centro de Baltimore, incluido el puerto, hasta 800 metros hacia el noroeste, quedaría debajo del agua.
XIX.En el caso de todos los puertos y regiones industriales, contaminantes contenidos en artículos de uso doméstico de forma cotidiana como pilas secas, fumigantes, pesticidas, químicos de uso industrial que se encuentran tirados en zonas que quedarían inundadas, entrarían en contacto con el agua de mar, envenenando la zona entera.

domingo, 3 de enero de 2010

Vox Populi de la Ciencia (recuento del 2009)

Emisión del 16 de diciembre de 2009

I
Durante los meses de enero y febrero explicamos que se ha podido estudiar el origen del hombre mediante la estructura genética de los fósiles encontrados. Se sabe que el ser humano salió de África y se ha podido rastrear las distintas rutas que siguió.

Explicamos que se prestó atención a una secuencia de ADN que ha sido muy importante para el estudio de la historia del hombre: el ADN mitocondrial, que se encuentra dentro de las células en unos cuerpos pequeños llamados mitocondrias.



El ADN mitocondrial es útil para estudiar el pasado del hombre porque no tiene recombinación, de tal modo que las huellas del ADN pueden ser rastreadas hasta un pasado sumamente lejano. Por ejemplo, se ha podido estimar que el chimpancé y el bonobo empezaron a separarse de la rama humana y de la del Neandertal desde hace 6 u 8 millones de años. También se sabe que la especie llamada Neandertal es idéntica en el 99,5% al ADN del humano, tenía una masa cerebral mayor y desapareció hace 24.000 años.

Conforme los seres humanos se fueron moviendo desde la costa este de África hacia lo que ahora son Arabia, Irán y la India, se movieron también hacia el norte de Irán. Por la costa del Océano Índico viajaron hasta China y hacia las islas que separan los Océanos Pacífico e Índico, alcanzando Australia hace más de 50 mil años.

Mencionamos también que del norte de Irán viajaron hacia Asia Central, donde se encontraban hace más de 40 mil años y que de allí partieron varios procesos de colonización de Europa, partiendo hacia la región oriental de Siberia y hacia América hace casi 20 mil años.

Los científicos han podido diferenciar el ADN hasta el punto de distinguir distintos genes que reciben el nombre de marcadores genéticos, mismos que fueron surgiendo en diferentes épocas. Por ejemplo, el hombre que entra a América procesa un gene llamado M242, que surge entre hace 12 mil y 10 mil años. Así mismo, hay emigrantes de Asia Central a Europa que tienen marcadores genéticos especiales que también permiten clasificarlos. Como es el caso del M343 surgido hace 30 mil años entre los que llegaron a Europa.

Los marcadores genéticos localizan un ancestro común hace 50 y 60 mil años, así como un cuello de botella hace 75 mil años. También reflexionamos sobre lo interesante que resulta ese dato si se le compara con la gran explosión del volcán Toba, en lo que ahora es Indonesia, aproximadamente en esa fecha. Existen especulaciones científicamente válidas en el sentido de que la obstrucción de la luz solar pudo acabar con gran cantidad de ancestros nuestros hasta el punto de que el hombre actual enfrentó la extinción.

II
En el programa del 18 de febrero de 2009 presentamos datos publicados en el diario La Jornada para hacer ver que de los 15 mil millones de pesos del presupuesto del CONACYT para este año, habrá 2 mil 500 millones de pesos que no irán a los centros de investigación ni a las universidades, sino a los empresarios con el pretexto de promover la investigación.

También hicimos ver que si en lugar de gastar 6 mil millones de pesos anuales para pagar atención médica privada para los altos funcionarios del gobierno federal, se dedicaran a contratar doctores en ciencias, alcanzaría para el sueldo y prestaciones de 9 mil 708 doctores en ciencias nuevos.

III
En los meses de marzo y abril relatamos el trabajo experimental de Rosalind Franklin y Raymond Gosling para encontrar la estructura de doble hélice del ADN mediante rayos X.

Hicimos ver que dichos rayos entraban al cristal de ADN y salían dispersados en diversas direcciones.

Tomaron fotografías de los rayos X que salían del ADN y midieron las estructuras de manchas claras y estructuras. Utilizaron un método matemático conocido como transformada inversa de Fourier y Bessel y lograron saber cuánto medían las fibras de ADN y cuál era la separación entre las bases que la forman.



Comentamos sobre el deterioro de la relación de Rosalind Franklin con Maurice Wilkins en el King's College en el año de 1952 e informamos que en opinión de los conocedores directos de la situación, eso influyó para que Wilkins facilitara a James Watson y a Francis Krick los datos del trabajo de Franklin.

Realizamos un análisis de dos métodos diferentes para abordar el problema de la estructura del ADN, por una parte el método experimental, profundamente riguroso, basado en mediciones de las fotografías tomadas por Rosalind Franklin con una cámara diseñada por ella misma, para después realizar un conjunto de cálculos matemáticos complicados y tratar de encontrar las posiciones relativas de los átomos que forman la molécula del ADN. Por otra parte, el método sintético y altamente especulativo de Watson y Crick, quienes reunían toda la información teórica y experimental desarrollada por otros para hacerla encajar en una maqueta formada con esferas y conexiones de madera.

Las dos visiones tienen sus ventajas y desventajas, pero en el caso del descubrimiento de la estructura del ADN, funcionó a favor de Watson y de Crick, quienes al final se quedaron con todos los créditos y con el premio Nobel.



IV
A finales de abril, y durante la primera quincena de mayo, discutimos el desarrollo de la enfermedad conocida con el nombre de gripe porcina, que terminó llamándose gripe A H1N1.
Presentamos una explicación de qué son los virus e informamos que su estructura consiste de un núcleo que contiene la información genética, rodeado de proteínas protectoras que semejan la cáscara de una naranja y con unas protuberancias muy largas que sirven para abrir las membranas de las células e introducirse en ellas y lograr que la célula anfitriona realice copias del virus, que luego son liberados cuando estos logran abrir la membrana de nuevo para escapar e infectar a otras células.

En la ciudad de Hermosillo fuimos los primeros en llamar la atención sobre el hecho de que al menos un virus semejante, proveniente de cerdos producidos por métodos industriales, ya había infectado en agosto de 2007 a personas que asistían a una feria ganadera en la que se exhibían cerdos enfermos en Ohio, Estados Unidos. El virus de esa ocasión es muy similar al AH1N1 cuyo origen se adjudicó a los mexicanos.

Dimos datos en el sentido de que desde el 28 de marzo de 2009, en el Condado Imperial, en California, había sido diagnosticada una niña de 9 años con la enfermedad que ahora conocemos como virus de AH1N1, pero para mediados de mayo de 2009, fue imposible establecer el verdadero origen del virus porque las autoridades mexicanas no informaron si los casos de La Gloria, en Veracruz, habían iniciado desde enero y febrero como denunciaban los habitantes de ese lugar. Hasta diciembre de 2009, seguimos sin conocer la ruta inicial del desarrollo del virus, pues no hemos localizado, hasta ahora, artículos científicos que nos expliquen dónde nació y por dónde avanzó el virus en los inicios de la enfermedad.

Dentro de nuestro trabajo para difundir información científica, tuvimos el apoyo de Radio Bemba para entrevistar en dos ocasiones al Doctor Julio Reyes Leyva, investigador del Laboratorio de Biología Molecular y Virología en el Centro de Investigación Biomédica de Oriente del Instituto Mexicano del Seguro Social, en Metepec, Puebla, México. El Doctor Reyes nos explicó con detalle cómo mutan estos virus, la existencia de distintos tipos de genes en el interior del virus y la forma en que las mutaciones son altamente probables en los cerdos, ya que contienen receptores celulares para virus de influenza provenientes de otros cerdos, de seres humanos y también de aves. Además, el Dr. Reyes nos obsequió tres trabajos de difusión en los que nos explica detalles sobre estos virus, mismos que estarán en un blog especialmente dedicado al programa Vox Populi de la Ciencia que será anunciado en enero de 2010. Es un punto sobre el cual estamos trabajando.

De la conversación con en el Dr. Reyes aprendimos que México tiene investigadores preparados para detectar estos virus y hacer las pruebas científicas sin necesidad de enviarlas al extranjero. El problema que tenemos es que ellos no son apoyados como debería ser. Es el mismo problema de falta de apoyo a la ciencia que ya hemos comentado en ocasiones anteriores.

V
El 5 de junio de 2009 ocurrió en la ciudad de Hermosillo una tragedia que nos estremeció a todos. Una bodega convertida en guardería de niños se incendió, matando a 49 infantes e hiriendo a varios centenares de varias formas. En el programa Vox Populi de la Ciencia abordamos el tema para llamar la atención sobre el hecho de que un reportero de la Revista Proceso había expresado, el 14 de junio de 2009, en entrevista transmitida por Radio Bemba, que los vecinos de la Guardería ABC afirmaban que primero había habido una explosión y después se había presentado el fuego.

Comentamos que si fue así, lo más probable era que la explosión hubiera sido causada por vapor de gasolina, que se autoenciende a 254 grados Celsius, especialmente cuando es de menor octanaje.
Argumentamos que era improbable que el poliestireno hubiera estallado primero, pues tiene autoignición a más de 450 grados Celsius, mientras que en las bodegas había gasolinas en los automóviles y también poliuretano termoplástico pegado al techo, que entra en ignición después de 393 grados Celsius.

Informamos que el poliuretano termoplástico no es recomendado como material de construcción por ser peligroso para la salud y que ya había sido boletinado por la organización Global Health & Safety Initiative, en mayo de 2008, en un documento titulado Toxic Chemicals in Building Materials (an Overview for Health Care Organizations). En éste se señala que el poliuretano termoplástico se hace con polyols y diisocianatos. Los polyols pertenecen al grupo de los alcoholes y los segundos se forman con dos cadenas de isocianatos, cada una de las cuales contiene un átomo de cianuro. El diisocianato está considerado como un severo irritante bronquial y asmágeno, hasta el punto de que exposiciones crónicas al mismo pueden ser fatales en dosis altas.

Informamos que el diisocianato está hecho con una variedad de intermediarios químicos altamente peligrosos, incluyendo formaldeído (clasificado como altamente carcinógeno por la Agencia Internacional de Investigación Contra el Cáncer) y fosgeno (gas altamente letal usado como veneno en la Primera Guerra Mundial). Durante la combustión, los poliuretanos emiten cianuro hidrogenado y monóxido de carbono.

Criticamos que el uso del poliuretano termoplástico está muy difundido en la Ciudad de Hermosillo. Que se ha convertido en una costumbre la instalación de oficinas en enormes rectángulos que son separados por paredes posteriormente. El techo es cubierto por la parte de abajo con esa sustancia, que es conocida localmente como poliuretano espreado. Se pega a la cara interior del techo y funciona como aislante de muy alta calidad. Después, para mejorar la apariencia del sitio, y también como segunda medida ahorradora de energía eléctrica, se coloca un falso techo que conocemos con el nombre de plafón. El nombre de la sustancia usada para fabricarlo es poliestireno.

En el caso de la guardería ABC, donde ocurrió la tragedia el 5 de junio de 2009, cerca de las 15:00 horas, las instalaciones eran iguales a las mencionadas.

Insistimos en que no teníamos claro cuál había sido el origen del fuego, pero insistimos en que la afirmación oficial no era convincente.

Explicamos que una vez iniciado el incendio, el poliuretano termoplástico del techo ayudó a que el calor se acumulara más rápidamente en el interior e hicimos ver que así como el poliuretano espreado no deja entrar el calor del exterior, tampoco deja salir el del interior. Así, la cantidad de material incendiado, capaz de hacer que empezara a arder el poliuretano espreado, pudo haber sido mucho menor.

Mencionamos que la presencia del aislante pegado al techo impidió la pérdida de calor por radiación, haciendo que se acumulara la energía más rápidamente. El tiempo transcurrido para alcanzar los 393 grados centígrados fue mucho menor, dando lugar a que el poliuretano termoplástico se incendiara.

Comentamos que las escenas presentadas por las autoridades del Gobierno del Estado de Sonora presentaban un motor incendiado en el cual las partes de aluminio estaban derretidas, lo cual indicaba que la temperatura superó los 660 grados centígrados. En todo caso, el fuego avanzó inmediatamente por el techo.



Informamos también que, seguramente, el humo contenía gases venenosos, como el cianuro, lo cual se podría comprobar recolectando restos de la ceniza de las paredes y sometiéndola al análisis mediante un espectrómetro de masas.

Meses después hemos sabido que varios niños, que no fueron seriamente afectados por las llamas, si muestran lesiones en sus pulmones. Podemos creer, ahora, a seis meses de la tragedia, que pudo deberse a que respiraron gases venenosos.

La investigación técnica ordenada por la Suprema Corte de Justicia podrá arrojar más luz sobre esta tragedia.

VI
A partir de agosto de 2009 sustituimos el segmento de las efemérides científicas por otro: el de las actualidades científicas, en las que procuramos informar únicamente sobre noticias que podemos corroborar mediante fuentes directas. Es decir, no nos conformamos con la noticia de los periódicos, sino que revisamos personalmente las revistas científicas que publican los resultados.
Entre las noticias que hemos comentado en este programa están:

1.Informamos que el mercurio proveniente de la contaminación industrial nos contamina al comer atún.
2.Que estudios sicológicos mostraban que la creencia de que se es más feliz cuando se tienen más opciones para escoger es falsa.
3.Informamos sobre los avances para lograr la recuperación de la población del lobo gris en Estados Unidos.
4.Explicamos que nuevos estudios sobre las propiedades del cráneo humano demuestran que el ruido de los campos de batalla superan la resistencia de los huesos de nuestras cabezas a las vibraciones mecánicas, lo cual puede dañar al cerebro.
5.Informamos que nuevos estudios de la Universidad de Washington demostraron que el hielo permanente del Océano Ártico es cada vez más delgado.
6.Informamos que en Alemania planean generar energía eléctrica y transferir calor a casas habitación usando motores de wolkswagen.
7.También explicamos que la especie de los hombres de Neanderthal podría haber desaparecido a causa de cambios súbitos del clima, que habrían ocurrido en el tiempo de vida de una generación.
8.En octubre informamos que la luna de Júpiter, llamada Europa, podría contener oxígeno suficiente como para albergar vida.
9.También informamos que estudios en monos de la especie Rhesus demuestran que el ejercicio ayuda a proteger a las neuronas.
10.Comentamos sobre estudios que llevan a pensar que la especialización de los hemisferios izquierdo y derecho podría haberse originado hace 500 millones de años.
11.Que la ciencia analiza el papel de los jinetes en el éxito de los caballos de carrera.
12.Que se buscan nanocompuestos para la piel de aparatos electrónicos.
13.Que científicos chinos habían logrado demostrar la existencia de daños mortales en trabajadores laborando en fábricas con compuestos producidos con nanotecnología.


14.El 16 de septiembre reportamos la existencia de pruebas exitosas con vacunas contra la influenza AH1N1.
15.Hicimos ver también que había indicios de que la vacuna de la influenza de 1976 es de utilidad contra la influenza AH1N1.
16.Informamos sobre un medicamento cubano contra el cáncer, el nimotuzumab, que se usa en China desde 2006 y que se ha empezado a probar en Estados Unidos para diagnosticar si se admite la comercialización de ese producto.
17.Informamos sobre la esperanza de que una nueva generación de vacunas que usan sustancias adyuvantes incrementará la efectividad de las vacunaciones.
18.También explicamos sobre el desarrollo de tecnologías más modernas para extraer petróleo y que éstas podrían llevar a un nuevo pico productivo en la extracción de petróleo.
19.Advertimos que investigadores de la Universidad de Colorado encontraron bacterias peligrosas para la salud ¡en las regaderas de los baños! Hicimos ver que no es motivo para alarmarse, pero que las personas con sistema inmunológico deprimido podrían desconectar periódicamente la regadera, sumergirla unos minutos en cloro y volver a instalarla.
20.Comentamos también que las neuronas que produce el cerebro borran algunas de las memorias almacenadas por éste.
21.Explicamos que una sustancia química llamada Nutlin-3 tiene la capacidad de activar el gene p53 y ayudar a evitar la proliferación de un cáncer infantil llamado neuroblastoma.
22.Informamos sobre estudios realizados a momias egipcias de seres humanos que vivieron hace más de 2 mil años y que estos demostraban que, al menos la clase dominante, estaba plagada de enfermedades del corazón.

23.Informamos que la comprensión de todo el genoma del maíz arrojaba una diversidad tan grande entre pares de especies de esa planta, que en ocasiones las diferencias entre dos de ellas es mayor que la diferencia entre los seres humanos y los chimpancés.
24.Neurocientíficos de la Universidad de Duke encuentran las razones por las cuales los tonos menores de los acordes musicales se asocian con la tristeza y los mayores se utilizan para expresar alegría y otras emociones similares.



VII
Entre los temas abordados explicamos que el baile del tango disminuye el estrés, que los consecuentes niveles bajos de cortisol se deben a la acción de escuchar música, en tanto que el aumento de la testosterona parece tener más relación con la presencia de la pareja.

VIII
Dentro de los temas recurrentes de la física en el deporte, explicamos a qué se debe que la bola de nudillos lanzada por algunos pitchers siga la conducta que puede observarse en los portales de youtube y recomendamos que para ver cómo es ese lanzamiento escriban: nuckleball. Comentamos que los experimentos desarrollados en un túnel de viento demostraban que las costuras de la pelota juegan un papel fundamental, que el giro necesario para que ocurra el movimiento errático, típico de la bola de nudillos, es posible porque el giro es extremadamente lento, haciendo que la colocación relativa de las costuras de la pelota frente a la dirección de avance de la bola, se modifiquen, haciéndola diferente entre un lanzamiento y otro.

También comentamos sobre otro estudio en el que explicamos cómo se logra el lanzamiento de la bola curva en el beisbol. Explicamos que en este caso se trata de que la bola gire extremadamente rápido y explicamos por qué los lanzamientos de la bola curva son relativamente lentos si se le compara con las velocidades alcanzadas en las bolas rápidas.

IX

Cuando se anunció la autorización de la siembra de maíz transgénico en el Valle del Yaqui, explicamos en qué consiste este maíz transgénico, que se le inserta un gene de una bacteria cuyo nombre rápido es Bt, que produce una proteína que es un insecticida.

Hicimos ver que Francia, Alemania, Austria y Grecia habían decidido negar a la empresa Monsanto el permiso para sembrar sus especies en sus territorios.

Argumentamos que sería imposible controlar y evitar la proliferación y contaminación de nuestro maíz criollo debido a que el polen puede viajar grandes distancias en las dos a cuatro horas que puede durar activo para fertilizar a la parte femenina del sistema de reproducción.

Afirmamos también que no existe garantía de que no afecta a los seres humanos que consumen el maíz transgénico y que había en este punto asuntos éticos en la toma de las decisiones políticas.

X
Atendiendo a la conferencia sobre el cambio climático en Dinamarca, compilamos varios descubrimientos que organizamos en forma cronológica para hacer ver cómo desde hace más de 40 años se han venido presentando argumentos en el sentido de que podría ocurrir una catástrofe en los próximos años.

Hicimos ver que el calentamiento del planeta es un hecho demostrado, que en la década de los años 1970 se pensaba que los grandes cambios de temperatura ocurrían después de miles de años, que en los años 1980 se había reducido la expectativa para hablar de cientos de años y que en la década de los años 1990 se pudo comprender que los cambios bruscos en la humedad y la temperatura pueden ser un asunto de décadas.



Explicamos que existe una organización de los vientos en los que se alternan los vientos tropicales con los polares de una forma que la humanidad ya conoce, de tal modo que la vida y la cadena trófica (cadenas alimenticias) dependen de este sistema alternado del movimiento de los vientos.

Explicamos que así como la acumulación de temperatura en un recipiente con agua líquida puede producir un cambio cualitativo para que resulte vapor de agua, con propiedades cuantitativas nuevas, también el clima tiene la propiedad de presentar determinadas características globales que pueden cambiar súbitamente si los cambios cuantitativos de gases de invernadero rebasan ciertos límites.

Entre los datos preocupantes, mencionamos que los estudios basados en técnicas llamadas paleoclimatología nos indican que en el pasado hubo cambios de 4 o 5 grados centígrados que produjeron movimientos en el nivel del mar de hasta 25 y 30 metros, y que de ser éste el caso nuestro, la catástrofe llevaría a la eliminación de grandes porciones de tierra, a la ruptura de la cadena trófica y la destrucción masiva de especies.

Cerramos afirmando que la frase correcta no es: cambio climático, sino: crisis climática.