Vox Populi de la Ciencia reinicia a nivel de blog. Hasta septiembre de 2011 fue un programa de difusión científica que se transmitía a través de la radio comunitaria Radio Bemba, que era escuchada en la zona metropolitana de Hermosillo, Sonora, México en la frecuencia de 95.5Mhz. Se conservará la rigurosidad de los contenidos, incluyendo únicamente materiales provenientes de revistas científicas con arbitraje.
jueves, 26 de mayo de 2011
Sismicidad en el Golfo de Baja California (Segunda parte) (Vox Populi de la Ciencia, Radio Bemba)
25 de mayo de 2011
Continuando con nuestra serie sobre la sismicidad en el Golfo de Baja California, en esta ocasión explicaremos con detalle que las ondas de un sismo se forman con cuatro tipos de ondas distintas. Explicaremos cada una de ellas, haremos ver que estas ondas viajan con velocidades distintas y pondremos un ejemplo de cómo se usa esa diferencia de velocidades para localizar el sitio en el que se produjo el sismo.
En el programa anterior de Vox Populi de la Ciencia dijimos que un sismo, o temblor, es un movimiento vibratorio que se origina en el interior de la Tierra y se propaga por ella en todas direcciones en forma de ondas. Ahora seremos más descriptivos y profundizaremos explicando que en realidad se trata de cuatro tipos de ondas, que viajan con diferentes velocidades. Se trata de las ondas P, las ondas S y las ondas Love, que viajan por el interior de la Tierra y se manifiestan después en la superficie. La cuarta clase de ondas son las ondas de Rayleigh, que son puramente superficiales.
Las ondas P son ondas longitudinales. Se llaman así porque el movimiento del suelo es en la misma dirección en que se mueve la onda. Por ejemplo, aunque Hermosillo es considerada una región con actividad sísmica extremadamente baja, por razones que expondremos en otro programa de Vox Populi de la Ciencia, vamos a suponer que un sismo llegara a nuestra ciudad proveniente de Guaymas y que nosotros lo observamos enfrente del Palacio de Gobierno, enfrente de donde ponen las bocinas a alto volumen cuando hay manifestaciones con reclamos. Si estamos en la Plaza Zaragoza viendo el frente del Palacio, el sismo hipotético llegaría desde nuestra derecha avanzando hacia la izquierda. Las ondas P nos moverían hacia la izquierda y hacia la derecha.
En la foto que sigue se señala la dirección del norte si miramos el Palacio De Gobierno desde el kiosco de la Plaza Zaragoza
Las dos figuras que siguen indican para dónde se movería el piso a causa de las ondas P
En cambio, las ondas S consisten de subidas y de bajadas, de modo que si estuviéramos viendo el Palacio de Gobierno desde la Plaza Zaragoza, las ondas S nos moverían hacia arriba y hacia abajo. Técnicamente se dice que la onda S es perpendicular a la dirección de movimiento de la onda sísmica.
La siguiente foto muestra cómo se movería el piso al llegar la onda S. Obviamente también lo haría hacia abajo.
Una animación de ondas P y de ondas S se encuentra en la dirección de la Universidad de Alicante que aparecerá en nuestro blog, es: http://www.ua.es/ursua/ondas.htm
Un tercer tipo de onda es la onda de Love. Se llaman así porque fueron predichas teóricamente por el matemático Augusto Eduardo Love en un libro sobre elasticidad que publicó en 1911. Las ondas de Love también tienen la característica de ser perpendiculares a la dirección de movimiento. Si continuamos con nuestro ejemplo hipotético de un sismo que llegara a Hermosillo desde Guaymas mientras nosotros estamos en la Plaza Zaragoza mirando el Palacio de Gobierno, lo que haría la onda de Love es mover el suelo que pisamos acercándonos y alejándonos respecto al Palacio.
La foto que sigue indica hacia dónde sería uno de los movimientos de la onda de Love, alejándonos del Palacio de Gobierno.
Obviamente también nos movería hacia atrás de la persona de la foto, acercándonos al Palacio de Gobierno.
El último tipo de onda son las superficiales, conocidas como las ondas de Rayleigh debido a que este físico las predijo teóricamente en 1885. Las características de éstas son que se desplazan únicamente sobre la superficie, que son más lentas y que llegan más lejos.
¿Qué sucede con los componentes de la tierra durante un temblor? Una animación de lo que le ocurre a una pared de ladrillos, pero representados como pelotitas, se encuentra en otra dirección que también se encontrará en nuestro blog:
http://sunshine.chpc.utah.edu/labs/seismic/index.htm
Las ondas P son las más rápidas, alcanzan velocidades superiores a los 5 kilómetros por segundo y es la razón por la que llegan primero, recibiendo el nombre de ondas primarias, o bien, ondas P. La magnitud de su velocidad depende de la dureza del material, por ejemplo, María Julia Téllez y Pablo escribió en 2002, en su tesis doctoral, que las ondas P en Galicia alcanzan velocidades que van desde un poco menos de 6 kilómetros por segundo cerca de la superficie, hasta más de 7 kilómetros por segundo a 30 metros de profundidad.
Debido a que los datos de esta tesis aparecerán en el blog de Vox Populi de la Ciencia, un estudiante de bachillerato que esté interesado puede buscar esta tesis doctoral, descargar el archivo y buscar en la página 272 la figura 9.5, donde se presenta una gráfica con los datos. Misma gráfica que se puede entender sabiendo los aspectos básicos del sistema de coordenadas de Descartes.
Fuente: María Julia Téllez y Pablo, Análisis e interpretación de ondas P y S de perfiles sísmicos: aplicación al NO de la Península Ibérica, Departamento de Ciencias Físicas, Universidad Complutense de Madrid, 2002.
Las ondas S son más lentas que las ondas P, se llaman ondas secundarias porque cuando ocurre un sismo llegan después. En su tesis María Julia Téllez y Pablo estudia las señales de ondas P y S, localizando las P por ser las de velocidad más alta, después divide entre 1.7 la velocidad de las ondas P para identificar las ondas S. Por ejemplo, cuando la velocidad de una onda P es de 6 kilómetros por segundo, la de la onda S es de 3.5 kilómetros por segundo.
Las ondas de Love tienen velocidades similares a las de Rayleigh, que viajan a una velocidad aproximada de 3 kilómetros por segundo, aunque este número varía de acuerdo a la naturaleza del terreno, cuando éste es muy duro, la onda Rayleigh viaja ligeramente más rápido, y viceversa, cuando el suelo es blando, la velocidad de la onda Rayleigh es ligeramente menor.
El 21 de octubre de 2010 se generó un sismo de 6.7 grados Richter a las 5:53:14 de la tarde a 110 kilómetros al sur de la Ciudad de los Mochis. El tiempo de viaje de las ondas P, desde ese punto hasta varias ciudades del mundo, se puede consultar en una que se encuentra en el portal de Internet de la Oficina de Exploración Geológica de los Estados Unidos (USGS por sus siglas en Inglés). Su dirección será publicada en el blog de Vox Populi de la Ciencia. Allí nos podemos enterar que las ondas P fueron detectadas 2 minutos con 33.6 segundos después en los sismógrafos de la Ciudad de México y 2 minutos con 9.2 segundos en la Ciudad de Phoenix Arizona.
http://neic.usgs.gov/neis/eq_depot/2010/eq_101021_crbl/neic_crbl_t.html
Un ejemplo de los efectos que tiene la velocidad de las ondas P, S y superficiales es el caso del sismo de 8.1 grados Richter, ocurrido a las 7:17:48.5 del 19 de septiembre de 1985, con epicentro a 42 kilómetros al sur de las costas de Michoacán, a 407 kilómetros del cruce de Paseo de la Reforma con la Avenida Juárez, en la Ciudad de México. Este punto se encuentra dentro del área del centro de la capital de nuestro país, que es la región donde la destrucción fue mayor.
Para fines de explicación, supondremos que la velocidad de las ondas P fue de 6 kilómetros por segundo, dividiendo entre 1.75, encontramos que la velocidad de las ondas S fue de 3.428 kilómetros por segundo.
Dividiendo los 407 kilómetros de separación entre el epicentro frente a las costas de Michoacán y la velocidad de las ondas P, resulta que las ondas sísmicas primarias tardaron 67.8 segundos en arribar al centro de la Ciudad de México. En otras palabras, se trató de 1 minuto más casi 8 segundos transcurridos desde la producción del sismo hasta su arribo.
Si nos referimos a las ondas S, encontramos que las ondas secundarias tardaron 118.7 segundos en llegar desde el epicentro hasta el centro de la Ciudad de México. Es decir, casi 2 minutos de viaje desde el instante en que se produjo el sismo frente a las costas de Michoacán.
Fuente: http://www.ssn.unam.mx/website/jsp/Sismo85/sismo85_inf.htm
Los datos anteriores sugieren la posibilidad de disponer de un sistema de sensores sísmicos a lo largo de la costa del Pacífico, a fin de detectar sismos con epicentros en el mar y avisar a las poblaciones que se encuentran tierra adentro. El tiempo de detección podría ser suficiente para evacuar edificios y evitar pérdidas humanas, aunque no se impida la caída de edificios. Esta es una oportunidad que ya es aprovechada en la ciudad de México, donde existe una alarma sísmica que informa de sismos con epicentro en ciertas regiones de la costa de Guerrero y otros sitios cercanos.
El proceso de investigación del punto donde se origina el sismo es a la inversa de nuestro razonamiento. Lo que se pudo medir en los sismógrafos de la Ciudad de México fueron los casi 58 segundos de diferencia entre las ondas P y las ondas S, conociendo además la velocidad de cada tipo de onda, lo que hicieron los especialistas fue calcular la distancia a la que se produjo el sismo. El razonamiento puede ser estudiado en un curso de física de nivel bachillerato, pues involucra el uso de tres fórmulas simples de cinemática y álgebra simple.
Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba)
25 de mayo de 2011
I. El Proyecto de Pronósticos Meteorológicos Tropicales de la Universidad Estatal de Colorado afirma que en el año 2011 habrá más huracanes de lo normal en el Océano Atlántico.
Esta afirmación es hecha por los investigadores de una dependencia que se encuentra dentro del sistema de la Universidad Estatal de Colorado y está dirigida por Philip Kotzbach y por William Gray. Ellos han hecho en abril de 2011 un pronóstico de la cantidad de huracanes que se esperan en el Océano Atlántico durante la temporada del año 2011.
Se trata de un reporte de 44 páginas en cuyo resumen sintetizan que a partir de la información disponible hasta el mes de marzo de 2011 la temporada de huracanes del Océano Atlántico será significativamente más alta que la del promedio de las temporadas de 1950 al año 2000.
El promedio de las temporadas de esos 50 años es de 5.9 huracanes por año. En cambio, ellos afirman que para el año 2011 esperan 9 huracanes. Su trabajo introduce una corrección respecto del pronóstico que habían hecho en diciembre de 2010 porque en esa fecha no estaba claro que existe un proceso de enfriamiento del Océano Atlántico respecto de los años previos, al mismo tiempo que se presenta un periodo de calentamiento relativo del Océano Pacífico, en el cual pronostican que se realizará una transición del fenómeno de La Niña hacia condiciones neutrales.
Dicho de otra forma, en los meses que ya transcurrieron la temperatura del agua en la superficie del mar estuvo predominantemente por debajo de lo usual, ahora está alcanzando los grados centígrados que son considerados como promedio y, probablemente, pasará a temperaturas más altas, con lo cual podríamos tener el fenómeno de El Niño.
Estas condiciones normales son el antecedente en el que es posible el paso a un fenómeno de El Niño. Los autores definen el fenómeno de El Niño como un periodo de 12 a 18 meses en los que la superficie del agua del mar presenta temperaturas más altas que el promedio. En palabras de ellos, eventos moderados o fuertes de El Niño se presentan con un periodo que va de 3 a 7 años en promedio.
Los autores afirman que el fenómeno de La Niña pasó de moderado a fuerte durante el invierno de 2010 a 2011 y se ha empezado a debilitar rápidamente en un intervalo de tiempo de tan solo dos meses.
Philip Kotzbach y William Gray afirman que, de acuerdo a sus datos estadísticos, en el pasado se han presentado más huracanes en el Océano Atlántico cuando en el Océano Pacífico ha ocurrido el cambio del fenómeno de La Niña al fenómeno de El Niño.
Como hemos relatado en otros programas de Vox Populi de la Ciencia, los científicos descubrieron hace menos de 30 años que los cambios en el Océano Pacífico influyen sobre el clima en el Océano Atlántico y también en Europa. Ésta es la base para el trabajo de Kotzbach y Gray.
Fuente: http://hurricane.atmos.colostate.edu/Forecasts
II. Ahora es posible cultivar en el laboratorio los astrocitos, que son las células del cerebro que forman la glía y constituyen más de la mitad de la masa cerebral.
Un grupo de cuatro investigadores que trabajan para la Universidad de Wisconsin en Madison y para el Centro Waisman, además de al menos un investigador de la Universidad de Shanghai, han logrado el cultivo de astrocitos en sus laboratorios. Se trata de un artículo de Robert Krencik, Jason P. Weick, Yan Liu, Zhi-Jian Zhang, Su-Chun Zhang, que se intitula: “Especificación de subtipos de astroglía trasplantable a partir de células madre pluripotentes”, apareció en la edición en línea de la revista científica Nature Biotechnology, a partir del 22 de mayo de 2011.
Los astrocitos son las células que forman la glía, se llaman así porque su forma se asemeja a la de estrellas brillando y forman un tejido que ocupa más de la mitad del cerebro. La glía es el tejido en el que se encuentran inmersas las neuronas, las abastece de la sangre con los nutrientes y el oxígeno necesarios para su trabajo y las protege para que desarrollen su trabajo.
El cerebro no está formado únicamente de neuronas, necesitan de la glía para poder funcionar y es la glía la encargada de todo el trabajo de abastecimiento y protección necesarios. Por esa razón, son participantes directos en lo que hace bien el cerebro y también en lo que hace mal cuando hay alguna enfermedad.
La base para el trabajo científico que estamos relatando son las células madre pluripotentes, que tienen la característica de que pueden desarrollar descendencia que las lleve a producir distintos tejidos.
Una explicación amplia sobre las células madre puede ser encontrada en el blog de Vox Populi de la Ciencia, en el programa emitido el 3 de febrero de 2010. Otros usos de las células madre pueden ser consultados en el programa que emitimos el 1º de septiembre de 2010 y también en el del 21 de noviembre de ese mismo año.
En el resumen de su artículo los autores explican que partieron de células madre de seres humanos, que enseguida pudieron procesar en laboratorio para obtener un tipo de células distintas y en grandes cantidades. Analizaron su contenido genético y lograron establecer la semejanza genética con los astrocitos, de modo que pudieron concluir que las células obtenidas sí podían ser clasificables como astrocitos.
Las células obtenidas fueron trasplantadas en cerebros de ratones para ponerlas en contacto con vasos sanguíneos y encontraron que éstas lograron desarrollarse hasta ser células maduras, formando conexiones con esos vasos sanguíneos. Los autores de la investigación consideran que las células que ellos han cultivado pueden ser aprovechadas para estudiar los astrocitos del cerebro humano y entender el papel que juegan en procesos de enfermedades y de desórdenes neurológicos. Cabe aclarar que los autores no especifican en el resumen a cuáles enfermedades se refieren, de modo que la pregunta queda abierta para otros científicos que se interesen en el uso de estos astrocitos de laboratorio.
Fuente: http://www.nature.com/nbt/journal/vaop/ncurrent/full/nbt.1877.html
En el portal de difusión científica Science Daily News se presenta una entrevista con uno de los autores del artículo de investigación que estamos comentando. Allí el Dr. Zhang sí abunda sobre la posibilidad de que en algún futuro cercano se pudieran usar estos cultivos de astrocitos para probar sobre ellos cuál es el efecto que producen nuevos fármacos con los que se espera tratar enfermedades del cerebro.
El Dr. Zhang también dejan abierta la oportunidad de que en un futuro lejano se podrían trasplantar células de este tipo en cerebros lesionados por diversos tipos de trauma, incluyendo problemas en la espina dorsal, mal de Parkinson, la enfermedad de Lou Gehrig, entre otros.
Fuente: http://www.sciencedaily.com/releases/2011/05/110522141543.htm
III. Un nuevo fármaco para tratar la hepatitis C. Este 23 de mayo de 2011 la dependencia del Gobierno de los Estados Unidos responsable de verificar y de aprobar o rechazar nuevos medicamentos, acordó un nuevo fármaco para combatir la Hepatitis C. Su nombre es Incivek.
La dependencia del Gobierno de los Estados Unidos, U. S. Food and Drugs Administration (FDA), que podemos traducir como Administradora de Fármacos y Alimentos de los Estados Unidos, aprobó este lunes 23 de mayo de 2011 un nuevo fármaco para combatir la hepatitis C.
La hepatitis C es una enfermedad infectocontagiosa que afecta al hígado. Es producida por un virus que produce una inflamación de ese órgano e impide su funcionamiento correcto. Al principio la enfermedad se parece a una gripe, se presentan síntomas de cansancio, náuseas, comezón en el cuerpo, fiebre, pérdida de apetito, dolor en la zona en que se encuentra el hígado, diarrea y tos seca. La orina se oscurece y el excremento es de color claro, además de que los ojos y la piel toman un color amarillento.
La enfermedad presenta una fase aguda que dura de 3 a 6 meses, y después de ella, en más del 20% de los casos el organismo logra sobreponerse al virus. La hepatitis C tiene un periodo de evolución muy largo, pues en los siguientes 20 ó 30 años puede aparecer una fase crónica con algunas alteraciones que son reconocidas por los médicos, quienes indican análisis adecuados para ese propósito. En la conducta de la persona suele presentarse cierta baja de ánimo y falta de audacia. Cabe advertir que la percepción de la audacia es un concepto subjetivo en el que el médico puede confiar o desconfiar, dependiendo de su experiencia. Enseguida se presenta una fase de evolución más rápida en la que el hígado toma un aspecto fibroso, desemboca en una enfermedad conocida como cirrosis y en algunos casos, del orden del 5%, en cáncer de hígado.
El nuevo fármaco aprobado, llamado Incivek, fue evaluado en tres fases de pruebas clínicas distintas, usándolo en 2 250 adultos que no habían sido tratados previamente. El tratamiento duró 24 semanas, es decir, 6 meses, y en el 79% de los casos ya no se detectó infección en las pruebas sanguíneas que se llevaron a cabo.
La conclusión alcanzada es que el Inciveck produce resultados mejores que otros tratamientos estándar, algunos de los cuales requieren hasta de 11 meses de duración.
Fuente: http://www.fda.gov/NewsEvents/Newsroom/PressAnnouncements/ucm256299.htm
De acuerdo a un trabajo publicado en el año 2005 por un grupo de investigadores mexicanos, había en el mundo 170 millones de personas con hepatitis C, en tanto que el 0.7% de los mexicanos padecía esta enfermedad. El trabajo fue publicado en el portal de Inbiomed, se intitula “Panorama epidemiológico y situacional de la hepatitis C en México”, los autores son: Lizeth Vera de León, Jesús Alberto Juárez Navarro, Marcelino Díaz Gómez, Jorge Méndez Navarro, Ruby Ann Chirino Sprung, Margarita Dehesa Violante y Leticia Casillas Dávila. La dirección del portal será publicado en el blog de este programa.
Nosotros hicimos un cálculo aritmético para saber cuántas personas estaban enfermas de hepatitis C en México en el año 2005 y planteamos como hipótesis que en esa fecha había 105 millones de mexicanos. Encontramos que el 0.7% son 735 mil mexicanos. Por lo tanto, la disposición inmediata de este fármaco en México, a través de las dependencias públicas de salud, es muy importante.
Los autores mexicanos presentaron además las siguientes conclusiones en su estudio publicado en el año 2005:
1. La principal vía de transmisión en el grupo estudiado fue la transfusional, es decir, mediante transfusiones de sangre contaminada. Sin embargo, después de 1995 disminuyó en forma significativa (4.5%) en relación con la introducción de las pruebas de escrutinio en los bancos de sangre.
2. El tiempo promedio de la transfusión al diagnóstico es similar a lo reportado en la literatura mundial (23 años para hepatitis crónica y 26 años para cirrosis hepática).
3. El uso de drogas clasificadas por ellos como tipo IV tiende a ser una vía de transmisión importante para la infección por virus C en la frontera norte del país.
4. El mayor porcentaje de los pacientes diagnosticados con infección por virus C recibe tratamiento, siendo el más utilizado el tratamiento combinado con interferón pegilado alfa-2a más ribavirina.
5. El 50% de los pacientes con cirrosis hepática enfrentan complicaciones tardías, en especial aquellos que nunca recibieron tratamiento.
http://www.imbiomed.com.mx/1/1/articulos.php?method=showDetail&id_articulo=30149&id_seccion=50&id_ejemplar=3090&id_revista=10
I. El Proyecto de Pronósticos Meteorológicos Tropicales de la Universidad Estatal de Colorado afirma que en el año 2011 habrá más huracanes de lo normal en el Océano Atlántico.
Esta afirmación es hecha por los investigadores de una dependencia que se encuentra dentro del sistema de la Universidad Estatal de Colorado y está dirigida por Philip Kotzbach y por William Gray. Ellos han hecho en abril de 2011 un pronóstico de la cantidad de huracanes que se esperan en el Océano Atlántico durante la temporada del año 2011.
Se trata de un reporte de 44 páginas en cuyo resumen sintetizan que a partir de la información disponible hasta el mes de marzo de 2011 la temporada de huracanes del Océano Atlántico será significativamente más alta que la del promedio de las temporadas de 1950 al año 2000.
El promedio de las temporadas de esos 50 años es de 5.9 huracanes por año. En cambio, ellos afirman que para el año 2011 esperan 9 huracanes. Su trabajo introduce una corrección respecto del pronóstico que habían hecho en diciembre de 2010 porque en esa fecha no estaba claro que existe un proceso de enfriamiento del Océano Atlántico respecto de los años previos, al mismo tiempo que se presenta un periodo de calentamiento relativo del Océano Pacífico, en el cual pronostican que se realizará una transición del fenómeno de La Niña hacia condiciones neutrales.
Dicho de otra forma, en los meses que ya transcurrieron la temperatura del agua en la superficie del mar estuvo predominantemente por debajo de lo usual, ahora está alcanzando los grados centígrados que son considerados como promedio y, probablemente, pasará a temperaturas más altas, con lo cual podríamos tener el fenómeno de El Niño.
Estas condiciones normales son el antecedente en el que es posible el paso a un fenómeno de El Niño. Los autores definen el fenómeno de El Niño como un periodo de 12 a 18 meses en los que la superficie del agua del mar presenta temperaturas más altas que el promedio. En palabras de ellos, eventos moderados o fuertes de El Niño se presentan con un periodo que va de 3 a 7 años en promedio.
Los autores afirman que el fenómeno de La Niña pasó de moderado a fuerte durante el invierno de 2010 a 2011 y se ha empezado a debilitar rápidamente en un intervalo de tiempo de tan solo dos meses.
Philip Kotzbach y William Gray afirman que, de acuerdo a sus datos estadísticos, en el pasado se han presentado más huracanes en el Océano Atlántico cuando en el Océano Pacífico ha ocurrido el cambio del fenómeno de La Niña al fenómeno de El Niño.
Como hemos relatado en otros programas de Vox Populi de la Ciencia, los científicos descubrieron hace menos de 30 años que los cambios en el Océano Pacífico influyen sobre el clima en el Océano Atlántico y también en Europa. Ésta es la base para el trabajo de Kotzbach y Gray.
Fuente: http://hurricane.atmos.colostate.edu/Forecasts
II. Ahora es posible cultivar en el laboratorio los astrocitos, que son las células del cerebro que forman la glía y constituyen más de la mitad de la masa cerebral.
Un grupo de cuatro investigadores que trabajan para la Universidad de Wisconsin en Madison y para el Centro Waisman, además de al menos un investigador de la Universidad de Shanghai, han logrado el cultivo de astrocitos en sus laboratorios. Se trata de un artículo de Robert Krencik, Jason P. Weick, Yan Liu, Zhi-Jian Zhang, Su-Chun Zhang, que se intitula: “Especificación de subtipos de astroglía trasplantable a partir de células madre pluripotentes”, apareció en la edición en línea de la revista científica Nature Biotechnology, a partir del 22 de mayo de 2011.
Los astrocitos son las células que forman la glía, se llaman así porque su forma se asemeja a la de estrellas brillando y forman un tejido que ocupa más de la mitad del cerebro. La glía es el tejido en el que se encuentran inmersas las neuronas, las abastece de la sangre con los nutrientes y el oxígeno necesarios para su trabajo y las protege para que desarrollen su trabajo.
El cerebro no está formado únicamente de neuronas, necesitan de la glía para poder funcionar y es la glía la encargada de todo el trabajo de abastecimiento y protección necesarios. Por esa razón, son participantes directos en lo que hace bien el cerebro y también en lo que hace mal cuando hay alguna enfermedad.
La base para el trabajo científico que estamos relatando son las células madre pluripotentes, que tienen la característica de que pueden desarrollar descendencia que las lleve a producir distintos tejidos.
Una explicación amplia sobre las células madre puede ser encontrada en el blog de Vox Populi de la Ciencia, en el programa emitido el 3 de febrero de 2010. Otros usos de las células madre pueden ser consultados en el programa que emitimos el 1º de septiembre de 2010 y también en el del 21 de noviembre de ese mismo año.
En el resumen de su artículo los autores explican que partieron de células madre de seres humanos, que enseguida pudieron procesar en laboratorio para obtener un tipo de células distintas y en grandes cantidades. Analizaron su contenido genético y lograron establecer la semejanza genética con los astrocitos, de modo que pudieron concluir que las células obtenidas sí podían ser clasificables como astrocitos.
Las células obtenidas fueron trasplantadas en cerebros de ratones para ponerlas en contacto con vasos sanguíneos y encontraron que éstas lograron desarrollarse hasta ser células maduras, formando conexiones con esos vasos sanguíneos. Los autores de la investigación consideran que las células que ellos han cultivado pueden ser aprovechadas para estudiar los astrocitos del cerebro humano y entender el papel que juegan en procesos de enfermedades y de desórdenes neurológicos. Cabe aclarar que los autores no especifican en el resumen a cuáles enfermedades se refieren, de modo que la pregunta queda abierta para otros científicos que se interesen en el uso de estos astrocitos de laboratorio.
Fuente: http://www.nature.com/nbt/journal/vaop/ncurrent/full/nbt.1877.html
En el portal de difusión científica Science Daily News se presenta una entrevista con uno de los autores del artículo de investigación que estamos comentando. Allí el Dr. Zhang sí abunda sobre la posibilidad de que en algún futuro cercano se pudieran usar estos cultivos de astrocitos para probar sobre ellos cuál es el efecto que producen nuevos fármacos con los que se espera tratar enfermedades del cerebro.
El Dr. Zhang también dejan abierta la oportunidad de que en un futuro lejano se podrían trasplantar células de este tipo en cerebros lesionados por diversos tipos de trauma, incluyendo problemas en la espina dorsal, mal de Parkinson, la enfermedad de Lou Gehrig, entre otros.
Fuente: http://www.sciencedaily.com/releases/2011/05/110522141543.htm
III. Un nuevo fármaco para tratar la hepatitis C. Este 23 de mayo de 2011 la dependencia del Gobierno de los Estados Unidos responsable de verificar y de aprobar o rechazar nuevos medicamentos, acordó un nuevo fármaco para combatir la Hepatitis C. Su nombre es Incivek.
La dependencia del Gobierno de los Estados Unidos, U. S. Food and Drugs Administration (FDA), que podemos traducir como Administradora de Fármacos y Alimentos de los Estados Unidos, aprobó este lunes 23 de mayo de 2011 un nuevo fármaco para combatir la hepatitis C.
La hepatitis C es una enfermedad infectocontagiosa que afecta al hígado. Es producida por un virus que produce una inflamación de ese órgano e impide su funcionamiento correcto. Al principio la enfermedad se parece a una gripe, se presentan síntomas de cansancio, náuseas, comezón en el cuerpo, fiebre, pérdida de apetito, dolor en la zona en que se encuentra el hígado, diarrea y tos seca. La orina se oscurece y el excremento es de color claro, además de que los ojos y la piel toman un color amarillento.
La enfermedad presenta una fase aguda que dura de 3 a 6 meses, y después de ella, en más del 20% de los casos el organismo logra sobreponerse al virus. La hepatitis C tiene un periodo de evolución muy largo, pues en los siguientes 20 ó 30 años puede aparecer una fase crónica con algunas alteraciones que son reconocidas por los médicos, quienes indican análisis adecuados para ese propósito. En la conducta de la persona suele presentarse cierta baja de ánimo y falta de audacia. Cabe advertir que la percepción de la audacia es un concepto subjetivo en el que el médico puede confiar o desconfiar, dependiendo de su experiencia. Enseguida se presenta una fase de evolución más rápida en la que el hígado toma un aspecto fibroso, desemboca en una enfermedad conocida como cirrosis y en algunos casos, del orden del 5%, en cáncer de hígado.
El nuevo fármaco aprobado, llamado Incivek, fue evaluado en tres fases de pruebas clínicas distintas, usándolo en 2 250 adultos que no habían sido tratados previamente. El tratamiento duró 24 semanas, es decir, 6 meses, y en el 79% de los casos ya no se detectó infección en las pruebas sanguíneas que se llevaron a cabo.
La conclusión alcanzada es que el Inciveck produce resultados mejores que otros tratamientos estándar, algunos de los cuales requieren hasta de 11 meses de duración.
Fuente: http://www.fda.gov/NewsEvents/Newsroom/PressAnnouncements/ucm256299.htm
De acuerdo a un trabajo publicado en el año 2005 por un grupo de investigadores mexicanos, había en el mundo 170 millones de personas con hepatitis C, en tanto que el 0.7% de los mexicanos padecía esta enfermedad. El trabajo fue publicado en el portal de Inbiomed, se intitula “Panorama epidemiológico y situacional de la hepatitis C en México”, los autores son: Lizeth Vera de León, Jesús Alberto Juárez Navarro, Marcelino Díaz Gómez, Jorge Méndez Navarro, Ruby Ann Chirino Sprung, Margarita Dehesa Violante y Leticia Casillas Dávila. La dirección del portal será publicado en el blog de este programa.
Nosotros hicimos un cálculo aritmético para saber cuántas personas estaban enfermas de hepatitis C en México en el año 2005 y planteamos como hipótesis que en esa fecha había 105 millones de mexicanos. Encontramos que el 0.7% son 735 mil mexicanos. Por lo tanto, la disposición inmediata de este fármaco en México, a través de las dependencias públicas de salud, es muy importante.
Los autores mexicanos presentaron además las siguientes conclusiones en su estudio publicado en el año 2005:
1. La principal vía de transmisión en el grupo estudiado fue la transfusional, es decir, mediante transfusiones de sangre contaminada. Sin embargo, después de 1995 disminuyó en forma significativa (4.5%) en relación con la introducción de las pruebas de escrutinio en los bancos de sangre.
2. El tiempo promedio de la transfusión al diagnóstico es similar a lo reportado en la literatura mundial (23 años para hepatitis crónica y 26 años para cirrosis hepática).
3. El uso de drogas clasificadas por ellos como tipo IV tiende a ser una vía de transmisión importante para la infección por virus C en la frontera norte del país.
4. El mayor porcentaje de los pacientes diagnosticados con infección por virus C recibe tratamiento, siendo el más utilizado el tratamiento combinado con interferón pegilado alfa-2a más ribavirina.
5. El 50% de los pacientes con cirrosis hepática enfrentan complicaciones tardías, en especial aquellos que nunca recibieron tratamiento.
http://www.imbiomed.com.mx/1/1/articulos.php?method=showDetail&id_articulo=30149&id_seccion=50&id_ejemplar=3090&id_revista=10
Actualización sobre el accidente nuclear de Fukushima (Vox Populi de la Ciencia, Radio Bemba)
25 de mayo de 2011
Circulan notas periodísticas con presuntas declaraciones de autoridades japonesas en las cuales reconocen que han estado mintiendo acerca del problema de los reactores de Fukushima.
El portal de difusión científica del diario francés “El Nuevo Observador”, (Le nouvel Observateur) cuya dirección aparecerá en el blog de este programa, informó este 24 de mayo de 2011 varias noticias inquietantes acerca de la situación real de los reactores de Fukushima. Aclaramos que todas sus afirmaciones se basan en notas periodísticas emitidas desde Japón y que aún no se dispone de una declaración oficial de la Comisión Internacional de Energía Atómica. El portal de Internet de esta dependencia mantiene actualización únicamente hasta el 18 de mayo de 2011.
Fuente de la IAEA: http://www.iaea.org/
Según el portal del diario citado, el 13 de mayo la empresa TEPCO habría reconocido que el tanque del reactor número 1 había sido dañado por el combustible que había caído en el fondo y que el agua inyectada se había fugado. Los trabajadores de la empresa constataron que el nivel del agua era más bajo de lo que se creía, habiendo 5 metros sin cubrir en el conjunto de instalaciones donde se aloja el combustible. Refiriéndose al agua, un vocero de la empresa, de nombre Junichi Matsumoto, había declarado que “probablemente existía una fuga muy importante”.
El 24 de mayo de 2011, coincidiendo con la llegada a Japón de los expertos de la Comisión Internacional de Energía Atómica, el operador de la central Fukuhima-Daiichi (Planta Número Uno de Fukushima) admitió que los cuerpos centrales de los reactores 2 y 3 se habían fundido rápidamente después del sismo y del tsunami.
El reactor número 1 se habría fundido unas horas después y el combustible nuclear habría aumentado de temperatura muy rápidamente a causa de que el sistema de enfriamiento estaba detenido. Según TEPCO, el sistema de enfriamiento del reactor número 3 había caído el 13 de marzo aproximadamente a las 2 de la mañana (hora local de Fukushima), y 24 horas más tarde, la mayor parte del combustible se había fundido.
En cuanto al reactor número 2, habría perdido su sistema de enfriamiento el 14 de marzo, tres días después del sismo. El 15 de marzo la mayor parte del combustible se habría fundido y estaría depositado en el fondo del tanque. Eso explicaría la gran cantidad de agua que ha sido necesaria para estabilizar la temperatura.
Según la nota periodística, la batalla contra la contaminación del agua continúa en las instalaciones de la central accidentada, y de acuerdo a mediciones realizadas por los empleados el 20 de mayo pasado, en el edificio de la unidad 1 el nivel del agua alcanzaba los 4 metros con 20 centímetros. Además, el sábado 21 de mayo había llegado a la Planta Número Uno de Fukushima un enorme buque de más de 136 metros de largo por 46 de ancho, con el propósito de almacenar en éste el agua contaminada. Supuestamente, este barco puede captar 10 mil toneladas de agua.
Nuestra conclusión es que si las afirmaciones anteriores son verídicas, entonces las autoridades japonesas estuvieron ocultando la magnitud real del problema, sin reconocer el alcance de los daños. Cabe aclarar que todos nuestros razonamientos han sido sobre la base de que el accidente de Fukushima se encuentra por debajo del grado de peligrosidad y de contaminación generalizada que se presentó en el caso de Chernobyl; sin embargo, será necesario esperar un informe de la Comisión Internacional de Energía Atómica para saber si esta apreciación es correcta.
Fuentes:
http://www.sciencesetavenir.fr/actualite/nature-environnement/20110312.OBS9531/alerte-nucleaire-au-japon-le-fil-des-evenements.html
miércoles, 18 de mayo de 2011
Sismicidad en el Golfo de Baja California (Primera parte) (Vox Populi de la Ciencia, Radio Bemba)
18 de mayo de 2011
En esta ocasión iniciamos una serie en la que trataremos acerca de la sismicidad en el Golfo de Baja California. Aunque el últimos sismo que sentimos algunos de los habitantes de la Ciudad de Hermosillo ocurrió el pasado martes 26 de abril, es hasta ahora que iniciamos esta serie debido a que tardamos en reunir fuentes confiables que nos pudieran explicar qué ocurre en el Golfo de Baja California y por qué allí se generan sismos.
De acuerdo a la página de Internet del Centro de Investigación Científica y de Estudios Superiores de Ensenada (CICESE), un sismo, o temblor, es un movimiento vibratorio que se origina en el interior de la Tierra y se propaga por ella en todas direcciones en forma de ondas.
Los sismos son estudiados mediante una ciencia llamada Sismología, que es la rama de la Geofísica encargada de estudiar el fenómeno de los temblores que ocurren en nuestro planeta. Sus principales objetivos son:
1. el estudio de la propagación de las ondas sísmicas por el interior de la Tierra a fin de conocer su estructura interna,
2. el estudio de las causas que dan origen a los temblores y
3. la prevención de daños.
En un programa previo de Vox Populi de la Ciencia explicamos que la Tierra tiene varias capas y que nosotros vivimos en la litósfera, que es la superficie sólida que conocemos. Esta litósfera es rígida pero está fragmentada y flota sobre la astenósfera, una capa blanda que forma parte de la capa terrestre llamada manto superior. Estos fragmentos se llaman placas tectónicas.
De acuerdo a la página de Internet del CICESE, la causa de un temblor es la liberación súbita de energía dentro del interior de la Tierra por un reacomodo de ésta. Este reacomodo se lleva a cabo mediante el movimiento relativo entre placas tectónicas. Las zonas en donde se lleva a cabo este tipo de movimiento se conocen como fallas geológicas (la falla de San Andrés es un ejemplo) y a los temblores producidos se les conoce como sismos tectónicos.
Existen otras causas que también producen temblores. Ejemplo de ello son los producidos por el ascenso de magma hacia la superficie de la Tierra. Este tipo de sismos, denominados volcánicos, nos pueden servir de aviso de una posible erupción volcánica. Se le llama magma a la roca fundida que se encuentra a temperaturas que van desde los 700 hasta los 1 500 grados centígrados y que está combinada con gases a grandes presiones. Estas rocas son esencialmente silicatos, unos compuestos que contienen los elementos químicos silicio y oxígeno.
El magma que sube hacia la corteza terrestre baja en alguna parte realizando un movimiento que llamamos de convección, pero no tiene una sola célula de circulación, sino muchos remolinos que se van anidando unos adentro de otros. Cada uno de estos remolinos se llama célula de convección. Por ejemplo: la célula de convección más grande hace que el magma suba desde la parte exterior del núcleo terrestre hasta la corteza, llamada litósfera. Dentro de ésta gran célula hay otras en las que hay magma que sube desde la capa de la Tierra llamada manto inferior y después otras células de convección más pequeñas que suben desde el manto superior. Como podemos imaginar, el movimiento que resulta es extremadamente complicado.
Anteriormente la magnitud de un temblor se medía con base en los efectos y daños que éste producía en un lugar determinado, a lo que se conoce como intensidad del sismo. Sobre esta base, la escala de intensidad más utilizada es la de Mercalli modificada, que es útil para zonas en donde no existen instrumentos que registren los movimientos sísmicos. Estos instrumentos se llaman sismógrafos.
Los sismos son movimientos ondulatorios de la tierra y pueden ser verticales u horizontales, es decir, son movimientos que hacen subir y bajar los objetos de la superficie, mientras otros los mueven hacia los lados. Para asignarle una magnitud se toma la amplitud de la onda máxima registrada por un sismógrafo. El concepto de magnitud de un temblor se fundamenta en que la amplitud de las ondas sísmicas es una medida de la energía liberada en el foco u origen del temblor.
La magnitud es un parámetro que propuso Charles F. Richter en 1935 para clasificar los sismos del sur de California, y su uso se ha extendido a otras regiones del mundo. Durante los últimos años, los sismólogos han preferido el uso de una escala sismológica basada en la medición de la energía total que se libera en un temblor. Se llama “escala sismológica de magnitud de momento” y fue introducida por Thomas Hanks y por Hiroo Kanamori en 1979. Cabe aclarar que es un científico que no tiene ninguna relación con el actor ganador de varios premios Óscar.
La razón del nombre de esa escala está en que al estudiar cada sismo se cuantifica el movimiento relativo de la corteza terrestre a lo largo de una falla geológica, el cual se produce como consecuencia de la acción de un par de fuerzas que actúan en sentido opuesto a uno y otro lado de la falla. Es un sistema de fuerzas similar al que nosotros aplicamos a la tapa de una botella cuando queremos abrirla apretándola con dos dedos. Se considera 1) el desplazamiento relativo a lo largo de la falla, 2) el área de ruptura y 3) la rigidez del medio en que el temblor se origina. La magnitud que involucra a estos tres aspectos del fenómeno se llama “momento sísmico” y fue calculado por primera vez por Keiiti Aki en 1966, cuando estudiaba el sismo de Niigata, Japón, de 1964.
No solamente los sismos que alcanzan 7 u 8 grados Richter son destructivos. En el caso del reciente temblor en Lorca, España, la magnitud del movimiento telúrico estuvo por debajo de 5 grados Richter, sin embargo, las aceleraciones de los movimientos fueron muy altas. Además, esa ciudad se encuentra en terreno ligeramente arenoso y blando, como el de Hermosillo, de modo que una oscilación allí es más pronunciada aunque se trate de la misma energía liberada durante el sismo. Éste es un tema que será explicado más adelante en esta serie temática.
¿Por qué tiembla en Baja California?
Según la página de Internet del CICESE, en Baja California tiembla debido a que el proceso de separación de la península respecto del macizo continental está aún activo a lo largo del sistema de fallas conocidas como San Andrés-Golfo de California. Se le llama maciso continental a la corteza sobre la cual se encuentra América del Norte. Se sabe que la península de Baja California es parte de la Placa del Pacífico mientras que el resto del país (México) está ubicado en la Placa de Norteamérica. Diversos estudios han demostrado que el movimiento relativo entre estas dos placas es de aproximadamente 6 centímetros por año, de modo que algún día pasará a ser una isla.
Fuente: http://sismologia.cicese.mx/resnom/principal/FAQ.php
El sismo ocurrido el 26 de abril de 2011, que es el motivo del desarrollo de esta serie en Vox Populi de la Ciencia, tuvo su epicentro en el Golfo de California y se sintió en Sonora, Baja California Sur y Sinaloa, a las 2:10 de la tarde, hora local. Su magnitud fue de 5.6° Richter y se originó a unos 73km al este de Santa Rosalía, Baja California Sur, a 88km al suroeste de Guaymas, Sonora.
A diferencia de las ondas que podemos observar en un estanque cuando lanzamos sobre éste una piedra, la propagación de las ondas de un sismo no es circular. Esto se debe a que debido a los cambios en el grosor y en los materiales de la corteza terrestre, hay reflexiones de las ondas que dan lugar a que se propaguen en ciertas direcciones preferentes. Muestra de lo anterior es que, a pesar de la cercanía con Santa Rosalía, no hubo reportes importantes provenientes de esa ciudad de Baja California, en cambio, en Guaymas y en Hermosillo sí se originaron numerosos reportes.
De acuerdo a una monografía de Eugene Singer, que se encuentra en la página de Internet de la Universidad Estatal de San Diego, la Península de Baja California no existía hace 7 millones de años. El trabajo se llama Geology of California's Imperial Valley, que traducimos como: Geología del Valle Imperial de California y la dirección será publicada en el blog de Vox Populi de la Ciencia.
http://www.sci.sdsu.edu/salton/The%20Gulf%20of%20California.html
Eugene Singer relata en su trabajo que la región situada al norte de Mexicali, conocida como el Valle Imperial, es una hendidura cuya superficie se ubica debajo del nivel del mar, pero que no ha sido cubierta por las aguas del Mar de Cortez, o Golfo de California, gracias a que las tierras lanzadas por el Río Colorado hicieron una represa. A esa región también le llaman Salton Valley, o Valle de Salton.
Dicho de otra forma, si no fuera por la presencia del Río Colorado, el Golfo se extendería hasta el poblado de California que se llama Indio y se encuentra a 138 kilómetros al norte de Mexicali. A la región que separa al Valle de Salton del Golfo de California se le llama el delta del Río Colorado. Todos los ríos caudalosos forman estructuras similares cuando desembocan en el mar y se les llama deltas por su semejanza con la letra griega mayúscula que nombramos como Delta.
Eugene Singer escribe que el Golfo de California es una depresión elongada, es decir, alargada, que tiene en el fondo fallas geológicas casi paralelas, las cuales en su parte más profunda forman una diferencia de más de 3 mil metros con respecto a las montañas de la cordillera que se encuentra a lo largo de la Península de Baja California.
El Golfo de California es poco profundo en la parte norte, con menos de 200 metros desde la superficie del agua hasta el fondo marino. La naturaleza de ese fondo marino es la misma de todo el delta del Río Colorado, como se observa en las playas de San Felipe, a más de 190 kilómetros al sur de Mexicali. Estas tierras se encuentran sobre una base de roca que está a más de 7 mil 600 metros de profundidad, lo cual da una idea de la magnitud de la erosión provocada por el Río Colorado en su cuenca, llevando residuos hasta el Golfo. Se le llama erosión al proceso en el que el agua, o el viento, van raspando la superficie de la tierra, transportando polvo y grano de ésta hacia otros sitios geográficos. Una muestra de los efectos de la erosión es el Gran Cañón del Colorado, que ahora sabemos a dónde fue transportada la tierra y roca que lo formaba.
Si se avanza hacia el sur, el fondo del Golfo de California presenta una pendiente con una inclinación suave, con una profundidad que nunca supera los 800 metros. En cambio, a 50 kilómetros al sur de la Isla del Tiburón se empiezan a presentar quiebres irregulares que muestran un suelo marino muy irregular.
Entre el paralelo de latitud 250 y el paralelo de latitud 260, hay una sección con profundidades superiores a los 2 mil metros. El paralelo 26 va desde la Bahía Salinas –a 200 kilómetros al noroeste de la Ciudad de La Paz– hasta el noroeste de Sinaloa. El paralelo 25 va desde el norte de la Isla San José –a 100 kilómetros al noroeste de la Ciudad de La Paz – hasta ligeramente al norte de Culiacán, que está en 240 50’. En esta región del Golfo de California se localiza una fosa de más de 3 mil 200 metros de profundidad.
A 110 kilómetros al suroeste de Guaymas se encuentra la Isla Tortuga, que es un volcán que se levanta a más de 200 metros sobre la superficie del agua. A partir de esta región del Golfo de California se extiende hacia el sur, por más de 400 kilómetros, un conjunto de fracturas de la corteza terrestre que se llaman fallas geológicas. Están fragmentadas en tres cuencas, cuyos nombres son: la Cuenca de Guaymas, la Cuenca de Carmen y la Cuenca de Farallón.
El sismo que se sintió el 26 de abril pasado en la Ciudad de Hermosillo, a las 2 de la tarde con 10 minutos, se originó a 190 kilómetros de esta ciudad y a 33 kilómetros al este de la Isla Tortuga.
En esta ocasión iniciamos una serie en la que trataremos acerca de la sismicidad en el Golfo de Baja California. Aunque el últimos sismo que sentimos algunos de los habitantes de la Ciudad de Hermosillo ocurrió el pasado martes 26 de abril, es hasta ahora que iniciamos esta serie debido a que tardamos en reunir fuentes confiables que nos pudieran explicar qué ocurre en el Golfo de Baja California y por qué allí se generan sismos.
De acuerdo a la página de Internet del Centro de Investigación Científica y de Estudios Superiores de Ensenada (CICESE), un sismo, o temblor, es un movimiento vibratorio que se origina en el interior de la Tierra y se propaga por ella en todas direcciones en forma de ondas.
Los sismos son estudiados mediante una ciencia llamada Sismología, que es la rama de la Geofísica encargada de estudiar el fenómeno de los temblores que ocurren en nuestro planeta. Sus principales objetivos son:
1. el estudio de la propagación de las ondas sísmicas por el interior de la Tierra a fin de conocer su estructura interna,
2. el estudio de las causas que dan origen a los temblores y
3. la prevención de daños.
En un programa previo de Vox Populi de la Ciencia explicamos que la Tierra tiene varias capas y que nosotros vivimos en la litósfera, que es la superficie sólida que conocemos. Esta litósfera es rígida pero está fragmentada y flota sobre la astenósfera, una capa blanda que forma parte de la capa terrestre llamada manto superior. Estos fragmentos se llaman placas tectónicas.
De acuerdo a la página de Internet del CICESE, la causa de un temblor es la liberación súbita de energía dentro del interior de la Tierra por un reacomodo de ésta. Este reacomodo se lleva a cabo mediante el movimiento relativo entre placas tectónicas. Las zonas en donde se lleva a cabo este tipo de movimiento se conocen como fallas geológicas (la falla de San Andrés es un ejemplo) y a los temblores producidos se les conoce como sismos tectónicos.
Existen otras causas que también producen temblores. Ejemplo de ello son los producidos por el ascenso de magma hacia la superficie de la Tierra. Este tipo de sismos, denominados volcánicos, nos pueden servir de aviso de una posible erupción volcánica. Se le llama magma a la roca fundida que se encuentra a temperaturas que van desde los 700 hasta los 1 500 grados centígrados y que está combinada con gases a grandes presiones. Estas rocas son esencialmente silicatos, unos compuestos que contienen los elementos químicos silicio y oxígeno.
El magma que sube hacia la corteza terrestre baja en alguna parte realizando un movimiento que llamamos de convección, pero no tiene una sola célula de circulación, sino muchos remolinos que se van anidando unos adentro de otros. Cada uno de estos remolinos se llama célula de convección. Por ejemplo: la célula de convección más grande hace que el magma suba desde la parte exterior del núcleo terrestre hasta la corteza, llamada litósfera. Dentro de ésta gran célula hay otras en las que hay magma que sube desde la capa de la Tierra llamada manto inferior y después otras células de convección más pequeñas que suben desde el manto superior. Como podemos imaginar, el movimiento que resulta es extremadamente complicado.
Anteriormente la magnitud de un temblor se medía con base en los efectos y daños que éste producía en un lugar determinado, a lo que se conoce como intensidad del sismo. Sobre esta base, la escala de intensidad más utilizada es la de Mercalli modificada, que es útil para zonas en donde no existen instrumentos que registren los movimientos sísmicos. Estos instrumentos se llaman sismógrafos.
Los sismos son movimientos ondulatorios de la tierra y pueden ser verticales u horizontales, es decir, son movimientos que hacen subir y bajar los objetos de la superficie, mientras otros los mueven hacia los lados. Para asignarle una magnitud se toma la amplitud de la onda máxima registrada por un sismógrafo. El concepto de magnitud de un temblor se fundamenta en que la amplitud de las ondas sísmicas es una medida de la energía liberada en el foco u origen del temblor.
La magnitud es un parámetro que propuso Charles F. Richter en 1935 para clasificar los sismos del sur de California, y su uso se ha extendido a otras regiones del mundo. Durante los últimos años, los sismólogos han preferido el uso de una escala sismológica basada en la medición de la energía total que se libera en un temblor. Se llama “escala sismológica de magnitud de momento” y fue introducida por Thomas Hanks y por Hiroo Kanamori en 1979. Cabe aclarar que es un científico que no tiene ninguna relación con el actor ganador de varios premios Óscar.
La razón del nombre de esa escala está en que al estudiar cada sismo se cuantifica el movimiento relativo de la corteza terrestre a lo largo de una falla geológica, el cual se produce como consecuencia de la acción de un par de fuerzas que actúan en sentido opuesto a uno y otro lado de la falla. Es un sistema de fuerzas similar al que nosotros aplicamos a la tapa de una botella cuando queremos abrirla apretándola con dos dedos. Se considera 1) el desplazamiento relativo a lo largo de la falla, 2) el área de ruptura y 3) la rigidez del medio en que el temblor se origina. La magnitud que involucra a estos tres aspectos del fenómeno se llama “momento sísmico” y fue calculado por primera vez por Keiiti Aki en 1966, cuando estudiaba el sismo de Niigata, Japón, de 1964.
No solamente los sismos que alcanzan 7 u 8 grados Richter son destructivos. En el caso del reciente temblor en Lorca, España, la magnitud del movimiento telúrico estuvo por debajo de 5 grados Richter, sin embargo, las aceleraciones de los movimientos fueron muy altas. Además, esa ciudad se encuentra en terreno ligeramente arenoso y blando, como el de Hermosillo, de modo que una oscilación allí es más pronunciada aunque se trate de la misma energía liberada durante el sismo. Éste es un tema que será explicado más adelante en esta serie temática.
¿Por qué tiembla en Baja California?
Según la página de Internet del CICESE, en Baja California tiembla debido a que el proceso de separación de la península respecto del macizo continental está aún activo a lo largo del sistema de fallas conocidas como San Andrés-Golfo de California. Se le llama maciso continental a la corteza sobre la cual se encuentra América del Norte. Se sabe que la península de Baja California es parte de la Placa del Pacífico mientras que el resto del país (México) está ubicado en la Placa de Norteamérica. Diversos estudios han demostrado que el movimiento relativo entre estas dos placas es de aproximadamente 6 centímetros por año, de modo que algún día pasará a ser una isla.
Fuente: http://sismologia.cicese.mx/resnom/principal/FAQ.php
El sismo ocurrido el 26 de abril de 2011, que es el motivo del desarrollo de esta serie en Vox Populi de la Ciencia, tuvo su epicentro en el Golfo de California y se sintió en Sonora, Baja California Sur y Sinaloa, a las 2:10 de la tarde, hora local. Su magnitud fue de 5.6° Richter y se originó a unos 73km al este de Santa Rosalía, Baja California Sur, a 88km al suroeste de Guaymas, Sonora.
A diferencia de las ondas que podemos observar en un estanque cuando lanzamos sobre éste una piedra, la propagación de las ondas de un sismo no es circular. Esto se debe a que debido a los cambios en el grosor y en los materiales de la corteza terrestre, hay reflexiones de las ondas que dan lugar a que se propaguen en ciertas direcciones preferentes. Muestra de lo anterior es que, a pesar de la cercanía con Santa Rosalía, no hubo reportes importantes provenientes de esa ciudad de Baja California, en cambio, en Guaymas y en Hermosillo sí se originaron numerosos reportes.
De acuerdo a una monografía de Eugene Singer, que se encuentra en la página de Internet de la Universidad Estatal de San Diego, la Península de Baja California no existía hace 7 millones de años. El trabajo se llama Geology of California's Imperial Valley, que traducimos como: Geología del Valle Imperial de California y la dirección será publicada en el blog de Vox Populi de la Ciencia.
http://www.sci.sdsu.edu/salton/The%20Gulf%20of%20California.html
Eugene Singer relata en su trabajo que la región situada al norte de Mexicali, conocida como el Valle Imperial, es una hendidura cuya superficie se ubica debajo del nivel del mar, pero que no ha sido cubierta por las aguas del Mar de Cortez, o Golfo de California, gracias a que las tierras lanzadas por el Río Colorado hicieron una represa. A esa región también le llaman Salton Valley, o Valle de Salton.
Dicho de otra forma, si no fuera por la presencia del Río Colorado, el Golfo se extendería hasta el poblado de California que se llama Indio y se encuentra a 138 kilómetros al norte de Mexicali. A la región que separa al Valle de Salton del Golfo de California se le llama el delta del Río Colorado. Todos los ríos caudalosos forman estructuras similares cuando desembocan en el mar y se les llama deltas por su semejanza con la letra griega mayúscula que nombramos como Delta.
Eugene Singer escribe que el Golfo de California es una depresión elongada, es decir, alargada, que tiene en el fondo fallas geológicas casi paralelas, las cuales en su parte más profunda forman una diferencia de más de 3 mil metros con respecto a las montañas de la cordillera que se encuentra a lo largo de la Península de Baja California.
El Golfo de California es poco profundo en la parte norte, con menos de 200 metros desde la superficie del agua hasta el fondo marino. La naturaleza de ese fondo marino es la misma de todo el delta del Río Colorado, como se observa en las playas de San Felipe, a más de 190 kilómetros al sur de Mexicali. Estas tierras se encuentran sobre una base de roca que está a más de 7 mil 600 metros de profundidad, lo cual da una idea de la magnitud de la erosión provocada por el Río Colorado en su cuenca, llevando residuos hasta el Golfo. Se le llama erosión al proceso en el que el agua, o el viento, van raspando la superficie de la tierra, transportando polvo y grano de ésta hacia otros sitios geográficos. Una muestra de los efectos de la erosión es el Gran Cañón del Colorado, que ahora sabemos a dónde fue transportada la tierra y roca que lo formaba.
Si se avanza hacia el sur, el fondo del Golfo de California presenta una pendiente con una inclinación suave, con una profundidad que nunca supera los 800 metros. En cambio, a 50 kilómetros al sur de la Isla del Tiburón se empiezan a presentar quiebres irregulares que muestran un suelo marino muy irregular.
Entre el paralelo de latitud 250 y el paralelo de latitud 260, hay una sección con profundidades superiores a los 2 mil metros. El paralelo 26 va desde la Bahía Salinas –a 200 kilómetros al noroeste de la Ciudad de La Paz– hasta el noroeste de Sinaloa. El paralelo 25 va desde el norte de la Isla San José –a 100 kilómetros al noroeste de la Ciudad de La Paz – hasta ligeramente al norte de Culiacán, que está en 240 50’. En esta región del Golfo de California se localiza una fosa de más de 3 mil 200 metros de profundidad.
A 110 kilómetros al suroeste de Guaymas se encuentra la Isla Tortuga, que es un volcán que se levanta a más de 200 metros sobre la superficie del agua. A partir de esta región del Golfo de California se extiende hacia el sur, por más de 400 kilómetros, un conjunto de fracturas de la corteza terrestre que se llaman fallas geológicas. Están fragmentadas en tres cuencas, cuyos nombres son: la Cuenca de Guaymas, la Cuenca de Carmen y la Cuenca de Farallón.
El sismo que se sintió el 26 de abril pasado en la Ciudad de Hermosillo, a las 2 de la tarde con 10 minutos, se originó a 190 kilómetros de esta ciudad y a 33 kilómetros al este de la Isla Tortuga.
Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba)
18 de mayo de 2011
I. Investigadores de la Universidad Nacional Autónoma de México afirman que la biotina, una de las vitaminas que forman el Complejo B, podría ser una de las razones que explican la causa de trastornos que llevan a la obesidad.
En opinión del Dr. Antonio Velázquez Arellano, investigador del Departamento de Biología Molecular y Biotecnología, el estudio de la forma en que los genes regulan el metabolismo de las personas es muy importante para la medicina. Se llama metabolismo al conjunto de reacciones bioquímicas que ocurren en las células y en los organismos en general. Por ejemplo, la producción de ciertas proteínas en nuestro cuerpo, conocido como síntesis de proteínas, es una reacción bioquímica.
El Dr. Antonio Velázquez Arellano considera que la comprensión del metabolismo, pero con base en el entendimiento de los mecanismos de control por medio de los genes, unido al conocimiento de la forma en que éste ha evolucionado, podría ser de gran utilidad para comprender algunas enfermedades actuales, como son la diabetes y la obesidad, entre otras.
Velázquez Arellano sigue una estrategia que consiste en realizar estudios comparativos entre diferentes organismos que son tomados como modelos. Entre ellos se encuentran la levadura de cerveza, cuyo nombre científico es Saccharomyces Cerevisiae; el nematodo (o gusano redondo) Caenorhabditis Eleganslevadura S. cerevisiae; el pez cebra, de nombre científico Danio Rerio; la rata parda, o rata de alcantarilla, llamada Rattus Norvegicus. En todos ellos estudian los efectos metabólicos de una vitamina que se llama biotina.
Esta sustancia, llamada biotina, tiene enlaces químicos disponibles para ligarse a otros átomos. Lo podemos imaginar como si llevara consigo unas pinzas microscópicas que le permiten atenazar a átomos que se encuentren cercanos. Como dijimos, se llaman enlaces químicos y los hay de varios tipos. En el caso de las biotinas se llaman enlaces covalentes porque se sirven de uno de sus electrones para atraer al electrón de otro átomo, en un proceso en el que este último electrón no se separa de su átomo, sino que actúa como si fuera un gancho con el que el átomo se amarra a la biotina.
De esta forma, la biotina atrapa carbono del dióxido de carbono (CO2) y de pares de carbonos de otros compuestos, para transferirloa moléculas muy importantes cuando el organismo trata de procesar los carbohidratos, los lípidos (o grasas) y las proteínas.
Los carbohidratos son moléculas compuestas por carbono, hidrógeno y oxígeno. Entre éstas se puede mencionar a la glucosa (C6H12O6), a la fructuosa (con la misma fórmula que la glucosa pero diferente acomodo geométrico de sus átomos) y a la ribosa (C¬5H10O5).
Además, la biotina juega un papel importante en el funcionamiento de cientos de genes que contienen las instrucciones para los procesos químicos que dan lugar a proteínas, y según el Doctor Velázquez Arellano, ellos están tratando de entender esos procesos manejando la hipótesis de que la biotina es un regulador fundamental en ellos.
Para su trabajo han estudiado aproximadamente 150 sustancias diferentes que reciben el nombre de metabolitos, porque juegan un papel en los procesos químicos del metabolismo, y al parecer los resultados apoyan su hipótesis sobre la regulación del metabolismo por la biotina. Cabe aclarar que el trabajo que ha realizado el conjunto de colaboradores de Velázquez Arellano ha sido enviado a publicación, de modo que ahora se encuentra en manos de árbitros de una revista científica.
Este grupo de investigadores afirma que la regulación de la biotina es muy antigua, pues se encuentra presente en especies que vivieron hace aproximadamente 500 millones de años. Consideran también que los cambios en el ADN de las moléculas, que se llaman mutaciones, podrían ser las responsables de enfermedades como la diabetes, la obesidad y las alteraciones en el metabolismo de ácidos grasos.
En entrevista con el Diario La Jornada, el Doctor Velázquez Arellano explicó que cuando falta la biotina, las células no pueden cambiar la energía de la glucosa en la sustancia llamada adenosintrifosfato (ATP). Como ya explicamos en un programa de Vox Populi de la Ciencia en el año 2008, durante el desarrollo de los Juegos Olímpicos en Beijing, esta sustancia (la ATP) acumula la energía para desencadenar un proceso en el que los músculos se contraen cuando se hace ejercicio.
El concepto que los investigadores proponen es que si hay un déficit de energía, de ATP (por distintas razones, en este caso por falta de biotina), esta información se transmite a los genes; el genoma interpreta, de manera equivocada, la falta de energía como carencia de glucosa y se produce la resistencia a la insulina, con lo cual crece la probabilidad de padecer diabetes.
http://www.biomedicas.unam.mx/_administracion/_departamentos/biologia_molecular_y_biotecnologia/antonio_velazquez.html
http://www.jornada.unam.mx/ultimas/2011/05/15/descubrimiento-da-luz-en-torno-al-sindrome-metabolico-unam
II. La extinción de la vida marina hace 85 millones de años podría ser una advertencia de que lo mismo puede ocurrir si continúa acumulándose el efecto invernadero.
La afirmación anterior es planteada por el profesor Martin Kennedy de la Escuela de Ciencias de la Tierra y del Medio Ambiente, de la Universidad de Adelaide, en Australia, junto con el Profesor Thomas Wagner, de Ingeniería Civil y Geociencias de la Universidad de Newcastle, en el Reino Unido. Ellos han estudiado el efecto invernadero en los océanos.
Estos investigadores han participado en equipos de trabajo que han estado perforando el fondo marino en la costa occidental de África, alcanzando capas que corresponden al periodo Cretácico, que ocurrió hace 85 millones de años. Encontraron una cantidad significativa de material orgánico proveniente de la vida marina de aquella época y encontraron que hay zonas con muestras de que ocurrió una muerte muy rápida de las especies que vivían entonces.
Según los investigadores, las muestras extraídas del fondo marino presentan deficiencia de oxígeno y exceso de dióxido de carbono, incremento súbito de la temperatura y agotamiento de nutrientes. Los investigadores logran detectar lo anterior mediante diversas técnicas de análisis químicos que involucran técnicas de cromatografía de gases, espectrómetros de masas, entre otras. Uno a uno, estos procedimientos serán expuestos en próximos programas de Vox Populi de la Ciencia.
Todo lo anterior ha sido interpretado por los investigadores en el sentido de que ocurrió una muerte masiva de especies en un periodo de unos cuantos miles de años. El trabajo de estos investigadores fue publicado el 14 de abril de 2011, en la edición en línea de la revista Proceedings of the National Academy od Sciences, que podemos traducir como Memorias de la Academia Nacional de Ciencias de los Estados Unidos.
Fuente: http://www.sciencedaily.com/releases/2011/05/110517105812.htm
http://www.pnas.org/content/early/2011/05/12/1018670108
III. Una sustancia química relacionada con el humo que flota en la atmósfera podría tener implicaciones para la salud.
Un grupo de diez investigadores de cinco instituciones estadounidenses, encabezados por Patrick R. Veres, han estado estudiando el ácido isociánico en el aire de dos ciudades de los Estados Unidos. Éste ácido es una sustancia que flota en los sitios donde hay humo producto del cigarro, o de la quema de bosques, y puede ser causa de cataratas en los ojos, inflamaciones y enfermedades cardiovasculares.
Los investigadores encontraron la presencia del ácido isociánico (HNCO) en el aire de la ciudad de Los Ángeles, en el de Boulder, Colorado y en laboratorios en los que se quemó cigarrillos. También encontraron que se disuelve fácilmente en agua, con lo cual es posible que se aloje en los tejidos húmedos del cuerpo.
Los investigadores han publicado su trabajo en la edición en línea del 20 de abril de la revista científica Memorias de la Academia Nacional de Ciencias de los Estados Unidos y llaman la atención sobre la necesidad de comprender cuáles son los efectos del ácido isociánico sobre la salud.
Fuente: http://www.sciencedaily.com/releases/2011/05/110516161344.htm
http://www.pnas.org/content/early/2011/05/09/1103352108#aff-1
I. Investigadores de la Universidad Nacional Autónoma de México afirman que la biotina, una de las vitaminas que forman el Complejo B, podría ser una de las razones que explican la causa de trastornos que llevan a la obesidad.
En opinión del Dr. Antonio Velázquez Arellano, investigador del Departamento de Biología Molecular y Biotecnología, el estudio de la forma en que los genes regulan el metabolismo de las personas es muy importante para la medicina. Se llama metabolismo al conjunto de reacciones bioquímicas que ocurren en las células y en los organismos en general. Por ejemplo, la producción de ciertas proteínas en nuestro cuerpo, conocido como síntesis de proteínas, es una reacción bioquímica.
El Dr. Antonio Velázquez Arellano considera que la comprensión del metabolismo, pero con base en el entendimiento de los mecanismos de control por medio de los genes, unido al conocimiento de la forma en que éste ha evolucionado, podría ser de gran utilidad para comprender algunas enfermedades actuales, como son la diabetes y la obesidad, entre otras.
Velázquez Arellano sigue una estrategia que consiste en realizar estudios comparativos entre diferentes organismos que son tomados como modelos. Entre ellos se encuentran la levadura de cerveza, cuyo nombre científico es Saccharomyces Cerevisiae; el nematodo (o gusano redondo) Caenorhabditis Eleganslevadura S. cerevisiae; el pez cebra, de nombre científico Danio Rerio; la rata parda, o rata de alcantarilla, llamada Rattus Norvegicus. En todos ellos estudian los efectos metabólicos de una vitamina que se llama biotina.
Esta sustancia, llamada biotina, tiene enlaces químicos disponibles para ligarse a otros átomos. Lo podemos imaginar como si llevara consigo unas pinzas microscópicas que le permiten atenazar a átomos que se encuentren cercanos. Como dijimos, se llaman enlaces químicos y los hay de varios tipos. En el caso de las biotinas se llaman enlaces covalentes porque se sirven de uno de sus electrones para atraer al electrón de otro átomo, en un proceso en el que este último electrón no se separa de su átomo, sino que actúa como si fuera un gancho con el que el átomo se amarra a la biotina.
De esta forma, la biotina atrapa carbono del dióxido de carbono (CO2) y de pares de carbonos de otros compuestos, para transferirloa moléculas muy importantes cuando el organismo trata de procesar los carbohidratos, los lípidos (o grasas) y las proteínas.
Los carbohidratos son moléculas compuestas por carbono, hidrógeno y oxígeno. Entre éstas se puede mencionar a la glucosa (C6H12O6), a la fructuosa (con la misma fórmula que la glucosa pero diferente acomodo geométrico de sus átomos) y a la ribosa (C¬5H10O5).
Además, la biotina juega un papel importante en el funcionamiento de cientos de genes que contienen las instrucciones para los procesos químicos que dan lugar a proteínas, y según el Doctor Velázquez Arellano, ellos están tratando de entender esos procesos manejando la hipótesis de que la biotina es un regulador fundamental en ellos.
Para su trabajo han estudiado aproximadamente 150 sustancias diferentes que reciben el nombre de metabolitos, porque juegan un papel en los procesos químicos del metabolismo, y al parecer los resultados apoyan su hipótesis sobre la regulación del metabolismo por la biotina. Cabe aclarar que el trabajo que ha realizado el conjunto de colaboradores de Velázquez Arellano ha sido enviado a publicación, de modo que ahora se encuentra en manos de árbitros de una revista científica.
Este grupo de investigadores afirma que la regulación de la biotina es muy antigua, pues se encuentra presente en especies que vivieron hace aproximadamente 500 millones de años. Consideran también que los cambios en el ADN de las moléculas, que se llaman mutaciones, podrían ser las responsables de enfermedades como la diabetes, la obesidad y las alteraciones en el metabolismo de ácidos grasos.
En entrevista con el Diario La Jornada, el Doctor Velázquez Arellano explicó que cuando falta la biotina, las células no pueden cambiar la energía de la glucosa en la sustancia llamada adenosintrifosfato (ATP). Como ya explicamos en un programa de Vox Populi de la Ciencia en el año 2008, durante el desarrollo de los Juegos Olímpicos en Beijing, esta sustancia (la ATP) acumula la energía para desencadenar un proceso en el que los músculos se contraen cuando se hace ejercicio.
El concepto que los investigadores proponen es que si hay un déficit de energía, de ATP (por distintas razones, en este caso por falta de biotina), esta información se transmite a los genes; el genoma interpreta, de manera equivocada, la falta de energía como carencia de glucosa y se produce la resistencia a la insulina, con lo cual crece la probabilidad de padecer diabetes.
http://www.biomedicas.unam.mx/_administracion/_departamentos/biologia_molecular_y_biotecnologia/antonio_velazquez.html
http://www.jornada.unam.mx/ultimas/2011/05/15/descubrimiento-da-luz-en-torno-al-sindrome-metabolico-unam
II. La extinción de la vida marina hace 85 millones de años podría ser una advertencia de que lo mismo puede ocurrir si continúa acumulándose el efecto invernadero.
La afirmación anterior es planteada por el profesor Martin Kennedy de la Escuela de Ciencias de la Tierra y del Medio Ambiente, de la Universidad de Adelaide, en Australia, junto con el Profesor Thomas Wagner, de Ingeniería Civil y Geociencias de la Universidad de Newcastle, en el Reino Unido. Ellos han estudiado el efecto invernadero en los océanos.
Estos investigadores han participado en equipos de trabajo que han estado perforando el fondo marino en la costa occidental de África, alcanzando capas que corresponden al periodo Cretácico, que ocurrió hace 85 millones de años. Encontraron una cantidad significativa de material orgánico proveniente de la vida marina de aquella época y encontraron que hay zonas con muestras de que ocurrió una muerte muy rápida de las especies que vivían entonces.
Según los investigadores, las muestras extraídas del fondo marino presentan deficiencia de oxígeno y exceso de dióxido de carbono, incremento súbito de la temperatura y agotamiento de nutrientes. Los investigadores logran detectar lo anterior mediante diversas técnicas de análisis químicos que involucran técnicas de cromatografía de gases, espectrómetros de masas, entre otras. Uno a uno, estos procedimientos serán expuestos en próximos programas de Vox Populi de la Ciencia.
Todo lo anterior ha sido interpretado por los investigadores en el sentido de que ocurrió una muerte masiva de especies en un periodo de unos cuantos miles de años. El trabajo de estos investigadores fue publicado el 14 de abril de 2011, en la edición en línea de la revista Proceedings of the National Academy od Sciences, que podemos traducir como Memorias de la Academia Nacional de Ciencias de los Estados Unidos.
Fuente: http://www.sciencedaily.com/releases/2011/05/110517105812.htm
http://www.pnas.org/content/early/2011/05/12/1018670108
III. Una sustancia química relacionada con el humo que flota en la atmósfera podría tener implicaciones para la salud.
Un grupo de diez investigadores de cinco instituciones estadounidenses, encabezados por Patrick R. Veres, han estado estudiando el ácido isociánico en el aire de dos ciudades de los Estados Unidos. Éste ácido es una sustancia que flota en los sitios donde hay humo producto del cigarro, o de la quema de bosques, y puede ser causa de cataratas en los ojos, inflamaciones y enfermedades cardiovasculares.
Los investigadores encontraron la presencia del ácido isociánico (HNCO) en el aire de la ciudad de Los Ángeles, en el de Boulder, Colorado y en laboratorios en los que se quemó cigarrillos. También encontraron que se disuelve fácilmente en agua, con lo cual es posible que se aloje en los tejidos húmedos del cuerpo.
Los investigadores han publicado su trabajo en la edición en línea del 20 de abril de la revista científica Memorias de la Academia Nacional de Ciencias de los Estados Unidos y llaman la atención sobre la necesidad de comprender cuáles son los efectos del ácido isociánico sobre la salud.
Fuente: http://www.sciencedaily.com/releases/2011/05/110516161344.htm
http://www.pnas.org/content/early/2011/05/09/1103352108#aff-1
miércoles, 11 de mayo de 2011
Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba)
11 de mayo de 2011
Debido al incremento de la temperatura como consecuencia del calentamiento global, la producción de trigo es ahora 5% menor a la que deberían proporcionarnos los avances tecnológicos.
La revista científica Science tiene en su sistema de portales de información sobre ciencia un conjunto de pequeños programas grabados en idioma Inglés. Estos pequeños programas son conocidos como podcasts. Se trata de cápsulas científicas que se pueden consultar por Internet y están acompañadas por intervalos musicales cortos. Nosotros consultamos uno de ellos acerca del efecto del calentamiento global sobre las cosechas de trigo.
Se trata de una entrevista que hizo Robert Frederick, quien trabaja para la revista Science. En ella conversó con David Lobell, un científico que en compañía de otros colegas suyos estudió el efecto del incremento de la temperatura en el mundo sobre la cosecha de alimentos.
David Lobell explicó que estuvieron analizando los datos desde 1980 hasta el año 2010, prestando atención a las cosechas de trigo, arroz, maíz y frijo soya. Comentó que no hay una conducta uniforme en las distintas regiones del mundo en las que se producen estos granos que pueden ser procesados para obtener alimentos, o también, para otros fines distintos a la alimentación humana.
David Lobell informó que hay grandes diferencias entre los distintos países, como era de esperarse, pero que pueden concluir que el calentamiento global a influido sobre la producción de trigo, misma que en 2010 debería haber estado 5% por encima de la que realmente se obtuvo.
La pregunta que Lobell y colaboradores contestaron fue ¿Cuál habría sido la producción de estos granos si no se hubiera presentado el incremento en la temperatura? Ellos encontraron la afectación que ya mencionamos para el caso del trigo, agregando que una afectación similar ocurre para el caso del maíz, es decir, la producción de este grano también debería haber sido 5% superior. En cambio, en el caso del arroz y del frijol soya no observaron alguna clase de disminución como consecuencia del calentamiento global.
Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba)
11 de mayo de 2011
I. Actualización sobre la radiactividad en Fukushima
Tomando datos de la Comisión Internacional de Energía Atómica para el caso de Fukushima, hacemos una comparación con los índices de radiación que se presentaron en Europa y en Estados Unidos después del accidente de Chernobyl el 26 de abril de 1986.
Como sabemos, el 11 de marzo de 2011 ocurrió frente a las costas de
Japón un sismo de 9 grados en la escala de Richter. Debido a que el
epicentro se localizó en el mar, el movimiento del fondo marino ocasionó un sistema de olas tan grande que fue catalogado como un sunami.
De acuerdo a la información proporcionada por las autoridades japonesas, en la Prefectura de Fukushima, a más de 100 kilómetros al norte de Tokio, la capital de Japón, los reactores nucleares se apagaron automáticamente a consecuencia del poderoso sismo. De acuerdo al diseño de la planta nuclear construida en Fukushima, inmediatamente debieron entrar a funcionar unos generadores eléctricos a base de diesel, para proporcionar la energía eléctrica necesaria para el funcionamiento de las bombas de agua que servirían para evitar que se calentaran los reactores nucleares. Sin embargo, esos generadores se dañaron y el proceso de enfriamiento no ocurrió.
En las horas siguientes al sismo se descontrolaron los reactores nucleares, generando una serie de accidentes en los que una serie de explosiones de hidrógeno combinado con el oxígeno del aire dieron lugar a grietas por las que escaparon sustancias radiactivas.
De acuerdo a la Comisión Internacional de Energía Atómica, en los primeros días de abril, casi 20 días después de ocurrido el sismo, la cantidad de microsieverts por hora en la prefectura de Fukushima corresponden a una dosis de 15.7 mili sieverts anuales, que es un poco más de la mitad de la dosis dispersada sobre Polonia y Alemania después del accidente de Chernobyl en abril de 1986.
En el caso de Fukushima, la radiación no ha llegado tan lejos como en el caso de Chernobyl, pues en la Prefectura de Ibaraki, a 134 kilómetros al sur, la cantidad de microsieverts reportados por la Agencia Internacional de Energía Nuclear equivalen a 1.05 mili sieverts anuales, que es el triple de la recibida en Estados Unidos a partir del accidente de Chernobyl.
El problema principal se encuentra en la bahía localizada frente a Fukushima, pues según los datos de la misma Agencia, a principios de abril de 2011 la radiación proveniente del agua contaminada, esparcida en el Océano Pacífico, era de 1011 Becquerels por cada metro cúbico, de modo que cada 10 metros cúbicos – es decir, 10 tinacos de agua – daban una potencia de radiación similar a la de una fuente de radioisótopos para terapia médica.
Dicho de otra forma, si pensamos en una piscina olímpica de agua contaminada en la bahía enfrente de Fukushima, corresponde a 237.5 fuentes de radioisótopos para terapia médica.
Como adelantamos en un programa previo de Vox Populi de la Ciencia, nuestra preocupación directa no debe ser la radiactividad que surca el aire, pues ésta sí se esparce por todo el planeta pero en cantidades tan pequeñas que es muy difícil de detectar con sensores de buena calidad. Nuestra preocupación debe ser el monitoreo de la pesca de los grandes depredadores marinos.
Uno de ellos es el atún de aleta amarilla, del cual ya hablamos en este programa, pues viaja de las costas de California hasta Japón y regresa en menos de dos años. Este es un trabajo interesante que nuestros estudiantes y científicos podrían emprender.
Soñando que tenemos una hectárea de celdas solares (Vox Populi de la Ciencia, Radio Bemba)
11 de mayo de 2011
Supongamos que estamos soñando despiertos. En este sueño nos regalan un terreno de una hectárea de extensión, es decir, de 100 por 100 metros – esto es una manzana de terreno urbano – en el que colocamos un techo de puras celdas solares. Cada una de 5 por 10 centímetros. ¿Cuántas de ellas caben?
Busco mi calculadora y multiplico 5 por 10.
Encuentro que cada celda solar tiene una superficie plana de 50 centímetros cuadrados.
Comparo la extensión de mi celda solar con la hectárea de terreno que bondadosamente me han regalado y encuentro que caben allí 2 millones de celdas solares.
¿Para qué me sirven?
A partir de los años 90 del siglo XX se pueden fabricar fotoceldas con silicón organizado en cristales muy pequeños, que enseguida son colocados en una superficie de varios centímetros cuadrados de área. Por eso se le llama silicón policristalino.
Una celda solar de de 50 centímetros cuadrados de extensión, fabricada con material policristalino, produce una corriente eléctrica de 2 amperes con un voltaje de medio voltio. Tiene una producción de 2 watts. Como tengo 2 millones de ellas, las puedo organizar para disponer de 4 millones de watts de energía eléctrica. ¿Y qué gano con eso?
Pensemos en una meta modesta: solamente quiero iluminar mi casa, sin gastar en nada más. Ni refrigerador, ni televisión, ni lavadora, etcétera.
Estamos imaginando una casa habitación con 5 focos modernos, llamados de luz fría porque no usan el filamento incandescente de las bombillas eléctricas antiguas. Cada uno de esos focos consume 20 watts; multiplico y resulta que cada una de las casas habitación necesita 100 watts para mantenerla iluminada.
Comparo la cantidad de energía eléctrica generada por mis celdas solares y encuentro que tengo suficiente energía para abastecer a 40 mil casas habitación.
Si se tratara de familias pequeñas, serían cerca de 120 mil habitantes.
En este proceso de soñar despierto me pregunto, ¿cuánto cuestan esas celdas solares? Busco en un anuncio y me entero que si estoy dispuesto a pegarlas en una tabla adecuada, fabricando yo mismo mis paneles solares, me venden cada celda solar a 1.60 dólares estadounidense. ¿Cómo se puede obtener ese dinero?
Con mi calculadora siempre a la mano me encuentro con que cada familia necesita disponer de 80 dólares para adquirir la parte de celdas solares que le corresponden. No es mucho dinero si estoy dispuesto a fabricar mi propio panel solar.
Si pensáramos en el sistema de autoconstrucción, será preferible devolverle al dueño su hectárea de terreno y tratar de convencer a 20 mil parejas que deseen pasarse unos cuantos domingos pegando celdas solares para colocarlas arriba de su casa.
Después necesitarían unas baterías similares a las de los automóviles para almacenar la energía durante el día y utilizarla durante la noche. Pero como de sueños ya es suficiente, mejor hasta allí lo dejamos.
Pongamos ahora una meta más ambiciosa: deseo disponer de una casa donde vivan 5 personas adultas. Con computadoras, televisiones, refrigeración central que uso poco, lavadora, refrigerador y muchas comodidades con la luz proporcionada por los focos.
Estoy pensando en una casa típica de abril en Sonora, donde el recibo de corriente eléctrica de Comisión Federal de Electricidad anuncia que el consumo diario promedio es de 43.25KWh. ¿Puedo sostener todo lo anterior con energía solar en el techo de mi casa?
Vamos a la calculadora de nuevo:
Si dispongo de 100 metros cuadrados en el techo de mi casa, puedo instalar 20 mil celdas solares, con una producción de 40 mil watts.
En 8 horas de exposición a la luz del Sol, esos 40 mil watts se traducen en mil 552 millones de joules, que es la unidad usada en la física para medir la energía.
Antes de comparar con mi gasto promedio cotidiano, necesito convertir a joules los 43.25 KWh diarios que consumo, según dice la Comisión Federal de Electricidad.
Para eso multiplico por mil y después por 3 mil 600, de donde me resultan 155.7 millones de joules diarios.
Esta cantidad es 7 veces menor a la que me proporcionan las celdas solares, pero debido a que la eficiencia de la celda solar disminuye cuando la luz del Sol llega en forma inclinada a su superficie. Es mejor no cantar de gusto y admitir que en realidad los 100 metros cuadrados de celda solares, apenas me alcanzan para mi consumo diario.
¿Cuánto cuestan las celdas solares?
De nuevo la calculadora. Si cada una cuesta 1.60 dólares estadounidenses, al multiplicar por 20 mil resultan 32 mil dólares. A razón de 12.50 pesos mexicanos por dólar estadounidense, son 400 mil pesos. Casi lo mismo que me cuesta una casa.
Si quisiéramos financiar la energía eléctrica de la mitad de los habitantes de Hermosillo, para que instalen paneles solares sobre sus casas con un sistema de auto construcción, hablaríamos de 400 mil habitantes, que en promedio caben en 80 mil casas.
A razón de 400 mil pesos por cada casa, son 3 mil 200 millones de pesos. Es decir, 800 millones de pesos menos que el costo del Plan Sonora Proyecta, promovido por un exgobernador de Sonora.
miércoles, 4 de mayo de 2011
¿Qué ocurrió en Chernobyl?
¿Qué ocurrió en Chernobyl?
(Vox Populi de la Ciencia, Radio Bemba)
4 de mayo de 2011
El 26 de abril de este año se cumplieron 25 años de la explosión en la central nuclear de Chernobyl, por esa razón presentaremos ahora una explicación acerca de cuáles fueron los hechos ocurridos entonces. Tomamos como fuente el artículo que se encuentra en la dirección que aparecerá en el blog de Vox Populi de la Ciencia.
http://www.docstoc.com/docs/6244133/Chernobyl_disaster
Las razones para seleccionar esta fuente son tres:
1. Contiene muchos detalles de lo ocurrido en Chernobyl durante la madrugada del 26 de abril de 1986.
2. Está basado en numerosas citas que un lector podrá consultar si así lo desea.
3. La mayoría de los datos importantes coinciden con los contemplados en el artículo de Bernard Cohen, cuyo título es “El accidente del reactor nuclear en Chernobyl, Unión Soviética”, publicado en la revista American Journal of Physics en diciembre de 1987, diecinueve meses después de iniciada la tragedia.
Esta aclaración es importante porque hay otros artículos que difieren en las horas en que ocurrieron algunos hechos, y también, porque se afirma que el reactor no empezó a ser apagado el día 25 de abril, sino el día 23, cuarenta y ocho horas antes. Este es el caso del artículo de Nicholas Daniloff, cuyo título es: Chernobyl and its political fallout: a reassessment, que traducimos como “Chernobyl y su caída política. Un reanálisis”. http://www.docstoc.com/docs/6244133/Chernobyl_disaster
Ubicación geográfica:
Las ruinas de la estación nuclear de Chernobyl están localizadas en los 51.38722 grados de latitud norte y 30.11139 grados de longitud este, a dos kilómetros de la ciudad de Pripyat, ahora abandonada y convertida en pueblo fantasma. La planta debía su nombre a la ciudad de Chernobyl, localizada a 16 kilómetros al sureste, fundada a la orilla del Río Pripyat, un afluente del Río Dnieper, que atraviesa toda Ucrania, pasa por un lado de su capital, Kiev, y desemboca en el Mar Negro. Para mayor precisión, se encuentra a 10 kilómetros de la frontera con Bielorrusia y a 110 kilómetros al norte de Kiev, una distancia similar a la que separa a Hermosillo de Bahía Kino.
La estación de Chernobyl estaba formada por cuatro reactores nucleares, cada uno de los cuales producía 1 gigawatt de energía, cantidad suficiente para mantener prendidos 10 millones de focos caseros de 100 watts. Cada uno de estos reactores era 40% más poderoso que toda la planta termoeléctrica de Puerto Libertad, en Sonora, y entre los cuatro reactores proporcionaban el 10% de toda la electricidad que necesitaba Ucrania en abril de 1986.
Técnicamente, un gigawatt son mil millones de watts, que son unidades de energía por cada segundo. A esto se le llama también unidades de potencia porque se necesita hacer una diferencia. Por ejemplo, un albatros volando durante un año puede gastar tanta energía como un automóvil de fórmula 1, pero éste lo hace en unos cuantos minutos. Para eso se recurre a las medidas de potencia y la capacidad de los generadores de energía eléctrica se mide en watts.
Los reactores nucleares se construyeron con base en un diseño conocido como RBMK-1000, funcionaba usando grafito como moderador |y habían sido pensados para generar plutonio para las bombas nucleares soviéticas, aunque en abril de 1986 no estaba siendo usado con esos propósitos. En cada uno de esos reactores había mil 700 toneladas de grafito. Este dato será importante en esta explicación más adelante.
Los moderadores de uso industrial han sido, hasta ahora, el grafito, el agua pesada y el agua ligera. Su papel es impedir que los neutrones se escapen del reactor y se dispersen en todas direcciones. Con los moderadores los neutrones se mantienen rebotando sin salir de una región en la que forman un gas de partículas que bota una y otra vez, hasta que en algún momento golpean a un núcleo de uranio 235. Como hemos explicado en otros programas de Vox Populi de la Ciencia, un porcentaje de esos choques llevan a que el átomo se parta en dos y desprenda energía, mientras que en otros casos los neutrones golpean átomos de uranio 238, llevando a un proceso en el que se forma plutonio.
La construcción de la planta de Chernobyl inició hacia finales de los años setenta del siglo XX. Para 1983 se habían terminado los cuatro reactores y estaban siendo construidos otros dos en abril de 1986.
En la madrugada del 26 de abril de 1986 ocurrió en esa planta nuclear un accidente catastrófico. Siendo la 1:23 de la mañana de Chernobyl, ocurrió una explosión debido a la gran cantidad de vapor de agua acumulado en el recinto que alojaba al reactor número 4, minutos después ocurrió una segunda explosión química que voló el techo dejando al descubierto el núcleo del reactor. Dicha reacción se debió a una combinación de hidrógeno liberado dentro del reactor, mezclado con el aire de la atmósfera. Debido a que hay una diferencia de 10 horas entre Chernobyl y Hermosillo, podemos afirmar que en nuestra ciudad eran las tres de la tarde con 23 minutos del 25 de abril de 1986 cuando ocurrió ese desastre.
Cuando el techo del reactor quedó al descubierto se liberaron muchas partículas de cesio 137 y de estroncio 90, elementos atómicos radiactivos cuya peligrosidad ya hemos descrito en programas anteriores. Una cantidad importante de las mil 700 toneladas de grafito pasaron de su estado sólido al gaseoso, generando un gas que ayudó a esparcir las partículas radiactivas a mayores alturas, complicando más la magnitud del accidente. Así, la contaminación pudo llegar más lejos.
¿Cómo ocurrió este accidente?
El reactor número 4 tenía mil 600 canales individuales de combustible, cada uno de los cuales requería de un flujo de 28 toneladas de agua por hora para ser enfriado. Esto significa que se necesitaba el equivalente al agua contenida en 28 tinacos grandes fluyendo cada hora sobre cada uno de estos canales. Es decir, tan solo el reactor accidentado necesitaba el agua de 44 mil 800 tinacos cada hora para mantenerse a una temperatura controlada. Si tomamos como ciertos los datos de Agua de Hermosillo, el reactor nuclear número 4 necesitaba por hora la misma cantidad de agua que usan en un día casi 90 mil casas de nuestra ciudad, es decir, 450 mil habitantes de Hermosillo.
La cercanía del Río Pripyat permitía que nunca faltaran las reservas de agua. El proceso de contaminación a que es sometida el agua al pasar por en medio del reactor, obligaba a mantenerla dentro de un circuito cerrado de enfriamiento para poder usarla de nuevo. Se seguía un sistema similar al que se usa para enfriar los motores de los automóviles, que tienen una bomba que mueve el agua, o el líquido refrigerante, del motor a un radiador y regresarla de nuevo al motor.
La vida útil de las barras de combustible es inferior a tres años, pues con las fisiones que van ocurriendo el uranio 235 se va terminando. Esto da lugar a que se presenten menos fisiones cada segundo, haciendo que se produzca menos desprendimientos de energía. Así, no se logra mantener el nivel esperado de calor y de generación de electricidad. Por lo tanto, necesitaban cambiar las barras de combustible por otras nuevas. Como ya hemos informado antes, había en esas barras decenas de toneladas de plutonio producido por el golpeteo de los neutrones sobre el uranio 238, que daba lugar a uranio 239, enseguida neptunio y días después plutonio. Este es otro dato que será de interés más adelante.
Para retirar las barras de combustible se inició el proceso para apagar el reactor, y a la vez, se puso en práctica un experimento que ya había sido propuesto varias veces en otras centrales nucleares, siendo rechazado en todas ellas por considerarlo extremadamente peligroso.
Los diseñadores tenían desconfianza de que en el momento de apagar el reactor nuclear hubiera una falla de la energía eléctrica externa necesaria para operar las bombas con agua. Se disponía de tres generadores eléctricos a base de diesel, pero requerían 15 segundos para empezar, más 60 a 75 segundos para alcanzar su velocidad máxima y generar 5.5 megawatts de energía, que era la necesaria para bombear el agua y enfriar el reactor.
Este minuto y medio sin refrigerante era considerado inaceptable. Pero debido a que todo objeto que se pone a girar se conserva así durante algunos segundos, se estudió cuánto tiempo durarían girando las turbinas de los reactores después de ocurrir una falla eléctrica. Encontraron que duraban 45 segundos antes de detenerse, lo cual les daría electricidad para la mitad del tiempo que se podrían quedar sin refrigerante en el reactor.
El fenómeno que esperaban aprovechar es similar al que vemos cuando hacemos girar una moneda sobre una mesa. La soltamos girando y se mantiene así durante algunos segundos. En el caso de las turbinas del reactor, eso ocurriría durante 45 segundos, con los cuales esperaban generar la electricidad suficiente para bombear el refrigerante en el reactor.
Como todo lo anterior eran solamente consideraciones teóricas, los diseñadores habían pedido la realización de una prueba antes de que el reactor nuclear entrara en funcionamiento para abastecer al país. La prueba se había intentado sin éxito a principios de 1984, pero el 31 de diciembre de 1983, Viktor Bryukhanov, director del proyecto, había firmado un documento para hacer constar que todos los trabajos programados para ese año habían sido cubiertos.
De no haberlo hecho, miles de trabajadores e ingenieros, así como sus jefes superiores, se habrían quedado sin bonos, recompensas y pagos de horas extras. El documento incluía que la prueba sugerida sí se había hecho.
Sabiendo que tenían una asignatura pendiente, los especialistas aceptaron realizar la prueba – o experimento – cuyo resultado favorable ya había sido reportado al finalizar 1983. Por esa razón se programó la realización del mismo para fines de abril de 1986, en el proceso de apagar el reactor. Como se ve, la actitud era dejar para después lo que se debía hacer hoy.
El 25 de abril por la mañana se presentaron los técnicos, un grupo especial de ingenieros eléctricos, para iniciar el proceso de apagado del reactor e iniciaron con la reducción gradual de la generación de energía hasta dejarla en el 50% de su capacidad total.
El reactor trabajaba con tres turnos, uno de las ocho de la mañana a las cuatro de la tarde, otro de esa hora hasta las doce de la noche, para ser relevados por un tercer grupo que laboraría desde esa hora hasta las ocho de la mañana del 26 de abril.
La mañana del 25 de abril, un controlador de la red eléctrica habló desde Kiev para pedir que no siguieran reduciendo la potencia del reactor 4 debido a que otra subestación había sufrido averías y se necesitaba cubrir la demanda de la ciudad durante un pico de máximo consumo de energía por la tarde. El reactor nuclear 4 fue regresado a su actividad original en 100%.
La autorización para continuar con el procedimiento de apagado, y de realización del experimento, llegó hasta las 11:04 de la noche del 25 de abril de 1986, cuando el grupo especial de ingenieros eléctricos tenía más de doce horas esperando, el turno vespertino se preparaba para salir y el turno de la medianoche hasta la mañana apenas iba a llegar.
De acuerdo al plan original, para esa hora el proceso de apagado ya habría terminado y el turno que iniciaba a la media noche solamente tendría que realizar actividades normales de enfriamiento de un reactor que ya había sido apagado. Este turno de trabajadores no estaba preparado para realizar el experimento.
Una de las pruebas de que el turno de la medianoche no sabía qué hacer, está en una conversación por teléfono que fue grabada en el momento del accidente. Una voz pregunta qué debe hacer porque en la serie de instrucciones hay muchos renglones tachados con una cruz. Su interlocutor lo pensó unos momentos y le contestó: sigue las instrucciones que fueron tachadas.
Los operadores de la planta y el grupo especial de ingenieros eléctricos tenían mucha confianza en el reactor, pues les habían informado que un accidente era imposible, de modo que removieron los sistemas de precaución de los manuales de procedimiento, afrontando así riesgos innecesarios para llevar a cabo el experimento.
El plan consistía en bajar la actividad del reactor de 3 mil 200 megawatts térmicos a un mínimo de 700 o un máximo de mil megawatts térmicos. Debido a que la eficiencia de los reactores nucleares es de 30%, como ya explicamos en un programa previo de Vox Populi de la Ciencia, la generación efectiva de electricidad, es la tercera parte de estas cantidades.
Sin embargo, por alguna razón desconocida, el operador introdujo las barras de absorción de neutrones demasiado rápido, haciendo que la actividad del reactor bajara hasta 30 megawatts, con una generación de electricidad de apenas 10 megawatts. Así el experimento no podía llevarse a cabo.
En este nivel de actividad del reactor se presenta una situación que le llaman envenenamiento con xenón 135, consiste en que la presencia de este elemento en las barras del combustible absorbe una cantidad muy grande de neutrones, haciendo que la reacción en cadena autosostenida se vuelva difícil, o imposible de mantener.
Los especialistas en física e ingeniería nuclear conocen este fenómeno, pero en Chernobyl no había uno solo, de modo que los ingenieros eléctricos y los operadores de la planta desconocían este hecho y pensaron que alguno de los reguladores automáticos de potencia estaba defectuoso.
Para recuperar la potencia del reactor, y realizar el experimento programado, retiraron las barras de absorción de neutrones más allá de lo recomendado. Así, se metieron en un régimen de control manual del reactor, retirando los sistemas automáticos con que había sido diseñado. Lentamente el reactor recuperó parte de su potencia hasta alcanzar más de 200 megawatts térmicos. Lo cual equivale a cerca de 70 megawatts de generación de electricidad.
Entre los sistemas de seguridad que fueron desconectados, debido a que los ingenieros eléctricos tenían mucha confianza en el reactor, y querían realizar el experimento con el mínimo de controles automáticos, están los siguientes:
1. El sistema de enfriamiento de emergencia del reactor fue desconectado.
2. El sistema de control automático local fue desconectado.
3. El sistema de reducción de potencia para situaciones de emergencia también fue desconectado.
• La preparación del reactor para iniciar el experimento empezó a la 1 de la mañana con 22 minutos, cuando se redujo el flujo de agua para enfriar el reactor.
• 30 segundos después, una computadora imprimió una advertencia en la cual señalaba que, dadas las condiciones del reactor, debía ser apagado inmediatamente. El aviso fue ignorado por razones desconocidas.
• El experimento inició a la 1 de la mañana con 23 minutos y 4 segundos del 26 de abril de 1986, cuando los operadores del reactor desconocían la inestabilidad en que se encontraba.
• Cuando fue desconectada la energía eléctrica de las turbinas, éstas se quedaron girando durante varios segundos, como sucede con una moneda que ponemos a girar en una mesa. Sin embargo, aunque sí se inició el funcionamiento de las bombas, justo como se esperaba, el flujo de agua se redujo todavía más, la temperatura aumentó y se formaron burbujas de vapor de agua, disminuyendo la capacidad de enfriamiento.
• Las barras de absorción de neutrones no habían sido removidas por completo y se encontraban colocadas en sitios que impedían el flujo de calor hacia el agua, de modo que la capacidad de enfriamiento tampoco era la esperada con la cantidad de agua disponible.
• Al crecer la potencia del reactor, el envenenamiento por xenón 135 desapareció, de modo que la potencia creció más rápido de lo que esperaban los ingenieros en electricidad, generando más burbujas de vapor y disminuyendo todavía más la capacidad de enfriamiento.
• Así, el reactor entró en un círculo vicioso: más potencia, más burbujas de vapor, menos enfriamiento, por consiguiente, más potencia y así sucesivamente.
• 36 segundos después de iniciado el experimento, cuando era la 1 de la mañana con 23 minutos y 40 segundos, los operadores introdujeron un sistema llamado “Defensa Rápida de Emergencia 5”, que buscaba apagar el reactor insertando rápidamente las barras de absorción de neutrones que antes habían sido retiradas.
• La velocidad de ingreso de las barras era de 40 centímetros por segundo y para recorrer los 7 metros necesarios para su introducción necesitaban casi 18 segundos.
• Además, había un error de diseño en el que el ingreso de las barras desplazaba el agua primero, antes de que su capacidad de absorción de neutrones se manifestara. Así, el efecto del llamado “Defensa Rápida de Emergencia 5”, fue el de disminuir la capacidad de enfriamiento todavía disponible.
• El incremento rápido de vapor aumentó la presión, se rompieron las barras de combustible y también los tubos conductores del agua para refrigerar. En los 3 segundos siguientes el reactor aumentó su potencia a 530 megawatts.
• 7 segundos después de la aplicación del sistema de “Defensa Rápida de Emergencia 5”, el reactor ya trabajaba a 30 mil megawatts. Diez veces por arriba de la potencia para la que había sido diseñado.
• A la 1 de la mañana con 24 minutos, 56 segundos después de iniciado el experimento, cuando habían transcurrido 20 segundos de la introducción del sistema “Defensa Rápida de Emergencia 5”, la presión del vapor de agua terminó en una explosión que rompió todas las conexiones del sistema del reactor. El techo voló y el núcleo quedó al descubierto.
• La temperatura era lo suficientemente alta para que el hidrógeno del agua reaccionara con el circonio que se usa en ciertas partes del reactor. Por esa razón, 3 segundos después, el hidrógeno que se había separado del oxígeno se mezcló con el aire de la atmósfera, generando una segunda explosión que terminó de destrozar el techo del reactor.
• Aproximadamente el 25% de los bloques de grafito salieron despedidos al exterior del núcleo destruido del reactor, cayeron sobre el techo de las demás instalaciones, que habían sido cubiertas con un material inflamable. Así, aparecieron varias decenas de incendios de la planta de Chernobyl.
• Los bomberos de Pripyat llegaron al reactor 4 seis minutos después. Era la 1 de la mañana con 30 minutos y había al menos treinta incendios sobre los techos de las instalaciones, con el consecuente peligro para los otros tres reactores.
El trabajo de los bomberos se desarrolló en un ambiente radiactivo de enorme riesgo. La exposición típica de un ser humano a la radiación natural que proviene del espacio, o que sale del suelo, es de 23 millonésimas de roentgens por hora, lo que da 200 milésimas de roentgens al año. Los bomberos de Chernobyl recibieron una dosis de radiación 8.7 millones de veces superior a la normal, pues en el momento en que hacían su trabajo, la radiactividad en el aire llegó a los 5.6 röngents por segundo, de modo que cada trabajador presente en el área acumuló una dosis letal en tan solo 100 segundos. Aún así, los bomberos lograron controlar los fuegos más peligrosos a las 3 de la mañana con 54 minutos.
En la planta había un medidor de radiactividad (dosímetro) que medía hasta 1 röngent por segundo pero quedó fuera del acceso del personal debido a la explosión. Otro dosímetro falló cuando trataron de prenderlo. El resto de ellos marcaban hasta una milésima de röngent, de modo que no sirvieron para detectar los niveles reales de radiactividad.
Los técnicos creyeron durante varias horas que el reactor estaba intacto porque no detectaban radiactividad. Los bomberos apagaron el fuego a las 5 de la mañana, pero no sabían cuál era la dosis de radiación que habían recibido. Los que subieron primero al techo del reactor ya no regresaron y los reportes afirman que murieron 31 de ellos.
Se intentó bombear agua sobre el reactor nuclear número 4 pero fue inútil y a partir del 28 de abril hasta el 2 de mayo se lanzaron 5 mil toneladas de boro sobre éste. El boro es un excelente absorbedor de neutrones. También fue vertido un mineral llamado dolomita, que es carbonato de calcio y magnesio. Lanzaron arena y también plomo desde helicópteros.
Los pilotos de los helicópteros tuvieron que volar en medio de la nube de materiales radiactivos que subían desde las ruinas del reactor, pero para el 6 de mayo las descargas de radiactividad habían sido controladas. El resto ha sido relatado en otro programa de Vox Populi de la Ciencia.
Suscribirse a:
Entradas (Atom)