domingo, 21 de marzo de 2010

Perspectivas y Riesgos del Gas de Hidrógeno Contaminado con Oxígeno (Vox Populi de la Ciencia, 17 de marzo de 2010)

El miércoles 3 de marzo de 2010, el programa de Radio Bemba: Palabra en Movimiento, entrevistó al Señor David Contreras, quien presentó diversos métodos para aprovechar fuentes de energía de manera menos agresiva con la naturaleza.

Uno de esos métodos consiste en desarrollar electrólisis con agua aprovechando la electricidad procedente de la batería del automóvil, meter el gas de Hidrógeno mediante una manguera al carburador para que sea quemado junto con la gasolina en la cámara de combustión del motor del auto.

En general, se le llama electrólisis al proceso que consiste en separar un compuesto en los elementos que lo forman mediante un procedimiento que consiste en aplicarle una corriente eléctrica. Para poderlo hacerlo, es necesario que el compuesto que será separado se encuentre en estado líquido.

Este gas de Hidrógeno está ligeramente contaminado con un porcentaje relativamente pequeño de moléculas de Oxígeno que también logran salir mezcladas con las de Hidrógeno, debido a que siguiendo la ley de velocidades de Maxwell, siempre hay una cantidad de moléculas de un gas que se mueven mucho más rápido que la velocidad promedio de ellas. Suele llamársele gas Brown, porque así lo bautizo Yull Brown, un técnico en electricidad originario de Bulgaria que emigró a Australia, donde conoció el procedimiento de electrólisis y se dedicó a popularizarlo como un descubrimiento propio después de 1977. En realidad, existe una patente de William A. Rhodes, del 26 de julio de 1966, con número 3,262,872, en la que se describe el proceso de generación de estos gases. Se titula “Aparato para la producción electrolítica de Hidrógeno y Oxígeno y para el uso y consumo seguros”.

Lo que haremos ahora es explicar las bases físicas y químicas de ese proceso, mencionar algunas de las críticas al mismo, evaluar brevemente la situación para dar un punto de vista, y por último, explicar cómo algunos investigadores del Instituto Tecnológico de Massachusetts han dado una orientación ligeramente distinta al aprovechamiento del gas que resulta de la electrólisis del agua.

Bases físicas y químicas
Las reacciones químicas pueden clasificarse en endotérmicas y exotérmicas. Las primeras de ellas absorben energía del medio ambiente, mientras que las segundas desprenden energía hacia el medio ambiente.

La variable física que se usa para clasificar estas reacciones se llama entalpía y es útil porque nos dice la cantidad de calor transferido cuando se trata de procesos físicos que ocurren a presión constante. En las reacciones químicas es de mucha utilidad porque éstas ocurren a presión atmosférica, que no cambia apreciablemente durante el tiempo que dura una reacción química.

La entalpía se mide en Joules, igual que la energía, y se utiliza la convención de que la entalpía es negativa cuando la reacción química desprende energía (reacciones químicas exotérmicas). En cambio, la entalpía es positiva si las reacciones químicas absorben energía (endotérmicas).

Para descomponer agua (H2O) en sus dos componentes: Hidrógeno y Oxígeno, se puede colocar agua en un recipiente que tiene dos placas metálicas separadas y conectadas a una fuente de corriente eléctrica continua, por ejemplo una batería de automóvil. Al hacer pasar la corriente a través del agua, ésta recibe energía (entalpía positiva) y forma burbujas de gas de Hidrógeno y de gas de Oxígeno.

Como el gas de Hidrógeno es más liviano que el oxígeno y que el aire de la atmósfera, la colocación de un tubo de salida hacia arriba hace que el hidrógeno suba contra la gravedad y viaje a través de una manguera. En cambio, el Oxígeno es más pesado y puede salir casi todo a través de un tubo lateral y colocado hacia abajo.




El procedimiento de electrólisis consume mucha energía, pues para descomponer 18 gramos de agua se necesita una corriente de 60 amperes durante 26.6 segundos (casi medio minuto). Con eso se dispone de 22.4 litros de Hidrógeno y 11.2 litros de Oxígeno a presión atmosférica.

Para darnos una idea de la magnitud de esos 60 amperes, podemos mencionar que un aparato de refrigeración central capaz de mantenernos confortables en verano en una casa de tres recámaras gasta aproximadamente 30 amperes de corriente (la mitad). Si se guardan por separado el oxígeno y el hidrógeno para combinarlos de nuevo, la energía invertida en separar el hidrógeno del oxígeno podrá recuperarse después parcialmente, pues siempre hay pérdidas porque se escapa calor al medio ambiente. Como veremos en un ejemplo después, esa energía es lo suficientemente grande como para mover a más de 70 kilómetros por hora un automóvil suru de una tonelada de peso.

El Hidrógeno es el primer elemento de la tabla periódica y tiene un protón en el núcleo más un electrón en su periferia. En la tabla periódica se le coloca en la columna izquierda, arriba de los metales, pero no presenta la característica de ceder fácilmente su electrón, como sí lo hacen los metales. El Hidrógeno puede ser metal a presiones extremadamente altas, por eso se piensa que alrededor del núcleo rocoso de Júpiter existe una capa de Hidrógeno metálico. Para nosotros, lo más importante es que se trata de un gas que al reaccionar con el Oxígeno produce una reacción química exotérmica, con una entalpía de -571.7 kiloJoules por cada dos moles de Hidrógeno, que pueden aprovecharse para la combustión interna en motores. Ese es el tema del que nos habló David Contreras, en el programa Palabra en Movimiento, el 3 de marzo de 2010.

Pero antes de continuar cabe una pregunta ¿cuánto son dos moles de hidrógeno? Podemos decir que estos caben en una caja cúbica de 37 centímetros por arista, a la presión atmosférica, a una temperatura de 27 grados centígrados. Su masa es precisamente 2 gramos.

¿Cuánta energía es 572 kiloJoules?
Supongamos un automóvil tsuru cuya masa son aproximadamente 1 000 kilogramos, que se mueve a una velocidad de 72 kilómetros por hora. Estos son 20 metros por segundo. Si aplicamos la fórmula de la energía cinética, encontraremos que en su movimiento lleva una energía de 200 kiloJoules, que es apenas el 35% de la energía proporcionada por un mol de gas de Hidrógeno. La conclusión es que aún considerando las pérdidas de energía que se desprende como calor hacia el medio ambiente, efectivamente, es posible pensar en motores de automóvil que funcionen a base de Hidrógeno.



¿Entonces por qué no usamos Hidrógeno en lugar de gasolina?
Aparte de los intereses económicos de las empresas fabricantes de gasolinas, la obtención del Hidrógeno es cara hasta ahora. Por ejemplo, obtenerlo de la electrólisis del agua es impráctico porque en las pérdidas naturales en los procesos de reacción se pierden porciones importantes en forma de calor. En cambio, si se trata de aprovechar la energía de la batería, que se usa muy poco cuando los autos están en movimiento, se dispone de una fuente extra en la que ya invertimos dinero para generar una energía que va almacenada sin usarse. Éste es un tema que necesita un análisis cuidadoso mediante mediciones especializadas para obtener conclusiones precisas.

Cabe agregar que su manejo casero puede constituir un peligro, pues según el libro “Química la Ciencia Central”, de Theodore Brown, Eugen LeMay, Bruce Bursten y Julia Burdge, pag. 166, la explosión del transbordador espacial Challenger, en febrero de 1986, así como la del dirigible Hindenburg en mayo de 1937, se debieron a la combustión del gas de Hidrógeno.





Hay otras posibilidades para obtener gas de Hidrógeno y almacenarlo. Haciendo hidrólisis a partir de metano (CH4), de metanol (CH3OH), de etanol (CH3CH2OH), o de Nafta, también conocida como éter de petróleo y que en realidad es una combinación de vario hidrocarburos que aparecen en la destilación de petróleo crudo.

El Hidrógeno tiene la ventaja de que es fácilmente transportable a través de tuberías y puede ser de uso directo en quemadores o motores para producir calor mediante una combustión limpia porque genera vapor de agua. También puede ser fácilmente almacenable como gas a altas presiones, como líquido a temperaturas muy bajas: -253 grados Celsius. Además, hay desarrollos modernos para almacenarlo en estructuras sólidas hechas de nanotubos de carbono.



El gas de Hidrógeno como almacén de energía

En particular, el boletín del 31 de julio de 2008 de la oficina de noticias del Instituto Tecnológico de Massachusetts, a cargo de Anne Trafton, afirma que investigadores de esa institución han hecho un descubrimiento muy importante: utilizar energía solar para producir electricidad, usarla para producir electrólisis y almacenar esa energía como gas de Hidrógeno. La idea del investigador Daniel Nocera es descomponer agua para producir gases de Oxígeno y de Hidrógeno y recombinarlos después, cuando la luz del sol ya no está presente. De hecho, Daniel Nocera ha fundado su propia empresa de investigación y desarrollo para encontrar aplicaciones a pequeña escala, pero muy numerosas. Su empresa se llama Sun Calytix y tiene financiamiento de un organismo llamado Polaris Venture.





Al parecer, la idea de Daniel Nocera es diseñar productos pequeños para un mercado de consumidores numéricamente muy considerable, de manera similar al desarrollo de estufas, refrigeradores, etcétera. En el Internet hay instructivos y organizaciones que promueven el uso del gas de Hidrógeno y se afirma también que existen empresas chinas que venden aparatos generadores de Hidrógeno. Como puede verse, el gas de Hidrógeno es una tecnología que tiene futuro y las investigaciones están avanzando en otros países, pero no en el nuestro.

Actualidad Número 1 Vox Populi de la Ciencia, 17 de marzo de 2010

Científicos de la Universidad de California en Santa Bárbara descubren que los orígenes de la visión en los humanos se remontan a hace 600 millones de años.

Hay un animal que mide unos cuantos milímetros de tamaño y que es similar a las medusas, se llama hydra, y sus ancestros están siendo estudiados porque aportan información acerca de los orígenes de los mecanismos de la visión en los animales modernos.



David Pachetzki, Caitlin Fong y Todd H. Oakley, de la Universidad de California en Santa Bárbara, han publicado recientemente un artículo en la revista científica británica: Proceedings of the Royal Society B, en el cual encuentran que el estudio de un miembro muy antiguo de animales que evolucionaron para dar lugar a la hydra actual, proporciona información sobre el origen de la forma de visión del ser humano actual. Esos animales se llaman phylum cnidaria y aparecieron hace 600 millones de años.

La clave para comprender que efectivamente esos son los orígenes de la forma de visión humana está en el estudio de los genes que intervienen en el desarrollo de la visión en el hombre, uno de los cuales fue encontrado en la phylum cnidaria, pariente de la hydra. Este gene se llama opsin.




El gene de nombre opsin actúa como el controlador de los canales celulares de intercambio de iones que intervienen al iniciarse el impulso neuronal que transmite la información de la visión hacia el cerebro.

La forma de visión humana no es la única existente, pues hay otras, por ejemplo, la visión de los insectos apareció después de la que usan la hydra y los animales vertebrados.






Todd H. Oakley explica que el trabajo demuestra que la evolución no es solamente una escalera progresiva hacia arriba en la que el ser humano se ubica como la parte superior del desarrollo evolutivo. Él comenta que en realidad todos los organismos vivos somos una mezcla de de características nuevas con otras más viejas.

Conviene agregar, también, que Caitling R. Fong es una estudiante de licenciatura que se encuentra participando activamente en proyectos de investigación.

Fuente: http://www.sciencedaily.com/releases/2010/03/100311151724.htm

Actualidades científicas (Vox Populi de la Ciencia, Radio Bemba) 17 de marzo de 2010

I. El sismo del 27 de febrero de 2010 en Chile no causará un sismo en México, afirma al periódico La Jornada el geólogo mexicano Víctor Hugo Espíndola Castro.
Espíndola Castro explicó al diario La Jornada que las ondas del sismo de Chile si llegaron a México, pero tardaron 11 minutos en llegar, y de manera tan débil que apenas fueron detectadas mediante instrumentos especializados.

Explicó también que las ondas se van debilitando cuando se propagan. Nosotros agregamos que esto se debe a que se va transformando la energía de vibración del sismo en otra forma de calor desorganizada, que se conoce comúnmente con el nombre de calor.

Espíndola Castro explicó que las placas donde se originó el sismo de Chile son independientes de las que se encuentran en las cercanía de nuestro país. Son las placas de Sudamérica y la de Nazca, que como explicamos en el programa anterior, la placa de Nazca se extiende desde el sur de las costas de Chile hasta el ecuador terrestre y termina aproximadamente a 2 000 kilómetros al sur de la Bahía de Acapulco. Donde termina la placa de Nazca se encuentra una fractura en la cual la profundidad del suelo marino pasa de un promedio de 3 200 metros bajo el nivel del mar, a cerca de 4 500 metros debajo de la superficie del agua. Todo esto sucede en un recorrido de menos de 20 kilómetros, avanzando de norte a sur, lo cual podemos imaginar como un accidente geográfico similar en la profundidad y anchura al Gran Cañón del Colorado. Allí inicia la placa de Cocos, que se extiende hasta las costas mexicanas del Océano Pacífico y hacia el este hasta las costas de Panamá.




De lo anterior se desprende que debemos preocuparnos de nuestra propias fuentes de sismos, que son la interacción de la placa de Cocos con la de América del Norte. Como informa Espíndola Castro “Estadísticamente, se sabe que dependiendo de la región y cierto periodo de tiempo, se puede esperar que haya un sismo, como en el caso de México, porque se estima que en la llamada Brecha de Guerrero pueda ocurrir uno, pero no se sabe cuando.”

La Brecha de Guerrero es una enorme fractura que corre paralela a la costa de ese Estado y que es de tal magnitud que si pudiéramos caminar sobre el fondo marino, desde la costa de Guerrero hacia el sur, pasaríamos del nivel del mar a una profundidad de más de 5 000 metros, en apenas 57 kilómetros de avance hacia el sur.
Fuente: http://ciencias.jornada.com.mx/ciencias/noticias/no-habra-un-sismo-en-mexico-como-consecuencia-del-de-chile/

II. Balas de oro contra los tumores cancerosos.
Las nanociencias permiten construir partículas que miden apenas unas diezmillonésimas de metro. Por ejemplo, si consideramos una nanopartícula que mida 200 nanométros de diámetro, y la comparamos con uno de los glóbulo rojos más pequeños, que mide 6 micras de diámetro, resulta que el glóbulo rojo es del orden de 30 veces más grande.

Un equipo de investigadores de la Universidad Washington, de San Luis, formado por los doctores Younan Xia, James M. McKelvey, Michael J. Welch, Jingyi Chen y Charles Glaus, lograron construir unas nanocajas de oro que inyectaron en animales con tumores. Observaron que las nanocajas se acumularon preferentemente entre los tumores y después les dirigieron rayos laser que las nanocajas transformaron en calor, quemando a las células cancerosas hasta destruirlas.



Los científicos pueden construir las nanocajas del tamaño que deseen, pero como su tamaño influye en el tipo de luz que absorben para convertirla en calor, han seleccionado cajas que reciben luz cuya longitud de onda es de 750 a 900 nanómetros, porque se encuentra en la zona del infrarrojo lejano y el tejido de los mamíferos es transparente a esa radiación. Eso significa que pasa por el tejido sin ser absorbida hasta que llega al tumor que ha acumulado las nanocajas que lo calientan hasta quemarlo.


Fuente: http://www.sciencedaily.com/releases/2010/03/100312164701.htm

miércoles, 10 de marzo de 2010

El estudio de los rayos cósmicos permite estudiar los cambios climáticos en el pasado. Un conocimiento para comprender el futuro del clima

(Vox Populi de la Ciencia, Radio Bemba)
10 de marzo de 2010


¿Qué son los rayos cósmicos?

Los rayos cósmicos son partículas de energía muy alta que vienen del espacio exterior e impactan sobre la atmósfera de la Tierra. La mayoría de ellos tienen menos de 109 electronvolts de energía y una cantidad muy reducida de ellos puede alcanzar 1021 electronvolts. Para darnos una idea de la magnitud de estas energías podemos informar que el electrón ligado a un protón para formar un átomo de Hidrógeno puede ser extraído con una energía de 13.6 electronvolts y que los 109 electronvolts de los rayos cósmicos más débiles son 73.5 millones de veces más energéticos.



Debido a las energías tan altas de estas partículas, son un riesgo permanente para la salud, pues son capaces de dañar a las células porque al impactar contra una de ellas le transfieren parte de su energía al interaccionar con los electrones y las moléculas que forman a la célula. A consecuencia de este choque, una gran cantidad de moléculas se rompen, y cuando se trata de ADN, pueden surgir consecuencias posteriores para el futuro de la célula, pues allí se encuentra almacenada su información genética, lo cual tiene que ver con el funcionamiento correcto de ese tipo de célula, pudiendo afectar al tejido u órgano al que pertenece.



Los rayos cósmicos pueden afectar a los dispositivos electrónicos, produciendo errores en la información almacenada a razón de un error al mes por cada 256 megabytes, según datos de la empresa IBM. Estos errores también pueden provocar funcionamiento incorrecto en los dispositivos electrónicos de los aparatos, como es el caso de los sistemas de orientación y control de vuelos de los aviones.

Por ejemplo, según el Departamento de Seguridad de Transporte Australiano (Australian Transport Safety Bureau), los rayos cósmicos podrían haber sido la causa del incidente ocurrido en un avión Airbus A330 de la empresa Qantas que volaba sobre el occidente de Australia el 8 de octubre de 2009 a más de 11 200 metros de altura y que súbitamente descendió en picada en una caída de 200 metros. Una vez que los pilotos corrigieron la situación, inmediatamente después volvieron a caer en picada, esta vez en un descenso de 120 metros.

Cuarenta días después, el 18 de noviembre de 2009, los especialistas concluyeron que todos los circuitos y computadoras funcionaban correctamente, de modo que el error podría haberse debido a la acción de los rayos cósmicos.
Fuentes: http://www.heraldsun.com.au/news/safety-investigation-gives-no-clues-on-why-a-qantas-jet-plunged-more-than-300-feet-while-flying-over-wa-last-year/story-e6frf7jo-1225799212474
http://www.news.com.au/travel/news/cosmic-rays-may-have-hit-qantas-plane-off-australias-northwest-coast/story-e6frfq80-1225799520771

La utilidad de los rayos cósmicos en la datación (asignación de fechas históricas y prehistóricas)
Los rayos cósmicos se han venido utilizando en los últimos años para estudiar sucesos prehistóricos, pero además, la precisión ha alcanzado a reducirse hasta conseguir errores dentro de un rango de diez años, lo cual permite afirmar que habrá aplicaciones en las que será posible estudiar también hechos históricos en los que se requiere mejor calidad en los datos.

La idea central es que cuando los rayos cósmicos golpean el sílice y el oxígeno del cuarzo contenido en algunas rocas, se producen isótopos de Berilio 10 y de Aluminio 26, en cantidades que pueden ser contadas mediante una técnica que se llama espectroscopía de masas. En ésta se procede a convertir en vapor el material que se desea analizar para lanzarlo hacia una región en la cual hay campos eléctricos y magnéticos, logrando que se desvíen más los materiales más livianos y consiguiendo así su separación para conocer las cantidades por diversos medios cuya calidad y precisión viene creciendo.

El sílicio, el berilio y el aluminio, son elementos químicos. En el caso del silicio, tiene en el núcleo 14 protones y en su periferia 14 electrones. Pero además, es muy frecuente que tenga en el núcleo 14 neutrones, con lo cual se forma el silicio 28. A su vez, el berilio tiene 4 protones y 4 electrones, pero además, con mucha frecuencia tienen también 5 neutrones en el núcleo, para formar el berilio 9. Una clase de berilio menos frecuente es el que tiene 6 neutrones en el núcleo, con lo cual se forma el berilio 10, que tiene la misma conducta química que el berilio 9 y recibe el nombre de isótopo.


Hablando del aluminio, se trata de un elemento químico con 13 protones y 13 electrones. De manera muy frecuente tiene también 14 neutrones en el núcleo y forman el aluminio 27, pero en ocasiones hay átomos de aluminio que tienen solamente 13 neutrones, formando el aluminio 26. Por ser químicamente iguales, se llaman isótopos porque su diferencia está en el núcleo.

En particular, el caso de los glaciares ha sido estudiado para entender qué es lo que ha ocurrido en el pasado con ellos, pues debajo de ellos existen grandes cantidades de roca sedimentada que no recibe los rayos cósmicos.

A consecuencia de la rotación de la tierra, y de los procesos naturales de erosión, los ríos del hemisferio norte tienden a escarbar tierra en el lado derecho de la dirección de avance de sus aguas, a la vez que depositan tierra en su lado izquierdo. Así su cause se mueve y forma trayectorias sinuosas que llamamos meandros (como si fuera movimiento de culebras). Algo similar sucede con los glaciares, que se van moviendo conforme pasan miles o millones de años. Pudiendo, además, secarse como consecuencia de los cambios en el clima.





Cuando los glaciares desaparecen, o cambian de trayecto, las rocas quedan al descubierto en formaciones de grandes cerros que reciben el nombre de morrenas. Estos materiales empiezan a recibir rayos cósmicos y a producir isótopos de Berilio 10 y de Aluminio 26, pero obviamente en concentraciones distintas a las de las rocas de otros sitios cercanos que no forman parte de los residuos del glaciar. Comparando con el promedio de estos isótopos en rocas de la región, se han podido hacer tablas que permiten estimar cuánto tiempo hace que salieron a la superficie.



Por ejemplo, en la Universidad de Columbia, el Grupo de Datación Cosmogénica de Lamont (LDEO Lamont Cosmogenic Dating Group) estudia fechas en las morrenas formadas por la acción de los glaciares en Nueva Zelanda, Chile, Argentina, la Antártida, Groenlandia, el oeste de los Estados Unidos, en una región en el estado de Nueva York y en Italia.
Fuente: http://www.ldeo.columbia.edu/res/pi/tcn/Lamont_Cosmogenic_Nuclide_Lab

El ocaso de la civilización maya.

Dentro del enfoque de la religión cristiana se hizo una estimación del año del nacimiento de cristo pero como la numeración de la época era la romana, que no contemplaba el número cero, se le asignó el año 1 y a partir de allí se empezó a contar los años para agregar después la frase: después de cristo. Con la generalización del calendario de los europeos para todo el mundo, la frase disgustó a las poblaciones que profesan otras religiones, de modo que se optó por usar la frase: nuestra era en lugar de decir: después de cristo. En lo sucesivo diremos nuestra era a lo que en México se sigue identificando como después de cristo.

De interés para nosotros como mexicanos es una de las explicaciones que nos dice por qué desapareció la cultura de los mayas, una civilización que existió desde el año 2 000 antes de nuestra era, hasta el año 250 de esta era, en el periodo llamado preclásico.



Después se desarrolló entre el año 250 al 830 de nuestra era en el periodo llamado clásico. Seguido del periodo clásico terminal del 830 al 930 de nuestra era, para terminar con el periodo postclásico del 930 al 1500 de nuestra era, años en que llegan los españoles a la península de Yucatán.




Los estudios realizados en los glaciares permiten obtener conclusiones que van más allá de los sitios geográficos en los cuales se encontraban, o se encuentran. Por ejemplo en el libro: Crónicas del Hielo: La búsqueda para Entender el Cambio Climático Global, de Paul Andrew Mayewski y Frank White, publicado en el año 2002, se afirma que la conducta de los glaciares en Groenlandia evidencia la existencia de tremendas sequías en el hemisferio norte durante la época en la que colapsó la civilización maya.





En el mismo sentido, estudiando los contenidos de oxígeno 18 y de oxígeno 16, en el Lago Chichancanab, en Yucatán, ha sido posible concluir que hubo allí grandes sequías entre el año 600 y el 800 de nuestra era, lo cual corresponde al fin del periodo clásico.

También hubo una gran sequía en el año 862, que se encuentra dentro de los inicios del periodo clásico terminal y otras sequías más entre los años 986 y 1 051 de nuestra era, lo cual se clasifica como el fin de la civilización maya.



Los mayas tenían una producción literaria muy rica, en la cual se relataban diversos aspectos de sus rituales, creencias religiosas e historias. Estaban escritas en libros que usaban la escritura maya, dibujada en un papel que hacían con la corteza de ciertos árboles y cal. En el libro de Alan Sandstrom y Pamela Effrein Sandstrom, intitulado “Fabricación Tradicional de Papel y Figuras de Papel de Culto en México” (Traditional Papermaking and Paper Cult Figures of Mexico), consideran que la textura, la plasticidad y la durabilidad del papel de los mayas lo hacía superior en calidad al papiro de los egipcios. Así, ellos hicieron sus libros, que llamaron códices.




No debemos olvidar que la inmensa mayoría de esa información maya se perdió cuando Fray Diego de Landa ordenó que fueran quemados todos los códices de esta civilización debido a que eran “cosas del demonio”.

Actualidades Científicas (Vox Populi de la Ciencia, 10 de marzo de 2010)

I. El terremoto de febrero de Chile movió de su lugar a varias ciudades de América Latina.

El terremoto de 8.8 grados en la escala de Richter, ocurrido en Chile el pasado 27 de febrero de 2010, ocurrió cuando la placa tectónica de nombre Nazca se movió hacia abajo de la placa tectónica de América del Sur. A este movimiento se le llama subducción.

Si consultamos un mapa de placas tectónicas, encontraremos que la placa de Nazca se localiza enfrente de las costas del Océano Pacífico, frente a Chile, Perú, Ecuador y Colombia. Además, se extiende hacia el oeste varios miles de kilómetros hasta encontrarse con la llamada placa del Pacífico, que ocupa casi todo el fondo de ese océano.
Ver: http://www.funvisis.gob.ve/imagenes/fotos_varias/placas_tectonicas_.jpg

Las mediciones hechas mediante técnicas de Geodesia Espacial muestran que la ciudad de Concepción, cercana al epicentro del terremoto, se encuentra ahora a 3 metros hacia el oeste, respecto de la posición que tenía antes del terremoto.

En este punto conviene explicar dos palabras: una es el hipocentro, que es el lugar donde se origina el terremoto a una profundidad que puede ser de varios kilómetros; otro es el epicentro, que es el punto de la superficie de la tierra que se encuentra justo sobre el hipocentro. Si fuera técnicamente interesante se podría perforar un pozo vertical en el epicentro y penetrar a varios kilómetros de profundidad, rumbo al hipocentro.



Incluso, ciudades muy lejanas de Chile, como las Islas Malvinas, en Argentina, y Fortaleza, en Brasil, se encuentran desplazadas respecto de la posición que tenían antes del terremoto.

Buenos Aires, la capital de Argentina se movió cerca de 2.5 centímetros hacia el oeste. Y Santiago de Chile, la capital de ese país, se movió casi 28 centímetros hacia el oeste-sureste.
Fuente: http://www.sciencedaily.com/releases/2010/03/100308132043.htm

II. La vida podría haber empezado con la ayuda de pequeñas moléculas que actuaron como médicos parteros para dar lugar a la formación de largas cadenas que después serían las proteínas y el ADN.

Científicos de la Escuela de Química y Bioquímica del Instituto de Tecnología de Georgia, en los Estados Unidos, han encontrado que una molécula llamada etidium puede ayudar a la formación de largos polímeros, e inclusive, puede seleccionar la estructura de los pares de bases que mantienen juntas a las dos cadenas del ADN.



Las bases nitrogenadas son compuestos orgánicos con los átomos formados en ciclos, e incluyen dos o más átomos de nitrógeno. Son parte importante del ácido ribonucléico (ARN) y del ácido desóxidorribonucléico (ADN). En particular, las importantes para el código genético son: la adenina, la guanina, la timina y la citosina. En cambio, en el ARN no aparece la timina, sino otra base que se llama uracilo.



Como hemos explicado en otras ocasiones, se les llama monómeros a la unión de pocos átomos que son capaces de unirse a otros para formar cadenas de átomos muy largos. De esas cadenas surgen los polímeros que son complejos de millares de átomos. Pueden ser sintéticos, o pueden estar ligados a los fenómenos que ocurren en los seres vivos, siendo estos últimos los fundamentales para nuestro tema.

El problema en los laboratorios siempre había sido que en la formación de estas largas cadenas lo más frecuente es que cuando alcanzan determinado tamaño reaccionan con otros elementos para cortarse en pedazos, con lo cual dejan de seguir creciendo. Así, la posibilidad de comprender cómo surgió la vida, que se basa en largas cadenas, seguía sin ser completamente entendido.

La aportación que venimos comentando consiste en que han encontrado que hay pequeñas moléculas que actúan como promotoras del crecimiento y formación de esas largas cadenas de átomos que aparecen en los tejidos de los seres vivos. Estas moléculas parteras son llamadas también intercaladores por la acción que llevan a cabo; en palabras de Nicholas V. Hud, uno de los investigadores entrevistados: “si tu tienes un intercalador presente, puedes conseguir polímeros. Pero si no hay intercaladores, no hay trabajo, así de simple.”

La fórmula desarrollada del Ethidium es:



Nicholas Hud y su equipo de científicos han comprobado qué tanta influencia producen las moléculas parteras en la creación del ADN, con sus pares de bases A (amina) con T (tiamina) y bases G (guanina) con C (citosina). Encontraron que éstas podrían determinar la estructura de apareamiento de las bases.

Además del Ethidium, hay otra molécula partera conocida, la aza3, que ayuda a la formación de pares de adenina con adenina. Sin embargo, los científicos se cuidan de no afirmar que el etidium pudo ser la molécula que originó la formación de las primeras cadenas de moléculas que dieron lugar a la vida. Solamente afirman que con esta clase de moléculas, podrían haber surgido los primeros polímeros genéticos.
Fuente: http://www.sciencedaily.com/releases/2010/03/100308151043.htm

martes, 9 de marzo de 2010

Física del patinaje artístico (Vox Populi de la Ciencia, Radio Bemba)

3 de marzo de 2010

En esta ocasión hablaremos de la física del patinaje artístico en atención a que el domingo 28 de febrero reciente fueron clausurados los Juegos Olímpicos de Invierno, en Vancouver, Canadá. De todos los deportes contemplados en esos juegos olímpicos, el patinaje artístico es probablemente el más bello, pero además, la cantidad de ciencia involucrada allí es considerable.

El patinaje artístico es conocido en inglés como “figure skating” y nació hacia 1778 en Inglaterra. En la actualidad puede tratarse de una competencia entre individuos, o entre parejas. De todas las opciones, nosotros pondremos atención al caso de competidores individuales, pues en ellos hay más análisis científico realizado.

Nuestras explicaciones técnicas estarán basadas en dos trabajos de investigación:
Uno desarrollado por D. King, A. Arnold y S. Smith, para el Comité Olímpico de los Estados Unidos. Se llama: “Una comparación biomecánica de los saltos simple, doble y triple Axel”. La palabra: axel es un nombre que explicaremos más adelante. A este trabajo nos referiremos en lo sucesivo como el trabajo de los estadounidenses.
Otro es desarrollado por Karin Knoll y Falk Hildebrand, del Instituto de Ciencias Aplicadas al Entrenamiento, de Leipzig, Alemania. Se titula “Momento angular en saltos con rotaciones sobre el eje longitudinal en figuras de patinaje – análisis tridimensional y simulación por computadora”. En lo sucesivo lo mencionaremos como el trabajo de los alemanes.

¿Qué es el patinaje artístico?

En el patinaje artístico individual se enfrentan personas en ramas femenil y varonil respectivamente. Existe un reglamento de la Unión Internacional de Patinaje en el que se impone un programa corto y uno largo, presentados en días distintos, para la ejecución de determinados movimientos que tienen nombre y puntuación asignada. De todos los movimientos contemplados en el deporte del patinaje artístico individual pondremos atención en los saltos simple, doble y triple axel. Este nombre aparece en los años 1930 y se refiere a un salto en el patinaje artístico de la parte frontal externa de un patín con uno y medio giros del cuerpo en el aire y un regreso al hielo con la parte trasera externa del otro patín.



Los giros de un patinador se realizan en torno a un eje que corre a lo largo de su cuerpo, a diferencia de los gimnastas que hacen ejercicios en el piso, quienes pueden girar en torno a otros ejes también.



El patín que se usa en el patinaje artístico consta de una cuchilla debajo de la suela del botín en el que se introduce el pie, pero difiere ligeramente del que se utiliza en el hockey sobre hielo. La diferencia está en que en la punta delantera tiene unos dientes similares a los de una sierra, que sirven para que el deportista controle mejor sus desplazamientos.

El conteo para asignar puntuación a los competidores en el programa corto considera y califica: la habilidad en el patinaje, la calidad de la ejecución de los movimientos (conocido como performance), la calidad de la interpretación artística y lo apropiado de los movimientos a la danza que se desarrolla. Todo dentro de un conjunto de ejercicios que son obligatorios.



En el programa libre se consideran los mismos elementos, más la calidad de las transiciones, o ligas, de un elemento artístico a otro, la calidad de la coreografía y el ritmo con que se realiza la interpretación artística. Como se trata de apreciaciones subjetivas, en las que cada juez aplica su criterio personal, se cuenta con nueve jueces que califican y un sistema de cómputo que selecciona siete al azar para tomar en cuenta sus calificaciones. El sistema elimina la más alta y la más baja, considerando las cinco restantes para asignar su puntuación al competidor.

La física necesaria.

Todo cuerpo en rotación es descrito mediante magnitudes físicas:
La velocidad angular (o velocidad de giro), que puede ser medida en revoluciones (o número de vueltas) por segundo.
El momento de inercia del objeto, que toma en cuenta qué tan cerca o lejos están del eje de giro las masas que forman al cuerpo. Por ejemplo, dos masas de un kilogramo cada una, girando a las mismas revoluciones por segundo ambas, pero una más alejada del eje de giro que la otra, se distinguen en que la más alejada tiene más momento de inercia.



Otro concepto necesario es la torca, pues la fuerza resulta insuficiente para describir rotaciones. La torca resulta de multiplicar la fuerza por la distancia que hay entre el punto en el que se aplica y el centro de giro. La necesidad de la torca es algo que podemos percibir al tratar de abrir una puerta empujando en donde se encuentra el picaporte e intentando lo mismo pero empujando cerca de las bisagras. Notamos que es más fácil mover la puerta si empujamos cerca del picaporte, de allí que la distancia necesita ser incluida.

Por último, el momento angular, que une el momento de inercia con la velocidad angular (o de giro) para incorporarlos en la descripción del movimiento. Lo interesante es que cuando no hay torca un cuerpo girando en el vacío conserva su momento angular, y como en el hielo y en el aire hay muy poca fricción, ocurre lo mismo. Este efecto es aprovechado por los patinadores para iniciar un giro con los brazos abiertos y las piernas separadas, logrando giros más rápidos o más lentos conforme acercan o alejan partes de su cuerpo del eje de giro.



Todos los cuerpos giran alrededor de un punto que se llama centro de masa, por ejemplo, una gimnasta que realiza ejercicios en el piso puede dar varias vueltas en el aire, haciendo que su cabeza, sus brazos y sus piernas, giren en torno a un punto que se encuentra cerca de su abdomen. El centro de masa no necesariamente está dentro del cuerpo, pues sabemos que los saltadores de altura y de garrocha hacen un arco con su cuerpo, de modo que girando sobre la barra que intentan superar, consiguen pasar sobre ella aunque su centro de masa pase por debajo de la barra.

La física de los saltos sencillo, doble y triple axels.

Cada salto dura cuando mucho 6 décimas de segundo, de modo que para hacer un estudio científico es necesario realizar videograbaciones. Por esa razón, el grupo de científicos estadounidenses filmó cinco patinadores de élite con un sistema de tres cámaras de video. Utilizaron un software similar al que vemos que se usa en los campeonatos importantes de tenis para saber dónde tocó el suelo una pelota cuando hay reclamación de un jugador o una duda del juez principal. Consiste en que la computadora calcula tres números que dicen sobre cuál punto de la cancha y a cuál altura se encuentra la pelota en cada instante de tiempo. Esos tres números se llaman coordenadas.

De la misma forma, los investigadores pudieron conocer las coordenadas de cada parte del cuerpo del patinador que ejecutaba sus giros en el aire. Atendieron las velocidades a lo largo de la superficie del hielo, que podemos llamar velocidades de desplazamiento horizontal, las velocidades al separarse y acercarse al hielo, que son velocidades verticales y también las velocidades de rotación.

Así encontraron que la altura que toman cuando saltan es casi la misma en los tres tipos de saltos.
Las velocidades de desplazamiento horizontal en el instante del despegue son mayores en los saltos simples, un promedio de 5.3 metros/segundo.
Esas velocidades de desplazamiento horizontal fueron menores en el instante del despegue al ejecutar los saltos triples, un promedio de 3.6 metros/segundo.
En cambio, las velocidades angulares siguieron la conducta inversa, 4.9 revoluciones/segundo para los saltos triples, 4.3 revoluciones/segundo para saltos dobles y 2.9 revoluciones/segundo para los saltos simples.
Los científicos estadounidenses encontraron que los patinadores inician el salto con una gran rotación en el hielo para apretar su cuerpo enseguida y disminuir así su momento de inercia y como el momento angular se conserva, la velocidad angular se incrementa.

El trabajo de los estadounidenses afirma que los músculos aductores de quienes practican el patinaje artístico deben ser muy fuertes para imprimir esas velocidades de giro y también para frenar al tocar el hielo al finalizar el salto. Quienes deseen saber cuáles son esos músculos pueden sentarse en una silla y apretar entre las rodillas un balón de basketbol con poco aire y tratar de apretarlo varias veces. Al día siguiente se sentirá adolorido de los músculos aductores, que se encuentran en la parte interior de cada muslo.

El estudio de los alemanes se basó en métodos similares al de los estadounidenses, pero agregó simulaciones en computadora. El sistema utilizado se llama Peak5 motion measurement system, o sea, sistema de medición de movimientos Peak5, y fue revisado y certificado en 1998 por la División de Fisioterapia de la Escuela de Estudios sobre Salud de la Universidad de Bradford, en el Reino Unido. http://www.ncbi.nlm.nih.gov/pubmed/9807745
Las conclusiones del estudio de los alemanes son las siguientes:
1.El eje natural del cuerpo del patinador no necesariamente coincide con la dirección del momento angular, y mientras más grande sea el ángulo entre ellos, más lenta será la rotación, con lo cual la realización de un salto triple será más difícil.
2.Los saltos tienen mayor estabilidad si en el momento del despegue el eje del cuerpo del patinador presenta una inclinación pequeña contando a partir de la vertical y hacia la dirección en la cual se está desplazando horizontalmente.



Ambos estudios reconocen que al tocar el hielo de nuevo, la inclinación del deportista debe ser tal que el frenado brusco no de lugar a un giro que lleve su cabeza y sus hombros hacia el suelo. Además, como hemos podido observar, el deportista abre su cuerpo para aumentar el momento de inercia y disminuir su velocidad angular, lo que le permite seguir patinando y mantener la gracia que los jueces le piden.

Ambos estudios afirmaron que sus conclusiones podrían servir para que los entrenadores de los deportistas mejoraran su enseñanza.

Nuestra conclusión es que las partes técnicas del patinaje artístico están fuertemente orientadas por los estudios de física similares a los que hemos mencionado.

Obviamente, los sentimientos que logran expresar estos deportistas pertenecen por entero al ámbito del arte, a la sensibilidad de los atletas y de sus maestros, afortunadamente para todos.

Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba)

3 de marzo de 2010

I. El terremoto ocurrido en Chile el pasado 27 de febrero, que fue de 8.8 grados en la escala de Richter, podría haber movido el eje de rotación de la tierra y acortado la duración del día.

Richard Gross, un científico que trabaja para el Laboratorio de Propulsión a Chorro de la NASA (JPL por su nombre en Inglés) realizó unos cálculos en computadora para encontrar cómo podría haber resultado afectado el eje de la tierra y la duración del día después del terremoto ocurrido en Chile el pasado sábado 27 de febrero.

Considerando al polo norte y al polo sur como puntos, el eje de la tierra es una línea imaginaria que atraviesa nuestro planeta desde un punto colocado aproximadamente a 10 metros del polo norte, hasta otro punto cerca del polo sur.

Gross encontró que puede haberse recorrido 8 centímetros respecto de su posición anterior, mientras que el día podría haberse acortado en 1.26 millonésimas de segundo. En comparación, el terremoto de Sumatra, que generó el tsunami que mató a más de 20 000 personas en diciembre de 2004, cuya magnitud fue de 9.1 grados en la escala de Richter, pudo mover el eje de la tierra en siete centímetros (un centímetro menos que el de Chile). En cambio, el terremoto de Sumatra logró acortar la duración del día en 6.8 millonésimas de segundo, más de cinco veces que el efecto del terremoto de Chile.




Gross explica que la razón por la cual el terremoto de Chile puede mover más el eje de la tierra, a pesar de que liberó menos energía, se debe a que el terremoto de Sumatra ocurrió muy cerca del Ecuador, lo cual hace que su efecto sobre el eje de rotación sea menor. En cambio el reciente terremoto de Chile está ubicado al sur, muy lejos de la línea del Ecuador, de modo que todos los grandes terremotos surgidos en la falla geológica de Chile tienen más efectos sobre el eje de la Tierra y menos sobre el acortamiento (o alargamiento) de la duración del día.




Estas modificaciones en el eje de la tierra se deben a los reacomodos de masa que ocurren cuando se presentan estos sismos, mientras que el acortamiento del día está relacionado con una propiedad de los cuerpos en rotación, que llamamos momento de inercia y que explicaremos y usaremos más adelante para hablar de los giros que realizan los especialistas del patinaje artístico.
Fuente: http://www.nasa.gov/topics/earth/features/earth-20100301.html




II. Científicos de la Agencia Espacial de la India calculan que los cráteres localizados en el polo norte de la Luna podrían tener 600 millones de toneladas métricas de agua en forma de hielo.


La Agencia Espacial de la India tiene una misión dedicada a estudiar la Luna y en la actualidad hay una nave no tripulada de ese país que ha dado más de 3 000 vueltas a la Luna tomando fotografías y otros datos mediante diversos sensores. La nave se llama Chandrayaan-1 y es la primera de una serie de dos para la exploración de la Luna. La segunda de esas naves se llamará Chandrayaan-2 y se espera que baje a la superficie con un carrito que podrá moverse sobre la superficie lunar.



La nave Chandrayaan-1 lleva once instrumentos distintos y ya ha enviado muchos datos a la Tierra, que están siendo analizados por los científicos del proyecto. En especial, han estudiado un sistema de más de 40 cráteres que contienen agua hecha hielo. Esos cráteres miden de 2 a 15 kilómetros de diámetro.




Los datos obtenidos les permiten a los científicos concluir que hay aproximadamente 600 millones de toneladas métricas de agua en esos cráteres. Si consideramos que la presa de El Novillo puede almacenar hasta 2 874 millones de metros cúbicos y tomando en cuenta que las 600 millones de toneladas métricas son precisamente 600 millones de metros cúbicos, resulta que se trata de un poco más del 20% de la capacidad de almacenamiento de la presa de El Novillo.



En el caso de la luna no sabemos de dónde procede esa agua, pues no hay ríos ni fenómenos meteorológicos similares a los de la tierra. Se trata de una fuente de agua no renovable.
Fuente: http://www.chandrayaan-i.com/index.php

III. Análisis del ADN de un fósil de oso blanco (o ursus maritimus) lleva a concluir que descienden de una línea evolutiva que se separó de los ahora conocidos como osos pardos (o ursus arctos).

Un artículo publicado en la revista científica llamada Proceedings of the National Academy of Sciences, escrito por investigadores de la Universidad Estatal de Penn y de la Universidad de Oslo, reporta que el oso polar es una rama reciente que se separó genéticamente del oso pardo hace aproximadamente 150 000 años, en una época conocida como el pleistoceno tardío.





Los investigadores explican que encontrar fósiles de oso polar es extremadamente difícil porque cuando mueren van al fondo del océano, para quedar sepultados en regiones en las que no es posible realizar excavaciones. El trabajo de estos científicos se inicia a partir de que en el año 2004 fue encontrado una quijada de oso polar que data de hace 110 000 a 130 000 años. Una vez encontrada fue trasladada para su estudio al Museo de Historia Natural de la Universidad de Oslo. El análisis del ADN fue comparado con el de osos polares modernos, lo cual confirmó que se trata de un ancestro de ellos. Fue posible aislar genoma mitocondrial del fósil, que es el que cambia menos en el transcurso del tiempo y permite hacer estudios de mayor antigüedad.



Como explicamos en el año de 2009, en el tema: “El Pasado nos Aguarda”, el ADN puede estar disponible en los núcleos de las células y también en las mitocondrias, que son los vestigios de un ser unicelular que fue absorbido por seres unicelulares en las etapas iniciales de la vida.

Los investigadores afirman que el genoma de los osos polares es cercano al de los osos pardos, de donde se concluye que la rama de los osos polares se separó de la que antecede al oso pardo actual. Ellos concluyen que eso sucedió hace aproximadamente 150 000 años.

¿Por qué se dice que el oso polar se separó de la línea de desarrollo de los osos pardos y no al revés? Porque en estos últimos hay muchas subespecies, lo cual indica la riqueza de sus líneas evolutivas, mientras que en el oso polar no se reconoce realmente ninguna.
Fuente: http://www.sciencedaily.com/releases/2010/03/100301141848.htm