sábado, 28 de diciembre de 2013

La puesta del Sol el 21 de diciembre de 2013 (solsticio de invierno)





Las dos fotos con que inicio esta contribución fueron tomadas el 21 de diciembre de 2013, a 10 kilómetros al sur de Phoenix, desde una carretera que cruza la reservación india que se localiza al oriente de la sierra de la Estrella.

Esta posición de ocultamiento del Sol es lo más al sur que se puede observar desde ese sitio porque se trata del solsticio de invierno, a 7 horas de terminado el otoño.

Entre la carretera que se observa en las fotos y la sierra del fondo pasa el Río Gila.

La posición geográfica son los 33 grados con 13 minutos de latitud norte y 111 grados con 13 minutos de longitud oeste. La hora civil de Arizona eran las 17 horas con 16 minutos.

Al mismo tiempo, a 123 kilómetros al norte de Mazatlán, por la autopista de cuota que comunica a esta ciudad con Culiacán Sinaloa, el Sol se ocultaba a las 17 hora con 26 minutos.

Esta última posición geográfica es a 24 grados con 6 minutos de latitud norte y 106 grados con 50 minutos de longitud oeste.

Explicaremos ahora cómo es este conteo:

La longitud y la latitud para situar puntos sobre la Tierra



En el conteo establecido por los ingleses se empiezan a contar los grados de longitud oeste a partir del meridiano de Greenwich hasta llegar a 180 cerca de la mitad del Océano Pacífico. Así mismo, se cuentan hacia el oriente otros 180 grados, pero son llamados de longitud este.

Además, respecto al ecuador se cuentan 90 grados hacia el norte (latitud norte) y 90 grados hacia el sur (latitud sur).

Explicación basada en las diferencias de hora de ocultamiento del Sol basados en la latitud

Regresando al tema del ocultamiento del Sol, salvo la precisión de nuestros relojes personales, ¿a qué se deben los 11 minutos de diferencia entre ambas observaciones?

Si la latitud a la cual se realizaron las dos observaciones fuera la misma, la diferencia entre ambas debería ser de solamente 4 minutos, lo cual nos hubiera obligado a sincronizar los relojes con mayor precisión. Esto se puede entender porque por cada grado de longitud, hay una diferencia de 4 minutos.

Explicaremos este punto con mayor cuidado: la Tierra está dividida en 24 usos horarios, que son dibujados en los mapas como regiones separadas por los meridianos. A cada uso horario le toca una hora de diferencia.

A cada uso horario le corresponden 15 grados de longitud, de modo que si la diferencia en el número de grados entre Phoenix y el sitio mencionado al norte de Mazatlán es de menos de cuatro grados y medio. Si la latitud en las dos observaciones hubiera sido la misma, la diferencia de ocultamiento del Sol debió haber sido únicamente de un poco más de 4 minutos.

Vamos a poner otro ejemplo, pero éste tiene que ver con la diferencia de horario entre la Ciudad de México y Hermosillo. Si no fuera por el sistema de usos horarios y acuerdos comerciales entre los países para regir la hora, la diferencia entre ambas horas debería ser 48 minutos más tarde en México. Pero como sabemos, es de una hora en invierno y de dos horas en verano.

Para cerrar el tema del ocultamiento del Sol el 21 de diciembre de 2013, diré que de los comentarios anteriores resulta que casi 7 de los 11 minutos de diferencia se deben a que la hora de avistamiento del ocultamiento del Sol se modifica mucho con la latitud.

Tomando los casos extremos, en Alaska están a oscuras desde hace varias semanas, mientras que en la Antártida tienen 24 horas de luz.

Los calendarios de horizonte y la sabiduría de las etnias originarias de América

Como expliqué el 22 de marzo de 2011, en una contribución a este blog que llamé “El Sol y los calendarios de horizonte en América”, cada pueblo antiguo debió resolver sus necesidades de medición del tiempo por sus propios medios usando este sistema la mayoría de las veces. La liga para leer lo anterior es la siguiente:


Esto debería obligarnos a darles a nuestros pueblos originales el reconocimiento y el valor que se merecen. Si ahora su cultura se encuentra postrada, es consecuencia de la acción genocida y destructora de los inmigrantes llegados de Europa.

Por ejemplo, la vista con la que abro este blog seguramente fue la perspectiva que tuvieron los antecesores de la etnia Hohokam que habitó al oriente de Phoenix hace cerca de mil años. Con la sierra de la Estrella pudieron detectar y medir los ocultamientos del Sol para marcar su calendario de horizonte y señalizar cuidadosamente las estaciones del año. Esto les servía a ellos para saber cuándo llegarían las escasas lluvias de verano y las nevadas en las sierras del norte y del oriente. Seguramente sabían que los hielos derretidos en primavera traían las aguas que eran conducidos por los ríos Salado y Gila. Este último se ve como sigue desde la autopista (free way) número 10, que corre por el sur y centro de Arizona y conecta eficientemente a Texas con California.



Los historiadores saben que los antecesores de los indios Hohokam construyeron grandes y largos canales de irrigación. Nos cuentan que en la parte oriental de Mesa y de Chandler (al oriente de Phoenix) fundaron y mantuvieron una ciudad de al menos 4 ancho por 6 kilómetros de largo.

Cuando llegaron a ese territorio los europeos invasores, reclamando los terrenos recientemente arrebatados a México como consecuencia del Tratado de Guadalupe Hidalgo de 1848, pudieron descubrir los canales del actual valle de Phoenix y avistaron cómo estos se extendían hacia el sur, en donde ahora es Casa Grande.

Como el valle donde se ubica Casa Grande no les pertenecía oficialmente, pero ofrecía una riquísima oportunidad para futuros cultivos, promovieron que su gobiernos se apropiara también de esos territorios. Así surgió el tratado que consistió en la venta de La Mesilla, por Antonio López de Santa Ana.

Debido al desconocimiento del terreno por parte de algunos historiadores, se nos presenta la venta de esos terrenos poniendo como motivo que los Estados Unidos querían construir por allí un ferrocarril, pero quien conoce la topografía de Arizona sabe muy bien que el ferrocarril podría haber pasado por el valle de Phoenix, que sí se encontraba al norte del Río Gila y luego doblar lentamente hacia el sur.

Por cierto, de acuerdo al Tratado de Guadalupe Hidalgo la sierra de la Estrella quedaba como propiedad de México, porque en éste se acordó que nuestro país llegaba hasta la parte central de ese río.


Todos los tratados fueron firmados entre gobiernos formados por descendientes de inmigrantes que jamás tomaron en cuenta la opinión de los indios.

jueves, 19 de diciembre de 2013

¿Qué es el gas shale? El método de fractura hidráulica y los riesgos de contaminación.

Hacen falta medidas preventivas

La entrega de la riqueza petrolera de México a las empresas extractoras extranjeras traerá consigo una nueva técnica de explotación del gas y del petróleo. Se llama técnica de fractura hidráulica, es muy eficiente y también muy contaminante.

En Estados Unidos han proliferado las quejas y las demandas interpuestas por parte de los pobladores cercanos a los sitios donde se practica la técnica de fractura para extraer petróleo, sin embargo, los jueces les están negando la razón con el argumento de que no existe un registro previo de los contenidos de metano, etano, propano, helio y radón. En consecuencia, declaran la inexistencia de evidencia para culpar a las empresas de los altos niveles de estos gases en el agua y en el ambiente.


Es de esperarse que en México ocurrirá lo mismo y no será solamente por la presunta corrupción en el sistema de justicia mexicano.

La única forma de cerrarles esa salida evasiva es empezar a acumular datos de los niveles de esos gases en el agua de nuestros pozos y en el aire donde vivimos. Y si queremos que no sean rechazados en los juzgados, tendrán que tratarse de análisis realizados por laboratorios certificados de alguna forma.

Los riesgos están bajo estudio

Los riesgos que corren los seres humanos cerca de las instalaciones que extraen gas natural son motivo de estudio en la actualidad. Por ejemplo, Lisa Mackenzie publicó un artículo de investigación en el que presenta tablas para mostrar los contenidos de materiales contaminantes en el agua.

Ver: McKenzie LM, et al, Human health risk assessment of air emissions from development of unconventional natural gas resources, Sci Total Environ (2012), doi:10.1016/j.scitotenv.2012.02.018

Como uno de los resultados de su trabajo científico. Lisa McKenzie fue llamada a testificar ante un panel de la suprema corte de justicia de esa nación. Ella es investigadora asociada en la Colorado School of Public Health y la noticia sobre su comparencia puede ser consultada en la liga siguiente:


En esencia, ella está proponiendo que debe haber nuevas regulaciones sobre el impacto posible de estas técnicas sobre el medio ambiente. Los nuevos sistemas de exploración y explotación ya se están usando pero el impacto aún es desconocido.

Entre las afirmaciones más importantes de Lisa McKenzie está que encontró altas concentraciones de benceno en las muestras estudiadas. Como se sabe, el benceno es una sustancia altamente cancerígena.

Como sucedió en el caso del tabaco y con las semillas de transgénicos. La comunidad de científicos ya se empezó a dividir a favor y en contra de la peligrosidad del uso del método de fractura hidráulica para extraer petróleo.


¿Qué es la técnica de fractura hidráulica?


La nueva forma de extracción de petróleo y de gas que se está generalizando en el mundo, se llama, como ya escribí antes: técnica de fractura hidráulica y suelen referirse a ella simplemente como: fracking.

También se está popularizando la frase: gas shale, sin que un solo periodista se preocupe por explicarnos de qué se trata. Claramente esto tiene que ver con la inexistencia en México de un espacio amplio para el periodismo científico.

Además, se están generalizando las protestas de los ambientalistas por los riesgos de contaminación que trae consigo este nuevo método para extraer el petróleo. Como de costumbre, las empresas dedicadas a la extracción dicen que no hay problema.

Existe en el subsuelo una clase de capas de tierra que reciben el nombre shale. Los especialistas la clasifican como un tipo de roca sedimentaria y en Español se llaman lutitas. Los profesionales de la geología nos dicen que son rocas de grano fino y que constituyen más de la mitad de todas las rocas sedimentarias. Son de grano muy fino porque se formaron en un proceso de sedimentación en el que no había corrientes turbulentas.

En la actualidad son muy importantes porque en muchos casos hay capas de lutita (shale layers en Inglés) que contienen porciones minúsculas de petróleo crudo o de gas.

La técnica de fractura a que nos venimos refiriendo se podría llamar también: fracturación hidráulica de lutitas y consiste en perforar un pozo vertical, seguido de uno horizontal, para inyectar por allí una colección de gas combinado con líquidos que contienen diversas sustancias químicas. Una de ellas es la goma guar, que es uno de los insumos para hacer espesa la nieve y las tartas. En realidad se trata de un coctel de varias decenas de sustancias químicas. Muchas de ellas cancerígenas.

El objetivo con la inyección de sustancias es generar en las capas de lutita una fractura generalizada que la vuelva más porosa, Con eso se consigue hacer salir el gas y/o el petróleo crudo que estaba capturado, facilitando entonces su extracción. Las presiones que generan son cuando menos 148 veces la presión de la llanta de un automóvil común. Este último suele llevar llantas infladas a una presión de 35 libras por pulgada cuadrada, mientas que en la técnica que estamos comentando se alcanzan presiones de más de 4440 libras por pulgada cuadrada.

Una explicación elemental (en Inglés) está en un video de ocho mintuos que puedes consultar aquí: https://www.youtube.com/watch?v=nDjCsAlgSKc#t=97

Si comprendes el idioma Inglés, también te puedo recomendar una animación, acompañada de una explicación, que se encuentra en la siguiente dirección: https://www.youtube.com/watch?v=VY34PQUiwOQ

Si tienes dificultades con el Inglés, en la siguiente liga encuentras un documental realizado por Fernando Ezequiel Solanas, más conocido como Pino Solanas. En los primeros cinco minutos explica el método de fractura y antes de llegar al minuto 7 nos cuenta los riesgos surgidos de la liberación de metano, que contamina los mantos freáticos: https://www.youtube.com/watch?v=YA6Xp1WDQq4



Entre los estrategas de las políticas de estado de los Estados Unidos, y los financieros más poderosos de ese país, se ha generado tal interés que muchos de ellos se han planteado como pregunta si con ese sistema alcanzarían la independencia energética. Ellos mismos se han respondido que no, aunque esperan que para el año 2022 podrán duplicar la producción de barriles de petróleo que alcanzaron en el año 2008.




domingo, 22 de septiembre de 2013

La bola curva en el béisbol

 La bola curva en el béisbol (*)

El objetivo en esta ocasión es desarrollar una explicación científica de la razón por la cual la bola curva de las pelotas de béisbol se mueven de la manera en que lo hacen. Encontraremos cuál es la razón por la que se trata de un lanzamiento que viaja relativamente lento, si se le compara con otros recursos de los pitchers modernos. En particular, la bola recta es lanzada a cerca de 90 millas por hora, y de acuerdo a quienes hacen mediciones en los juegos de béisbol, uno de sus máximos exponentes de las bolas rápidas, llamado Richard Gossage, la lanzaba dentro de un rango de 98 a 102 millas por hora y era casi el único lanzamiento que utilizaba.



Para nuestra explicación de la bola curva nos basaremos en los experimentos desarrollados por Lyman Briggs, que fueron publicados en la revista científica American Journal of Physics en 1959, hace cincuenta años.

Una explicación más elemental, con dibujos muy buenos y con la discusión sencilla de varios tipos de lanzamientos, puede encontrarse en un artículo intitulado “The Mechanics of a Breaking Pitch”, de Jim Kaat, publicado en abril de 1997 en la revista Mecánica Popular.

Se acredita la invención de la bola curva en el béisbol al pitcher estadounidense William Arthur Cummings, quien vivió desde 1848 hasta 1924. Este beisbolista jugaba para los Estrellas de Brooklyn y existe al menos un registro en el sentido de que usaba el lanzamiento de la bola curva en 1869.

En el sitio de la “Society for American BaseBall Research” (Sociedad Estadounidense de Investigación sobre Béisbol), existe un artículo escrito por Joseph McElroy Mann, en el cual relata diversas experiencias y sentimientos generados por el uso de la bola curva en los lanzamientos. Entre ellos la sensación de frustración de los primeros bateadores que se enfrentaron a ella, así como las críticas porque algunos consideraban indigno y tramposo el uso de la curva.


Existe un registro en el sentido de que la primera demostración pública de la bola curva se realizó el 16 de agosto de 1870, a cargo del pitcher de ligas mayores Fred Godsmith, quien vivió de 1856 a 1939.

En los tiempos modernos, se considera que la mejor curva ha sido la de Steve Carlton, jugador que lanzó hasta la edad de 45 años.

La razón de la desviación de la pelota de béisbol cuando gira se basa en un fenómeno conocido como efecto Magnus, porque fue estudiado por el alemán Gustav Magnus y publicado en las Memorias de la Real Academia de Berlín en 1852. Él estudió un cilindro con su eje orientado verticalmente y girando a 1,000 revoluciones. Su interés era estudiar la trayectoria de las nuevas balas de cañón.

Las balas de cañón de forma alargada y terminación en punta ya habían sustituido a las balas redondas porque tenían la ventaja de que al hacerlas girar mantenían una trayectoria más estable. Éste es un resultado que ofrece la física teórica.

Cuando un objeto giro adquieren un momento angular, una cantidad física que tiende a conservarse bajo ciertas condiciones bastante generales y muy bien especificadas. Sin embargo, en su interacción con el aire, las balas se desviaban hacia su izquierda cuando giran en torno a su eje y contra las manecillas del reloj (medido desde la referencia de quienes operan el cañón).



Magnus logró explicar que la distribución de la presión alrededor del cilindro se modifica cuando gira, dando lugar a que sea menor en uno de los lados. La consecuencia es la aparición de una fuerza que desvía al proyectil de su trayectoria original.

En 1877, el inglés John William Strutt, mejor conocido como Lord Rayleigh, escribió un estudio sobre el vuelo irregular de la pelota de tenis. Además de tener una gran preparación en la física matemática, era aficionado a analizar problemas curiosos, como fue: “Los insectos y el color de las flores”, “El vuelo de los pájaros”, “La navegación del albatros” y “El problema de la galería que susurra”. También ganó el Premio Nobel en 1904 por haber descubierto el gas Argón en 1895.


La mejor forma de entender por qué se curva la pelota de béisbol es observar una fotografía tomada por un físico de apellido Brown, quien utilizó un túnel de viento que lanza líneas de humo para saber cómo se deforma el paso del viento en torno a obstáculos. Por ejemplo, así se ha estudiado la dinámica más apropiada para los automóviles y los aviones.

Brown, quien trabajaba para la Universidad de Notre Dame en Indiana, colocó en el túnel de viento una pelota girando a mil revoluciones por minuto y logró fotografiarla junto con las líneas de humo deformándose alrededor.

La fotografía de Brown demuestra que una pelota lanzada por el pitcher hacia el plato, girando en torno a un eje vertical, produce detrás de ella una turbulencia que altera el paso del aire en torno suyo.



Si se coloca una cámara en el techo del estadio de los Diamond Backs, tomando desde arriba la pelota que va de la loma de pitcheo hacia el plato, y la pelota gira contra las manecillas del reloj (vista por la cámara), la turbulencia está detrás pero inclinada hacia la posición de la tercera base.

Así, el paso del aire por el lado de la tercera base es más lento y más rápido por el lado contrario, haciendo que la pelota se desvíe hasta 43 centímetros respecto de su trayectoria original. Por ejemplo, el pitcher puede lanzar la pelota directo hacia el cuerpo del bateador para que la desviación haga que pase por encima del plato para cubrir con uno de los requisitos para que sea considerada en la zona de strike.



Lyman Briggs, en su artículo de 1959 en el American Journal of Physics, reporta que puso a girar una pelota de béisbol que caía desde una altura de 1.83 metros, dentro de un túnel de viento. Hizo girar la pelota desde 1,200 hasta 1,800 revoluciones por minuto.

Así lograba que la pelota estuviera en el aire durante 0.6 segundos, mientras que el tiempo de vuelo de la pelota desde el pitcher hasta el plato es ligeramente superior a 0.4 segundos.

También escogió ese rango de giros por minuto porque en esos años ya estaba demostrado que son las velocidades de rotación que logran imprimir los pitchers a la pelota de béisbol.

Lyman Briggs logró comprobar que la desviación lateral de la pelota es proporcional a la velocidad de rotación y al cuadrado de la velocidad con que viaja desde la loma de pitcheo hacia el plato.

Ingenuamente podemos pensar que entonces es necesario lanzar la pelota más rápido para que se desvíe más, pero entonces sucede que llega más pronto y el tiempo disponible para desviarla disminuye.

Lyman Briggs encontró que al considerar los 18.4 metros que viaja la pelota, hacer crecer la velocidad del lanzamiento no ayuda, en cambio, logró demostrar que la combinación óptima está en hacerla girar a 1,800 revoluciones por minuto, con una velocidad de 68.2 millas por hora.

En este caso, la desviación lateral alcanzada es de 44 centímetros y medio.

Lyman Briggs demostró también que las costuras de la pelota juegan un papel muy importante, pues sucede que cuando se hacen los experimentos con pelotas lisas, el efecto Magnus produce una desviación al revés. En general, basta que la pelota sea rugosa, pues en el caso del tenis ocurre lo mismo que en el beisbol.

Según Lyman Briggs, este efecto Magnus al revés en pelotas lisas ya había sido reportado en 1928 por un investigador de apellido Maccoll, y también en 1949 por otro físico de apellido Davies.


En cambio, cuando experimentó con pelotas lisas de baquelita, uno de los primeros plásticos que se usaron a principios del siglo XX, encontró que la dirección del efecto Magnus se intercambia, haciendo que sea como las pelotas de béisbol en unas ocasiones y como las pelotas lisas en otras.



(*) Este material fue presentado en el programa de radio Vox Populi de la Ciencia en el año 2009, cuando aún no desarrollaba este blog. Se recupera ahora porque sigue siendo de interés para los aficionados al juego de béisbol.

viernes, 16 de agosto de 2013

La petroquímica en México podría florecer con un mes de ingresos por sobreprecio del petróleo.



En esta contribución al blog voy a demostrar que, con los datos del año 2013, es suficiente tomar un mes de los excedentes petroleros para crear una bolsa que permitiría becar a 4 mil 550 recién egresados de licenciatura y sostenerlos durante cinco años para alcanzar el doctorado y crear diez centros de investigación científica y tecnológica con 455 investigadores cada uno.

El 22 de junio de 2013 publiqué una serie de argumentos en el sentido de que la política petrolera de México debería prestar atención a la petroquímica y considerarla como un asunto de seguridad nacional, en el mismo sentido que la considera nuestro vecino del norte.

También hice ver que México podría formar miles de jóvenes científicos en ramas que abarcarían la matemática, la física y la química, debidamente repartidos en orientaciones científicas e ingenieriles para llevarlos a colaborar con el propósito de absorber tecnología primero, crear la propia enseguida y desarrollar industria petroquímica mexicana.

Prometí demostrar con números que esto es posible y ése es el propósito ahora.

Supongo un plan austero que evita gastar dólares en inscripciones semestrales en universidades estadounidenses, donde se pueden gastar de 12 mil a 50 mil dólares sin tomar en cuenta todavía la manutención del estudiante.

En su lugar, supongo una educación en universidades gratuitas de México, de Cuba o de Alemania, pues en esta última existen opciones en las cuales las cuotas son casi cero o muy bajas.

Estos países los menciono como un ejemplo y evidentemente no es una lista exhaustiva.

En consecuencia, todo se centra en una beca para la manutención del estudiante.

Sea x el monto de la beca de un estudiante
Sea n la cantidad de meses que se mantendrá la beca
La inversión en un solo estudiante es x*n
Supongamos que la beca mensual es x=10 mil pesos mensuales.
También supondremos dos años de maestría y tres de doctorado, puesto que se tratará de estudiantes seleccionados por su alto rendimiento académico. En este caso n=60 meses.

¿cuánto se invierte en becar un egresado de licenciatura hasta que alcanza el doctorado?
La respuesta es 600 mil pesos.

Durante el año 2013 el promedio del precio de cada barril de petróleo mexicano fue de 100 dólares estadounidenses.
El monto contemplado por la cámara de diputados, para fines presupuestales, es de 86 dólares estadounidenses por barril.

En consecuencia hay un sobreprecio de 14 dólares estadounidenses diarios por cada barril vendido al extranjero.

Sea e=14 dólares estadounidenses el sobreprecio del barril de petróleo.
Supongo que la cantidad exportada es medio millón de barriles diarios de petróleo.
Sea N=50 000 barriles diarios de petróleo.
Por lo tanto, la cantidad de dinero extra, cada día, es de e*N*13=91 millones de pesos diarios.




Debe notarse que tomé la relación a razón de 13 pesos por cada dólar estadounidense.

¿cuántos estudiantes es posible becar con el exceso de un día?

Basta dividir los 91 millones de pesos entre 600 mil y resulta que es factible becar a 151 jóvenes durante cinco años en universidades que no cobran colegiaturas.

¿Cuántos estudiantes es posible becar con un mes de regalías extras por exportar petróleo?

El dato se obtiene multiplicando por 30. Resulta que sería posible becar a 4 550 jóvenes.

Esto es suficiente para fundar diez centros de investigación orientados a la petroquímica.

Cuando el petróleo es usado para obtener productos químicos, la ganancia se multiplica por 60. Por lo tanto, es factible invertir en esos centros de investigación con la plena confianza de que serán rentables, pues sus productos llevarán a multiplicar los ingresos del país, en el entendido de que cada año dedicado a producir gasolina a base de petróleo equivale a veinte años de productos petroquímicos.




martes, 2 de julio de 2013

Los orbitales atómicos sí se pueden ver



Esta contribución al blog de Vox Populi de la Ciencia es una versión adecuada al entendimiento de personas que se encuentren cursando estudios de bachillerato. Es una síntesis de la plática que presenté a la Semana de Nanotecnología 2013, el martes 4 de junio de 2013, en el auditorio del Departamento de Física de la Universidad de Sonora. El título de la misma fue “Observación directa de orbitales atómicos (el experimento, su teoría y la filosofía en la teoría cuántica)”. Como se acostumbra en esta institución, esta plática fue la única que no fue considerada digna de ser incluida en las noticias del portal oficial de esta institución. El área de comunicación social de la UNISON tiene sus criterios especiales.
Independientemente de la desatención recibida, la revisión de las fechas puede demostrar que en la plática que dicté se abordó rápidamente una noticia científica surgida apenas diez días antes de la presentación para quienes decidieron asistir a escucharla. En su versión para bachillerato es como sigue:
La creencia de mis profesores (as) de educación primaria.
Hasta hace pocas décadas se enseñaba en los cursos de ciencias naturales de los niveles de primaria y de secundaria que era imposible ver los átomos. Los profesores de esos niveles de enseñanza repetían esa afirmación y algunos agregaban, con una autoconfianza que ahora me parece pasmosa, que jamás lograríamos verlos.
Pero intentar predecir los alcances futuros de la ciencia lleva a cometer errores, pues resulta que ahora es sumamente común ver los átomos por medio de los microscopios de fuerza atómica. El funcionamiento de estos puede ser entendido si revisamos el diagrama de la siguiente figura:

Podemos distinguir un objeto de color verde que los técnicos encargados del manejo del aparato llaman: “cantilever”. Se trata de una pieza voladiza con una punta que contacta la muestra dispuesta para ser analizada (color azul) y se mueve detectando el potencial eléctrico generado por los átomos de la muestra. En esencia lo que hace la punta es subir y bajar tratando de mantenerse sobre una superficie en la cual dicho potencial no cambia. La muestra de color azul se mueve debajo de ella, gobernada por un dispositivo que hemos trazado con color negro.
Conforme la punta sube y baja, el cantilever refleja un rayo láser que es desviado hacia una colección de fotodiodos (conjunto de círculos blancos). El papel de cada uno de estos es recibir la luz del rayo para abrir una compuerta electrónica que deja pasar una corriente eléctrica que es transmitida a un detector que hemos bosquejado como una caja gris en la parte superior.
El sistema del detector electrónico contabiliza las distintas posiciones para trazar las pendientes que correspondan e ir organizándolas, primero en una franja muy estrecha, después otra enseguida, hasta crear una imagen bidimensional de la superficie de la muestra. Dependiendo de la calidad de la punta, y del sistema de fotodiodos y de detección electrónica, es posible detectar las superficies equipotenciales creadas por los átomos.
Un ejemplo de lo anterior es el microscopio de fuerza atómica que se encuentra en una universidad de Augsburgo, una ciudad alemana situada a 50 kilómetros al noroeste de Munich. Allí se presenta la siguiente imagen


que muestra la superficie de una muestra de grafito, formado por átomos de carbono organizados en forma de exágonos, justo como se esperaba a partir de su estudio por otros métodos desarrollados con base en el conocimiento de la física moderna.
El experimento que permitió ver los orbitales proyectados en una pantalla
El 24 de mayo de 2013 se publicaron en la revista científica Physics Review Letters (1) imágenes que van más allá de los avances obtenidos con el microscopio de fuerza atómica. Se trataba de imágenes bidimensionales de orbitales atómicos del átomo de hidrógeno. De acuerdo a la teoría cuántica, estos deben tener la forma siguiente:

En el eje horizontal se cuenta la distancia desde el núcleo hasta un punto r. En el eje vertical se representa la probabilidad de que el electrón que se mueve en torno a un punto llamado centro de masa. Debido a que el núcleo es un protón (y a veces se agrega allí un neutrón o dos) la masa nuclear es casi dos mil veces superior a la del electrón, lo cual da lugar a que el centro de masa casi coincida con el núcleo. En la gráfica se observan tres curvas, la de color guinda crece hasta un pico muy alto y luego empieza a disminuir, lo cual indica que la probabilidad de que el electrón esté en algún punto r es muy grande justo donde la curva es más alta. Se trata del estado de energía más baja y se le conoce con el nombre de estado 1S. También podemos distinguir una curva verde, que corresponde al estado 2S y es el que le sigue en magnitud de energía. Éste muestra un pico de poca altura a la izquierda y después otro más pronunciado a la derecha, señal de que existe una pequeña probabilidad de que el electrón esté cerca del pico de la izquierda y una probabilidad mayor de que se mueva cerca del pico de la derecha. No atenderemos a la línea roja en esta explicación.
De acuerdo a otra rama de la física que recibe el nombre de física estadística, la naturaleza busca los estados de más baja energía, de modo que siempre ocurre que, en una colección de átomos de hidrógeno, el estado físico con más población es el 1S, seguido del 2S.
Las imágenes que dieron la vuelta al mundo pueden ser consultadas en la publicación que ya hemos mencionado y se encuentra en la siguiente dirección:
¿Cómo fue posible obtener estas imágenes?
Se basan en una técnica que recibe el nombre de microscopía basada en fotoelectrones. Surgió a partir de experimentos que se fueron refinando en los últimos veinte años y la posibilidad de realizarlos se había vaticinado sobre la base de cálculos teóricos desde el año 1980, aunque las primers imágenes entendibles con claridad empezaron a ser obtenidas a partir del año 2000.
El trabajo de Stodolna y colaboradores puede ser explicado mediante el esquema siguiente:

Desglozamos el esquema del experimento en pasos numerados:
1. Abajo a la izquierda encontramos tres esferas que representan ácido sulfhídrico H2S, al cual se le separa uno de los átomos de hidrógeno por medio de un rayo láser de luz ultravioleta cuya longitud de ondason 213 nanómetros.
2. Así se obtiene un gas de hidrógeno que puede ser colocado en una cámara donde se le aplica un campo electrostático (ver flecha azul) con el fin de excitar al electrón que cada átomo posee y lograr que no todos estén acumulados en el estado 1S, que es el de más baja energía. Como veremos después, este campo eléctrico cumple otro papel más.
3. Sobre el gas de hidrógeno que ya tiene electrones excitados se aplica otro láser que también es de luz ultravioleta, pero en este caso es de longitud de onda de 242 nanómetros. El papel del mismo es sacar electrones de los estados de energía 1S, 2S y 2p, debido a un fenómeno que se llama de tunelaje, el cual explicaremos más adelante.
4. Así se obtiene un haz de electrones que en el esquema son representados por medio de un tren de pelotitas que están superpuestas sobre una flecha azul más delgada y opuesta a la del campo electrostático.
5. Este haz de electrones tiene direcciones de propagación muy diversas, lo cual no es conveniente, de modo que es colimado para tener un haz lo mejor definido posible. Algo similar a un tubo cilíndricoo imaginario por el cual avanzan los electrones.
6. Una vez que los electrones han sido colimados, pasan por una lente magnética, cuyo papel es hacer que el haz se abra de manera organizada para hacerlos incidir sobre una pantalla similar a las de las televisiones de blanco y negro que ya están en desuso.
7. El resultado es la proyección de figuras como las que ya mencionamos previamente.
La consecuencia del experimento relatado ofreció una tasa de producción de electrones que iba desde un mínimo de 7.28X109 electrones por segundo hasta un máximo de 7.28X109. Es decir, se trató de un resultado que nos dice cuál es la conducta estadística de un haz de electrones, aún cuando en el análisis se siga hablando de un átomo de hidrógeno con un electrón, como suele ser costumbre en los estudios teóricos.
¿Cuál es la explicación física y cómo surgió la idea?
La base del fenómeno que ya hemos narrado inicia con un concepto de la mecánica clásica y se puede estudiar en un buen libro de física para nivel bachillerato. Uno sumamente recomendable es el de la referencia (2). Allí se explica cómo usar el concepto de energía potencial, o de energía de interacción entre dos cuerpos que se ejercen, mutuamente, alguna clase de fuerza.
Para explicarnos vamos a recurrir a la siguiente figura:

Al analizar el movimiento de un electrón en torno a un protón (núcleo del hidrógeno) se utiliza como herramiente teórica la energía con la que interaccionan ambas partículas y es la que se representa en la curva de color rojo. Se llama potencial de interacción y es una cantidad que varía con la distancia que separa a ambos. En los cursos de cálculo se les llama teoría de funciones y puede ser estudiado en los últimos semestres de un bachillerato en libros como el de la referencia (3). Cuando se utiliza la teoría cuántica para estudiar este problema se encuentra que el electrón no puede adquirir cualquier energía mientras se mueve en torno al protón. Ocurre que solamente tiene disponibles ciertos valores que reciben el nombre de niveles de energía y por razones técnicas se les llama: estado 1S (al de más baja energía), estado 2S al que le sigue y estado 2p al siguiente. Hay muchos más niveles de energía, pero están menos poblados que los más bajos porque la naturaleza tiende a moverse hacia las energías más bajas de manera espontánea. Es la razón por la cual se colocan tres rayas horizontales de color púrpura.
Cuando se aplica un campo eléctrico externo, como en el experimento que hemos relatado, el potencial de interacción se deforma para tomar formas similares a las de las curvas: verde, azul oscuro y azul claro. Mientras más crece el campo eléctrico que se aplica, más grande es la deformación, de modo que se dibuja una especie de colina.
En este caso puede ocurrir un fenómeno muy interesante, que es la base para el funcionamiento de una gran cantidad de circuitos electrónicos: el efecto túnel. Consiste en una diferencia con los hechos que ocurren cuando viajamos por una carretera, donde es necesario subir hasta lo alto de una colina para cruzar con nuestro auto hasta el otro lado. Es algo similar al camino señalado con las dos líneas rojas para indicar que un objeto debe pasar desde la posición 1 a la posición 2, antes de poder acceder a la posición 3. 

En cambio, en el caso de los objetos del tamaño de los protones y los de electrones, que son los descritos por la teoría cuántica, la partícula puede seguir la trayectoria marcada con la línea verde punteada para alcanzar la posición 3.
Regresando al caso del átomo de hidrógeno, al cual se le ha aplicado el campo eléctrico ya mencionado, se presenta la siguiente situación: En la figura siguiente ocurre que los niveles de energía más baja accesible para el electrón reciben el nombre de estados Stark resonantes y están a un paso de efectuar el efecto túnel explicado arriba. Entonces llega la radiación ultravioleta de 242 nanómetros, que cambia la situación vacilante en que los electrones se encontraban para empujarlos a la realización del efecto de tunelaje. Así, atraviesan al otro lado de la barrera en forma organizada, como se indica en el lado derecho de la figura:

Ahora son electrones libres, pero viajan organizados en un estado físico que llamamos un haz coherente. Para dar una idea de lo que esto significa podemos recurrir a una fotografía de un baile folclórico en el que las personas que ejecutan la danza se mueven simultáneamente de manera que se aprecia una gran coordinación:

Casi todas las damas levantan el brazo al mismo tiempo y se mueven con una armonía que previamente ha sido diseñada en una coreografía. En términos estéticos decimos que es bonito cuando se sigue el trabajo del coreógrafo (a).
En el caso que nos interesa, los electrones se mueven en forma coordinada y ese estado que llamamos coherente tiene una ventaja: puede producir interferencias constructivas y destructivas como lo hacen las ondas, pues como se aprende en la física moderna, estos son partículas y al mismo tiempo son ondas.
Debido a su conducta ondulatoria, los electrones se redistribuyen en el espacio de forma tal que donde el cuadrado de la onda es grande, la cantidad de estas partículas es muy numerosa; pero donde es pequeño ese cuadrado, tenemos una región con relativamente pocos electrones. En estos casos la interferencia constructiva contribuye a acrecentar el fenómeno porque las ondas pueden sumarse como se indica en la siguiente figura:

o bien, pueden ejecutar una interferencia destructiva y restarse como se presenta en la figura que sigue:

A consecuencia de estas sumas o restas de ondas, la interferencia constructiva da lugar a que los electrones se acumulen en ciertos sitios mientras escasean en otros. Esa es la característica de los electrones recién extraídos de los átomos de hidrógeno. Una figura que muestra el efecto resultante es el siguiente patrón de interferencia que aparece en la siguiente dirección: http://factspage.blogspot.mx/2012/06/what-is-interference.html

La idea teórica de que era posible el proceso de extracción organizada de electrones para hacerlos incidir en una pantalla haciendo interferencias destructivas y constructivas surgió en la Unión Soviética en el año 1980, cuando el físico Yurii N. Demkov, junto con otros dos colaboradores, escribieron en el resumen de su artículo científico lo que sigue:
Durante la fotoionización en un campo eléctrico uniforme, las trayectorias de los electrones emitidos a partir de un átomo en diferentes direcciones podrían intersectarse otra vez a grandes distancias del átomo, creando un patrón de interferencia. Bajo condiciones favorables este patrón podría ser observado en un experimento directo.” (4)

La idea trazada por los autores fue elaborada teóricamente en los años siguientes, hasta disponer de cálculos precisos que podrían ser plenamente confirmadas por los experimentos. El esquema se presenta en la siguiente figura:
figura electrones contra una pantalla
El haz de electrones coherentes necesita ser magnificado
Sin embargo, el haz de electrones es tan delgado que proyectados en una pantalla no permiten distinguir realmente nada. Por eso se requiere abrir el haz para que se amplíe como se indica en la figura siguiente, donde una lente de vidrio de la forma que se indica allí, es capaz de abrir un haz de luz para hacerlo separarse. El nombre que reciben es lentes divergentes:

Las lentes electrostáticas.
La imagen anterior corresponde al procesamiento de luz en una rama de la física que llamamos óptica geométrica, pero en este caso tenemos electrones, ¿cómo se puede en estos casos?
La respuesta se obtiene estudiando una rama de la física llamada teoría electromagnética, haciendo énfasis especial en una parte que trata de los fenómenos producidos por las cargas eléctricas que están en reposo en nuestro laboratorio. En ese caso el campo eléctrico producido por cargas eléctricas puede ser visto en un experimento como el que fue filmado y situado en youtube en la siguiente dirección:
Allí se puede apreciar un experimento dispuesto como se indica en la siguiente figura:
y con éste se obtiene que las partículas de crema de trigo colocadas sobre aceite de cocina, o aceite de ricino, bajo la acción de dos varillas conectadas a sendas terminales de una batería, pueden generar líneas de campo eléctrico como se aprecia en la siguiente figura:


Esta situación experimental permite desarrollar la teoría física, conforme a la cual se dibujan líneas de campo similares a las siguientes, que corresponden al campo eléctrico entre dos cargas eléctricas de signo opuesto:

De acuerdo a la teoría, debidamente confirmada por el experimento, la partícula positiva que sea colocada sobre alguna de las líneas azules tenderá a moverse en la dirección que indican las flechas. A la inversa, las cargas negativas (como los electrones) tenderán a moverse en la dirección contraria.
Con esta clase de arreglos es posible diseñar dispositivos (5) de electrodos tales que se generen líneas de campo eléctrico de la forma que sea necesario. Uno de ellos se presenta en la siguiente figura:

De esta forma se consigue hacer que los electrones sigan líneas de campo eléctrico expresamente diseñadas para que se abra el haz como se indica en la figura que sigue:

El resultado ha sido una colección de proyecciones de los orbitales del átomo de hidrógeno. Un logro que algunos de nuestros maestros (as) de primaria decían que jamás se alcanzaría.


Referencias:
(1) A. S. Stodolna, A. Rouzée, F. Lépine, S. Cohen, F. Robicheaux, A. Gijsbertsen, J. H. Jungmann, C. Bordas, M. J. J. Vrakking, Hydrogen atoms under magnification: directo observation of the nodal structure of Stark States, PRL 110, 213001 (2013)
(2) A. M. Cetto, et. al., El mundo de la física, Editorial Trillas.
(3) Morris Kline, Calculus: an intutive and physical approach, second edition, Dover. Capítulo 2: concepto de función y gráfica o curva de una función.
(4) Yu N. Demkov, V. D. Kondratovich, y V. N. Ostrovskii, Interference of electrons resulting from the photoionization of an atom in an electric field, Pi'sma Zh. Teor. Fiz. 34, o. 8, oag 425-427 (october 1981).
(5) F. Hinterberger, Ion optics with electrostatic lenses. En línea.



sábado, 22 de junio de 2013

La política petrolera de México y la petroquímica



La ignorancia de los políticos mexicanos

Siempre que se aborda el tema del petróleo mexicano en las esferas políticas de este país, se le considera como un sinónimo de fuente de energía.


Por ignorancia, o por mala fe, durante mayo y junio de 2013 se ha estado argumentando en México que, si no se toman las medidas necesarias para vender el petróleo que tenemos en los próximos años, será imposible su venta debido a que está siendo sustituido por otras fuentes de energía.

La importancia de la industria petroquímica, y en consecuencia, de la ciencia y de la tecnología que involucra, es ignorada cuando se realiza esa afirmación.

Equiparar al petróleo con un combustible significa dejar de lado que a partir de éste se obtienen plásticos, fibras de hule, solventes, aislantes, tubos, juguetes, instrumentos de uso doméstico, llantas para autos, pegamentos, alfombras, etcétera.


En los Estados unidos la petroquímica es un asunto de seguridad nacional, como se puede constatar en la siguiente dirección de la asociación estadounidense conocida con las siglas AFPM por su nombre en Inglés (American Fuel & Petrochemical Manufacturers).

En México, en cambio, la ignorancia de nuestros políticos, trasladada a su permanente imposibilidad para buscar las asesorías correctas, a pesar de que se les entrega dinero para que las contraten, borra olímpicamente la sabiduría contenida en una de las afirmaciones del sitio de Internet que acabo de citar. Dicen “Ninguna nación puede ser líder mundial en relaciones internacionales y poderío militar, sin una base manufacturera exitosa”.

El impacto de la industria petroquímica y su importancia en la vida diaria

De acuerdo al siguiente sitio de Internet:
los productos petroquímicos incluyen plásticos, jabones, detergentes, solventes, pinturas, fármacos, fertilizantes, pesticidas, explosivos, fibras sintéticas y hules, así como materiales para pisos y techos de edificios y casas habitación. Abundando sobre el tema, asegunra que los petroquímicos se pueden encontrar en productos como las aspirinas, los automóviles, la ropa, los discos compactos (CD), videotapes, equipo eléctrico, muebles, entre otros.

De tan extensa, la lista de productos extraídos de la petroquímica no puede ser exhaustiva.
De todo el crudo extraído, casi el 95% se utiliza como combustible y solamente el 5% es dedicado anualmente a la fabricación de productos petroquímicos. Es la vigésima parte.


Lo anterior significa que por cada año de petróleo crudo que vendemos al exterior, compramos 20 años de futura dependencia del extranjero.

Al vender el petróleo crudo, o dejarlo en las manos de las industrias extranjeras, aunque sea parcialmente, nos estamos condenando a depender en un futuro próximo en: alimentos, vestimenta, impermeabilizantes y esparcimiento.

Debe reconocerse que algunos de estos compuestos cumplen funciones muy adecuadas y son considerados buenos sustitutos de los productos naturales. Otros, en cambio, han producido problemas ecológicos severos. Así lo hemos aprendido con la proliferación de bolsas de plático, que en México desplazaron a las de fibra de henequén. Una industria nacional.

Un poco de información técnica

Un esquema organizado, de utilidad para estudiantes que ya han cursado los cursos de química del bachillerato, se puede encontrar en la siguiente dirección:

A su vez, una carta más amplia, y también mejor organizada de los productos petroquímicos, se puede encontrar de la manera siguiente:
Primero: entre Usted en el siguiente sitio http://www.afpm.org/policy-positions-petrochemicals/
Segundo: busque la frase “Chart of products made from petrochemicals”, pulse allí y estará en condiciones de obtener un archivo PDF con una lámina a colores de la misma.

La petroquímica inicia con los materiales crudos, o primarios. Estos son los que se extraen directamente del subsuelo, como: el gas natural, el etano, el propano, el butano y la nafta. Todos vienen en un compuesto llamado petróleo crudo.

El petróleo crudo y el gas natural están formados de moléculas de hidrocarbonos y pueden contener desde uno hasta varios átomos de carbono, además de átomos de hidrógeno.

A partir de allí se obtienen los petroquímicos primarios, como el metanol, el etileno, el propileno, el butadieno, el benzeno, el tolueno y el jileno. Otros ejemplos se muestran en la figura siguiente con su fórmula química








Después sigue la petroquímica de elementos intermedios y sus derivados. Ésta consiste en que a partir de los compuestos primarios se forman productos petroquímicos más complejos, a los cuales se les reconoce como intermedios. Además se pueden hacer a partir de otros productos intermedios que contienen solamente carbón e hidrógeno pero se les agregan átomos de cloro, nitrógeno, oxígeno, entre otros. A veces se trata de productos terminados, listos para ser almacenados y dedicados a usos específicos. En otras ocasiones son productos destinados a procesos químicos posteriores para obtener nuevos derivados.

El método más usual en esta etapa de la petroquímica se llama polimerización. Es un proceso en el cual se parte de compuestos con muy pocos átomos para hacer compuestos con muchos átomos. En el lenguaje técnico a los primeros se les llama monómeros y se les identifica como sustancias de bajo peso molecular, mientras que a los segundos se les llama polímeros y son considerados de alto peso molecular. Así se obtienen plásticos, fibras de hule, etcétera.

Entre estos están el vinilo de acetato para fabricar pintura, textiles sintéticos.

Comentarios breves sobre una política correcta acerca del petróleo

El paso más importante es deslindar al petróleo crudo de las políticas energéticos y trasladarlo a un interés nacional superior.

En una política adecuada, México no debería vender petróleo crudo. En su lugar podría, puesto que se encuentra en condiciones, y debería impulsar la formación de miles de jóvenes científicos en ramas que van desde la matemática, hasta la física y la química, para disponer de muchos investigadores y técnicos del más alto nivel, a fin de absorber tecnología y ponernos en condiciones de crear la propia.

En esta política adecuada, México podría, y debería, disponer de sus propias industrias petroquímicas.

En una contribución posterior a este blog demostraré con números que esto es posible si los recursos económicos no se malbaratan.