Subscribe:

domingo, mayo 04, 2008

BREVE HISTORIA DE LA FISICA

EPOCA DEL ESCLAVISMO Se conoce que la mayoría de civilizaciones de la antigüedad trataron desde un principio de explicar el funcionamiento de su entorno, miraban las estrellas y pensaban como ellas podían regir su mundo. Ésto llevo a muchas interpretaciones de carácter mas filosófico que físico, no en vano en esos momentos la física se la llamaba filosofía natural. Muchos filósofos se encuentran en el desarrollo primigenio de la física, como Aristóteles, Tales de Mileto o Demócrito, por ser los primeros en tratar de buscar algún tipo de explicación a los fenómenos que los rodeaban.
¿De qué estamos hechos? Dame fuego (y aire y tierra y agua): la visión griega
****************************************************
A pesar de que las teorías descriptivas del universo que dejaron estos pensadores eran erradas, éstas tuvieron validez por mucho tiempo, casi dos mil años, en parte por la aceptación de la iglesia católica de varios de sus preceptos como la teoría geocéntrica o las tesis de Aristóteles.
Aristóteles: fuerza para el movimiento
EPOCA DEL FEUDALISMO Esta etapa denominada oscurantismo en la ciencia termina cuando Nicolás Copérnico, considerado padre de la astronomía moderna, en 1543 recibe la primera copia de su De Revolutionibus Orbium Coelestium. A pesar de que Copérnico fue el primero en formular teorías plausibles, es otro personaje al cual se le considera el padre de la física como la conocemos ahora. Un catedrático de matemáticas de la Universidad de Pisa a finales del siglo XVI cambiaría la historia de la ciencia empleando por primera vez experimentos para comprobar sus aseveraciones, Galileo Galilei. Con la invención del telescopio y sus trabajos en planos inclinados, Galileo empleó por primera vez el método científico y llegó a conclusiones capaces de ser verificadas. A sus trabajos se le unieron grandes contribuciones por parte de otros científicos como Johannes Kepler, Blaise Pascal, Christian Huygens.
Galileo:relatividad,inerciaymétodocientífico ************************************************
Posteriormente, en el siglo XVII, un científico inglés reúne las ideas de Galileo y Kepler en un solo trabajo, unifica las ideas del movimiento celeste y las de los movimientos en la tierra en lo que el llamó gravedad. En 1687, Sir Isaac Newton en su obra Philosophiae Naturalis Principia Mathematica formuló los tres principios del movimiento y una cuarta Ley de la gravitación universal que transformaron por completo el mundo físico, todos los fenómenos podían ser vistos de una manera mecánica. Parados sobre hombros de gigantes
El nacimiento de la física clásica La obra de Newton Los principia La manzana y la luna (o cómo caerse sin perder altura) La física determinista
EPOCA DEL CAPITALISMO El trabajo de Newton en el campo, perdura hasta la actualidad; todos los fenómenos macroscópicos pueden ser descritos de acuerdo a sus tres leyes. De ahí que durante el resto de ese siglo y el posterior siglo XVIII, todas las investigaciones se basaron en sus ideas. De ahí que otras disciplinas se desarrollaron, como la termodinámica, la óptica, la mecánica de fluidos y la mecánica estadística. Los conocidos trabajos de Daniel Bernoulli, Robert Boyle, Robert Hooke entre otros, pertenecen a esta época. Es en el siglo XIX donde se producen avances fundamentales en la electricidad y el magnetismo principalmente de la mano de Charles-Augustin de Coulomb, Luigi Galvani, Michael Faraday y Georg Simon Ohm que culminaron en el trabajo de James Clerk Maxwell de 1855 que logró la unificación de ambas ramas en el llamado electromagnetismo. Además se producen los primeros descubrimientos sobre radiactividad y el descubrimiento del electrón por parte de Joseph John Thomson en 1897.
Una historia de unificaciones: el electromagnetismo Los precursores La primera señal: el experimento de Oersted La primera unificación La segunda unificación: la óptica también se rinde Toda la física clásica en media página Durante el Siglo XX, la Física se desarrolló plenamente. En 1904 se propuso el primer modelo del átomo. En 1905, Einstein formuló la Teoría de la Relatividad especial, la cual coincide con las Leyes de Newton cuando los fenómenos se desarrollan a velocidades pequeñas comparadas con la velocidad de la luz. En 1915 extendió la Teoría de la Relatividad especial, formulando la Teoría de la Relatividad general, la cual sustituye a la Ley de gravitación de Newton y la comprende en los casos de masas pequeñas.
Adiós a la física clásica I: La teoría de la relatividad M&M (Michelson y Morley) Los postulados de la relatividad especial Midiendo longitudes y tiempos: paradojas relativistas Masa y energía son equivalentes: E = m x c2 La Relatividad General y la expansión del universo
Max Planck, Albert Einstein, Niels Bohr y otros, desarrollaron la Teoría cuántica, a fin de explicar resultados experimentales anómalos sobre la radiación de los cuerpos. En 1911, Ernest Rutherford dedujo la existencia de un núcleo atómico cargado positivamente, a partir de experiencias de dispersión de partículas. En 1925 Werner Heisenberg, y en 1926 Erwin Schrödinger y Paul Adrien Maurice Dirac, formularon la Mecánica cuántica, la cual comprende las teorías cuánticas precedentes y suministra las herramientas teóricas para la Física de la materia condensada.
Adiós a la física clásica II: La mecánica cuántica Planck y la radiación de cuerpo negro El átomo de Bohr La luz y la materia: ¿ondas o partículas? Heisenberg, Schrödinger, Dirac, nace la mecánica cuántica ¡Incerteza: sólo sé que sólo sé calcular probabilidades! Einstein juega a los dados (Einstein vs. la mecánica cuántica) La unificación de dos teorías revolucionarias: la cuántica y la relativista
*****************************************************
Posteriormente se formuló la Teoría cuántica de campos, para extender la mecánica cuántica de manera consistente con la Teoría de la Relatividad especial, alcanzando su forma moderna a finales de los 40, gracias al trabajo de Richard Feynman, Julian Schwinger, Tomonaga y Freeman Dyson, quienes formularon la teoría de la electrodinámica cuántica. Asimismo, esta teoría suministró las bases para el desarrollo de la física de partículas. En 1954, Chen Ning Yang y Robert Mills desarrollaron las bases del modelo estándar. Este modelo se completó en los años 1970, y con él fue posible predecir las propiedades de partículas no observadas previamente, pero que fueron descubiertas sucesivamente, siendo la última de ellas el quark top.
Las partículas elementales de la materia Protones y neutrones, Energía nuclear, Esas raras partículas elementales, Quarks y leptones... Los intentos de unificar las cuatro interacciones fundamentales ha llevado a los físicos a nuevos campos impensables. Las dos teorías más aceptadas, la mecánica cuántica y la relatividad general, que son capaces de describir con gran exactitud el macro y el micromundo, parecen incompatibles cuando se las quiere ver desde un mismo punto de vista. Es por eso que nuevas teorías han visto la luz, como la supergravedad o la teoría de cuerdas, que es donde se centran las investigaciones a inicios del siglo XXI.
Y todo estaba hecho de átomos ¡Estamos hechos de nada!

jueves, mayo 01, 2008

PRIMERO DE MAYO ''DIA INTERNACIONAL DEL TRABAJADOR'' NO DIA DEL TRABAJO

Así como el agua y el aire son libres para todos, así la tierra y las invenciones de los hombres de ciencia deben ser utilizadas en beneficio de todos. Vuestras leyes están en oposición con la naturaleza y mediante ellas robaís a las masas el derecho a la vida, a la libertad y al bienestar. ...........Jorge Engel (Mártir de Chicago)

Han transcurrido ya más de 100 años desde la jornada de l886, y poco o nada se conoce, se recuerda o se reivindica sobre aquella epopeya de resistencia y lucha de la clase obrera. La estrategia globalizadora ha vaciado también de contenido y significación el Primero de Mayo, que en la mayor parte del mundo es tan solo un día feriado, no laborable, festivo, y hasta pueril.

UN POCO DE HISTORIA: la de "Los Mártires de Chicago".
Corría el l880, y la Federation of Organized Trade and Labour Union ( federación de organizaciones de sindicatos de trabajo y comercio de EE.UU.), veía la luz. Las huelgas de ferroviarios, las reuniones y las grandes movilizaciones obreras eran reprimidas a fuerza de balazos, golpes y prisión. En l886, el Presidente de los EE.UU. Andrew Johnson promulgó la ley llamada Ley Ingersoll, que establecía ocho horas de trabajo, y por supuesto no entró en vigor. La federación resolvió entonces, imponer mediante una Huelga General en todo EE.UU., a partir del primero de Mayo de l886, la jornada laboral de ocho horas, para reemplazar la de 12 o 14 horas diarias, a la que se encontraban sometidos tanto varones como mujeres y niños a cambio de salarios miserables. El corazón del movimiento a nivel nacional, estaba en Chicago, y logró apoyo masivo. El primero de Mayo llegó y decenas de miles de trabajadores y desocupados salieron a la calle en diversas ciudades de EE.UU., como Nueva York,, Detroit e incluso Cincinnati. En Chicago, la huelga paró casi completamente la ciudad.Numerosas empresas como la fábrica de materiales Mc Cormick contrataron verdaderos ejércitos privados para romper las reuniones y asambleas convocadas por los huelguistas. El 3 de Mayo mientras una parte de los huelguistas junto con sus familiares se congregaban frente a la planta de Mc Cormick , llegaron las fuerzas del "orden" cargando contra los manifestantes, reprimiendo brutalmente a trabajadores, mujeres niños y ancianos, con un saldo de varios muertos y heridos. La siguiente asamblea fue realizada en un lugar abierto denominado Haymarket. La reunión había transcurrido sin ningún incidente y en el momento en que se encontraba hablando el último orador , mientras la gente se dispersaba por la lluvia y apenas quedaban unos cientos de huelguistas, se presentó un destacamento de 200 policías fuertemente armados ordenando a los presentes dispersarse. De pronto en el cielo apareció un objeto luminoso (una bomba) que explotó hiriendo a varios, y la policía transformó Haymarket en zona de tiro a mansalva. Cientos de huelguistas fueron heridos, varios acribillados, y la sangre tiñó las calles de Chicago. Nadie sabe quien arrojó la bomba, existen versiones firmes, que señalan la autoría de un provocador de nombre Rudolf Schnaubelt, quien a pesar de ser detenido dos veces, en cada ocasión recuperó la libertad. Los dueños del poder político y económico utilizaron este acontecimiento para desatar una cacería de brujas en contra de los dirigentes de la federación, en especial aquellos identificados como anarquistas. Se clausuraron los periódicos, se allanaron las casas y locales obreros y se prohibieron las asambleas y reuniones políticas. Los periódicos señalaron con el dedo acusador a los dirigentes anarquistas, pidiendo para ellos cárcel y horca. El juicio fue vergonzosamente manipulado, se los acusó de complicidad de asesinato, aunque nunca se pudo probar relación alguna con el incidente de la bomba, entre otras cosas porque la mayoría de ellos no habían estado presentes en el lugar de los hechos, mientras uno de los dos que sí se encontraba era ni más ni más ni menos que el orador. El jurado estaba formado por hombres de negocios y un pariente de uno de los policías muertos . El fiscal, sin más, aclaró que se acusó a los prisioneros porque fueron los líderes de la jornada, solicitando un castigo ejemplar que permitiera salvar las instituciones en peligro. Cuatro dirigentes anarquistas, a saber: Spies, Parsons, Engel y Fischer, fueron llevados a la horca, al mediodía del viernes 11 de noviembre de 1887. Más de medio millón de personas asistieron al cortejo fúnebre. Hoy descansan en el panteón y en todos los países del mundo son recordados como símbolo de dignidad de la clase trabajadora.

....los derechos, la dignidad y el respeto al ser humano ha sido y es reivindicado por las mayorias explotadas, esto se ha logrado a traves de la historia; No como voluntad divina, de algun Dios misericordioso, o voluntad politica de algun jefe de estado sensible, sino a sido mas bien voluntad conjunta y accion constante del pueblo trabajador.... hoy es el dia del trabajador explotado, es un reconocimiento a su lucha, un saludo a su bandera clasista, un dia de reflexion y evaluacion, un dia de conmemoracion a los caidos para poder mantener encendidas las antorchas que alguna vez empuñaron haciendo vivas a sus nobles ideales sociales...

sábado, abril 26, 2008

Avion solar

La era solar

jueves, abril 17, 2008

Energía del Espacio para el Planeta Tierra

Energía Solar recolectada en el espacio y enviada a la Tierra por microondas, podría ser una solución, compatible con la conservación del medio ambiente, para los crecientes problemas de Energía de nuestro Planeta.
La fecha es diciembre del año 2000 y el Gobernador del Estado de California oprime un interruptor para encender el árbol de Navidad estatal en los prados de la Capital. Veinte minutos más tarde el Gobernador ordena a sus ayudantes que apaguen las luces del árbol. ¿Porqué? Insuficiente energía en California.
El Ministro de Energía de los Estados Unidos ordena que una docena de Compañías de Electricidad de fuera del Estado le vendan energía a California para evitar apagones. Pero esto no ocurre sólo en California.
En áreas metropolitanas por todo el país, se ha pedido a los residentes limitar el consumo de energía durante los periodos pico del día. En noviembre pasado, durante las elecciones más disputadas de la historia, Tom Brokaw, un popular anunciador de TV, se refirió a los incidentes de apagones como "La verdadera lucha por el poder."
¿Entonses, qué es lo que está pasando aquí?
"El consumo de energía en los Estados Unidos es casi constante," dice el Dr. Neville Marzwell, gerente técnico del programa Conceptos Avanzados y Nuevas Tecnologías del Laboratorio de Propulsión a Chorro de NASA. "Sin embargo estamos sacando de servicio plantas nucleares por todo el país, las cuales no están siendo reemplazadas." Veintitrés Estados se han unido a California en liberar de controles federales la industria de la energía, un paso que está forzando a muchas compañías a analizar con más cuidado la inversión de miles de millones de dólares en la construcción de nuevas plantas.
Teniendo en cuenta que las proyecciones de incremento de la población indican que esta crecerá rápidamente hasta los 10 mil millones de personas para el año 2050, la posibilidad ce suministrar energía eléctrica barata, al mismo tiempo que compatible con la conservación del medio ambiente, será un desafío amedrantador.
"Necesitamos nuevas fuentes de energía eléctrica," dice John Mankins, Director de Estudios de Conceptos Avanzados en la Oficina Principal de Vuelo Espacial de NASA, "y hemos estado estudiando varios conceptos sobre energía solar espacial. En los quince años pasados se han hecho grandes avances en muchas tecnologías pertenecientes a este campo."
Arriba: Imagínese el suministro a la Tierra o a una base en la Luna, de energía solar recogida en el espacio, o viajando por el espacio sin tener que regresar a la Tierra a reabastecerse de combustible. Esta es la idea detrás de los generadores de energía solar con base en el espacio tales como esta Torre Solar. Crédito: NASA [ más información]
La participación de NASA en energía solar espacial o SSP en ingles, se inició poco después del embargo petrolero de los años 70, cuando la agencia espacial (trabajando bajo la dirección del Ministerio de Energía de los Estados Unidos) empezó los estudios sobre fuentes alternativas de energía que resultasen en menor dependencia del petróleo extranjero.
Los sistemas propuestos de energía solar espacial utilizan principios de física bien conocidos -- es decir la conversión de la luz solar en electricidad por intermedio de células fotovoltaicas. (Usted puede observar estos paneles en los techos de muchos vecindarios o en pequeñas instalaciones de alumbrado en la calle.) Estructuras gigantes formadas por paneles fotovoltaicos (PV) dispuestos en muchas hileras, podrían colocarse en órbita geoestacionaria en la Tierra o en la Luna. Un sistema completo recogería energía solar del espacio, la convertiría en microondas, y transmitiría la radiación de microondas a la Tierra, donde ésta sería recolectada por una antena y transformada en energía eléctrica.
Según un artículo en la Revista del Instituto de Investigación de Energía Eléctrica (EPRI) de abril del año 2000, paneles fotovoltaicos en órbita geoestacionaria en la Tierra (a una altitud de 22,300 millas) recibirían, en promedio, ocho veces más luz solar de la que se recogería en la superficie de la Tierra. Estos paneles no serían afectados por una cubierta de nubes, polvo atmosférico o por el ciclo día-noche de la Tierra.
Derecha: Los paneles solares espaciales estarían más expuestos al Sol que paneles similares en nuestro Planeta, casi siempre cubierto de nubes. Crédito: National Renewable Energy Laboratory.
Cuando la idea fue inicialmente propuesta, hace más de 30 años, la tecnología fotovoltaica o PV estaba aún en su infancia. La tasa efectiva de conversión -- la fracción de la energía solar incidente convertida en electricidad -- era de solo 7 a 9 por ciento.
"En la actualidad tenemos la tecnología para convertir la energía del sol a la tasa de 42 a 56 por ciento," dice Marzwell. "Hemos logrado un gran progreso."
Aún así, el envío de miles de toneladas de paneles solares al espacio sería prohibitivamente costoso. Sin embargo puede haber una manera de reducir el área necesaria de los paneles -- concentrando la luz solar.
"Si a través de enormes espejos o lentes podemos concentrar los rayos del sol, conseguiríamos más energía por el mismo valor porque la mayor parte del costo está en los paneles PV" dice Marzwell.
Un obstáculo de la concentración de luz solar es que el proceso genera mucho calor. La radiación que no se convierte en electricidad se convierte en calor -- suficiente para dañar los paneles si se generan altas temperaturas. Marzwell y sus colegas del JPL están estudiando la posibilidad de capturar este calor de desecho y convertirlo en electricidad a través de un proceso termo voltaico. El recubrimiento de la superficie de los espejos y lentes con materiales especiales puede también servir para rechazar parte del espectro solar que no es utilizado por los paneles fotovoltaicos, reduciendo aún más el exceso de calor.
Derecha: ¿Quién ensamblará y mantendrá los paneles solares en órbita? Posiblemente un ro
bot como estos, en desarrollo por la NASA. " Excepto como supervisores, ya no necesitamos de humanos para el ensamblaje", dice Marzwell.
¿Una vez que la energía del sol ha sido recolectada en el espacio, qué hacemos con ella?
Una posibilidad es la de convertir la energía solar almacenada en radiación por microondas y enviarla a la Tierra en una combinación de rectificador y antena llamada rectena, localizada en una área remota. La rectena convertiría la energía de microondas otra vez en energía CD (corriente directa). De acuerdo con Marzwell, el peligro de estar cerca del haz de microondas es similar al peligro de transmisiones de teléfonos celulares, hornos de microondas o líneas de transmisión eléctricas de alta tensión.
"Existe un elemento de riesgo, pero este puede reducirse," dice Marzwell. "Usted puede colocar los pequeños receptores en el desierto o en las montañas, lejos de áreas pobladas."
La utilización de rayos láser también se ha considerado para transporte de la energía del espacio. El uso del láser eliminaría la mayoría de los problemas asociados con microondas, pero bajo un tratado en vigencia con Rusia, está prohibido a los Estados Unidos el uso de láser de alta energía en el espacio.
En resumen, los aspectos positivos de un sistema de esta clase parecen sobreponerse a los negativos. La energía solar con base en el espacio ofrece una fuente inexhaustible sin emisiones y con muy leve impacto sobre el medio ambiente.
De acuerdo con Marzwell, usando tecnologías existentes un sistema de energía solar espacial podría general energía a un costo de 60 a 80 centavos de dólar por kilovatio-hora. Este estimado incluye los costos de construcción del primer sistema.
"Creemos que en unos 15 a 25 años podremos reducir el costo de 7 a 10 centavos por kilovatio-hora," dice Marzwell. El precio actual en el mercado es de 5 a 6 centavos por kilovatio-hora.
"Con financiación y apoyo oficial podemos continuar desarrollando esta tecnología," dice Marzwell. "Ofrecemos una ventaja. No se necesitan cables, tuberías, gases o alambres de cobre. Podemos enviar a usted la energía como si se tratara de una llamada celular -- donde usted la quiera, cuando la necesite, en tiempo real."
Mankins está de acuerdo. Con esfuerzos y recursos dedicados, dice, la energía solar espacial --hoy solo un sueño -- podría convertirse en realidad en las próximas décadas.

jueves, marzo 27, 2008

Las ondas de gravedad generan tornados

Un investigador de la NASA, veterano de los pronósticos del tiempo, ha desarrollado un modelo para investigar la interacción de las ondas de gravedad con las tormentas severas.
Marzo 19, 2008: ¿Sabía que existe un nuevo tipo de alimento para el desayuno que ayuda a los meteorólogos a predecir tormentas severas? En el sur de Estados Unidos lo llaman "GrITs". (N. del T.: En este juego de palabras, la autora se refiere a los "grits": alimento hecho con harina de maíz, un plato típico de esa región.)
GrITs es la sigla en inglés de Gravity wave Interactions with Tornadoes o Interacción de Ondas de Gravedad con Tornados. "Es un modelo por computadora que desarrollé para estudiar cómo interactúan las ondas de gravedad atmosféricas con las tormentas de gran intensidad", dice el investigador en meteorología Tim Coleman, del Centro Nacional de Ciencias Espaciales y Tecnología (National Space Science and Technology Center, en idioma inglés), en Huntsville, Alabama.
Según Coleman, las interacciones entre las ondas y las tormentas son muy importantes. Si una onda de gravedad golpea a una tormenta en rotación, puede ocasionalmente hacerla girar más rápido, convirtiéndola de este modo en un tornado.

Arriba: Haga clic en la imagen para ver el paso de una onda de gravedad sobre Tama, Iowa, el 7 de mayo de 2006. Crédito: Cámara Ambiental de Iowa, Red Mesonet.
¿Qué es una onda de gravedad atmosférica? Coleman lo explica: "Son similares a las olas que vemos en la superficie de los océanos, pero en vez de surcar las aguas, lo hacen en el aire. La gravedad es lo que las impulsa. Si empujamos agua hacia arriba y ésta cae, se generan olas. Lo mismo sucede en el aire".
Coleman dejó su trabajo de anunciador del pronóstico del tiempo en un canal de televisión en Birmingham para dedicarse a su doctorado en ciencias de la atmósfera, en la Universidad de Alabama, en Huntsville. "Me estoy divirtiendo", dice, y su sonrisa y su entusiasmo hacen ver que así es realmente.
"Se pueden ver ondas de gravedad por todos lados", continúa diciendo. "Cuando conducía mi automóvil hacia el trabajo esta mañana, vi algunas ondas en las nubes. A veces incluso pienso en la dinámica de ondas en el agua cuando voy a pescar".
Las ondas de gravedad se originan cuando un impulso perturba la atmósfera. Un impulso puede ser, por ejemplo, un viento cortante, una corriente de aire ascendente o un cambio repentino en la corriente en chorro. Las ondas de gravedad generan olas de aire a partir de estas alteraciones, como las ondas que se propagan al arrojar una piedra en una laguna.
Cuando una onda de gravedad empuja con fuerza sobre una tormenta en rotación, la comprime. Esto, a su vez, hace que la tormenta gire más rápido. Para entender por qué esto es así, Coleman da el ejemplo de una patinadora de hielo que gira con sus brazos extendidos. "Cuando junta los brazos hacia el pecho, comienza a girar más rápido". Lo mismo sucede con las tormentas: cuando las ondas de gravedad las comprimen, giran más rápidamente para conservar el momento angular.
"También hay vientos cortantes en una onda de gravedad y la tormentas pueden tomar ese viento cortante, inclinarlo y usarlo para incrementar su velocidad de giro. Todos estos factores pueden incrementar la rotación de la tormenta, haciéndola más poderosa y más susceptible de generar un tornado".
"Ya hemos visto al menos un caso de un tornado en tierra (en Birmingham, Alabama, el 8 de abril de 1998) que pudo haberse vuelto más intenso al interactuar con una onda de gravedad".

Arriba: Haga clic en la gráfica para iniciar una película real de radar Doppler en la que se observa una onda de gravedad interactuando con una tormenta en rotación y volviéndola más intensa, en el noroeste de Alabama, el 22 de enero de 1999. Crédito: NOAA.
Coleman también indica que las ondas de gravedad en algunas ocasiones se desplazan en grupos y que, con cada onda que pasa, algunas veces el tornado o la tormenta en rotación crecerá e incrementará su intensidad.
Tim y su jefe, el Dr. Kevin Knupp, están comenzando a enseñar a los meteorólogos del Servicio Meteorológico Nacional (National Weather Service, en idioma inglés) y de los canales de televisión a buscar ondas de gravedad en tiempo real y a usar las teorías relacionadas con el modelo GrITs con el propósito de modificar los pronósticos del tiempo en consecuencia.
¿Quién hubiese pensado que los "grits" podrían predecir el mal tiempo? "Solamente nosotros, los meteorólogos de Alabama", ríe Coleman. Aunque hablando seriamente, las Interacciones de las Ondas de Gravedad con los Tornados podrían llegar a ser el próximo gran paso en la predicción de tormentas severas.

Más Información (en inglés y español)
Gigantescas ondas sobre los cielos de Iowa —(Ciencia@NASA)
Abajo: Este modelo GrITs (Gravity wave Interactions with Tornadoes o Interacción de Ondas de Gravedad con Tornados) por computadora muestra cómo la vorticidad de una tormenta en rotación se incrementa conforme una onda de gravedad pasa a través de ella. Crédito: Tim Coleman.

Un "modelo" es una simulación por computadora basada en ecuaciones matemáticas que describen procesos atmosféricos. Los investigadores ejecutan el modelo muchas veces y simulan una gran variedad de escenarios, con el fin de tener una mejor perspectiva de cómo funciona el proceso que se está investigando. En el caso del modelo GrITs, se aseguran de que éste refleje los patrones que muestran cómo las ondas afectan a los mesociclones y a los tornados y que también indique cuáles son los factores que aumentan dichos efectos.
Cada tormenta es diferente y los investigadores muestran a los pronosticadores qué es lo que deben buscar, en general. Los pronosticadores no usan el modelo GrITs directamente, pero sí usarán los resultados generales que los investigadores obtienen de dicho modelo y que comparten con ellos. Los investigadores pueden intercambiar cuadros de datos con los pronosticadores para mostrar cómo cada parámetro (el ángulo entre la onda y el influjo de la tormenta, la amplitud de la onda, la velocidad de la onda, la intensidad de la tormenta, etc.) cambia el efecto que una onda tendrá sobre un mesociclón.
El futuro de la NASA: La visión para la exploración espacial

sábado, febrero 23, 2008

Comienza la cacería de extremófilos

Microbios en reactores nucleares y bacterias que vuelven a la vida luego de 32.000 años de estar congeladas: ¿esto significaría que puede existir vida en otras partes del cosmos?
Un grupo de científicos acaba de viajar para explorar un lago muy extraño ubicado en la Antártida; está repleto fundamentalmente de detergente de lavandería extrapotente. No, los investigadores no derramaron café sobre sus batas de laboratorio. Simplemente están cazando extremófilos: criaturas fuertes y pequeñas que proliferan en condiciones demasiado extremas para la mayoría del resto de los seres vivientes.
El lago Untersee de la Antártida, nutrido por glaciares, siempre cubierto de nieve, y muy alcalino, es uno de los lagos más inusuales de la Tierra. Los primeros 70 metros de agua del lago son tan alcalinos que "su pH es como CloroxTM fuerte", dice el líder de la expedición, Richard Hoover, del Centro Marshall para Vuelos Espaciales,
de la NASA. "Y para hacerlo todavía más interesante, los sedimentos del lago producen más metano que cualquier otra masa de agua natural que haya en nuestro planeta. Si encontramos vida aquí, tal descubrimiento tendrá importantes consecuencias".
Arriba: Richard Hoover (izquierda) y su colega S.S. Abyzov examinando imágenes de microbios en hielo antiguo de la Antártida. Dichas imágenes fueron proporcionadas por un microscopio de electrones. [Imagen ampliada]
El lago Untersee es una especie de caso de prueba para otros lugares exóticos del sistema solar (como por ejemplo Marte, los cometas y las heladas lunas de Júpiter y de Saturno) donde se podría hallar vida bajo condiciones extremas. Muchos de esos lugares son fríos y ricos en metano, "no tan distintos del lago Untersee".
"Algo que hemos aprendido estos últimos años", comenta Hoover, "es que no tienes que tener una "Zona Ricitos de Oro" (Goldilock Zone, en idioma inglés), con la temperatura perfecta, un nivel de pH específico, etcétera, para que la vida pueda desarrollarse". Algunos investigadores ya han encontrado microbios que viven en el hielo, en agua hirviendo y hasta en reactores nucleares. Estos "extraños" extremófilos pueden ser de hecho normales para la vida en otros sitios del cosmos.
"A través de las investigaciones que hemos llevado a cabo este año, esperamos poder identificar algunos límites nuevos para la vida en términos de temperatura y de niveles de pH. Esto nos ayudará a decidir los lugares en los cuales debemos buscar vida en otros planetas y cómo reconocer otras formas de vida si es que realmente las hallamos".
Hoover ya ha hecho algunos amigos en lugares fríos. Sus equipos de investigadores han encontrado nuevas especies y géneros de extremófilos microbianos anaerobios en el hielo y en la capa de hielo que se encuentra permanentemente congelada en el subsuelo (permafrost, en idioma inglés) de Alaska, de Siberia, de la Patagonia y de la Antártida.
"Recuerdo que una vez encontré un extremófilo en excremento de pingüino", comenta Hoover. "Cuando me detuve a recogerlo, Jim Lovell, quien era mi compañero de investigación en aquel entonces, me dijo: '¿Qué diablos estás haciendo ahora, Richard?'. Pero valió la pena".
Mucho más increíble, sin embargo, fue la revelación, hace algunos años, de que algunos extremófilos hallados por investigadores en un túnel de Alaska volvieron a la vida una vez que se derritió el hielo que los rodeaba. Estas bacterias habían soportado estar congeladas durante 32.000 años y pudieron regresar a la vida "como si nada hubiera sucedido" a medida que se descongelaban. Si criaturas microscópicas en la Tierra pueden hacer eso, ¿por qué no puede suceder lo mismo con criaturas microscópicas en otros planetas?
Derecha: Spirochaeta americana, microbios amantes de las condiciones extremas del lago Mono, en California. Fueron hallados por Hoover y sus colaboradores durante una anterior expedición destinada a cazar extremófilos: historia completa.
La expedición actual, integrada por Hoover, Valery Galchenko, del Instituto de Microbiología Winogradsky, y Dale Andersen, del Instituto SETI, además de dos expertos en logística polar, es una especie de paseo preliminar que proporcionará las bases para el programa completo de operaciones que se llevará a cabo en diciembre. El grupo pondrá a prueba equipos de investigación clave y realizará pruebas científicas en lagos del oasis Schirmacher a modo de preparación para la expedición que efectuará más adelante a los mismos lagos y luego al lago Untersee. La expedición principal, que seguirá y desarrollará esta investigación, estará integrada por un grupo internacional de entre 12 y 14 científicos estadounidenses, rusos y austríacos, y dos educadores.
¿Revelarán estas expediciones criaturas microbianas nunca antes vistas, capaces de sobrevivir a las condiciones más extremas? ¿Y esto significaría que existe vida en otras partes del cosmos?
"Se pueden hallar muchas cosas tan sólo mirando", reflexiona Hoover. "La naturaleza nunca deja de sorprendernos".

sábado, enero 26, 2008

La NASA anuncia el descubrimiento del ataque ocasionado por un agujero negro a una galaxia cercana

Sistemas completos de estrellas y planetas nuevos podrían estar siendo esculpidos por el potente trazo de un chorro que proviene de un agujero negro.

De acuerdo con nuevos datos proporcionados por varios observatorios de la NASA, un potente chorro que proviene de un agujero negro supermasivo está arremetiendo contra una galaxia cercana. Esta violencia sin precedente podría tener un importante efecto sobre los planetas que se encuentren en la trayectoria del chorro y podría incluso provocar el nacimiento de nuevas estrellas tras el paso de su estela destructora.
Esta escena de la vida real, que bien podría formar parte de la más extravagante de las historias de ciencia ficción, se desarrolla en un sistema galáctico binario muy lejano, conocido como 3C321. Hay dos galaxias que giran en órbita, una alrededor de la otra. Un agujero negro supermasivo, ubicado en el centro de la galaxia más grande de ese sistema, arroja un chorro en dirección de su compañera más pequeña.

Arriba: Fotomontaje de 3C321. Descienda a través de esta página para ver una ilustración en la que aparecen rotuladas las galaxias y el chorro. [Más información]
"Hemos visto muchos de estos chorros producidos por agujeros negros, pero es la primera vez que vemos que uno de ellos pega contra otra galaxia", dice Dan Evans, científico del Centro Harvard-Smithsoniano de Astrofísica (Harvard-Smithsonian Center for Astrophysics, en idioma inglés) y líder del estudio. "Este chorro podría estar provocando innumerables problemas a la galaxia más pequeña que recibe el ataque".
Chorros como este, producidos por agujeros negros supermasivos, generan enormes cantidades de radiación, en especial rayos X y rayos gama, los cuales, en grandes cantidades, pueden resultar letales. La combinación de los efectos de esta radiación y los de las partículas que viajan en el espacio prácticamente a la velocidad de la luz podría resultar muy dañina para la atmósfera de planetas que se encuentren ubicados en la trayectoria del chorro. Las capas de ozono que protegen la atmósfera superior de los planetas, por ejemplo, podrían ser destruídas.

Arriba: Una ilustración de 3C321 en la cual se identifican galaxias y chorros. [Más información]
Probablemente, el efecto del chorro sobre la galaxia acompañante sea considerable, porque ambas galaxias en el sistema 3C321 se encuentran ubicadas extremadamente cerca una de la otra, a una distancia aproximada de sólo 20.000 años luz. La distancia que las separa es similar a la que existe entre la Tierra y el centro de la Vía Láctea.
Tanto el chorro como el ataque galáctico fueron descubiertos gracias a esfuerzos realizados utilizando telescopios en la Tierra y en el espacio. El Observatorio de Rayos-X Chandra, de la NASA, y los telescopios espaciales Hubble y Spitzer formaron parte del grupo de instrumentos empleados en esta investigación. Asimismo, en esta campaña fue necesario utilizar dos radiotelescopios sofisticados (el de Muy Largo Alcance o Very Large Array -VLA- por su sigla en idioma inglés, ubicado en Socorro, Nuevo México, y la Red Multi-Elemento de Interferometría Radio Conectada o Multi-Element Radio Linked Interferometer Network -MERLIN- por su sigla en idioma inglés, en el Reino Unido).
Una mancha brillante observada en las imágenes recogidas por ambos radiotelescopios indica el lugar donde el chorro golpeó el lado de la galaxia, disipando de este modo parte de su energía. El golpe afectó y desvió el chorro.
Una característica especial del descubrimiento en el sistema galáctico binario 3C321 es la corta duración de este acontecimiento a escalas de tiempo cósmicas. Algunos detalles observados en las imágenes producidas con el VLA y con el observatorio Chandra indican que el chorro comenzó a impactar contra la galaxia hace aproximadamente un millón de años, lo cual representa una pequeña fracción de la vida del sistema.
Es posible que este acontecimiento no signifique malas noticias para la asediada galaxia. La enorme cantidad de energía y de radiación que ingresa proveniente del chorro podría provocar la formación de una gran cantidad de estrellas y de planetas luego de que su estela inicial de destrucción haya finalizado. En un futuro lejano, dicen los investigadores, sistemas enteros de estrellas nuevas podrían tener que agradecer su propia existencia a este mortífero chorro.

jueves, agosto 23, 2007

De Zorrillos y Telescopios: Encuentros Cercanos de "Tipo Brusco"

El Telescopio Espacial James Webb será el más grande jamás construido. Su éxito requiere de trabajo incesante, día y noche, siete días a la semana, hasta la fecha de su lanzamiento, en el año 2013.


Agosto 10, 2007: El camino hacia el Centro Marshall para Vuelos Espaciales es muy oscuro a las 3.30 de la madrugada. No hay iluminación urbana ni edificios en este largo camino rural. Solamente los ojos resplandecientes de los zorrillos y de los mapaches asoman entre el denso follaje de pinos. Una vez que se llega al complejo Marshall, los edificios también están oscuros, excepto uno de ellos —la Planta de Calibración de Rayos X (X-Ray Calibration Facility o XRCF, en idioma inglés). Aquí, las luces permanecen encendidas toda la noche y algunas personas la consideran su hogar.
Barry Hale (técnico principal) y Jay Carpenter (ingeniero de planta) están trabajando en el turno de la noche. Al menos dos personas deben atender estas instalaciones todas las noches, monitoreando pantallas en un largo panel ubicado en el cuarto de control. Doce personas han alternado turnos las 24 horas del día, los siete días de la semana, desde finales del mes de mayo.
"¿Por qué todas estas personas se han convertido en seres noctámbulos?" Porque el éxito del próximo gran telescopio espacial de la NASA depende de ello: "Estamos probando el Telescopio Espacial James Webb (James Webb Space Telescope o JWST, en idioma inglés)", explica Jeff Kegley, jefe del equipo en la XRCF.
Derecha: Concepto artístico del Telescopio Espacial James Webb. [Imagen ampliada] [Portal del JWST]
Programado para ser lanzado en 2013, el telescopio Webb es ampliamente reconocido como el telescopio más importante de la próxima década. Es un telescopio infrarrojo, lo cual significa que puede detectar el calor de las estrellas y de las galaxias localizadas a millones, e incluso a miles de millones, de años luz de distancia. Para captar esas increíblemente débiles señales de calor, se debe mantener al telescopio extraordinariamente frío —y es por eso que todos permanecen observando los monitores.
El telescopio Webb operará en el espacio a una temperatura de -238 grados Celsius (-396 grados Fahrenheit). Un frío tan extremo puede hacer que las estructuras y los espejos del telescopio cambien de forma. Con el fin de evitar que eso suceda, el telescopio está siendo probado en la XRCF, pieza por pieza, dentro de una cámara de vacío que simula el frío extremo del espacio. Los resultados revelan cualquier distorsión que ocurra en los componentes, de modo que se puedan efectuar cambios, si fuera necesario.
Pero hay muchas más cosas que se deben hacer durante los turnos de la noche, no solamente observar monitores con datos de prueba en el panel de control. Como la mayoría del personal nocturno, Hale y Carpenter hacen "rondas". Estas rondas incluyen salir a revisar la "granja de nitrógeno", donde monumentales tanques blancos de nitrógeno líquido yacen en la oscuridad como vacas lecheras en una pastura. Se usa el nitrógeno para enfriar la cámara de vacío donde se prueban los componentes y los hombres revisan que no haya fugas en los tanques, todas las noches.
Hale y Carpenter también han visto algunos animales verdaderos en la granja. Una noche, Hale tuvo un encuentro cercano de "tipo brusco" con un zorrillo —lo cual da un nuevo significado al concepto de hacer "trabajo de zorrillo".
Arriba: Escenas de la XRCF, de izquierda a derecha: (1) De día, el camino que lleva a las instalaciones donde se realizan las pruebas; (2) El noctámbulo Dr. Joseph Geary controla las pruebas de datos; (3) El portal de la cámara de pruebas; (4) Barry Hale en el panel de control de la XRCF; (5) Jay Carpenter da un paseo por la granja de nitrógeno al amanecer. Haga clic en los números que están entre paréntesis para ver imágenes ampliadas.
Al hacer estas "peligrosas" rondas de vigilancia, y al observar las pantallas del cuarto de control, el equipo del turno de la noche se asegura que las presiones de los equipos, las tasas de flujo, las temperaturas y las posiciones de las válvulas permanezcan en los rangos apropiados para las pruebas. Ellos también manipulan los sistemas de refrigeración de helio, la presión de la cámara de vacío y las zonas de nitrógeno líquido para que la cámara de vacío mantenga el artículo de prueba dentro un perfil particular de pruebas.
"El artículo de prueba para esta noche es una sección de la 'Caja para el Pan', del ISIM", dice Carpenter. "Así le decimos a la estructura de soporte del Módulo de Instrumental Científico Integrado (Integrated Science Instrument Module, en idioma inglés) que sostiene a los cuatro instrumentos científicos principales del telescopio". (Los nombres de los instrumentos son: el Instrumento para el Infrarrojo Medio, la Cámara para el Infrarrojo Cercano, el Espectrómetro para el Infrarrojo Cercano y el Sensor de Guiado Fino.)
Derecha: La cámara criogénica de vacío en la XRCF donde los componentes del Telescopio James Webb están siendo puestos a prueba. [Imagen ampliada]
Mientras la "Caja para el Pan", ubicada en la cámara de pruebas, soporta una transición de la temperatura, de temperatura ambiente a -233 grados Celsius (-387 grados Farenheit), un Interferómetro Electrónico de Patrón de Manchas mide ópticamente la distorsión estructural. No, no se trata de una extraña salamandra, sino de un raro instrumento. "Este es uno de los dos únicos interferómetros de mancha con desplazamiento instantáneo de fase", dice Joseph Geary, de la Universidad de Alabama, en Huntsville, quien, por cierto, también trabaja precisamente hoy en el turno de la noche. El interferómetro se está utilizando para detectar distorsiones térmicas de apenas unos cuantos nanómetros (un nanómetro es una mil millonésima de metro) en la "Caja para el Pan".
En unos cuantos días, después de que terminen las pruebas de la "Caja para el Pan", el personal reconfigurará las instalaciones para hacer las pruebas de verificación de los espejos segmentados. El telescopio Webb está compuesto por 18 espejos individuales que conformarán un grupo de espejos de 6,5 metros de diámetro. En la primavera, los ingenieros comenzarán a hacer pruebas relacionadas con la calidad de la óptica de cada espejo segmentado. Las pruebas, que se llevan a cabo las 24 horas del día, continuarán hasta el año 2010. Son muchas pruebas, muchos turnos de noche y muchos zorrillos.
Carpenter comenta que a él realmente no le importa trabajar por las noches, pero dice que "es un poco difícil para mi familia permanecer en silencio durante el día para que yo pueda dormir. Mi nieta quiere jugar, pero no se le permite tocar a mi puerta. Es un poco arduo para mí también".
Kegley dice que a él le gusta trabajar en el turno de la noche ocasionalmente porque es una buena oportunidad para adelantar trabajo. "No hay tantas llamadas ni correos electrónicos que te interrumpan a las 3 de la madrugada".

sábado, agosto 18, 2007

Todo sobre el sismo

En esta página encontraras explicado de forma didáctica los fenomenos ocurridos recientemente en nuestro pais.
http://estaticos.elmundo.es/elmundo/2003/graficos/jun/s2/terremotos_1.swf

Vallejinos cubren cerca de 85% de vacantes en el examen de la UNI

Daniel Soncco Huarsaya, un destacado estudiante de la academia César Vallejo, integrante de los seleccionados nacionales de Matemática, obtuvo el primer lugar en el cómputo general del examen de admisión 2007-II de la Universidad Nacional de Ingeniería. Junto a sus compañeros de estudios han logrado cubrir alrededor del 85% de las vacantes ofrecidas en el presente examen (ordinarios).
Soncco Huarsaya, natural de Puno vino a Lima hace cuatro años después de campeonar en el Concurso Nacional de Matemática César Vallejo 2003 (CONAMAT). Desde entonces la Sociedad Matemática Peruana lo incluyó en las delegaciones nacionales que nos han representado en las diferentes Olimpiadas internacionales realizadas entre los años 2004 y 2007.
El cómputo general ingresó a la Facultad de Matemática de la UNI con 17.90 de nota, habiendo obtenido nota perfecta (20) en la prueba de Matemática. El segundo puesto, lo ocupó su compañero de estudios Fredy Ochoa Roldán de 17 años, quien ingresó a la Facultad de Ingeniería Económica con 17.70 de nota. Ambos jóvenes realizaron su preparación pre universitaria en la academia César Vallejo.
Los estudiantes del mencionado centro de estudios han demostrado en el último examen del año de la UNI contar con un alto nivel académico que les ha permitido figurar entre los primeros lugares y cubrir cerca del 85% de las vacantes, en la modalidad ordinarios.
En total fueron 3615 postulantes los que rindieron el examen de admisión 2007-II de la UNI en sus diversas modalidades. De ellas se ofrecieron 797 vacantes para 26 carreras de las cuales las más solicitadas fueron: Ingeniería Civil, Ingeniería de Sistemas, Ingeniería Industrial, Mecatrónica, entre otras.
La academia César Vallejo felicita a los ingresantes y a sus padres por el logró alcanzado; asimismo reitera su compromiso a la comunidad estudiantil de brindar una preparación de calidad que los impulse al estudio y la investigación.

Llegó a su fin el proceso de admisión de la UNI. La lista de ingresantes se encuentra publicado en la web de la universidad.

Soncco Huarsaya, junto a los miembros del rectorado.
Los vallejinos que ocuparon los primeros lugares celebran su hazaña.

lunes, junio 04, 2007

El Principio de Equivalencia

Ya se están preparando experimentos en el espacio para poder determinar variaciones en el Principio de Equivalencia, uno de los pilares de la física.
Mayo 18, 2007: Parado sobre la Luna, en 1971, el astronauta Dave Scott, del Apolo 15, tomó un martillo en una mano y una pluma en la otra y los colocó a la altura de sus hombros. Después, mientras el mundo veía la trasmisión en vivo a través de la televisión, los soltó.
Fue una imagen inusual: la pluma no se balanceó al caer, sino que lo hizo abruptamente, tan rápido como el martillo. Sin la resistencia del aire para detener la pluma, ambos objetos llegaron al suelo lunar al mismo tiempo.
Derecha: El astronauta Dave Scott deja caer una pluma y un martillo en la Luna. [Video] [Transcripcción de la grabación]
"¡Vaya, vaya!", exclamó Scott. "El Sr. Galileo tenía razón".
Scott se refería a un famoso experiemento del siglo XVI. Según quién cuente la historia, se dice que Galileo Galilei dejó caer balas desde la parte más alta de la Torre Inclinada de Pisa o que hizo rodar las balas sobre planos inclinados en su casa. De cualquier forma, el resultado fue el mismo: Aunque las balas estaban hechas de diferentes materiales, todas llegaron al piso al mismo tiempo.
En la actualidad, a esto se lo conoce como el "Principio de Equivalencia". La gravedad acelera todos los objetos de igual manera, independientemente del valor de sus masas o de los materiales con los cuales están constituidos. A esto se lo considera una piedra angular de la física moderna.
Pero, ¿qué tal si el Principio de Equivalencia (EP, por su sigla en inglés) está equivocado?
Los experimentos de Galileo tenían una precisión de sólo el 1%, lo cual deja lugar a dudas. Desde entonces, algunos físicos escépticos han realizado experimentos para poner a prueba el EP. Los mejores límites modernos, basados, por ejemplo, en el cálculo con láser de la distancia Tierra-Luna, y destinados a medir la velocidad con la que dicho láser cae a la Tierra, muestran que el EP se mantiene dentro de un margen de unas pocas partes en un billón (1012). Esto es fantásticamente preciso; sin embargo, existe la posibilidad de que el Principio de Equivalencia pueda fallar en un nivel algo más imperceptible.
"Es una posibilidad que debemos investigar", dice el físico Clifford Will, de la Universidad de Washington, en St. Louis, Missouri. "Descubrir siquiera la más mínima diferencia de cómo actúa la gravedad en objetos de diferentes materiales tendría grandes implicancias".
De hecho, podría mostrar la primera evidencia sólida de la teoría de cuerdas. De manera elegante, la teoría de cuerdas presenta a las partículas fundamentales como diferentes tipos de vibración que pueden tener cuerdas infinitesimales, resolviendo de esta manera muchos problemas que persisten en la física moderna. Pero la teoría de cuerdas es muy controvertida, en parte porque la mayoría de sus predicciones son virtualmente imposibles de verificar con experimentos. Si no es posible poner algo a prueba, entonces no es ciencia.
El Principio de Equivalencia podría ofrecer una manera de poner a prueba la teoría de cuerdas.
"Algunas variantes de la teoría de cuerdas predicen la existencia de una fuerza muy débil que haría que la fuerza de gravedad fuera ligeramente distinta dependiendo de la composición del objeto sobre el que actuara", comenta Will. "Hallar una variación en la fuerza de gravedad para diferentes materiales no probaría inmediatamente que la teoría de cuerdas es correcta, pero proporcionaría una 'dosis' de evidencia a su favor".
Derecha: Pruebas modernas del Principio de Equivalencia. La figura está basada en un diagrama similar de un artículo de revisión de Physics World. [Más información]
Esta nueva faceta de la gravedad, si es que existe, sería tan asombrosamente débil que tratar de detectarla representa un gran reto. La gravedad en sí es una fuerza relativamente débil -es un billón de billones de billones (1036) de veces más débil que la fuerza electromagnética. Los físicos teóricos piensan que la nueva fuerza sería, al menos, 10 billones (1013) de veces más débil que la gravedad.
Así como el magnetismo actúa sobre objetos hechos de hierro pero no en aquellos de plástico, la nueva fuerza no afectaría a toda la materia de igual forma. La atracción de la fuerza variaría según el material con que esté hecho el objeto.
Por ejemplo, algunas versiones de la teoría de cuerdas sugieren que esta nueva fuerza interactuaría con la energía electromagnética del material. Dos átomos que tienen la misma masa pueden tener diferentes cantidades de energía electromagnética si, por ejemplo, uno de ellos tiene más protones, los cuales poseen carga eléctrica, mientras que el otro tiene más neutrones, que no poseen carga eléctrica. La gravedad tradicional atraería a ambos átomos de igual forma, pero si la gravedad incluye esta nueva fuerza, la atracción sobre estos dos átomos sería levemente distinta.
Hasta la fecha, ningún experimento ha detectado esta pequeña diferencia. Pero ahora tres grupos de científicos están proponiendo misiones espaciales que buscarían este efecto con una sensibilidad superior a cualquier otra que se haya registrado.
"Lo que se quiere hacer es tomar dos masas de prueba compuestas por diferentes materiales y buscar pequeñas diferencias en la velocidad a la que caen", comenta Will. "En la Tierra, un objeto solamente puede caer por un periodo muy corto antes de llegar al suelo. Pero un objeto en órbita está cayendo literalmente alrededor de la Tierra, de manera que puede caer continuamente por un largo tiempo". Las pequeñas diferencias en la atracción de la gravedad se acumularían con el tiempo, tal vez aumentando lo suficiente como para que se las pueda detectar.
Una misión de prueba, llamada Prueba Satelital del Principio de Equivalencia (STEP, por su sigla en inglés), está siendo desarrollada por la Universidad de Stanford y un grupo internacional de colaboradores. STEP sería capaz de detectar una desviación del Principio de Equivalencia de apenas una parte en un millón de billones (1018). Esto es 100.000 veces más sensible que las mejores mediciones disponibles en la actualidad.
En el diseño de STEP se usan cuatro pares de masas en lugar de solamente un par. La redundancia sirve para asegurar que cualquier diferencia detectada en la forma en que caen las masas es realmente causada por una violación del Principio de Equivalencia, y no por alguna otra perturbación o imperfección en los equipos.
"Al tratar de medir un efecto tan pequeño, es necesario eliminar tantas perturbaciones externas como sea posible", explica Will. En el diseño de STEP, las masas de prueba se ubican dentro de un gran tanque de helio líquido para aislarlas de fluctuaciones externas de temperatura y se las rodea con una armadura superconductora con el fin de protegerlas de interferencias eléctricas y magnéticas. Los microactivadores contrarrestan los efectos de arrastre atmosférico en la órbita del satélite, haciendo que la caída libre de las masas sea casi perfecta.
En este ambiente tan bien regulado, cada par de masas de prueba debe permanecer perfectamente alineado con los demás mientras caen alrededor de la Tierra —esto siempre y cuando el Principio de Equivalencia se cumpla. Pero si este nuevo componente de la gravedad realmente existe, una masa caerá a una velocidad levemente distinta de la de su compañera, de modo que el par irá perdiendo ligeramente la alineación con el paso del tiempo.
Actualmente, STEP se encuentra en fase de desarrollo. Además, investigadores franceses están desarrollando otro experimento satelital, el Microsatélite Adaptado para la Observación del Principio de Equivalencia (MICROSCOPE, por su sigla en francés), el cual planean lanzar en 2010. MICROSCOPE, tendrá dos pares de masas de prueba en lugar de cuatro y podrá detectar desviaciones del Principio de Equivalencia tan pequeñas como una parte en mil billones (1015).
El tercer experimento es el satélite italiano Galileo Galilei ("GG", su nombre corto), que trabajará de manera muy similar a STEP y a MICROSCOPE, excepto que utilizará sólo un par de masas de prueba. Para mejorar su precisión, el satélite Galileo Galilei girará alrededor de su propio eje central con una velocidad de 2 rotaciones por segundo. De esta forma, si se produjeran alteraciones en el satélite, éstas actuarán en todas direcciones de igual manera, cancelándose entre sí. El experimento debe ser capaz de lograr una sensibilidad de una parte en cien mil billones (1017).
Es difícil afirmar que alguna de estas misiones podrá detectar alguna violación del Principio de Equivalencia. Will comenta que espera que los experimentos no hallen ninguna desviación, en parte porque hallar alguna sería una gran revolución para la física moderna. La teoría de cuerdas propone un rango de predicciones acerca de qué tan fuerte sería esta nueva fuerza, entonces es posible que el efecto sea tan pequeño que no pueda ser detectado incluso con intrumentos espaciales como estos.
Aun si no se encontrará desviación alguna, esto sería de gran ayuda: descartaría ciertas variantes de la teoría de cuerdas, lo que conduciría a los físicos hacia la correcta "Teoría del Todo". Sin embargo, encontrar una desviación, por pequeña que sea, sería un gran paso.

viernes, mayo 18, 2007

Ráfaga de Metano


La NASA probó recientemente una novedosa turbina para cohetes propulsada por metano, la cual podría convertirse en la tecnología clave para futuras exploraciones del sistema solar externo.

Mayo 4, 2007: El 16 de enero de 2006, una deslumbrante llama de color azul atravesó las arenas del desierto de Mojave. En muchos aspectos, parecía una prueba habitual de una turbina para cohetes, pero en este caso fue diferente. Mientras que la mayoría de los cohetes de la NASA usan hidrógeno y oxígeno líquido, o bien compuestos químicos sólidos, como combustible, "esta vez estamos probando una turbina propulsada por metano", dice la encargada del proyecto, Terri Tramel, del Centro Marshall para Vuelos Espaciales (MSFC, por su sigla en inglés).
Haga clic sobre la imagen para ver una película del evento:

Arriba: Encendido de prueba de una turbina propulsada por LOX/metano, con un empuje de 3400 kg. Crédito de la imagen: Mike Massee/XCOR Aerospace. [Comunicado de Prensa] [Película]
La turbina principal, construida y probada por el equipo de contratistas de la NASA, Alliant Techsystems y XCOR Aerospace, aún se encuentra en fase de desarrollo y, por lo tanto, no está lista todavía para ser llevada al espacio. Pero si se logra demostrar que esta tecnología es viable, las turbinas como esta, propulsadas con metano, podrían finalmente ser cruciales para la exploración del espacio profundo.
El metano (CH4) que es, por cierto, el principal componente del gas natural, abunda en las zonas exteriores del sistema solar. Se lo puede recolectar de Marte, de Titán, de Júpiter y de muchos otros planetas y lunas. Al tener la fuente de combustible en el punto de destino, un cohete que despegase de la Tierra no tendría que llevar tanto combustible a bordo, lo cual reduciría los costos de la misión.
En cierto modo, es curioso que este gas inflamable nunca antes haya sido usado para propulsar naves espaciales. Pero ahora los científicos e ingenieros del Centro Marshall, del Centro de Investigaciones Glenn y del Centro Espacial Johnson, están creando turbinas propulsadas por LOX/metano como opción para el futuro. "Ya se están desarrollando varios proyectos, dentro de los cuales se incluye otra turbina 'rival' que utiliza LOX/metano, diseñado por KT Engineering", comenta Tramel.
"Este proyecto está financiado por el Programa de la NASA para el Desarrollo de Tecnologías para Exploración (Exploration Technology Development Program) y demuestra cómo las tecnologías en desarrollo destinadas a la exploración podrían algún día ayudar en futuras misiones científicas", dice Mark D. Klem, encargado del Proyecto de Desarrollo Avanzado de Propulsión y Criogenia (Propulsion and Cryogenics Advanced Development Project), en el Centro de Investigaciones Glenn.
"El metano tiene muchas ventajas", continúa Tramel. "La pregunta es, ¿por qué no habíamos hecho esto antes?"
Tenga en cuenta lo siguiente: el combustible de hidrógeno líquido que utiliza el transbordador espacial debe ser almacenado a una temperatura de -252.9°C, ¡apenas 20 grados por encima del cero absoluto! El metano líquido, por otro lado, puede ser almacenado a una temperatura mucho más elevada: -161.6°C. Esto significa que los tanques de combustible de metano no necesitarían tanto aislamiento, lo que los tornaría más livianos y, en consecuencia, su lanzamiento sería más económico. Además, los tanques podrían ser más pequeños porque el metano líquido es más denso que el hidrógeno líquido, lo cual, nuevamente, se traduciría en un ahorro de dinero y de peso.
El metano también obtiene buenas califaciones en relación con la seguridad de los seres humanos. Mientras que algunos combustibles para cohete son potencialmente tóxicos, "el metano es uno de los llamados propulsantes verdes", dice Tramel. "A diferencia de otros combustibles que se usan en muchos vehículos espaciales, no es necesario colocarse un traje HAZMAT para trabajar con metano".
Pero el mayor atractivo de este gas es que existe o que puede ser creado u obtenido directamente de los muchos mundos que la NASA podría visitar algún día, incluido Marte.
Aunque Marte no es rico en metano, dicho gas puede ser fabricado en este planeta por medio del proceso Sabatier: mezclar dióxido de carbono (CO2) con hidrógeno (H) y luego calentar esta mezcla para producir CH4 y H20 (metano y agua). La atmósfera marciana es una fuente abundante de dióxido de carbono y la cantidad de hidrógeno que se requiere para el proceso descrito es relativamente pequeña, por lo que se puede transportar desde la Tierra o incluso se puede obtener in situ del hielo de Marte.
Si se viaja más hacia el exterior del sistema solar, el metano es incluso más fácil de obtener. En la luna Titán, del planeta Saturno, literalmente llueve metano líquido. Titán está salpicado de lagos y ríos de metano y otros hidrocarburos, que podrían algún día servir como depósitos de combustible. Imagínelo: un cohete propulsado por metano podría transportar una sonda robótica que aterrizara en la superficie de Titán, tomara muestras gelógicas, recargara sus tanques de combustible y despegara nuevamente para traer las muestras de regreso a la Tierra. Ese tipo de misión de recolección de muestras del sistema solar externo nunca se ha intentado.
Arriba: Esta imagen de radar en colores falsos muestra lo que los investigadores creen que son lagos de metano líquido en Titán. Crédito de la imagen: NASA/ESA/Cassini. [Más información]
Las atmósferas de Júpiter, Saturno, Urano y Neptuno contienen metano, y Plutón tiene hielo de metano en su superficie. Nuevos tipos de misiones hacia estos mundos podrían ser posibles con cohetes propulsados por este gas.
Esta primera serie de pruebas del encendido de turbinas de 3400 kg. de empuje, llevada a cabo en el desierto, fue un éxito. Pero aún se deben superar algunos retos antes de que los cohetes propulsados por metano puedan estar listos para ser utilizados en una misión real. "Uno de los grandes problemas en relación con el metano tiene que ver con su capacidad de ignición", dice Tramel. Algunos combustibles para cohetes se encienden espontáneamente cuando se mezclan con un oxidante, pero el metano, en cambio, requiere de una fuente de encendido. Es posible que estas fuentes sean difíciles de hacer funcionar en el sistema solar externo, donde las temperaturas descienden hasta cientos de grados bajo cero. Tramel y sus colegas de los centros Marshall y Glenn están actualmente trabajando para asegurar que se pueda encender el metano de los cohetes de manera confiable bajo cualquier tipo de condición ambiental.
Estos desafíos podrán ser superados mediante el esfuerzo continuo de la NASA, afirma Tramel, quien cree que las turbinas que utilizan LOX/metano serán usadas en los cohetes del futuro. La llama azul en el desierto fue un hermoso primer paso.

lunes, mayo 14, 2007

Relámpagos Nocivos

Científicos de la NASA utilizan modernos satélites para investigar la producción de gases tóxicos durante las tormentas eléctricas.
Abril 27, 2007: Los relámpagos son mucho más que luz y ruido: son una poderosa fábrica química que afecta tanto la calidad del aire en el ámbito local como el clima en todo el planeta. Pero ¿cuán poderoso es el efecto? Los investigadores todavía no están seguros. Para poder contestar esta pregunta, están desarrollando una nueva técnica que les permita estimar lo que produce esta "fábrica".
Si tienen éxito, el método será aplicado al Rastreador de Relámpagos Geoestacionario (GLM, por su sigla en inglés), el cual será utilizado para monitorear el hemisferio occidental desde un satélite de nueva generación diseñado para realizar estudios meteorológicos, cuyo lanzamiento está programado para 2014.
Derecha: Relámpagos sobre los Alpes Suizos. Crédito y derechos de reproducción: Olivier Staiger.
"Los químicos dedicados a las ciencias atmosféricas están muy interesados en localizar los gases que producen los relámpagos, en particular los óxidos de nitrógeno (NOx)", explica William Koshak, un investigador de relámpagos del Centro Marshall para Vuelos Espaciales, de la NASA. Los NOx incluyen el óxido nítrico (NO), un contaminante ambiental tóxico producido por los motores de los automóviles y por las centrales de energía, y el dióxido de nitrógeno (NO2), un gas venenoso color marrón-rojizo que produce un olor muy fuerte.
"Sabemos que los relámpagos son la fuente más importante de NOx en la troposfera alta, que es donde ocurren los fenómenos climatológicos", continúa Koshak. "Los NOx tienen una influencia indirecta sobre nuestro clima porque controlan, de manera parcial, la concentración de ozono (O3) y de radicales hidroxilo (OH) en la atmósfera. El ozono es un gas de invernadero importante y los OH son moléculas muy reactivas que controlan la oxidación de varios gases de invernadero".
Mientras que es posible cuantificar los contaminantes producidos por los automóviles y por la industria, los relámpagos son "comodines" dentro de los modelos relacionados con la calidad del aire en el ámbito regional y en el clima global porque es difícil recrear fielmente ciertas características importantes de los relámpagos —por ejemplo, su energía y el producto termoquímico de los NOx generados por un rayo. De modo que todavía se desconoce la tasa de producción global de NOx generados por los relámpagos, su valor oscila entre 2 y 20 teragramos por año (1 teragramo= 1 billón de gramos).
Abajo: La distribución de la caída de relámpagos. Cada relámpago produce una pequeña ráfaga de NOx que es insignificante pero que, sumada a las demás, puede llegar a reunir aproximadamente 20 billones de gramos por año, cuando se toma en consideración la cantidad acumulada en todo el mundo.

"Afortunadamente, las mediciones relacionadas con la química de la atmósfera, realizadas en el espacio utilizando el satélite Aura, de la NASA, permiten delimitar desde lo general la química del planeta y los modelos del clima", dice Koshak. "Con estos nuevos límites, el mejor cálculo que se ha podido efectuar hasta la fecha es un valor cercano a los 6 teragramos por año. Sin embargo, antes de poder confiar en estas estimaciones, tenemos que seguir trabajando para mejorar los modelos que simulan los relámpagos y otros procesos químicos".
Con el propósito de entender mejor la energía del relámpago —la cual constituye un parámetro fundamental en la producción de NOx— Koshak y sus colegas están utilizando datos proporcionados por el Sensor de Imágenes de Relámpagos (LIS, según su sigla en idioma inglés), abordo del satélite de la Misión para la Medición de Lluvias Tropicales (TRMM, en idioma inglés), y dos conjuntos de intrumentos en la Tierra, ubicados en el Centro Espacial Kennedy, de la NASA, en Florida. LIS es una cámara especial que utiliza un filtro espectral muy angosto, además de otras técnicas, para detectar las emisiones ópticas de los relámpagos, tanto durante el día como durante la noche. El filtro está centralizado en aproximadamente 777,4 nm, justo por debajo del límite del rojo profundo que puede detectar el ojo humano.
Los resultados de este estudio serán dados a conocer bajo el título Recuperación de la Carga de un Relámpago: reducción dimensional, límites LDAR y primera comparación con datos proporcionados por el satélite LIS (Lightning charge retrieval: dimensional reduction, LDAR constraints, and a first comparison with LIS satellite data). Este trabajo ha sido aceptado recientemente para su publicación en la Revista de Tecnología Atmosférica y Oceá

nica de la Sociedad Estadounidense de Meteorología (Journal of Atmospheric & Oceanic Technology of the American Meteorological Society). Sus co-autores son E. Philip Krider, Natalie Murray y Dennis Boccippio.
Derecha: Koshak y sus colegas utilizan los datos recolectados por el Sensor de Imágenes de Relámpagos (LIS), abordo del satélite de la Misión para la Medición de Lluvias Tropicales (TRMM), con el propósito de estudiar la producción de NOx de los relámpagos. [

TRMM] [LIS]
"La idea es investigar qué correlación puede existir entre las características ópticas de los relámpagos observados por LIS y las mediciones efectuadas en la Tierra, en el Centro Espacial Kennedy. Los sensores ubicados en nuestro planeta nos permiten explorar el interior de las nubes de tormenta para determinar la geometría de los canales de los relámpagos, las cargas que depositan los relámpagos y su energía. La clave es ver si las mediciones ópticas logradas desde el espacio pueden estar relacionadas con las cifras de la energía de los relámpagos calculadas con los equipos en la Tierra. Si esto fuera posible, se podrían usar sensores ubicados en el espacio para recuperar, de manera remota, la energía de un relámpago en una región más extensa del planeta", dice Koshak.
"Es una tarea extraordinaria y estos son sólo los datos preliminares", dice Koshak, refiriéndose al trabajo que será publicado próximamente. Una nube es un medio muy variable y, por lo tanto, dispersa la luz emitida por un relámpago de manera compleja. Los relámpagos repletos de energía, sumergidos en las profundidades de una nube de tormenta "ópticamente densa", podrían parecer relativamente tenues para un sensor ubicado en el espacio. Por otro lado, los relámpagos de escasa energía que tengan lugar cerca de la cima de una nube podrián parecer relativamente brillantes. Todas estas complejidades deben ser esclarecidas; éste es asunto intrincado.
En última instancia, lo que pretende Koshak es proveer una técnica que permita la utilización de datos del GLM para estimar el contenido de energía de los relámpagos. "En la práctica, lo haremos de manera estadística. Nos gustaría brindar a los científicos que recrean modelos de la química de la atmósfera una función realista de la distribución de la probabilidad relacionada con la energía de un relámpago para que puedan incorporarla a sus modelos y, de esta forma, lograr una mejor simulación de un relámpago (ya sea en la Tierra o en una nube)".
A partir de esto, los científicos comenzarán a comprender mejor los detalles relacionados con la producción global de uno de los contaminantes atmosféricos clave para el clima y la calidad del aire en el planeta.

Fantástico Sobrevuelo de Júpiter

Durante su paso por Júpiter, la nave espacial Nuevos Horizontes obtuvo datos e imágenes cuya belleza e importancia no tienen precedentes.

Mayo 1, 2007: La NASA dio a conocer una serie de impresionantes imágenes de Júpiter y sus lunas, tomadas por la sonda espacial Nuevos Horizontes (New Horizons). La serie de imágenes incluye una película de una erupción volcánica en la luna Io, del planeta Júpiter, así como también una toma nocturna de auroras y lava en Io, una fotografía en colores de la "Pequeña Mancha Roja" agitándose en las bandas nubosas superiores del planeta gigante, imágenes de pequeñas lunas amontonando polvo y rocas a través de los tenues anillos de Júpiter —y mucho más: Visite la galería completa.
"Estaremos analizando estos datos durante meses", dice Alan Stern, el Administrador Asociado del Directorio de la Misión e Investigador Principal del proyecto Nuevos Horizontes, en las oficinas centrales de la NASA. "Hemos obtenido un conjunto espectacular de productos científicos, así como también evocadoras imágenes".
Derecha: La luna Europa saliendo sobre el horizonte nuboso de Júpiter. Esta es una de las fotografías del conjunto de imágenes del sistema joviano que obtuvo la sonda espacial Nuevos Horizontes. En particular, estas imágenes fueron tomadas para propósitos artísticos, más que con fines científicos. [Más información]
El 28 de febrero, la nave Nuevos Horizontes pasó a 2.300 millones de kilómetros (1.400 millones de millas) de Júpiter, en una maniobra de asistencia gravitacional que tuvo el propósito de reducir en alrededor de tres años el tiempo total de viaje hasta Plutón. Durante varias semanas, antes y después de su mayor acercamiento, la nave robot, del tamaño de un piano, enfocó sus siete cámaras y sensores hacia Júpiter y hacia sus cuatro lunas más grandes; de este modo, registró datos de aproximadamente 700 observaciones en sus grabadoras digitales y envió esta información, de manera gradual, nuevamente hacia la Tierra. Hasta el momento, se ha recibido alrededor del 70 por ciento de un total de 34 gigabits de datos, transmitidos mediante las más poderosas antenas de NASA a través de un total de más de 970 millones de kilómetros (600 millones de millas).
Esta actividad confirmó el exitoso funcionamiento de los instrumentos y del software operativo que la nave utilizará en Plutón. "Además de preparar el terreno para nuestra llegada a Plutón, en 2015, el sobrevuelo de Júpiter fue una prueba de esfuerzo para nuestra nave y para nuestro equipo de trabajo, y ambos pasaron esta prueba con las mejores calificaciones", añade Stern.
Uno de los momentos más memorables del sobrevuelo fue cuando se logró el primer plano de la Pequeña Mancha Roja en colores:

Arriba: La "Pequeña Mancha Roja" de Júpiter. Crédito: Nuevos Horizontes. [ Más información]
Esta tormenta mide casi la mitad del tamaño de la Gran Mancha Roja de Júpiter y representa aproximadamente el 70 por ciento del diámetro de la Tierra. Se formó a finales de la década de 1990, cuando tres tormentas más pequeñas chocaron y se unieron. La tormenta combinada fue de color blancuzco al principio, pero hace poco más de un año comenzó a tornarse roja. Usando datos proporcionados por la nave Nuevos Horizontes, los científicos podrán buscar pistas sobre cómo se forman y por qué cambian de color estos grandes sistemas de tormentas.
"Esta es la mejor vista que se ha obtenido de las primeras etapas de una tormenta de esta índole", dijo Hal Weaver, científico del proyecto Nuevos Horizontes del Laboratorio de Física Aplicada (APL, por su sigla en inglés) de la Universidad Johns Hopkins, en Laurel, Maryland. El APL construyó, y actualmente opera, la sonda Nuevos Horizontes.
Desde varios ángulos y tipos de iluminación, la nave Nuevos Horizontes también obtuvo las imágenes más nítidas que se han logrado del sistema de los tenues anillos jovianos. En ellas, los científicos descubrieron una serie de inesperados arcos y grumos de polvo, que indican el reciente impacto de un objeto pequeño contra los anillos.
Derecha: Bandas muy bien definidas de material compuesto por rocas de tamaños que varían desde gravillas hasta cantos en los anillos de Júpiter, oscuros como el carbón. Crédito: Nuevos Horizontes. [Más información]
Las películas filmadas por la nave Nuevos Horizontes también permitieron lograr vistas inéditas de la dinámica de los anillos de Júpiter, con las pequeñas lunas interiores Metis y Adrastea, que parecen amontonar el material alrededor de los anillos. (Descienda hasta la mitad de esta página de internet para ver las películas).
"Estamos comenzando a ver que los anillos pueden evolucionar rápidamente, con cambios que se han podido detectar durante semanas y meses", dijo Jeff Moore, del equipo científico a cargo del encuentro de la nave Nuevos Horizontes con Júpiter, que trabaja en el Centro de Investigaciones Ames de la NASA, en Moffett Field, California. "Hemos visto fenómenos similares en los anillos de Saturno".
De las cuatro lunas más grandes de Júpiter, el equipo enfocó su atención en la volcánica Io, el cuerpo con más actividad geológica del sistema solar. Las cámaras de la nave Nuevos Horizontes capturaron depósitos de hirviente y brillante lava, esparcidos por toda la superficie de la luna, docenas de pequeñas manchas brillantes de gas y varias vistas fortuitas de un penacho de polvo con forma de sombrilla, iluminado por la luz del Sol, que se elevó desde el volcán Tvashtar aproximadamente 330 kilómetros hacia el espacio. Son las mejores imágenes que se han logrado hasta ahora de una erupción gigante en la torturada luna.

Arriba: Io de noche. En la imagen se pueden apreciar los puntos volcánicos calientes y un brillo auroral, producido como radiación intensa, cuando la magnetosfera joviana bombardea la atmósfera de Io. Crédito: Nuevos Horizontes. [Más información]
La sincronización y la posición de la trayectoria de la nave espacial permitieron también espiar muchas de los misteriosas depresiones circulares talladas en la luna helada Europa. Los datos sobre el tamaño, la profundidad y la distribución de estas depresiones, descubiertos por la misión Galileo durante su viaje en órbita alrededor de Júpiter, ayudarán a los científicos a determinar el espesor de la capa de hielo que cubre el océano de Europa.
Nuevos Horizontes es, hasta el momento, la nave espacial más veloz que se ha lanzado hacia el espacio; llegó a Júpiter en 13 meses, luego de despegar de la estación de la Fuerza Aérea de los Estados Unidos en Cabo Cañaveral, Florida, en enero de 2006. El sobrevuelo aceleró la nave 15.000 kilómetros más por hora, lo cual le permitió alcanzar una velocidad total superior a los 80.000 kilómetros por hora, y asimismo posibilitó planificar la llegada a Plutón para julio de 2015.
Derecha: El volcán Tvashtar en Io. Haga clic aquí para ver una película en dos cuadros del penacho en acción. [ Más información]
La cantidad de observaciones de Júpiter resultó ser, de hecho, el doble de las que se planearon hacer en Plutón. La nave Nuevos Horizontes realizó la mayoría de estas observaciones durante el máximo acercamiento al planeta, el cual fue guiado mediante más de 40.000 comandos independientes desde la computadora ubicada a bordo de la nave.
"Podemos realizar simulaciones y tomar imágenes de prueba de estrellas, y de este modo podemos saber que las cosas probablemente funcionarán bien al llegar a Plutón", dijo John Spencer, subdirector del equipo científico a cargo del encuentro de la nave Nuevos Horizontes con Júpiter, en el Southwest Research Institute (Instituto de Investigaciones del Suroeste), en Boulder, Colorado. "Pero el hecho de tener un planeta para observar y muchos datos para trabajar nos dice que la nave espacial y su equipo pueden hacer todas estas cosas tan fabulosas. Sin este sobrevuelo de Júpiter, que nos permitió optimizar el sistema y dejar volar nuestra imaginación, no hubiera sido posible explorar todas las capacidades de la nave".
Y habrá más: la nave Nuevos Horizontes realizará un vuelo sin precedentes por la larga cola magnética de Júpiter, donde analizará la intensidad de partículas cargadas por la energía solar, que fluyen a cientos de millones de kilómetros más allá del planeta gigante. ¡Manténgase informado!