Archivo de la categoría: Ciencia

Avances científicos, matemáticas, física, astronomía, biología.

Últimas imágenes de la misión Cassini-Huygens en Saturno

Las fotografías finales de la misión Cassini-Huygens en Saturno que ha publicado NASA Jet Propulsion Laboratory se tomaron hasta el 14 de septiembre de 2017, e incluyen imágenes de los satélites Titán, Encélado, además de una composición de Saturno y las divisiones de sus anillos. No se han captado fotografías durante el descenso en la atmósfera de Saturno en los momentos previos a la desintegración del orbitador el pasado 15 de septiembre de 2017 a las 11h55 UTC porque la velocidad de transmisión de información necesaria para enviar imágenes de buena definición es demasiado elevada, e impide mandar al mismo tiempo otros datos científicos valiosos que sí tomaron en cambio varios instrumentos relacionados con espectroscopía, análisis atmosférico y medición de campo magnético y gravitacional.

Imágenes de Saturno desde el orbitador Cassini septiembre 2017

Las señales de radio desde la antena de la sonda hasta la recepción tardan unos 83 minutos en atravesar algo más de 1.400 millones de kilómetros que separan el planeta Tierra de Saturno, por tanto, la reconfiguración para transmitir en tiempo real ya es de por sí complicada, antes de perder definitivamente señal a 10 grados latitud norte, a unos 1529 km por encima de la bruma de Saturno tras abrasarse por fricción en la atmósfera por descender a una velocidad fulgurante de 35 km/s con un ángulo de entrada de 15 grados. Las últimas imágenes no son por tanto, del día de su adiós definitivo por la prórroga otorgada a la misión Cassini-Huygens coincidiendo con el solsticio en Saturno, sino de la última semana hasta la víspera de la inmersión final.

En la última semana de vida del artefacto, el orbitador Cassini pudo modificar su trayectoria desde la órbita del satélite Titán para redirigirse hasta Saturno, tras un vuelo de pasada antes de hacer la última inmersión en la atmósfera de Saturno, cuando se desintegró en pocos segundos a pesar de que el artefacto tenía una masa de más de dos toneladas y media. Las miradas en la lejanía recuperadas desde antenas terrestres conforman grupos de imágenes con distinto nivel de detalle. Aquellas imágenes más recientes que todavía no están procesadas se muestran en escala de grises y apenas se distinguen brumas o un gran cuerpo en un enorme espacio negro, son denominadas Saturn raw images en las galerías ofrecidas NASA Jet Propulsion Laboratory. Más crudo que crudo, podría ser cualquier cosa.

Imágenes de Saturno desde el orbitador Cassini septiembre 2017

Se ha publicado una imagen animada de la puesta del satélite Encélado, donde se descubrieron aguas heladas subterráneas y actividad volcánica en forma de géiseres, antes de una pasada del orbitador Cassini entre el hueco de los anillos y Saturno.

Puesta de Encélado antes de la inmersión en la atmósfera de Saturno desde el orbitador Cassini septiembre 2017

Sin embargo, las imágenes tomadas entre los años 2004-2008 y antes de la última prórroga de la misión Cassini-Huygens, entre abril y septiembre de 2017 sí tienen más nivel de detalle como para resultar de interés a cualquier aficionado a la astrofísica. Se pueden distinguir las divisiones de los anillos de Saturno, cuya existencia -y al menos la separación A y B, con forma de cuña-, fue descubierta ya con telescopios de decenas de aumentos a mediados del siglo XVII. El orbitador Cassini ha amplificado los conocimientos que se tenían de Saturno como Juno lo hizo con Júpiter, dado que ha podido tomar imágenes de las distintas divisiones de anillos, calcular sus dimensiones, la longitud del espacio intermedio o los huecos entre ellos y la distancia entre los anillos y el planeta Saturno, analizar la composición, el campo magnético y gravitacional, e incluso observar en las imágenes que los anillos no tienen un aspecto rígido, compacto ni liso, sino que se producen ondulaciones y turbulencias.

Anillos de Saturno desde el orbitador Cassini 2017

Anillos de Saturno desde el orbitador Cassini 2017

Anillos de Saturno desde el orbitador Cassini 2017

Se observa un oleaje por su superficie por la acción gravitacional de los satélites naturales de Saturno que «pastorean» en su órbita los bordes de los anillos. Entre los anillos más difusos del interior hay desde pequeñas masas cósmicas que se desplazan de forma independiente, como Bleriot, un tirabuzón en el interior de los anillos de Saturno, que genera una apertura entre líneas, pero es demasiado pequeña como para convertirse en luna con órbita, hasta Daphnis, un satélite natural que se abre paso entre los anillos generando oleaje en los bordes, mientras hacia el extremo más alejado se dibujan mejor los anillos y sus láminas por estar cubiertos de hielo a temperaturas de -150 grados celsius.

Más videos en el canal de Youtube NASA Jet Propulsion Laboratory.

Póster conmemorativo de la misión Cassini-Huygens 2017
Inspirado en el díptico pop-art de Roy Lichtenstein, ‘Wham!’ de 1963, es uno de los pósters conmemorativos del Gran Final de la misión Cassini-Huygens realizado por la NASA.

Destello final de la misión aeroespacial Cassini-Huygens

Tras más de una década explorando Saturno, sus anillos y satélites naturales o lunas, la misión Cassini-Huygens realizó su último servicio antes de desintegrarse en la atmósfera gaseosa de Saturno, como Crono cuando devora a sus hijos. El heroico final, como el deinos en el antiguo drama musical griego que se autodestruye al término de la obra, sacrificándose tras su acción civilizadora, se preparó desde NASA Jet Propulsion Laboratory para el viernes 15 de septiembre de 2017, tras varias prórrogas en la misión desde el año 2008 durante el equinoccio de Saturno, cuando ya se iba agotando la energía propulsora, pero evitando que la destrucción del orbitador Cassini pudiera causar daños en las lunas de Saturno donde pueda haber microorganismos vivos, dado los elementos radioactivos del generador termoeléctrico de radioisótopos que actuaba como batería del orbitador. La misión internacional Cassini-Huygens ha terminado tras 13 años de exploración alrededor del planeta Saturno, descendiendo en su atmósfera a una velocidad de 35 km/s y con una inclinación de 15 grados, desintegrándose en las capas superiores a toda mecha. La pérdida de contacto tuvo lugar a las 11:55 UTC, según ha confirmado la NASA al recibir la última comunicación en la antena de Camberra, Australia, que captaba las señales de onda desde el espacio exterior.

misión Cassini-Huygens en Saturno
Ilustración de la nave Cassini de la NASA sobre el hemisferio norte de Saturno, dirigiéndose hacia su primera inmersión entre el planeta y sus anillos en abril de 2017.

«Este es el capítulo final de una misión asombrosa, pero también es un nuevo comienzo», declaró Thomas Zurbuchen, administrador asociado de la Dirección de Misión Científica de la NASA. «La detección por parte de la misión Cassini-Huygens de océanos y lagos subterráneos en Titán y Encélado cambió todo, dirigiendo nuestra mirada a lugares sorprendentes donde buscar vida potencial más allá de la Tierra».

Cassini-Huygens NASA Jet Propulsion LaboratoryEarl Maize, director del programa Cassini de la NASA en el Jet Propulsion Laboratory, y Julie Webster, gerente de operaciones de la misión Cassini-Huygens, junto a todo el equipo de la agencia aeroespacial estadounidense que trabajó en la última fase de la investigación y la inmersión final del orbitador en la atmósfera de Saturno donde se inmoló evitando dejar radiaciones sobre la superficie de las lunas. Fuente: NASA / Joel Kowsky.

Cassini-Huygens fue un programa internacional fruto de la cooperación entre la NASA (Administración Nacional de Aeronáutica y del Espacio de Estados Unidos), la ESA (Agencia Aeroespacial Europea) y la ASI (Agencia Aeroespacial Italiana), junto con investigadores, académicos e industriales de 19 países. La dirección de la última parte de la misión ha estado guiada por la agencia aeroespacial estadounidense, quien más presupuesto económico y recursos había puesto. El orbitador Cassini fue construido por la NASA / Jet Propulsion Laboratory, la sonda Huygens fue fabricada por la Agencia Espacial Europea (ESA), mientras que la Agencia Espacial Italiana se encargó de proporcionar la antena de comunicación de alta ganancia. El coste total de la misión Cassini-Huygens fue de 3260 millones de dólares, de los cuales Estados Unidos aportó 2600 millones, la Agencia Espacial Europea 500 millones y la Agencia Espacial Italiana 160 millones.

Entre abril y septiembre de 2017, cuando ya se estaba agotando la energía del generador termoeléctrico de radioisótopos y estaba planificada la terminación de la misión, el orbitador tuvo tiempo para seguir realizando vuelos de pasada e inmersiones semanales a través del espacio de 2.000 km que separa Saturno de sus anillos, aprovechando el final de la vida útil del artefacto para seguir estudiando Saturno lo más cerca posible. Ocho de los instrumentos del orbitador Cassini (CDA, analizador de polvo cósmico, CIRS, espectrómetro de luz infraroja, INMS, espectrómetro de masa neutral e iónica, MAG, magnetómetro dual, MIMI, instrumento de imagen magnetosférico, RPWS, instrumento de ondas de radio y plasma, RSS, subsistema radiotelescópico, UVIS, espectrógrafo ultravioleta) han recopilado datos durante la inmersión final en Saturno, transmitiéndolos a la Tierra con poco desfase temporal. Las señales de radio tardan unos 83 minutos en atravesar los 1.400 millones de kilómetros que separan el planeta Tierra de Saturno. Justo antes de la inmersión abrasiva que desintegró el orbitador, estos instrumentos dedicados a la medición del campo electromagnético, el plasma, el gas y las partículas de los anillos han estado operativos porque este final ofrece, según Nicolas Altobelli, científico de proyecto de la Agencia Aeroespacial Europea en la misión Cassini-Huygens, “una oportunidad única para medir con detalle los campos magnético y gravitatorio de Saturno, lo que ayudará a entender mejor su estructura interna”.

Aún con todos los hallazgos entregados desde que la aeronave no tripulada llegara a Saturno en el año 2004 y comenzara a rastrear Titán mediante la sonda Huygens, quedan todavía incógnitas que resolver. Todavía no se ha determinado el grado de inclinación del campo magnético de Saturno con el eje de rotación del planeta, ni se ha aclarado la datación de Saturno, sus anillos y los satélites o lunas. El orbitador Cassini tomó mediciones de las partículas y la masa en los anillos para determinar si su formación es cronológicamente posterior al planeta.

misión Cassini-Huygens en Saturno
Ilustración de la nave Cassini de la NASA adentrándose el 15 de septiembre de 2017 en la atmósfera de Saturno. Fuente: NASA / JPL-Caltech.

“Cassini revolucionó nuestros conocimientos sobre Saturno en el momento en que llegó al planeta y ha continuado haciéndolo durante 13 años, hasta su último día”, aseguró Álvaro Giménez, director de ciencia de la Agencia Aeroespacial Europea.

“La misión nos ha inspirado con sus prodigiosas imágenes, incluyendo la lección de humildad que nos dan las vistas a lo largo de más de mil millones de kilómetros de distancia hasta el minúsculo punto azul que constituye nuestro planeta”, comenta Altobelli, alabando «este viaje pionero, que nos deja un rico legado de ciencia e ingeniería».

La aeronave no tripulada llevaba 12 instrumentos científicos en el orbitador Cassini y 6 instrumentos en la sonda Huygens, principalmente espectrómetros de mapeo por luz infrarroja y ultravioleta, sistemas de imagen, radio, instrumentos de medición de masa, estructura atmosférica, composición de partículas cósmicas e imagen magnetosférica, con los que investigadores de varios países en la misión aeroespacial Cassini-Huygens han logrado acumular imágenes, mediciones atmosféricas y nuevos cálculos de su campo magnético y gravitacional, como del periodo de rotación del planeta Saturno, las órbitas de sus satélites y hallazgos determinantes al mapear la superficie de Titán y la posibilidad de encontrar agua líquida en la luna Encélado.

Lanzada el 15 de octubre de 1997 desde Cabo Cañaveral al noreste de Florida, Estados Unidos, la aeronave Cassini-Huygens llegó a la órbita de Saturno el 30 de junio de 2004, separando la sonda que aterrizó en Titán el 14 de enero de 2005, convirtiéndose en la primera aeronave en aterrizar sobre un cuerpo celeste del sistema solar exterior. En Titán se analizó la presencia de gas metano y temperaturas gélidas de unos -180 grados Celsius. En Encélado se detectaron aguas subterráneas de extensión oceánica bajo la superficie helada y en su polo sur hay actividad volcánica con géiseres que expulsan chorros hacia la bruma.

La denominada Grand Finale supuso la última prórroga de la misión Cassini-Huygens para hacerla coincidir con el solsticio en Saturno, antes de decidir su final, valorando distintas opciones. Se descartó estrellar el orbitador en una trayectoria a través del plano ecuatorial del planeta, para evitar la colisión con las partículas de los anillos. Tampoco era viable estrellar el orbitador contra alguno de sus satélites naturales, como las lunas Titán y Encélado, dado que la propulsión que llevaba era energía nuclear, mediante generadores termoeléctricos de radioisótopos, que dejarían contaminación por residuos nucleares en la superficie donde podría haber microorganismos vivos por haber encontrado agua. Tras descartar dejar el artefacto aeronáutico en órbita estacionaria o hacerla salir de órbita para que se perdiera en el espacio exterior, se tomó la decisión de inmolarlo entre la atmósfera de Saturno y el anillo D, a través del espacio de 3800 kilómetros, precipitándose en su atmósfera el día 15 de septiembre de 2017 a las 11:55 UTC.

Explicación del terremoto en el istmo de Tehuantepec, México

De acuerdo con los sismógrafos y las mediciones del mecanismo focal del terremoto sucedido el pasado 7 de septiembre de 2017 frente a la costa de Chiapas, México, en el golfo de Tehuantepec a unos cien kilómetros de Pijijiapan, el deslizamiento se produjo tanto en una falla que se sumerge ligeramente hacia el suroeste, o en una falla de inmersión pronunciada que empuja la zona sureste. En la ubicación de este suceso sísmico, la placa de Cocos converge con América del Norte a una velocidad de aproximadamente 76 milímetros al año, en dirección noreste. La placa de Cocos comienza su subducción debajo de América Central en la fosa oceánica a unos 100 kilómetros al suroeste del epicentro de este terremoto que ha sacudido principalmente los Estados mexicanos de Chiapas y Oaxaca. La ubicación, la profundidad y el mecanismo de falla normal de este terremoto indican que es probable que fuera un evento intraplaca, una fractura dentro de la placa de Cocos subductiva, en lugar de ocurrir en la línea divisoria entre dos placas tectónicas, o en la interfase limítrofe de la placa de empuje menos profunda.

Terremoto del 7 de septiembre de 2017, epicentro en la costa sureste de México a unos cien kilómetros de Pijijiapan
Mapa en USGS National Earthquake Information Center del terremoto del 7 de septiembre de 2017, epicentro en el golfo de Tehuantepec, frente a la costa de Chiapas, México.

Aunque comúnmente se representan como puntos con ondas expansivas en los mapas, los terremotos de este tipo se describen más apropiadamente como deslizamiento sobre un área de una falla tectónica más grande. Los eventos de falla normal como el terremoto ocurrido en la medianoche del 7 al 8 de septiembre de 2017 son típicamente deslizamientos en la superficie intermedia terrestre, en un espacio de alrededor de 200 x 50 km (longitud x anchura).

La información preliminar y el análisis proporcionado sobre el seísmo por USGS National Earthquake Information Center, no diferían excesivamente del informe publicado por el Servicio Sismológico Nacional de la Universidad Nacional Autónoma de México, accesible en PDF. La magnitud del seísmo se estimó entre 8.1 y 8.4, en las coordenadas 14.85 latitud N y -94.11 longitud W, con epicentro a 87 kilómetros de Pijijiapan según USGS NEIC, aunque el SSN estimó la distancia en 133 km al suroeste de Pijijiapan. La profundidad en la placa tectónica de Cocos donde se produjo el deslizamiento o la fractura intraplaca, fue de 69.7 km según USGS, y de 58 km según el SSN. Ambos coinciden en que el mecanismo focal del terremoto muestra una falla de tipo normal (rumbo=311, echado=84.4, desplazamiento=-94.7), la cual es característica de un seísmo intraplaca. En esta región la Placa de Cocos subduce por debajo de la placa de Norteamérica.

De acuerdo con José Jesús Martínez Díaz, profesor el departamento de Geodinámica de la facultad de ciencias geológicas de la Universidad Complutense, en el artículo publicado en el diario El País, en la peligrosidad sísmica No solo cuenta la magnitud, sino también otros datos geológicos estructurales.

La magnitud de este terremoto es muy similar a la del devastador sismo de México de 1985 que provocó miles de muertos y cientos de miles de desplazados, cifras afortunadamente muy distintas a las que se esperan del terremoto acaecido la noche de este jueves, de magnitud igual o superior. Y es que la magnitud no determina por sí sola el potencial destructor de un sismo. Además del grado de preparación de las construcciones en México, que es elevado en comparación con otros países de la región, las características geológicas del terremoto van a condicionar la capacidad destructora del mismo.

Todo sismo de origen tectónico, como el aquí tratado, se produce por la rotura a lo largo de un gran plano de fractura, 200 x 50 km (longitud x anchura), de modo que las características geológicas y su localización, combinadas con su tamaño, es decir su magnitud, van a condicionar tanto la duración como la intensidad de la sacudida del suelo, que a la postre son los responsables de los daños. El terremoto ocurrido en la medianoche del jueves 7 de septiembre de 2017 se ha producido en la zona de subducción que limita las placas litosféricas de El Coco y la Norteamericana, es decir en la zona donde la primera desliza y se sumerge bajo la segunda.

Los grandes terremotos destructivos como el del año 1985 en México o los que se suelen producir en la costa de Chile se generan en los primeros 15 a 30 kilómetros de profundidad, en la zona donde las dos placas friccionan y generan terremotos que en geología se denominan de falla inversa. Al ser eventos más superficiales, la energía en forma de aceleración de sacudida del suelo es muy elevada y a ello se suma que la cantidad de desplazamiento del fondo marino es mayor y por tanto también el tamaño de los tsunamis que alcanzan la costa con su oleaje.

En otras ocasiones, como es el caso del terremoto ocurrido el pasado 7 de septiembre de 2017 en el golfo Tehuantepec, en lugar de deslizar la zona de fricción en la división de las dos placas, la placa que «subduce», la placa de Cocos se desliza bajo la placa de Norteamérica, debido a la flexión que sufre al deslizarse hacia abajo y al efecto de su propio peso, la tensión acumulada hace que literalmente se parta a lo largo de un plano de rotura bastante vertical y a más profundidad.

En el caso que nos ocupa, la rotura se ha producido a más de 60 kilómetros de profundidad, con una geometría que denominamos de falla normal. En estos casos, aunque la magnitud sea la misma, de más de 8 en la escala Richter, la energía que llega a la superficie es menor y el desplazamiento del fondo marino también. Esto explica por qué uno de los mayores terremotos de falla normal jamás registrado por los sismógrafos hasta la fecha haya inducido unos daños limitados, si los comparamos con otros eventos de igual magnitud ocurridos en el pasado.

Placa de Cocos subducción bajo placa Norteamericana

Un artículo de investigación publicado el pasado 9 de septiembre en la revista científica Nature: Deadly Mexico earthquake had unusual cause, abunda sobre lo anteriormente explicado. La causa inusual, de acuerdo con US Geological Survey, incide en que el temblor se originó por una fractura tectónica dentro de la placa de Cocos y no en el límite de la placa de Cocos con la Norteamericana, donde la primera se desliza bajo la segunda.

“Los seísmos de una magnitud de 8+ no son comunes en zonas tectónicas limítrofes de subducción, el mecanismo de falla normal no produce terremotos con daños tan masivos” apunta Jascha Polet, sismóloga de la Universidad Politécnica del Estado de California en Pomona. El terremoto que afectó a los municipios del istmo de Tehuantepec fue diferente y se originó como fractura tectónica o deslizamiento dentro de la placa de Cocos en su movimiento al sumergirse gradualmente bajo la placa Norteamericana, no en el límite de fricción entre ambas placas tectónicas.

Compromisos del IUCN para la biodiversidad hasta 2020

El Congreso Mundial para la Conservación de la Naturaleza celebrado por la IUCN en Hawái culminó con la propuesta de la agenda de medidas para los próximos cuatro años, recogida en el documento Navigating Island Earth, que se basa en las deliberaciones de los pasados días entre representantes de 192 países y la votación de los sucesores en los puestos de Presidencia -donde Zhang Xinsheng fue elegido para un segundo mandato-, Tesorería, Comisiones donde se establecen competencias como la conservación de especies o las propuestas de leyes medioambientales y los Consejeros que actúan como embajadores de la IUCN en ocho regiones -África, América del Sur y Central, Norteamérica y el Caribe, Sudeste Asiático, Asia central, Asia occidental, Oceanía, Europa del este, Europa occidental- para el periodo 2016 – 2020. El próximo Congreso Mundial de la Naturaleza se llevará a cabo en el año 2020.

La agenda de sostenibilidad global para la conservación de la biodiversidad incluye la importancia de vincular la espiritualidad, la religión, la cultura de las comunidades locales a la conservación de la naturaleza, y la necesidad de implementar soluciones basadas en la biomimesis para proteger los ecosistemas, al tiempo que se afrontan con eficacia los retos sociales, tales como la seguridad alimentaria y el acceso al agua potable, detener el cambio climático, la reducción del riesgo de desastres medioambientales como los seísmos, ciclones o tsunamis, que en definitiva revierten en la salud humana y el bienestar económico.

Respecto a la extensión de áreas de conservación o reservas naturales por parte de los gobiernos de distintos países, Obama aseguró que se expandirá el área dedicada al Monumento Nacional Marino Papahānaumokuākea, escenario para el Congreso de la UICN. El gobernador Ige de Hawái se comprometió a proteger el 30% de los bosques más altos de las cuencas hidrográficas prioritarias de Hawái, gestionar eficazmente el 30% de las aguas cercanas a la costa de Hawái para el año 2030, duplicar la producción local de alimentos y emplear un 100% de energías renovables en el sector eléctrico para el año 2045. Colombia anunció que cuadruplicaría la extensión del santuario de fauna y flora de Malpelo alcanzando 27.000 km2. El Congreso de la UICN también adquirió nuevos compromisos sumándose a la iniciativa Desafío de Bonn para restaurar 150 millones de hectáreas de tierras degradadas y deforestadas hacia 2020, con la meta de 350 millones de hectáreas para el año 2030. Con la adhesión de Malawi y Guatemala al reto de la comunidad internacional, ya se han superado los 113 millones de hectáreas, en un pacto realizado por 36 gobiernos, organizaciones y empresas.

Los miembros de la Unión Internacional por la Conservación de la Naturaleza (IUCN) urgieron a los diferentes gobiernos que cierren los mercados de sus países al tráfico de marfil, procedente de la caza furtiva de elefantes, que pone en riesgo tanto la supervivencia de la especie en peligro como supone daños a los ecosistemas de la sabana y las selvas de África subsahariana, así como los vigilantes de las reservas que se enfrentan a los cazadores furtivos. También se señaló la necesidad de colaboración internacional para trazar las rutas de tráfico ilegal de lana de las vicuñas del altiplano andino. Los nativos americanos que poblaban el altiplano de los Andes valoraban las fibras de la lana de vicuña desde tiempos anteriores al imperio inca y la llegada de invasores coloniales. Las primeras leyes de conservación de las vicuñas para limitar la caza fueron promulgadas por Simón Bolívar, sin embargo hasta la segunda mitad del siglo XX no se ha aprobado un marco legal que controle las exportaciones de la codiciada fibra de vicuña.

Otro de los compromisos importantes para frenar la caza furtiva hacia el año 2020, particularmente en Sudáfrica es prohibir la caza de leones criados en cautividad y dispuestos a turistas sin escrúpulos en zonas cercadas donde el animal no puede escapar, una práctica lamentable denominada «canned shooting». Según una investigación publicada por el diario británico Daily Mail en agosto del pasado año, The horror of ‘canned lions’: Undercover investigation reveals how majestic beasts are being bred like ‘farmyard chickens’ just so hunters can choose which animal they want to kill for £31,000 from a catalogue, se trata de un negocio ilegal que atrae a turistas que previamente han seleccionado en un catálogo el león que desean abatir, después costean el viaje a Sudáfrica para la repugnante cacería donde matar a uno de esos leones criados en cautividad y encerrados en una finca vallada. Una práctica que ya había sido alertada cuando Cecil, un león de Hwange National Park en Zimbabwe fue abatido como trofeo por un turista estadounidense, Walter Palmer, dentista de Minnesota. El funcionamiento de dicho negocio turístico que explota la vanidad y la arrogancia de extranjeros ricos a costa de instrumentalizar a especies protegidas, está investigado en la web cannedlion.org.

IUCN para la biodiversidad

Poblaciones indígenas

Los miembros de IUCN acordaron crear una categoría para organizaciones de pueblos indígenas, dando respaldo a sus derechos en la comunidad internacional. “La decisión de crear un lugar específico para los pueblos indígenas marca un paso importante para lograr un uso equitativo y sostenible de los recursos naturales”, declaró Inger Andersen. “Los pueblos indígenas son custodios de la biodiversidad del mundo. Al darles la oportunidad crucial de ser escuchados en la comunidad internacional, hacemos nuestra Unión más fuerte, más inclusiva y más democrática.”

“Para las poblaciones indígenas es una oportunidad de contribuir a las normativas globales de conservación biocultural, aportando conocimiento tradición a la futura dirección de la conservación de la diversidad.”

Los miembros de IUCN también han acordado que las áreas de conservación de la naturaleza sean consideradas como zonas vetadas para actividades industriales que dañen el medioambiente, como la minería, la extracción de petroleo y gas, la industria del aceite de palma, o desarrollo de infraestructuras, como las presas, carreteras y oleoductos. Destacando la necesidad de respetar los derechos de las comunidades indígenas para asegurar su libre, previo e informado consentimiento en relación a cualquier actividad en emplazamientos naturales sagrados y territorios protegidos por poblaciones indígenas y comunidades locales, especialmente las forestaciones primarias, parajes boscosos que nunca han sido explotados, transformados técnicamente o alterados directa o indirectamente por el hombre.

IUCN para la biodiversidad

La naturaleza como capital

Los miembros de IUCN acordaron definir una política relativa al capital natural, tomando en cuenta cuestiones ecológicas, éticas y de justicia social. Se destacó la emergencia de normativas que promuevan la integración de valores ecologistas en la toma de decisiones de empresas e instituciones financieras, como ocurrió en los últimos años con las protestas de grupos ecologistas a las entidades bancarias que financiaban a las empresas que construían oleoductos forzando a las ballenas grises y ballenas jorobadas a desplazarse desde sus hábitats en el Pacífico.

El texto completo con todas las medidas y compromisos adoptados en el congreso de IUCN para la conservación de la biodiversidad en el periodo de 2016 a 2020 se puede leer en IUCN.org, así como el documento con los Compromisos de Hawái.

Congreso Mundial por la Naturaleza 2016 en Honolulú, Hawái

Desde el 1 al 10 de septiembre de 2016 se celebra el Congreso Mundial por la Conservación de la Naturaleza en Honolulu, Hawai, donde se debaten temas medioambientales, principalmente relacionados con el cambio climático, el calentamiento de los océanos, la protección de la biodiversidad y las normativas internacionales contra el tráfico de especies en peligro de extinción, como la caza furtiva de elefantes para la venta ilegal de marfil.

Entre otros temas que se han debatido en las conferencias, están el reconocimiento a Bibhuti Lahkar por su labor de conservación en el santuario de Manas, patrimonio de la India, Bantu Lukambo y Josué Kambasu, pescadores del Lake Edward en Virunga National Park, reserva de la república del Congo, así como Yulia Naberezhnaya y Andrey Rudomakha por su labor en la parte occidental del Cáucaso, Rusia. Un aspecto destacado sobre el alcance de las áreas de conservación es que aproximadamente un 15% de la superficie terrestre y un 10% de los mares del planeta forman parte de zonas de conservación o reservas naturales, aunque sólo un 2% de la superficie oceánica tiene el trato de protección de la biodiversidad.

Hoy, el mundo se enfrenta a desafíos cruciales a nivel social y medioambiental, como el cambio climático, la seguridad alimentaria y el acceso al agua potable – declaró la directora general de IUCN, Inger Andersen. Las áreas protegidas desempeñan un papel determinante en la conservación de especies y ecosistemas que nos ayudan a afrontar estos desafíos. Asegurar que dichas áreas están cuidadosamente delimitadas y administradas efectivamente es crucial si queremos prosperar de forma sostenible en este planeta.

Según los estudios científicos de IUCN y del Centro Mundial de Vigilancia de la Conservación de las Naciones Unidas, están registradas 202,467 áreas de conservación de la biodiversidad, que cubren 20 millones de kilómetros cuadrados o aproximadamente 14.7% de la superficie terrestre, sin contabilizar la Antártida. Lo cual no se encuentra tan lejos del 17% marcado como objetivo para el año 2020 en el Congreso Aichi Biodiversity Targets. Los países de Latinoamérica y del Caribe protegen su biodiversidad alcanzando áreas de 5 millones de kilómetros cuadrados, sin embargo la mitad de la extensión está en el territorio de Brasil. La parte del mundo con menos áreas de conservación está en Oriente Medio, con aproximadamente 119 mil kilómetros cuadrados.

Respecto al calentamiento de los océanos y el deshielo de los polos, el informe Explaining ocean warming: Causes, scale, effects and consequences, realizado por un equipo de 80 científicos de 12 países, incide en que las emisiones de gases contaminantes han alterado los ecosistemas de las zonas polares a las regiones tropicales, forzando el desplazamiento hasta 10 grados de latitud hacia los polos de grupos enteros de especies de plancton, medusas, tortugas y aves marinas para buscar aguas a una temperatura similar a sus hábitats anteriores, provocando la pérdida de zonas de reproducción para las tortugas y aves marinas, y como consecuencia de efecto dominó en la cadena alimentaria, alterando las expectativas de éxito reproductivo de mamíferos marinos.

Congreso Mundial por la Naturaleza 2016 en Honolulú, Hawái

En el este de África y el Océano Índico occidental, el calentamiento oceánico ha reducido la población de algunas especies de peces al destruir gradualmente los arrecifes de coral donde se alimentan, añadido a las pérdidas causadas por la pesca intensiva y las técnicas de pesca como las redes de enmalle. En el sudeste de Asia, se prevé que las capturas caigan entre un 10% y un 30% para el año 2050 con respecto a las estadísticas pesqueras de 1970 a 2000, ya que la distribución de las especies de peces va cambiando, mientras se mantiene el status quo en las altas emisiones de gases de efecto invernadero.

«La mayor parte del calentamiento inducido por el hombre desde la década de 1970 ha sido absorbido por el océano, que actúa como un amortiguador contra el cambio climático, pero esto tiene un precio. Nos quedamos asombrados por la magnitud y el alcance de los efectos del calentamiento del océano en ecosistemas enteros«, declaró Dan Laffoley, vicepresidente de la Comisión Mundial de Áreas Protegidas de la UICN, y uno de los autores principales del informe sobre el calentamiento oceánico. Un dato demoledor del estudio es que si el calor generado por los gases emitidos por la actividad industrial no hubiese sido absorbido en los 2 km de profundidad oceánica entre los años 1955 y 2010 sino acumulado en los primeros 10 km de la capa atmosférica más próxima a la superficie terrestre, el calentamiento global del planeta Tierra habría alcanzado 36°C.

Congreso Mundial por la Naturaleza 2016 en Honolulú, Hawái

El informe destaca también evidencias de que el calentamiento oceánico está causando el aumento de enfermedades en las especies de plantas y animales marinos, y desarrollando patologías nocivas para la salud humana, patógenos que se propagan fácilmente en aguas más cálidas, incluyendo la bacteria del cólera y la proliferación de algas dañinas que causan enfermedades neurológicas como la ciguatera, intoxicación alimentaria por ingesta de peces semipelágicos (aguja, pez vela, barracuda, dorado, peto, coronado, cubera, mero) que habitan los arrecifes coralinos y es endémica en los trópicos, donde es mayor la fuerza de las olas al dañar los arrecifes en los que se encuentran macroalgas: los ciclones tropicales y maremotos preceden a los brotes de ciguatera. La ciguatera es frecuente en Cuba, República Dominicana, Puerto Rico, la costa sur de los Estados Unidos y algunos países indo-pacíficos como Hawaii. La enfermedad es causada por ciertas toxinas (ciguatoxina-1, maitotoxina, escaritoxina, palitoxina, ácido okadaico) producidas por ciertos dinoflagelados que viven en detritus y en las macroalgas asociadas a sistemas de arrecifes.

El calentamiento de los océanos también está alterando el clima, con una serie de efectos en cadena como el aumento del número de huracanes peligrosos para las poblaciones costeras, que ha aumentado a un ritmo de alrededor de 25-30% por grado de calentamiento global, la subida de las precipitaciones en las latitudes medias y las zonas de monzón, y menos lluvias en varias regiones subtropicales. Estos cambios tendrán efectos perjudiciales sobre las cosechas en importantes regiones productoras de alimentos, tales como América del Norte y la India.

Congreso Mundial por la Naturaleza 2016 en Honolulú, Hawái
Ceremonia de bienvenida de la comunidad de nativos hawaianos E Alu Pū y la asociación Kua’ Āina Ulu ‘Auamo en Hale’iwa on O’ahu.

Durante el acto de recepción del congreso de la Unión Internacional para la Conservación de la Naturaleza (UICN) los representantes de diferentes comités participaron de una práctica ancestral de la acuicultura hawaiana (loko iʻa), formas de cultivo frente a la pesca en el habitat salvaje: los grupos fueron guiados en la fabricación de criaderos de peces en una zona donde se practica desde hace más de 600 años, los estanques son construidos mediante la disposición de rocas de lava en círculos (oko kuapa), apiladas tomando base en el agua a poca profundidad dejando pequeños agujeros para permitir que las crías puedan guarecerse si los depredadores acechan el muro acuático o las aves sobrevuelan la zona. Para completar la tarea, colocaron guirnaldas de algas alrededor del criadero de peces, como pasto para alimentar a los peces más jóvenes y guiarlos a sus nuevos hogares.

Los estanques de peces de la acuicultura hawaiana se encuentran junto a la desembocadura de un arroyo, por lo que mediante la apertura de una compuerta se proporciona a los peces una corriente de agua rica en nutrientes y minerales que han transitado el interior de la isla, con estratos dispuestos en terrazas. Varios estanques de peces han sido restaurados en los últimos años, notablemente en la isla Ke’ehi Laguna, Pearl Harbor, Kane’ohe Bay en Oahu, y a lo largo de casi toda la costa sur de Molokai. Kahouna, el mayor criadero de peces que se conserva presenta un muro marino semicircular de 370 metros, ha sido privatizado y la empresa Kahaluu Pond, Inc., alquila la propiedad para celebrar bodas según el rito hawaiano.

Tres estilos diferentes de estanques de peces están siendo reconstruidos en el parque histórico nacional Kaloko-Honokohau de Hawai. La organización no lucrativa ‘Ao’ao O Na Loko I’a O Maui está restaurando Kalepolepo Fishpond. En Kīhei los trabajos de restauración de las zonas de acuicultura los realizan grupos de voluntarios guiados por los nativos hawaianos y trabajadores cualificados.

Durante el congreso se aprobaron 85 medidas entre las organizaciones miembros de la UICN – utilizando por primera vez el sistema de voto electrónico, medidas que incluyen la prohibición de pesca con redes de enmalle que amenaza la vaquita marina, especie de marsopa a punto de extinguirse en el golfo de California, México, y las restricciones sobre el comercio de folidotos, conocidos como armadillos o pangolines, cazados ilegalmente en selvas de África subsahariana. Otros 14 temas de conservación de la naturaleza a nivel global fueron debatidos en el Congreso de la UICN, incluyendo la protección de especies en alta mar, mitigar los impactos de la producción de aceite de palma en la biodiversidad, la protección de los bosques y cierre de todos los mercados nacionales a las ventas de marfil.

En Tanzania y Mozambique se están desarrollando proyectos de inversión económica para desarrollo sostenible de la agricultura en las comunidades locales, agrupados en la denominación Growth Corridors in Africa (SUSTAIN-Africa). La expresión «growth corridor» o «economic corridor» fue acuñada en el año 1998 por el Banco Asiático de Desarrollo, para designar la inversión localizada en zonas geográficas en vías de desarrollo donde las poblaciones locales están ancladas en la pobreza y no tienen medios para generar actividad económica pese a disponer de valiosos recursos naturales, por lo que los proyectos suelen integrar infraestructuras, maquinaria industrial, mano de obra cualificada y procedimientos técnicos implantados desde otros países que invierten cuando hay seguridad jurídica y estabilidad política para establecerse, como ha ocurrido con la llegada de inversores de China en África.

Los proyectos emergentes que incluyen la sostenibilidad medioambiental tienen en cuenta la expansión de los monocultivos que reduce la cobertura de la fronda; el aumento de la demanda de regadío; el aumento de pastos para ganadería; derechos de propiedad sobre las tierras vulnerables por la debilidad de las normativas legales en las asignaciones hechas por los gobiernos a los inversores extranjeros a gran escala; y el aumento de la contaminación por el uso de agroquímicos resultante de la producción extensiva comercial a gran escala.

IUCN.org.
IUCN World Conservation Congress.
Lista Roja de Especies Amenazadas de la UICN.
– Comité Español Unión Internacional para la Conservación de la Naturaleza (UICN).

La sonda Juno envía su primera imagen de Júpiter

La NASA publicó el pasado 12 de julio la primera imagen recibida desde la sonda Juno después de estabilizarse gravitacionalmente sin daños en la órbita del planeta Júpiter, desde el pasado 4 de julio. La cámara abordo de la sonda se encendió seis días después de su entrada en órbita y obtuvo una imagen de la parte de Júpiter iluminada por el Sol así como de sus lunas Io, Europa y Ganímedes desde una distancia de 4,3 millones de kilómetros.

– Esta primera imagen de JunoCam nos muestra que la sonda ha sobrevivido sin daños a su primer recorrido a través de la extrema radiación que rodea Júpiter y está lista para explorar el planeta– declaró Scott Bolton, investigador de la misión que trabajó en Jet Propulsion Laboratory, Pasadena, California, en una nota de prensa difundida por la agencia aeroespacial estadounidense.

NASA Juno primera imagen Júpiter

La imagen fue tomada durante la primera órbita de Juno en torno a Júpiter, Hera vigilando las aventuras de Zeus, cuyo recorrido alrededor del planeta más grande de todo el sistema solar durará 53 días y 12 horas. En las próximas semanas el objetivo es conseguir imágenes de los dos polos del planeta. La cámara de la sonda enviará sus primeras fotos en alta resolución el 27 de agosto, de acuerdo con Cany Hansen, investigadora del Planetary Science Institute, en Tucson, Arizona. Está previsto que la misión Juno complete hasta 37 órbitas en torno a Júpiter. Juno ha logrado ser la nave espacial que más se acerca a Júpiter, hasta unos 4.100 kilómetros de su atmósfera, evitando quedar destruida de aproximarse en exceso a las fuertes radiaciones de los cinturones de nubes. Los hitos astrofísicos que se consigan respecto a la composición físico-química del planeta ayudarán a ampliar el conocimiento respecto a la formación del sistema solar.

En los precedentes de la historia de la ciencia relativos a la misión Juno, destaca una nota de prensa que la NASA publicó en el año 2001 sobre las radiaciones de los cinturones de Júpiter que habían sorprendido las previsiones científicas durante las misiones realizadas con otras sondas como Galileo o Cassini-Huygens. Las radiaciones más dañinas de Júpiter se localizan a unos 300 000 kilómetros, por lo que las sondas anteriores a Juno habían observado al planeta gigante desde bastante lejos, incluso la aeronave Cassini-Huygens apenas se acercó a 10 millones de kilómetros a Júpiter cuando pasó en su travesía hacia Saturno.

Cassini poseía una antena fabricada por la Agencia Aeroespacial italiana, que sirvió para comunicarse con la Tierra y que permitió realizar mapas de la luna Titán de Saturno, en su paso por Júpiter se utilizó para captar las radio emisiones de los cinturones de nubes de Júpiter. Los resultados permitieron construir sondas como Juno con componentes electrónicos más resistentes y su planificación fue inicialmente debatida en la sociedad europea de geofísica en Niza, Francia.

Cuando los electrones fuertemente cargados se desplazan a velocidades cercanas a la de la luz en espirales que forman los campos magnéticos que circundan Júpiter, se producen emisiones denominadas radiación de sincrotrón. En realidad este nivel de radiación no es suficiente para dañar una sonda o nave aeroespacial, pero advierte de los peligros de aproximarse más hacia la atmósfera.

Mediante telescopios de radio situados en observatorios terrestres se realizaron transformaciones o mapeo de las señales de entrada de algunas longitudes de onda de las emisiones de radiación sincrotrón que provenían de los cinturones de nubes de Júpiter, y los científicos utilizaron dicha información para hacer modelos que recrean los cinturones de Júpiter y estimar su potencial para dañar naves espaciales. Sin embargo las longitudes de onda más cortas, emitidas solamente por los electrones más cargados en los cinturones de nubes, se pierden entre las radio emisiones no-sincrotrón, cientos de veces más fuertes en la calurosa atmósfera de Júpiter.

La sonda Cassini gozó de buen ángulo durante su paso para distinguir entre las emisiones atmosféricas y las radio emisiones de los cinturones, pese a ser una tarea no exenta de dificultades. La sonda debía desplazarse adelante y atrás para escanear una zona, a continuación girar 90 grados y volver a emplear su escáner, para reconocer la radiación de sincrotrón por su rasgo de polarización, obteniendo el ancho del espectro de los electrones altamente cargados de las radiaciones de los cinturones de Júpiter por primera vez.

Las mediciones de la sonda Cassini-Huygens indicaron que los electrones altamente cargados estaban mucho más dispersos de lo esperado. Malas noticias para los laboratorios que diseñan la electrónica de las naves. Teniendo en cuenta los niveles conocidos para las mayores longitudes de onda de radiación sincrotrón sin que haya tal cantidad de electrones altamente cargados como indicaban las previsiones, significa que las estimaciones deben ser más precisas respecto al número de electrones con niveles de energía ligeramente inferiores. Aún así este tipo de electrones tienen suficiente energía para dejar fritos los componentes electrónicos de una sonda. Ninguna de las misiones en desarrollo aprobadas por la NASA se habría aventurado en aquel entonces a enviar una sonda más allá de la región con las estimaciones más elevadas de radiaciones peligrosas, para hacer estudios de órbita alrededor de Júpiter y su luna Europa, aumentando el conocimiento acerca de su atmósfera y estructura interna.

Las únicas naves que experimentaron un impacto total de las radiaciones en los cinturones de nubes de Júpiter se desintegraron rápidamente. Pioneer 10 y 11 orbitaron cerca de Júpiter en la década de 1970. La sonda Galileo logró sacar una imagen a través de los cinturones de nubes el 7 de diciembre de 1995, antes de sumergirse en la atmósfera de Júpiter. Esa imagen se corresponde a la mancha roja que puede apreciarse sobre la zona iluminada del planeta Júpiter en la fotografía espacial obtenida por la cámara de la sonda Juno, denominado The Great Red Spot.

La mancha o gran punto rojo sobre el hemisferio sur de Júpiter es una tormenta anti-ciclónica, de alta presión, similar a un huracán en la Tierra, pero es gigantesco, pues tres planetas Tierra podrían entrar entre sus márgenes y se mantiene activo desde hace más de 400 años, desde que fuera observado por telescopios desde la Tierra. Como se encuentra en el hemisferio sur, su rotación es en sentido contrario a las agujas del reloj, con un periodo de unos 6 días. Mientras que en el planeta Tierra un huracán en el hemisferio sur rota en sentido de las agujas del reloj al ser de presión baja. Las nubes relacionadas con la mancha roja están situadas a unos 8 kilómetros por encima de las nubes circundantes.

Los efectos Coriolis que se observan en ciclones y anti-ciclones en la Tierra se ven incrementados en Júpiter, al tener una frecuencia de rotación que es como 2,5 veces la frecuencia de rotación de la Tierra, pero esto no basta para explicar la persistencia o continuidad en el tiempo así como la magnitud de la gran mancha roja. Entre las posibles explicaciones del fenómeno están que la tormenta no llega a bajar a la superficie de Júpiter como haría un huracán en la Tierra y que se alimenta del calor del gigantesco planeta. Se ha especulado que el color rojo está relacionado con componentes de fósforo.

Más información, en inglés:

NASA’s Juno Spacecraft sends first in orbit view.
Jupiter red spot.

NASA Orbital Debris: residuos orbitando sobre la Tierra

NASA Orbital Debris Program Office es un departamento de la agencia espacial estadounidense que desarrolla aparatos para controlar los residuos que se acumulan alrededor de la órbita del planeta debido a la destrucción de satélites, por explosión o colisión, y restos de los cohetes o partes de astronaves no operativas enviados al espacio exterior. Esto es, son componentes cheiropoietes, hechos por la mano del hombre, no se cuentan cuerpos celestes, meteoritos, asteroides o grandes rocas atravesando el universo. Con respecto a la primera causa, un evento utilizado como ejemplo fue la colisión entre los satélites Cosmos 2251 e Iridium 33, por irónico que resulte, Cosmos 2251 era un satélite ruso de 950kg, abandonado desde 1995, e Iridium 33 un satélite estadounidense operativo de 560 kg, ambos quedaron destruidos cuando chocaron el 10 de febrero del 2009 a una velocidad de 42,120 km/h, en una altitud de 789 km. Por lo que se evalúa el riesgo de choque entre satélites y la acumulación de residuos a poca distancia en la órbita terrestre, susceptibles de caer a la atmósfera, frente a los que están a más distancia y que podrían seguir pululando mucho tiempo.

NASA Orbital Debris

Las partes críticas de los satélites, sondas o cualquier estación espacial están siempre protegidas por materiales de protección como los escudos whipple, mientras otras zonas están expuestas, como los paneles solares en las estaciones espaciales, pues tienen que recibir directamente la luz del Sol, y pueden recibir algún impacto que rompa ciertas celdas. En el año 2007, la sonda Endeavour STS-118 tuvo un agujero en su radiador, con un diámetro de entre un cuarto y la mitad de una pulgada.

Endeavour STS-118 impact

Se calcula que hay más de 21.000 componentes residuales de más de 10 cm flotando en la órbita terrestre, los más problemáticos, 500.000 con un diámetro de entre 1 y 10 cm y más de 100 millones de partículas de menos de 1 centímetro de diámetro, polvo interestelar. Los radares de U.S. Space Surveillance Network detectan incluso objetos de sólo 3 milímetros. Dado que se desplazan a velocidades de entre 7-10 km/s, dependiendo de su masa que de media está por encima de 1 kg y algunos pocos residuos pueden alcanzar hasta 100 kg, una colisión conllevaba bastante energía. (E=m.c^2)

Desde la NASA se han propuesto diferentes métodos para controlar los residuos espaciales que se van acumulando desde los inicios de la carrera espacial e ir eliminando el exceso de materiales que tienen un tamaño a partir de unos 10 cm, mediante lasers, fricción, electro-dinámica, remolcadores. Concretamente un experimento de remediación propone que una pequeña astronave auxiliar haga de operario aeroespacial y vaya recolocando los satélites en riesgo de colisión a partir de las coordenadas y trayectorias controladas desde los radares en las estaciones en Tierra y también utilice una red para recoger los residuos flotantes. La antena del radar Goldstone situada en Barstow, CA, es capaz de detectar residuos de un tamaño de tan sólo 2 mm a altitudes bajo 1,000 km.

Satélite recogedor de residuos espaciales

Satélite recogedor de residuos espaciales

En un artículo de este mes publicado en el diario británico Independent se hablaba de cómo en Suiza se desarrolla un satélite que recoja los residuos como si utilizara una red que capture los escombros espaciales, aunque el robot-satélite podría llevar también unas tenazas similares a una excavadora, en realidad las pruebas son con unos cubos con una medida de 10cm por lado, que habían sido lanzados por la escuela politécnica federal de Lausana (EPFL) entre los años 2009-2010.

Lo que en cambio se denomina reentrada es la caída a la atmósfera de manera controlada tras un lanzamiento, en zonas inhabitadas o al océano, de los tanques propulsores de los cohetes que impulsan las aeronaves al espacio exterior, recuperando en Tierra estas partes. Utilizando más propulsor se puede controlar el ángulo de trayectoria de vuelo de manera más pronunciada, la parte no operativa regresa a la atmósfera en una latitud y longitud más precisas de determinar, el lugar donde caerán los escombros puede ser localizado entonces en zonas sin población o al océano. De manera no controlada, los restos que flotan en la órbita a menos de 600 km caerían por la atmósfera -pulverizándose mayormente por fricción- aunque con riesgo de impactar causando daños al llegar a la superficie del planeta. Las mayores concentraciones están entre 750-800 km de distancia y otro grupo de residuos se sitúa a unos 2000 km de distancia en la órbita. Por debajo de 600 km caen en unos años, lo que se denomina Low Earth Orbit, a 800 km se calcula en décadas, zona denominada Medium Earth Orbit, y por encima de 1000 km puede pasar más de un siglo hasta que se desplomen a la atmósfera, por otra parte las colisiones no son tan frecuentes, el riesgo es bajo y se estima en probabilidades, aunque ocurre alguna cada año.

Además de la NASA o la agencia espacial europea, países como Francia, Japón, China o Rusia siguen protocolos para minimizar los residuos espaciales que se van acumulando en la órbita de la Tierra. Un ejemplo es la misión E.Deorbit, de la agencia espacial europea, pero que no está previsto que funcione hasta 2021.

[Cosmología] Lisa Randall, Knocking on Heaven’s Door: How Physics and Scientific Thinking Illuminate the Universe and the Modern World

Knocking on Heaven’s Door: How Physics and Scientific Thinking Illuminate the Universe and the Modern WorldLisa Randall, profesora de ciencias físicas en la Universidad de Harvard, es la autora de la obra Knocking on Heaven’s Door: How Physics and Scientific Thinking Illuminate the Universe and the Modern World, un libro sobre física teórica, enfocado a la cosmología, tan de moda en la divulgación científica. En Wired se puede leer un pequeño extracto del libro además de una entrevista con la autora sobre el método científico en física teórica, quien sin posicionarse como constructivista ni como realista en relación a cómo se establecen las leyes científicas que describen y predicen los fenómenos naturales, explica por extraña analogía a los grandes clásicos de la literatura, que se trata de un cuerpo de conocimiento que va aumentando con los siglos pero también está en revisión. También se tratan algunos temas polémicos sobretodo en Estados Unidos, debido a las creencias religiosas más enraizadas en la mentalidad de los ciudadanos y también investigadores que en países europeos, donde es menos frecuente que los contaminantes religiosos se mezclen en la investigación científica, atendiendo simplemente a la descripción del mundo físico, sin más especulaciones de la razón que las hipótesis contrastables.

En la entrevista de Wired, se habla del centro científico CERN y el Large Hadron Collider, Lisa Randall se muestra bastante prudente y poco efectista al tratar la pregunta sobre si los neutrinos son más veloces que la luz y por tanto el paradigma establecido por Einstein podría quebrarse. La profesora de física teórica comenta de forma sucinta que tales resultados no descartarían el estudio de las teorías de la relatividad, aunque tampoco habría sido un error difundir públicamente datos de extrema precisión sobre la velocidad que puedan alcanzar partículas subatómicas. Aún sin hacer referencia explícita a Newton, Lisa Randall comenta que históricamente las buenas teorías científicas que son superadas no quedan borradas sino que se corrigen logrando un mejor conocimiento del mundo físico, la nueva teoría científica da más amplitud de miras conteniendo la antigua.

«Even if the results turn out to be true, it would tell us that Einstein’s theory is still right over a large regime. But we would then know that there are some deeper underlying differences that apply when you do these extremely precise measurements. Usually, when a new theory is shown to be right, it simply underlies the old one, which is now an approximation. It doesn’t mean we need to throw away the old theory.»

Entrevista completa en Wired Science. Los libros sobre cosmología de Lisa Randall, como Warped Passages: Unraveling the Mysteries of the Universe’s Hidden Dimensions, se pueden encontrar en Amazon.

Atocatl, supercomputadora en el Instituto de Astronomía de la Universidad Nacional Autónoma de México

El Instituto de Astronomía de la Universidad Nacional Autónoma de México presentó el pasado miércoles 29 de junio de 2011 en el Auditorio Paris Pishmish del Instituto de Astronomía, el equipo de cómputo de alto rendimiento “Atocatl”, que en lengua náhuatl significa pulpo o cefalópodo. Atocatl es un cluster que paralelará 216 procesadores y será utilizado para conocer más del Universo, sirviendo a los investigadores en astronomía en materia de cálculo sobre modelos de astrofísica, posterior a la parte de recepción de datos en los telescopios como desde el Observatorio Astronómico Nacional de San Pedro Mártir.

Atocatl, supercomputación en el Instituto de Astronomía de la UNAM

Los clusters computacionales son conjuntos de equipos informáticos en centros de datos que coordinan su hardware en unidad, los procesadores trabajan de forma coordinada multiplicando así la capacidad de cálculo computacional. La base formal de la ingeniería informática para cómputos paralelos fue desarrollada por Gene Amdahl de IBM, en 1967 publicó lo que ha llegado a ser considerado como el papel inicial de procesamiento paralelo: la Ley de Amdahl que describe matemáticamente el aceleramiento que se puede esperar paralelizando cualquier otra serie de tareas realizadas en una arquitectura paralela, dicho de forma accesible: un algoritmo matemático decide sobre la velocidad de los procesadores, qué tareas divididas se priorizan en el cálculo según la optimización en el resultado final, según la mayor mejora alcanzable en cada segmento.

Este tipo de ensambles de ordenadores se ha desarrollado entorno a la supercomputación, donde la actual reina de estas supercomputadoras está en el Laboratorio para Ciencia Computacional RIKEN en Kobe, Japón, K-Computer como puede verse en la página del proyecto Top500, que paraleliza desde este mes de junio más de 68.500 procesadores y su potencia de cálculo equivale a 8200 billones de operaciones por segundo: como si todos los habitantes de un millón de planetas como el nuestro hicieran un cálculo matemático cada segundo, haciendo operaciones de aritmética sin parar que en informática se definen en unidades de cálculo de coma flotante por segundo. La UNAM alberga en la actualidad diversos equipos de alto desempeño, el más grande de ellos Kan Balam en la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC). En funcionamiento desde el año 2007, Kan Balam cuenta con 1368 procesadores, y en el momento de su inauguración figuraba entre las 30 más poderosas a nivel mundial operando en instituciones de educación superior.

Atocatl destaca en el manejo eficaz de grandes bases de datos con un almacenamiento que en su primera fase será de 40 Terabytes pero que se espera quintuplicará para antes del año 2012. Atocatl ha sido concebido como otros centros de supercomputación con vistas a futuras ampliaciones antes de que termine el año, contará con un total de 8 GPU, 288 procesadores CPU y 200 Terabytes para almacenamiento de datos. El centro de supercomputación ha sido financiado por Conacyt y la Universidad Nacional Autónoma de México y ha tenido un costo total de 2,4 millones de pesos. Los investigadores del Instituto de Astronomía, Magdalena González, Octavio Valenzuela y Bárbara Pichardo, también Secretaria Académica del Instituto de Astronomía de la UNAM, responsables de coordinar las operaciones del proyecto reafirman la filosofía cooperativa del proyecto que aúna el esfuerzo de un nutrido número de instituciones, con la destacada participación de la Coordinación de la Investigación Científica y el Posgrado en Ciencias de la UNAM. De hecho, Atocatl será usado para capacitar estudiantes de posgrado en el uso y desarrollo de proyectos de supercómputo dentro del departamento de astronomía.

Atocatl, supercomputación en el Instituto de Astronomía de la UNAM

– Página oficial de astronomía en la Universidad Nacional Autónoma de México.
– Leer más sobre la lengua Náhuatl, con más de un millón de hablantes en México y con comunidades lingüísticas también en El Salvador.

The Sagan Series

The Sagan Series son una serie de videos creados y publicados por Reid Gower en este año 2011 a partir de diferentes divulgaciones sobre astrofísica que realizó Carl Sagan, fallecido en 1996, acompañando su narración con la música compuesta por Michael Marantz. Las imágenes que aparecen en los videos forman parte de documentales científicos sobre el planeta Tierra, la vida en la Tierra, diferentes conflictos políticos y medioambientales grabados entre otros por la cadena BBC y el horizonte que tiene la especie humana frente al espacio exterior o Universo. Las impresionantes fotografías y grabaciones sobre lanzamientos de sondas espaciales, observatorios espaciales como Gemini y el aspecto que tiene la Tierra desde el espacio son parte del patrimonio aportado por la NASA y científicos dedicados a ramas como la astrofísica y la cosmología.

Carl Sagan se doctoró en 1960 en la Universidad de Chicago, trabajando posteriomente en astronomía y diferentes ramas de la física teórica, incluyendo la exobiología o búsqueda de vida extraterrestre, tratando siempre de diferenciarse de las pseudociencias. Sagan propuso el denominado efecto invernadero provocado por emisiones excesivas de dióxido de carbono como la causa de las elevadas temperaturas y la presión en la atmósfera del planeta Venus, esta idea le llevó a alertar de los peligros del cambio climático producidos por la actividad industrial en la Tierra.

Respecto a las misiones espaciales de la agencia aeroespacial estadounidense, trabajó en el diseño de la misión Mariner 2 al planeta Venus, y de las misiones Mariner 9, Viking 1 y Viking 2 al planeta Marte. También trabajó en la misión Voyager 1 y Voyager 2, junto a Ann Druyan y otros científicos, contribuyó al diseño de los dos bajorrelieves de los discos de oro -tan citados acerca de los trabajos en búsqueda de vida extraterrestre- que éstas naves llevaron acoplados en uno de sus costados en misiones hacia el exterior del sistema solar y en la misión Galileo al planeta Júpiter. Trabajó igualmente en las misiones de la sonda Pioneer 10 a Júpiter y Saturno para poder comprobar las radiaciones magnéticas emitidas por estos planetas.

En exobiología concibió la idea de enviar un mensaje inalterable al espacio más allá del Sistema Solar que pudiera ser entendido por una posible civilización extraterrestre que lo interceptara en un futuro. El primer mensaje así enviado fue una placa de oro en la sonda Pioneer, posteriormente un disco de oro en las sondas Voyager y en 1974 fue el mensaje de radio enviado al espacio por el telescopio Arecibo. Trabajó durante años para la NASA y dirigió diferentes proyectos de investigación para tratar de detectar vida en el Universo.

Además del documental ‘Cosmos: Un viaje personal’ entre las obras más influyentes de Carl Sagan están ‘Vida Inteligente en el Universo’ (1966), ‘Comunicación con Inteligencias Extraterrestres’ (1973), ‘Cosmos’ (1980), ‘El invierno nuclear’ (1990), ‘Un punto azul pálido’ (1994), basado en una impresionante fotografía del planeta Tierra tomada en 1990 por la sonda Voyager 1, a 6.1 billones de kilometros en el espacio más allá del Sistema Solar, donde el planeta Tierra es sólo un diminuto punto azul sobre el fondo del espacio.


Earth: The Pale Blue Dot de Michael Marantz.

En el canal de Youtube de Reid Gower se encuentran actualmente los videos que se están creando para The Sagan Series, también es interesante seguir los videos en el canal de Youtube de la NASA y los videos de divulgación para la memoria colectiva del canal Carl Sagan Portal. Recientemente, un usuario publicó en Youtube un video del juego Minecraft como mímesis del primer video ‘The frontier is everywhere’ de The Sagan Series.

El sitio de la Tierra en el Universo

Al considerarse la propia especie humana a sí misma como excepción entre la vida en la Tierra, taxonomizando, haciendo discreto algo continuo y gradual, el hombre ha creído a través del delirio vanidoso que son las creencias religiosas, que era un ser especial, no un mamífero epígono en la evolución de las especies, diferente no sólo en su capacidad mental, lingüística, matemática, técnica y mimética, sino un ser con un destino superior al de cualquier otra especie. Habría por tanto una escisión en las taxonomías biológicas que separase al ser humano de cualquier otra especie, siendo los animales y organismos vivos clasificados e instrumentalizados en la medida en que fuesen útiles a las actividades humanas, alimenticias, energéticas y en un plano más sofisticado y esencialmente humano, simbólicas, transfiriendo las pasiones y los vicios humanos en otros vivientes, esto es, especeísmo.

Tras una hegemonía de varios milenios con cultos politeístas que hicieron creer al hombre que era descendiente por generación de dioses, los fenómenos naturales con figuras antropomórficas, los ritos sepulcrales y la inexplicable producción de estados mentales en la vigilia pero sobre todo en el sueño, donde los fallecidos queridos aparecían en la consciencia de aquel que había tenido vínculos afectivos con ellos, dio acicate a los misterios sobre la transmigración del alma, al separarse del cuerpo en la muerte. Como si el hombre y solamente la especie humana tuviesen el derecho exclusivo -¿de dónde vendría?, ¿quién se lo daría?- a una existencia post-mortem y a conocer a su creador, un padre exaltado, fijado simbólicamente a imagen y semejanza con atributos antropológicos loables infinitos, mientras que ningún otro organismo viviente podría aspirar a semejante cosa. La imposición sangrienta posterior de un periodo histórico de hegemonía que transita desde el politeísmo hacia el monoteísmo, con un Dios que es padre y creador de todas las cosas, que mantiene en su ser la creación, sería otra forma exacerbada de vanidad específica, manteniendo el dogma post-mortem de una existencia escindida, posterior a la muerte, que juzga la conducta moral de su antesala para decidir la recompensa o el castigo de cada sujeto, quién sin poder conducirse autónomamente, recibiría el deber moral de una instancia trascendente para tratar de lograr «su trozito de cielo».

La vanidad de la especie humana, que se había considerado a sí misma como la excepción de la vida en la Tierra, en un plano óntico superior al resto de los seres y con un destino diferente, ha recibido varios duros golpes desde los inicios de la Edad Moderna, tal como destacó Sigmund Freud en Una dificultad del psicoanálisis, mencionando literalmente que el narcisismo universal, el amor propio de la humanidad ha recibido hasta el siglo XX, tres graves afrentas por parte de la investigación científica:

1- La primera es el desvanecimiento cosmológico de la creencia de que la Tierra es el centro del Universo -el modelo geocéntrico del sistema solar-, algo que iba en armonía con la falta de percepción sensorial del movimiento del planeta por el hombre y con la idea de ser producto de un artífice divino.

2- La segunda es la enajenación animal, partiendo del totemismo en los cultos sagrados «primitivos», las poblaciones humanas se relacionan con su entorno natural, considerando a determinados animales protectores de la tribu, las figuras de sus divinidades tienen cabeza o elementos corporales de los animales, que son objeto de las manifestaciones estéticas figurativas. El mito muestra a los dioses cambiando su forma por la de animales, muestra como los dioses son fenómenos naturales surgidos del sobrecogimiento por la falta de explicación causal del mundo físico y el miedo a la muerte. Para un infante, no hay nada extraño en que los animales piensen y actúen como humanos en los cuentos y fábulas, sólo el hombre que ha desarrollado pensamiento teológico les quita la razón y proyecta en ellos los vicios humanos. Son los estudios en geología y biología posteriormente las ramas de paleontología, anatomía comparada, embrionología, secularizaciones de la teología y la historia naturales, quienes ponen término a esa arrogancia humana que se escinde de la animalidad.

Aunque habitualmente es citado sólo Charles Darwin en relación al Origen de las especies y la obra el Origen del hombre, su trabajo es deudor de investigaciones décadas anteriores, la variabilidad de la vida, la lucha por los recursos naturales, la selección a favor o en contra de caracteres hereditarios y el gradualismo y continuidad de las especies en su generación, son las claves para postular el origen del hombre a partir de un ancestro común con diferentes especies de primates, simios como el chimpancé y el bonobo. La primatología y la etología, el estudio de la conducta animal y de las formas de organización de otras especies, han mostrado cómo las normas morales son necesarias para dar cohesión y estructurar grupos. Y definitivamente las normas morales y las intuiciones más básicas sobre cómo debemos comportarnos para vivir bien son anteriores cronológicamente a la aparición de las religiones dominantes y de las sagradas escrituras que contienen los mandamientos.

3- La tercera afrenta es -evidentemente más sentida- la psicológica, la investigación que le ha demostrado al ser humano que no sólo no domina el Universo, ni es una especie escindida del origen de la vida frente a los demás organismos, sino que además no es el dueño de su propia mente, la razón no es la cualidad esencial del hombre y la mente depende de determinaciones biológicas, instintos y pulsiones, que no son conscientes y se encuentra soterrados, sedimentados en la conciencia humana, como parte de nuestros traumas, deseos, miedos, esperanzas y frustraciones.

El conocimiento que se tiene actualmente sobre el espacio ocupado por el planeta Tierra en el espacio, viene esencialmente de las observaciones mediante instrumental técnico en los últimos cuatro siglos, aunque la astronomía era uno de los saberes más antiguos transmitidos desde las culturas fluviales de Mesopotamia, sobre todo Babilonia y después Egipto, hasta los pueblos del Mediterráneo oriental. Muchos siglos antes del establecimiento científico de la teoría heliocéntrica, a inicios de la Modernidad, lo que se conoce como primera revolución científica, en la astronomía de Alejandría durante el periodo helenístico hubo alternativas que cuestionaron la tradición heredada de Aristóteles. Ptolomeo aceptó la tradición de los maestros griegos, pero no todos los astrónomos propusieron lo mismo: Aristarco de Samos, un astrónomo de la primera mitad del siglo III antes de la era cristiana pensó que el centro del mundo estaba ocupado por el Sol, que la Tierra y todos los planetas giraban en torno a él y que sólo la Luna giraba en torno a la Tierra. El modelo aristotélico-ptolemaico permaneció hasta finales de la Baja Edad Media, atenuándose al igual que la escolástica tomista y pereciendo a inicios de la Modernidad bajo los estudios asociados a Copérnico con la obra De Revolutionibus de 1543, Galileo y Kepler en mecánica, instrumental astronómico y perfeccionamiento de los cálculos de las órbitas planetarias en la teoría heliocéntrica, los cuerpos celestes de la zona supralunar no son perfectos y acabadamente esféricos, el Sol tiene manchas en su superficie y las órbitas no son circulares.

Tras la aceptación de la teoría heliocéntrica, ya en el siglo XVIII, el astrónomo y compositor William Herschel observó la existencia de otros planetas además de satélites o lunas, que debía existir un tipo de luz invisible para nosotros dentro del espectro en el que se descompone la luz al refractarse en un prisma, y que el sistema solar formaba parte de un espacio muy superior con forma de disco, donde estaban otras estrellas similares al Sol. En el siglo XX, los trabajos de Hubble sobre el estudio de cometas y nebulosas llamaron la atención sobre la posible estructura general del universo, mucho más grande de lo que se creía en siglos anteriores, en expansión, donde la galaxia donde se encuentra el sistema solar sólo es una entre billones. En 1990, se hizo conocida una fotografía tomada por la sonda Voyager 1, dentro de los objetivos solicitados por Carl Sagan y otros científicos de la agencia aeroespacial NASA a 6,1 billones de kilómetros de distancia de la Tierra, lejos del Sistema Solar, el título Pale Blue Dot, se refiere al aspecto del planeta Tierra en el espacio exterior desde esa distancia, visible únicamente por los rayos solares como un diminuto punto azul.

Pale Blue Dot

El cosmos es mudo, indiferente, frente a los deseos narcisistas del hombre que se considera autosatisfecho por su carácter de excepción, elegido entre el mundo por un artífice trascendente, Dios creador, frente a los sentimientos delirantes de auto-importancia y las jerarquías sociales formadas por los seres humanos, exacerbadas en las sociedades industrializadas de consumo y planes de ocio a la carta, en la era del vacío.

La Tierra en el Universo
Se puede ver la imagen en mayor resolución.

Para lectores curiosos, más textos en los artículos Earth’s location in the universe y Pale Blue Dot.

Funcionamiento del sensor de movimiento en Kinect

Kinect para Xbox 360, inicialmente conocido por el code name Project Natal es un periférico para videojuegos que prescinde de mandos gracias a un sensor de detección de movimientos, creado por Microsoft y está previsto que sea utilizable en ordenadores con el sistema operativo Windows 8. Está basado en una cámara periférica que se conecta a la videoconsola Xbox 360 reconociendo los gestos del jugador, su rostro, voz, así como sus movimientos y los objetos estáticos dentro un campo visual. Fue creado específicamente para competir entre las consolas de última generación con sensor de movimiento para videojuegos multijugador, como Wii Remote y Wii MotionPlus así como PlayStation Move, de las consolas Nintendo Wii y Playstation 3 respectivamente.

Kinect para Xbox 360

El sensor de Kinect es una barra horizontal conectado a un pivote, diseñado para estar en una posición longitudinal. El dispositivo tiene una cámara RGB, sensor de profundidad y un micrófono multi-array bidireccional que conjuntamente capturan el movimiento de los cuerpos en 3D, además de ofrecer reconocimiento facial y aceptar comandos de voz.

El sensor de Kinect reproduce video a una frecuencia de 30 Hz, en colores RGB 32-bit y resolución VGA de 640×480 pixels, el canal de video monocromo es de 16-bit, resolución QVGA de 320×240 pixels con hasta 65,536 niveles de sensibilidad. El límite del rango visual del sensor de Kinect está entre 1.2 y 3.5 metros de distancia, con un ángulo de vista de 57° horizontalmente y un ángulo de 43° verticalmente, mientras que el pivote puede orientarse hacia arriba o abajo ampliando hasta 27°. El array del micrófono tiene cuatro cápsulas, y opera con cada canal procesando 16-bit de audio con un ratio de frecuencia de 16 kHz.

funcionamiento Kinect

Al parecer el prototipo de Kinect con cámara y micrófono, creado por la empresa PrimeSense, costó $30,000, mientras cada unidad se comercializará un precio de $150. La cámara de Kinect funciona con hardware y software de serie para el reconocimiento de imagen. La cámara tiene dos funcionalidades principales, genera un mapa en 3D de la imagen que tiene en su campo visual y reconoce humanos en movimiento entre los objetos de la imagen a partir de diferentes segmentos de las articulaciones del cuerpo y un esquema en escala de grises del rostro.

funcionamiento Kinect

Antiguos programas de software utilizaban las diferencias en color y textura para distinguir los objetos del fondo. PrimeSense, la compañia que desarrolló Kinect, y la compañia recientemente adquirida por Microsoft, Canesta, utilizan un modelo diferente. La cámara transmite luz invisible para nosotros, cercana en el espectro a los infrarrojos y puede conocer el tiempo que tarda la luz en volver al sensor tras reflejarse en los objetos. Canesta es una empresa localizada en Sunnyvale, California, un fabricante de chips que hacen que los dispositivos electrónicos reaccionen a los movimientos del usuario, creando interfaces que no necesitan periféricos con botones que sean sujetados con la mano y conectados por cable.

funcionamiento Kinect

El sensor actúa como un sonar, la operación no es teoricamente complicada, si se conoce el tiempo de cada salida y llegada de la luz tras reflejarse en un objeto, sabiendo la velocidad absoluta de la luz, se puede tener la distancia a la cual se encuentra ese objeto. En un amplio campo visual con objetos, la cámara Kinect trata de reconocer a qué distancia están los objetos, distinguiendo el movimiento en tiempo real. Kinect puede llegar a distinguir la profundidad de cada objeto con diferencias de 1 centimetro y su altura y anchura con diferencias de 3 milimetros. El hardware de Kinect está compuesto por la cámara y el proyector de luz infrarroja, añadido al firmware y a un procesador que utiliza algoritmos para procesar las imágenes tridimensionales.

El procesador es capaz de interpretar los movimientos que se registran en los objetos capturados por la cámara de Kinect en eventos con significado que aparecen en pantalla. Los movimientos buscados por el algoritmo son contextualizados, si nos encontramos en un juego como Kinect Adventures, donde una balsa desciende por la corriente del río, si este juego requiere movimientos como agacharse o tumbarse, entonces se buscará la identificación de estos movimientos en tiempo real para producir eventos en pantalla. Si el usuario navega por el menú con interfaz gráfica de Netflix entonces se buscarán movimientos con la mano horizontales y verticales que serán registrados en los fenómenos de pantalla.

funcionamiento Kinect

Aunque hay diferencias de opinión entre Microsoft y los creadores de los videojuegos compatibles con Kinect parece que los jugadores tendrán que estar erguidos en una zona despejada para jugar y que no será posible utilizar la interfaz con sensor detector del movimiento si estamos sentados en el sofá, no es apto para vagos que se tiraban horas sentados creando un hueco caliente en el sofá mientras daban a los botones del mando, para usar Kinect hay que mantenerse de pie.

Kinect tiene un micrófono stereo que funciona para chatear en videollamadas y para efectuar comandos de voz. La tecnología del audio es diferente de los micrófonos integrados en las webcam de los ordenadores portátiles o de sobremesa, no tiene una cancelación de ruido sino que funciona con una captura cónica de la acústica en la sala. No se trata de capturar sonidos cercanos como en un teléfono móvil o webcam de equipo sino del habla de una o varias personas en una sala a pocos metros de distancia.

Kinect busca un nuevo tipo de interfaz gráfica que según Microsoft va a ser lo que se impondrá en el futuro para ordenadores, televisión, no sólo para videoconsolas de juegos cooperativos o familiares. Natural User Interface (NUI) más que la clásica Graphic User Interface (GUI).

Artículo en inglés en Wired Gadget Lab.

Solsticio de verano

Los solsticios son aquellos momentos del año en los que el Sol alcanza su máxima posición meridional o boreal, es decir, una máxima declinación norte (+23º 27′) y máxima declinación sur (-23º 27′) con respecto al ecuador terrestre. En el solsticio de verano del hemisferio Norte, el Sol alcanza el cenit al mediodía sobre el Trópico de Cáncer y en el solsticio de invierno alcanza el cenit al mediodía sobre el Trópico de Capricornio. El solsticio es un término astronómico relacionado con la posición del Sol en el ecuador celeste, el nombre proviene del latín solstitium (sol sistere o sol quieto).

A lo largo del año la posición del Sol vista desde la Tierra se mueve hacia el Norte y el Sur. La existencia de los solsticios está provocada por la inclinación del eje de la Tierra sobre el plano de su órbita. En los días de solsticio, la longitud del día y la altura del Sol al mediodía son máximas (en el solsticio de verano) y mínimas (en el solsticio de invierno) comparadas con cualquier otro día del año. En la mayoría de las culturas antiguas se celebraban festivales conmemorativos de los solsticios, que eran reconocidos tras milenios de observación y anotaciones en tablillas de arcilla de las posiciones del Sol y de la Luna. Las observaciones celestes comenzaron en los pueblos del periodo sumerio, se conservaron e incrementaron en el periodo babilonio y fueron actualizados en los reinos mesopotámicos relacionados con egipcios y griegos.

Las fechas de los solsticios son idénticas al paso astronómico de la primavera al verano y del otoño al invierno en zonas templadas. Las fechas del solsticio de invierno y del solsticio de verano están cambiadas para ambos hemisferios. Los sacerdotes astrólogos encargados de las anotaciones en las culturas antiguas en Mesopotamia, tomaban nota de las posiciones del Sol al salir desde el Este, llegar a una altura máxima y ponerse por el Oeste, relacionando los cambios de posiciones de los astros con las estaciones. Además relacionaban la duración de los dias con la inclinación del Sol, descubriendo un día de duración mínima y un día de duración máxima y que dos días al año las noches y los días tenían la misma duración.

Movimiento de la Tierra respecto al Sol
Rotación de la Tierra respecto al Sol

En el día de solsticio, la longitud del día y la altitud del Sol al mediodía son máximas o mínimas respecto a cualquier otro día del año. Los solsticios, momentos del año en los que el Sol alcanza su máxima posición meridional o boreal, y los dos equinoccios como la intersección del ecuador celeste y la eclíptica -la linea que se traza siguiendo las posiciones del Sol a lo largo del año en un círculo máximo de la esfera celeste-; los cuatro puntos en los que inician las estaciones del año.

El solsticio ocurre regularmente alrededor del 21 de junio y es llamado de verano en el Hemisferio Norte o de invierno en el Hemisferio Sur. El día del solsticio de junio es el día más largo del año en el hemisferio Norte, y el más corto en el hemisferio Sur. En el polo Norte el sol circula el cielo a una altitud constante de 23°.

En el Círculo polar ártico el centro del Sol solamente toca el horizonte del Norte sin ponerse. El sol culmina al Sur, donde alcanza su altitud máxima de 47°. Es el único día en que el sol se mantiene sobre el horizonte durante 24 horas. En el Trópico de Cáncer el sol sale 27° Norte del Este. Culmina al cenit, y se pone 27° Norte del Oeste. El sol está sobre el horizonte durante 13,4 horas.

Solsticio de verano
Iluminación de la Tierra por el Sol en el solsticio de junio.

En el ecuador el sol sale 23° Norte del Este. Culmina al Norte, donde alcanza su altitud máxima de 67°. Se pone 23° Norte del Oeste. El sol está sobre el horizonte durante 12 horas. En el Trópico de Capricornio el sol sale 27° Norte del Este. Culmina al Norte, donde alcanza su altitud máxima de 43,12°. Se pone 27° Norte del Oeste. El sol está sobre el horizonte durante 10,6 horas.

En el Círculo polar antártico el centro del Sol solamente toca el horizonte del Norte sin salir. Es el único día en que el sol se mantiene abajo del horizonte durante 24 horas. En el polo Sur el Sol nunca sale, siempre se mantiene 23° abajo del horizonte.

¿Cómo podemos viajar en el tiempo?

El viaje a través del tiempo es de momento una teoría científica o conjunto de conjeturas sobre cómo podríamos desplazarnos hacia delante (futuro) o hacia atrás (pasado) en diferentes puntos del tiempo, así como lo hacemos en el espacio. De acuerdo con la descripción convencional de la doble teoría de la relatividad de Einstein sobre los sistemas de referencia en mecánica, las partículas materiales al moverse a través del espacio-tiempo se mueven hacia delante en el tiempo, teniendo por tanto una dirección privilegiada, es decir, obligatoriamente van hacia el futuro, y se desplazan hacia un lado u otro del espacio. En la ecuación de la equivalencia E=m.c^2 que la energía total y la masa sean positivas está relacionado con el hecho de que las partículas se mueven hacia el futuro. Cuando las partículas alcanzan velocidades próximas a la velocidad de la luz (c=300 000 km/s), extremo estudiado en la teoría de la relatividad especial, el tiempo pasa más lentamente y los relojes atrasan la hora.

Antes de que Einstein desarrollase su doble teoría de la relatividad (general, para sistemas de referencia de velocidades comunes a nivel macroscópico; especial, para partículas que se mueven a la velocidad de la luz), existieron ideas científicas dispares sobre la teoría de la materia de la luz. Hacia finales del siglo XIX, James Clerk Maxwell (1831-1879) había propuesto que la luz era una onda transversal, por tanto no corpuscularista algo que sí es crucial en física cuántica, por los fotones, donde la luz tiene una dualidad onda-corpúsculo. Como parecía difícilmente concebible que una onda se propagase en el vacío sin ningún medio material que hiciera de soporte se postuló que la luz podría estar propagándose realmente sobre una hipotética sustancia material, para la que se usó el nombre de éter luminífero, tomando el nombre de uno de los elementos que describió el egregio filósofo griego Aristóteles en su metafísica idealista, ya en el siglo IV antes de nuestra Era.

En 1887 se desarrolló un experimento para tratar de probar la existencia del éter, Albert Abraham Michelson (1852-1931) y Edward Morley (1838-1923) diseñaron un experimento mediante espejos capaz de medir la velocidad de la luz en dos direcciones perpendiculares entre sí y con diferente velocidad lineal relativa al éter. El experimento de Michelson y Morley utilizaba un interferómetro para tratar de detectar una diferencia de velocidad por el movimiento de la luz respecto al éter, pero no encontraron el efecto esperado. Antes de Einstein, fue Hendrik Antoon Lorentz quién desarrolló las transformaciones de Lorentz a partir de ecuaciones de la mecánica newtoniana para explicar matemáticamente el fenómeno del acortamiento en uno de los brazos del interferómetro, al estar en movimiento.

El espacio como el tiempo son magnitudes físicas desde un punto de vista realista, existen con independencia de la actividad cognoscitiva de sujetos racionales. Tal como la ley de la gravedad se aplica aunque un chalado crea en su mente que puede saltar volando desde un edificio y planear como superman. Por tanto, el tiempo transcurre siempre, como de hecho ha ocurrido en el Universo y en la historia del planeta que dilapidamos, incluso si la especie humana -de por sí epígona en la vida en la Tierra- u otras formas de vida inteligente no hubieran aparecido nunca, el tiempo habría seguido pasando. Descartamos así cualquier epistemología filosófica basada en el idealismo, sea trascendente o inmanente, donde el megalómano sujeto ponga su actividad mental como presupuesto del espacio-tiempo.

De la teoría de la relatividad se deduce que viajar a velocidades cercanas a la velocidad de la luz ocasiona una dilatación del tiempo, por la cual el tiempo de un individuo que viaja a esa velocidad pasa más lentamente. Desde la perspectiva del viajero, el tiempo parece fluir más rápidamente, causando que el viajero llegue a un lugar más adelante en el futuro. Esto es solamente una suposición ya que nunca ha ocurrido para personas, en todo caso, para partículas donde una viaja a velocidad cercana a la celeridad de la luz (300.000 km/s) y otra a una velocidad muy inferior y perfectamente posible para los transportes más veloces en la actualidad (trenes, aviones), aquella envejece mucho más lentamente, el tiempo pasa mucho más despacio, lo que daría lugar a paradojas como si pensamos en dos gemelos. En la paradoja de los gemelos, los dos hermanos inicialmente idénticos se encontrarían en el futuro pero habrían recorrido caminos diferentes, uno de ellos tendría su reloj atrasado al haber viajado a velocidades cercanas a la celeridad de la luz, se conservaría más joven. El efecto relativista de la dilatación del tiempo nos ofrece, al menos teóricamente, la posibilidad de viajar al futuro envejeciendo más lentamente, toda una terapia anti-aging que desbancaría las acaudaladas marcas de cosméticos con sus onerosas cremas antiarrugas y los pseudoestetas que inyectan bótox aprovechándose de las inseguridades de las mujeres de mediana edad.

Debido a las leyes físicas de la mecánica relativista, solamente son planteables teóricamente los viajes hacia el futuro, teniendo esa dirección privilegiada, esto es, sentido obligatorio hacia adelante en el tiempo. Pero no sería posible volver a un tiempo pasado, regresar a una fecha anterior para cambiar la historia, sea alterar hechos triviales o banales para trastocar anécdotas individuales, alterar hechos importantes para la vida de una persona o provocar una ucronía modificando el curso de los acontecimientos de forma determinante en la historia de la humanidad. Lo cual descartaría el cine de ciencia ficción como Back to the future, como la narrativa empleada por el mangaka Toriyama sobre el viaje de Trunks en Dragon Ball Z en su máquina de la empresa aeroespacial Capsule y las teorías de conspiración sobre viajes de turistas extraterrestres venidos del futuro. En realidad todas las partículas viajan continuamente hacia el futuro, ya que el tiempo fluye siempre en la misma dirección, y el paso del tiempo es solamente el movimiento hacia el futuro, en los términos en que los describe la teoría de la relatividad. Sin embargo, el flujo de avance hacia el futuro puede ser algo lento para la duración de la vida humana. Para conocer lo que sucederá mañana, sólo tenemos que esperar un día sin necesidad de desplazarnos, pero conocer cómo será la civilización dentro de cientos de años, es más complicado.

El tiempo propio medido por un observador en movimiento respecto a otro será menor y la magnitud del efecto viene dada por la velocidad (v) del observador en movimiento y la velocidad de la luz (c). En la siguiente fórmula se observa que la dilatación de tiempo depende del denominador, dentro de la raíz, se resta a 1 el resultado de la fracción, teniendo en cuenta que v es estrictamente menor que c , el resultado está comprendido entre 0 y 1. Tiende a 0 cuando v es mucho menor y a 1 cuando v se aproxima a c. Teniendo en cuenta la fracción, el resultado final del denominador será prácticamente igual a 1 si la velocidad v es despreciable respecto a la velocidad de la luz, sin embargo la dilatación temporal se aprecia cuando v se aproxima al valor de c.

formula Lorentz dilatación tiempo

– Delta t cero, es el intervalo temporal entre dos eventos co-locales para un observador en algún sistema de referencia inercial.
– Delta t, es el intervalo temporal entre los dos mismos eventos, tal y como lo mediría otro observador moviéndose inercialmente con velocidad v, respecto al primer observador.
– v es la velocidad relativa entre los dos observadores.
– c es la velocidad de la luz.

Sin embargo, desde el punto de vista del propio observador en movimiento, él mismo está en reposo y él no percibe que esté envejeciendo más lentamente. De hecho, para este observador en movimiento sería el observador en reposo quien estaría envejeciendo más rápidamente. Sólo en situaciones en que aparecen sistemas de referencia no inerciales en que los dos observadores se encuentren puede darse una situación en que ambos observadores coincidan en que uno de ellos dos ha envejecido más lentamente.

Si consideramos un observador que se aleja en una nave con una velocidad que sea un 90% de la luz, el tiempo transcurrido en la Tierra, ignorando el efecto de dilatación gravitacional del tiempo para simplificar, sería unas 2,30 veces más lento según un observador en la Tierra. Es decir, que incluso yendo a esta altísima velocidad sólo ganaríamos un modesto factor dos en nuestro viaje al futuro.

Para viajar a futuros más lejanos sería necesario hacer que la velocidad fuera aún más cercana a la de la luz. Nuestra nave viajando a gran velocidad en un camino con origen y regreso a la Tierra es una máquina del tiempo para viajar al futuro que, en la medida en que seamos capaces de incrementar su velocidad, nos puede llevar sin envejecer a cualquier tiempo posterior al nuestro.

En la Tierra recibimos partículas que vienen del centro de nuestra galaxia a distancias que la luz tarda miles de años en recorrer. Es decir, fueron producidas hace miles de años terrestres. Sin embargo, estas partículas no pueden resistir un viaje ni siquiera de un minuto ya que se desintegran en cuestión de segundos después de haber sido creadas. Esas partículas han sido aceleradas a velocidades tan cercanas a la de la luz, que sólo habían envejecido segundos mientras que en la Tierra transcurrían miles de años.

En un artículo aparecido en DailyMail, Stephen Hawking habla de forma amena y a nivel de divulgación sobre física, cosmología y la máquina del tiempo. Para comenzar, el tiempo debe de tenerse en cuenta como una cuarta dimensión, no sólo como magnitud física que junto al espacio, permite que se de la experiencia sensible. No es complicado aceptar que nos desplazamos en hasta tres dimensiones, altura, anchura y profundidad; con una velocidad cercana a la de la luz, se puede hacer que el tiempo pase muy lentamente.

expansión universo dimensión temporal

Hawking utiliza la analogía del cine y la ciencia ficción donde un individuo abre un portal o bien utiliza una máquina del tiempo para entrar en un túnel que le lleve al pasado o hacia el futuro. Un agujero de gusano es también un túnel o un atajo en el espacio-tiempo. En el mundo perceptible en tres dimensiones, todo objeto no es completamente sólido y compacto, toda materia está unida según su estado físico-químico por enlaces, pero a nivel molecular, atómico y en física cuántica, hay siempre espacios abiertos, mínimos entre la materia. En la cuarta dimensión, la temporal, ocurre de forma similar, hay espacios abiertos en el espacio-tiempo, que aparecen y se van formando, en el mundo cuántico, los agujeros de gusano conectan dos espacios y dos tiempos diferentes. Estos agujeros o túneles son imperceptibles, puesto que son del orden de 10^-34 cm, lo que se busca tras aceptar teóricamente su existencia es pensar si sería posible construir un túnel gigante basado en un agujero de gusano donde una entrada estaría en un espacio-tiempo determinado, la Tierra y nuestro momento contemporáneo y la salida sería otro espacio-tiempo.

cosmologia agujeros de gusano

La máquina construida por el hombre que mayor velocidad ha alcanzado en la historia es Apollo 10, aproximadamente 11,08 km/s, pero para viajar en el tiempo la nave tendría que ir 10 000 veces más rápido. Toda máquina del tiempo iría hacia el futuro con velocidades cercanas a la de la luz pero cualquier viaje al pasado lleva a paradojas que incumplen principios fundamentales. Según Hawking, el primer científico que estableció que hay zonas donde el tiempo es más lento y zonas donde el tiempo avanza más rápido, fue Einstein.

cohete espacial

Un ejemplo práctico son los satélites que orbitan alrededor de la Tierra para dar servicios como el geoposicionamiento o GPS. Los relojes de astrofísica son increiblemente precisos y complejos, sin embargo en cada satélite los relojes tienen que controlar y ajustar el tiempo continuamente ya que en el espacio el tiempo no avanza igual que en la Tierra. Suelen tener desajustes de una tercera parte de billón de segundo, que se acumularían diariamente sin corrección, causando el caos en la Tierra. El tiempo pasa más rápido en el espacio debido a la masa de la Tierra, cuanto mayor es la masa de un objeto, más se prolonga el tiempo. Según apunta Hawking, en el centro de la vía Láctea a 26.000 años luz de nosotros, hay un gigantesco agujero negro, con una masa 4 veces la de una estrella como el Sol, plegado hacia un único punto interior donde recae la fuerza de la gravedad. Un agujero negro de este tipo tiene un efecto dramático ralentizando el tiempo. Si una misión espacial orbitase cerca de un agujero negro semejante, tras regresar años después (hipotéticamente) a la Tierra, serían mucho más jóvenes, aunque difícilmente se reduciría el paso del tiempo más de la mitad de lo percibido en la Tierra.

expansión universo dimensión temporal

No es práctico debido a la distancia a recorrer debido al principio de expansión del Universo, además del riesgo de ser atraídos en un agujero negro, bajo un campo gravitatorio semejante cae toda partícula. A la velocidad de la luz se pueden dar siete vueltas orbitando alrededor de la Tierra en un segundo, eso haría percibir todo lo que sucede en la nave a cámara lenta para un observador externo.

Si una nave semejante saliese de la estación espacial el 1 de enero de 2050, circulase alrededor de la Tierra a velocidades muy próximas a la luz, durante 100 años para regresar a la Tierra en el año 2150, los pasajeros habrían vivido relativamente una semana en la nave al ralentizarse el tiempo, pero encontrarían un mundo totalmente cambiado a su llegada, un mundo futurista. No hay naves así, ni parece que puedan construirse, sin embargo hay algo parecido, el acelerador de partículas subatómicas más avanzado del mundo. El Gran Colisionador de Hadrones, GCH (en inglés Large Hadron Collider, LHC) es un acelerador y colisionador de partículas ubicado en la Organización Europea para la Investigación Nuclear (CERN, sigla que corresponde su antiguo nombre en francés: Conseil Européen pour la Recherche Nucléaire), cerca de Ginebra, en la frontera franco-suiza.

Gran Colisionador de Hadrones

Dentro del colisionador, dos haces de protones son acelerados en sentidos opuestos hasta alcanzar el 99,99% de la velocidad de la luz, y se los hace chocar entre sí produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos inmediatamente después del Big Bang. Dentro del túnel circular de 27 km de circunferencia, se encuentran trillones de partículas subatómicas, la esperanza de vida de estas partículas es muy corta, cuando el acelerador funciona, pueden alcanzar velocidades cercanas al límite de la velocidad cósmica, de la luz antes de desintegrarse. Cuando se acercan a los 300 000 km/s sin llegar nunca a esta barrera, puedan durar más tiempo antes de desaparecer.

Para poder viajar en el tiempo, será necesario ir a esas velocidades, viajando en una nave por el espacio, además de poder transportarse a un periodo futuro, será posible recorrer enormes distancias a través del Universo, un lugar donde el tiempo discurre a diferentes velocidades.

Otros métodos para viajar en el tiempo en Wikipedia.

Deimos 1, satélite espacial y vigilante medioambiental

Deimos 1 se convirtió el pasado 29 de julio del 2009 en el primer satélite espacial puesto en órbita por una compañia privada española, DEIMOS Imaging empresa para el diseño, implementación, operaciones y explotación de un sistema espacial completo de Observación de la Tierra. Su director general Pedro Duque, primer astronauta español, junto con un equipo de profesionales muy cualificados a nivel técnico en ingeniería, desarrollan sistemas de teledetección. Desde la página de la compañia Deimos Imaging se pueden ver datos sobre el desempeño del satélite y algunas imágenes tomadas desde el espacio de diversas zonas del planeta Tierra.

satélite Deimos 1

Deimos-1 posee un sensor óptico multiespectral con una resolución de 22 m y un amplio barrido de más de 600 km, sus dimensiones son de 63 x 63 centímetros de tipo cúbico y cerca de 90 kilos de peso. El satélite graba a bordo las imágenes de la Tierra para su posterior volcado en la estación de seguimiento de satélites propia situada en el Parque Tecnológico de Boecillo (Valladolid). Deimos Imaging desarrolló el nuevo satélite en colaboración con Surrey Satellite Technology Limited (SSTL) con base en Guildford (Reino Unido), empresa líder en la construcción de pequeños satélites.

Las placas solares que pueden verse en el exterior del satélite en los laterales, sirven para aprovechar la incidencia de rayos solares y abastecerse de energía, las seis cámaras de la parte inferior toman las imágenes y las antenas transmiten estas imágenes a la estación de control. El Deimos-1 está en órbita a 680 kilómetros de altura sobre la superficie terrestre, sobrevolando los polos, va tomando imágenes en el rango visible del espectro de longitudes de onda y en infrarrojo, de una franja de la Tierra de unos 600 kilómetros de ancho, con una resolución de de hasta 20 metros.

El satélite tiene zonas preferentes de barrido y análisis, como son España, y especialmente la región de Castilla y León donde está ubicado el sistema, Portugal, donde la empresa Deimos Engenharia contribuirá a la explotación comercial del mismo y el resto de Europa, donde pretende contribuir al despliegue del programa GMES (Global Monitoring Environment and Security) de la ESA y la Unión Europea.

El satélite está integrado en la constelación internacional DMC (Disaster Monitoring Constellation) que está formada por satélites del Reino Unido, China, Nigeria, Argelia y Turquía, fabricados asimismo por SSTL. El uso combinado de los satélites de esta constelación proporciona una capacidad única de observación de la Tierra, con más de una visita diaria a cualquier lugar del globo. Cada miembro del consorcio posee y opera su propio satélite, mientras co-opera la constelación junto con el resto de países miembros. Este modelo de co-operación permite que la información generada por un satélite pueda ser utilizada por los otros miembros del consorcio.

satélite Deimos 1

El satélite Deimos-1 sirve para dar apoyo a la planificación de riegos, controlar la explotación de los acuíferos, el seguimiento de una sequía, la localización de daños por heladas o granizo, detectar vertidos y áreas inundables, analizar el éxito de la regeneración de áreas quemadas, la detección de incendios forestales o de plagas y la localización de embarcaciones. Con las imágenes se elaboran cartografías donde se analiza la vegetación, el riesgo de incendio, inundación y se ayuda en la agricultura y en definitiva al medio ambiente. El color verde intenso es un buen estado de vegetación, amarillo es moderado, y naranja o rojo son los niveles peores y con mayor posibilidad de incendio.

imágenes satélite Deimos 1

«Queremos proporcionar a los clientes no sólo imágenes, sino información directamente útil sobre, por ejemplo, las necesidades de nutrientes y de agua de los cultivos, indicando al agricultor cuándo, dónde y cuánto abonar», ha explicado Duque. «También podremos proporcionar datos acerca de incendios forestales o de la cobertura vegetal del territorio y su degradación». Para él son especialmente interesantes las repercusiones positivas para el medio ambiente que puede proporcionar el Deimos-1, desde esa reducción del abonado o la optimización del riego para evitar el derroche de agua, hasta el control de la deforestación o la vigilancia de vertidos contaminantes.

«Hace 40 años, cuando el hombre llegó a la Luna, había mucha ilusión pensando que se iba a revolucionarlo todo», ha comentado Duque a propósito del 40 aniversario (el día 16 de julio) del lanzamiento del Apollo 11. «Realmente, hoy en día todo el mundo está informado inmediatamente de lo que ocurre en todo el mundo gracias a los satélites de telecomunicaciones, que han sido una revolución; y mucha gente lleva en el bolsillo un receptor espacial, un sistema de localización por satélite, con el que viajamos sin perder tiempo en buscar a dónde vamos. Pero la revolución actual es la de las aplicaciones de observación de la Tierra: sólo desde el espacio se puede observar todo el planeta, por ejemplo los parámetros del cambio climático, o la vigilancia medioambiental. También es una revolución para la agricultura, porque puede ayudar mucho a mejorar la rentabilidad de los cultivos».

imágenes satélite Deimos 1

«Está pensado para ser útil para la parcela española normal. No es un satélite espía diseñado ver la matrícula de los vehículos del enemigo, sino para aplicaciones de observación de la Tierra», comenta Duque. Las instituciones como la UE, a través de la Agencia Europea del Espacio (ESA), están ya en la cartera de clientes de Deimos Imaging, pero la empresa cuenta con que su producto, los informes que sus expertos pueden elaborar a partir de las imágenes del satélite y de modo casi inmediato, sirvan también a muchos agricultores privados, además de organismos como municipios, comunidades autónomas y otros organismos.

Evidentemente el papel del satélite y de los técnicos aeroespaciales es solamente una parte, los ingenieros aeronáuticos indican a otros profesionales, gracias a las imágenes del satélite, como es más conveniente actuar, por ejemplo, indican a los agricultores donde invertir en regadío, donde suministrar abono para mejorar la cosecha, como también indican a los guardias forestales, a las cuadrillas de limpieza de bosques y a las brigadas de extinción de incendios como deben coordinarse para proteger la vegetación de una zona.

«Nuestro sistema de observación de la Tierra incluye, además del satélite, la estación de seguimiento y todo el grupo de expertos, en colaboración con el Laboratorio de Teledetección de la Universidad de Valladolid, capaces de preparar los informes requeridos por cada cliente a partir de las imágenes del Deimos-1«, explica Duque. En Francia, por ejemplo, centenares de miles de hectáreas de cultivo están siendo explotadas con provecho gracias a la información de satélites, si los fertilizantes suponen un porcentaje significativo del coste de la cosecha y se pueden reducir en un 50%, la rentabilidad económica del servicio del satélite es obvia.