INICIO › FOROS › GENERAL › Lo que tú digas › Hablemos de CIENCIA
Etiquetado: ciencia, Hablemos de CIENCIA
- Este debate tiene 340 respuestas, 25 mensajes y ha sido actualizado por última vez el hace 1 mes por marea.
-
Ostia,pues eso es muy muy interesante…a ver si sale adelante [i]El corazón de la Vía Láctea sigue activo, aunque sus latidos sean muy esporádicos. Los astrónomos han identificado dos chorros a propulsión de rayos gamma que han salido, en direcciones opuestas, del agujero negro supermasivo que tiene en su centro galáctico, conocido como Sagitario A.Los chorros, según publican en la revista ‘Astrophysical Journal’ los investigadores del Smithsonian Harvard Center of Astrophysical, bajo la dirección el chino Meng Su, debieron producirse hace un millón de años, que en tiempos astronómicos es muy poco. «Su detección nos dice que el núcleo galáctico estaba activo hace relativamente poco tiempo», señala Su en un comunicado de su universidad.
Las dos ráfagas fueron detectadas por el telescopio espacial Fermi de la NASA, y se extienden a lo largo de 27.000 años luz encima y debajo del plano galáctico. Son las primeras de rayo gamma que se han detectado y se relacionan con unas misteriosas burbujas, también de rayos gamma, que el mismo telescopio detecto en 2010 y también ocupan unos 27.000 años luz, desde el centro de la Vía Láctea.
«Puede ser que el disco central se haya torcido en espiral hacia el agujero negro, debido a su fuerza de atracción», afirma Douglas Finkbeiner, también coautor de la investigación.
Los chorros se produjeron cuando el plasma fue arrojado hacia fuera del núcleo de la galaxia pero, como si fuera un sacacorchos, permanecía firmemente sujeto por el campo magnético. Los astrónomos creen que las burbujas se formaron debido al viento que soplaba la materia caliente hacia el exterior.
Este hallazgo reabre la cuestión de la actividad de la Vía Láctea ahora y en el pasado. Como mínimo, los chorros comenzaron hace 27.000 años, pero pueden haber persistido mucho tiempo. Para que vuelvan a activarse, según Finkbeiner, sería necesario una gran cantidad de materia: sus estimaciones apuntan que se requeriría una masa molecular que pesara unos 10.000 soles.
«Para empujar 10.000 soles fuera del agujero negro habría un truco. Estos agujeros son sucios tragadores de materia estelar que luego arrojarían, accionando los chorros», señala el investigador.
[/i] [url url=http://imageshack.us/photo/my-images/827/13383740360.jpg/]http://img827.imageshack.us/img827/3457/13383740360.jpg[/url] http://www.elmundo.es/elmundo/2012/05/30/ciencia/1338374036.html El tránsito de Venus sobre el Sol, AHORA. Probablemente la última oportudidad (y la segunda) de verlo para la mayoría de los que estamos en este mundo en este momento. No me importaría ser alguno de los que pudiesen ver el siguiente 🙂 ya ya, 2017 creo, pero por eso decía que no estaría mal poder verlo 🙂 No, 2117, el ciclo actual se a cumplido con este tránsito. [i]Es un bosque en medio del desierto helado. Así lo describen, en un comunicado, los científicos que han descubierto, en una expedición de la NASA, que el Océano Ártico se está tiñendo de verde por la proliferación de plantas marinas microscópicas, que son esenciales para la vida en otros mares, pero que no habían sobrevivido hasta ahora en un ecosistema tan frío.El calentamiento global está, según el trabajo que publican esta semana en ‘Science’ detrás de un fenómeno que hasta ahora no se había detectado en toda su amplitud.
La expedición ICESCAPE (siglas de Impactos del Clima en los Ecosistemas y la Química del Ártico) exploró las aguas de los mares de Beaufort y Chukchi, en Alaska, a bordo de un rompehielos estadounidense. «Hemos observado una masiva expansión del fitoplancton entre 800 centímetros y 1,3 metros en la capa helada del primer año en el mar Chukchi», aseguran los autores.
Comparativa del hielo en 1979 y 2011, recogida por la NASA. |NASA
Esa capa se extiende en más de 100 kilómetros, un fenómeno que no había sido observado hasta ahora. El equipo ahora lo ha descubierto, ya fue capaz de encontrar hace un tiempo una ‘selva amazónica’ en medio del desierto de Mojave, en California, como recuerda Paola Bontempi, del programa de Biología Oceánica de la NASA.Los cambios en el Ártico ya habían sido detectados por imágenes de satélite de la NASA. La expedición tenía como objetivo confirmar los datos, en un lugar de difícil acceso desde tierra.
Hasta ahora se pensaba que estas plantas que tiñen de verde el agua y son la base de la cadena alimenticia marina, sólo crecían después de que el hielo del mar se retiraba, lo que ocurre en verano. El problema, dice el biólogo Sam Laney, del Woods Hole Oceanographic Institution, está en que, igual que un aguacero hace florecer el desierto, la acumulación de agua de deshielo en cortos periodos de tiempo en el Ártico tienen importantes efectos sobre el ecosistema.
Flores bajo el hielo
Según sus análisis, al adelgazarse el hielo, la luz solar llega a las aguas que hay bajo la capa helada sobre el mar, lo que permite que la planta se desarrolle. «Si alguien me hubiera preguntado si veríamos flores bajo el hielo, les habría dicho que no era posible», reconoce Kevin Arrigo, de la Universidad de Stanford y líder de la expedición. «Ha sido una completa sorpresa», ha asegurado.
El fitoplancton, además, tuvo un crecimiento extremadamente activo, llegando a doblar su cantidad en un solo día, cuando las flores, en aguas abiertas, tardan dos o tres. Es más, los investigadores estiman que estas tasas pueden llegar a multiplicar por 10 las tasas de crecimiento de las plantas en aguas abiertas.
Como el fitoplancton, a su vez, consume grandes cantidades de dióxido de carbono, los científicos tendrán que evaluar, más adelante, cuánto CO2 está entrando en el Océano Ártico si resulta que estas plantas llegan a ser comunes bajo el hielo. «En este momento no sabemos si estas floraciones acaban de empezar a producirse o si es que no las hemos observado antes», señala Arrigo, quien cree que si el hielo sigue adelgazando, al final se convertirá en un bosque sobre el mar.
[/i] Si bueno, lo puse mal, está claro que no me estoy explicando con el tema este 🙂 A 2017 si espero que llegemos todos, a lo que me referia era a 2117, ahora si.[i]A falta de conocer el próximo miércoles los últimos datos sobre la búsqueda del Bosón de Higgs en la Organización Europea para la Investigación Nuclear (CERN), físicos de Laboratorio del Acelerador Nacional Fermi (Tevatrón) de Estados Unidos acaban de anunciar que han registrado en sus estudios la evidencia más fuerte de la presencia del Bosón de Higgs. Sin embargo, han apuntado que los datos no son suficientes y que aún están lejos de hallarlo.El Tevatrón ya no está en funcionamiento, pero los expertos están actualmente trabajando en los últimos datos que se recogieron del acelerador antes de su cierre, en octubre de 2011.
Según han explicado los expertos, los resultados no son concluyentes porque los datos que insinúan la existencia de la partícula también podrían provenir de otras partículas subatómicas. De este modo, actualmente, los físicos sólo podían descartar otras explicaciones con una confianza de 550 a 1.
Esto significa que hay una probabilidad de menos de 0,2% de que los restos de la colisión no sean de la partícula. Pero por las convenciones internacionales, la probabilidad debe ser cercana al 0,14% para considerarse prueba.
El miércoles, físicos de la Organización Europea para la Investigación Nuclear (CERN) tienen previsto anunciar sus propios hallazgos sobre la búsqueda del Bosón de Higgs durante la Conferencia Internacional de Física de Altas Energías (ICHEP 2012) que se celebra en la ciudad australiana de Melbourne.
[/i] http://www.elmundo.es/elmundo/2012/07/02/ciencia/1341251642.html [i]La búsqueda del bosón de Higgs, la partícula elemental que, si existe, ayuda a explicar el origen de la masa de las partículas que la tienen, está cada vez más cerca del éxito. A la espera de que el próximo miércoles los científicos presenten sus resultados más recientes obtenidos en el gran acelerador LHC, junto a Ginebra, los físicos del acelerador estadounidense Tevatron han dado a conocer sus últimos datos. “Los análisis finales no resuelven la cuestión de si la partícula de Higgs existe, pero se acercan a una respuesta”, declaran los especialistas de Fermilab, el laboratorio que aloja el Tevatron, junto a Chicago. Lo que tienen es “el indicador más fuerte hasta la fecha de la partícula de Higgs”. Pero ellos mismos reconocen que no es suficiente y que habrá que esperar las conclusiones de este lado del Atlántico. En cualquier caso, los datos de los experimentos de ambos aceleradores son complementarios.El Tevatron, que arrancó en 2001, ha estado funcionando hasta septiembre de 2011, cuando se apagó definitivamente. Es un acelerador más pequeño y menos potente que el LHC, en el Laboratorio Europeo de Física de Partíoculas (CERN), pero muchos de los científicos que han venido trabajando en sus dos detectores (CDF y Dzero), incluidos unos 1.700 estadounidenses, trabajan también en el LHC. Varios equipos españoles integrados en los experimentos del LHC participan en los de Tevatron.
Los físicos han estado analizando, o “exprimiendo al máximo”, como ellos dicen, los datos que habían tomado con el Tevatron. Se trata de información de 500 billones de colisiones. “Nuestros datos apuntan muy fuertemente hacia la existencia del bosón de Higgs, pero harán falta los resultados de los experimentos del LHC, en Europa, para establecer que se trata de un descubrimiento”, ha declarado Rob Roser, coportavoz de CDF. Los análisis de Fermilab indican que la partícula de Higgs tendría una masa de entre 115 y 135 gigaelectronvoltios (GeV), es decir, unas 130 veces la masa del protón. En el LHC, aunque los físicos de los experimentos Atlas y CMS siguen analizando sus datos y no han hecho declaraciones al respecto, la masa del Higgs podría estar en torno a 125 GeV.
El mecanismo de Higgs es una propuesta teórica de hace ya medio siglo que permitiría explicar por qué tienen masa las partículas elementales que tienen masa; es la última pieza que falta en el Modelo Estándar que describe las partículas y las interacciones entre ellas.
La famosa partícula, cuyo hallazgo supondría un avance determinante para comprender algo tan fundamental como el origen de la masa, se crearía de vez en cuando en las colisiones de protones contra protones (en el LHC) o de protones contra antiprotones (en el Tevatron), pero desintegrándose inmediatamente, por lo que los físicos tienen que analizar los datos de billones de choques de esas partículas aceleradas y buscar en sus efectos posibles pistas de esas desintegraciones que puedan corresponder al Higgs. Pero la nueva partícula en cuestión puede desintegrarse de varias maneras y el Tevatron ha sido eficaz en captar la desintegración del Higgs en un quark y un antiquark bottom, mientras que el LHC, tardará en optimizar esa desintegración concreta. De momento, lo que el acelerador de Ginebra ve más fácilmente son otras desintegraciones del Higgs.
“Hemos desarrollado simulaciones sofisticadas y programas de análisis para identificar los patrones del Higgs, pero aún así es más fácil encontrar la cara de un amigo en un estadio con 100.000 personas que encontrar una señal del Higgs en billones de colisiones”, explica Luciano Ristori, coportavoz de CDF.
Integran CDF 430 físicos de 58 instituciones de 15 países, mientras que en DZero, el otro gran experiemento del acelerador estadounidense, trabajan 446 físicos de 82 instituciones de 18 países. En los Atlas y CMS del CERN hay más de 3.500 especialistas en cada uno. Hacen falta equipos enormes y detectores colosales para seguir el rastro a los componentes más elementales de todo lo que existe.
La física de partículas es una ciencia de altísima precisión y los expertos solo aceptan haber descubierto algo cuando han descartado todas las posibles señales equívocas y fluctuaciones estadísticas de sus experimentos. Utilizan un término, 5 sigma, para determinar el hallazgo. Los científicos de Tevatron dicen que han obtenido 2,9 sigma con sus datos, lo que significa que solo hay una posibilidad en 550 de que la señal del Higgs sea debida a una fluctuación estadística. Aún así no es suficiente. En el CERN podrían estar muy cerca de 5 sigma, pero habrá que esperar hasta el miércoles para saberlo.
[/i] http://sociedad.elpais.com/sociedad/2012/07/02/actualidad/1341245768_179107.html [url url=http://imageshack.us/photo/my-images/94/1344276141extrasalbumes.jpg/]http://img94.imageshack.us/img94/959/1344276141extrasalbumes.jpg [/url]
El amartizaje del Rover Curiosity fotografiado por el satélite MRO (Mars Reconnaissance Orbiter).En esta foto se aprecia la diferencia de tamaños entre los 3 modelos de Rover enviados a Marte y el por qué de que sea considerado la misión marciana más compleja de todas las enviadas a Marte.
[url url=http://imageshack.us/photo/my-images/221/roversmarcianosnasa.jpg/]http://img221.imageshack.us/img221/9958/roversmarcianosnasa.jpg [/url] Se puede apreciar la diferencia de tamaño respecto a la misión de Rovers gemelos Spirit y Opportunity, pero, sobre todo, comparado con el minúsculo Sojouner, lanzado en el 1997 y que inauguraba la era de la exploración en superficie del planeta «gemelo».
Debido a esta diferencia de tamaño, este último amartizaje es completamente distinto al de los Rover precedentes;
Recordemos que fue así como aterizaron los Rovers gemelos, en una nave contenedora forrada de grandes airbags que los hacían rebotar a la vez que los protegían:
[url url=http://imageshack.us/photo/my-images/51/landerbagsmer.jpg/]http://img51.imageshack.us/img51/7992/landerbagsmer.jpg[/url] Estas otras muestran como aterrizaron los 3 primeros rovers, el pequeñito y los gemelos, aterrizaron «a plomo», como se suele decir;
[url url=http://imageshack.us/photo/my-images/138/mmandlnd1.jpg/]http://img138.imageshack.us/img138/4651/mmandlnd1.jpg[/url] [url url=http://imageshack.us/photo/my-images/696/getue.jpg/]http://img696.imageshack.us/img696/1998/getue.jpg[/url] A 11.000m de la superficie marciana se desplegó el mayor paracaídas espacial jamás usado, con una superficie telar de 16m2, y a 20m, se activan 8 retropropulsores que lo mantienen en el aire suspendido hasta que es transportado en grúa hasta la superficie marciana, y es en este cierto punto, con una maniobra jamas realizada en otro planeta, por lo que la misión pendía de un hilo para fracasar.
Debido a su considerable tamaño, 1.1m de alto, 2.5 de ancho y sus 3 de largo, su peso, cercano a la tonelada, resultaba inviable el aterrizaje como los anteriores, envueltos en bolsas protectoras.
[url url=http://imageshack.us/photo/my-images/825/aterrizajeenmarte.jpg/]http://img825.imageshack.us/img825/7574/aterrizajeenmarte.jpg [/url] [url url=http://imageshack.us/photo/my-images/809/0806nasagjpg687088226.jpg/]http://img809.imageshack.us/img809/292/0806nasagjpg687088226.jpg [/url] Uploaded with
[url url=http://imageshack.us]ImageShack.us[/url] PD:
Coste de la misión: 2.500 millones de dolares, tener colgados de un hilo (literalmente) semejante pastizal es como para tener .[url url=http://www.abc.es/20120625/ciencia/abci-minutos-terror-marte-201206251608.html]miedo[/url]
(El enlace contiene un vídeo explicativo del proceso de aterrizaje).[i]El Curiosity no es el primer vehículo de exploración que se envía a Marte, pero sí es el más grande (900 kilogramos) y el más sofisticado en cuanto a instrumentación científica que se haya enviado nunca a otro planeta. La misión tiene importantes objetivos científicos que podrían cambiar la investigación espacial de los próximos años. Y la ciencia española tiene un papel de punta de lanza en ese futuro espacial.El propósito principal del rover es estudiar las condiciones atmosféricas y geológicas de Marte, lo que podría desvelar de forma concluyente si el planeta rojo tiene o ha tenido en el pasado los ingredientes necesarios para albergar vida tal y como la conocemos en la Tierra. Para ello, el Curiosity cuenta con 10 instrumentos científicos encargados de medir diferentes parámetros en Marte.
Uno de ellos, el REMS, ha sido diseñado, desarrollado y montado por completo en España. «El éxito de la misión es nuestro éxito», asegura a ELMUNDO.es desde California Javier Gómez-Elvira, director del Centro de Astrobiología (CAB, centro mixto del CSIC y del INTA) e investigador principal del REMS, una estación ambiental que ayudará a entender en profundidad la atmósfera del planeta rojo. «El rover ha llegado sano y salvo después de un largo viaje de más de 500 millones de kilómetros, en los próximos días comenzaremos a mirar si el instrumento REMS ha llegado con buena salud, pero es de esperar que sí».
No encontrará vida, pero…
La atmósfera de Marte es muy similar a la de la Tierra, pero es menos densa. Por eso la radiación ultravioleta es mucho más intensa sobre la superficie marciana que sobre la de nuestro planeta. Y este tipo de radiación es muy dañina para la vida que conocemos. El propio REMS tiene un sensor dedicado a medir este tipo de radiación solar en el planeta rojo. «El análisis de la radiación ultravioleta servirá para saber cómo hay que proteger a los astronautas en misiones tripuladas a Marte», explica Gómez-Elvira. Entre otras cosas, la misión servirá como trampolín para lograr el objetivo de la NASA de enviar al primer ser humano a Marte en el año 2030.
El rover enviará datos de todo tipo y de forma contínua durante al menos los dos años que la agencia norteamericana tiene previsto que Curiosity ronde las rocas de los más de 150 kilómetros del cráter Gale en cuyo interior se ha posado.
«Sabemos que no vamos a encontrar vida, porque el Curiosity no lleva ningún sensor destinado a ello, pero si sacamos la conclusión de que Marte fue un planeta húmedo y cálido, tendremos una idea mucho más clara de que allí se pudieron dar las mismas condiciones que llevaron al surgimiento de la vida en la Tierra», explica Gómez-Elvira.
Debido a la elevada radiación ultravioleta de la superficie, los investigadores creen que la única posibilidad de que exista o haya existido alguna forma de vida parecida a los micoorganismos terrestres es que habitaran el subsuelo marciano.
Por ese motivo, una investigación española realizada en Río Tinto (Huelva) –quizá el mejor modelo de Marte sobre la Tierra– y llamada IPBSL (Detección de Vida en la Faja Pirítica Ibérica) está realizando perforaciones del subsuelo a un kilómetro de profundidad en busca de vida microbiana. Y ya ha dado en el clavo a una profundidad de entre 400 y 600 metros, según asegura su director Ricardo Amils.
La tecnología aún no está madura para volar hasta Marte, pero la NASA ya tiene en mente que alguna de las próximas misiones al planeta rojo sea precisamente para perforar su superficie en busca de alguna forma de vida.
[/i] [i]El Curiosity ha marcado un triunfo histórico en Marte. El vehículo todoterreno de la NASA sobrevivió ayer al más arriesgado y difícil descenso al suelo del planeta vecino que jamás se ha realizado. A las 7.32, hora peninsular, llegó a la Tierra la primera señal del robot indicando que estaba en el suelo del cráter Gale, su destino prefijado. Inmediatamente después llegaron sus primeras fotografías, en blanco y negro y con baja resolución, pero suficientes para provocar un estallido de alegría entre las decenas de expertos en la sala de control de la misión, en el Jet Propulsión Laboratory (JPL, en California), donde el director, Charles Elachi, anunció un entusiasta: “Bienvenidos a Marte”.La misión científica del Curiosity, que comenzará dentro de unas semanas, cuando se hayan revisado y puesto a punto todos los equipos de a bordo, pretende ayudar a determinar si Marte pudo tener en algún momento condiciones aptas para la vida. “Hoy, las ruedas del Curiosity han empezado a despejar el camino para las huellas humanas en Marte”, declaró poco después de la llegada al planeta rojo del robot el director de la NASA, Charles Bolden, presente en el JPL, quien subrayó la importancia de la tecnología en esta misión y recalcó el triunfo estadounidense, con un marcado significado político. “Es una hazaña extraordinaria, que han hecho posible un equipo de científicos e ingenieros de todo el mundo dirigidos por los extraordinarios hombres y mujeres de la NASA y nuestro JPL”, dijo.
El Curiosity pretende ayudar a determinar
si Marte pudo tener condiciones aptas
para la vida
Suavemente y con los sistemas vitales funcionando, llegó ayer a Marte el robot todoterreno Curiosity tras 36 semanas de viaje desde la Tierra. Eso es lo que indican todos los datos recogidos durante el complejo descenso del vehículo, suspendido de una plataforma, sobre una zona acotada previamente en el cráter Gale, al lado de una montaña. Una maniobra de descenso tan difícil que había sido bautizada como los siete minutos de terror. “Mi sensación ha sido que estaba viendo una película de aventuras. Me he tenido que convencer a mí mismo de que era real”, resumió Elachi.Aunque todavía no se conoce la situación exacta del Curiosity, el éxito del aterrizaje bastó para que los ingenieros y científicos en el JPL explotaran en gritos de júbilo y lágrimas de emoción, una alegría incontenible que se prolongó durante un buen rato. Una marea de camisas polo con el emblema del Curiosity bordado, que vistieron todos los ingenieros y científicos, incluido Elachi y exaltada por el triunfo tras los tensos minutos de silencio esperando las primeras señales del Curiosity, se pudo seguir en directo ayer en todo el mundo por Internet.
Poco después de la celebración, los miembros de la misión se reunieron en la primera sesión de trabajo tras el aterrizaje de su todoterreno para analizar los datos recibidos y hacer el plan de tareas para hoy. Las primeras fotos fueron tomadas por el Curiosity con una cámara de las que utilizará para orientarse en sus desplazamientos. Para las imágenes en color y alta calidad habrá que esperar a que se despliegue el mástil del vehículo dentro de unos días, explicaron ayer sus responsables.
El vehículo, que pesa casi una tonelada y dispone de 10 avanzados instrumentos de exploración, entre ellos una estación meteorológica construida en España, es el más grande, complejo y avanzado que llega a la superficie de Marte. Por delante tiene una misión de dos años de duración (un año marciano), que dedicará a estudiar el entorno para establecer con mayor seguridad las posibilidades de que haya habido vida en algún momento de su historia en el planeta rojo.
Los siete minutos de terror se han convertido en los siete minutos
de triunfo
John Grunsfeld
“Los siete minutos de terror se han convertido en los siete minutos de triunfo”, señaló el director científico de la NASA, John Grunsfeld. “Curiosity nos habla desde la superficie de Marte», comentó el director del proyecto, Peter Theisinger en Pasadena.Los instrumentos científicos del Curiosity tienen una masa total 15 veces mayor que sus predecesores en el suelo del planeta rojo, los rovers Spirit y Opportunity, que han estado varios años recorriendo la superficie marciana, a los que dobla en longitud y quintuplica en masa. Algunas de las herramientas que lleva nunca se han utilizado en Marte, como un instrumento láser que estudia la composición de las rocas a distancia. También dispone de un taladro para extraer muestras de rocas que recogerá con un brazo robótico para analizarlas en su laboratorio interno.
El lugar de aterrizaje permitirá también al vehículo acercarse a los estratos inferiores del monte Sharp existente en el cráter Gale, en los que las observaciones orbitales han identificado minerales arcillosos indicativos de la presencia de agua en la antigüedad.
Ayer el Curiosity se comunicó con la tierra, a 248 millones de kilómetros, a través de los satélites en órbita de Marte, que actuaron como repetidores de las señales. A la escucha estaba la denominada red de espacio profundo de la NASA, con sus tres estaciones de seguimiento, incluida la de Madrid, en Robledo de Chavela. Cuando el Curiosity tocó suelo marciano, la Tierra se había puesto tras el horizonte en la zona, y el robot no estaba en visibilidad directa con su planeta de origen. Durante la operación del vehículo, los expertos de la NASA podrán utilizar de nuevo los mismos satélites o comunicarse directamente, pero para ello el Curiosity tiene que desplegar, en los próximos días, su antena principal (construida por las empresas españolas EADS-CASA y Sener).
La cooperación internacional tiene un papel importante en la misión del Curiosity, como en casi todas del JPL. Además del instrumento español, hay dos franceses y uno ruso, y la Agencia Europea del Espacio (ESA) contribuye a recoger datos del Curiosity a través de su sonda Mars Express, en órbita de Marte. La nave empezó a registrar señales del Curiosity minutos antes de que este explorador, del tamaño de un coche, aterrizara en la superficie del planeta.
“Felicidades a nuestros colegas de la NASA por un aterrizaje enormemente exitoso”, ha señalado Paolo Ferri, director de Operaciones Solares y Planetarias de la ESA. “El equipo del Mars Express da la bienvenida a un nuevo amigo en el vecindario”, ha añadido.
[/i] http://sociedad.elpais.com/sociedad/2012/08/06/actualidad/1344277918_691864.html [i]La tecnología española ha pisado por primera vez la superficie marciana a bordo del explorador ‘Curiosity’. Una estación medioambiental diseñada, desarrollada y montada por completo en España, es uno de los diez instrumentos con los que cuenta este robot.En declaraciones a EFE desde el Laboratorio de Propulsión de la Agencia Espacial Estadounidense en Pasadena (California, EEUU), el científico Felipe Gómez, uno de los miembros del equipo español, ha calificado el aterrizaje de muy emocionante y «sorprendente» por la suavidad en que el rover se ha posado en Marte.
«El despliegue se ha cumplido paso a paso; ha sido un éxito rotundo», ha dicho Gómez, del Centro de Astrobiología (CAB, centro mixto del CSIC y del INTA), que tiene su sede en la localidad madrileña de Torrejón de Ardoz. Tras la «explosión de alegría» vivida en Pasadena, donde Gómez permanecerá tres meses (toda la fase de operación), comienza el chequeo de todos los sistemas del ‘Curiosity’, incluida la estación medioambiental (REMS) del equipo científico español.
Objetivo, enviar astronautas a Marte
Se trata de la primera vez que un grupo de españoles desarrolla «enteramente» un instrumental científico con destino al planeta rojo y cuyo investigador principal también es español (Javier Gómez Elvira del CAB). Este aparato enviará sus datos desde el primer momento, aunque durante las próximas horas se revisarán «con mucha paciencia» todos los sistemas del ‘Curiosity’, que significa un paso importante para lograr el objetivo de enviar astronautas a Marte a mediados de 2030.
«Se tomarán las cosas con mucha paciencia porque hay que estar completamente seguro de que el entorno es adecuado y no hay riesgo para el rover. Tras el chequeo empezarán a tomarse los primeros datos». La descarga de datos se producirá una vez al día y después se procesará e interpretará la información para planificar la jornada siguiente. Todo ello tiene lugar durante reuniones con «mucho estrés», ha añadido el científico, en cuya opinión este proyecto sitúa a la ciencia española «en la primera división».
REMS medirá una vez al día datos como el viento, la temperatura del suelo, la presión, humedad y radicación ultravioleta, entre otros datos. Esta información se descarga sobre el ordenador de control del rover y, posteriormente, sobre el satélite que comunica con Tierra.
De acuerdo con Felipe Gómez, el hecho de poder participar en esta misión -una de las más grandes que se han desarrollado- «es un reto tecnológico que nunca antes se había asumido por el tamaño, volumen y peso del rover, así como la cantidad de instrumental científico que lleva».
En la estación REMS han participado 40 investigadores, liderados por el Centro de Astrobiología, en colaboración con la empresa CRISA, la Universidad Politécnica de Cataluña y la Universidad de Alcalá de Henares (Madrid). El robot explorador ‘Curiosity’ estudiará durante los próximos dos años si alguna vez hubo vida o podrá haberla en el planeta rojo.
[/i] http://www.elmundo.es/elmundo/2012/08/06/ciencia/1344255505.html Fotos enviadas por el Rover y por el satélite MRO El monte Sharp en toda su esencia y explendor, aproximadamente 5.000m de altura;
[url url=http://imageshack.us/photo/my-images/580/1344333731extrasalbumes.jpg/]http://img580.imageshack.us/img580/2332/1344333731extrasalbumes.jpg [/url] La tapa cerámica que protege de las altas temperaturas de ingreso en la atmósfera marciana, 1.600º, 3″ después de desprenderse;
[url url=http://imageshack.us/photo/my-images/26/1344333274extrasalbumes.jpg/]http://img26.imageshack.us/img26/4792/1344333274extrasalbumes.jpg [/url] Esta fotografía muestra el monte del centro del crater Gale donde a caído el Rover, se puede observar el pie de del monte.
[url url=http://imageshack.us/photo/my-images/802/1344323361extrasalbumes.jpg/]http://img802.imageshack.us/img802/2662/1344323361extrasalbumes.jpg [/url] En esta se aprecia la mala calidad de las primeras fotos, debido a que aún no se ha desplegado la antena principal, que es un componente español, de ahí que lo principal sea no gastar más recursos de los necesarios en inviar fotografías y si en mantener la comunicación para recibir llos comandos y comprobar el correcto funcionamiento de todos los sistemas.
Si pincháis y hacéis más grande la foto, veréis algunos puntos negros, esos puntos son microscópicas rocas de marte achicharradas en el cristal de la cámara.
[url url=http://imageshack.us/photo/my-images/193/1344332113extrasalbumes.jpg/]http://img193.imageshack.us/img193/7416/1344332113extrasalbumes.jpg [/url] Uploaded with
[url url=http://imageshack.us]ImageShack.us[/url] [url url=http://imageshack.us/photo/my-images/853/13455062571.jpg/]http://img853.imageshack.us/img853/2016/13455062571.jpg[/url] Uploaded with
[url url=http://imageshack.us]ImageShack.us[/url]
La estación geológica para la superficie marciana llamada InSing, el primer laboratorio no móvil que se va a lanzar al Planeta Rojo.[i]Tan sólo dos semanas después del exitoso ‘amartizaje’ del Curiosity, la NASA ha anunciado su próxima misión al Planeta Rojo, que prevé enviar en 2016. Su objetivo será investigar el interior de Marte para entender por qué evolucionó de manera tan diferente a la Tierra, siendo ambos planetas rocosos.La misión, denominada InSight, cuyo acrónimo en inglés significa vistazo interior, viajará equipado de instrumentos para investigar si el núcleo de Marte es sólido o líquido,como el de la Tierra y por qué no está dividido en placas tectónicas como nuestro planeta.
Tener un conocimiento más detallado del interior del planeta para poder compararlo con la Tierra ayudará a los científicos a entender mejor cómo se formaron los planetas terrestres y por qué evolucionaron de manera tan diferente, asegura la NASA.
«La exploración de Marte se ha convertido en una prioridad máxima para la NASA y la selección de InSight nos asegura que continuaremos desvelando los misterios del Planeta Rojo y sentaremos las bases para una misión humana», dijo en un comunicado el director de la NASA, Charles Bolden.
Bolden señaló que el reciente éxito del aterrizaje del rover Curiosity «ha impulsado el interés del público en la exploración espacial y el anuncio de hoy deja claro que habrá más misiones apasionantes a Marte».
La misión, prevista para partir en septiembre de 2016, será liderada por Bruce Banerdt del Laboratorio de Propulsión a Chorro (JPL) de la NASA en Pasadena (California) y el equipo científico incluirá investigadores de todo el mundo. El Centro Nacional de Estudios Espaciales de Francia (CNES) y el Centro Alemán Aeroespacial contribuirán en el diseño de algunos de los instrumentos que portará InSight.
Misión de dos años
InSight se construirá según la tecnología espacial utilizada en la misión Phoenix, el vehículo estacionario lanzado en 2007 que determinó que hubo agua en la superficie cerca de las zonas polares del planeta.
La NASA calcula que el coste de la misión, excluyendo el sistema de lanzamiento y los servicios de mantenimiento, será de 425 millones de dólares y tendrá una duración de dos años.
El JPL aportará un instrumento de referencia geodésico para determinar el eje de rotación del planeta, un brazo robótico y dos cámaras. El CNES está al frente de un consorcio internacional que construirá un instrumento para medir las ondas sísmicas del interior del planeta y el Centro Alemán Aeroespacial construirá una sonda subterránea para medir el flujo de calor desde el interior. La misión tendrá una duración de dos años.
[/i] http://www.elmundo.es/elmundo/2012/08/21/ciencia/1345506257.html En el espacio hay galaxias, agujeros negros y estrellas, y de estas, las hay amarillas, o normales, como nuestro sol, en un estadio medio de vida, y las hay a punto de apagarse, gigantes rojas, que, o bien derivan en supernovas, debido al colapso del núcleo al no haber combustible que alimente la reacción termosolar. Después de este estallido, lo resultante es una estrella de nuetrones.
Una imagen de supernovas:[url url=http://imageshack.us/photo/my-images/18/230pxsn1994d.jpg/]http://img18.imageshack.us/img18/2604/230pxsn1994d.jpg[/url]
Se aprecia el estallido en el punto lumínico del exterior, en la parte inferior izquierda de la pantalla, de la galaxia.[url url=http://imageshack.us/photo/my-images/100/250pxkeplerssupernova.jpg/]http://img100.imageshack.us/img100/3392/250pxkeplerssupernova.jpg [/url]
Toda la materia en forma de polvo y gas expulsado por la estrella al estallar.[url url=http://imageshack.us/photo/my-images/402/89553981.jpg/]http://img402.imageshack.us/img402/7687/89553981.jpg[/url]
El otro residuo de la Supernova, una pequeña bola de materia muy masiva, la Estrella de Neutrones.Pues bien, todo estos objetos interestelares se agrupan en galaxias, y la estructura del universo a la hora de agrupar galaxias son los llamados Cúmulos Y supercúmulos, y lo que hace posible esta curisa disposición es la masa y, por ende, la gravedad, cuanto mayor sea el número de galáxias, mayor la masa del cúmulo, y por tanto, la gravedad atraerá a otros cúmulos, hasta crear los supercúmulos.
Dado que estos cúmulos y supercúmulos no emiten luz visible, solo es posible su localización mediante la emisión de luz infraroja, ultrvioleta y el estudio de los rayos por emitidos por
dichos objetos.[url url=http://imageshack.us/photo/my-images/443/13454565650.jpg/]http://img443.imageshack.us/img443/1066/13454565650.jpg[/url]
El Cúmulo estudiado, llamado Fénix, emitiendo Rayos X.[url url=http://imageshack.us/photo/my-images/594/1345456565extrasladillo.jpg/]http://img594.imageshack.us/img594/5500/1345456565extrasladillo.jpg [/url]
La emisión de Rayos X (el punto central) y de chorros de radiación ultravioleta (los curros hacia arriba y hacia abajo)[url url=http://imageshack.us/photo/my-images/17/1345456565extrasladillo.jpg/]http://img17.imageshack.us/img17/5500/1345456565extrasladillo.jpg [/url]
Representación artística del centro de un Cúmulo, en el que se aprecia un círculo azúl de plasma ionizado a muy alta temperatura y en el centro, una gran acumulación de materia, unidos por chorros de energía[i]La importancia de los Cúmulos y los Supercúmulos en la creación de estrellasSe acaba de descubrir que un excepcional cúmulo de galaxias en la constelación del Fénix es capaz de formar estrellas a un ritmo de más de 700 masas solares por año. Este cúmulo ayudará a comprender de qué manera las galaxias forman sus estrellas.
Enjambres de galaxias
Un cúmulo de galaxias es un grupo de unas decenas, centenas o millares de galaxias ligadas gravitacionalmente. Típicamente, un cúmulo ocupa una región de unos cuantos millones de años-luz, un espacio enorme si se tiene en cuenta que el diámetro de nuestra Vía Láctea apenas alcanza los 100.000 años-luz. Muchos cúmulos parecen contener en su región central una galaxia muy masiva que debe jugar un papel muy importante en la evolución del grupo de galaxias.
Cúmulo de galaxias | Chandra
El espacio entre las galaxias de un cúmulo está ocupado por un plasma caliente de gas muy ionizado que emite rayos X. La emisión de este gas, que inicialmente se encuentra a muchos millones de grados, hace que se vaya enfriando progresivamente, por lo que se crean descomunales flujos radiales de materia, llamados ‘corrientes de enfriamiento’. Estas corrientes conducen el gas, cada vez más frío, hacia la región central del cúmulo donde se encuentra la galaxia más masiva.Durante mucho tiempo los astrónomos creían que estos grandes flujos de materia deberían crear violentos episodios de formación estelar en la región central. Sin embargo, a pesar de las intensas búsquedas, tal actividad en formación de estrellas se observa raramente de manera clara en los cúmulos cercanos. Los astrónomos se refieren a esta paradoja con el nombre de ‘el problema de las corrientes de enfriamiento’. No hay una solución clara para tal problema, pero se especula con la idea de que los chorros que surgen de la proximidad del agujero negro supermasivo que debe residir en la galaxia central podrían contrarrestar el efecto de las corrientes de enfriamiento. Tales chorros se observan claramente en varios cúmulos, entre ellos el MS0735 mostrado en la figura adjunta.
En la mayor parte de las galaxias del entorno de la Vía Láctea, hasta una distancia de unos 10.000 millones de años-luz, parecen dominar las estrellas viejas y rojizas. La formación estelar violenta parece haber disminuido considerablemente en el Universo unos 3.700 millones de años después del Big Bang. Por esta razón, para estudiar los episodios más violentos de formación de estrellas se necesitaba observar cúmulos muy jóvenes, y por lo tanto muy distantes. Los recientes descubrimientos en el extraordinario cúmulo de Fénix vienen a remediar, al menos parcialmente, esta situación.
Un cúmulo único
En el año 2010, con el telescopio de ondas milimétricas del Polo Sur (SPT por sus siglas en inglés), un equipo de astrónomos liderado por R. Williamson (Univ. Chicago) catalogó una serie de cúmulos de galaxias, entre los que destacaba el denominado SPT-CL J2344-4243. Situado a una distancia de unos 5.700 millones de años-luz, en la constelación austral del ave Fénix, este cúmulo posee una masa de unos 2.000 billones de masas solares, esto es unas dos mil veces más que la masa de nuestra Vía Láctea. Este cúmulo, uno de los más masivos de los conocidos, ha pasado a denominarse simplemente el ‘cúmulo Fénix’.
La gran masa de este cúmulo ha motivado una serie rápida de observaciones en todos los rangos posibles del espectro. A diferencia de otros cúmulos situados a distancias similares o menores, que generalmente son rojizos, este cúmulo es mucho más azul e incluso presenta un gran flujo ultravioleta típico de intensa formación estelar. Observaciones de rayos gamma demuestran que en el centro del cúmulo existe un agujero negro supermasivo, unas 20 mil millones de veces más masivo que el Sol. Este agujero negro ha resultado ser el centro de una galaxia infrarroja ultraluminosa (de las denominadas ULIRG, por las siglas en inglés) que fue detectada con el telescopio espacial de infrarrojos HERSCHEL.
Finalmente, utilizando el telescopio CHANDRA de rayos X, un equipo coordinado por el astrónomo Michael McDonald (MIT) ha detectado de forma directa los rayos X emitidos por las corrientes de enfriamiento que están conduciendo grandes cantidades de materia intergaláctica sobre la galaxia ultraluminosa central.
Como el ave fénix, un cúmulo que resurge
El cúmulo Fénix se observa hoy en la Tierra tal y como era cuando habían transcurrido 8.000 millones de años tras el Big Bang. Pero hemos mencionado antes que la formación violenta de estrellas cesó en el Universo unos 3.700 millones después de aquella gran explosión. El Fénix es un cúmulo ‘viejo’ pero, debido a la gran intensidad de formación estelar que posee en su centro, parece un cúmulo en la juventud del Universo. Las corrientes de enfriamiento parecen transportar unas 4.000 masas solares por año hacia la región central. Parte de esta masa sirve para alimentar al agujero negro que aumenta su masa en unas 60 masas solares por año. Pero el mayor efecto de estas corrientes es el de incrementar la formación de estrellas en la galaxia central con una masa total que es la equivalente a la de 740 soles por año.
Con tal actividad en producción de estrellas, el cúmulo Fénix ofrece una oportunidad única para observar fenómenos de formación estelar violenta similares a los que tuvieron lugar en las primeras fases de la evolución del Universo. Naturalmente el gigantesco brote de formación estelar que observamos no ha estado operativo durante toda la vida del cúmulo (pues lo habría consumido). Es difícil estimar cuándo comenzó tal episodio y cuánto durará, quizás unas decenas o centenas de millones de años. Al igual que otros cúmulos vecinos, el cúmulo debió estar inactivo durante largos periodos de tiempo. Pero, de forma similar al resurgimiento del ave Fénix, el cúmulo resurgió de su inactividad, y alcanzó una nueva vida extremadamente fructífera en la formación de estrellas.
Estos resultados han sido publicados por M. McDonald y colaboradores en el último número de la revista Nature
[/i] http://www.elmundo.es/elmundo/2012/08/20/ciencia/1345456565.html [url url=http://imageshack.us/photo/my-images/52/13457248450.jpg/]http://img52.imageshack.us/img52/208/13457248450.jpg[/url] Uploaded with
[url url=http://imageshack.us]ImageShack.us[/url] [i]Una vez más España arde, el pueblo sufre, familias enteras lo pierden todo y lo mejor de nuestro patrimonio desaparece porque en pleno siglo XXI se continúan sofocando los incendios forestales con ramas y mangueras, lo cual resulta de todo punto incongruente.Con lo que se gasta cada año en aviones, helicópteros y coches de bomberos se podrían evitar dichos incendios en un setenta por ciento de los casos.
Los incendios forestales contribuyen al calentamiento y la desertificación del planeta, provocan cientos de muertes y nos afectan cíclicamente pero en milenios no se ha sabido encontrar solución válida alguna porque siempre existirá un loco, un pirómano o un desalmado que convierta en inútil cualquier tipo de prevención.
No obstante, merced a las nuevas tecnologías esa solución existe, pero por desgracia depende de la voluntad de los políticos y estos jamás hacen nada hasta que ha sobrevenido una catástrofe de la que siempre otros tienen la culpa.
En mayo de 2005, señalé al Ministerio de Industria la conveniencia de aprovechar el mar que nos rodea con el fin de reciclar energía y como resultado se ordenó el estudio ‘Aprovechamiento hidroeléctrico con agua de mar por acumulación por bombeo’.
Fue confeccionado por una de las mayores compañías eléctricas nacionales y meses después tres ingenieros de Unión Fenosa señalaron que salvo por pequeños detalles, los cálculos eran correctos y una Central de Bombeo Reversible de Agua de Mar produce unos beneficios en torno al 12%, incluida la amortización en catorce años, y a partir de entonces dichos beneficios se disparan.
Pese a estar diseñada para utilizar agua de mar su funcionamiento es idéntico al de las Centrales Reversibles de los pantanos; bombeando agua a lo alto de una montaña en ‘horas valle’ con el fin de dejarla caer y devolver energía en horas punta.
Su gran ventaja estriba en que el mar es inagotable, el depósito inferior gratuito y no se mantiene ‘cautiva’ de las compañías eléctricas un agua potable cada vez más escasa.
En la Península Ibérica se han seleccionado unas ochenta montañas en cuyas cimas podrían instalarse Centrales de Bombeo de Agua de Mar y tanto las islas Canarias como las Baleares abundan de igual modo.
Merced a sus eficientes sistemas de control, Red Eléctrica Nacional puede desviar de forma inmediata los excedentes de potencia a dichas centrales. Según estos, tres son las áreas de beneficio que el sistema aporta a la mejora de la eficiencia: capacidad de almacenamiento de energías fluyentes (eólica y fotovoltaica), aplanamiento de la curva de demanda eléctrica y calidad del suministro debido a que proporciona una inmejorable capacidad de respuesta ante situaciones de emergencia.
Ello evitaría tener que estar produciendo (tal como se hace en la actualidad) un 10% de potencia excedente destinado a prever un colapso motivado por el continuo e inesperado aumento de consumo.
También permite aprovechar de una forma más lógica una caprichosa energía eólica que ‘no llega cuando hace falta pero siempre aparece cuando no se necesita’.
La verdadera alternativa de la energía eólica se centra en el hecho indiscutible de que es preciso que se instale una fuente de energía alternativa que funcione a todas horas para cuando no sopla viento.
El 27 de junio del 2005, un tornado derribó dos torres de alta tensión, por lo que los sistemas de seguridad de tres parques eólicos los desconectaron de la red, que se encontró de improviso con una caída de potencia que a punto estuvo de provocar una catástrofe dejando a oscuras a toda la nación.
Continuar permitiendo que los parques eólicos constituyan semejante peligro significa una insensatez, por lo que resulta esencial transformar toda su energía altamente inestable en potencial de energía hidráulica controlada.
Cada metro cúbico de agua de mar depositado en lo alto de una montaña de seiscientos metros de altura significa dos kilovatios de energía, con lo que las montañas se convertirían en ‘bancos’ en los que guardar los ahorros energéticos.
Un sistema de depósitos a diferentes alturas
Comprobado que desde el punto de vista económico el sistema resultaba altamente rentable, llegó el momento de avanzar en el tema de los incendios forestales partiendo de la base de que una serie de grandes depósitos de agua situados escalonadamente a diferentes alturas se encuentran en disposición de apagar cualquier fuego que se inicie en un área de unos treinta kilómetros a la redonda por medio de un sistema de tuberías dispuestas en forma de tela de araña que permiten que el agua fluya por la ley de los vasos comunicantes.
El coste de dichas tuberías ha sido calculado en un 8% de la inversión total, y en buena lógica debería ser financiado por la Oficina de Protección Civil encargada de preservar vidas humanas, así como por el Ministerio de Medio Ambiente como aportación a su lucha contra el cambio climático y la desertificación.
Algunos ecologistas se quejan por el hecho de tener que tender una red de tuberías a través de los bosques, pero no se quejan cuando se trata de tender la red de cables eléctricos de los parques eólicos que sí provocan incendios.
En puntos clave de dicha tela de araña, unas torres telescópicas pueden elevarse por la presión del agua hasta unos cinco metros por encima de los árboles.
En el momento en que unos satélites artificiales que ya existen y que detectan de inmediato cualquier señal de fuego avisa del peligro, el centro de control envía una orden a la torre más próxima que deja caer sobre las llamas una lluvia instantánea que apaga el fuego a semejanza de los sistemas contraincendios que se exigen en la actualidad a todos los grandes edificios.
No solo le está enviando el contenido del depósito de cabecera, sino toda el agua que simultáneamente se está bombeando desde el mar, ya que en caso de necesidad no importara utilizar energía de hora punta.
Prácticamente se puede enviar la totalidad del océano sobre cualquier bosque, pueblo, fábrica o vivienda en llamas. Poco importa que un incendio se apague con agua de mar; de hecho se está haciendo con aviones y helicópteros; un único envío de agua salada no afecta ni a la tierra ni a los cultivos.
La ecuación es simple: sobra viento, energía nocturna y agua de mar; falta energía diurna y agua; siempre que exista una montaña cerca un problema resuelve el otro y se encuentra preparado a la hora de cortar de raíz cualquier incendio forestal convirtiendo en realidad el sueño de que los bosques no ardan.
Instalar este sistema contaría con ayudas económicas por parte de las instituciones internacionales que abogan por la no contaminación, la independencia energética y la lucha contra la desertificación y el cambio climático.
El proyecto se basa en estudios realizados por los Ministerios de Agricultura e Industria a través de sus empresas Tragsa y Acuamed, así como de dos compañías eléctricas, Red Eléctrica Nacional, el Consejo Superior de Investigaciones Científicas y el Colegio de Caminos Canales y Puertos de Madrid.
Se encuentran a disposición de las autoridades que deseen consultarlos pero la experiencia me enseña que no lo harán hasta que puedan alegar que ya no queda un solo árbol que salvar.
* El escritor e inventor canario Alberto Vázquez-Figueroa escribe en estas líneas el sistema que ha ideado para luchar contra el fuego con depósitos de agua de mar conectados a diferentes alturas.
[/i] http://www.elmundo.es/elmundo/2012/08/23/ciencia/1345724845.html [url url=http://imageshack.us/photo/my-images/849/13468614230.jpg/]http://img849.imageshack.us/img849/3134/13468614230.jpg[/url] Uploaded with
[url url=http://imageshack.us]ImageShack.us[/url]
[i]Los científicos descubren los secretos ocultos del ADNLa tendencia natural es imaginar el genoma como la base de datos de HAL, el robot paranoico de 2001, odisea en el espacio, o incluso como La biblioteca de Babel de Borges, donde todo texto posible acababa por existir en algún anaquel de alguna estancia. Una metáfora más apta sería la Ventura highway de América, la autopista de Ventura “donde los días son más largos y las noches más fuertes que el aguardiente casero, según la canción del mismo nombre. O tal vez otra carretera por el desierto donde los lagartos vuelen.
La mayor paradoja del genoma humano es bien conocida: de sus 3.000 millones de letras químicas (los nucleótidos atccagtag… que están repartidos en 23 cromosomas como los artículos en los distintos tomos de una enciclopedia), solo el 1,5% parece ser funcional: lo que solemos llamar genes. El 98,5% restante sería basura genómica. Es como si en una estantería con 200 libros, solo tres libros significaran algo. O mejor, como si solo fuera cierto un versículo de la Biblia por página.
De ahí el proyecto Encode (acrónimo inglés de Enciclopedia de elementos de ADN) para describir todas las partes del genoma que tienen alguna función, aunque estén fuera de los genes convencionales. Es un superconsorcio científico internacional —solo la lista de los 442 firmantes ocupa una página y media con letra de prospecto— que presentó ayer sus resultados en seis artículos en Nature y otros 24 artículos en otras revistas científicas.
El principal resultado de esta especie de Proyecto Genoma II es que lo que se consideraba basura no era tal. El 80% del genoma humano resulta tener al menos una función bioquímica en al menos algún tejido del cuerpo y en al menos alguna fase del desarrollo o de la vida adulta. Y nada menos que el 95% del genoma está implicado en la regulación de los genes convencionales. De hecho, la mayoría de las variaciones implicadas hasta ahora en alguna enfermedad humana está en estas zonas que se consideraban basura, lo que abrirá nuevas posibilidades a la medicina.
“Uno de los descubrimientos más extraordinarios del consorcio”, dice Joseph Ecker, del Instituto Salk de California, “es que el 80% del genoma contiene elementos asociados a funciones bioquímicas, lo que liquida la percepción generalizada de que casi todo el genoma humano consiste en ADN basura”.
MÁS INFORMACIÓN
La genómica revoluciona el estudio de las enfermedades
El genoma humano no es como se creía
«Un proyecto genoma en manos privadas habría sido un desastre para la humanidad»
La genómica no ha inventado nuevos conceptos. Lo que ha hecho es permitir el análisis de los viejos conceptos a una escala global, sin sesgos ni preconcepciones. Sus resultados son los primeros datos duros de la historia de la biología, un cuerpo de conocimiento que no depende de lo que el investigador esté buscando, el tipo de recolección de datos en el que se suele basar la física, la madre de todas las ciencias: primero se recopila todo lo que se puede, y luego se le busca el sentido. La investigación biológica ha dado sin duda un salto cuantitativo en las últimas dos décadas. Que ese salto sea también cualitativo es más dudoso, como saben muy bien los investigadores del área.Y la cuestión tiene un interés incluso filosófico. “Los resultados nos obligan a repensar la definición de gen y de la unidad mínima de la herencia”, dice Ecker.
Hasta ahora solo se daba valor al 1,5% de las letras químicas del ADN
La cuestión puede ser demasiado técnica en un sentido, o demasiado profunda en otro. Lo que importa, si hemos de fiarnos de la historia, es si ilumina el camino hacia una realidad oculta hasta ahora, una que todos teníamos ante las narices sin alcanzar a verla. Y algunos científicos piensan que así es.La autopista de Ventura genómica está llena de señales y carteles, pero solo unos pocos se ven en cada momento. Igual que la que da nombre, que cruza California, en invierno todos son visibles salvo los que están cubiertos de hielo en las cotas altas; en verano la vegetación oculta los letreros más cercanos al valle. Como consecuencia, los ingresos de cada restaurante muestran una evidente dependencia de la temperatura. Esta es otra percepción central de la genómica actual: que todas las células de un cuerpo tendrán los mismos genes, pero que sus patrones de activación dependen del entorno.
Era como si en una estantería de 200 libros solo tres tuvieran sentido
Una de las revelaciones de la nueva tecnología del ADN es que, aunque la genética es lineal desde que Mendel la formuló en el siglo XIX gracias a sus juegos con las pieles y los colores de los guisantes, sus sutilezas —la clase de mecanismos que impulsaron la evolución de la especie humana— no lo son en absoluto. Los genes, como predijeron Mendel y la genética clásica, son en efecto tramos de ADN (tccggttaca…) que se disponen uno detrás de otro en rigurosa fila en el cromosoma, como en la autopista de Ventura.La activación de un proceso puede estar en cromosomas distintos
Pero las regiones reguladoras de los genes —los tramos de secuencia de ADN que les dicen a otros tramos de secuencia de ADN dónde y cuándo tienen que activarse— no siempre son adyacentes a los genes propiamente dichos, sino que a veces están muy lejos en el cromosoma, y a menudo están alojados incluso en otro cromosoma distinto.Algunos científicos creen que esa, precisamente, es la revolución genética en ciernes: la forma en que esa no linealidad de la regulación genética está revelando la arquitectura profunda del núcleo de nuestras células, la pura y simple geometría del genoma.
Si fuera así, no solo importaría lo que una información dice, sino sobre todo dónde lo dice.
[/i] Lo mejor está al final, los cuatro últimos párrafos.
http://sociedad.elpais.com/sociedad/2012/09/05/actualidad/1346866919_254591.html [i]Científicos de todo el mundo redefinen el genoma humano
No es frecuente que revistas de tan alto impacto como ‘Science’, ‘Nature’, ‘Genome Research’ o ‘Genome Biology’ se pongan de acuerdo para publicar simultáneamente los datos de un trabajo, pero en este caso los resultados merecen la unión para sacar a la luz 30 estudios que descubren la parte más oscura del genoma. Gracias a estos trabajos, lo que hace años se consideraba ADN basura deja de parecer un desecho para transformarse en una parte clave para la salud y la enfermedad.Tras la secuenciación del ADN humano en el año 2000, quedaba mucho por conocer de esa ‘enciclopedia’ que contiene todas las instrucciones para construir el cuerpo humano. De ahí que se iniciaran varios proyectos para saber más del genoma y conocer cómo funciona.
Los 30 estudios que ahora se publican están englobados dentro del proyecto ENCODE, acrónimo en inglés de Enciclopedia de los elementos del ADN, y han sido realizados en 32 laboratorios de diferentes países entre los que se incluyen el Centro de Regulación Genómica en Barcelona y el Centro Nacional de Investigaciones Oncológicas (CNIO) en Madrid.
Lo que ellos muestran es el paisaje completo del genoma. Si hasta ahora los protagonistas de todas las miradas habían sido los genes, el proyecto ENCODE da luz al resto del genoma y desvela que cerca del 80% tiene actividad.
Los científicos se habían centrado en un 2% del genoma o, lo que es lo mismo, en los genes. Uno de los principales motivos es que son ellos los que producen las proteínas, que son las unidades estructurales y funcionales de las células, los ‘ladrillos’ del cuerpo sin los cuales no habría órganos ni otros componentes. Pero quedaba una parte importante del ADN, al que no se le había prestado tanta atención. Sin embargo, lo que revelan los datos aportados por 440 investigadores es que esa parte del genoma que parecía no tener ninguna función sí que interviene regulando el proceso.
Esas zonas reguladoras son como los interruptores de la casa que es nuestro cuerpo. Son los que activan o desactivan todos los circuitos del hogar. Esta parte del genoma apaga o enciende los genes y además regulan el cuándo, cómo y qué cantidad de proteínas tienen que producir, es decir, es fundamental en la biología humana, tanto que los científicos sugieren cambiar la definición de gen.
«Los elementos reguladores son responsables de garantizar que las proteínas del cristalino estén en las lentes de tus ojos y que la hemoglobina esté en tu sangre, y no en cualquier otro lugar. Es muy complejo. El procesamiento de la información y la inteligencia del genoma reside en los elementos reguladores. Con este proyecto, probablemente hemos podido pasar de comprender menos del 5% a cerca del 75% de ellos», asegura Jim Kent, director del Centro de Coordinación de los Datos (UCSC) de ENCODE.
Enfermedades previstas desde la etapa fetal
Por otro lado, también han visto que el 88% de esas regiones reguladoras contienen variantes de ADN asociadas a enfermedad que se activaron durante el desarrollo embrionario. Esto supone que ya desde la etapa fetal se determina la salud del ser humano, aunque luego la aparición de muchas de esas posibles enfermedades ocurrirá si se dan circunstancias particulares durante la vida.
Además, se ha determinado que los cambios en el ADN se dan en zonas reguladoras relacionadas con la enfermedad de ciertos órganos o células. Por ejemplo, las variantes de ADN asociadas a la diabetes se producen en la parte del genoma ahora estudiada, pero no en cualquier punto, sino en la zona que regula los genes que controlan aspectos del metabolismo del azúcar o de la secreción de insulina. Otro ejemplo son las variantes que se dan en las zonas que regulan en sistema inmunológico y que han podido vincular a enfermedades como la esclerosis múltiple, el asma o el lupus.
En definitiva, que el ADN humano está formado por genes y por otras zonas que influyen sobre ellos. Hasta ahora sólo se conocía y se estudiaban los primeros, que serían algo así como los protagonistas de una película, pero el trabajo de ENCODE ha revelado que en esa película hay otros componentes tan o más importantes que los protagonistas, el resto del reparto y de personas que hacen esa película que es el cuerpo humano.
¿Y esto es todo? Pues no. Los datos se han conseguido analizando 147 tipos celulares, incluyendo 235 anticuerpos u otros elementos. Sin embargo, todavía faltaría estudiar muchas más células y tejidos de nuestro cuerpo para conocer mejor cómo funciona nuestro ADN y qué hace para producir unos órganos u otros. Además, lo que muestra este proyecto es una foto fija pero falta el dinamismo del proceso.
El último objetivo de este y otros proyectos, como el de los 1.000 genomas, es comprender el funcionamiento de esa enciclopedia de la que ahora sólo hemos conocido sus páginas, para en un futuro poder desarrollar terapias preventivas y curativas específicas para cada persona. Los avances tecnológicos han permitido este tipo de análisis y se prevé que en un futuro se puedan abaratar tanto que es posible pensar que se pueda ‘leer’ el ADN de cada persona, así se podrá predecir qué enfermedades va a desarrollar o qué terapias son las que necesita para bloquear o activar alguna parte de su genoma. De momento, ese es un sueño, la realidad es que ya sabemos un poco más de la enciclopedia humana.
[/i]
- Debes estar registrado para responder a este debate.