Galaxia vista completamente.

“El aspecto verdadero de la Vía Láctea”

Compilado por Manlio E. Wydler (°)

 

Las imágenes de la Vía Láctea que se le vengan a la cabeza o que pueda encontrar en Internet serán las de una galaxia espiral ordinaria, vista de cara, un vasto molinillo de luz estelar y polvo que contiene cientos de miles de millones de estrellas. Esas imágenes, sin embargo, son en buena medida inventadas.

Sabemos que la Vía Láctea es una galaxia espiral llena de estrellas que mide más de cien mil años luz de ancho, y sabemos que nuestro sistema solar va girando entre dos brazos espirales, más bien por la periferia, a unos 27.000 años luz del centro. Pero más allá de esto, nuestro conocimiento va mermando. Ninguna nave espacial o telescopio construido por seres humanos ha escapado de la Vía Láctea, se ha dado la vuelta para mirarla y la ha retratado. Como estamos inmersos en el disco de la galaxia, solo podemos verlo como una franja brillante de estrellas que cruza el cielo. Para los astrónomos que quieren cartografiarla, es un poco como aprender la anatomía de un cuerpo humano desde la perspectiva de una sola célula que estuviese en alguna parte del antebrazo. ¿Cuántos brazos espirales tiene realmente la Vía Láctea? ¿Cuánto pesa? ¿Qué aspecto tendría verdaderamente nuestra casa cósmica vista desde una galaxia cercana? Si se le pregunta a una astrónoma y es completamente sincera, se verá que no lo sabemos del todo.

Entre los mayores obstáculos con que tropieza nuestro conocimiento está el disco mismo de la galaxia, en especial su centro, donde se espesa el polvo, que absorbe la luz, y abundan las erupciones astrofísicas que pueden arruinar las observaciones más delicadas. Significa que sabemos muy poco del otro lado de la galaxia. «Ópticamente, es como intentar mirar a través de una prenda de terciopelo: negro como lo más negro que puede haber», dice Thomas Dame, astrónomo del Centro de Astrofísica Smithsoniano de Harvard. «En lo que se refiere al dibujo de la estructura espiral, la mitad de la Vía Láctea es, básicamente, terra incognita». Ahora, sin embargo, unas nuevas mediciones, que han batido récords, están permitiendo a los astrónomos atravesar el velo del centro galáctico como nunca antes y elaborar los mejores mapas de la estructura de nuestra galaxia.

En vez de usar luz visible, Dame y otros cartografían la Vía Láctea observando las emisiones de radio de las nubes de gas molecular y de estrellas jóvenes de masa muy grande; de ordinario, aquellas y estas se encuentran en los brazos espirales. El problema consiste en medir, a falta de señales de carretera o hitos kilométricos cósmicos, a qué distancia están esos objetos. Sin conocer esas distancias, no es posible situar con precisión ninguna fuente de radio de dentro de la galaxia para reconstruir adecuadamente la morfología de nuestra galaxia. Desde la década de 1950 se ha solucionado este problema por medio de las «distancias cinemáticas», unos cálculos que tratan a los objetos de la Vía Láctea como pequeños componentes de los restos de un naufragio que, captados por un remolino, trazan una espiral; como las cosas tienden a moverse más deprisa cuando se acercan al centro, medir la velocidad a la que un objeto se mueve hacia nosotros o se aleja ofrece una estimación de su distancia al centro galáctico y, por lo tanto, a nuestro sistema solar. Gracias a las distancias cinemáticas, Dame y otros descubren brazos espirales antes desconocidos y subestructuras de los brazos espirales en el lado de la Vía Láctea en que se encuentra nuestro sistema solar. Pero esta técnica deja de valer cuando de lo que se trata es de mirar directamente a través de la galaxia, adonde los objetos no se mueven hacia nosotros o alejándose de nosotros, sino más bien de forma puramente perpendicular a nuestra línea de visión. Para cartografiar la mitad oculta de la Vía Láctea se requiere un método más directo.

 

En un estudio publicado el 12 de octubre en Science, Dame y un equipo internacional de colaboradores han presentado los resultados de un método que es justo así. Valiéndose de la Red de Muy Larga Base (VLBA) de la Fundación Nacional de la Ciencia, un sistema interconectado de diez radiotelescopios que se extiende por Hawai, Norteamérica y el Caribe, estos astrónomos han logrado medir directamente la distancia a un objeto llamado G007.47+00.05, una región donde se forman estrellas que se encuentra en el lado opuesto de la galaxia al de nuestro sistema solar. La medición arroja que la región está a unos 66.000 años luz, casi 40.000 más allá del centro galáctico, lo que es más o menos el doble que la mayor distancia medida directamente en la Vía Láctea hasta ahora.

El equipo utilizó una técnica bien antigua, la determinación del paralaje, que mide el desplazamiento aparente de la posición en el cielo de un objeto cuando es observado desde lados opuestos de la órbita de la Tierra alrededor del Sol. Para percibir el paralaje a escalas menores basta con mantener un dedo ante la cara y guiñar un ojo y luego el otro. Parecerá que el dedo salta de un lado al otro; calcular su distancia a la cara es tan sencillo como medir el ángulo de su desplazamiento aparente. Cuanto menor sea el ángulo, mayor será la distancia. Y cuanto mayor sea la distancia entre los dos detectores, sean los dos ojos o dos antenas parabólicas, más precisa podrá ser la medición.

Las observaciones del paralaje por le VLBA se efectuaron en 2014, cuando la Tierra estaba en un lado de su órbita, y seis meses después, ya en 2015, con el planeta al otro lado del Sol. De esta forma se maximizaba la sensibilidad de la técnica, que así pudo medir el minúsculo desplazamiento de la posición aparente de la región formadora de estrellas. Según el autor principal del trabajo, Alberto Sanna, investigador posdoctoral del Instituto Max Planck de Radioastronomía, en Alemania, y primer autor del artículo de Science, la medición del VLBA «equivale a ver una pelota de béisbol en la superficie de la Luna». Este logro, dice Sanna, demuestra que «podemos medir toda la extensión de nuestra galaxia, numerar y cartografiar con precisión sus brazos espirales y llegar a saber cuál es la verdadera forma de estos, con lo cual podremos a su vez saber qué aspecto tiene de verdad la Vía Láctea».

«Es de verdad un trabajo excelente; creo que es el paralaje más pequeño que se haya obtenido jamás, y ciertamente se trata de un hito de la moderna astronomía observacional», dice Mareki Honma, astrónomo del Observatorio Astronómico Nacional de Japón, y que dirige otro equipo que midió por su parte la distancia a G007.47+00.45 en 2016 y obtuvo un valor parecido. Esa medición, sin embargo, no fue lo suficientemente precisa para conseguir el paralaje; se basó en seguir el llamado «movimiento propio» de esa región formadora de estrellas a través del plano del cielo. La semejanza entre los resultados de ambos equipos, dice Honna, da a entender que el movimiento propio puede, por sí mismo, ser una útil herramienta para determinar las distancias a objetos del otro lado de la galaxia.

La distancia confirmada a esa concreta región con formación de estrellas está redibujando los mapas galácticos. Dame y sus colaboradores utilizaron en 2011 las mediciones de radio para trazar tentativamente la trayectoria de uno de los brazos espirales, que lleva el nombre de Scutum-Centaurus. La medición fragmentaria que realizaron parece indicar que ese brazo podría envolver casi la totalidad de la Vía Láctea, pero perdieron la pista (y una prueba crucial de su amplitud abrazadora de la galaxia) en la vecindad del oscuro y turbulento centro galáctico. Este brazo formador de estrellas «pasa justo por uno de los rasgos que identificamos en 2011 y añade elementos de juicio a favor de que el brazo Scutum-Centaurus es en realidad una de las grandes estructuras de la galaxia», explica Dame. «En 2011, escribimos que quizá nunca podríamos verificarlo porque determinar su distancia a través del centro galáctico sería muy difícil, pero estábamos siendo miopes porque aquí está, ¡seis años después!».

La laboriosa medición realizada por el VLBA a través de la órbita terrestre era parte de un proyecto más amplio, el Rastreo Legacy de la Estructura Espiral (BeSSel), dirigido por Mark Reid, quien como Dame es un radioastrónomo del Centro Smithsoniano de Astrofísica de Harvard y coautor del artículo de Science. BeSSel, que se encuentra ahora en sus etapas finales, empleó 3500 horas en el VLBA para obtener más de 200 mediciones de la distancia a regiones dispersas por la Vía Láctea donde se forman estrellas. Muchas de esas mediciones están ahora dibujando nuevos detalles de la filigrana de los brazos espirales de la galaxia.

Es un buen arranque, pero la VLBA y BeSSeL no pueden rastrear la mayoría de las regiones formadoras de estrellas visibles desde el hemisferio sur, y aunque pudiesen, el paralaje solo no rellenaría por completo el mapa galáctico. Como es tan difícil medir el paralaje cuando se trata de remotas regiones donde se crean estrellas en el otro lado de la galaxia, los astrónomos coinciden en muy buena medida en que servirán sobre todo como importantes puntos de calibración que complementarán las medidas cinemáticas de la distancia existentes.

Para progresar más habrá que combinar los datos del paralaje, el movimiento propio y la distancia cinemática por medio de rastreos que utilicen los radiotelescopios del hemisferio austral así como los datos tomados en el espacio por el satélite Gaia de la Agencia Espacial Europea. Este usa mediciones del paralaje en luz visible para detallar muchos aspectos fundamentales todavía desconocidos de nuestra galaxia, como la velocidad y homogeneidad de su rotación. Así, los astrónomos podrán determinar finalmente cuál es realmente la masa de la galaxia, lo que podría aportar nuevas ideas acerca de su inventario de estrellas y la hipotética materia oscura, más los pequeños satélites que se agazapan en sus bordes. Y ello ayudará a saber cómo se formó la Vía Láctea y mucho de lo que ha ocurrido desde entonces.

«¿Hasta qué punto es en realidad importante poder ver con claridad a través del otro lado de nuestra galaxia?», se pregunta Tom Bania, radioastrónomo de la Universidad de Boston que ha participado en algunos de los rastreos australes. «No hay nada más importante en toda la astrofísica. La humanidad tardó miles de años en cartografiar la Tierra con precisión; un mapa de la galaxia condicionará la alrededor de una docena de modelos de la estructura y evolución de la Vía Láctea. Para mí, el ‘santo grial’ de la astronomía consiste en conseguir una perspectiva clara de nuestra relación con el universo físico. El mapa de nuestra galaxia es una parte de ello, y ese mapa sigue estando incompleto».

Pronto eso va a poder cambiar. Gracias a BeSSel, señala Reid, «en solo unos cuantos años más deberíamos tener un mapa que nos muestre el verdadero aspecto de la Vía Láctea».

(°) Ingeniero, presidente Honorario de FAPLEV. Vecino Solidario 2001.

Visitante lejano

“Visitante extrasolar”

Compilado por Manlio E. Wydler (°)

Los astrónomos de la Universidad de Hawái han detectado un objeto, probablemente un pequeño asteroide, o tal vez un cometa, que parece haberse originado fuera del Sistema Solar, en otro lugar de nuestra galaxia. Si es así, sería el primer «visitante interestelar» observado y confirmado por los astrónomos.

 

Este objeto inusual, al que el Minor Planet Center (MPC) en Cambridge, Massachusetts (EE.UU.), ha denominado temporalmente A/2017 U1, tiene menos de 400 metros de diámetro y se mueve notablemente rápido. Los astrónomos trabajan urgentemente para apuntar los telescopios alrededor del mundo y en el espacio hacia esa misteriosa roca. Una vez que se obtengan y analicen los datos obtenidos, esperan poder saber más sobre su origen y posiblemente su composición.

A/2017 U1 fue descubierto el 19 de octubre por el telescopio Pan-STARRS 1 de la Universidad de Hawái en Haleakala, durante una búsqueda nocturna de objetos cercanos a la Tierra para la NASA. El astrónomo Rob Weryk fue el primero en identificar el objeto en movimiento. Se dio cuenta inmediatamente de que era un objeto inusual. «Su movimiento no podría explicarse si fuera un asteroide normal del Sistema Solar o la órbita de un cometa», explica. Imágenes de seguimiento tomadas por el telescopio de la Agencia Espacial Europea (ESA) en Tenerife confirmaron sus sospechas. «Este objeto ha venido desde fuera de nuestro Sistema Solar», afirma Weryk.

«Esta es la órbita más extrema que he visto», asegura Davide Farnocchia, científico del Centro de Estudios de Objetos Cercanos a la Tierra (CNEOS) de la NASA en el Laboratorio de Propulsión a Chorro (JPL) de la agencia en Pasadena, California. «Va extremadamente rápido y en una trayectoria tal que podemos decir con confianza que este objeto está saliendo del Sistema Solar y no regresará».

 

El equipo de CNEOS fue el encargado de trazar la trayectoria actual del objeto, que llegó desde la constelación de Lyra, navegando a través del espacio interestelar a una velocidad 25,5 kilómetros por segundo.

El objeto se acercó a nuestro Sistema Solar casi directamente «por encima» de la eclíptica, el plano aproximado en el espacio donde los planetas y la mayoría de los asteroides orbitan alrededor del Sol, por lo que no tuvo ningún encuentro cercano con los ocho planetas principales durante su caída hacia el Sol. El 2 de septiembre, el pequeño cuerpo cruzó bajo el plano de la eclíptica justo dentro de la órbita de Mercurio y luego hizo su aproximación más cercana al Sol el 9 de septiembre. Tirado por la gravedad del Sol, el objeto dio un giro brusco bajo nuestro Sistema Solar, pasando bajo la órbita de la Tierra el 14 de octubre a una distancia de aproximadamente 24 millones de kilómetros, aproximadamente 60 veces la distancia a la Luna. Ahora ha vuelto a dispararse sobre el plano de los planetas a 44 kilómetros por segundo con respecto al Sol,

«Hace tiempo que sospechábamos que estos objetos deberían existir, porque durante el proceso de formación de planetas se debe expulsar mucho material de los sistemas planetarios. Lo más sorprendente es que nunca antes habíamos visto a objetos interestelares pasar», reconoce Karen Meech, astrónoma en la Universidad de Hawái.

«Hemos estado esperando este día durante décadas», dice con satisfacción el gerente de CNEOS, Paul Chodas. «Desde hace tiempo se ha teorizado que tales objetos existen, asteroides o cometas moviéndose entre las estrellas y ocasionalmente pasando por nuestro sistema solar, pero esta es la primera detección. Hasta ahora, todo indica que es probable que sea un objeto interestelar, pero más datos ayudarán a confirmarlo».

A/2017 U1 es el nombre temporal del objeto, pero dado que este es el primero de su tipo jamás descubierto, las reglas para nombrar a los de su clase deberán ser establecidas por la Unión Astronómica Internacional.

 

(°) Ingeniero, Presidente Honorario de FAPLEV, Vecino Solidario 2001.

Vida después de la muerte.

Vida después de la Muerte”

Compilado por Manlio E. Wydler (°)

 

A finales del pasado mes de septiembre, Columbia Pictures estrenó en España Flatliners, un remake de la famosa Línea mortal de Joel Shucmacher de 1990, en la que  un grupo de estudiantes de medicina investigan lo que les espera más allá de la muerte… muriendo durante un rato. 

 

Para ello, detienen su corazón durante un breve lapso de tiempo, hasta provocarse por turnos una experiencia cercana a la muerte clínica. Como era de esperar (por necesidades de tensión narrativa, pero también por las características del experimento), la  investigación se vuelve cada vez más peligrosa. Eso sí, sirve a los protagonistas para revisar su pasado, en una línea bastante cercana a la de  Cuento de Navidad de Dickens, en versión moderna.

Aunque de ciencia ficción, la historia de Flatliners tiene cierta base científica. Desde que en 1975, el psiquiatra y filósofo norteamericano Raymond Moody publicara el libro Life after Life (Vida después de la vida), en el que explicaba las sensaciones vividas por personas que habían sufrido una experiencia cercana a la muerte, pero que finalmente habían conseguido salvarse y contar lo que habían sentido, diversos estudios han analizado el fenómeno.

En 2012, el neurocientífico y Catedrático de la Facultad de Medicina de la Universidad Complutense de Madrid, Francisco Rubia, daba cuenta en Tendencias21 de algunas de las explicaciones que la neurología ha encontrado para las sensaciones conscientes postmortem, como el sentimiento de una paz y una felicidad profundas, la visión  de un túnel oscuro o el hecho de sentirse fuera del cuerpo. 

 

Por ejemplo, la neurología achaca las sensaciones de paz y felicidad a la producción de endorfinas (neurotransmisores opioides), que aumenta considerablemente en situaciones de estrés. La visión del túnel oscuro se explicaría porque las células de la fóvea –en la retina-  una vez desinhibidas como consecuencia de la muerte clínica, responderían generando fosfenos y dando lugar a un círculo luminoso como el que se observa al final de dicho túnel. En cuanto a la sensación de estar fuera del cuerpo, los neurólogos relacionan esta impresión con sensaciones similares experimentadas en algunos casos de esquizofrenia, en la epilepsia del lóbulo temporal o tras la ingestión de drogas enteógenas.

Estas explicaciones nos hacen preguntarnos cuánto tiempo tarda el cerebro en detener su actividad tras la muerte. Las evidencias más recientes sobre el tema han sido recogidas este mismo año, en un estudio realizado con electroencefalografía (EEG) a cuatro pacientes en estado terminal, en el momento de su muerte.

Publicada en The Canadian Journal of Neurological Sciences, la investigación reveló que uno de estos cuatro pacientes tuvo actividad cerebral hasta 10 minutos después de que el corazón se le parase (en ausencia de pulso y con pupilas no reactivas). La actividad cerebral detectada era del mismo tipo de ondas cerebrales (ondas delta) que se registran en el cerebro durante el sueño profundo. 

 

Otra investigación, realizada entre 2008 y 2014 por científicos de la Universidad de Southampton, en el Reino Unido, y considerada el primer estudio a gran escala de las llamadas “experiencias cercanas a la muerte” (proyecto AWARE), ha señalado que la consciencia parece darse durante un período de tres minutos tras la pérdida de latido, a pesar de que siempre se ha considerado que el cerebro deja de funcionar tras 20 ó 30 segundos de haberse producido una parada cardiaca.

En el marco del proyecto AWARE fueron analizados un total de 2.060 pacientes en muerte clínica (por paro cardiaco), atendidos en 15 hospitales de diversos país.

 

Algunos especialistas han ido más allá del cerebro en un intento por explicar la consciencia de pacientes muertos. Es el caso del cardiólogo holandés Pim Vam Lommel, que durante 25 años investigó las experiencias de personas recuperadas tras un estado de muerte clínica. 

 

En su libro Conciencia más allá de la vida (Atlanta, 2012), Van Lommel se planteaba cómo puede darse una consciencia en una situación de total inactividad cerebral. Lommel aventuraba la posibilidad de que la consciencia no se encuentre en el cerebro, sino en todas partes, en forma de ondas de probabilidad de las que el cerebro –activo- participaría.

La consciencia individual, por tanto, podría ser según Lommel una parte de una consciencia universal no local; una parte en la que, como sucede en las holografías, se encuentra el todo. Cabría deducir, según las ideas de este investigador, que si el cerebro se detiene, la consciencia de algún modo “seguiría”. 

 

Aunque especulación, el concepto de Lommel recuerda en parte a la estructura cuántica ‘protoconsciente’ de la que han hablado los científicos Sir Roger Penrose (Profesor Emérito de Matemáticas en la Universidad de Oxford) y Stuart Hameroff‎ (anestesista y profesor de la Universidad de Arizona), especializados en el estudio de la consciencia en el cerebro. 

 

Según ellos,  la consciencia (individual) se derivaría de vibraciones cuánticas presentes en los microtúbulos de nuestras células nerviosas, unas vibraciones que gobernarían la función neuronal y sináptica pero que, también, conectarían los procesos cerebrales a procesos de autoorganización a escala fina de una estructura cuántica ‘protoconsciente’ situada fuera de nuestra cabeza: Hay que seguir estudiando!. 

 

(°) Ingeniero, Presidente Honorario de FAPLEV. Vecino Solidario 2001.

Buscando vida…..

“Para saber la habitabilidad de un exoplaneta”

Compilado por Manlio E. Wydler (°)

Desarrollan un nuevo modelo para estudiar la habitabilidad de los exoplanetas.

Seguro que lo que sabemos sobre el Universo y el mundo natural es muy interesante, pero también es apasionante lo que no sabemos.

No sabemos lo que es la materia oscura, no sabemos lo que es la energía oscura, no sabemos por qué la gravedad es tan débil, no sabemos lo que es el espacio, no sabemos lo que es el tiempo, lo qué pasó en los primeros instantes del Big Bang, cómo de grande es el Universo, si estamos solos en él o, tan siquiera, cómo son los miles de exoplanetas que hemos descubierto recientemente.

La realidad es que, pese a lo imaginativos que puedan ser los artistas que pintan esos planetas, no sabemos de seguro cómo son. Por no tener no tenemos ni la imagen de un punto de ellos. Al menos, todavía no.

Para saber un poco más de esos mundos nos tenemos que basar en la física conocida y crear modelos que predigan cómo pueden ser y cuales de ellos pueden tener condiciones para la vida. Esto es precisamente lo que está haciendo un grupo de investigación de la NASA.

“Usando un modelo que simule más realísticamente las condiciones atmosféricas descubrimos un nuevo proceso que controla la habitabilidad de los exoplanetas que puede guiarnos a identificar candidatos para otros estudios”, dice Yuka Fujii (Goddard Institute for Space Studies).

Los modelos previos que simulaban las condiciones atmosféricas lo hacían en una dimensión: la vertical. El nuevo modelo calcula esas condiciones en las tres dimensiones. Esto permite simular la circulación atmosférica y las características de esa circulación, cosa que los modelos antiguos no podían.

La idea del proyecto es que el futuro, cuando se disponga de la tecnología necesaria, los astrónomos puedan administrar el escaso tiempo de telescopio seleccionado los planetas a observar más prometedores.

Una de las condiciones necesarias (pero no suficiente) para que haya vida tal y como la conocemos es que exista el agua líquida. Esta permitiría la aparición y evolución de vida en uno de esos mundos. De ahí viene la idea de la región habitable alrededor de la estrella. Si el planeta está demasiado lejos el agua congela, si está demasiado cerca se evapora. Aunque que haya agua líquida no depende solamente de la distancia a la estrella, sino que además depende del propio planeta.

Un planeta demasiado caliente puede estar en el proceso de perder el agua que contiene por evaporación y posterior fotodisociación ultravioleta en hidrógeno y oxígeno que se pierden en el espacio. Los planetas que están en este régimen se dice que han entrado en un efecto invernadero húmedo debido a la humedad de sus estratosferas.

Los modelos previos predecían que para que el agua terminara en la estratosfera la Tierra tendría que alcanzarse una temperatura de 66 grados centígrados o más. Esa temperatura generaría tormentas convectivas muy intensas, pero resulta que estas tormentas no son suficientes para que el vapor de agua alcance la estratosfera. La radiación emitida por la estrella también juega un papel en este paso.

Para planetas que orbitan cerca de su estrella, los efectos de marea de esta hacen que el planeta sincronice su rotación con su órbita de tal modo que presente siempre la misma cara a su estrella. Una cara del planeta termina en una noche perpetua y la otra en un día eterno.

Según este nuevo modelo, cuando algo así sucede, las nubes del lado soleado del planeta actúan como una sombrilla sobre la superficie del mismo. Aunque esto puede mantener al planeta más frío y evitar la pérdida de vapor de agua en un proceso de invernadero húmedo, la radiación del infrarrojo cercano de la estrella podría producir de todos modos el indeseado estado. La razón de esto es que el vapor de agua o en forma de gotitas en suspensión absorbe luz infrarroja de ese tipo, lo que calienta el aire y, por tanto, la atmósfera. Al final este aire caliente puede llevar el agua hasta la estratosfera en donde será destruido por fotodisociación.

Este proceso es especialmente relevante para planetas alrededor de estrellas de baja masa como las enanas rojas, que son la mayoría de las estrellas alrededor de las cuales se han detectado exoplanetas debido a un sesgo observacional. Cuando menos masiva es una estrella, más radiación infrarroja emite y más cerca de ella está su zona habitable, por los que favorece que cualquier planeta en esa zona presente siempre la misma cara.

De todos modos, el proceso parece ser gradual, por lo que es posible que existan exoplanetas en esta configuración que permanezcan habitables por mucho tiempo.

El nuevo modelo puede ayudar en un futuro a dilucidar la habitabilidad de exoplanetas, tanto para descartar casos como para estudiar casos concretos una vez se puedan obtener espectros de sus atmósferas. Así, se podría calcular previamente si el planeta, en función de la distancia a su estrella, pueda o no haber entrado en un proceso de invernadero húmedo. En ese futuro no tan lejano se podrá detectar directamente el vapor de agua en la atmósfera de un exoplaneta. Si se detecta demasiado es muy posible que el planeta haya entrado en un proceso de invernadero húmedo.

En este estudio los autores han asumido que el exoplaneta del modelo tiene una atmósfera como la terrestre, pero que está enteramente cubierto de océanos. Esto les permitió ver más claramente los efectos de los cambios de la distancia del planeta a la estrella sobre la cantidad de agua presente en su estratosfera. En modificaciones posteriores del modelo pretenden añadir características, como la gravedad del planeta, su tamaño, la composición atmosférica y la presión atmosférica superficial para ver cómo las variaciones sobre estos parámetros afectan la habitabilidad del exoplaneta.

De todos modos, este asunto recuerda a los modelos de formación planetaria que había antes de que se descubrieran los exoplanetas y que resultaron ser erróneos. A veces la Naturaleza es más complicada de lo que imaginamos con modelos simplificados.

Representación de un exoplaneta con la distribución de hielo (blanco) de un planeta oceánico (el agua en azul) que presenta siempre la misma cara a su estrella. Fuente: Anthony Del Genio/GISS/NASA.

(°) Ingeniero, Presidente Honorario de FAPLEV. Vecino Solidario 2001.

Mi Cosmología soluciona el problema de porqué existimos….

“Mi Cosmogonía es la única que explica porqué nuestro Universo es de Materia y Energía”

(°) Compilado por Manlio E. Wydler (°)

 

Uno de los mayores misterios de la Física moderna es averiguar la razón por la que la antimateria no destruyó el Universo al principio de los tiempos.

 

De hecho, parece claro que durante el Big Bang, la gran explosión de la que nació el Universo en que vivimos, se generó igual cantidad de materia que de antimateria. Ambas son idénticas, pero con cargas eléctricas opuestas, lo que significa que, para mantener la simetría, materia y antimateria se destruyen en el momento de entrar en contacto (uno menos uno es igual a cero).

 

Sin embargo, el mero hecho de que estemos aquí significa que en el principio, de alguna forma, la materia pudo imponerse sobre la antimateria y dar forma a todo lo que podemos ver en la actualidad.

 

Para explicar esta discrepancia, los físicos suponen que, en alguna parte, debe haber alguna diferencia más entre la materia ordinaria y su imagen en el espejo (antimateria), algo aparte de la simple carga eléctrica y que es tan sutil que aún no hemos sido capaces de verlo.

 

Por eso, un equipo de científicos del CERN, el gran laboratorio europeo de Física de Partículas, ha llevado a cabo la medida más precisa hecha hasta ahora del momento magnético de un antiprotón (la antipartícula del protón), un número que mide cómo reacciona una partícula ante una fuerza magnética, y han hallado que es exactamente el mismo que el del protón. Lo cual no hace más que acrecentar el misterio. El trabajo acaba de publicarse en Nature.

 

Hace años que escribí una Nueva Cosmología, donde soluciono este conflicto: El Multiverso está formado por infinitos Universos espejos encadenados; Unos Inflacionarios, otros retrayentes, unos de materia y energía, otros de anti-materia y anti-energía, con flecha del tiempo orientada hacia el futuro, otras la flecha del tiempo orientados al pasado, unos desorganizándose, otros organizándose, Con temperaturas otros con temperatura negativas respecto al Cero absoluto, …..etc.   Son Universos Espejos, enlazados, formando  una continuidad, sin principio ni fin, etc.……Pido que el lector la relea en mis Blogs. (Nota del Redactor).

 

“Todas nuestras observaciones -afirma Christian Smorra, físico del CERN en el experimento BASE (Baryon-Antibaryon Symmetry Experiment) – han hallado una simetría completa entre materia y antimateria, y esa es la razón por la que el Universo no debería existir”. Sin embargo, añade el frustrado investigador, “debe haber una asimetría en alguna parte aunque, sencillamente, no logramos encontrar dónde está la diferencia”.

 

El Modelo Estándar de la Física predice que el Big Bang produjo la misma cantidad de materia que de antimateria, pero ambas, al ser opuestas, deberían haberse aniquilado mutuamente en pocos instantes, lo cual no habría dejado nada para fabricar galaxias, estrellas, planetas o humanos.

 

Para tratar de explicar el misterio, los físicos llevan décadas tratando de encontrar las diferencias entre materia y antimateria, alguna discrepancia que permita explicar de qué forma la materia, tal y como podemos ver a nuestro alrededor, consiguió predominar.

Para ello, se han llevado ya a cabo mediciones extremadamente precisas de todo tipo de propiedades de partículas y antipartículas: masa, carga eléctrica… pero no se ha conseguido aún encontrar la más mínima diferencia entre ellas.

Una de esas propiedades, sin embargo, el momento magnético del antiprotón, no se conocía con la misma precisión que las demás. Y hace ya diez años, Stefan Elmer y su equipo del experimento BASE se propusieron medir esa propiedad con una exactitud sin precedentes.

Para ello, los físicos tuvieron que desarrollar técnicas y cálculos completamente nuevos, y construir instrumentos que aún no existían. Una vez preparados, midieron primero el momento magnético de un protón, para después hacer lo mismo con un antiprotón, algo mucho más difícil, ya que los antiprotones se destruían de inmediato en cuanto entraban en contacto con cualquier tipo de materia de su entorno.

Para conseguir hacer las medidas, los científicos tuvieron primero que producir las partículas de antimateria más longevas jamás creadas en un laboratorio, algo que consiguieron en 2015. Por primera vez, en efecto, fueron capaces de “guardar” antimateria durante un año entero dentro de un contenedor especial, una “ trampa” hecha de campos eléctricos y magnéticos (ningún material de la Tierra habría servido para ello).

Así fue como lograron medir el momento magnético de los antiprotones con una precisión 350 veces superior a lo conseguido hasta el momento.

“Nuestros resultados -afirma el propio Elmer- son la culminación de muchos años de continua investigación y desarrollo, y una de las mediciones más difíciles jamás realizadas con este tipo de instrumentos”,

Pero en el Universo, el gran juego de las diferencias continúa. Y fracasado el intento de buscar diferencias en el momento magnético, las esperanzas están puestas ahora en otro experimento, ALPHA, en el que los científicos estudiarán los efectos de la gravedad en la antimateria y tratarán de averiguar si se diferencian en algo de los que tiene sobre la materia ordinaria. Si es así, el gran misterio quedará resuelto de una vez por todas. Si no, habrá que seguir buscando la razón por la que la antimateria no nos destruyó justo después del Big Bang.  Mi Cosmogonía si lo resuelve, léanla………

 

(°) Ingeniero, Presidente Honorario de FAPLEV, Vecino Solidario 2001.

Nuevas baterías con menor proporción de Litio.

“Nuevas baterías de aire, Sodio y Litio”

Compilado por Manlio E. Wydler (°)

Se han publicado avances en nuevos tipos de baterías que podrían ayudar a la implantación de energías renovables.

En los últimos años se ha intentado fomentar el uso de energías alternativas, como pueda ser la solar o la eólica. Además se está intentando la electrificación de nuestro estilo de vida para así poder aprovechar estas fuentes de energía.El ser humano ha alcanzado y superado los límites ecológicos y climáticos del planeta Tierra. El consumo de combustibles fósiles, una natalidad desmedida y un estilo de vida básicamente depredador con nuestro entorno nos está llevando al desastre.

La realidad es que no puede existir el crecimiento sostenible porque el crecimiento exponencial sobre recursos finitos siempre llevará al desastre. Tampoco es posible la completa electrificación de nuestro estilo de vida porque hay sectores muy dependientes de los combustibles fósiles, como nuestra agricultura, transporte de mercancías o la minería. Tampoco se puede cambiar todo el parque automovilístico de un día para otro y, encima, ello llevaría a un gran consumo de energía.

Pese a todo, cualquier mejora pasa por el uso de energías alternativas. Pero el problema de este tipo de energías es su intermitencia. Para poder aprovecharlas se necesita algún tipo de almacenamiento y lo primero que se le ocurre a cualquiera es el uso de baterías. Pero las baterías actuales son caras o poco efectivas, por lo que se está investigando fuertemente en este campo. Así, por ejemplo, el sistema de almacenamiento de electricidad actual más barato sale un poco por debajo de 100 euros por kilovatio hora.

Las baterías de litio son cada día más efectivas y duraderas, pero no hay tanto litio en la corteza terrestre como para poder electrificar nuestro estilo de vida. Además, en una economía de mercado, el precio de un elemento dependerá de su demanda si su escasez en la corteza terrestre. Así que es de esperar que el precio del litio se incremente o se dispare.

Por esta razón se investiga en baterías que usen otros elementos. Vamos a ver algunos avances realizados recientemente en este tipo de nuevas baterías. Uno de ellos es la batería de aire, que usa el oxígeno atmosférico.

Ciento ochenta investigadores del MIT y otras instituciones han logrado desarrollar recientemente, después de 12 años de investigación, una batería de este tipo a un coste de un quinto de las de tecnología tradicional. Además se puede usar en muchas localizaciones y tiene cero emisiones.

El ánodo está hecho de azufre y una disolución de agua y el cátodo es una disolución salina en contacto con aire atmosférico. El oxígeno del aire produce una descarga de electrones del cátodo al pasar por él y combinarse. La liberación de oxígeno se produce cuando se carga la batería.

No se generan emisiones de dióxido de carbono y el costo de todos los materiales no supera un treintavo del costo de los materiales de las baterías habituales de litio. Además puede ser escalada para grandes instalaciones de tal modo que su costo estaría entre 20 y 30 euros por kilovatio hora.

El azufre es un elemento barato y abundante, por lo que no hay limitaciones en este aspecto. Pero el desafío fue que el cátodo líquido y económico fuera estable en el tiempo.

Ente los posibles candidatos a cátodo estaba el permanganato potásico como, pero el problema era el proceso de reducción que permite la descarga de electricidad, que normalmente es imposible de invertir. Es decir, la batería no se puede recargar. Pero, inesperadamente, ese proceso sí es posible si el oxígeno participa en la reacción. Así fue como estos investigadores dieron con el concepto de una batería de aire que puede almacenar energía durante largos periodos de tiempo a un precio bajo.

A partir de esto lograron desarrollar una batería de flujo en la que el electrolito es bombeado continuamente a través de los electrodos en los procesos de carga y descarga. La batería consiste en un ánodo líquido de polisulfito que contiene iones de litio y sodio y, separado por una membrana, un cátodo de sales disueltas oxigenadas. Como podemos ver, no se libra del todo del litio.

Durante la descarga el anolito libera electrones en el circuito externo y los iones de litio y sodio viajan hacia el cátodo. Para mantener la neutralidad, el catolito se combina con el oxígeno y crea radicales de hidróxido cargados negativamente. Cuando se carga el proceso es el inverso, se donan electrones al anolito través del circuito externo y se libera oxígeno en el cátodo.

De momento el prototipo tiene el tamaño de una taza de café, pero es fácilmente escalable. La densidad de energía de una batería de este tipo es unas 500 veces mayor que un embalse hidroeléctrico, por lo que es mucho más compacto.

Otro grupo distinto de investigadores, en este caso de la Universidad de Stanford, han logrado desarrollar una batería de sodio que puede almacenar la misma cantidad de energía que las baterías de litio comerciales, pero a un coste muy inferior.

Como todos sabemos, las propiedades químicas del litio, sodio o potasio son muy similares por estar en la misma columna de la tabla periódica, pero los iones de sodio son mucho más grandes que los de litio, por lo que las baterías de sodio suelen tener una peor reversibilidad entre carga y descarga y, por tanto, el número de ciclos, es decir la vida útil, de estas batería era muy inferior a las de litio.

Pero el sodio es infinitamente más abundante que el litio, pues la sal común no es más que cloruro sódico (tampoco nadie aclara qué se hace con el cloro en este caso), por lo que se puede obtener fácilmente. El litio cuesta unos 14000 euros la tonelada refinada, mientras que el sodio sale por unos 140 euros. Esto hace que una batería de sodio sea más o menos un 80% más barata que una de litio para el mismo almacenamiento de energía.

El funcionamiento es el mismo que para el litio, con un ión positivo de sodio cargado que se combina con un ión negativamente cargado. En este caso se usa un compuesto barato para este segundo papel: mio-inositol. Este compuesto es más común de lo que parece, pues está en la leche maternizada y se obtiene del salvado de arroz o como subproducto en el procesado del maíz. El ánodo está compuesto por fósforo.

Los investigadores se han centrado hasta ahora en la efectividad y coste de una batería de este tipo. Además han logrado optimizar la carga y descarga para que el número de ciclos que esta batería aguanta sean muchos. Para ello estudiaron cómo se comportaban los iones de sodio a nivel atómico con el acelerador de partículas SLAC.

Más adelante quieren estudiar la densidad volumétrica de este tipo de batería frente a las de litio. Básicamente quieren saber cómo de grande tiene que ser una batería de sodio para que almacene la misma energía que una de litio.

(°) Ingeniero, Presidente Honorario de FAPLEV. Vecino Solidario 2001.

Esperando reencarnar…

 

“¿CÓMO EL ALMA ELIGE A SUS FUTUROS PADRES PARA REENCARNAR?”

Compilado por Manlio E. Wydler (°)

En artículos que escribí hace años mostré algunas descripciones de este tema en las narraciones de pacientes que se realizaban sesiones hipnóticas de vidas pasadas, según sus más famosos pilares de la medicina siquiátrica de la reencarnación.

Me pareció interesante colocar la opinión de un practicante akáshico, que se hace llamar Maestro Pastor.

 

Los individuos que esperan su momento para reencarnar, no están como en una ventana viendo lo que sucede en el plano físico.

Cuando la pareja en el acto sexual entra en fusión, genera una intensa elevación de energía cuya vibración va a situarse y abrirse en una de las esferas ubicadas en los planos sutiles. Cada esfera está habitada por diferentes grupos de entidades. La esfera con la que se conecta la pareja corresponde al nivel de su desarrollo para procrear, a la energía que han sabido liberar, a la manera como han vivido esa energía, a todo lo que son espiritualmente, hereditariamente y que corresponde a todo lo que pueden proponer como padres, raza, nación, etc.

Todo esto constituye lo que ellos pueden ofrecer como destino para esa entidad. Es por esa razón que las esferas viajan. En un período de tiempo X en la tierra, la esfera que estaba designada para los nacimientos, las entidades que la habitan habiendo obtenido suficientes encarnaciones, la esfera se desplaza y sede el lugar para otras esferas con otras entidades.

Es por eso que se dice que cíclicamente los iniciados de tal país, o que los atlantes, o que los iniciados egipcios, o que los iniciados celtas regresan en encarnación; o al contrario que las órdenes malévolas de tal o tal grupo regresan en encarnación.

Esto es porque cada individuo, cada alma pertenece a una vibración, pertenece a una esfera de entidades y esas esferas tienen derecho a la encarnación en horas muy precisas. En momentos que corresponden a sus desarrollos espirituales o la necesidad de su encarnación para efectuar algo en el planeta. Por lo tanto, siempre hay una gran correspondencia entre el mundo espiritual y el mundo físico.

Entonces, cuando ese gran túnel de vibración se ha elevado y abierto en la esfera que corresponde a las entidades que deben encarnar en ese momento, el factor preponderante que determina la entidad es la similitud de las vibraciones. Lo que aportan los padres como destino, karma, educación, devenir social, etc. Y no porque reconoce a sus antiguos padres o amigos de una otra vida.

Los vínculos kármicos no son jamás lazos afectivos y es por eso que pueden estar casados con personas que son nuevas en vuestro desarrollo cósmico. Si quisieran en cada reencarnación encontrarse con el mismo marido o la misma esposa, no habría evolución y no habría diversidad porque el alma, desde la perspectiva de su reino, no tiene relación afectiva con lo manifestado (el mundo físico). El alma tiene una relación de necesidad y una relación de voluntad. Lo que es justo se vuelve su voluntad, lo que es necesario se vuelve su voluntad y el amor es para todo el mundo y no solo para las personas que ha previamente conocido. El amor es para todos.

Esto quiere decir que el alma no tiene ningún problema con casarse con tal o tal ser, porque ella tiene amor para todo el mundo. En cambio, la psicología que se generará a partir de la encarnación, independientemente de la disposición tomada por el alma y su universalidad, va a seleccionar sus potenciales parejas: “Este si me gusta, este no”. Todo eso pertenece al juego del plano físico y no al juego del alma.

Así que cuando el alma en su esfera vio que destino podría obtener encarnándose en tal o tal hogar envía su acuerdo. De la misma manera que la energía subió a ella para suscitarla, el alma también envía su energía para dar su consentimiento, para que el embrión pueda formarse, porque si no el embrión no podrá formarse y es cuando se dice que la pareja es estéril.

 

Es cierto que en algunos casos, realmente hay un problema a nivel de los órganos, pero en muchos casos de infertilidad es simplemente porque la vibración no encuentra ningún eco favorable en las esferas. En esos casos, la mujer y el hombre deben sobre todo trabajar en ellos mismos. No es que sus órganos sean estériles, sino que el destino que proponen no interesa a ninguna alma.

Ellos tienen que repensar algunas ideas, ciertas posesiones, los instintos o cuál es su razón de querer tener un niño, porque si hay una cosa que las entidades rechazan totalmente es la de encarnar solamente porque mamá y papá quieren absolutamente tener un bebé. Eso es algo que no les agrada para nada a las entidades. Mucha gente quiere un bebé como el niño quiere el juguete del vecino, porque es algo que puede divertirles. Ahora bien considerar la procreación como una diversión tiene muy mala recepción para las almas.

Nota: Lo que Pastor llama “esferas” ubicadas en los planos sutiles donde viven las almas humanas entre dos reencarnaciones, la Teosofía y el Budismo las llaman “Lokas” que en sanskrito significa regiones o moradas. Existen tres grandes regiones sutiles: Kama-Loka, Rupa-Loka y Arupa-Loka que se traducirían como la región del deseo, la región de la forma y la región sin forma, cada una teniendo a su vez múltiples sub-regiones.

(°) Ingeniero, Presidente Honorario de FAPLEV, Vecino Solidario 2001.

Rendimiento superior.

“Copiar a la naturaleza, rinde”

Compilado por Manlio E. Wydler (°)

Las alas de la mariposa negra tienen el secreto para mejorar las células solares

Investigadores del Instituto de Tecnología de California (Caltech) y del Instituto Tecnológico de Karlsruh (KIT), en Alemania, han desarrollado una técnica que mejora la capacidad de las células fotovoltaicas de absorber luz solar. Para ello, se han inspirado en las alas de la mariposa negra (Pachliopta aristolochiae), que habita en el sur y sureste de Asia.

Según un estudio publicado en el último número de la revista Science Advances, las alas de estos lepidópteros están cubiertas por escamas micro y nanoestructuradas que cosechan luz solar en una amplia gama de ángulos y longitudes de onda.

Los científicos señalan que el hallazgo tendrá aplicaciones para mejorar las capacidades de recolección de luz de células solares de película delgada, una tecnología donde las eficiencias están bastante limitadas en la actualidad.

“El diseño estructural de las alas de esta mariposa –basado en crestas y pequeños agujeros– proporciona simultáneamente una buena estabilidad mecánica al tiempo que cosecha la luz con gran eficacia”, señala Radwanul Siddique del Caltech, uno de los autores principales.

Para obtener una mayor comprensión de las propiedades ópticas de la estructura del ala, Siddique y sus colegas crearon un modelo 3D de nanoestructuras basado en imágenes microscópicas de las alas de la mariposa y calcularon sus capacidad de absorción de luz.

Luego diseñaron absorbedores fotovoltaicos delgados hechos de silicio imitando la estructura del ala de mariposa. Los resultados mostraron un aumento del 200% en la absorción integrada en el modelo hecho con nanoagujeros.

Los investigadores dicen que la capacidad de absorción del diseño se puede mejorar aún más mediante la optimización de su perfil de grabado, por ejemplo, utilizando un modelo de pirámide invertida en lugar de uno cilíndrico.

(°) Ingeniero, presidente Honorario de FAPLEV. Vecino Solidario 2001.

Cuevas de la Luna

“Las cavernas de la Luna”

Compilado por Manlio E. Wydler (°)

 

La sonda Lunar Reconnaisance Orbiter (LRO) de la NASA, destinada a la exploración de la Luna, ha obtenido unas fascinantes imágenes del fondo de un enorme agujero de 65 metros en la superficie de nuestro satélite natural; el interior, nunca antes visto, de lo que parece una cueva subterránea en la región de las colinas de Marius.

 

Esta es la cuarta vez que esta fosa ha sido fotografiada. La LRO está constantemente en órbita alrededor de la Luna y realiza un ciclo completo de imágenes cada vez, de forma que el equipo pueda hacer un seguimiento de los descubrimientos anteriores bajo diferentes condiciones de iluminación. En esta ocasión, un pertinente ángulo de incidencia solar, la iluminación adecuada y a la rotación de la cámara de la nave permitieron a la cámara de la LRO descubrir todo el recorrido de la fosa hasta el fondo. Las imágenes revelan un agujero cavernoso de unos 65 metros, seguramente excavado por un antiguo río de lava. Nunca antes se había visto con tanto detalle esta cueva de las colinas de Marius, una de las zonas preferidas por los astrónomos aficionados a las observaciones selenitas.

 

La NASA también ha capturado la naturaleza de las capas de roca madre en las paredes del pozo. Estas capas darán a los científicos importantes pistas sobre cómo fueron depositadas y cómo se formó la arrugada superficie lunar. Este tipo de agujeros puede ser la entrada a túneles de lava, semejantes a las estructuras de la Tierra que se crean cuando una roca fundida se solidifica y la lava se escurre, dejando un hueco en la roca. De esta forma se originan amplias redes de galerías.

 

Las nuevas imágenes completan la colección de fotografías de un mundo geológico desconocido, en el que existen agujeros del tamaño de rascacielos y puentes naturales. Hasta que los agujeros fueron descubiertos por la sonda japonesa Kaguya, todas las pruebas de este entramado eran indirectas. Los investigadores sospechaban de su existencia desde los años 60, al observar en fotografías orbitales cientos de canales largos y angostos sobre las planicies lunares.

 

El radar de la Kaguya, ha encontrado nuevas cavernas, de más de 75 kilómetros de largo que contiene además agua sólida.

 

Estas bases existen desde muy antiguo y algunos que han trabajado en secreto en USA, las han visitado. Aprovechando la poca gravedad de la Luna, se han realizado adentro maravillas arquitectónicas.

 

No solo tiene interés el pasado de estas fosas,-nos dice la NASA-, también su futuro. Estos tubos podrían proteger a los exploradores humanos de los peligros de la Luna, como los rayos cósmicos, los impactos de meteoritos o las diferencias extremas de temperatura entre el día y la noche.

(°) Ingeniero, Presidente Honorario de FAPLEV. Vecino Solidario 2001.

 

El agujero subterráneo, de 65 metros, está situado en las Colinas de Marius, de los primeros encontrados.

Un átomo hermana a 16 millones.

“Un único fotón provoca el entrelazamiento cuántico de 16 millones de átomos”

 

Compilado por Manlio E. Wydler (°)

Investigadores de la Universidad de Ginebra han demostrado el entrelazamiento cuántico de 16 millones de átomos en el interior de un cristal de un centímetro atravesado por un único fotón, confirmando por vez primera la teoría sobre la que se basan las redes cuánticas del futuro.

 

La teoría cuántica predice que un gran número de átomos pueden estar entrelazados, vinculados por una relación cuántica muy poderosa, incluso en una estructura macroscópica. Sin embargo, las pruebas experimentales de esta teoría han sido escasas, incluso si recientes progresos han permitido comprobar el entrelazamiento cuántico de 2.900 átomos.

Dándole vueltas al tratamiento de los datos obtenidos de sus observaciones, investigadores de la Universidad de Ginebra (UNIGE) han cambiado de escala y comprobado el entrelazamiento cuántico de 16 millones de átomos en el interior de un cristal de un centímetro. Los resultados se publican en  Nature Communications.

 

Las leyes de la física cuántica permiten actualmente emitir señales cuya intercepción por un tercero sería detectada instantáneamente. Esta propiedad es esencial para la protección de datos y más específicamente para la criptografía, que permite garantizar que los mensajes intercambiados entre dos personas no pueden ser interceptados por el camino.

Lo que le faltaba a esta tecnología es que esas señales puedan recorrer largas distancias gracias a apoyos un poco particulares, llamados repetidores cuánticos, de los que este grupo de investigadores, tal como informamos en otro artículo, han sido pioneros. Estos repetidores cuánticos son cristales cuyos átomos están unidos por el así llamado entrelazamiento cuántico.

 

En esencia, el entrelazamiento cuántico se produce cuando partículas tales como fotones o electrones interactúan físicamente y luego se separan, pero siguen estando íntimamente conectadas, incluso si están a miles de kilómetros de distancia, de tal forma que  cualquier modificación deliberada en una partícula, se refleja instantáneamente en la otra.

Cuando un fotón penetra en este pequeño recinto de cristal enriquecido con átomos de elementos químicos conocidos como “tierras raras” (que agrupan el escandio, el itrio y los 15 elementos del grupo de los lantánidos), y enfriados a 270 grados bajo cero, tres grados por encima del cero absoluto, el fotón crea el entrelazamiento cuántico entre los millones de átomos del cristal, cuando son atravesados por el fotón. 

 

La teoría predice con absoluta certeza que este fenómeno se produce realmente, ya que el cristal cumple su función y reenvía sin leer la información que ha recibido, en forma de fotón único.

 

Pero aunque es relativamente sencillo entrelazar dos partículas, ya que la escisión de un fotón genera por ejemplo dos fotones entrelazados cuánticamente, con propiedades y comportamientos idénticos, es imposible observar directamente un fenómeno de entrelazamiento entre varios millones de átomos, ya que la masa de datos que sería necesario reunir y analizar es muy importante, explica Florian Fröwis, uno de los investigadores, en un comunicado.

Para resolver esta dificultad, Fröwis y sus colaboradores han elegido una vía indirecta, preguntándose en primer lugar qué medidas se pueden realizar y luego, de entre todas ellas, determinar cuáles son pertinentes.

Los investigadores se han centrado en las características de la luz reenviada por el cristal, analizando sus propiedades estadísticas y las probabilidades que les acompañan, trazando dos índices principales: que la luz sea realmente reenviada en una única dirección (más que dispersarse en un rayo a partir del cristal) y que la emisión de esa luz esté constituida por un fotón único.

 

De esta forma, han podido demostrar el entrelazamiento cuántico de 16 millones de átomos, donde hasta ahora observaciones precedentes sólo habían podido determinar unos miles de entrelazamientos.

Aunque otro grupo de científicos de la Universidad de Calgary, en Canadá, ha demostrado en el pasado el entrelazamiento de numerosos grupos de átomos, según explica Mikael Afzelius, otro de los investigadores suizos, para conseguir su resultado no han cambiado las leyes de la física, sino que han cambiado la forma de tratar el flujo de datos.

El entrelazamiento cuántico es uno de los requisitos básicos de la revolución cuántica en puertas que afectará tanto al volumen de información que puede circular por las redes del futuro, como a la potencia y modo de funcionamiento de los ordenadores cuánticos, destacan los investigadores.

 

Todo este futuro se basa en la relación que existe entre dos partículas a nivel cuántico, una relación mucho más fuerte que las simples correlaciones que propone la física clásica.

 

(°) Ingeniero, presidente Honorario de FAPLEV. Vecino Solidario 2001.

 

Vista parcial de la fuente de los fotones únicos que serán almacenados en la memoria cuántica, con la finalidad de generar el entrelazamiento entre un gran número de átomos en la memoria. UNIGE