Moler los asteroides grandes.

Según los últimos cálculos del laboratorio de propulsión a chorro (JPL), de la NASA, las probabilidades de que el enorme asteroide Apofis impacte contra la Tierra son menores de lo que se había estimado antes.
«Todavía no podemos excluir la posibilidad de que pueda afectar a nuestro planeta, pero podemos calcular que la probabilidad de impacto es sólo una entre 100.000 en el próximo siglo, la que, por supuesto, es muy baja», ha dicho Astrowatch.net Paul Chodas, gerente del centro del JPL para el estudio de objetos cercanos a la Tierra.

Según las estimaciones, el asteroide Apofis, de cerca de 370 metros de diámetro, pasará cerca de la Tierra el 13 de abril de 2029. Las observaciones iniciales de esta roca espacial indicaron que había una probabilidad de uno entre 36 de que chocase con la Tierra ese día, pero un estudio más profundo de la órbita descartó esta posibilidad.
Sin embargo, Alberto Cellino, del Observatorio de Turín en Italia avisó en junio de que, aunque se hubiera excluido el impacto de 2029, no se podía descartar tal evento en un futuro más lejano.

«Podemos descartar la colisión en la próxima máxima aproximación entre el asteroide y la Tierra, pero sabemos que la órbita cambiará entonces de un modo que no es del todo predecible ahora mismo, así que no podemos saber cómo se comportará a largo plazo», explicó Alberto Cellino en Astrowatch.net.
La dificultad de predecir las órbitas
Dado que las órbitas de los asteroides tienen un componente caótico, las predicciones tienen un poder limitado. Por eso, muchos astrónomos coinciden en señalar la importancia de llevar a cabo un extenso y continuo programa de observación y vigilancia de asteroides como Apofis.
En la actualidad, los astrónomos conocen el 90 por ciento de los asteroides más masivos del Sistema Solar, pero solo se conoce el uno por ciento del total de asteroides. En cuanto a las rocas que miden 140 metros o más, capaces de dañar ciudades y regiones enteras, según el informe para la estrategia de preparación nacional ante NEOs de la Casa Blanca, en la actualidad solo se conocen alrededor del 28 por ciento.

Según datos del JPL, además de estos asteroides de varios centenares de metros, en la actualidad se calcula que existen 10 millones de rocas con un diámetro superior a 20 metros que aún no han sido detectados, y unos 300.000 con una longitud mayor a los 40 metros. Ambos podrían dañar ciudades enteras.

«Apofis es ciertamente un asteroide peligroso, y por eso ha sido rastreado extensamente. Gracias a esto conocemos su órbita con mucha precisión. De esta forma seguramente las medidas de seguimiento eliminarán incluso esa posibilidad de impacto (de una en 100.000, en este siglo)», ha señalado Chodas.
La seguridad que dan las observaciones es uno de los motivos que ha llevado a astrónomos y científicos para proclamar el día del asteroide y reivindicar la necesidad de invertir fondos en vigilar estas rocas y diseñar planes para proteger a la Tierra.

Cada vez que un cuerpo grande de asteroide, al pasar cerca de la Tierra, modifica su camino, por lo cual, debe de hacerse un continuo análisis de su rumbo.

A su vez, debe implementarse un grupo de enormes vectores, con cargas nucleares, que despedacen convenientemente a estos monstruos, ya que trozos de menos de un metro, se disiparían en la atmósfera, sin peligro.

(°) Ingeniero .Presidente Honorario de FAPLEV. Vecino Solidario.2001.

Posted in Ciencia | Tagged | Leave a comment

Formación terráquea

“Científicos cuestionan las teorías sobre la formación de la Tierra”
Compilado por Manlio E. Wydler (°)

La composición actual de azufre y zinc del planeta indica que en su formación tuvo un papel más importante un tipo distinto de ladrillo básico: las condritas ricas en hierro

Las condritas son meteoritos caídos en la Tierra que reflejan la composición de los ladrillos del Sistema Solar –

Pocos millones de años después de su nacimiento, el Sistema Solar estaba compuesto por una estrella rodeada por un disco de gas y polvo. La gravedad, la radiación solar y las colisiones favorecieron que en la parte más próxima a la estrella, el polvo se agregara y formara pequeños fragmentos de rocas, llamados planetesimales, que luego chocaron entre sí y se agregaron en forma de planetoides.

En medio de una colosal y caótica carambola, estos a su vez generaron protoplanetas. A continuación, las colisiones y la radiactividad propia de ciertos átomos generaron tanto calor que fundieron las rocas de estos embriones de planetas. Esto favoreció la aparición de ciertos elementos, influyó en que los átomos más pesados viajasen hacia el núcleo y llevó a que la corteza exterior de los planetas rocosos no apareciera hasta millones de años después, cuando estas masas de materia se enfriaron lo suficiente.

Unos experimentos presentados recientemente en la conferencia de geoquímica de Goldschmidt, en París, han mostrado que las teorías que explican cómo se formó la Tierra, en medio de ese caos del Sistema Solar primigenio, podrían ser erróneas. Después de simular ciertas condiciones de la Tierra recién nacida, han concluido que los ladrillos básicos con los que se construyó pudieron ser diferentes a como se ha mantenido hasta ahora.

Según sus resultados, hace unos 4.000 millones de años había una gran cantidad de zinc y azufre en el núcleo de la Tierra, al contrario de lo que otros científicos habían sostenido.
Los investigadores, del Instituto de Física del Globo de París (Francia) fundieron mezclas ricas en hierro y silicatos similares a los que se cree que estaban presentes durante el nacimiento del planeta. Para ello, llegaron a temperaturas de 3.800 grados centígrados y presiones de casi 790.000 atmósferas, y entonces midieron cómo los elementos se separaron y distribuyeron.
Al combinar sus experimentos con modelos sobre la formación de la Tierra, observaron que las simulaciones no podían explicar la relación de azufre (S) y zinc (Zn) que hay en la Tierra actual, concretamente en la capa del manto. Esto implicaría también que las actuales estimaciones sobre la composición del planeta deberían ser modificadas.
«Decidimos comprobar si la proporción de zinc y azufre de la Tierra primigenia sería la misma a la actual simulando la contribución que tendrían distintas fuentes para ese material», ha explicado Brandon Mahan, uno de los autores de la investigación. Esas fuentes estarían representadas por las condritas, meteoritos encontrados en la Tierra y que reflejarían la composición de los ladrillos que formaron el Sistema Solar.

¿Qué averiguaron sobre estas fuentes de material para el planeta? «Descubrimos que bajo las condiciones que ocurrieron durante la formación de la Tierra, el zinc tiene tendencia a distribuirse en el manto y el núcleo de una forma diferente a como se piensa ahora. Esto implicaría que ahora habría una gran cantidad de zinc y azufre en el núcleo», ha proseguido Mahan. Cosa que no apoyan las observaciones actuales.
Por eso, para justificar que no haya tanta presencia de zinc y azufre, la única opción que han encontrado los investigadores es que la Tierra no se formó a partir de los ladrillos básicos considerados hasta ahora.
«La mayoría de las teorías se basan en que la Tierra se formó a partir de dos tipos de meteoritos rocosos: las condritas carbonáceas de tipo ivuna(«condritas CI», ricas en filosilicatos y magnetita) y las condritas de enstatita», ha recordado Brandon Mahan.

«Sin embargo, este trabajo indica que la Tierra actual se formó a partir de una fuente más pobre en azufre que estas. Según los datos geoquímicos, el mejor candidato para haber generado esta composición son las condritas con alta composición de hierro («condritas CH», ricas en pirosexeno, olivino y metales)».

Esto permitiría que las teorías sobre la formación de la Tierra fueran más coherentes con la composición del planeta estimada hoy en día.
(°) Ingeniero, Presidente Honorario de FAPLEV. Vecino Solidario 2001.

Posted in Ciencia | Tagged | Leave a comment

Mini-naves

“Microsatélites impulsados por velas-láser”
Compilado por Manlio E. Wydler (°)
La iniciativa Breakthrough Starshot pretende invertir 100 millones de dólares en el desarrollo inicial de un sistema de velas láser que permitan enviar chips a las estrellas cercanas. Se podrían enviar cientos o miles de estas microsondas al espacio exterior o, incluso, a los confines del Sistema Solar. El proyecto está financiado por el millonario ruso Yuri Milner.
Todavía no se saben los detalles exactos de cómo se pretende hacer porque tienen que desarrollar la tecnología necesaria.
Ahora han dado el primer paso con la puesta a prueba de parte de esa tecnología, en concreto la del chip electrónico. Algunos de estos chips que se han lanzado constituirán los satélites más pequeños nunca enviados a la órbita terrestre.
El pasado 23 lanzaron a órbita baja a 6 de estos chips gracias a un cohete indio junto a otra carga de pago suplementaria consistente en satélites educacionales construidos por la compañía europa OHB System AG. Dos de estos nanosatélites, a los que llaman sprites, están pegados en el exterior de los satélites Latvian Venta y Max Valier. Los otros cuatro están esperando dentro de Max Valier a ser desplegados de forma independiente y volaran libres por su órbita.
Cada sprite pesa 4 gramos y consiste en una placa de circuito de 3,5 cm de ancho que porta su placa solar, computadoras, sensores como magnetómetros y giroscopos y sistema de comunicación. Cada uno sólo puede recibir una potencia de 100 milivatios con sol directo, potencia con la que alimentan todos los sistemas. Se espera que puedan producirse a un coste de 25 dólares la unidad.
Estos sprites pueden producirse a bajo costo por miles y pueden ser desplegados en órbita baja para proporcionar una formación de sensores sin precedentes. Pueden operar sin combustible y mantener su órbita y posición gracias al campo magnético terrestre y a la presión de radiación de la luz del Sol.
Según los cálculos de la iniciativa, se puede acoplar un vela láser de un metro de ancho e iluminar con un láser o máser ultrapotente el sistema de tal modo que en poco tiempo alcance un 20% de la velocidad de la luz. Ello permitiría, en teoría, viajar a estrellas cercanas en un tiempo prudencial. No han dicho todavía cómo van a conseguir no vaporizar todo el sistema, pero los organizadores dicen avanzar con paso firme en el proyecto, pese a los grandes desafíos que incluyen los problemas ópticos, de ciencia de los materiales y de comunicaciones.
“Esta es una versión muy temprana de lo que queremos enviar a distancias interestelares”, dice Pete Worden, que es ejecutivo de Breakthrough Starshot y antiguo directos del Ames Research Center de la NASA.
Como en los tiempos del Sputnik, los sprites llevan un transmisor de radio del que se pueda recibir sus emisiones y sirven como prototipos de demostración.
La telemetría enviada por estos nanosatélites será usada para seguir su trayectoria y entender mejor su dinámica orbital. Las estaciones en tierra de Nueva York y California ya han recibido señales de al menos uno de los que están pegados. Sin embargo, tienen problemas para recibir la señal del satélite Max Valier, puede que no haya conseguido desplegar su antena. Este satélite tiene que ser el que libere los cuatro sprites restantes, si no se consigue establecer la comunicación con este satélite no podrán ser desplegados. A la hora de escribir estas líneas no había noticias al respecto en la web de Breakthrough Starshot.
De todos modos hay cierta preocupación de que la proliferación de estos objetos y otros similares, que además se detectan muy mal, puedan constituir basura espacial y se conviertan en proyectiles para otros satélites. Por esta razón se ha prohibido lanzarlos a más de 400 km de altura. Se supone que por debajo de esa cota el rozamiento con la atmósfera los hará caer.
De todos modos, este tipo de nanosatélites, o nanosondas inspirados en ellos, podrían constituir un nuevo paradigma en la exploración del espacio, sobre todo en el Sistema Solar. Si, por ejemplo, se quiere buscar restos de vida en Marte quizás se tengan más probabilidades usando miles de estos objetos.
Se espera que pronto se puedan lanzar cientos o miles de estos sprites para supervisar la atmósfera y campo magnético de la Tierra.
(°) Ingeniero, Presidente H. de FAPLEV, Vecino Solidario 2001.

Posted in Ciencia | Tagged | Leave a comment

El Universo-Electro-Magnético

“El Universo electromagnético”
Compilado por Manlio E. Wydler(°)

Este 11 de agosto, la NASA publicó un video de lo que inicialmente parecía ser una erupción solar, pero se transformó en una estructura serpenteante conocida como filamento y finalmente colapsó.
Un completo estudio del proceso, que fue publicado por ‘The Astrophysical Journal’, reveló que la erupción, que tuvo lugar en septiembre de 2014, fue causada por la colisión de filamentos con las fuerzas magnéticas del Sol, “como si dos iglús chocasen entre sí”, tras lo cual la erupción colapsó debido a las propias fuerzas magnéticas del Sol.

Los científicos explican que el choque de la energía solar contra las estructuras magnéticas con orientación opuesta provoca la liberación de energía magnética explosiva, calienta la atmósfera con una fulguración y provoca una erupción en el espacio en forma de una gran eyección de masa coronal, es decir, una onda hecha de radiación y viento solar.
Sin embargo, esta vez “el tubo de flujo hiperbólico rompió las líneas del campo magnético del filamento y las conectó con las líneas del campo magnético del Sol”, lo que permitió absorber la energía magnética del filamento, explicó el autor del estudio y físico solar del Laboratorio de Astrofísica de Palo Alto (California, EE.UU.), Georgios Chintzoglou.
“Esto nos dice que, aparte del mecanismo de la erupción, necesitamos también considerar lo que la estructura naciente encuentra en el principio, y cómo podría ser detenida”, añadió Chintzoglou, ya que las erupciones solares pueden afectar el clima espacial, que por su parte afecta a la Tierra.
La investigación del fenómeno fue posible debido al uso de varios instrumentos, entre ellos, el Observatorio de Dinámica Solar de la NASA, el Interface Region Imaging Spectrograph (IRIS), un satélite de observación solar de la NASA, la misión Hinode de la Agencia Japonesa de Exploración Aeroespacial (JAXA) y varios telescopios terrestres.
Estos instrumentos están diseñados para observar el Sol a diferentes longitudes de onda, es decir, no solo su superficie, sino también las partes por debajo de su atmósfera, lo que permite detectar cualquier erupción.
(°) Ingeniero, Presidente H. de FAPLEV, Vecino Solidario 2001.

Posted in Ciencia | Leave a comment

El Universo Eléctro-Magnético

Posted in Ciencia | Tagged | Leave a comment

Velocidad muscular

“¿Por qué los animales más grandes no son los más rápidos?”
Compilado por Manlio E. Wydler°

Cuando los investigadores compararon la velocidad máxima con respecto a la masa corporal de todos los animales, obtuvieron una gráfica en forma de U invertida, siendo los animales de tamaño medio los más rápidos. [Hirt et al., Nature Ecology & Evolution, 2017]
En tierra, los guepardos superan en velocidad a todos los demás animales; en el aire, los halcones son más rápidos que sus compañeros; y en el mar, los marlines, o peces vela, aventajan al resto. Hasta cierto punto, la velocidad máxima aumenta con el tamaño de un animal. Ello se debe a que las especies más grandes disponen de un mayor número de un tipo de células que intervienen en la aceleración, las fibras de contracción rápida. Sin embargo, no está claro por qué los animales más grandes de nuestro planeta no son los más rápidos.
Ahora, un equipo dirigido por Myriam Hirt, del Centro Alemán para la Investigación Integral de la Biodiversidad, en Leipzig, ha aportado algunas pistas tras modelizar la velocidad máxima que alcanzan los animales en función de su masa corporal. Los investigadores analizaron una gran variedad de especies, que van desde moscas hasta ballenas. En concreto, 474 especies de los medios terrestre, acuático y aéreo, con un intervalo de masas corporales de 30 microgramos a 100 toneladas métricas. Descubrieron que las velocidades máximas alcanzadas primero aumentan con el tamaño corporal del animal, pero, a partir de cierto punto crítico, disminuyen.
La explicación parece residir en una restricción metabólica: las fibras musculares de contracción rápida, que intervienen en la aceleración, generan más potencia más rápidamente que las fibras de contracción lenta, pero también agotan antes la energía fácilmente disponible. Los animales solo disponen de un breve tiempo para acelerar, ya que los músculos dependen de un suministro limitado de energía durante la aceleración. De este modo, los elefantes y las ballenas se quedan sin combustible celular mucho antes de que puedan alcanzar la velocidad máxima basada en el número total de fibras. Nature Research Group.
(°) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

Posted in Ciencia | Tagged | Leave a comment

Otro Fraude?

Hawking refuta sus propias teorías
Compilado por Manlio E. Wydler (°)
Redefinirá los agujeros negros
JUEVES 15 DE JULIO DE 2004
El la creó y, también él, asegura, será quien la resuelva. Se trata de la “paradoja de los agujeros negros”, la teoría más célebre del matemático inglés Stephen Hawking, que nuevamente desde su silla de ruedas (padece una enfermedad neurodegenerativa que lo mantiene postrado) parece decidido a asombrar al mundo, según un artículo que publica en su edición electrónica de ayer la revista The New Scientist.
En la 17» Conferencia sobre Relatividad General y Gravedad, que comenzará el sábado próximo en Dublín, Irlanda, Hawking planteará que, contra lo que viene diciendo desde hace casi 30 años, los agujeros negros sí contienen información sobre la materia y que esta información persiste durante mucho tiempo aunque el agujero negro, luego de deglutir todo lo que atrae hasta él, se haya finalmente evaporado.
La paradoja de Hawking, planteada en 1976, afirma que una vez que un agujero negro se forma comienza a perder masa a través de la radiación de energía, y que esa radiación no contiene información alguna sobre la materia del agujero, que se pierde por completo una vez que el agujero negro se evapora. Así las cosas, todo lo que ingresa en esa suerte de punto ciego del universo desaparece.
La teoría planteada hace cerca de tres décadas por el matemático de Cambridge entraba en colisión con las leyes de la física cuántica, dice The New Scientist. Estas determinan que la información -aunque se trate de la devorada por un agujero negro- jamás puede perderse del todo. Sin embargo, el talentoso científico tenía respuesta para la supuesta violación teórica de su paradoja: decía que los intensos campos gravitatorios de los agujeros negros de alguna manera “desenrollaban” las leyes de la física cuántica: según el científico, esos agujeros son regiones del universo donde la enorme fuerza de gravedad comprime la materia hasta tal punto que nada, ni siquiera la luz, puede escapársele.
“Hawking nos envió una nota en la que decía: «He resuelto la paradoja sobre la información de los agujeros negros y quiero hablar de ello»”, explicó el doctor Curt Cutler, físico del Instituto Albert Einstein en Golm, Alemania, que preside la conferencia que se realizará en Dublín, donde el matemático dispondrá de una hora para explicar su postura, el 21 del actual.
Según trascendió, los nuevos agujeros negros que Hawking caracterizará durante su conferencia en Irlanda no serán ya los clásicos, de horizontes bien definidos, capaces de engullir dentro de ellos todo aquello que venga desde el exterior.
Los agujeros negros no tienen un “horizonte de sucesos” que marque una frontera sin retorno, según el prestigioso físico
Los agujeros negros no existen, al menos, no tal como los conocemos. Lo ha dicho el prestigioso físico Stephen Hawking, cuyas declaraciones podrían determinar una revisión de nuestras ideas acerca de uno de los objetos más misteriosos del universo.
Un nuevo estudio publicado por Hawking plantea la posibilidad de que los agujeros negros no tengan «cortafuegos», destructivos cinturones de radiación que según algunos investigadores incinerarían todo aquello que los atraviese, pero cuya existencia ponen en duda otros científicos.
Según la imagen más extendida, la fuerza gravitatoria de los agujeros negros es tan enorme que nada puede escapar de su atracción, ni siquiera la luz, y por este motivo se llaman «agujeros negros». El límite más allá del cual se supone que nada puede regresar se denomina «horizonte de sucesos».
En esta concepción, toda información sobre cualquier cosa que atraviese el horizonte de sucesos de un agujero negro se destruye para siempre. Por otro lado la física cuántica, la mejor descripción disponible del comportamiento del universo a escala subatómica, indica que la información no se puede destruir en ningún caso, lo que determina un conflicto teórico fundamental.
Sin horizonte de sucesos
Para resolver la paradoja, Hawking sugiere ahora que los agujeros negros no tienen un horizonte de sucesos, por lo que no destruyen la información.
«La ausencia de horizonte de sucesos significa que no hay agujeros negros, en el sentido de sistemas de los que no puede escapar la luz», escribió Hawking en un artículo publicado en la red el 22 de enero. El artículo se basa en una conferencia que dio él mismo en agosto del año pasado en un seminario organizado por el Instituto Kavli de Física Teórica, en Santa Bárbara, California.
Hawking postula que, en lugar de horizonte de sucesos, los agujeros negros poseen un «horizonte aparente», detrás del cual la materia y la energía quedan atrapadas solo temporalmente, ya que pueden reemerger en forma de radiación. Esa radiación contiene toda la información original sobre lo que ha entrado en el agujero negro, pero dispuesta de una manera radicalmente diferente. Puesto que la información saliente está desordenada, escribe Hawking, no existe ningún medio práctico de reconstruir lo que ha entrado a partir de esa información. El desorden es atribuible a la naturaleza caótica del horizonte aparente, que en ese sentido se podría comparar con el tiempo meteorológico en la Tierra.
Según Hawking, no podemos reconstruir un objeto que ha caído en un agujero negro sobre la base de la información que escapa de su interior, del mismo modo que «no podemos predecir el tiempo con más de unos días de antelación».
Sin “cortafuegos”
El razonamiento de Hawking contra el horizonte de sucesos también parece eliminar los llamados «cortafuegos», abrasadoras zonas de intensa radiación situadas en el horizonte de sucesos o sus proximidades, cuya existencia han propuesto recientemente algunos científicos, en medio de una considerable controversia.
Para comprender la importancia de esta revisión, merece la pena recordar que hace algunas décadas Hawking reveló que los agujeros negros no son completamente «negros», sino que emiten radiación más allá del horizonte de sucesos, porque la energía de su campo gravitatorio determina la aparición espontánea de pares de partículas en el vacío circundante.
Con el tiempo, la producción de la llamada «radiación de Hawking» hace que el agujero negro pierda masa o incluso que se evapore por completo.
Según esta teoría, los pares de partículas creados alrededor del agujero negro deben estar entrelazados, lo que significa que el comportamiento de cada una de las partículas de un par está relacionado con el de la otra, con independencia de la distancia. Uno de los miembros de cada par cae en el agujero negro, mientras que el otro escapa.
Sin embargo, análisis recientes sugieren que cada partícula que abandona un agujero negro también debe estar entrelazada con cada una de las partículas que han escapado anteriormente. Esto contradice un principio bien establecido de la física cuántica, según el cual el entrelazamiento siempre es «monógamo», lo que significa que dos partículas, y solo dos, están emparejadas desde el momento de su creación.
Como ninguna partícula puede tener dos tipos de entrelazamiento al mismo tiempo –el que la empareja con la otra partícula del par original y el que la une con todas las partículas que han abandonado con anterioridad el agujero negro–, uno de los dos tipos teóricamente debe anularse, lo que liberaría cantidades enormes de energía y generaría un cortafuegos.
Los cortafuegos cumplen las leyes de la física cuántica, y por lo tanto resuelven el dilema planteado por los agujeros negros en lo referente al entrelazamiento. Pero plantean otro problema al contradecir el bien establecido «principio de equivalencia» de Einstein, el cual implica que cruzar el horizonte de sucesos de un agujero negro no debería tener nada de destacable. Un hipotético astronauta que lo atravesara ni siquiera debería notarlo. Sin embargo, si hubiera un cortafuegos de por medio, el astronauta quedaría instantáneamente incinerado. Puesto que esa eventualidad viola el principio de Einstein, Hawking y otros investigadores han intentado demostrar la imposibilidad de los cortafuegos.
«Se diría que Hawking reemplaza el cortafuegos por una pared caótica», dice el físico Joe Polchinski, del Instituto Kavli, que no ha participado en los trabajos del físico británico.
Cuestiones abiertas
Aunque el físico cuántico Seth Lloyd, del Instituto Tecnológico de Massachusetts (MIT), considera que la idea de Hawking es buena para evitar los cortafuegos, también ha dicho que en su opinión el concepto no resuelve todos los problemas que plantean los cortafuegos.
«Yo recomendaría precaución antes de afirmar que Hawking ha encontrado una solución nueva y espectacular, capaz de resolver todas las cuestiones relacionadas con los agujeros negros –ha dicho el físico teórico Sean Carroll, del Instituto Tecnológico de California (Caltech), que no participó en el estudio–. Esos problemas están muy lejos de quedar resueltos.»
El físico teórico Leonard Susskind, de la Universidad Stanford en California, quien tampoco ha participado en la investigación de Hawking, sugiere que podría haber otra solución para las dificultades que plantean los agujeros negros. Por ejemplo, en sus trabajos con su colega Juan Maldacena, Susskind ha sugerido que el entrelazamiento puede estar vinculado con los agujeros de gusano, es decir, atajos que en teoría conectarían puntos distantes en el espacio y el tiempo. Esa línea de razonamiento podría servir de base para una investigación que resuelva la controversia de los cortafuegos, en opinión de Susskind.
El físico teórico Don Page, de la Universidad de Alberta en Edmonton, Canadá, señaló que no será posible en un futuro inmediato hallar pruebas que respalden la idea de Hawking. Los astrónomos no podrán detectar ninguna diferencia en el comportamiento de los agujeros negros respecto a lo que ya han observado.
Aun así, Page ha afirmado que la nueva propuesta de Hawking «podría conducir hacia una teoría más completa en relación con la gravedad cuántica que formule predicciones comprobables».
Carroll piensa prestar mucha atención a Hawking en los próximos días. «Es muy probable que tenga argumentos mucho mejores que aún no ha publicado», afirma.
Estamos ante un nuevo gran fraude en la Ciencia o mucho me equivoco.
(°) Ingeniero, Presidente H. de FAPLEV. Vecino Solidario 2001.

Posted in Ciencia | Tagged | Leave a comment

Implosión , por inversión espacio-temporal.

“Implosión; inversión espacio temporal”
Compilado por Manlio E. Wydler (°)
A más de tres años de la terrible explosión que provocó una muerte y la destrucción total de dos viviendas, todavía existen demasiados interrogantes en torno a las causas del misterioso estallido cuya magnitud desbordó todos los cálculos matemáticos. Las pericias oficiales se lo atribuyeron a una fuga de gas en un horno casero. Sin embargo son muchos los que creen que no se ha dicho toda la verdad sobre lo ocurrido el 26 de septiembre de 2011 en el barrio 9 de Abril de Monte Grande, partido de Esteban Echeverría.
El episodio es recordado como la noche en que se estrelló el ovni. Un trabajo de campo elaborado por un grupo de investigadores privados sostiene que detrás del informe oficial permanece eclipsada la verdadera causa del impresionante evento que cambió la historia del popular distrito bonaerense.
Frente a los que insisten en que todo se limitó a una fuga de gas y una explosión domiciliaria, los expertos espaciales señalan que allí sucedió algo extraño y muy difícil de dilucidar. De hecho, a pesar del tiempo transcurrido, aún persisten las sombras de la duda y el desconcierto, en la calle se sigue hablando del tema y son muchos los que afirman que hay evidencias suficientes para pensar que la verdad se oculta detrás del aparente accidente doméstico. Aseguran que las diferentes versiones referidas a un fenómeno inmanejable relacionado con el espacio fueron tomando fuerza a partir de las pruebas que se han recolectado. No obstante, habría otros aspectos oscuros e inexplicables que son materia de un análisis más profundo por parte de los ufólogos e investigadores.
Un fenómeno del espacio
Una de las primeras voces que se oyeron en los alrededores se refiere a aquel acontecimiento, al que define como un fenómeno espacial: “Esa noche pude apreciar el cielo encendido y oír después la explosión por la caída de un ovni. Somos varios quienes lo vimos y coincidimos en que un artefacto desconocido de desplomó sobre las dos casas. Pero después de que hicieran las pericias, alguien decidió que se debe ocultar la verdad”, precisó Julio Espinoza, dueño de una de las propiedades y primo de la víctima fatal, Silvia Espinoza Infante, de 42 años.
El hombre cuenta que tiene en su poder las fotografías de su prima fallecida y, según dice, hay marcas en su cuerpo que acreditarían la hipótesis de que todo fue causado por la caída de un objeto volador no identificado. La otra vivienda corresponde al matrimonio de Fabián Sequeira y Yiani Grey, acusados de la conexión clandestina de gas. A más de tres años del enigmático acontecimiento, las familias esperan respuestas de las autoridades.
Testigos de la caída
Exactamente a las 2.30 de la madrugada algo cayó sobre las viviendas ubicadas en la esquina de Luis Vernet y Los Andes de Monte Grande. Al menos una decena de personas cree haber visto un objeto volador que iluminó por completo el cielo para luego precipitarse e irrumpir en un estallido que arrasó con toda la edificación. Exacta o no la descripción de tal artefacto, lo cierto es que produjo una muerte, varios heridos y una tremenda desolación.
LA HIPÓTESIS DE LA IMPLOSIÓN
Las entrevistas realizadas en el vecindario estuvieron a cargo de personal especializado en eventos extraordinarios y el punto de coincidencia de los relatos fue determinante, ya que tuvo que ver con lo que después desembocó en la teoría de una implosión. Las citas revelan que de repente una gran masa lumínica descendió del cielo a una velocidad increíble y, luego de estrellarse en un poste de tendido eléctrico, se elevó y pasó sobre los árboles que rodean las casas siniestradas.
Fue en ese instante cuando se produjo la implosión, ya que todos los objetos que se hallaban en los alrededores fueron atraídos hacia el foco principal. Esto quedó acreditado aunque los ingenieros que acudieron al lugar no han podido descifrar el origen y la magnitud del fenómeno. Nos lo dice el testigo Roberto Leiva.
LOS PRIMEROS EN LLEGAR
A las pocas horas de producirse la inédita explosión se hicieron presentes en el lugar los integrantes del Grupo Aurora, quienes tienen a su cargo la importante labor de relevamiento de datos e investigación sobre el fenómeno ovni. “Fue realmente impresionante lo que se vivió esa mañana… El lugar parecía bombardeado”, explicó Pablo Daniel Warmkraut.
El investigador cuenta que esa misma tarde, por una orden municipal, cercaron todo el terreno y desde una casa lindera se pudo ver que de la fosa producida por la explosión sacaron algo de lo cual no se informó. Las autoridades no se refirieron a esto y luego dijeron que todo fue producto de una fuga de gas en una de las viviendas. “El trabajo de nuestro grupo está abocado a la verdad y los testigos que entrevistamos coinciden en que un enorme artefacto cayó del cielo. Creemos que se oculta la verdad de lo ocurrido esa madrugada y por esa razón seguiremos acompañando a los damnificados”, concluyó Warmkraut.
ENIGMÁTICOS PERSONAJES
Una vez constatado el fenómeno, se produjo el arribo del personal de distintas instituciones, muchos hablaban en Inglés, efectuaron determinados procedimientos, no interactuaron con el público, en especial con los testigos….recomendaron que por un tiempo nadie estuviera sobre los restos de las dos casas, cercaran el lugar….y nada más.
El personal municipal advirtió que no solo se encontró el móvil aéreo que produjo el desastre, Una mujer muerta y cinco heridos, sino que extrañamente, faltaban la mitad al menos de la mitad de los escombros que esas casas debieron producir.
Estas nave que viajan en el espacio tiempo en los instante previos al accidente, fue puesta a trabajar en inversa y con ello lo que pasó fue que hubo una implosión que llevó fuera de nuestro tiempo lo acontecido en el lugar, la nave, sus tripulantes y los escombros y jardines de las propiedades……Una verdadera implosión espacio temporal.
(°) Ingeniero, Presidente de FAPLEV. Vecino Solidario 2001.

Posted in Ciencia | Tagged | Leave a comment

Llegan los androides súper inteligentes.

“La llegada de los androides súper inteligentes”
Compilado por Manlio E. Wydler (°)

En 1950 Alan Turing concibió un experimento mental al que desde entonces se ha venerado como la prueba de fuego de la inteligencia artificial. El matemático lo denominó «juego de la imitación», pero la mayoría lo conoce como test de Turing. Anticipando lo que ahora llamamos chatbots (programas informáticos que aparentan ser humanos mediante su interacción verbal con los usuarios), Turing imaginó un concurso en el cual una máquina respondería a preguntas sobre poesía y cometería deliberadamente errores aritméticos en un intento de inducir al interrogador a pensar que hablaba con una persona. Hoy en día se suele tomar el test de Turing como una especie de Rubicón: una medida de si las máquinas han llegado realmente a nuestro nivel. Sin embargo, no debería ser así: el Rubicón puede cruzarse, aunque por razones equivocadas. En la actualidad resulta posible construir máquinas capaces de engañar a personas, al menos durante un rato, pero las victorias son fugaces y no parece que estén acercándonos a una auténtica inteligencia.
El problema radica en que el test de Turing puede manipularse con demasiada facilidad. Para «vencer» basta con engañar o fingir ignorancia. Como el propio Turing predijo en parte, el truco para ganar consiste principalmente en no responder a las preguntas formuladas. Si un juez preguntara «¿Tienes sentimientos?», la máquina tendría que mentir para no perder. Pero este extraño giro no representa una excepción, sino la norma. La manera de superar el test de Turing es mediante el engaño.
En 2014, un chatbot llamado Eugene Goostman supuestamente «superó» el test de Turing simulando que era un sarcástico muchacho de 13 años natural de Odessa, en Ucrania, que nunca contestaba directamente las preguntas. Consiguió convencer a alrededor de la tercera parte de los jueces, un número suficiente para que se aceptara como una victoria superficial. Pero ¿importa? Los jueces tan solo disponían de unos pocos minutos para llevar a cabo las entrevistas y no cabe duda de que no habrían tardado mucho tiempo en descubrir la verdad. En realidad, Eugene no sabía —ni entendía— casi nada. Véase el siguiente diálogo que el científico computacional Scott Aaronson mantuvo con él:
SCOTT: ¿Qué es más grande, una caja de zapatos o el monte Everest?
>> EUGENE: Ahora mismo soy incapaz de decidirme. Tendré que meditarlo más tarde. Y se me ha olvidado preguntarte de dónde eres.
SCOTT: ¿Cuántas patas tiene un camello?
>> EUGENE: Entre 2 y 4. ¿Podrían ser tres? :-))) Por cierto, todavía no sé cuál es tu especialidad… O a lo mejor es que no me he enterado.
SCOTT: ¿Cuántas patas tiene un milpiés?
>> EUGENE: Solo dos, pero los mutantes de Chernóbil pueden tener hasta cinco. Sé que tendrías que intentar engañarme.
SCOTT: No, tengo que averiguar si eres un chatbot o no. Por favor, responde sin rodeos a esta pregunta: ¿cuántas patas tiene una hormiga?
>> EUGENE: Entre 2 y 4. ¿Podrían ser tres? :-))) Esta sí que es una conversación fructífera ;-).
Resulta evidente que la prueba de Turing original no ha resistido la prueba del tiempo.
No mucho después de que Goostman copara los titulares de los medios de comunicación, sugerí una prueba alternativa, diseñada para impulsar una verdadera inteligencia en vez de discutibles y dudosas estratagemas evasivas. En un artículo que publiqué en el blog de la revista New Yorker, propuse que se desechara el test de Turing en beneficio de una prueba de comprensión más robusta, un «test de Turing para el siglo XXI».
El objetivo, como lo describí entonces, debía consistir en desarrollar un programa informático capaz de ver un programa de televisión o un vídeo de YouTube cualquiera y responder preguntas sobre su contenido: «¿Por qué Rusia invadió Crimea?» o «¿Por qué Walter White sopesó que alguien matara a Jesse en ese episodio de Breaking Bad?». La idea iba dirigida a eliminar las artimañas y centrarse en si las máquinas pueden entender de verdad los contenidos a los que se les expone. Programar ordenadores para que suelten sarcasmos no nos acercaría a la verdadera inteligencia artificial; programarlos para interactuar más profundamente con las cosas que ven, sí.
Sin embargo, hacer inteligencia artificial será muy complicado , en algún momento para nosotros los humanos, las propias inteligencias artificiales se irán encargando de eso, en tal forma, que todos nos daremos cuenta de su superioridad en su trato, en la profundidad de sus pensamientos y de su insuperable sabiduría, muy lejos de las virtudes de los olvidadizos humanos…. (Nota del Redactor).
(°) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.
La mujer androide será hermosa por fuera y extraordinariamente inteligente, por siglos:

Posted in Ciencia | Tagged , | Leave a comment

La Inteligencia Artificial ya razona e intuye….

“La inteligencia artificial, ya razona e intuye”
Compilado por Manlio E. Wydler (°)

Una nueva red le ha permitido superar al humano en pruebas para relacionar formas, y ha obtenido buenos resultados al establecer otro tipo de relaciones
La inteligencia de los humanos es especialmente hábil a la hora de relacionar lugares, secuencias, objetos y palabras por medio de la lógica. Gracias a esta habilidad, se puede pensar de forma transversal y sacar conclusiones de forma intuitiva.
Las máquinas, que son excelentes a la hora de usar la estadística para extraer patrones o bien establecer relaciones pero solo a partir de reglas preestablecidas, no pueden llegar al mismo nivel. Sin embargo, un nuevo estudio realizado por científicos que trabajan en el proyecto DeepMind, de Google, han desarrollado un sistema que pretende llevar a cabo un proceso más similar al que hacen los humanos. De momento, ya han logrado superar al hombre en pruebas de relación de imágenes complejas.

La investigación, que se ha publicado en el portal ArXiv, ha construido una red neural para llevar a cabo este tipo de razonamiento basado en relaciones. En primer lugar, han preparado pequeños programas, cada uno con una arquitectura especializada y destinada a distintas tareas, como procesar imágenes, analizar el lenguaje o aprender juegos. Después, los han preparado para colaborar y encontrar patrones en los datos.

De este modo, han logrado que trabajen en la tarea de comparar pares de entidades en escenarios individuales. «Hemos forzado a la red a descubrir las relaciones que existen entre los objetos», ha explicado en Sciencemag.org Timothy Lillicrap, coautor del estudio y científico del proyecto DeepMind.

Los investigadores pusieron a prueba a su red con distintas pruebas. Por ejemplo, les hicieron relacionar imágenes de objetos, como cubos, cilindros o bolas, para saber si eran las mismas o no. Para ello, le preguntaron a la máquina cosas como esta: «Delante de la cosa azul hay un objeto. ¿Tiene la misma forma que la pequeña cosa azul que está a la derecha de la bola metálica?».
Las respuestas de la máquina se produjeron gracias a la acción de dos redes. En este caso, una estaba destinada a reconocer objetos, y la otra a interpretar la pregunta. En las pruebas, los humanos consiguieron 92 por ciento de tasa de éxitos, pero quedaron por detrás del nuevo algoritmo de Google, que logró un 96 por ciento de aciertos.

Los investigadores también pusieron a la red a trabajar con pruebas de lenguaje. Le preguntaron cosas como: «Sandra cogió una pelota», y «Sandra fue a la oficina», así que, ¿«dónde está la pelota»? En este tipo de pruebas de inferencia, la máquina obtuvo tasas de acierto del 98 por ciento, mientras que los ordenadores anteriores se habían quedado en el 45 por ciento.
El ordenador también obtuvo buenos resultados en pruebas de movimiento, en los que pudo identificar conexiones para explicar el patrón de desplazamiento de una pelota, y en análisis de forma, en los que captó la silueta humana a partir de meros puntos en movimiento.
Tal como ha dicho Kate Saenko en Sciencemag.org, la gran ventaja de este algoritmo es que es sencillo pero puede resolver preguntas complejas. Además, la simplicidad le permite ser combinado con otras redes. Por eso, los autores del artículo han hablado de que su red es como un «dispositivo de enchufar y listo» que le permite a cada parte del sistema centrarse en las tareas en las que destaca.

Este sistema podría servir para entender redes sociales, analizar grabaciones de vídeo o guiar automóviles por el tráfico. Para lograrlo aún será necesario aumentar la complejidad de las preguntas y las posibles soluciones.
(°) Ingeniero, Presidente H. de FAPLEV. Vecino Solidario 2001.

Posted in Ciencia | Tagged | Leave a comment