La atmósfera como telescopio.

“La Luna y el Horizonte”

Compilado por Manlio E. Wydler (|)

Cuando miramos la Luna, el Sol o incluso grupos de estrellas sobre el horizonte, la visual de estos cuerpos atraviesa  un gran volumen de aire y no vacío; la refracción se encarga de que se vean más grandes, como lo hace una lupa, un telescopio-Hasta dos veces más grande-.

Cuando miramos sobre nuestras cabezas, al Azimut, atraviesa poco aire y se ve casi como si estuviéramos en el vacío.

La observación horizontal aumenta el espesor longitudinal de la atmósfera, convirtiéndola en una lupa. Este efecto magnifica el tamaño real de la Luna y se ve más grande.

Para probar la teoría: Observada desde la luna sin atmósfera, la Tierra mantiene su tamaño, en el horizonte y en el cenit lunar. 

Lo que sucede en el caso de la Luna también ocurre con el Sol en el horizonte, tiene que ver el ángulo de incidencia de la luz con respecto a la tierra y la densidad de la atmosfera. 

Todo lo demás es un gran error, no es una ilusión es la ignorancia humana.

 Una muy aceptada es la llamada  ilusión de Ponzo -ya que quien la mostró en 1913 se llamaba Mario Ponzo- sugiere que la mente juzga el tamaño de un objeto con base en su fondo.

Para comprobar su teoría, Ponzo dibujó dos barras idénticas sobre una imagen de rieles de ferrocarril que se unen en la distancia (ver dibujo).

La barra superior parece más ancha porque aparenta ser más grande que los rieles, a diferencia de la barra inferior que queda entre los rieles.

De la misma manera, cuando la luna está en la parte baja del cielo, los árboles y los edificios parecen mucho más pequeños de lo que realmente son comparados con la luna, que parece más grande de los que realmente es.

Los escépticos de esta teoría dicen que los pilotos de aviones, que no tienen ningún punto de referencia, también ven la ilusión óptica de la luna. Es un gran error. Aún algunos muestran la visión desde la Estación Espacial, donde la capa atmosférica es ínfima desde las visiones de los dos lados, por lo que es un mal ejemplo para mostrar ilusiones.

La segunda teoría se basa en que el cerebro humano percibe el cielo como un domo aplanado en lugar del hemisferio que es.

Lo que pasa por arriba tiene menos diámetro que lo está en el Horizonte, con solo ver el diagrama se ve el error de concepto.

(|) Ingeniero, Presidente H. de FAPLEV, Vecino Solidario 2001.

Gráfico explicativo

Recuperado del Blog amigo: Asusta2:

PUBLICADO EN   POR ADMIN

Temperaturas Extremas : “Glaciaciones y períodos cálidos”

Recientemente un grupo de científicos ingleses llegaron a la conclusión de que en pocos años tendremos una pre-glaciación. El Ingeniero Manlio E. Wydler* nos sorprende con un artículo muy interesante sobre los períodos de fríos y calores extremos a los que se ha visto sometido el mundo y su pronóstico para el futuro.

Glaciaciones y períodos cálidos

Todo lo que se ha pensado en el tema, las teorías que se han sucedido acompañando las investigaciones que desde diferentes ópticas han venido realizándose en estos últimos cien años, muchas veces solo han servido para mostrar un tema cada vez más complicado.

Se puso de moda desde hace menos de una década el tema del calentamiento global, que hablaba de un aumento de casi 2 ° C. desde el inicio de la revolución industrial, y en forma algo arbitraria, se esperaba un calentamiento algo mayor, para el final del actual siglo.

Como muchos me alarmé y con la representación de mi Fundación, estuve en el COP N ° 10 que se realizó en Buenos Aires. Lo que más me interesó fueron las mitigaciones para que se prosiguiera con la expansión industrial, único medio de crear prosperidad mundial.

Los grandes problemas sociales se deben encarar con mayor producción de riquezas y morigerar el crecimiento poblacional.

Comencé por estudiar las antiguas variaciones térmicas mundiales, que como muchos pensadores ( p. ej: Milankovic), acepté que se deberían a causas más que humanas, ya que en la ocurrencia de la sucesión de períodos cálidos y glaciaciones, los humanos éramos un puñado y en ocurrencia de los primeros casi homínidos así que poca relevancia pudimos tener en estos fenómenos.

Los fenómenos debían estribar en la emisión solar y en los movimientos terrestres, de ubicación dentro de su órbita variable, del eje variable de rotación, etc.

Así vemos que la órbita terrestre es menos circular, principalmente según Júpiter donde se encuentre y algo menos, los otros grandes planetas, etc.

Es así que depende de una sumatoria de factores que tienen una periodicidad diferente, pero en conjunción pueden aportar diferencias importantes de insolación. Cuando la mayoría de estos movimientos coinciden, la expresión será máxima.

Si sumamos la máxima oscilación en el plano de la eclíptica, la máxima excentricidad de la órbita, la menor inclinación axial del eje rotario y la máxima precesión estacional, deberían dar las condiciones para la glaciación, más el pequeño agregado de una gran cantidad de elementos de retroalimentación ( positivas y negativas), como ser la mayor reflexión de la superficie de los hielos, huracanes y tormentas, precipitaciones nivológicas, composición de los gases atmosféricos ;por ej. a mayor superficie helada, menor vegetación que capte el CO2 de emanaciones de la Tierra , aumentando el gas invernadero, que efectúa así un proceso inverso al que le da origen, etc.

Hasta aquí teníamos en claro que alguna de las glaciaciones estaban dentro de los ciclos, pero al tener el listado de la ocurrencia de estos períodos, nos encontramos que la periodicidad astronómica de estos factores (en + o – 30 ° C.), no siempre produjeron glaciaciones por si solos.

No cabe duda que las glaciaciones existieron, ya que estudios rusos y alemanes ( Strassburger), de hace varios años , han mostrado correlaciones positivas con superficies heladas, con vegetación tipo tundra , bosquecillos con hayas predominantes, luego castaños y luego el llamado robledal mixto y luego , desde la calidez a la glaciación la prelación inversa.

Comparando la última glaciación y el período cálido, se hicieron varios sub -períodos, por lo que indujimos que estaríamos en el final del período post –cálido, en 180 años ya en el pre -tundra y en 800 años en la siguiente glaciación.

Las glaciaciones sucedieron desde hace (Donau) 2000000 de años, el período cálido hace1300000 años, la siguiente glaciación (Günz) 1100000 de años, el siguiente período cálido (750000) de años, la otra glaciación (Mindell) 590000 de años, el siguiente período cálido 390000 de años, la anteúltima glaciación (Riss) 200000 de años , el siguiente período cálido hace 140000 años , la última glaciación 100000 y el período cálido hace 16000 años.

Como vemos, los períodos cálidos se van reduciendo mucho más que las glaciaciones, que si bien también son más cortas, su sumatoria va ocupando casi todo el tiempo de este “Cuaternario”. La influencia mayor para que esto suceda es la Expansión Universal, es como que el Sol se alejara.

La expansión del Universo nos va sacando de la zona de habitabilidad del Sistema Solar-como antes lo hizo con Marte- y la tendencia será al frío, hasta que el Sol comience a agrandarse para hacerse una Gigante Roja.

Sacamos estas conclusiones: la tendencia de las temperaturas del mundo terráqueo, van en disminución desde por lo menos los últimos 2500000 años, con períodos fríos más importantes que los calurosos.

El calentamiento antropogénico será cada vez menos importante a medida que avancemos a la nueva glaciación, camino que ya se ha iniciado.

Que la influencia planetaria es importante, pero para suavizar o acrecentar los períodos de glaciación y cálidos. Pero solo alcanzan para hacer pequeñas “glaciaciones”.

La segunda  influencia mayor es la calidad de emisión solar y seguramente, al estudiarse profundamente sus ciclos se comprobará, lo que debería ser evidente, el Sol tiene variaciones de emisión notables en el tiempo, y pese a que tiene tantos años de vida por delante como los vividos, su vigor, aparentemente esta por flaquear y como todo en el Universo, es más que probable, que lo haga en forma lo suficientemente notable, como para que nos demos cuenta de ello. (No olvidar que los ciclos de transmutaciones avanzan sin prisa, pero sin pausa), la metalización del Sol es un hecho y sus “acomodaciones” a sus nuevos estados, tiene por fuerza que notarse.

*Ing. Manlio E. Wydler, Secretario de FAPLEV, Consejero del Plan Estratégico, Ex Asesor Honorario en la Legislatura, miembro del Foro Participativo Permanente del PUA, “Vecino Solidario 2001”, por el barrio de Liniers, Siempre trabajando para la Comuna Nueve, la Ciudad y el País.

34 opiniones en “Temperaturas Extremas : “Glaciaciones y períodos cálidos””

De Biológicos a Robots.

“Las presencias Marcianas, dan realidad  al pensamiento que muchas civilizaciones se convierten en seres no biológicos con el paso de los años”

Compilado por Manlio E. Wydler (|)

Si los lectores repasan los artículos en mi Blog, donde reproduzco las fotos tomadas por los rovers que circulan sobre Marte, recordarán que nos muestran unos seres de algo más de un metro de estatura, vestidos con ropas antiguas y facciones humanas, a los que parece no afectar la radiación mortal y la falta de una atmósfera saludable para nosotros.

Cuando el planeta que nos creó pierde la habitabilidad por la continua expansíón, la solución parece que siempre es la misma, pasar de ser seres biológicos a convertirnos en seres androides, casi inmortales, más durables y confiables.

Muchos ocupantes de las naves que nos visitan son humanoides mejorados, pero es también dable que algunos estén muy modificables o ya sean de diferente naturaleza en su constitución.

Los que pensaron que esto sucedería, realmente han acertado:(Nota del Redactor)

Los seres humanos poseemos un cerebro basado en carbono, que funciona gracias a una serie de procesos químicos que pueden resultar, a la mayoría de sus poseedores, casi mágicos. Sin embargo, y a pesar de ser el fruto de millones de años de evolución, nuestros cerebros son absolutamente ineficientes. En efecto, un cerebro orgánico no permite “fallos” en su alimentación, no está diseñado para que sea sencillo obtener copias de su contenido, es muy poco resistente a casi todas las amenazas de medio ambiente, el rango de temperaturas en el que puede operar es absurdamente pequeño, y la lista sigue. Sin embargo, los “cerebros electrónicos” (nuestros ordenadores) en poco más de medio siglo de existencia, han mejorado sus habilidades de una forma fantástica.

Pensemos que mientras un superordenador actual puede ejecutar más de un cuatrillón de cálculos por segundo, según la investigación de Hans Moravec, un experto en inteligencia artificial de la Universidad Carnegie Mellon, el cerebro humano es capaz de calcular “solo” unos 100 billones en el mismo lapso. No son pocos los científicos que especulan que la denominada “singularidad tecnológica” tendrá lugar dentro de unas pocas décadas. Este evento marcará el punto en que una máquina sea más inteligente que un humano. Por supuesto, pueden equivocarse y que en lugar de 30 o 40 años trascurran dos o tres siglos. Pero tal acontecimiento es un hecho y, de todos modos, un puñado de siglos no representa un lapso de tiempo significativo cuando pensamos a escala cósmica.

Nuestra tecnología avanza de forma sostenida.

Para Steven Dick, la singularidad tecnológica ya ha tenido lugar en otras civilizaciones, desperdigadas por las galaxias, hace miles o millones de años. El científico cree, y resulta bastante convincente cuando uno lee sus explicaciones, que el universo, tarde o temprano, estará habitado en su mayor parte por inteligencias no biológicas. Las ideas de Steven son válidas, y caen dentro de los límites de la lógica, la ciencia e, incluso, la ingeniería actual en muchos casos. Además, las hipótesis de Dick son defendidas por algunos de los científicos más competentes de la actualidad.

Algunos de los escenarios posibles incluyen una galaxia poblada por un importante número de civilizaciones que se desarrollaron de forma independiente; o también la existencia de solo un puñado, muy antiguas, que paulatinamente se extendieron a lo largo y ancho de la galaxia. A una raza de máquinas no les resultaría difícil comunicarse entre sí a través de las vastas extensiones del espacio, mediante estaciones de relevo inteligentes o sondas interestelares. Cuando uno lo piensa un poco, parece bastante probable y posible que vivamos en una galaxia post-biológica.

¿Podremos “mudarnos” a un “envase” más  fiable?

Un universo de máquinas

La hipótesis de Dick debería hacernos replantear algunas cuestiones aquí en la tierra. En primer lugar, tenemos una tendencia a imaginar que una rivalidad entre seres biológicos y mecánicos es algo natural. Esto no tiene por que ser necesariamente así. Quizás se deba a que concebimos muchas de nuestras más poderosas maquinas para la guerra, y creemos que cualquier inteligencia artificial que tenga como origen algún experimento militar deberá ser, inevitablemente, malvada. Pero no todas las razas biológicas del universo tienen que necesariamente ser tan autodestructivas como la humanidad.

Es más, muy posiblemente hayan tenido su origen como una forma de reemplazo de una civilización biológica antigua, que ha “mudado” sus mentes a un “envase” más fiable y duradero. Dick cree que, dadas las limitaciones de la biología tal como la conocemos, la fuerza de la evolución cultural, y el imperativo de mejorar el intercambio de conocimientos entre inteligencias, las posibilidades de que existan civilizaciones robóticas son mayores al  50%. Las razones esgrimidas por Dick son muy válidas. Como puede leerse en un reciente artículo publicado en la revista Acta Astronaútica, titulado The Post Biological Universe (El universo postbiológico), destaca que en la mismísima Tierra podemos ver como la vida inteligente basada en carbono desarrolla herramientas cada vez más sofisticadas.

 

La ciencia ficción, siempre un paso adelante.

En total acuerdo con otros científicos, Dick dice que las civilizaciones extraterrestres muy posiblemente sean mucho más antiguas que la nuestra. La primera estrella rica en metales con planetas terrestres data de hace 12.500 millones de años. Si asumimos que la vida inteligente necesitó 5.000 millones de años para evolucionar (como ocurrió en la Tierra), los extraterrestres podrían estar ahí fuera desde hace 7.500 millones de años. Tiempo más que suficiente para evolucionar hasta la vida inteligente y convertirse más tarde en una inteligencia artificial.

 

Una raza de máquinas con una perspectiva de la realidad, conocimiento del universo, sabiduría, cultura, tecnología e inteligencia adelantada millones de años respecto de la nuestra, con una expectativa de vida medida en millones de años en lugar de en décadas, muy posiblemente no considere a la vida basada en carbono como un enemigo. Dick supone que el abismo existente entre sus mentes y las nuestras podría ser tan grande, que la comunicación entre ambas civilizaciones podría hasta resultar imposible. También ve como bastante probable que estos robots consideren nuestra vida y obra demasiadas primitivas como para justificar su atención .Steven Dick, disertando en SETICon02

Las hipótesis de Steven Dick deberían ser tenidas en cuenta, por ejemplo, a la hora de buscar vida extraterrestre. Si la posibilidad de que existan civilizaciones de máquinas es tan alta, proyectos como SETI pueden estar buscando vida en los lugares equivocados. Una raza robótica, de millones de años de antigüedad, muy posiblemente no necesite de un planeta para vivir. De hecho, el espacio vacío entre las estrellas (e incluso, entre las galaxias) les proporcionaría más libertad y espacio (valga la redundancia) para crecer libremente.

Viajando entre las estrellas, contrayendo el tiempo y el espacio, tampoco usarán ondas, debido a que se mueven  en forma casi instantánea. Nuestras comunicaciones les son inútiles.

(|) Ingeniero, Presidente H. de FAPLEV, Vecino Solidario 2001.

Resultado de imagen para Fotos de seres en Marte

 

Resultado de imagen para Fotos de seres en Marte

Control total…

 

“Así, ya somos controlados”

Compilado por Manlio E. Wydler (|)

 

 Más o menos todos somos conscientes de que existen grupos de personas muy poderosas, conformadas por grandes financieros, líderes políticos bajo sus órdenes e incluso algunos académicos, que controlan (al menos parcialmente) el devenir de los acontecimientos en todo el mundo.

 

Sin embargo, aún hay mucha gente que tiende (tendemos) a pensar que las decisiones que toman provienen de sus propias deliberaciones y cálculos y que en todas ellas el factor humano es el predominante.

Y eso se debe a que tenemos una visión “anticuada” o “analógica” de la toma de decisiones. En el fondo, nos reconforta pensar que hay personas, (aunque sean extremadamente malvadas), tomando las decisiones.

Pero el desarrollo de la Inteligencia Artificial y de la computación cuántica, están creando un mundo muy diferente y tenemos que empezar a cambiar nuestra forma de pensar, aunque ello implique enfrentarse con conceptos aterradores.

Un artículo publicado por Joe Joseph en The Daily Sheeple y del que se hace eco la web SHTFplan, nos demuestra que estos grupos de poder disponen de tecnologías que les capacitan para conocer cómo se desarrollaran los acontecimientos o decisiones que tomen antes de que estas ocurran.

Puede sonar descabellado o como algo salido de una película de ciencia ficción, pero con el advenimiento de la computación cuántica y los avances en la inteligencia artificial, estos grupos disponen de tecnologías para simular eventos a gran escala, en un entorno que refleja todas las complejidades de nuestro propio mundo; de hecho, son capaces de simular prácticamente todo el mundo y la reacción de todo el planeta ante cualquier acontecimiento que ellos provoquen.

Hace ya varios años, más de una década atrás (en 2004), se creó un software en concreto, llamado Synthetic Environment for Analysis and Simulations o SEAS, desarrollado por la Universidad de Purdue, que está siendo utilizado por el Departamento de Seguridad Nacional de EEUU y el Departamento de Defensa de Estados Unidos para simular estados de crisis en los Estados Unidos.

El SEAS “permite a los investigadores y a diversas organizaciones probar sus modelos o técnicas en un entorno de conocimiento público, y de detallado realismo detallado”

 

En sus inicios, el SEAS era capaz de ejecutar simulaciones en tiempo real para un máximo de 62 naciones, incluyendo Irak, Afganistán y China. Las simulaciones incorporan las últimas noticias, los datos del censo, los indicadores económicos y los eventos climáticos en el mundo real, junto con información privada, y información secreta procedente de la inteligencia militar.

El SEAS fue desarrollado para ayudar a las compañías principales de la lista Fortune 500 para realizar planificación estratégica.

No hace falta decir, que el SEAS es una anticualla, si tenemos en cuenta que fue creado en 2004 y que el poder de estas tecnologías crece exponencialmente de forma continuada, de forma que no es exagerado afirmar que una tecnología con 6 meses de antigüedad está total y absolutamente obsoleta.

 

En estos momentos, el SEAS ha evolucionado hasta un nuevo software de simulación a escala planetaria, llamado Sentient World Simulation, concebido como un modelo de funcionamiento continuo que actúa como un espejo del mundo real, que es continuamente actualizado con datos procedentes de todas las fuentes imaginables del mundo real y que se puede utilizar para predecir y evaluar cualquier desarrollo de eventos del futuro.

Literalmente, un supercomputador dotado de una de estas herramientas de Inteligencia Artificial, es capaz de simular por completo el funcionamiento de todo el planeta, con sus 7 mil millones de personas simuladas.

Esta tecnología se puede utilizar para ejecutar simulaciones de guerra nuclear, ataques de falsa bandera, colapsos económicos, envenenamiento de los acuíferos, accidentes o incidentes “fortuitos” de cualquier tipo, etc… y eso permite que determinadas élites puedan conocer con anterioridad, cuáles serán los efectos de cualquiera de sus maniobras.

Sabemos que esto puede parecer ciencia ficción y que mucha gente aún se negará a reconocer que esto está en funcionamiento, o que al menos, podría estarlo en un futuro no demasiado lejano.

Pero las cosas son aún peores: podemos encontrar información del Sentient World Simulation en Wikipedia, lo que significa que estamos muy lejos de saber qué tipo de tecnologías de última generación pueden estar utilizando en estos momentos estas élites, para simular todos y cada uno de los pasos que les lleven a alcanzar sus objetivos.

 

Cuando se es consciente de que existen estas tecnologías, uno se pregunta si cada noticia que se “hace viral” y que aparece en múltiples medios de todo el mundo de forma simultánea (desde los occidentales hasta los opositores de RT o similares), no estará desempeñando una función concreta en toda esta simulación.

Si estos sistemas de simulación son tan potentes como parecen, entonces hay una gran posibilidad de que todo lo que vemos a nuestro alrededor, especialmente todo aquello que procede de los medios de comunicación, obedezca a un plan específicamente diseñado…diseñado por una Inteligencia Artificial y no por un ser humano.

Y si alguien cree que es imposible controlar a todos los medios de comunicación, peca de una profunda inocencia. La mayoría de medios de comunicación acaban bebiendo de fuentes comunes y se hacen eco de noticias aparecidas en los otros medios.

Un ejemplo de ello lo encontramos en RT, la cadena que presuntamente tiene la función de contrarrestar a los medios de propaganda occidentales. Aparte de ejercer de vehículo propagandístico del Kremlin, simultáneamente, RT se hace eco constantemente de lo que publican las agencias occidentales, desde France Presse, hasta Reuters o Associated Press, así como de la BBC o periódicos sensacionalistas británicos de todo tipo.

Así, si alguien quiere convertir una noticia en viral y impactar con ella sobre todo el mundo, solo hace falta generarla en un punto concreto al que todos tengan acceso y esperar a que se extienda por toda la red.

(|) Ingeniero, Presidente H. de FAPLEV, Vecino Solidario  2001.

1e59d3a78d9dfd2c243cf366434d501a

La Materia y Energía oscura no existe.

“Vuelve a probarse que la materia y energía oscura no existe”

Compilado por Manlio E. Wydler (|)

 

La materia oscura no brilla, qué duda cabe, pero quizá podría traicionarse con la radiación muy energética de su desintegración. Los datos muestran que no es así.

En la  imagen al final, se ven dos enormes burbujas emisoras de rayos gamma al norte y al sur del centro de nuestra galaxia [NASA / DOE / Fermi LAT / Douglas Finkbeiner et al.]

Hace años que los físicos dicen saber que todos los átomos y toda la luz que existen el universo apenas dan cuenta del 5 por ciento de su contenido total de materia y energía. El 95 por ciento restante suponen  que lo constituirían hipotéticos y misteriosos agentes que, a falta de un nombre mejor, han dado en llamar «materia oscura» y «energía oscura».

Dominarían el cosmos, pero ¿cuál sería su naturaleza? En este número podrás encontrar una panorámica clara y rigurosa del estado actual de dos líneas de investigación que, casi como ninguna otra, evidencian lo mucho que aún nos queda por aprender sobre el universo y las leyes fundamentales que lo rigen. Más, ya casi todos suponen que la Cosmología más aceptada está errada, ese porcentaje que se dice que falta es la interacción de los Universos alternos cercanos que constituyen un Multiverso infinito.

Cientos de estudios se han efectuado y lo hipotético no aparece, todo lo contrario. Muestra el gran error que se viene cometiendo desde ya un centenar de años.

El estudio más preciso efectuado hasta ahora del fondo cósmico de rayos gamma no ha aportado indicio alguno de la existencia de la materia oscura.

 Esta es la conclusión a la que ha llegado un grupo de trabajo dirigido por Mattia Fornasa, de la Universidad de Amsterdam, tras un análisis de los datos sobre la radiación gamma tomados por el telescopio espacial Fermi a lo largo de un total de 81 meses de observaciones.

 El fondo de radiación gamma, un difuso resplandor en el cielo de radiaciones de alta energía, hasta ahora inexplicado, está formado por las contribuciones de dos tipos distintos de fuentes de radiación: uno, el más energético, que posiblemente consiste en galaxias activas por descubrir, y el otro, más moderado, cuya existencia no encuentra explicación en ninguna fuente conocida ni siquiera tras el nuevo estudio.

 Hasta ahora se suponía que la desintegración de la materia oscura o su aniquilación en choques de pares de partículas de materia y antimateria podía ser la responsable de parte del fondo de radiación gamma. Fornasa y su grupo de trabajo ahora casi lo excluyen: el espectro de la parte que aún no se ha explicado no es compatible con ningún modelo.

La materia y energía oscura NO EXISTE!

 (|) Ingeniero, Presidente H. de FAPLEV, Vecino Solidario 2001.

Nuevo Supercontinente.

“Científicos predicen la ‘reunificación’ de Siberia y Norteamérica”

Compilado por Manlio E. Wydler (|)

Unos estudios geológicos rusos confirman que dos plataformas continentales formarán un nuevo supercontinente.

En un futuro no muy lejano las plataformas continentales de Siberia y Norteamérica se unirán para formar un nuevo supercontinente, mientras que las islas de Japón se fusionarán con el territorio donde se encuentra la Rusia moderna, según indican las conclusiones a las que han llegado los investigadores del Instituto de la corteza terrestre de Irkutsk e informa RIA Novosti.

 

La plataforma siberiana es un cratón antiguo cuya base está formada por rocas precámbricas. Hace 1.000 millones, esa masa continental estaba conectada a la plataforma de América del Norte y ambas formaban un supercontinente de 25 millones de kilómetros cuadrados, pero 400 millones de años después se separaron y ese proceso inició la aparición de los continentes modernos.

 

De acuerdo con Dmitri Gladkochub, integrante de la Academia de Ciencias de Rusia, los estudios disponibles hoy en día permiten predecir dónde se encontrarán esos dos continentes dentro de alrededor de 250 millones de años. Así, los modelos geológicos indican que cuando la plataforma de Siberia se vuelva a situar al lado de la norteamericana “terminará un ciclo supercontinental”

 

(|) Ingeniero, Presidente H. de FAPLEV, Vecino Solidario 2001.

Los científicos predicen la 'reunificación' de Siberia y Norteamérica

Miembro falso.

“Las Hienas Hembra tienen un falso pene”

Compilado por Manlio E. Wydler (|)

El joven biólogo, bloguero y youtuber francés Léo Grasset recoge en su libro «Elefantes, jirafas y termitas. Misterios insólitos de la sabana africana» (Alianza editorial) algunas de las más descabelladas preguntas que se hacen los científicos y exploradores cuando ponen un pie en la sabana africana y se encuentran con que sus habitantes son aún más variopintos de lo que pudiera parecer.

 

 Aquí recogemos algunas de esas historias, cada cual más fascinante, llenas del sentido del humor del autor y un profundo afán divulgativo.

 

Una de las criaturas más insólitas de la sabana son las hembras de la hiena moteada. ¿El motivo? Tienen un clítoris en forma de pene que imita a la perfección el aparato genital masculino. Incluso lucen un escroto falso, todo igual que sus compañeros machos. Ese seudopene, como lo llaman los científicos, es eréctil y se utiliza para hacer aguas menores. Pero les dificulta dar a luz, provocando la muerte de parte de las madres y de muchas de las crías. Entonces, ¿para qué sirve ese colgajo?

 

Pues no está muy claro, como reconoce Grasset. Para empezar, dificulta que un macho pueda forzar a una hembra, lo que puede dar a esta una ventaja para elegir a la pareja adecuada.

El falo, muestra  dominancia, pues se lo puede utilizar en contrincante de ambos sexos, para denotar quien es el más fuerte y quién domina en el coito, aunque sea falso.

Lo que parece una certeza es que no es un accidente hormonal, sino que tuvo que haber una selección para que las hembras decidieran copiar a los machos, quizás para reducir conflictos entre ellas, que en esa especie, son el sexo dominante, corpulentas y muy agresivas.

(|) Ingeniero, Presidente H. de FAPLEV, Vecino Solidario 2001.

Una hiena moteada

Más artículos de Culturaespress, rescatados.

14 Ago 2013
“Discusión sobre los neutrinos” Compilado por Manlio E. Wydler (*) De los argumentos cosmológicos, los neutrinos del fondo de baja energía son estimados en poseer densidad de 56 por cada centímetro cúbico, y de tener temperatura de 1.9 K (1.7×10−4 eV), esto es, si no poseen prácticamente masa. –sabemos que los primeros descubiertos son 2.000 veces más livianos que el Hidrógeno- En el caso contrario, serían mucho más fríos si su masa excede los 0.001 eV. Aunque su densidad es bastante alta, debido a las extremadamente bajas secciones cruzadas de neutrinos a energías bajo 1 eV, el fondo de neutrinos de baja energía aún no ha sido observado en el laboratorio. Si son hiperlumínicos, serían particularmente caliente: explicación más abajo.En contraste, neutrinos solares de boro-8, que son emitidos con una mayor energía, han sido detectados definitivamente a pesar de poseer una densidad espacial más baja que la de los neutrinos reliquia, alrededor de 6 órdenes de magnitudFísicos de la Universidad Ludwig-Maximilians de Múnich (Ludwig-Maximilians University Munich) y el Instituto Max Planck de Óptica Cuántica (Max Planck Institute of Quantum Optics) en Garching, han creado un gas atómico en el laboratorio que, sin embargo, ha logrado valores de grados Kelvin negativos.  Estas temperaturas absolutas negativas tienen varias consecuencias “absurdas”: aunque los átomos del gas se atraen entre sí y dan lugar a una presión negativa, el gas no colapsa – Motores de calor supuestamente imposibles, como un motor de combustión con una eficiencia termodinámica por encima del 100%, también pueden hacerse con la ayuda de las temperaturas absolutas negativas. Un estado que se llamará pronto paradojal entre dos Universos- La distribución de Boltzmann invertida es el distintivo de la temperatura absoluta negativa; y esto es lo que hemos logrado”, dice Ulrich Schneider. “Aunque el gas no está más frío que cero kelvin, sino más caliente”, tal como explican los físicos: “Está incluso más caliente que cualquier otra temperatura positiva – la escala de temperatura simplemente no termina en un infinito, sino que, en su lugar, salta a valores negativos”. Por lo menos un grupo de neutrinos de masa casi despreciable, dentro del acelerador superan el límite del Caos y pasan al Universo retrayente alterno y viajan- para nosotros a una velocidad algo mayor a la de la luz, con masa negativa y temperatura negativa, que es como dice el estudio anterior una muy alta temperatura para nuestro lado común del Universo. Son los verdaderos antineutrinos, que al interactuar con el sistema de medición vuelven al estado de neutrinos. Sabemos que en la Teoría de las Cuerdas los bosones, del otro lado del límite del Caos, son takiones, con masa negativa, muy baja energía y velocidad hiperlumínica. La corriente de neutrinos, que generalmente a bajas temperaturas enmascara la corriente electrónica es la energía del vacío que hoy tanto nos desvela y es el secreto del poder de las altas civilizaciones extraterrestres y de otras dimensiones. (*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001. Nave Híbrida impulsada por energía neutrínica:

Admin · 82 vistos · 2 comentários
Categorias: Primeira categoria
14 Ago 2013
“La forma más barata de desalar agua de mar” Compilado por Manlio E. Wydler (*) Si se pudiera desalar el agua de mar de un modo económico se podría mejorar la salud y la alimentación de poblaciones gracias a un mejor acceso al agua y a la agricultura.
Ahora un grupo de investigadores de la universidades de Texas (EEUU) y Marburg (Alemania) ha conseguido desarrollar un sistema eléctrico que permite desalar agua marina y que consume mucha menos energía que el método habitual, además de ser mucho más simple.
 Esta desalinización de agua marina electroquímicamente mediada se basa en la aplicación de un campo eléctrico que elimina los iones de sal disueltos y para ello basta una batería corriente, pues sólo se necesitan 3 V. No hay membrana implicada en el proceso, pues la separación de la sal del agua se hace a microescala.
El dispositivo que han creado es sólo un prototipo y necesita ser refinado y transformado para que se pueda usar a escala comercial.
 El método podría aplicarse en áreas de países en vías de desarrollo con acceso al mar en donde sus habitantes no tienen acceso al agua dulce y limpia, pero que no tienen los recursos suficientes como para usar la tecnología convencional. Millones de muertes se producen al año debido a problemas atribuidos al acceso al agua. En el prototipo se aplica un pequeño voltaje a un chip de plástico relleno con agua marina. El chip contiene un microcanal con dos ramas. En la unión del microcanal un electrodo embebido neutraliza algunos iones de cloro del agua marina para crear una zona de disminución iónica que aumenta el campo eléctrico local comparado con el resto del canal. Este cambio en el campo eléctrico es suficiente como para redirigir los iones de sal por una de las ramas, permitiendo así que por la otra rama vaya agua dulce. Con este prototipo han conseguido ya un desalinización del 25%. Aunque el agua para beber requiere una desalinización del 99%, -cosa que se logrará con cinco chips montados en serie sobre la parte desaladora y lograr la escala necesaria con varios de estos conjuntos reunidos-, los investigadores están seguros de que podrán alcanzar esta meta. De momento el prototipo es una prueba de concepto  El microcanal del prototipo mide el ancho de un cabello humano y sólo produce 40 nanolitros de agua desalada por minuto. Para que el sistema sea práctico es necesario que el dispositivo final produzca litros de agua dulce al día. Los expertos implicados también se muestran seguros de pueden alcanzar también este objetivo.
Los investigados visualizan incluso un sistema del tamaño de una máquina expendedora de latas de refresco autónoma que sea capaz de producir agua suficiente para una pequeña aldea.
 A un dispositivo así sólo le haría falta añadirle unos paneles solares para ser extremadamente útil en ciertos sitios. Sin embargo hay un límite termodinámico debido a la entropía del agua salada frente a la dulce que no se puede sobrepasar. Siempre habrá que consumir energía para desalar, aunque siempre estará bien aproximarse lo máximo a ese límite. En este caso se malogrado algo impresionante, a tal punto que podemos decir que  el agua potable será un bien casi infinito en disponibilidades, gracias a este invento. (*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

 

Admin · 60 vistos · 1 comentário
Categorias: Primeira categoria
13 Ago 2013
“Estudiando el Plasma Solar” Compilado por Manlio E. Wydler (*)  Pese a la importancia de los satélites nuevos para estudiar al Sol, es evidente que no es posible aún precisar siquiera datos indirectos sobre la intensidad electromagnética en el plasma solar y coronal como lo demuestra este mediocre estudio actual.

 Unos “científicos” se han valido de un tsunami solar para obtener las primeras “estimaciones precisas” del campo magnético del Sol. El tsunami fue observado por el Satélite SDO de la NASA y por el satélite japonés Hinode.

Los tsunamis solares son producidos por enormes explosiones en la atmósfera del Sol llamadas eyecciones de masa coronal. A medida que una de estas andanadas de plasma es disparada hacia el espacio, el tsunami se propaga a través del Sol a velocidades de hasta 1.000 kilómetros por segundo. De modo similar a lo que ocurre con los tsunamis en la Tierra, la forma de los tsunamis solares cambia según las características del medio a través del cual se mueven. Al igual que el sonido viaja más rápido en el agua que en el aire, los tsunamis solares tienen una velocidad mayor en las regiones donde el campo magnético es más fuerte. Esta singular característica le permitió medir el campo magnético solar al equipo dirigido por investigadores del Laboratorio Mullard de Ciencia Espacial del University College de Londres.

El campo magnético del Sol es imposible de medir de manera directa, y por lo general tiene que ser estimado mediante “simulaciones informáticas intensivas”. El satélite Hinode cuenta con tres telescopios de alta sensibilidad, que usan luz visible, rayos X y luz ultravioleta para examinar tanto los cambios lentos como los rápidos en el campo magnético solar. El párrafo siguiente muestra hasta que punto hoy se publican tonterías en las publicaciones científicas; -Nota del Compilador-:

 El equipo de David Long ha “demostrado” que la atmósfera del Sol tiene un campo magnético alrededor de diez veces más débil que el de un imán típico de los usados para adherirlos por fuera a la puerta del frigorífico o heladera y que sirven para sujetar papeles en los que se escribe qué alimentos habrá que comprar pronto y anotaciones similares.

Las explosiones solares que producen tsunamis pueden enviar miles de millones de toneladas de plasma al espacio a una velocidad de más de un millón y medio de kilómetros por hora. La nube de plasma lleva consigo un fuerte campo magnético. –
Como se puede ver, este párrafo contrapone la noción de la Intensidad magnética, justo al revés que el párrafo anterior-
Pocos días más tarde, cuando la nube magnetizada llega a la Tierra, una gran cantidad de energía se deposita en nuestra magnetosfera. Aunque protegida por su propio campo magnético, la Tierra es vulnerable a este fenómeno, ya que el mismo puede provocar efectos nocivos sobre una amplia gama de sistemas tecnológicos, incluyendo interrupciones de servicio en infraestructuras de comunicaciones, de suministro eléctrico y de sistemas de navegación.

 (*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

 Eyección coronal y aro magnético:

Admin · 51 vistos · 1 comentário
Categorias: Primeira categoria
13 Ago 2013
 “La realidad aumentada” Compilado por Manlio E. Wydler (*) Las posibilidades de interacción que ofrece desde el 2010 la Realidad Aumentada son innumerables y, por ello, cada vez estará más presente en ámbitos de las artes y las ciencias; pero nosotros, vamos a ocuparnos del que más nos interesa: el de la telefonía móvil.Hay cuatro funciones básicas que nuestro terminal debe soportar para poder hacer un uso ideal de la Realidad Aumentada:– 1. Una cámara de vídeo de alta calidad, aunque esto es más aconsejable que necesario.

– 2. Acceso a datos geográficos suficientemente precisos para alinear con lo que el usuario ve en pantalla.

– 3. Un receptor GPS con suficiente precisión.

– 4. Un sensor compás o brújula con 0,1 grados de precisión o superior.

Cada vez van apareciendo más aplicaciones que incorporan, de alguna forma, esta tecnología. Este es nuestro Top3:

-Layar Reality Browser: Con esta aplicación, si apuntamos con la cámara de nuestro móvil a lo que vemos a nuestro alrededor, la aplicación nos mostrará sobre la imagen en tiempo real varias capas de información con restaurantes, sitios turísticos o tiendas cercanas. Puedes descargártela de forma gratuita en www.layar.com.

-Encontrar mi coche: Es la aplicación ideal para todos los despistados que nunca sabemos dónde hemos aparcado el coche. Utiliza el GPS y la brújula para guardar el lugar donde hemos aparcado y, cuando volvemos a buscarlo, nos recuerda el punto.

-Cyclopedia y Wikitude: Las Wikipedias de la Realidad Aumentada. Con Cyclopedia –sólo disponible para iPhone 3GS- y Wikitude –disponible para ambos terminales- podremos conocer la información de la Wikipedia relacionada con el lugar en el que nos encontremos, sólo hay que enfocar con la cámara al lugar elegido y se sobreimprimirá toda la información en la pantalla de nuestro teléfono.

(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

Un ejemplo de realidad aumentada:

Admin · 81 vistos · 1 comentário
Categorias: Primeira categoria
13 Ago 2013
“El principio del fin” Por Manlio E. Wydler (*) Todas las dictaduras del proletariado han terminado mal o peor para sus dirigentes, Con enfermedades sicosomáticas, cáncer, a balazos o colgados por las turbas. Algunos muertos con gran violencia, otros envenenados.

 La Argentina no es un verdadero país, está quebrado por dos tipos de ciudadanos, de cultura e inteligencia diferentes. Siempre fue un desierto ocupado por poca gente capaz de transformaciones.

  La sangre gringa se ha licuado tanto que casi ha desaparecido y poco a poco, el malón de la corrupción y el robo seguido de homicidio es la actitud generalizada.

 Así estamos llegando al final del Kirchnerismo, pero ya se está preparado más de lo mismo, los malandras se vuelven a camuflar.

 “El Modelo” ha destruido ingeniosamente todo con gran meticulosidad,  ya casi no hay forma de seguir exprimiendo a la nación. Los carroñeros buscarán la forma de aprovechar las sobras.

 Nadie ya nos cree en el mundo,… si no nos ayudamos a nosotros mismos.  Solo deseo que los actuales miembros de los ejecutivos nacionales y provinciales, se les confisquen sus bienes  y terminen encarcelados en juicios sumarísimos y con profusa presencia de jurados populares.

 Espero ver a todos pronto como muestro en la foto:

 (*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

 La Señora Presidente:

Admin · 70 vistos · 1 comentário
Categorias: Primeira categoria

Ir para a página: Página precedente   … 4995, 96, , 97418741  Próxima página

Tratamiento para esclerosis múltiple.

                “Nuevo tratamiento para la esclerosis múltiple”

Compilado por Manlio E. Wydler (|)

 

En tres ensayos clínicos con pacientes con esclerósis múltiple (EM) los médicos lograron frenar la progresión del daño cerebral utilizando un fármaco.

Ocrelizumab es la primera droga que funciona en la EM primaria progresiva, contra la que hasta el momento no se había hallado ningún tratamiento eficaz.

Expertos describieron a la droga que altera el sistema inmunológico como un hito en el tratamiento de la esclerosis múltiple.

La Agencia de Alimentos y Fármacos de EE.UU. y las autoridades sanitarias europeas evaluarán ahora su eficacia y seguridad para autorizar su comercialización.

Enfermedad incurable

La esclerosis múltiple está causada por una falla en el sistema inmunológico que confunde a una parte del cerebro con un invasor y lo ataca.

El sistema inmunológico destruye la capa de proteína, llamada mielina, que cubre y protege las células nerviosas, y ayuda a enviar las señales eléctricas desde el cerebro al resto del cuerpo.

Esto provoca pérdida de fuerza, dificultades para caminar, fatiga y visión borrosa.

Los síntomas pueden empeorar, que es lo que se conoce como EM primaria progresiva, o pueden aparecer y desaparecer (remitente-recurrente).

Ambas formas son incurables, aunque existen tratamientos para la segunda.

Ocrelizumab mata a una parte del sistema inmunológico -las llamadas células B- que participan en el ataque la mielina.

, en sus dos formas, no tiene cura.

En 732 pacientes con EM primaria progresiva, el porcentaje que sufrió un deterioro cayó de 39% sin tratamiento a 33% con ocrelizumab.

Aquellos que tomaron la droga también necesitaron menos tiempo para caminar una distancia de menos de 10 metros y un diagnóstico por imágenes mostró que perdieron menos neuronas.

En 1656 pacientes con EM remitente-recurrente, la probabilidad de sufrir una recaída se redujo de un 29% con otra droga a un 16% con ocrelizumab.

“Los resultados de estos estudios tienen el potencial de cambiar cómo tratamos la EM primaria progresiva y la remitente-recurrente”, señaló Gavin Giovannoni, profesor de la Escuela de Medicina y Odontología de Londres, quien participó en los ensayos.

“Es una noticia muy importante (…). Es la primera vez que un tratamiento muestra potencial para reducir la progresión de la discapacidad para la EM primaria progresiva, lo cual trae muchas esperanzas para el futuro”, comentó Aisling McMahon, director de ensayos clínicos de la Sociedad de Esclerosis Múltiple.

Peter Calabresi, doctor de la Universidad John Hopkins en Baltimore, EE.UU. se refirió al nuevo tratamiento como un hito, pero advirtió sobre la necesidad de estar atentos a los efectos colaterales de la droga.

Debilitar el sistema inmunológico aumenta el riesgo de infección y de cáncer.

 

(|) Ingeniero, Presidente H. de FAPLEV. Vecino Solidario 2001.

EM en el mundo

 

mapa-mundial-esclerosis-multiple

  • 47.000
  • personas
  • tienen Esclerosis Múltiple en España
  • 600.000
  • personas
  • tienen Esclerosis Múltiple en Europa
  • 2.500.000
  • personas
  • tienen Esclerosis Múltiple en todo el mundo

Artículos recuperados de Culturaexpress.

13 Ago 2013
“Agujero de gusano” Compilado por Manlio E. Wydler (*)Un puente de Einstein-Rosen,  conocido como agujero de gusano, es una hipótesis física que emplea las ecuaciones de la relatividad general para explicar la “topología del espacio tiempo”. En palabras más llanas, es un atajo que discurre a través del espacio y el tiempo. El primer científico en teorizar la existencia de pasajes espacio-temporales fue Ludwig Flamm en 1916. Y hasta ahora los hemos visto solo en películas de ficción como Stargate o Contact, en las que se usan para viajar a otras sociedades alienígenas. Porque un agujero de gusano es, sobre todo, un “estupendo modo alcanzar grandes distancias en poco tiempo”, algo así como una autopista estelar que usa muchos túneles para superar el obstáculo de una cordillera montañosa. El término “agujero de gusano” fue introducido por el físico teórico norteamericano John Wheeler en 1957 y proviene de la siguiente analogía, usada para explicar el fenómeno: imaginemos que el universo es la cáscara de una manzana, y un gusano viaja sobre su superficie. La distancia desde un lado de la manzana hasta el otro es igual a la mitad de la circunferencia de la manzana si el gusano permanece sobre la superficie de ésta. Pero si en vez de esto, cavara un agujero directamente a través de la manzana la distancia que tendría que recorrer sería considerablemente menor.Un agujero de gusano también podría permitir en teoría el viaje en el tiempo. Esto podría llevarse a cabo acelerando el extremo final de un agujero de gusano a una velocidad relativamente alta respecto de su otro extremo.Según lo dicho hace unos años por un grupo de científicos de la Universidad de Rochester, es posible que en breve podamos “contemplar” un agujero de gusano en un laboratorio. Al menos es lo que indican los cálculos que han presentado, que demuestran que es posible originar esta clase de agujeros mediante fuerzas electromagnéticas. Según estos investigadores, tendría la apariencia de un tubo invisible de ambos extremos, absorbiendo la luz incidente en uno de los extremos, y lanzándola fuera por el otro. Al no poder verse el agujero en si, la luz parecería que “brota” de la nada. El agujero de gusano artificial estaría compuesto de “una serie de anillos de un material especial”, de manera que sucesivas curvaturas de la luz incidente harían que se introduzca dentro del agujero, como si se tratase de una trampa que atrapase  la luz. Un equipo de matemáticos norteamericanos afirma en un artículo publicado en la revista Physical Review Letters, que una tecnología creada anteriormente, y que se usó para realizar una capa que vuelve invisible lo que rodea, podría ser aplicada también para generar un tipo de túnel invisible que permitiera a los objetos desaparecer al entrar en él, y reaparecer al otro lado.  El professor Allan Greenleaf, de la Universidad de Rochester y co-autor de este estudio, declaró en un comunicado de dicha universidad que” si se diseñara un material que se ajustase a las especificaciones matemáticas por ellos definidas”, el túnel permitiría que los objetos viajasen de un lado al otro del espacio sin recorrer distancia alguna Este túnel electromagnético, explican sus autores, actúa como el agujero de gusano descrito por la física respecto a las ecuaciones de Maxwell, ya que efectivamente modifica la topología del espacio frente a la propagación de las ondas EM, que son las que perturban el campo electromagnético.Para idear la futura tecnología del agujero de gusano, Greenleaf y sus colaboradores utilizaron matemáticas teóricas con las que diseñaron “un dispositivo” para guiar las ondas electromagnéticas de forma aprovechable.

El diseño sirvió asimismo para idear las “capas de unos materiales compuestos denominados metamateriales,” que obtienen propiedades únicas a partir de su estructura y no de su composición, y que serían la base del túnel invisible. Es el orden de los constituyentes de estos metamateriales lo que permite que tengan propiedades físicas distintas a las de dichos constituyentes, y también a las de los materiales formados de manera natural.Los mismos recuerdan que en el 2006, el físico

David R. Smith, junto con otros científicos, diseñaron un dispositivo de invisibilidad que permitía que las microondas pasaran alrededor de él, es decir, que se ha conseguido hacer invisibles objetos aunque sólo a la radiación de microondas.Greenleaf y sus colegas han empleado una

geometría aún más elaborada para especificar con exactitud qué propiedades se necesitan para que un agujero de gusano formado por un metamaterial pueda crear el efecto de “invisibilidad del túnel”, pero para cualquier longitud de onda. Asimismo, han calculado que efectos ópticos adicionales se darían si el interior del túnel fuera recubierto con una variedad de metamateriales hipotética.  En el caso de que dicho agujero de gusano operase con objetos de nuestra vida cotidiana, es decir, franjas visibles del espectro electromagnético, si el observador mirase desde uno de los extremos, vería una versión distorsionada de lo que está en el otro extremo. Por otro lado, dependiendo de la longitud del túnel, y de la manera en la que la luz rebota dentro del mismo, el espectador podría ver, bien una realidad distorsionada, o simplemente un indescifrable remolino de luces y formas.  Este agujero de gusano electromagnético tendría así aplicaciones que suenan a ciencia ficción. Por ejemplo, si los metamateriales empleados en el tubo pudieran desviar todas las longitudes de onda de la luz visible, podrían utilizarse para fabricar dispositivos de televisión en tres dimensiones.Sin embargo, concede Greenleaf, estas matemáticas aún está lejos de concretarse. Incluso teniendo el corpus teórico necesario, aún queda por aplicarlo en un prototipo que funcione realmente. Consideraciones del Compilador: Ya estas consideraciones me parecen un tremendo disparate En resumidas cuentas podemos decir que la idea teórica nació hace casi 100 años, pero nunca se vio en la naturaleza ni pudo sintetizarse, si funcionará, ni idea de que material sería hecho, mucho menos como-pensar que de una u otra forma vincularía regiones lejanas del Universo y más allá- lo que presumiría una monstruosa factura que demandaría la energía y la materia de buena parte del Universo Señores, si las naves aliens dependiesen de estos “agujeros de gusanos”, para venir de sus lejanos sistemas hasta nosotros, les aseguro que nunca los hubiéramos visto evolucionar por encima de nuestras cabezas aquí en la Tierra, en la Luna y en Marte, donde hasta ahora hemos puesto multitud de cámaras, cuyas observaciones son difíciles de obviar, aún para estos seres súper-inteligentes.Las naves aliens existen, por lo tanto el vuelo a través del espacio-tiempo se hace por otros medios que por la construcción de agujeros de gusano.Las naves alienígenas funcionan sobre un entramado de corriente neutrínica, a la que montan como los motores lineares eléctricos, en este caso motores lineares neutrínicos.Como vimos en otro artículo, cuando hablamos de la energía del vacío, mostramos las experiencias de Nicola Testa y sus pulsos de las bobinas, donde por momentos, entre pulsos se mostraba la parte neutrónica de la corriente, que la eléctrica encubre.Las naves alienígenas y las híbridas funcionan con motores antigravedad y utilizando la energía eléctrico neutrínica producida por el plasma multiversal, que estas máquinas encausan para sus necesidades totales.Los agujeros de gusanos, no solo son imprácticos, sino tan inútiles como inexistentes.(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001. 

Admin · 72 vistos · 1 comentário
Categorias: Primeira categoria
13 Ago 2013
“Contaminación de piscinas naturalizadas” Compilado por Manlio E. Wydler (*) Investigadores de la Universidad de Barcelona han analizado cuatro piscinas naturalizadas en Cataluña para sondear la calidad de las aguas de este tipo de masas artificiales de agua, que se tratan con filtros mecánicos y biológicos –con plantas, por ejemplo –, pero no químicos.Los resultados revelan que en tres de estas piscinas se superaban los límites de Escherichia coli y enterococos fecales recomendados, según publica el International Journal of Hygiene and Environmental Health.“La demanda de este tipo de piscina se ha incrementado en toda Europa por los problemas que causa el cloro en las piscinas convencionales, como la irritación de los ojos y la piel, pero sabemos poco sobre la capacidad que tienen los sistemas naturales de depuración para garantizar la calidad del agua de baño desde un punto de vista microbiológico”, apunta a SINC Arnau Casanovas, uno de los autores.

Para averiguarlo, los científicos han planteado este estudio. Como no existe una legislación que regule la calidad de las aguas de estas piscinas, los investigadores han comparado sus datos con las recomendaciones que se ofrecen desde Francia, Suiza, Austria y Alemania. En estos países es habitual construir estas instalaciones acuáticas pseudonaturales para integrarlas en paisajes ajardinados.

Según los expertos europeos, los valores que no se deberían superar son 100 ‘unidades formadoras de colonias’ (UFC) de E. coli para 100 ml de agua y 40-50 UFC para el caso de los enterococos, pero en tres piscinas se sobrepasaron.

“Probablemente la fuente de contaminación es la fauna salvaje, sobre todo los pájaros”La contaminación microbiológica de estas aguas puede tener su origen en las aportaciones de los propios bañistas –por el lavado involuntario de restos fecales o de otra naturaleza de los usuarios –, pero los análisis bioquímicos señalan que en este caso el origen es animal.  “Probablemente la fuente de contaminación es la fauna salvaje, particularmente los pájaros, que habitan en los alrededores de estas piscinas”, apunta Casanovas, que también destaca que otros parámetros, como la concentración de la bacteria Pseudomonas aeruginosa, fueron aceptables.

La mayoría de las piscinas naturalizadas se suelen situar en urbanizaciones privadas –como las cuatro estudiadas –, “pero estos resultados pueden ser útiles para estimar los riesgos microbiológicos en las de uso público, un escenario donde la densidad de baño es mayor, y por tanto, también la concentración de contaminación fecal y otros patógenos”, comenta el investigador.

El científico concluye: “El sistema de depuración natural puede ser insuficiente para recudir la carga de patógenos, por lo que es necesario seguir investigando este tipo de piscinas para llegar a determinar unos parámetros microbiológicos que garanticen un riesgo microbiológico aceptable para los usuarios”.

Los científicos y los profesionales del sector definen como piscinas naturalizadas o naturales a aquellos cuerpos de agua artificiales destinados al baño recreativo que carecen de tratamiento químico de desinfección. Están separadas de otras masas de agua, y por tanto, quedan fuera de la Directiva Europea de Aguas de Baño. Este tipo de piscinas no contienen sal, para que puedan crecer las plantas que, además de su función paisajística, ayudan a realizar el tratamiento biológico.

Hay que distinguir este tipo de piscinas de las denominadas popularmente como ‘piscinas naturales’, que se  encuentran en muchos pueblos  junto a ríos, lagos e incluso el mar. Estas últimas no serian piscinas naturales de acuerdo a la definición de los científicos, ya que, o bien no se han construido artificialmente, o bien están en contacto con el agua circulante del río, lago o mar.

Los riachos de poco caudal, como las piscinas naturales de las provincias argentinas, están contaminadas.

 (*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

 

Admin · 73 vistos · 1 comentário
Categorias: Primeira categoria
12 Ago 2013

“Nuevo Sistema Bioinformático” Compilado por Manlio E. Wydler (*)   Un grupo de bioinformáticos, biólogos y físicos de Consejo Superior de Investigaciones Científicas (CSIC) junto con la empresa de base tecnológica Biomol-Informatics, ha desarrollado un sistema que permite conocer cómo son las proteínas en el momento exacto de su actividad química.El método, basado en técnicas físicas de mecánica cuántica, utiliza sistemas de análisis y virtualización de datos y sus detalles han sido publicados en la revista Biochemistry.“La ventaja del nuevo método computacional es que podemos comenzar a fabricar nuevas moléculas que encajen como un guante en la proteína simulada y que así modulen su actividad. Esto ya lo hicimos con una proteína bacteriana y diseñamos hasta tres nuevas moléculas que serán probablemente el germen de una nueva familia de antibióticos”, explica Paulino Gómez-Puertas, investigador  del Centro de Biología Molecular “Severo Ochoa” (CSIC-Universidad Autónoma de Madrid).Las proteínas participan en multitud de procesos ligados a la salud y  la enfermedad. El diseño inteligente de fármacos se basa en conocer la estructura de las proteínas a niveles de detalle atómicos para poder ajustar de forma exacta los nuevos compuestos químicos que se convertirán en medicamentos.El nuevo método ya fue utilizado con éxito por este grupo de científicos con el oncogén humano HRas, implicado en cáncer. Ahora lo han repetido con la proteína F1-ATPasa, que se ocupa de suministrar energía a las células y que está implicada en procesos de enfermedades, entre ellas, algunos tipos de cáncer.(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

Estructura helicoidal de la mioglobina.

Admin · 80 vistos · 1 comentário
Categorias: Primeira categoria
12 Ago 2013
“La gran familia de los compuestos modernos de los gases nobles” Compilado por Manlio E. Wydler (*) Este tema tabú de la química, comenzó a ser derribado al genio de Linus Pauling descubridor de grandes hitos en la Química.Los compuestos de gas noble son compuestos químicos que incluyen un elemento del grupo 18 de la tabla periódica, los gases nobles.

Los gases nobles las capas externas s y p están completas (excepto el helio, que no tiene capa p), y por lo tanto no forman compuestos químicos con facilidad. Su elevada energía de ionización y su baja afinidad electrónica, cercana a cero, hicieron que en un principio no se les considerara reactivos.Los gases nobles son: Helio, Neón, Argón, Kriptón, Xenón y Radón.Hasta 1933, se consideraban a estos gases no combinables hasta que el genio de  Linus Pauling predijo que los gases nobles más pesados podían formar compuesto con el flúor y el oxígeno. En concreto, predijo la existencia del hexafluoruro de kriptón y del hexafluoruro de xenón (XeF6), especuló que tendría que existir un XeF8 como compuesto inestable y sugirió que el ácido xénico formaría sales perxenadas.[1    ][]sEstas predicciones resultaron bastante acertadas, aunque predicciones posteriores sobre el XeF8 hicieron notar que no sólo sería inestable termodinámicamente, sino también cinemáticamente, []y en el año 2006 todavía no se había obtenido.

Los gases nobles más pesados tienen más capas de electrones que los más livianos. Esta característica hace que los electrones más externos experimenten un efecto de “apantallamiento” por la acción de los electrones internos, y puedan entonces ser ionizados con mayor facilidad, ya que la atracción que reciben de las cargas positivas del núcleo es más débil. Eso hace que la energía de ionización sea suficientemente baja para formar compuestos estables con elementos más electronegativoscomo el flúor y el oxígeno.Los clatratos (también conocidos como compuestos jaula) son compuestos de gases nobles en el cual los gases están atrapados dentro de cavidades de las redes moleculares de ciertas sustancias orgánicas e inorgánicas. La condición esencial para que se formen es que los átomos del gas noble sean de la medida adecuada para encajar en las cavidades del cristal que los acoje. Por ejemplo, el argón, el kriptón y el xenón pueden formar clatratos con el β-quinol, pero el helio y el neón no pueden por que son demasiado pequeños.

Se ha postulado que con bajas temperaturas tendrían que existir compuestos por coordinación como el Ar·BF3 pero ello todavía no se ha podido demostrar. Además, se han conseguido formas compuestas como WHe2 y HgHe2 por medio del bombardeo de electrones, pero búsquedas recientes han apuntado que probablemente este fenómeno se limitaba a la adsorción del helio por la superficie del metal, de manera que no se podría hablar con propiedad de la existencia de un compuesto químico.

Los hidratos se forman comprimiendo los gases nobles dentro del agua. Se cree que la molécula de agua, que forma un dipolo fuerte, provoca un dipolo débil en los átomos del gas noble, causando la interacción dipolo-dipolo. Los átomos más pesados quedan más afectados por este proceso que los más débiles, y por ello Xe·6H2O es el hidrato más estable. Aun así, en los últimos años se ha discutido la existencia de este tipo de compuestos.

En 1962, Neil Bartlett descubrió que el hexafluoruro de platino que es un compuesto altamente oxidante ionizaba al O2tranformándolo en O2+. Como la energía de ionización del O2 a O2+ (1165 kJ mol–1) es prácticamente igual a la energía de ionización de Xe a Xe+ (1170 kJ mol–1), Bartlett intentó la reacción de Xe con PtF6. La misma produjo un producto cristalino hexafluoroplatinato de xenón, cuya fórmula se propuso podría ser Xe+[PtF6].[2] []Posteriormente se demostró que el compuesto es más complejo, conteniendo tanto XeFPtF6como XeFPt2F. Este fue el primer compuesto real producido a partir de un gas noble.

Posteriormente en 1962 Howard Claassen sintetizó el primer compuesto simple (dos elementos) de un gas noble (tetrafloruro de xenón) al someter una mezcla de xenón y fluoruro a alta temperaturas.[]

En los últimos años se han obtenido diversos compuestos de gases nobles, particularmente del xénón, como los fluoruros de xenón (XeF2XeF4XeF6), los oxifluoruros (XeOF2, XeOF4, XeO2F2, XeO3F2, XeO2F4) y los óxidos (XeO3 y XeO4). El difluoruro de xenón se puede obtener simplemente exponiendo los gases de Xe y F2 a la luz del sol. Durante los cincuenta años anteriores se habían mezclado los dos gases intentando producir una reacción, pero nadie había pensado una cosa tan simple como exponer la mezcla a la luz del sol.El radón reacciona con el flúor para formar el fluoruro de radón (RnF2), que en estado sólido brilla con una ligera luz de color amarillo claro. El Kriptón puede reaccionar con el flúor para formar el fluoruro de Kriptón (KrF2), y en los láseres excímeros se utilizan excímeros efímeros de Xe2 y haluros de gases nobles como el cloruro de xenón (XeCl2). En el año 2000 se anunció el descubrimiento del fluorohidruro de argón (HArF).[]De momento no se han encontrado compuestos convencionales de helio o neón.En los últimos años se ha demostrado que el xenón puede producir una amplia variedad de compuestos del tipo XeOxY2, donde x es 1, 2 o 3 e y es cualquier grupo electronegativo como CF3, C (SO2CF3)3, N (SO2F)2, N (SO2CF3)2, OTeF5, O (IO2F2), etc.

La gama de compuestos es impresionante, ya que llega a los centenares e incluye enlaces de xenónoxígenonitrógenocarbono e incluso oro, además de ácido perxénico, numerosos haluros e iones complejos, una gama de compuestos también presente en un elemento vecino del xenón, el yodo. El compuesto Xe2Sb2F11 contiene un enlace Xe-Xe, el enlace elemento-elemento más largo que se conoce (308,71 pm).

Los gases nobles también pueden formar fullerenos endohédricos, compuestos en los que el gas noble está atrapado dentro de una molécula de fullereno. En 1993 se descubrió que cuando el C60 se expone a una presión próxima a los 3 Bar de helio o neón, se forman los complejos He@C60 y Ne@C60.[ ]En estas condiciones, más o menos una de cada 650.000 celdas de C60 incorpora un átomo de helio, a presiones más altas (3000 bar), se puede llegar a un porcentaje de hasta el 0,1%. También se han obtenido complejos endohédricos con argónkriptón y xenón, así como numerosos adictos de He@C60..En fin: La cantidad de compuestos de los gases nobles no deja de crecer y es uno de los temas que más ha evolucionado en Química, tal que la mayoría de las páginas sobre los gases nobles que se ven en Internet han quedado perimidas.(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

Fullereno de radón:

Admin · 67 vistos · 1 comentário
Categorias: Primeira categoria
12 Ago 2013
“La formación de la estrella RNO 91” Compilado por Manlio E. Wydler (*)  La luz casi  que emerge de estas tenebrosas nubes es resultado del proceso de formación de una nueva estrella. En esta imagen podemos ver la densa nube LDN 43 – un enorme cúmulo de gas, polvo y hielo situado a 520 años luz de la Tierra en la constelación de Ofiuco, el Portador de la Serpiente. Las estrellas se forman a partir del polvo y del gas cósmico que flota libremente por el espacio, y que se empieza a agregar debido a su atracción gravitatoria, pero más por la ionización exponencial de la materia en búsqueda del estadio de plasma. En esta imagen, se pueden apreciar los reflejos de la luz emitida por la estrella en formación, RNO 91, sobre los penachos de la nube que la envuelve. Esta estrella se encuentra en la fase previa a la secuencia principal, lo que significa que todavía no ha empezado a quemar hidrógeno en su núcleo.

 La energía que la hace brillar proviene del movimiento cada vez menos libre de las partículas que componen los átomos de la contracción gravitatoria. La estrella se está comprimiendo bajo su propio peso, y en cuanto alcance una cierta masa crítica, el hidrógeno, su principal componente, comenzará a fusionarse liberando una gran cantidad de energía. En ese momento se podrá considerar a RNO 91 una estrella adulta.

 No obstante, esta estrella adolescente ya es lo suficientemente brillante como para poder ser observada, y emite potentes vientos estelares en las bandas de radio y de los rayos X. Todas estas manifestaciones electromagnéticas de mucho más poder que la fuerza gravitacional.

RNO 91 es una estrella variable con la mitad de masa que nuestro Sol. Los astrónomos han detectado un disco de polvo y hielo a su alrededor, con un radio 1700 veces superior a la distancia entre la Tierra y el Sol. Se piensa que este disco podría albergar embriones planetarios, y que podría terminar formando un sistema planetario como es lo usual.

Esta imagen está basada en los datos recogidos por el Telescopio Espacial NASA/ESA Hubble. Judy Schmidt envió una versión de esta fotografía a la competición de procesado de imagen “Los Tesoros Ocultos del Hubble”.

 (*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

 

Admin · 72 vistos · 1 comentário
Categorias: Primeira categoria

Ir para a página: Página precedente   … 50 … 9697, , 98 … 419 … 741  Próxima página