Un gran matemático Suizo.

Leonhard Euler 2.jpg

“El Gran Matemático suizo Leonhard Euler”

 

Compilado por Manlio E. Wydler (*)

No hay científico que no venere al matemático suizo Leonhard Euler, de cuyo nacimiento se celebra este año el tricentenario. Hanspeter Kraft, también matemático (enla Universidadde Basilea) y suizo, ha convertido en trabajo esa devoción. Como presidente dela Comisión Eulerse ocupa de popularizar la figura del gran matemático y sobre todo de publicar su extensísima obra, tarea aún incompleta. Los trabajos de Leonhard Euler, a quien Laplace llamó “el maestro de todos los matemáticos”, componen casi un millar de títulos entre libros y artículos, además de 40.000 páginas de textos manuscritos, de los que, según Kraft, sólo un 10% se conoce bien.

Leonhard Paul Euler  (Basilea, Suiza, 15 de abril de 1707San Petersburgo, Rusia, 18 de septiembre de 1783), conocido como Leonhard Euler, fue un matemático y físico suizo. Se trata del principal matemático del siglo XVIII y uno de los más grandes y prolíficos de todos los tiempos. Mi corazoncito de ascendencia suiza se enorgullece.

Vivió en Rusia y Alemania la mayor parte de su vida y realizó importantes descubrimientos en áreas tan diversas como el cálculo o la teoría de grafos. También introdujo gran parte de la moderna terminología y notación matemática, particularmente para el área del análisis matemático, como por ejemplo la noción de función matemática.[] Asimismo se le conoce por sus trabajos en los campos de la mecánica, óptica y astronomía.

 Euler, además de un genio, dice Kraft, era “una persona amable, de trato fácil, generoso con los demás, alegre…”. Uno de sus colegas escribió que trabajaba “con un niño en sus rodillas y un gato en los hombros”. Tuvo trece hijos -sólo tres vivieron más que él-. Vivió sus primeros 20 años en Basilea y después 30 y 25 años en San Petersburgo y Berlín respectivamente. De éstos y otros detalles habló Kraft en la jornada sobre Euler celebrada recientemente en Madrid, en el Museo Nacional de Ciencia y Tecnología-2007-.

Pregunta. ¿Cómo pudo Euler producir tanto?

Respuesta. Euler vivía en muy buenas condiciones. Tenía una gran casa, un montón de gente trabajando para él… Seguramente trabajaba día y noche, y era una persona amable, de trato fácil, generoso… Pero bueno, simplemente cuando empezaba a pensar, enseguida daba con algo, mientras que a los demás nos cuesta años que salga algo interesante. Era un fenómeno.

P. ¿Qué cree que pensaría Euler de las matemáticas que se hacen hoy?

R. Desde luego las cosas han avanzado, pero no creo que Euler, con su inteligencia, tuviera ningún problema para entender lo que hacemos. Por supuesto en análisis numérico, en álgebra… todo ha cambiado mucho. Pero él fue quien dio el primer empujón, quien abrió las primeras puertas.

P. ¿Qué quiere decir que las cosas han cambiado mucho?

R. Le pondré un ejemplo con la circulación de la sangre. Las ecuaciones que usó Euler dan una descripción teórica del fenómeno, pero para él era obvio que no podía calcularlo. Y a la vez era consciente de que tal vez en algún momento se podría hacer. Y ahora lo estamos haciendo. O, por ejemplo, tomemos la famosa fórmula poliédrica de Euler [que relaciona el número de caras, vértices y aristas de un poliedro regular]. Hoy en día es un caso especial de un enorme teorema que aún recuerda a Euler en su nombre. Euler fue también el primero en ver que una pelota, una elipse, un cubo… como cuerpo son esencialmente lo mismo [como opuestos por ejemplo a un donut o una taza con asa, que tienen agujeros]. Eso fue absolutamente fantástico: es lo que hoy llamamos topología algebraica, uno de los campos más importantes de investigación. Y él fue quien dio el primer empujón. Sorprendente.

P. ¿Cómo es posible que haya trabajos de Euler aún sin publicar?

R. La Comisión Euler se creó hace casi un siglo. Inicialmente se dijo que las obras completas de Euler, Opera Omnia, constarían de unos 46 volúmenes, que nos llevarían entre 20 y 30 años de trabajo y que costarían 500.000 francos suizos. Ahora vamos por 76 volúmenes y estimamos acabar la publicación entre 2010 y 2012, con otros siete volúmenes. Cinco de ellos serán cartas. Lo que la gente no sabe es que Opera Omnia no son sólo en artículos; hay también unas 3.000 cartas y además 40.000 páginas manuscritas. ¿Se puede imaginar?

P. ¿Dónde se guarda todo ese material?

R. Ése es un gran problema. Las 40.000 páginas están en el archivo de San Petersburgo, que no está en muy buenas condiciones. Tenemos mucho miedo de que estos documentos se estropeen, es urgente hacer algo.

P. Aunque no haya sido publicada, toda la producción de Euler habrá sido leída por investigadores en los archivos…

R. Las publicaciones han sido leídas y estudiadas al detalle. Pero las notas y manuscritos no han sido estudiadas hasta ahora, con algunas excepciones. Diría que no más del 10% han sido estudiados.

P. ¿Piensan publicarlos todos?

R. La mayoría de las cartas serán publicadas, pero no todas. Y definitivamente no publicaremos en papel todos sus manuscritos. Hoy en día hay herramientas mucho mejores. Nuestro plan es digitalizar todos los documentos y ponerlos en una web para que todos los investigadores las puedan usar gratis. (Preferiría el papel)

P. ¿Quién financia el trabajo?

R. La Academia y la Fundación Nacional de la Ciencia suizas.

P. ¿Cabe encontrar sorpresas en los manuscritos no estudiados? ¿Errores, por ejemplo?

R. No esperamos encontrar en ellos sorprendentes ideas y resultados nuevos. Pero podrían clarificar cuestiones históricas, como quién hizo esto antes y quién estuvo influenciado por quién. Algo interesante es que si miras los trabajos de Newton, Leibniz… todo era en latín. Euler en cambio puedes leerlo y entenderlo. Él cambió completamente la manera de escribir matemáticas; introdujo símbolos importantes, como los de las funciones o el símbolo para una suma. Pero la cuestión de los errores… hay una página en que prueba la fórmula poliédrica. Yo diría que con los estándares actuales no aceptaríamos eso como prueba. Pero las ideas básicas están. La prueba rigurosa tardaría otros 100 o 200 años en llegar.

P. O sea, los matemáticos trabajan hoy de forma distinta a como lo hacía Euler.

R. No tanto. El gran paso vino antes de Euler y después de Euler. Luego el cambio fue que hubiera más o menos rigor, también porque sabemos mucho más, y cosas que antes se daban por buenas ahora sabemos que hay que asegurarlas más.

P. Euler trabajaba sólo con papel y pluma. ¿Cómo pudo seguir trabajando después de quedarse ciego?

R. Perdió un ojo a los 31 años, y el otro a los 63 tras una operación de cataratas que salió mal. Pero simplemente siguió trabajando. Pensaba y dictaba a un secretario que le releía las cosas. Pero debía de tener una memoria increíble, algo no muy habitual en un matemático. (Conozco uno ahora que es así, mi amigo Julio Argentino Kenigstein, que ve muy poco, pero dicta clases de todos los niveles solo con su prodigiosa memoria).

P. En tiempos de Euler, ¿era más fácil que ahora hacer grandes aportaciones a las matemáticas porque había más por descubrir? ¿Es posible tener un Euler hoy?

R. Sí. Esta gente siempre existe. Euler tenía más posibilidades porque todo estaba empezando y era más fácil construir algo. Ahora hay ya muchos “edificios” y no es tan fácil, pero desde el punto de vista de producir nuevas ideas, abordajes completamente nuevos… Sí, hay chicos así todo el tiempo.

P. ¿Quedan aún muchas puertas por abrir en matemáticas?

R. Sí, sin duda alguna.

Las Matemáticas, como hemos visto tiene sus límites axiomáticos, cosa que hemos notado en los trabajos de Kurt Gödel. Tengo grandes esperanzas en las nuevas generaciones que tendrán exponentes superpotentes  mentales, ayudados por la inteligencia artificial y la Telepatía que dará sorpresas hoy impensables.

Fuente: El País. Y Wikipedia.

(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

Un sexto dedo.

“Antecesor del panda tenía seis dedos”

 

Compilado por Manlio E. Wydler (*)

 

Un equipo de científicos del Museo Nacional de Ciencias Naturales de Madrid ha encontrado en unos fósiles del yacimiento de Batallones —situado entre Pinto y Valdemoro, en Madrid— restos de un “falso pulgar” de un antepasado del actual panda rojo. Un hallazgo que, en palabras del investigador Manuel Salesa, “ofrece nuevas claves sobre la evolución de dos tipos distintos de pandas que existen hoy”.

Los pandas más conocidos en la actualidad son los denominados “gigantes”, de color blanco y negro, mientras que sus parientes menos comunes, los rojos, son de tamaño más pequeño, como un gato grande. Ahora se ha demostrado que proceden de especies completamente diferentes. Ambos presentan el “sexto pulgar”, pero nunca hasta ahora se había encontrado esta protuberancia en un fósil.

La investigación, que publica esta semana la revista Proceedings of the National Academy of Sciences (PNAS), analizó los restos del “falso pulgar” de este antepasado del panda rojo llamado Simocyon, y que fue encontrado, junto con decenas de otros restos de animales carnívoros, a principios de los años 90 en el yacimiento de Batallones, enla Comunidad de Madrid.

Este yacimiento es uno de los más importantes de la región, puesto que aunque no hay restos humanos, sí se han encontrado multitud de fósiles de animales —sobre todo carnívoros— que hace unos nueve millones de años cayeron en las trampas naturales del terreno, lo que ha dado a los científicos un extensísimo campo de trabajo con los fósiles allí encontrados, sobre todo de osos, tigres de dientes de sable, hienas primitivas, mustélidos y un anfición.

Además, los arqueólogos hallaron hace unos años restos de dientes y del cráneo del Simocyon, y de ellos se deducía ya su relación con el panda rojo, aunque no se sabía nada de su esqueleto ni de la existencia de ese “falso pulgar“. Ahora han encontrado la prueba misma: los huesos del “sexto dedo“.

Este “falso pulgar” es un huesecillo alargado de forma cilíndrica, con una faceta de articulación, surgido de la muñeca del animal, y no es un dedo propiamente dicho para agarrar objetos, como en el caso de los humanos.

De los restos dentarios que se conservan de Simocyon, los científicos estiman que estos animales eran carnívoros carroñeros, o en todo caso cazadores, por lo que la función del “falso pulgar” no habría sido para ayudarles a atrapar las ramas de bambú para alimentarse —como hacen los osos panda o los osos rojos en la actualidad— sino para trepar a los árboles.

Esto demuestra que quienes sostenían que ambos animales estuvieron relacionados en la antigüedad están equivocados. “Ya cuando se estudió el ADN de ambos tipos de animales se vio que el panda gigante sí que era un oso, mientras que el rojo venía de otra familia. Ahora tenemos la prueba de que, efectivamente, son completamente diferentes, aunque ambos han desarrollado el ‘falso pulgar’“, señaló a elmundo.es Salesa.

Los investigadores creen que en el caso del Simocyon, el “sexto dedo” le servía para trepar a los árboles más fácilmente y escapar de sus depredadores. De hecho, el hueso de estos animales del pleistoceno es mucho más pequeño que el que en la actualidad tienen los pandas.

(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario.

 
Giant Panda 2004-03-2.jpg

Una fuente que se seca

“Un manantial que se seca”

Por Manlio E. Wydler (*)

 

No podía ser diferente, si las principales fuentes de innovaciones dejan de tener financiación para realizar investigación y aún peor, van desapareciendo las metas de cosas a investigar, porque la industria deja de tener necesidad de verdaderas innovaciones, los blogs de divulgación tienen que sentir el cimbronazo.

 

Solo se habla de estudios poco complicados y de muy dudosa importancia.

 

Muchas publicaciones no tocan temas alienígenas, ni de ingeniería inversa, ni anomalías de diferentes temas. De esta forma evitan comentar una realidad muy rica a la cual ignoran.

 

Si en cambio hablan de temas imposibles como la materia oscura, la energía oscura, la velocidad de la luz como algo restrictivo, de las comunicaciones radiales o televisivas de civilizaciones aliens. Todas cosas que la realidad muestran como eventos muy poco probables. Nadie que viaja entre las estrellas se comunicará con las lentas frecuencias.

 

Proyectos de exploración regidos por motores químicos por demás obsoletos. Una historia  humana basada en las páginas dela Biblia.Enormesconstrucciones pétreas, realizadas con utensilios de cobre y sin grúas, etc. No pueden hablar convincentemente de mucho. Los misterios nos rodean y si los negamos y no los estudiamos, no tendremos forma de perseverar en tener blogs pletóricos de artículos.

 

Trato de leer todos los blogs que puedo y veo que los temas se repiten sin agregar nuevos conocimientos. Muchos artículos son perogrulladas.

 

El nivel de los temas es muy desigual y generalmente tienden todos a la baja. Ni dan ganas de ser leídos. Muchos están plagados de errores e inexactitudes.

 

Otros hablan de cosas no probadas como si lo fueran, no haciendo ciencia sino dogmas religiosos.

 

Veo que mis Blogs crecen en un día, más que otros lo hacen en una semana..Me convenzo que ellos son los mejores Blogs del Multiverso.

 

(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

No toquen a Kurt Gödel

“No toquen a Kurt Gödel”

 

Compilado por Manlio E. Wydler (*)

 

La importancia del teorema de Gödel es notable al conocer y desenvolverse en la Lógica y sus implicaciones. Sus términos y explicación así como tales implicaciones son simples, la demostración del teorema es harto compleja De allí la importancia de Gödel: demostró una situación que está al alcance de todos entender pero que no es tan evidente como parece.

 

En ese sentido, puesto que su demostración es difícil de entender (dados los medios que ocupa que son de Matemática avanzada), sólo cabe explicar de qué trata el teorema sin ahondar en cómo resolver un escollo que ha sido librado por otras personas (Kurt Gödel, George Boolos, entre otros que han demostrado el teorema). Esto es factible totalmente: haciendo una analogía con los autos, se pueden entender aspectos automotrices sin ser Ingeniero Automotriz. Esta es la pretensión: entender el teorema de Gödel sin tener que acudir más que a ciertas ideas y ejemplos que no corresponden directamente con la demostración.

 

En 1930, Gödel se doctoraba con una tesis que publica posteriormente como artículo en una revista de Matemática (Monatsheft der Mathematik und Physik) y donde muestra que en la Lógica toda proposición válida es deducible. Una vez dada la base de la Lógica y la suficiencia de su validez fue posible demostrar lo que hoy se conoce como el teorema de Gödel y que aparece en su Sobre las proposiciones formalmente indecidibles de los Principia Mathematica y sistemas afines: Todo sistema formal coherente es necesariamente incompleto. En este mismo trabajo redacta un segundo teorema (aparte de los otros diez que ayudan a obtener tanto el primero como el segundo aquí expuestos) aún más inquietante: Todo sistema formal coherente no puede demostrar su coherencia por sus propios medios.

 

Hasta el momento no se ha definido nada sobre lógica, coherencia, completitud, etc. Así que la explicación procederá de aquí. Un ejemplo bastará para entender la terminología al respecto. Vale la pena aprehender esto para entender los alcances de nuestro propio pensamiento (que se rige por la Lógica). Tomando un caso cotidiano, el cubo

 

El cubo Rubik, creado en la década de los ochenta por el húngaro del mismo apellido, el atento jugador sabe que partiendo de la configuración con un sólo color para cada cara del cubo y revolviendo los colores posteriormente se debe llegar a la configuración inicial. Es fácil entender que no es imposible llegar a la configuración de inicio si una vez ya se encontraba allí. Este juego es el ejemplo más claro (y cotidiano, así como simple) de un concepto fundamental: es un ejemplo de sistema formal. Los sistemas formales son en el título del trabajo de Gödel los nombrados sistemas afines a los Principia Mathematica.

 

Un sistema formal son símbolos, reglas para manipular los símbolos, ambos que permiten obtener fórmulas. Una fórmula, en sentido análogo a cualquier idioma, es equivalente a una oración. Por ejemplo, los símbolos para cierto idioma son las palabras del vocabulario, las reglas de manipulación de símbolos son la gramática de dicho idioma y como ya se había mencionado, las fórmulas son las oraciones. Este ejemplo no es tan cotidiano y no es tan sencillo, de allí que la explicación que se pretende no parta de una idea como esta. Utilizando al cubo Rubik, los símbolos son los colores, las caras y el cubo mismo. Las reglas son todos los movimientos físicamente posibles, es decir, los giros del cubo. Las fórmulas son cada una de las formas que puede tomar el cubo; la configuración inicial de un cubo Rubik es una de muchas fórmulas (configuraciones del cubo).

 

Este ejemplo es más simple porque no requiere de la interpretación social de las lenguas, ni de conocimientos previos en Matemática, sino de conocimientos laicos y neutros además de empíricos que son accesibles a todos. Entendiendo lo que es un sistema formal (siempre es fácil remitirse al cubo para entender lo que es un sistema formal), cabe decirse lo que Lógica significa. Para ello se tiene otro aspecto del cubo: si bien la idea inicial es revolverlo y llegar a la configuración inicial, en principio la idea se puede ampliar para obtener diversas configuraciones a manera de reto (cruces, mosaicos, etc.). Con este nuevo aspecto del cubo la idea de sistema formal es adecuada para el ejemplo. Retomando a los idiomas, su intención inicial puede ser expresar exclusivamente una frase pero su utilidad radica en obtener una gran variedad de configuraciones, de frases.

 

Entonces, la Lógica sería, con el cubo, la aplicación de series de pasos que se tienen que seguir para llegar a las configuraciones. A la series de pasos (giros) que se tienen que seguir para llegar a una configuración del cubo se les llama, con terminología de Lógica, deducción. En este punto es fácil ver que la conclusión de la tesis doctoral de Gödel es cierta para el cubo, recordándola, todo proposición válida es deducible, y trasladándola al cubo, toda configuración válida del cubo es obtenible por giros.

Parece algo obvio, pero no lo es. Y es que las demostraciones de Gödel son un claro ejemplo de ideas simples que involucran un grado de complejidad amplio. Sin acudir a la demostración, es fácil de ver esto para el cubo. La palabra válida está resaltada porque sólo son válidas las configuraciones que admiten un cubo, los seis colores en el cubo, y giros. Así son validas tanto configuraciones físicamente comprobables como configuraciones imaginables que cumplan con estas características en su fundamentación. En la Lógica las proposiciones válidas están determinadas de un modo similar, con características bien conocidas (mismas que se expresan en los Principia Mathematica de Bertrand Russell).

 

Es necesario poner en contexto el trabajo de Gödel en la década de los años treinta. David Hilbert propone que la Matemática pueda ser obtenida como un sistema formal coherente, completo y deducible. Si tomamos al cubo, esto equivale a proponer un juguete del tipo cubo Rubik que pueda tener una y sólo una configuración cada vez entre movimientos (coherencia), que cumpla con todas las configuraciones válidas (completitud) y que cada una de estas configuraciones (las imaginadas y las físicamente observables) sean obtenibles por giros (deducibilidad). En esencia parece que es posible obtener un cubo de este tipo. Lo mismo se pensaba para la Matemática: una Matemática donde cada uno de sus aspectos no se contradigan entre sí (coherencia), una Matemática donde todos los teoremas imaginables válidos sean posibles (completitud) y una Matemática donde todos los aspectos de ésta sean deducibles (deducibilidad).

 

Gödel demuestra que ninguna de estas intenciones es posible a la vez que las demás. El primer teorema de Gödel dice que todo sistema formal coherente es necesariamente incompleto. Aplicado al cubo, todo cubo que implique tener una y sólo una configuración cada vez necesariamente implica que no todas las configuraciones válidas (como se definieron las válidas) son obtenibles (por giros).

 

Una forma de ver esto es únicamente imaginando configuraciones del cubo que en efecto son imposibles de formarse a partir de la configuración inicial pero que admiten los seis colores y los giros, por ejemplo la disgregación de todos los colores en todas las caras, es decir, que cada cara tenga cada uno de los colores sin ser adyacentes entre sí.

 

Es más, es imposible tener configuraciones donde dos colores no sean adyacentes entre sí. Esto muestra la incompletitud del cubo, o sea, no todas las configuraciones válidas son obtenibles.

Cabe notar lo siguiente: las configuraciones propuestas son refutables. Más claro, que sean refutables significa que con Lógica se puede decir si son imposibles o no. Sin embargo, no las podemos construir. En ello radica la incompletitud. Se puede decir si son posibles o no, pero a pesar de ello NO se pueden obtener. Esta consecuencia es crucial para la Matemática entera. Hay teoremas que si bien son verdaderos, no se pueden deducir. Así, Gödel demuestra que para todo sistema formal (incluyendola Matemática y el cubo Rubik) hay aspectos o configuraciones que aún siendo verdaderos o verdaderas no se pueden deducir u obtener.

 

Estamos acostumbrados a que todas las verdades matemáticas son deducibles. El teorema de Pitágoras tiene deducción (y por tanto demostración), el teorema de Tales tiene deducción (y por tanto demostración), el número √2 se puede deducir (y por tanto demostrar) irracional, y aún así existen aseveraciones que son verdaderas y no tienen deducción (y por lo tanto tampoco demostración) en la Matemática. El problema es aún mayor: cada vez que un teorema imaginable y válido se propone, sólo se puede declarar 100% verdadero si tiene demostración. En ello se basa la importancia del primer teorema de Gödel. ¿Cómo saber qué proposiciones son de este tipo (indemostrables, no deducibles)? Según el teorema de Gödel, es imposible saberlo. ¿Por qué? Porque cualquier método para hallar teoremas de este tipo es una demostración de estos teoremas.

Retomando al cubo, ¿cómo saber qué configuraciones son de este tipo? En virtud del teorema de Gödel esto es imposible de saberse porque aún hallando “todas” (si es posible hallarlas) las configuraciones posibles, esto no garantiza que la configuración imaginada válida no pueda ser obtenida por otro método o algoritmo. Lo único que se garantiza son los métodos que no llegan a esta configuración. Aún más, se tendrían que conocer todos los algoritmos posibles para obtener configuraciones, situación que no es posible: tantos algoritmos como queramos son posibles.

 

Existe una salida que aún así se reduce al primer teorema de Gödel y es el segundo teorema de Gödel. Aquí es necesario remitirse a las configuraciones propuestas imposibles (la de colores disgregados y colores no adyacentes). Se sabe que son imposibles de formar pero esto no se demuestra construyendo todas las configuraciones posibles sino con métodos externos al cubo. Esto es, se puede demostrar que son imposibles por otros medios que no impliquen girar al cubo sino, por ejemplo usar teoremas de Topología. La Topología es un sistema formal externo (ajeno) al cubo y es posible que demuestre algo indemostrable para el cubo. No obstante la Topología para ser coherente (como dice Gödel) debe ser incompleta y el problema que queda resuelto para el cubo queda sin resolver para la Topología.

 

La Matemática es susceptible de esta situación. Para que la Matemática sea coherente tiene que ser incompleta y por lo tanto existen teoremas que no se pueden demostrar por medio de la Matemática sino con otros sistemas formales que igualmente son susceptibles de esto. Es el cuento de nunca acabar. Este es el segundo teorema de Gödel: todo sistema formal coherente no puede demostrar su propia coherencia por sus propios medios. Y es que demostrar la coherencia de un sistema formal implica que todos los teoremas no se contradigan entre sí.

 

Volviendo al cubo, demostrar que sólo se tiene una y sólo una configuración cada vez en el cubo implica obtener “todas” la configuraciones del cubo para saber si no se interponen entre sí, situación que en virtud del primer teorema es imposible (porque no se pueden obtener todas las configuraciones sólo girando el cubo). La Matemáticallega a lo mismo: no se puede demostrar que todos los teoremas verdaderos de la Matemáticano se contradicen entre sí porque simplemente (como ya se había dicho) no se puede deducir todos los teoremas de la Matemática. La coherencia de los sistemas formales en efecto es indemostrable por los métodos del mismo sistema.

 

Todo esto tiene una consecuencia muy importante: si se siguen los medios de la Lógicasiempre es necesario recurrir a medios diversos y externos para demostrar todo lo que se desee demostrar. Debido a ello, si el cubo Rubik es indemostrable en una de sus partes, se recurre a otro medio (que incluso puede inventarse) para explicar y demostrar aquel aspecto indemostrable del cubo. Como este otro medio debe ser un sistema formal (para que sea coherente), se tiene algún aspecto nuevamente indemostrable del mismo y se recurre nuevamente a otro medio. ¿No es así como evoluciona el saber humano?

Hallamos el saber desde lo más sencillo y al no poder demostrar ciertas situaciones, el nivel de sofisticación de los medios empleados para demostrar es mayor y el conocimiento al respecto también. Así del cubo se pasa a la Topología (que en efecto es más compleja). En casos más profundos, de la Aritmética se pasa al Álgebra, del Álgebra a la teoría de cuerpos, etc. En la ciencia ocurre algo similar. De la ley de gases ideales a las ecuaciones cúbicas, de las ecuaciones cúbicas al concepto de fugacidad y sus métodos, etc.

 

El pensamiento lógico implica la incompletitud de los medios, la incompletitud implica saber más de otros medios y se garantiza la necesidad de saber ilimitadamente si se desean demostrar todos los teoremas verdaderos de TODO.

 

Basándose en una frase atribuida a Gödel, sobre que nada sería suprior a la noción de un ser superior, dos científicos alemanes C. Benzmüller y su colega Woltzenlogel entran en escena. Usando un ordenador MacBook ordinario han demostrado que el raciocinio de Gödel era correcto, al menos en un nivel matemático, por medio de una mayor lógica modal. Su presentación inicial en el servidor de artículos de investigación arXiv.org se llama ‘Formalización, mecanización y automatización de la prueba de la existencia de Dios de Gödel’.

 

El hecho de que la formalización de teoremas tan complicados se pueda delegar a los ordenadores abre todo tipo de posibilidades, señaló Benzmüller a ‘Spiegel Online’. “Es totalmente increíble que a partir de esta discusión dirigida por Gödel, todo esto se pueda probar de forma automática en pocos segundos o incluso menos en un portátil estándar”, agregó.
 
El nombre de Gödel puede no significar mucho para algunos, pero entre los científicos goza de una reputación similar a la talla de Albert Einstein, quien por cierto fue su amigo cercano. Nacido en 1906 en lo que entonces era el Imperio Austrohúngaro y ahora es la ciudad checa de Brno, Gödel estudió en Viena antes de mudarse a Estados Unidos después de que estallarala Segunda Guerra Mundial para trabajar en Princeton, donde Einstein también estaba radicado.

 

La primera versión de esta prueba ontológica data de notas fechadas en torno a 1941, pero no fue hasta la década de los 70, cuando Gödel temió que podía morir, que se hizo pública por primera vez.

 

Acá,  a favor de la complejidad de estos-en verdad dos teoremas- los matemáticos informan haber desarrollado este tipo de observaciones con un ordenador común en pocos segundos y yo me pregunto, como se pueden realizar infinitos resultados que implicaría incompletitud de los medios, y estos resultados que implican saber más de otros medios hasta el infinito y a su vez garantizando la necesidad de saber ilimitadamente, si se desean demostrar todos los teoremas verdaderos.

 

Ningún ordenador pequeño ni grande puede realizar infinitos cálculos durante el tiempo que sea.  La demostración es imposible dentro de nuestro espacio-tiempo.

 

(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

 Kurt Gödel, Matemático checo:

 
1925 kurt gödel.png

Proyectos de la NASA, nulos.

“Proyectos de la NASA, que no se realizaron”

 

Compilado por Manlio E. Wydler (*)

 

Sabemos quela NASA, ha sufrido casi su desmantelado, por razones económicas y por el cambio total de sus proyectos que hoy cuentan con tecnologías muy avanzadas provenientes de la ingeniería inversa, lograda sobre las naves aliens y posteriormente por pactos en colaboración, supersecretos.

 

Según indican las fuentes,la NASAestuvo desarrollando una aeronave para un solo pasajero en el año 2008, llamada Puffin como un acercamiento a los transportes personales del futuro.

 

El piloto, va dentro del Puffin en una posición boca abajo, de manera que cuando aterriza o despega se encuentra completamente erguido. La aeronave tiene capacidades VTOL, es decir debe aterrizar y despegar de manera vertical. Al estar sobre el suelo, la base se divide en cuatro apoyos para ofrecer mejor estabilidad, pero durante el vuelo las palas se unen formando la cola. La aeronave mide3,65 metrosde altura y4 metrosde envergadura, suficiente lugar para cualquier tipo de persona.´

 

El Puffin  es capaz de viajar a una velocidad  de241 kilómetrospor hora y a máxima velocidad puede llegar a los482 kilómetrospor hora. Además, al funcionar puramente con electricidad no necesita tomar aire, lo que le permite alcanzar los9144 metrosde altura antes de tener que descender para recargar la batería.

 

Dependía también  de un futuro desarrollo de baterías potentes y livianas aptas para la función aeronáutica.

 

De este proyecto, nunca más se habló.

 

(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

 

Damocoides.

“Asteroides que se gasificas y pulverizan explosivamente en la atmósfera”

 

Compilado por Manlio E. Wydler (*)

 

En la madrugada del 13 de julio de 2012, una roca de unas 2 toneladas de masa chocó contra la atmósfera terrestre, en vertical sobre la Comunidadde Madrid. A pesar de la hora, pasaban cinco minutos de las dos de la madrugada, numerosas personas fueron testigos de la desintegración del objeto. Era imposible que pasara desapercibido. El impacto generó una enorme bola de fuego, la más brillante registrada hasta ahora en España, que pudo ser vista a lo largo de todala Península Ibérica.

 

Se produjo lo que se conoce como un superbólido, pues el brillo fue tan intenso que en la zona centro del país la noche se convirtió en día durante una fracción de segundo, llegando a iluminarse en Granada las montañas de Sierra Nevada, situadas a casi 350 kilómetros del epicentro del evento. Desde Huelva y Almería, por ejemplo, el objeto pudo verse del tamaño y la luminosidad de la Luna llena. Esta colisión fue registrada por muchos de los detectores que la Red Española de Investigación sobre Bólidos y Meteoritos opera a lo largo de todo el país, así como por una cámara situada en el Observatorio Astronómico de Calar Alto.

 

Ahora, una investigación liderada por el profesor José María Madiedo, de la Universidadde Huelva, ha analizado el fenómeno para saber qué ocurrió exactamente y de dónde llegó esa roca. Según se desprende del estudio, publicado en la revista Monthly Notices of the Royal Astronomical Society (MNRAS), la roca chocó contra la Tierra a una velocidad enorme: más de 80.000 kilómetros por hora. El brusco choque con el aire elevó la temperatura de la roca hasta unos 5.000 grados centígrados, haciendo que finalmente estallase a 35 kilómetros de altura sobre la Comunidad de Madrid.

 

«Si en lugar de impactar contrala Tierrala roca hubiese colisionado contra un objeto sin atmósfera, como por ejemplola Luna, habría conseguido impactar contra el suelo abriendo un cráter de más de110 metrosde diámetro», informa Madiedo.

 

Una de las conclusiones más fascinantes del estudio, según el investigador, tiene que ver con el origen del objeto. Normalmente las rocas que impactan contra la Tierra proceden de cometas o de asteroides. Los primeros están formados por hielo y roca, tienen una consistencia relativamente baja y contienen grandes cantidades de materiales volátiles. Los segundos son rocas que, por lo general, tienen una elevada consistencia y poca cantidad de sustancias volátiles.

 

Los investigadores observaron que la roca que impactó sobre Madrid tenía características comunes tanto a asteroides como a cometas. Justo después del impacto se determinó que el objeto seguía una órbita cometaria, por lo que podía proceder de un cometa, pero análisis posteriores indicaron que compartía también características típicas de asteroides, pues era mucho más resistente que los fragmentos de hielo y roca cometarios. Además, el estudio de composición química reveló que su contenido en materiales volátiles era muy pequeño.

 

En realidad, según el nuevo trabajo, la roca procedía de un tipo de objeto denominado damocloide, tan extraño que hasta la fecha sólo se han identificado 88 en nuestro Sistema Solar, frente al más de medio millón de asteroides que han sido observados y catalogados. Esta sería, además, la primera vez que se observa el impacto contrala Tierra de una roca desprendida de un damocloide.

 

Los damocloides son objetos que siguen una órbita cometaria y que pueden tener dos orígenes diferentes. Algunos de ellos son núcleos de cometas muertos, que han perdido su contenido en material volátil después de acercarse al Sol en repetidas ocasiones. Otros son asteroides que hace unos 4.000 millones de años fueron expulsados por la gravedad de los planetas gigantes hasta zonas más externas de nuestro Sistema Solar, terminando en órbitas de tipo cometario.

 

Los astrónomos creen que este sería el origen más probable de la roca que impactó sobre Madrid. La mayoría de los damocloides que pertenecen a este segundo grupo desaparecieron hace miles de millones de años, al impactar contra los planetas interiores (Mercurio, Venus, La Tierra y Marte) al volver a aproximarse al Sol. La roca que nos alcanzó el 13 de julio de 2012, aunque lo hizo mucho más tarde, también terminó impactando contrala Tierra.

Otro bólido, captado por una cámara del Observatorio Astronómico deLa Hita(Toledo), que impactó en abril de 2013-Foto de abajo.

 

 

(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

Desvelan el origen de la gran bola de fuego que estalló sobre Madrid

 

Demasiado ruido y pobres resultados.

“El sistema Seti Home se desactiva  ya que siempre está al borde del precipicio.”

 

Compilado por Manlio E. Wydler (*)

 

El 21 de diciembre de 2005: “Abandonaremos el proyecto SETI@Home Classic el 15 de diciembre”, anunciaba un e-mail remitido recientemente por los administradores de Seti@Home desdela Universidadde California en Berkeley, donde comenzó en 1999. “Las unidades de trabajo de usuarios y equipos se congelará en ese momento y los resultados totales de la investigación estarán disponibles en la página web”

La búsqueda de inteligencia extraterrestre del proyecto SETI@Home (Search for Extra Terrestrial Intelligence at Home) se basaba en el aprovechamiento de los ciclos de CPUs inutilizados de millones de usuarios conectados a Internet en todo el mundo para analizar datos recogidos de grandes radiotelescopios. Descargado como salvapantalla, el software de SETI@Home recogía datos del banco central de servidores del proyecto y buscaba patrones que pudieran interpretarse como señales de vida inteligente: posibles programas de TV, comunicaciones por radio u otro tipo de señales de procedencia extraterrestre. Siempre dije que las civilizaciones que viajan por las estrellas más rápido que la luz, no usarían frecuencias por obsoletas. Son muy lentas.

SETI es un fracaso en el 2013 y a pesar de las grandes antenas y de funcionar –en la parte particular como salvapantallas, la potencia global de todos los terminales participantes ha sido siempre enorme; en concreto, se han conseguido un total acumulado de dos millones de años de tiempo de CPU, alrededor de 50 TB de datos y alrededor de cinco millones de usuarios.

A partir de ahora, según sus responsables, SETI@Home seguirá en funcionamiento pero de otro modo. El proyecto se integrará al Berkeley Open Infrastructure for Network Computing (BOINC), un proyecto basado en recursos de redes abiertas con los mismos principios que el proyecto original.

La nueva infraestructura continuará con la búsqueda de señales de radio extraterrestres, pero ahora además la potencia de CPU de los participantes se dedicará también a investigar sobre otras tareas, como el cambio climático, la astronomía y la cura de enfermedades.

¿Que sucede hoy en el 2013, luego de ocho años con el sistema de  la app BOINC, de carácter altruista y colaborativo. BOINC (Berkeley Open Infrastructure for Network Computing) que es una app enfocada a colaborar en proyectos científicos, poniendo a disposición de éstos nuestro móvil o, mejor dicho, la potencia y capacidad del mismo que no consumimos

 

En realidad, como es lógico, el proyecto es abierto a todo tipo de dispositivos, no sólo smartphones. La lógica del asunto es que el tiempo que no estamos usando el ordenador supone un recurso potencial desperdiciado que puede ser aprovechado por la comunidad científica para sacar adelante multitud de proyectos.

 

Boinc es un proyecto de la Universidadde California, que básicamente hace de enlace entre los proyectos científicos que buscan esa “energía” extra y nosotros, los donantes. Algo así como un crowdfunding de potencia computacional. Podremos elegir entre los muchos proyectos científicos en curso. Para ello, cada proyecto explicará sus metas y sus métodos, y a qué campos se aplican. Así, encontraremos trabajos enfocados a la astrofísica, astronomía, la medicina, químicas, matemáticas…

 

Veamos un ejemplo. A día de hoy, cuando entramos en la app, nos encontramos al menos cuatro proyectos con los que colaborar. Elegimos el así llamado Einstein@Home. En la descripción se nos explica que con nuestra ayuda ellos tratan de detectar signos astrofísicos provenientes de estrellas de neutrones, y que, en los últimos años, se han descubierto ya 3 docenas de ellas gracias a la colaboración computacional de nuestros móviles.

 

Una vez sabido esto, no hay mucho que hacer. Nuestro móvil comenzará a trabajar por su cuenta (nos pedirá que esté enchufado y conectado a la red). Podremos ver algunas fotos del proyecto (en este caso, del espacio, siempre espectaculares), y en la pestaña de “Tareas” ver el proceso en el que está trabajando el móvil en ese momento.

 

Esto es más o menos BOINC, una red de colaboración científica desinteresada, y un ejemplo de cómo la tecnología doméstica y la interconectividad puede hacer del mundo un lugar mejor.

 

Solo hay un problema, cuanto esto afecta nuestra privacidad, cuanto esto nos cuesta y cuán responsable es este sistema de bloquear el tráfico entre servidores. Esto nadie lo dice. Por lo tanto me abstengo y aviso.

 

(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

 

Antena de Arecibo, Puerto Rico:

 

 

El sistema Alfa del Centauro

“Sistema Alfa Centauro, Alfa, Beta y Próxima”

 

Compilad por Manlio E. Wydler  (*)

 

Durante mucho tiempo se consideró que la formación de planetas podía haberse dado en este sistema, aunque hasta el año 2012 en que se descubrió un planeta casi del tamaño dela Tierraenla Centaro B, no se tenían datos sobre su existencia. Se consideraba que de haber planetas, éstos estarían situados de una forma muy restrictiva, ya que la gravedad de la estrella vecina desestabilizaría fácilmente sus órbitas.

 

Alfa del Centauro A, enana amarilla poco mayor que el Sol, orbita a Beta del Centauro, enana anaranjada, algo menor que el Sol a una distancia variable como la del Sol a Urano, mientras que próxima del Centauro es una pálida enana roja muy chica, tan alejada de las otras dos que tarda 88 años en completar una órbita alrededor de las dos.

Matemáticamente, conocer la posición de las órbitas estables en el sistema Alfa Centauri es un problema sin solución, ya que hay que estudiar los efectos de la gravedad de tres cuerpos simultáneamente:

Mientras que el problema de los dos cuerpos tiene solución mediante el método de las cuadraturas integrales, el problema de tres cuerpos no tiene solución general por dicho método y en algunos casos su solución puede ser caótica. Aquí tenemos otro límite de CAOS

A  finales del siglo XIX Henri Poincaré (1854-1912), matemático francés, introdujo un nuevo punto de vista al preguntar si el Sistema Solar sería estable para siempre. Poincaré fue el primero en pensar en la posibilidad del caos, en el sentido de un comportamiento que dependiera sensiblemente de las condiciones iniciales. En 1903 Poincaré postulaba acerca de lo aleatorio y del azar en los siguientes términos:

El azar no es más que la medida de la ignorancia del hombre, reconociendo, a la vez, la existencia de innumerables fenómenos que no eran completamente aleatorios, que simplemente no respondían a una dinámica lineal, aquellos a los que pequeños cambios en las condiciones iniciales conducían a enormes cambios en el resultado. Esta afirmación, además, está directamente relacionada con la teoría de variables ocultas. De este modo se comenzó la búsqueda de las leyes que gobiernan los sistemas desconocidos, tales como el clima, la sangre cuando fluye a través del corazón, las turbulencias, las formaciones geológicas, etc.

De todas formas, estudios realizados a partir de simulaciones parecen demostrar que existen órbitas estables hasta de unas 2 ua si el planeta orbita una de las estrellas principales en el mismo plano en el que ellas giran, y sólo hasta 0,23 ua para órbitas perpendiculares; y a partir de 70 ua si orbita a las dos a la vez; los planetas tendrían en estas condiciones órbitas estables al menos durante el tiempo de vida.

La unidad astronómica (abreviada ua, au, UA o AU) es una unidad de longitud igual por definición a 149.597.870.700 metros[] que equivale aproximadamente a la distancia media entre el Sol yla Tierra.

Hasta ahora solo se descubrió un solo planeta el Alfa Centauri Bb. Fue detectado utilizando el espectrógrafo Échelle de alta precisión HARPS, en el Observatorio de La Silla de Chile. Con una masa estimada similar a la de la Tierra, orbita su estrella a una distancia aproximada de seis millones de kilómetros (una distancia más pequeña que la que dista de Mercurio con respecto al Sol en nuestro Sistema Solar, muy lejos de la zona de habitabilidad, haciendo que las posibilidades de vida tal y como conocemos sean prácticamente nulas) y realiza una translación alrededor de su estrella cada 3,2 días.  Es apenas más chico que la Tierra, rocoso, pero está demasiado cerca de la estrella. Su temperatura estará en los 1500 grados, lo que la hace brillar en el infrarrojo.

 

Desde un planeta a ser descubierto, en zona habitable, los cielos podrían ser vistos de la siguiente forma:

Observado desde el interior del sistema binario, el cielo (aparte del sistema de tres estrellas) se vería casi idéntico a cómo se ve desde la Tierra, con la mayoría de las constelaciones, como la Osa Mayor y Orión, prácticamente sin cambios. Sin embargo, la constelación de Centauro perdería su estrella más brillante y el Sol aparecería como una estrella de magnitud 0,5 en la constelación de Casiopea, cerca de ε Cassiopeiae. Su ubicación es fácil de calcular, ya que sería lo contrario de la posición de α Centauri como se ve desdela Tierra: 02h 39m 35s haría ascensión recta y declinación +60° 50′ 00″. Un hipotético observador vería que la característica “\ / \ /” Cassiopeia convertida en “/ \ / \ /”.

Las estrellas más brillantes y cercanas como Sirio y Proción estarían en posiciones muy diferentes, así como Altair con una diferencia menor. Sirius sería parte de la constelación de Orión, dos grados al oeste de Betelgeuse, un poco más débil que se ve desde la Tierra (-1,2). Fomalhaut y Vega, en cambio, al estar lo suficientemente lejos, serían visibles casi en la misma posición. Próxima Centauri, aunque parte del mismo sistema, sería apenas visible a simple vista, con una magnitud de 4,5. Un observador situado en un hipotético planeta orbitando ya sea A o Alpha Centauri Alpha Centauri B vería la otra estrella del sistema binario como un objeto muy brillante en el cielo nocturno, es decir, un disco pequeño pero discernible.

Por ejemplo, un hipotético planeta similar la Tierraorbitando alrededor de 1,25 UA de Alpha Centauri A (la estrella aparece casi tan brillante como el Sol visto desde la Tierra) vería Alpha Centauri B recorriendo todo el cielo una vez aproximadamente cada año uno y tres meses o 1.3 periodos orbitales. Sumado a esto sería el cambio de posición aparente de Alpha Centauri B durante su largo periodo de ochenta años de órbita elíptica con respecto a Alpha Centauri A (comparable en velocidad a la órbita de Urano con respecto al sol). Dependiendo de la posición en su órbita, Alpha Centauri B podría variar en magnitud aparente entre -18,2 (más oscuro) y -21,0 (el más brillante). Estas magnitudes visuales son mucho más débiles que el observado en la actualidad -26,7 magnitud para el Sol, visto desde la Tierra. La diferencia de 5,7 a 8,6 magnitudes significa Alpha Centauri B al parecer, en una escala lineal, 2500 a 190 veces menos brillante que Alpha Centauri A (o el Sol visto desde la Tierra), pero también 190 a 2500 veces más brillante que la magnitud de -12,5 Luna llena vista desde la Tierra.

Además, otro planeta similar a la Tierraorbitando a 0,71 UA (Unidad astronómica) de Alpha Centauri B (para que a su vez Alpha Centauri B parecía tan brillante como el Sol visto desde la Tierra), este planeta hipotético recibiría un poco más de luz desde el Alfa más luminosa Centauri A, que brillaría 4,7 a 7,3 magnitudes más débil de Alfa Centauri B (o el Sol visto desde la Tierra), que varían en magnitud aparente entre -19,4 (más oscuro) y -22,1 (el más brillante). Así, Alpha Centauri A aparecería entre 830 y 70 veces menos brillante que el Sol, pero 580 a 6900 veces más brillante que la Luna llena. Durante el período orbital tal planeta de 0,6 (3), un observador en el planeta vería este círculo estrella compañera intensamente brillante del cielo tal como lo vemos con los planetas del Sistema Solar. Por otra parte, el período sideral de aproximadamente ochenta años de Alpha Centauri A significa que esta estrella se movería a través de la eclíptica local como poco a poco a medida que Urano con su período de ochenta y cuatro años, pero como la órbita de Alpha Centauri A es más elíptica, su magnitud aparente será mucho más variable. Aunque intensamente brillante para el ojo, la iluminación global no afectaría significativamente el clima ni influiría en la fotosíntesis normal de la plantas.

Un observador en el hipotético planeta notaría un cambio en la orientación de los puntos de referencia para VLBI (interferometria de muy larga base) en consonancia con la periodicidad órbita binaria más o menos los efectos locales como la precesión o nutación. Suponiendo que este hipotético planeta tenía una inclinación orbital baja con respecto a la órbita mutua de Alpha Centauri A y B, entonces la estrella secundaria comenzaría al lado de la principal en conjunción ‘estelar’. La mitad del último período, en oposición ‘estelar’, ambas estrellas estarían una frente a la otra en el cielo. Luego, alrededor de la mitad del año planetario el aspecto del cielo nocturno sería un azul más oscuro – similar al cielo durante la totalidad de un eclipse solar total. Sus hipotéticos habitantes tendrían suficiente visibilidad para caminar y ver con claridad el terreno circundante, y la lectura de un libro sería muy posible sin ningún tipo de luz artificial. Después de otro medio período de órbita estelar, las estrellas completarían su ciclo orbital y volver a la próxima conjunción, y al ciclo similar ala Tierra de día y noche ciclo.

En ambos casos, el sol secundario viajaría a través del cielo durante el año, empezando y terminando al lado de la principal, a la mitad del periodo estaría en la dirección opuesta: entonces tendría las condiciones del “sol de medianoche“, con al menos uno o dos días sin cambio día-noche.

Esperemos que con la combinación entre los telescopios de tierra y el James Webb, o mejor el ATLAST, podamos finalmente encontrar a los escondidos planetas de este sistema y que uno nos muestre un entorno habitable.

(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

Vista artística del planeta Bb y las dos estrellas más grandes del sistema:

 
 
 
 
 
 
 

La formación del rostro.

“El ADN no codificable esculpe nuestro rostro”

 

Compilado por Manlio E. Wydler (*)

 

Un nuevo estudio, llevado a cabo por investigadores del Lawrence Berkeley National Laboratory (Berkeley Lab) de Estados Unidos, ha demostrado que unos  genes potenciadores-unas secuencias reguladoras del ADN que actúan activando o ampliando la expresión de genes específicos- tienen un papel fundamental en el desarrollo craneofacial.

“Nuestros resultados sugieren que podría haber miles de potenciadores en el genoma humano implicados de algún modo con este desarrollo”, explica el genetista y director del estudio, Axel Visel, de Berkeley Lab. La investigación ha aparecido detallada en la revista Science. Curiosamente, ese material genético que moldea nuestras caras pertenece al llamado “ADN no codificante, un material genético que inicialmente se pensaba carecía de función, porque no codifica proteínas.

 

“Los potenciadores (implicados en el desarrollo craneofacial) forman parte del 98% del genoma humano que no codifica ADN, del denominado ADN basura”, afirma Visel.

A pesar del nombre dado en el pasado que se ha dado a este ADN, “cada vez está más claro que este tiene importantes funciones controladoras de los genes codificables”, sigue explicando Visel. Recientes resultados obtenidos en el marco del proyecto Encode dan la razón al investigador, pues han demostrado que el ADN no codificante en realidad constituye un gran panel de control con millones de “interruptores” que regulan la actividad genética. Sin él, los genes no funcionarían y se podrían originar mutaciones que, a su vez, desencadenarían enfermedades.

 

En el caso concreto de la formación de la cara, los potenciadores del genoma implicados estarían constituidos por secuencias cortas de ADN. Visel y su equipo han identificado más específicamente “miles de piezas cortas de ADN (potenciadores) que se encuentran activas cuando la cara y el cráneo están en desarrollo durante el proceso embrionario”, ha señalado el científico. Además, han sido capaces de “crear un mapa del genoma que indica dónde se localizan exactamente” dichas piezas.

 

Este descubrimiento se realizó a partir del análisis de ratones. Estos animales fueron escogidos porque “los cráneos de humanos y ratones son muy parecidos, contienen casi los mismos huesos, aunque de una manera ligeramente diferente”, recalca el científico. Además tanto los genes como los potenciadores que regulan el desarrollo de la cara en ambas especies “son similares”.

 

Para entender el cambio del rostro durante la gestación, los investigadores se centraron en secuencias cortas de ADN previamente identificadas por su influencia genética sobre la composición craneal. Estos potenciadores fueron extraídos de la cadena de ADN de los roedores.

 

Tras ocho semanas de gestación, Visel y su equipo observaron los embriones de estos ratones alterados genéticamente a través de una microtomografía computarizada. Los resultados indicaron que los roedores transgénicos, en comparación con los no alterados, poseían unos cambios muy sutiles en la cabeza y el conjunto maxilofacial. Poseían cráneos más largos, cortos, estrechos o anchos, ligeras variaciones causadas por la supresión de los potenciadores.

 

Estos resultados nos ayudarán a entender mejor cómo se codifican las instrucciones para la construcción de la cara en el ADN humano, es decir, cómo una simple secuencia se puede traducir en una estructura tridimensional compleja.

 

El rostro humano tal y como lo conocemos hoy, la cara ‘moderna’, habría aparecido en alguna población humana hace al menos un millón de años, como vimos en otra investigación.

 

(*) Ingeniero, Presidente de FAPLEV, Vecino Solidario 2001.

 

Un nuevo límite del CAOS, cuando los electrones engordan.

 

” Électrons poids Le gain de près de zéro absolu ”

Compilé par Manlio E. Wydler (*)

Rutgers physiciens montrent comment de la prise de poids ‘ électrons dans le métal près des simulations informatiques de la température du zéro absolu peut fournir des indices pour comprendre le supercondictividad et fabriquer de nouveaux matériaux supraconducteurs

 

Des physiciens de l’Université de Rutgers ont effectué des simulations informatiques qui montrent comment les électrons pourraient être mille fois plus massives dans certains composés métalliques lorsqu’ils sont refroidis à des températures proches du zéro absolu – le point où tout mouvement cesse . Les modèles peuvent fournir de nouveaux indices sur la façon supraconductivité fonctionne et comment de nouveaux matériaux supraconducteurs pourraient être fabriqués .

 

Dans un article publié sur le site Science Express sur les rapports de recherche servant projet pour les éditions imprimées de la revue Science, les chercheurs décrivent comment les électrons interagissent avec d’autres particules dans ces composés se transformer en ce que les physiciens appellent un fluide de « quasi-particules lourdes » ou « liquide de fermions lourds . ” Bien que cet effet a été observé dans certaines matières rpeviamente , le travail Rutgers emploie de nouveaux matériaux pour fournir un niveau de détail qui avait été insaisissable jusqu’à maintenant pour les scientifiques.
” Dans cet article, suivre essentiellement le sort des électrons quand nous diminuons la température », a déclaré Gabi Kotliar , professeur de physique à l’École des Arts et des Sciences . « Physiciens expérimentateurs ont pu voir différents aspects de ce comportement , ou peut-être vu des comportements qui ne comprennent pas . Nos calculs concilier ce qu’ils ont vu .

 

Les chercheurs de Rutgers ont basé leurs modèles sur des expériences en utilisant de nouveaux composés de métaux cristallins fabriqués à partir d’éléments de césium , Indio et Iridium . Ces et d’autres composés similaires qui se substituent cobalt et le rhodium pour iridium sont d’excellents bancs d’essai pour observer le comportement des électrons lourds.

 

Des recherches antérieures utilisé des matériaux supraconducteurs à haute température appelée cuprates , qui n’ont pas réussi à donner une vision claire du comportement physique due à la maladie dans la structure cristalline causés par le dopage. Les nouveaux composés à base de césium sont plus faciles à étudier parce qu’ils sont exempts de dopage.

 

” Les nouveaux composés sont pour nous ce que les mouches des fruits pour les chercheurs en génétique », a déclaré Kristjan Haule , professeur adjoint de physique et d’astronomie . ” Les mouches des fruits sont faciles à produire et ont une composition génétique simple est facile à modifier . De la même manière , ces composés sont faciles à créer , de structure simple et ajustable , nous donnant une vision plus claire des nombreuses propriétés de la matière qui se posent à de basses températures . Par exemple , nous utilisons un champ magnétique pour détruire la supraconductivité et examiner l’état de la matière à partir de laquelle la supraconductivité se pose ».

Ces composés sont des exemples de matériaux fortement corrélés , ou matériaux à électrons fortement en interaction, qui ne peuvent être décrites par des théories qui traitent les électrons comme des entités largement indépendantes. Le terme « quasi-particules lourdes ” se réfère à la façon dont les électrons interagissent les uns avec les autres , en raison de ces interactions , la formation d’un nouveau type de particule appelée «quasi- particules ».

Expliquer comment cet effet apparaît à basse température et disparaît au plus petits, des points Haule que F électrons orbitaux sont étroitement liés à des atomes de cérium à des températures élevées . Mais quand la température baisse, les électrons ont un comportement cohérent , ou l’emplacement de leurs atomes . A 50 degrés au-dessus du zéro absolu , soit 50 degrés Kelvin , les chercheurs observent clairement quasi-particules comme les électrons interagissent les uns avec les autres et d’autres électrons dans le métal comme les électrons de conduction .

 

Le travail effectué par Haule et ses collègues est une branche de la physique connues comme la physique de la matière condensée , qui traite des propriétés physiques de la matière solide et liquide. Leurs modèles de quasi-particules lourdes se nourrit des travaux antérieurs de Haule fusion de deux théories de modèles atomiques , connu comme approximation de la densité locale et la dynamique de la théorie de champ moyen , ou LDA + DMFT .

 

En collaboration avec Haule et Kotliar était Ji- Hoon Shim, un stagiaire postdoctoral .La Divisionde la recherche sur les matériaux dela National ScienceFoundation et le Centre Rutgers pour la théorie des matériaux soutenu cette recherche . Shim a reçu une bourse de recherche postdoctorale dela Fondationde Corée du Sud .

 

Aujourd’hui, nous savons que, à des températures très basses , les photons sont convertis en électrons et des électrons dans sa décadence de la vitesse orbitale de zéro degré où les électrons sont dans le noyau avec les protons pour former des neutrons .

 

Les électrons prennent du poids jusqu’à ce qu’ils deviennent des neutrons , la vitesse angulaire des électrons , si diminue, le poids de l’électron serait encore .

 

Cet effet physique est lié au système anti-gravité de vaisseaux provenant inverse métier étranger de génie faite sur frappée d’une enquête par les USA , depuis un demi- siècle .

 

(*) Ingénieur. FAPLEV président , de la Solidarité Voisin2001.

Un modèle moléculaire étudiés par les physiciens de Rutgers. Dans cette représentation de la structure cristalline de la matière minérale CeIrIn5 , sphères rouges , d’or et de gris correspondent aux césium , l’iridium et l’indium , respectivement .

 

 

 

“Los electrones ganan peso cerca del Cero Absoluto”

 

Compilado por Manlio E. Wydler (*)

 

 

 

Físicos de Rutgers demuestran cómo los electrones “ganan peso” en metales cerca de la temperatura del cero absoluto: simulaciones por ordenador pueden proporcionar claves para la comprensión de la supercondictividad y fabricar nuevos materiales superconductores

Físicos dela Universidadde Rutgers han realizado simulaciones por ordenador que demuestran cómo los electrones podrían hacerse mil veces más masivos en ciertos compuestos metálicos cuando se enfrían a temperaturas cercanas al cero absoluto – el punto donde todo movimiento cesa. Los modelos pueden proporcionar nuevas pistas sobre cómo funciona la superconductividad y cómo podrían fabricarse nuevos materiales superconductores.

En un artículo publicado en Science Express, sitio web sobre informes de investigación que sirve de borrador a las ediciones impresas de la revista Science, los investigadores describe cómo interactúan los electrones con otras partículas en estos compuestos para metamorfosearse en lo que los físicos llaman un fluido de “cuasi-partículas pesadas” o un “fluido de fermiones pesados”. Aunque este efecto había sido observado rpeviamente en algunos materiales, el trabajo de Rutgers emplea nuevos materiales para proporcionar un nivel de detalle que había sido esquivo hasta ahora para los científicos.

“En este artículo, esencialmente rastreamos el destino de los electrones cuando disminuimos la temperatura”, dijo Gabi Kotliar, Profesor de Física enla Escuelade Artes y Ciencias. “Los físicos experimentales pueden haber visto distintos aspectos de este comportamiento, o pueden haber visto comportamientos que no comprendían. Nuestros cálculos reconcilian lo que han visto”.

Los investigadores de Rutgers basaron sus modelos en experimentos usando nuevos compuestos metálicos cristalinos hechos a partir de los elementos Cesio, Indio e Iridio. Estos y otros compuestos similares que sustituyen al cobalto y al rodio por iridio son excelentes bancos de pruebas para observar el comportamiento de electrones pesados.

Anteriores investigaciones usaron materiales superconductores de alta temperatura llamados cupratos, que fallaron al dar a los físicos una visión clara del comportamiento debido a los desórdenes en la estructura cristalina causado por el dopaje. Los nuevos compuestos basados en el cesio son más simples de estudiar debido a que están libres de dopantes.

“Los nuevos compuestos son para nosotros lo que las moscas de la fruta para los investigadores genéticos”, dijo Kristjan Haule, profesor asistente de física y astronomía. “Las moscas de la fruta son fáciles de producir y tienen una composición genética simple que es fácil de modificar. De la misma forma, estos compuestos son fáciles de crear, estructuralmente simples y ajustables, dándonos una visión más clara de las muchas propiedades de la materia que surgen a bajas temperaturas. Por ejemplo, podemos usar un campo magnético para acabar con la superconductividad y examinar el estado de la materia a partir del cual surgió la superconductividad”.

Estos compuestos son ejemplares de materiales fuertemente correlacionados, o materiales con electrones de interacción fuerte, que no pueden describirse mediante teorías que traten los electrones como entidades mayormente independientes. El término “cuasi-partículas pesadas” se refiere a cómo interactúan los electrones entre sí, como resultado de esas interacciones, formando un nuevo tipo de partícula llamada una “cuasi-partícula”.

Explicando cómo este efecto aparece a bajas temperaturas y se desvanece a otras más altas, Haule apunta que los electrones de los orbitales f están fuertemente unidos a los átomos de Cerio a altas temperaturas. Pero cuando la temperatura cae, los electrones exhiben un comportamiento coherente, o de localización de sus átomos. A 50 grados por encima del cero absoluto, o 50 grados Kelvin, los investigadores observan con claridad cuasi-partículas como electrones interactuando entre sí y otros electrones en el metal como electrones de conducción.

El trabajo realizado por Haule y sus colegas está en una rama de la física conocida como física de materia condensada, la cual trata con las propiedades físicas de la materia sólida y líquida. Sus modelos de cuasi-partículas pesadas se nutre del anterior trabajo de Haule fusionando dos teorías de modelos atómicos, conocida como aproximación de densidad local y teoría de campos de media dinámica, o LDA+DMFT.

En colaboración con Haule y Kotliar estuvo Ji-Hoon Shim, profesor de posdoctorado. La división de Investigación de Materiales dela Fundación Nacionalde Ciencia y el Centro Rutgers para Teoría de Materiales apoyaron esta investigación. Shim recibió una beca de investigación posdoctoral dela Fundación de Sud- Corea.

Hoy sabemos que a bajísimas temperaturas, los fotones se transforman en electrones y los electrones, decaen en su velocidad orbital donde a cero grado los electrones están en el núcleo formando neutrones con los protones.

Los electrones ganan peso hasta que se transforman en neutrones, la velocidad angular de los electrones, si disminuye, aumenta el peso que tendría el electrón inmóvil.

Este efecto físico está emparentado con el sistema antigravitacional de las naves derivadas de la ingeniería inversa efectuada sobre las naves alien siniestradas investigadas por USA, desde hace medio siglo.

(*) Ingeniero. Presidente de FAPLEV, Vecino Solidario 2001.

 

Un modelo molecular estudiado por los físicos de Rutgers. En esta representación de la estructura cristalina del mineral CeIrIn5, las esferas rojas, doradas y grises corresponden al cesio, iridio e indio