2008/12/27

El espín, el misterioso giro de las partículas cuánticas

En la física clásica las partículas como el electrón eran consideradas puntuales. Sin embargo, años antes de que en 1922 Stern y Gerlach realizaran un experimento que permitía deducir que los electrones tienen un momento magnético intrínseco (por giro sobre sí mismo) con sólo dos valores posibles, ya eran conocidas ciertas anomalías (efecto Zeeman anómalo) con relación al desdoblamiento de líneas espectrales esperado. Esto, por muy extraño que pareciera entonces, sólo podía ocurrir si los electrones giraban sobre sí mismos (observación, al final del post) y no eran, por tanto, partículas puntuales. En 1926 los jóvenes físicos Goudsmit y Uhlenbeck propusieron la atrevida idea de que el electrón tiene un momento angular (o cinético) intrínseco (el espín), es decir, que la partícula gira "de alguna manera" sobre sí misma de modo que produce precísamente ese momento magnético anómalo observado.

La ecuación de Dirac:

Durante algún tiempo no se supo cómo incluir ese espín en la ecuación de ondas del electrón, hasta que Dirac trabajando para construir una teoría cuántica-relativista del electrón encontró, sin buscarlo, justamente el mismo campo magnético que surge del modelo de electrón con espín. En sus propias palabras: " No me interesaba incluir el espín en la ecuación de onda, ni siquiera consideré esa cuestión. Fue una gran sorpresa para mi descubrir después que el caso más simple ya implicaba el espín."

La obtención por Dirac de una ecuación que, partiendo de primeros principios, permite deducir el espín fue recibida con enorme expectación entre sus colegas en las navidades de 1927, antes de su publicación en los Proceedings of the Royal Society a principios de 1928. Esta ecuación proporcionaba la explicación de los niveles energéticos esperados para el átomo de hidrógeno (sus líneas espectrales : cada tipo de átomo emite un conjunto único de colores, estas líneas de color o líneas espectrales son la "firma" de los átomos).

El espín es un concepto puramente cuántico, realmente no un giro físico:

Estableciendo con precisión la teoría cuántica del momento cinético (o angular), se halla que los valores pueden ser múltiplos semienteros de h (+1/2h ó -1/2h). Esto que puede ser paradójico, pues sugiere la existencia de una acción menor que h o mínimo cuanto de acción, se resuelve precisamente introduciendo el concepto de espín (o momento cinético intrínseco). Mientras que el momento cinético orbital siempre es entero, el espín puede ser semientero.

El espín es un concepto puramente cuántico: clásicamente, el momento angular intrínseco de una partícula puntual sólo puede ser nulo (un punto no puede girar sobre sí mismo). Con relación a los campos cuánticos el espín está relacionado con el número de componentes del campo. siendo S es espín del campo, el número de componentes será igual a 2S+1. Así, un campo escalar es un campo de un componente, es decir, un operador definido en cada punto del espacio-tiempo, y un solo observable o magnitud medible de tipo escalar; los cuantos asociados son partículas de espín cero. Un campo vectorial, como el campo eléctrico, por ejemplo, es un campo de tres componentes: tres operadores en cada punto del espacio-tiempo (tres observables o magnitudes a medir asociadas cada una a un operador). Los cuantos asociados son partículas de espín 1. Las partículas de espín 1/2 son los cuantos de un campo de dos componentes o campo espinorial. Un campo tensorial es un campo de cinco componentes, como el gravitatorio; los cuantos asociados son partículas de espín 2, como el llamado gravitón.

Partículas de fuerza y partículas de materia:

Gracias a la ley de conservación del momento cinético, no hay problema de "semicuanto de acción": si, en una transición, el momento cinético es semientero en el estado inicial, lo es también en el estado final y, por tanto, toda interacción implica un múltiplo necesariamente entero del cuanto de acción. Esta ley de conservación del carácter semientero del momento cinético indica que las partículas de espín semientero encierran una propiedad, en cierto modo indestructible. De hecho, todas las partículas de materia, los fermiones, son partículas de espín semientero, mientras que los cuantos de los campos de interacción o fuerza, los bosones, son partículas de espín nulo o entero. Respecto a los fermiones, el principio de exclusión de Pauli manifiesta la impenetrabilidad de la materia. Mientras que dos o más bosones pueden estar en el mismo estado y la magnitud de la fuerza que representan aumenta, dos fermiones no pueden estar en el mismo estado a la vez según el principio de exclusión de Pauli. Los bosones son partículas de fuerza y los fermiones de materia.

El misterioso "giro" de las partículas cuánticas las convierte en fermiones o partículas de materia, o en bosones o partículas de fuerza. En partículas impenetrables o en partículas capaces de sumar su fuerza para dar mayor o menor intensidad a las interacciones de la materia.

Es recomendable leer el post:La extraña medida cuántica en un espacio de infinitas dimensiones: el espacio de Hilbert.
También el post sobre el condensado Bose-Einstein.

(**) Observación importante: En un principio la explicación lógica era pensar en un giro físico de las partículas que originaría el momento observado, pero la explicación correcta era la introducción de un número cuántico adicional con sólo dos valores posibles, +1/2 h y -1/2 h. Realmente el espín es una propiedad puramente cuántica que se manifiesta como un giro, con su momento correspondiente asociado. No es físicamente un giro de la partícula.

2008/12/16

Números primos, números de una sola pieza

Entre los números naturales 1, 2, 3 ,4 , 5, 6, 7, ,..., , n, existen unos números especiales que sólo son divisibles por la unidad y por ellos mismos. Estos números son llamados números primos y desde que se conocen han producido una extraña fascinación entre los matemáticos. Existen infinitos, Euclides realizó la primera demostración conocida de su infinitud alrededor del 300 a.C., pero su distribución, aparentemente aleatoria, sigue siendo una incógnita.

En cierta forma, estos números podríamos decir que son "de una pieza", y todos los demás números naturales se pueden construir a partir de ellos mediante un proceso llamado factorización. Los primeros números primos menores de cien son: 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89 y 97. Cada uno de ellos sólo se puede escribir como: 2 = 2, 3 = 3,..., 29 = 29,..., 67=67, ..., etc. Mientras que el resto de números naturales necesitan expresarse en función de los números primos: 4 = 2x2, 9 = 3x3, 6 = 3x2, 8 = 2x2x2, ...,30 = 2x3x5, etc.


Se conoce una importante expresión llamada teorema de los números primos que nos da la cantidad de números primos que existen hasta un determinado número. Aproximadamente, para números suficientemente grandes, la expresión es: cantidad de números primos = (número)/Logaritmo Neperiano(número). Aplicando la fórmula para (número)=1000, obtenemos 145 primos, cuando en realidad hay 168. Para 5000 nos acercamos un poquito más, la expresión nos da 587 y en realidad existen 669, y conforme probamos números mayores nos acercamos más, aunque las cifras convergen muy lentamente: para 1000 el 86,3%, para 5000 el 87,7% y para 50000 el 90%.

Lagunas con ausencia de números primos:

Entre 1 y 100 existen 25 números primos, como hemos visto, y en la lista observamos grupos de números compuestos, una especie de lagunas con ausencia de números primos: del 24 al 28 y del 90 al 96. Entre el 100 y el 200 hay 23 primos: 101, 103, 107, 109, 113, 127, 131, 137, 139, 149,151, 157, 163, 167, 173, 179, 181, 191,193, 197, 199. Y encontramos lagunas como la del 182 al 190. Nos podemos preguntar si existen lagunas más grandes entre números primos. A simple vista, parece que no vamos a encontrar ninguna de estas lagunas de forma clara con una suficiente cantidad de números, pero no es así. Podemos encontrar tantas como queramos y de la longitud que deseemos, para ello utilizaremos la siguiente expresión (pueden encontrarse muchas más): n!+2 , desde 2 hasta n. Vamos a ver algunos ejemplos: para n=3, 3!=3x2x1=6; 6+2=8 y 6+3=9. Hemos encontrado la primera laguna formada por el 8 y el 9. Seguimos con n=4: 4!=4x3x2x1=24; 24+2=26, 24+3=27 y 24+4=28. Hemos encontrado tres números compuestos seguidos, pero con esta expresión podemos encontrar cuantos queramos, por ejemplo 101 números seguidos (al menos): 102!+2, 102!+3, 102!+3, ..., 102!+101,102!+102.

¿De cuántas piezas están hechos los números?

Volviendo al título del post, se pueden ver los números compuestos como formados por piezas de números primos. Un número compuesto cualquiera, por ejemplo, el 6 es igual al producto de dos números primos 2x3, podemos considerarlo como formado por dos piezas, la pieza 2 y la pieza 3. En cambio los números primos, como el 7, están formados por sólo una pieza. En un símil musical el número primo podría considerarse como armónico principal y único, y el número compuesto como una composición de armónicos primos que formarían su espectro o descomposición factorial.

Analizando la factorización de un número como producto de números primos, podríamos imaginar que cualquier número está formado por tantas piezas como factores primos lo componen. Se observa como curiosidad que los números del orden de 100 estarían formados, como media, por un producto de 2,7 números primos, los del orden de 1000 por un producto de 2,96 números primos, los de 10000 por un producto de 3,16 números, los de 100000 por 3,3, los de 1000000 por 3,42 y los de 10000000 por 3,64. Observamos que la cantidad de "piezas" necesarias para formar cualquier número aumentan muy lentamente, y ese aumento, además, decrece. Es un tanto asombroso que mientras un número de 3 cifras necesita tres primos para factorizarse (está hecho de tres piezas), uno de 10 cifras sólo necesita cuatro (está hecho de cuatro piezas). Claro que al hablar de piezas estas son tan dispares como el 3 y el 2000003, ambos son números primos.

En un extraño (e imaginario) mundo cuántico formado por números enteros, sería fácil descubrir los números primos. Todos los números compuestos se verían como una borrosa superposición de armónicos primos mientras que los números primos aparecerían claros y estables con una sola configuración fácilmente distinguible. Algo de esto debe le debe ocurrir a Daniel Tammet, un joven autista inglés con una sorprendente capacidad para los números. Cuando piensa en ellos ve formas, colores y texturas que le permiten distinguirlos de una manera asombrosa. Al multiplicar dos números ve dos sombras; al instante aparece una tercera sombra que se corresponde con la respuesta a la pregunta. Cuando piensa en algún número sabe reconocerlo como primo o compuesto. Estuve viendo el reportaje sobre su vida, sus facultades como matemático y su prodigiosa memoria. Sus capacidades son asombrosas. En una semana logró aprender, desde cero, suficiente islandés (un idioma catalogado como muy difícil) para mantener perfectamente una entrevista en la televisión de Islandia.

A alguien le podría parecer que el estudio de los números primos no tiene ninguna utilidad, desde luego se equivoca (ojo, el algoritmo de encriptación RSA nos permite las transacciones fiables). Cualquier saber matemático, por muy absurdo que nos parezca está relacionado con infinidad de campos aparentemente inconexos. Cualquier avance en el conocimiento sobre los números primos, por ejemplo, podría ser decisivo para resolver algún problema del campo más increible que se nos ocurra, tanto matemático como físico. La realidad es conexa y conforme la vamos comprendiendo vemos que el conocimiento que tenemos de ella también lo es.


Una novela sobre investigación de números primos:

Sobre los números primos recuerdo haber leído una novela interesantísima titulada "El tío Petros y la conjetura de Goldbach". La trama discurre a través de las vicisitudes de un matemático obsesionado por comprobar la famosa conjetura de Goldbach sobre los números primos, uno de los problemas abiertos más antiguos en matemáticas. Su enunciado es el siguiente: Todo número par mayor que 2 puede escribirse como suma de dos números primos. Confieso que logró atraparme al igual que le ha pasado a infinidad de lectores. Es muy entretenida y recomendable.

... Mi agradecimiento a la página Descartes, del Ministerio de Educación, que me ha facilitado los cálculos de factorización de grandes números que he necesitado.
... Recomiendo visitar esta magnífica página sobre números primos (en inglés).

Nuestro amigo Tito Eliatron nos envía dos interesantísimos enlaces de su blog a una charla del matemático, Medalla Fields, Terry Tao: Primera parte de la charla, segunda parte. Gracias Tito.

2008/12/01

Relatividad y espaciotiempo

Hay un antes y un después de la teoría de relatividad especial de Einstein (1905). Es significativo lo que dice Leslie Pearce Williams, profesor Emeritus de la Historia de la Ciencia en la Cornell University de New York, en el prólogo del excelente libro (recopilación de textos) La teoría de la relatividad: sus orígenes y su impacto: “Antes de 1905 era posible explicar la ciencia al profano utilizando términos verbales que, aunque difusos, podían entenderse. Desde entonces esto resultaba ya imposible, porque la cualidad peculiar de la teoría especial de la relatividad era que violaba todos los principios del sentido común… a partir de entonces los modelos ya no eran mecánicos sino matemáticos”.

El tiempo y el espacio absoluto de la mecánica clásica de Newton pasaron a la historia cuando se demostró que no existía realmente una referencia espacial inmóvil, una especie de sustrato que lo llenaba todo llamado “éter lumínico”, ni existía un tiempo universal. Cada sistema pasaba a tener un tiempo y pasaba a ser la referencia para la medida de los demás. Bien es verdad que esto sólo se puede apreciar en los sistemas que se mueven a velocidades no despreciables respecto a la velocidad de la luz, por lo que cualquier medición que realizemos en nuestra vida cotidiana no se ve afectada por las correcciones relativistas.

Trescientos años antes, el gran Galileo Galilei en su notable principio de relatividad ya había observado que no existe modo alguno de distinguir localmente el movimiento uniforme, es decir el movimiento no acelerado, respecto a algún supuesto absoluto inmóvil. Mucho antes que Einstein utilizara los trenes en sus experimentos mentales, de forma similar, Galileo pensaba en la cabina principal bajo la cubierta de un gran barco. Allí no habría forma de distinguir, en los movimientos de los animales encerrados, si el barco permanecía quieto o en movimiento uniforme.

Mucho después, ya en el siglo XIX, el desencadenante de la revolución que supuso la teoría de la relatividad fueron una serie de experimentos que se realizaron en la segunda mitad de la centuria para detectar las corrientes del “éter” sobre la superficie de la Tierra y la influencia de las mismas sobre la velocidad de la luz. El éter era un supuesto material que se creía necesario para la propagación de las vibraciones de la luz en el vacío. En 1887 Albert A. Michelson y Edward W. Morley realizaron en Cleverland (Ohio) un experimento que desde entonces ha adquirido la categoría de clásico. Sus resultados fueron negativos, la velocidad de la luz medida a favor y en contra del supuesto éter resultó ser la misma, y aunque poco después el físico holandés H. A. Lorentz logró salvar la existencia del éter a costa de postular la contracción de los objetos al moverse a través del éter, la vieja concepción del tiempo y el espacio absolutos había sido herida de muerte. La ciencia contemporánea no podía explicar la razón de que la velocidad de la luz fuera siempre la misma, tanto si emanaba de un cuerpo en reposo como si lo hacía de un cuerpo moviéndose a gran velocidad.

Poincaré y Einstein descubrieron, independientemente, que las ecuaciones de Maxwell, relativas a la propagación de las ondas electromagnéticas (la luz es una onda electromagnética) también satisfacen un principio de relatividad similar al galileano sobre su invarianza, al pasar de un sistema de referencia en reposo a uno en movimiento (Lorentz también había abordado esta cuestión hacia 1895).


Einstein tuvo que elegir entre el principio de relatividad (invarianza de las leyes físicas en cualquier sistema de referencia en reposo o en movimiento uniforme) y la física de Galileo-Newton. Si bien estas leyes se habían verificado, siempre había sido a velocidades muy pequeñas comparadas con la velocidad de la luz y eso le dio la clave: la relatividad válida debía ser la inherente a las ecuaciones de la propagación de la luz de J.K.Maxwell.

Poco después de que Einstein publicara el artículo en el que describía su teoría especial de la relatividad (1905) Sobre la electrodinámica de cuerpos en movimiento, su antiguo profesor Hermann Minkowski ponía la guinda que faltaba. En un histórico discurso de inauguración de la 80 reunión de la Asamblea general alemana de científicos naturales y físicos el 21 de septiembre de 1908 pronunció una célebre frase: “Las ideas sobre el espacio y el tiempo que deseo mostrarles hoy descansan en el suelo firme de la física experimental, en la cual yace su fuerza. Son ideas radicales. Por lo tanto, el espacio y el tiempo por separado están destinados a desvanecerse entre las sombras y tan sólo una unión de ambos puede representar la realidad”.

La relatividad especial de Einstein mantiene el principio según el cual las leyes de la física se expresan de la misma manera en dos referenciales en movimiento rectilineo uniforme, en relación uno con el otro. Pero, para que la velocidad de la luz sea la misma en los dos referenciales, como de hecho y según todos los experimentos así ocurre, hay que renunciar al caracter absoluto del tiempo y del espacio (de su métrica espacial). El espacio ya no es independiente del tiempo, ni éste lo es del espacio. Además en las expresiones que ligan los dos conceptos aparece una constante ligada a ambos de forma indisoluble: la velocidad de la luz. Esto hace que las longitudes medidas en un sistema ya no sean invariantes y dependan de la velocidad del mismo, y lo mismo ocurre con los tiempos.

Nuestra percepción basada en el espacio de tres dimensiones que conocemos, con un tiempo independiente del espacio no es exacta. Es válida para nuestro mundo cotidiano (de bajas velocidades comparadas con la de la luz), pero dista de ser la realidad. Hasta tal punto que lo que conocemos como la paradoja de los gemelos no es ni siquiera una paradoja en el nuevo marco del espaciotiempo. En esta paradoja se explica que un gemelo se queda en la tierra mientras el otro sale a viajar, en una nave interplanetaria a velocidades cercanas a la luz, y al volver al cabo de un año encuentra a su hermano veinte o treinta años mayor que él. En la geometría relativista del espaciotiempo de Minkowski, que es una geometría no plana (no euclidiana), el intervalo de tiempo del gemelo que se queda es mayor que los dos intervalos temporales (ida más vuelta) del gemelo que viaja. El gemelo que viaja toma “un simple atajo” en el espaciotiempo. El camino temporal más recto, en el espaciotiempo, no consiste en quedarse en tierra sino en viajar a velocidades elevadas, aunque entonces también intervienen aceleraciones y esto queda dentro del marco de la relatividad general.

Texto extraído de mi columna mensual de Libro de notas: Ciencias y letras.

2008/11/21

La relatividad general y los extraños rayos de luz fantasma

La visión que tenemos de una esfera desde cualquier punto del espacio es invariante, es exactamente la misma, pues la esfera es simétrica respecto a la rotación sobre cualquiera de sus infinitos ejes de simetría. Cada uno de los puntos de observación representa un referencial diferente y la invariancia observada se corresponde con una simetría llamada esférica.

Galileo Galilei, en la primera mitad del siglo XVII, utilizando como ejemplo un barco navegando a una velocidad constante en un mar calmado, describió la denominada invariancia galileana según la cual, y gracias a una simetría subyacente, las leyes fundamentales de la física son las mismas en todos los sistemas de referencia inerciales (movimiento uniforme sin aceleraciones). No se advierte el movimiento, todo transcurre dentro del barco como cuando está parado. Este principio se aplica a la mecánica clásica newtoniana, en la cual las longitudes y tiempos no son afectados por el cambio en la velocidad y se amplió con la relatividad especial de Einstein donde las longitudes y los tiempos ya no son invariantes.

En física, detrás de las invariancias existen una serie de simetrías, en este caso más abstractas que la esférica, que comportan la existencia de leyes de conservación. Eso es lo que establece un bello teorema matemático, debido a Emmy Noether, y, llamado por ello teorema de Noether: A la invariancia respecto a una traslación le corresponde la ley de conservación del momento lineal, a la invariancia ante una rotación la ley de conservación del momento angular y la independencia ante cualquier referencial temporal se asocia a la ley de conservación de la energía.

Para los sistemas acelerados o sujetos a la acción de un campo gravitatorio, Einstein amplió su teoría de relatividad especial dando lugar a una nueva teoría de la gravitación llamada relatividad general, que generalizaba la teoría de gravitación de Newton.Las simetría e invariancias en el ámbito de esta teoría siguen cumpliendo, lógicamente, el teorema de Noether, pero cada vez podemos encontrar fenómenos más extraños y alejados del sentido común.


Uno de estos fenómenos tiene que ver con el título de este post, una especie de luz "fantasma" que aparece y desaparece según el punto de referencia desde el que observemos. Así, consideremos un electrón en caída libre en un campo de gravitación creado por un astro pesado. Para un observador situado en el astro, este electrón parece acelerado y, por tanto, irradia luz. Además, se puede detectar en el suelo esta luz que precede al electrón en su caída, por medio de una célula fotoeléctrica, o incluso de un fotomultiplicador que cuente uno por uno los fotones.

Para un observador en caída libre con el electrón, éste aparece en reposo y, por tanto, no irradia luz. Aunque se ponga ante el electrón un fotomultiplicador, no registrará nada, no detectará luz y no contará fotones. Dicho de otra manera, la luz detectada en un referencial es inexistente en otro. Esta paradoja se debe a que la energía no es un invariante relativista. La energía que transportan los fotones tiende a cero cuando se pasa progresivamente del referencial relacionado con el astro al relacionado con el electrón. La longitud de onda de la luz que está relacionada directamente con la energía de los fotones tiende al infinito (su frecuencia tiende a cero: Energía= h*frecuencia) y las líneas de campo toman la forma de estrella que se les conoce cuando provienen de una carga inmóvil.
Volviendo al símil geométrico:



Si en lugar de una esfera observamos un disco superfino, existen una serie de puntos de observación para los cuales el disco desaparece, sin embargo desde los puntos que pasan por la recta perpendicular al plano del disco la superficie observada será máxima. A diferencia de la esfera, la simetría del disco no es esférica y los puntos de observación en el plano del disco y en el plano perpendicular al mismo no son intercambiables.De la misma forma no son intercambiables los referenciales en el astro y en el sistema de caída libre que acompaña al electrón. En ambos casos es una cuestión de simetrías más o menos especiales y encubiertas, vemos o no vemos el disco por una razón, en cierta forma similar a la posibilidad de observar o no observar los rayos de luz.


2008/11/12

Ciencia de día, ciencia de noche

Se suele imaginar que la actividad investigadora de los científicos es una labor exclusiva de la mente racional y metódica. Algo lejano de lo que no se suele hablar demasiado y al final, precisamente por eso, nos parece todavía más extraño y ajeno .

Hace tiempo leí sobre la curiosa manera que tenía el gran Dirac de juguetear con las ecuaciones, de probarlas y asociarlas de forma no siempre tan racional y metódica como se podría suponer. Sin embargo, esta forma, aparentemente irracional de proceder resulta bastante más frecuente de lo que se suele pensar y me llamó la atención.Se acerca, realmente, a la actividad del artista y deja un sitio importante a la intuición y a la labor creativa. Einstein decía:"Si queréis saber cómo funcionan los científicos, no escuchéis lo que dicen; mirad lo que hacen."

Sobre este tema he leído, recientemente, unas preciosas palabras muy esclarecedoras del Premio Nobel de Medicina, en 1965, François Jacob:"(1)... En los artículos científicos, la razón avanza por una vía regia que va de la oscuridad a la luz. Nada de errores. Nada de falsos juicios. Nada de confusión. Nada que no sea un razonamiento perfecto, y sin la presencia de ningún fallo.

Y, sin embargo, cuando examinamos más de cerca lo que hacen los científicos, constatamos con sorpresa que la investigación supone en realidad dos aspectos que alguien ha denominado ciencia de día y ciencia de noche. La ciencia de día pone en juego razonamientos que se articulan como engranajes, como resultados finales que tienen la fuerza de la certeza. Se admira en ellos la majestuosa disposición, propia de un cuadro de Leonardo da Vinci o de una fuga de Bach. Transitamos por ellos como por un jardín a la francesa. Consciente de su proceder, orgullosa de su pasado, segura de su porvenir, la ciencia de día avanza por la luz y la gloria.

La ciencia de noche, por el contrario, marcha a ciegas. Duda, tropieza, recula, suda, se despierta sobresaltada. Dudando de todo, se investiga así misma, se pregunta, se corrige sin cesar. Es una especie de taller de lo posible, donde se elabora lo que va a ser el material de la ciencia. Donde las hipótesis se mantienen en forma de presentimientos vagos, de sensaciones brumosas. Donde los fenómenos no son aún más que acontecimientos solitarios sin relación entre ellos. Donde los proyectos sobre experimentos apenas toman cuerpo. Donde el pensamiento camina a través de sendas sinuosas, de callejuelas tortuosas, las más de las veces sin salida.

A merced del azar, el espíritu se agita en un laberinto, bajo un diluvio de mensajes, en busca de un signo, de un guiño, de una aproximación repentina. Como un prisionero en su celda, el espíritu no para de dar vueltas, busca la salida, un resplandor. Sin solución de continuidad, pasa de la esperanza al desespero, de la exaltación a la melancolía. Nada permite decir que la ciencia de noche pasará alguna vez al estado de día; que el prisionero saldrá de las sombras. Si esto sucede será de manera fortuita, como por capricho. De improviso, como por generación espontánea. No importa dónde, ni cuando, como un rayo. Lo que guía entonces al espíritu no es la lógica. Es el instinto, la intuición. Es la necesidad de ver claro. Es la obstinación de vivir en el interminable diálogo interno, en medio de innumerables suposiciones, acercamientos, combinaciones, asociaciones que, sin cesar, atraviesan el espíritu.

Un rayo de fuego a veces rompe la oscuridad, alumbra de repente el paisaje con una luz deslumbradora, aterradora, más fuerte que mil soles. Después del primer choque empieza un duro combate con los hábitos del pensamiento. Un conflicto con el universo de conceptos que regula nuestros razonamientos. Aun nada permite decir si la nueva hipótesis cambiará su primera forma de boceto burdo para refinarse o perfeccionarse. si sostendrá la prueba de la lógica o será admitida en la ciencia de día.

...Pero para que sea aceptado un trabajo y admitida una nueva forma de pensar, hay que depurar la investigación de toda escoria afectiva o irracional. Quitarle todo resto personal, todo olor humano. Recorrer la vía real que lleva de una juventud balbuceante a una madurez desarrollada. Reemplazar el orden real de los acontecimientos, de los descubrimientos, por lo que aparece como orden lógico, el que se debió haber seguido si, al principio, la conclusión hubiera sido conocida. Hay un rito en la manera de presentar los resultados científicos. "

Yo me siento más cerca de esa ciencia de noche, más humana y más verdad. En mis modestas investigaciones he experimentado lo que tan bien describe Jacob. Mi ciencia apenas ha salido de la noche, permanece en su celda, buscando todavía la salida y el resplandor definitivo que la transforme con la apariencia de ciencia de día.

Está muy bien cumplir con el rito de presentar la ciencia de forma clara, metódica y ordenadamente, pero en un viaje no sólo importa el destino. El largo viaje, los tropiezos, los extraños compañeros del camino, las alegrías y las penas enriquecen el resultado y al viajero, y prescindir, por completo de ellos, empobrecen a la ciencia y la hacen menos cercana y humana.


(1) Del libro: "El ratón, la mosca y el hombre".

2008/11/03

La extraña medida cuántica en un espacio de infinitas dimensiones: el espacio de Hilbert.


El espacio de Hilbert es una pura construcción matemática pero responde a la perfección a lo que hacía falta para elaborar la teoría cuántica. De no haberse descubierto habría habido que inventarlo para las necesidades de la teoría.

En teoría clásica las cantidades físicas a medir se asocian a simples números, cuyo producto es conmutativo: a*b= b*a . En mecánica cuántica dichas cantidades u observables se asocian a operadores(1) cuyo producto, por el contrario, no es necesariamente conmutativo. Mientras que la física clásica se desarrolla en el espacio ordinario, la mecánica cuántica lo hace en una generalización de este espacio ordinario llamado espacio de Hilbert. Esta generalización permite que operaciones matemáticas intuitivas y fácilmente visualizables en dos y tres dimensiones puedan extenderse a espacios de más dimensiones o, íncluso, a espacios con un número infinito de dimensiones.

Mientras que el espacio ordinario es un espacio vectorial métrico(2), en donde se definen vectores (que podemos identificar como flechitas más o menos largas y orientadas hacia cualquier dirección) como son las fuerzas o las velocidades, en el espacio de Hilbert que tiene infinitas dimensiones los vectores se generalizan como funciones. Las transformaciones que obran sobre los vectores del espacio convirtiéndolos en otros vectores del mismo espacio se llaman operadores(1) . Vectores y operadores tienen propiedades de linealidad: toda combinación lineal, de coeficientes complejos, de vectores es un vector; un operador transforma un vector en otro vector, y toda combinación lineal de vectores, también en un vector. El producto escalar de dos vectores asocia a estos dos vectores un número complejo que depende linealmente de cada uno de ellos. En el espacio ordinario de dos dimensiones si A(a1,a2) y B(b1,b2) son dos vectores, con sus dos coordenadas, el valor a1*b1 + a2*b2 sería el número que expresaría su producto escalar, en base al cual se establece la métrica (2) o la forma de medir en dicho espacio bidimensional.

El formalismo de la teoría cuántica se interesa, por una parte, por los estados del sistema físico y, por otra, por las magnitudes físicas observables relativas a este sistema. Los estados se asocian a los vectores de un espacio de Hilbert y los observables, a los operadores que actúan en este espacio. Un vector del espacio de Hilbert se llama vector propio de un operador cuando la acción de este operador sobre el vector consiste en multiplicarlo por un número llamado propio: (Operador_P) (vector_A) = a0 (vector_A) , siendo a0 el valor propio.

La expresión anterior representa una medida en un sistema cuántico. Al medir el estado del sistema representado por el vector_ A mediante el operador_P hemos encontrado el valor real a0, su valor propio, que corresponde a un observable del sistema representado por el operador. Este observable puede ser una medida de energía, de velocidad, de distancia, etc. El operador más importante de la teoría cuántica es el operador asociado a la energía total del sistema: el hamiltoniano. El total de los valores propios, u observables, del hamiltoniano se llama espectro del sistema. En un sistema atómico, el espectro comprende una serie discreta de valores propios, que se corresponden con los niveles de energía del átomo, nivel fundamental y niveles excitados.

La conmutación y no conmutación de los observables es una de las propiedades más interesantes de la teoría cuántica. Supongamos que dos observables no conmutan, como la posición "q" y el impulso "p", con sus operadores Q y P. Esto significa que no podemos medir el impulso en un estado en que se puede medir la posición, y viceversa. Esta es la expresión rigurosa de la desigualdad de Heisenberg también llamada Principio de Indeterminación.

En la mecánica cuántica una representación de un sistema se define por un conjunto completo de observables que conmutan, y proporciona toda la información susceptible de ser recogida sobre el sistema cuántico.

Lo nuevo respecto a la teoría clásica es que puede haber una segunda representación, es decir, un segundo conjunto completo de observables que conmutan, pero que no conmutan con los de la primera representación. Se dice entonces que las dos representaciones son complementarias. Dependiendo de las magnitudes que midamos (los observables elegidos) tendremos una representación u otra del sistema.

Algo de historia sobre el nacimiento de los espacios de Hilbert:

"¿Quién de nosotros no querría levantar el velo tras el que se esconde el futuro y asomarse, aunque fuera por un instante, a los próximos avances de nuestra ciencia y a los secretos de su desarrollo ulterior en los siglos futuros?".

Así comenzó David Hilbert (1862-1943) su intervención en el Congreso Internacional de Matemáticas celebrado en París en 1900. A continuación planteó 23 problemas que han modelado buena parte del desarrollo de las matemáticas en el siglo XX. Hace 102 años Hilbert era, en contraste con la situación de Einstein durante su annus mirabilis 1905 recién conmemorado, uno de los matemáticos con mayor prestigio y, probablemente, el más influyente.

Por aquellos años, el campo de estudio de Hilbert y sus colaboradores eran las ecuaciones integrales. Los estudiantes de secundaria aprenden que una ecuación es una igualdad entre dos expresiones matemáticas en las que hay un número desconocido, la incógnita, cuyo valor se puede calcular efectuando operaciones. En una ecuación integral la incógnita no es un número, sino una función -una gráfica- cuya fórmula se quiere conocer y que aparece en la ecuación dentro de una integral. En la serie de artículos Fundamentos de una teoría general de las ecuaciones integrales, Hilbert analizó las técnicas introducidas para estudiar estas ecuaciones por Poincaré y Fredholm a finales del XIX, mejorando sus resultados. En el cuarto artículo de esta serie, publicado en 1906, Hilbert prueba que las ecuaciones integrales pueden resolverse como un sistema de infinitas ecuaciones lineales con infinitas incógnitas.

En el bachillerato se estudian los sistemas de tres ecuaciones lineales con tres incógnitas: tres números ligados por las ecuaciones cuyo valor se desea calcular. Estos números se pueden ver como las coordenadas -largo, ancho y alto- de un punto en el espacio, lo que permite usar herramientas geométricas como ángulos y distancias para resolver el sistema. Lo que hizo Hilbert fue construir herramientas geométricas análogas para un espacio, llamado Espacio de Hilbert, en el que los puntos tienen infinitas coordenadas, no sólo las tres cotidianas.



Como curiosidad, sobre la medida del número de partículas en un estado de Fock:
De acuerdo con la mecánica cuántica el número de partículas de un sistema cuántico, en un estado físico totalmente general, no tiene por qué estar bien definido resultando posible al hacer una medida del número de partículas diferentes resultados. Sin embargo, en ciertos casos el sistema puede tener un estado físico peculiar en el que el número de partículas sí esté totalmente bien definido, los estados en los que eso sucede son precisamente los estados de Fock.


2008/10/27

Espacios fibrados y renglones torcidos

Parece que Dios ha necesitado de los renglones torcidos de los fibrados, y de otras sutilezas matemáticas intrincadas, para crear la mecánica cuántica y con ella este mundo, que, sin embargo, nos parece un escrito recto y armonioso.

Si cogemos una cinta por los extremos, realizamos un giro de 180º y unimos dichos extremos, obtendremos lo que se llama una cinta de Moebius. Es un modelo de una superficie con sólo una cara y sólo un borde. La cinta contiene una circunferencia en el centro y podemos pensar que está formada por segmentos iguales que cortan esa circunferencia en ángulos rectos. En cierta forma, podemos verla como un segmento que va girando a medida que lo trasladamos a lo largo de la circunferencia.

La cinta de Moebius es un fibrado, un objeto matemático que consiste en un espacio base, que en este caso es la circunferencia, la fibra, que es la figura que se traslada a lo largo del espacio base, y una información extra, que sirve para definir el objeto o espacio total del fibrado, que en este caso es el ángulo de giro de la fibra, cuando se traslada a lo largo de la circunferencia. El ángulo debe estar relacionado con la forma de la fibra para que éstas se acoplen bien y den el espacio total del fibrado. Cuando la fibra es un segmento, los ángulos posibles son los múltiplos de 180º. Si tomamos como fibra un triángulo equilátero el ángulo de giro debería ser cualquier múltiplo de 120º, y si utilizamos un cuadrado el ángulo sería un múltiplo de 90º.

El paso de la mecánica clásica a la teoría cuántica extiende la base de su formulación a nuevas propiedades de relatividad, de simetría y de leyes de conservación, pero necesita del concepto de fibrado o espacio fibrado. El concepto de espacio fibrado, mucho más rico que el espacio clásico, es lo que realiza de forma natural la extensión al nuevo paradigma cuántico. En física cuántica el espacio fibrado es un encaje de dos espacios, uno llamado base, que es un espacio de puntos, y el otro llamado fibra que es el espacio de los grados de libertad interna de los campos cuánticos. Incluso en los casos más sencillos, la fibra no se reduce a un punto pues un campo cuántico es un campo no de probabilidades, sino de amplitudes de probabilidad (una amplitud de probabilidad es un número complejo cuyo módulo al cuadrado es una probabilidad). La fase en cada punto del espacio-tiempo es un grado de libertad interna y la fibra de un campo escalar es el espacio en el cual se puede cambiar la fase.

La fibra, el espacio interno es difícil de imaginar, pero utilizando el símil de la curvatura que se consigue con el efecto sobre una pelota de ping-pong nos podemos hacer una idea. Además, como la pelota es blanca y pequeña, el espectador no puede apreciar el movimiento circular de la misma que queda reducida a un punto en movimiento. Para los espectadores, todo el espacio contenido en la superficie de la pelota y en su interior se ha convertido en la fibra.

Cuando reflexionaba sobre el tema de este post se me ocurrió lo de los renglones torcidos. Como decía Einstein en una de sus reflexiones filosóficas:"Creo en el Dios de Spinoza que se manifiesta en la ordenada armonía de lo que existe, no en un Dios que se preocupa del destino y de las acciones del ser humano”. Me vino a la mente el dicho popular:" Dios escribe recto en renglones torcidos". Parece que Dios ha necesitado de los renglones torcidos de los fibrados, y de otras sutilezas matemáticas intrincadas, para crear la mecánica cuántica y con ella este mundo, que, sin embargo, nos parece un escrito recto y armonioso.


Para saber más:

- "Las esculturas simbólicas de John Robinson", número 37 de la revista Mètode de la Universidad de Valencia. Autor: Ronnie Brown, University of Wales.

- " La materia-espacio-tiempo", de Gilles Cohen-Tannoudji y Michel Spiro (físico teórico y experimental, respectivamente. El segundo colaboró en el experimento que permitió descubrir, en 1983, los bosones intermedios, necesarios para unificar las interacciones electromagnéticas y nuclear débil).

- " El camino a la realidad", el último libro de Roger Penrose (explica con mucho detalle los fibrados).

Reedición del post del mismo nombre del 13/03/07. Un saludo amigos.

2008/10/24

Reflexiones sobre la ciencia para juristas, economistas... y demás gente curiosa


La ciudad de Alejandría, en el norte de Egipto, ha sido una de las ciudades más importantes en relación con la cultura y la ciencia. En su famosa biblioteca, se albergaban infinidad de libros que contenían gran parte del saber del mundo antiguo. Allí se realizaron numerosos descubrimientos por personas de diferentes países. Sin embargo, entonces la ciencia y la cultura eran el privilegio de unos pocos, y los nuevos descubrimientos ni se explicaban ni se popularizaban. La mayoría de la población no tenía la menor idea de lo que estaba sucediendo dentro de aquellos muros, y los resultados de las investigaciones, salvo excepciones, no se traducían en algo útil para aquellas gentes. Por ello, no es de extrañar que nadie acudiese en ayuda de Hypatia de Alejandría cuando los seguidores de Cirilo la asesinaron salvajemente en el año 415. Hypatia, mujer de gran talento y cultura, fue el último científico que trababajó en la biblioteca. Poco después, nadie se preocupó en evitar el incendio y total destrucción de la biblioteca por una muchedumbre enfurecida. La pérdida fue irreparable: la mayor parte de las grandes obras del mundo antiguo desaparecieron para siempre.

Tal vez, los acontecimientos habrían sido otros si los habitantes de Alejandría hubieran sabido que, allí, se estaban sentando las bases de las matemáticas, la física, la astronomía, la biología, la medicina y la literatura. Por eso, es una tarea importantísima para el científico la divulgación de los trabajos que realiza, de esta forma la gente puede entender su esfuerzo e implicarse, en cierta forma, en la aventura que supone la investigación científica.

Los resultados de las investigaciones científicas se han plasmado en avances tecnológicos cuyo desarrollo se inició, fundamentalmente, en el siglo XIX, con la primera Revolución industrial, y se ha incrementado, de forma extraordinaria, en los últimos cincuenta años, con el advenimiento de la electrónica y la informática, soportes indiscutibles de la revolución tecnológica que estamos viviendo. Como decía Karl Popper, filósofo de la ciencia austríaco, en una conferencia pronunciada en el Foro Príncipe de Asturias de la Expo-92:" El trabajo manual exhaustivo, pesado y devastador, que tuvieron que realizar millones de hombres y mujeres ha desaparecido en las sociedades occidentales. Yo pude conocerlo y nadie que no lo hiciera podrá tener idea alguna de la diferencia: esta es la verdadera revolución que debemos al denostado crecimiento de la tecnología."

La ciencia y la tecnología que de ella deriva sigue siendo todavía la gran desconocida, cuando no denostada, como decía Popper. En estos momentos, el conocimiento de los principios de la ciencia y sus implicaciones debería ser una parte esencial en la formación de cualquier persona . Además, hay una serie de elementos en el método científico que son de gran valor en otros aspectos de la vida. El primero y quizá el más destacado sea una visión racional del mundo. Las cosas suceden con arreglo a unas leyes, y, por ello, se pueden conocer y predecir.La física, en particular, y la ciencia en general nos ayuda a pensar en términos cuantitativos, lo que no implica el utilizar matemáticas más o menos complejas, sino más bien el tener una idea aproximada de los órdenes de magnitud de las variables que intervienen en el problema.El segundo elemento es de uso imprescindible en el campo de la investigación; se trata de identificar entre un conjunto, en ocasiones muy amplio, de factores aquellos que tienen una mayor influencia en el fenómeno objeto de estudio. Esta técnica se debería aplicar en otras muchas situaciones, pero no suele utilizarse con demasiada frecuencia.


El tercer elemento se refiere a la belleza, por una parte deberíamos considerar la propia belleza del método científico y la emoción que embarga al investigador en los instantes en que realiza un descubrimiento, y, por otra habría que combatir la idea equivocada al considerar que la ciencia, de alguna manera, le resta belleza a la observación de la naturaleza. El movimiento de los astros no se afea porque conozcamos algo sobre las leyes que lo gobiernan o sobre la composición y estructura de las estrellas y de los planetas. Uno de los físicos más destacados de este siglo, el premio Nobel Richard Feynman, lo expresaba del modo siguiente:!¿Qué clase de hombres son los poetas que pueden hablar de Júpiter como si fuese un hombre, pero permanecen callados si se trata de una inmensa esfera giratoria compuesta de metano y amoníaco?".

Reflexiones interesantes que se plantean en el libro que acabo de leer: "Física para juristas, economistas... y demás gente curiosa". Roberto González Amado. Ed. Crítica. Barcelona 1996.ISBN 84-7423-792-0.
Breve descripción:A través de la física, la más básica de las ciencias de la naturalezam este libro, basado en un curso interdisciplinar que el autor impartió en la Universidad Carlos III de Madrid (es catedrático de física aplicada en dicha universidad), ilustra la esencia del método científico para todas aquellas personas curiosas que estén dispuestas a realizar una lectura paciente y reflexiva. Asimismo, esta obra es imprescindible para los profesores y estudiantes de bachillerato, para los primeros años de las carreras de ciencias e ingeniería, así como para los cursos de humanidades.

2008/10/15

Nota al margen: Hoy es el Día de Acción Blog 2008, contra la pobreza en el mundo

Hace algún tiempo, en una sección de opinión de El País de la Comunidad Valenciana, me publicaron una corta y sentida reflexión sobre la pobreza, las guerras, el hambre y la sinrazón. Se llamaba EL POEMA MÁS HERMOSO y recordarlo me parece una bonita forma de celebrar ESTE DÍA:


"Los poemas más hermosos, las más armoniosas teorías matemáticas, la mejor de las músicas o las pinturas más excelsas nunca serán nuestros. Miles, millones de vidas en todo el mundo son tiradas a la cuneta en absurdas guerras. Miles, millones de vidas son truncadas por la intolerancia y la sinrazón. Millones de niños mueren de hambre sin tener la más mínima oportunidad de desarrollo. Cualquiera de los miles de cadáveres anónimos que desfilan por nuestros televisores podría haber sido el próximo Einstein, Miguel Ángel, el próximo Shakespeare... Nunca conoceremos el poema más hermoso. El más grande de los poetas (o de los científicos) yace, víctima precoz, en una fosa común."



La ciencia, en cierta forma, tiene alguna"ventaja" sobre el arte.Es la propia Naturaleza la que nos va "dictando" sus leyes, nosotros las interpretamos y, más pronto o más tarde, llegamos a conocerlas mejor. El buen científico escucha e interpreta el "dictado", que la mayoría no llega a entender, pero si ese científico falla siempre habrá otro que sepa entender el "dictado". El edificio de la ciencia se va construyendo con conocimiento y acumulación de ese conocimiento. El arte se crea y no es acumulativo. Si Miguel Angel o Shakespeare no hubieran llegado a poder expresar su genio nos habríamos perdido SU maravillosa obra.


La historia de uno de los más grandes genios matemáticos tiene que ver, precisamente, con la más extrema pobreza. Nació en el lugar y el tiempo equivocado y sólo por una serie de casualidades consiguió no malograrse. Me refiero a Ramanujan. Un saludo amigos.

2008/10/06

Richard Feynman, sus diagramas y sus bongos

Richard Phillips Feynman (1918-1988) fue uno de los físicos más brillantes y originales del siglo XX. Con una curiosidad ilimitada ante los fenómenos de la naturaleza, hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia. De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente a la de los otros, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

Repasar las contribuciones de Feynman a la física es recorrer la mayor parte de la física del siglo XX. Abrió nuevas vías en campos como la mecánica cuántica, la electrodinámica cuántica, la materia condensada, las interacciones y partículas elementales, la física no lineal o la información y la computación cuánticas. A esta larga lista se puede añadir también su papel pionero en la gravedad cuántica y en las llamadas nanotecnologías. El 1965 recibió el premio Nobel de Física, compartido con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. De manera independiente, los tres científicos llegaron a mostrar como abordar el estudio cuántico y relativista de sistemas con cargas eléctricas, como electrones y positrones, en interacción con campos electromagnéticos. Pero el método de Feynman ilustra muy bien su talante. Donde sus colegas escribían largas fórmulas matemáticas, Feynman dibujaba, literalmente, los procesos físicos que quería estudiar, a partir de los cuales podía hacer los cálculos con unas reglas precisas. Actualmente , el uso de "diagramas de Feynman", o variantes de estos diagramas, es el procedimiento estándar para efectuar cálculos en muchos y diferentes campos de la física.

Es un tópico referirse a la excelencia de Feynman como comunicador. Muchos de los asistentes a sus clases y charlas recuerdan la fascinación que Feynman ejercía sobre la audencia, cosa a la que no era ajeno su carácter histriónico. Para Feynman, el aula era un teatro y él un actor que debía mantener una intriga mientras hablaba de física y escribía números y fórmulas en la pizarra. Con esta intención preparaba muy cuidadosamente clases y charlas como si fueran piezas de teatro clásico, con presentación, trama y desenlace. Su forma apasionada de hablar de física lo convirtió en un conferenciante popular; muchas de sus conferencias han sido trascritas y publicadas en forma de libro, e incluso algunas grabadas para la televisión.

Feynman dio clase sólo a estudiantes del último curso y de doctorado, con una única e importante excepción. Los cursos 1961-62 y 1962-63 hizo un curso de física para estudiantes de primero y segundo año que se ha convertido en uno de los cursos de física más famosos. Las clases fueron grabadas, trascritas y publicadas con el título "The Feynman Lectures on Physics", en tres volúmenes que se continúan editando y traduciendo hoy en día.


La afición de Feynman a tocar los bongos era bien conocida y una prueba más del carácter extrovertido del físico. Su amigo Ralph Leighton escribió dos libros con anécdotas que Feynman contaba durante las reuniones semanales que organizaban para tocar este instrumento.Los dos libros, cuyos títulos originales son "Surely you are joking, Mr. Feynman" y "What do you care what other people think?" continúan publicándose con mucho éxito. Y es que a feynman le gustaba mucho contar historias divertidas, en las que él tenía a menudo el papel más destacado.

Pero la verdadera popularidad le llegó a raíz de su participación en la comisión encargada de investigar el accidente del Challenguer, en enero de 1986. El transbordador espacial explotó poco después de despegar y la transmisión en directo por televisión del accidente amplificó su impacto social. Una buena mitad del segundo libro de anécdotas está dedicada a esta participación. Contrariando mucho al presidente de la comisión, que quería controlar todo el proceso, Feynman hizo por libre su propia investigación, siguiendo su costumbre. Pronto se convenció de que el problema estaba en las juntas de goma que cerraban el depósito de combustible, que no podían soportar las bajas temperaturas existentes en el momento del lanzamiento, y decidió hacer una demostración durante una de las sesiones públicas de la comisión. Los periodistas presentes difundieron su intervención y todo el mundo entendió la causa principal del accidente, Feynman se convirtió en un icono popular y pronto aparecieron en las tiendas camisetas con sus diagramas.

En palabras de su colega Schwinger, Feynman era el ejemplo de aquel que "goza en seguir el ritmo de un tambor diferente". Las leyes de la física pueden ser a menudo formuladas de muchas formas, diferentes a primera vista, hasta que cierto trabajo matemático nos demuestra que son idénticas. Feynman decía que este es un hecho misterioso, que nadie entiende, y en él veía un reflejo de la simplicidad de la naturaleza.

Nota sobre la figura de diagramas: El diagrama de la figura (parte izquierda) es uno de los primeros que se publicaron. Visualiza la interacción entre dos electrones mediante el intercambio de un fotón virtual ( línea ondulada). El diagrama esquematiza la versión mecanocuántica de la repulsión entre partículas dotadas de la misma carga. El diagrama de la figura (parte derecha) contiene un conjunto de diagramas que recoge las formas posibles en que dos electrones intercambian dos fotones. Todas las posibilidades deben ser evaluadas y agregadas como parte del cálculo de la probabilidad de que dos electrones colisionen. Al organizar el cálculo con los diagramas, Feynman había resuelto un viejo quebradero de cabeza que llevaba años lastrando a los mejores físicos teóricos del mundo.

Gracias a la revista Mètode de la Universidad de Valencia y a Jesús Navarro, del IFIC (Centro Mixto CSIC-Universitat de València)

2008/09/24

Fractales, una geometría natural

La geometría tan intuitiva que nos enseñan en la escuela, basada en líneas, puntos y superficies supone, en realidad, un gran esfuerzo de abstracción porque estos elementos idealizados no existen en el mundo cotidiano. Una línea real o una superficie están llenas de irregularidades que pasamos por alto para abstraer su esencia y plasmarla en conceptos más sencillos como recta y plano.


Con los fractales, en cierta manera, deshacemos esa abstracción y nos acercamos un poco más al objeto real. Benoït Mandelbrot utiliza el ejemplo sencillo de un objeto real, como son las costas de los países, para aproximarnos a los fractales. Son líneas quebradas que siguen teniendo un aspecto parecido cuando cambiamos de escala. Precisamente estas dos propiedades son las que definen a un fractal: discontinuidad (rotura, fractura, de ahí su nombre) y autosemejanza con el cambio de escala. Medimos su grado de fractura e irregularidad con un simple número que llamamos dimensión fractal.

Repasando intuitivamente el concepto de dimensión, observamos que un punto no tiene medida (dimensión cero); a una recta la medimos en metros o centímetros lineales, lo que significa asignarle dimensión uno (una sola medida: largo); a una superficie la debemos medir en metros o centímetros cuadrados (dimensión dos: largo por ancho) y a un volumen lo medimos en metros o centímetros cúbicos (dimensión tres: largo por ancho por alto). Un fractal, generalmente, tendrá una dimensión (su dimensión fractal) que estará entre cero y uno, entre uno y dos o entre dos y tres.


Supongamos el caso más sencillo, una recta fractal representada por un hilo arrugado, e imaginemos que tiene dimensión fractal 1,25. Si otro hilo tiene dimensión fractal 1,35, la simple comparación de sus dimensiones fractales supone que este segundo hilo está más arrugado que el primero, presenta más irregularidades. La parte entera de la dimensión fractal (en este caso 1) nos está informando que el objeto con el que tratamos es una recta, la parte fraccionaria nos mide su grado de irregularidad.

La dimensión fractal también da la capacidad que tiene el objeto de ocupar el espacio. El hilo con dimensión fractal 1,35 es capaz de llenar el plano mejor que el de dimensión 1,25. De hecho, si seguimos arrugándolo más aumentaremos su dimensión fractal y cuando esté cercana a 2 habremos conseguido llenar, casi por completo, una superficie con el hilo. Un fractal clásico de este tipo es la llamada curva de Peano.


Los fractales son objetos esencialmente sencillos, se generan fácilmente por ordenador. Mediante muy pocas órdenes de programación, y a partir de un número mínimo de datos, se crean verdaderas maravillas de una riqueza y complejidad extraordinarias. El fractal de Mandelbrot es un ejemplo. Conforme intentamos ampliar, con medios informáticos, cualquiera de sus partes nos encontramos con un nuevo paisaje similar al original pero con nuevos y sorprendentes detalles. Podemos seguir así cuanto deseemos y nos permita la potencia de nuestro ordenador, se nos seguirá mostrando un nuevo mundo fantástico, que nunca llega a repetirse, en cada nueva ampliación. Un mundo surgido casi de la nada, de una sencilla expresión que se encadena y realimenta con nuevos datos.


Valor posterior = (valor anterior)2 + constante (Con una condición restrictiva).


La observación de estos fractales creados por ordenador, nos recuerda siempre a algún objeto natural desconocido pero cercano, posiblemente, porque esa economía de medios para lograr complejidad es una característica muy propia de la Naturaleza. Es la estrategia adoptada para lograr la mejor distribución de los vasos sanguíneos por todo el cuerpo, la disposición óptima del ramaje de los árboles o de los pliegues del cerebro para conseguir la mayor superficie en el mínimo espacio.


De mi colaboración con Libro de Notas, columna mensual "Ciencias y letras"

2008/09/12

Hawking y el LHC, 100 dólares contra 6.000 millones de euros

Stephen Hawking lanzó ayer una de sus famosas apuestas. Esta vez apuesta 100 dólares a que no se encontrará la famosa partícula del bosón de Higgs. Es una apuesta insignificante sobre los resultados de un dispositivo que cuesta la friolera de 6.000 millones de euros, pero todo el mundo sabe que las consecuencias del experimento, tanto si se encuentra como si no se encuentra el famoso bosón, cambiarán la física. Si existe y tiene las propiedades predichas por el Modelo Estándar de Física de Partículas, el LHC lo tiene que encontrar, si no se descubre nos tendríamos que replantear toda la física de partículas.

Además de encontrar el bosón de Higgs hay una serie de posibles descubrimientos que pueden estar esperando en el túnel del LHC. Uno de ellos es toda una familia de partículas llamadas supersimétricas que duplica las ya conocidas. Una de esas partículas supersimétricas, el neutralino, tiene un atractivo teórico especial porque es el mejor candidato para constituir la misteriosa materia oscura. Otro de los posibles hallazgos podría ser el descubrimiento de nuevas dimensiones del espacio, sería posible que cada "punto" del espacio tenga sus propias dimensiones compactadas como predicen las teorías de cuerdas. Gracias a las energías implicadas en el LHC podremos "ver" la estructura espacial desde "mucho más cerca" y este hecho podría depararnos más de una sorpresa.

Sobre la posible formación de microagujeros negros, algo que en los últimos meses ha levantado toda una polémica en la red, en una entrevista que hoy publica el periódico El País,  el físico teórico español en el CERN Álvaro de Rújula indica:" Si hay dimensiones extras, puede que se logren formar en el LHC microagujeros negros, y no son nada peligrosos: con la misma convicción que los físicos sabemos que tirar una manzana no es tan peligroso como tirar una granada de mano, sabemos que los microagujeros negros son inofensivos".


Se habla mucho de lo que ha costado construir el LHC, pero los gobiernos de decenas de países no se han gastado miles de millones de euros para saber qué pasaba en el Universo una milmillonésima de segundo después del Big Bang(***). El interés del LHC es que el reproducir las condiciones extremas del Universo primordial nos puede ayudar a responder algunas de las preguntas sobre cuáles son las leyes fundamentales de la naturaleza para las que aún no tenemos respuesta. Cualquiera de esas respuestas pueden ser tan, aparentemente, anodinas como lo debió ser para la mayoría de los no entendidos en físicas el descubrimiento del cuanto de acción, llamado de Planck, hace más de 100 años. Sin embargo fue la base de la mecánica cuántica, gracias a la cual ahora estoy escribiendo este post en el ordenador y existe internet, los móviles, la televisión, nuestros automóviles modernos y todos los dispositivos electrónicos que, en general, nos permiten una vida mejor y que inundan nuestras casas, lugares de trabajo, hospitales o escuelas.

Gane o no gane la apuesta Stephen Hawking, el LHC cambiará nuestras vidas y la de nuestros hijos.

(***) (Apuntes científicos desde el MIT) La teoría actual del origen del Universo nos dice que todo empezó con lo que se suele llamar la Gran Explosión (el Big Bang en inglés). Este apelativo metafórico nos incita a pensar en un instante inicial muy “ruidoso”, una especie de fuegos artificiales, pero el Big Bang empezó en silencio, y sería más adecuado imaginarlo como una “explosión” en la que se crean el espacio y el tiempo. Si tratamos de entender ese instante con la teoría de la Relatividad General nos encontramos con una singularidad, un universo primigenio en el que la temperatura y densidad eran infinitas. Estas condiciones extremas son imposibles de imaginar, por lo que seguramente indican que nuestras teorías no son válidas para extrapolar hasta el mismo momento inicial.

A partir de ese momento el Universo se empezó a expandir rápidamente y a medida que crecía su tamaño se iba “enfriando”, o lo que es lo mismo, la energía de las partículas que contenía disminuía. Cuando sólo había transcurrido una milmillonésima de segundo después del Big Bang, el universo tenía una temperatura aproximadamente 100.000 veces superior a la del Sol y las partículas fundamentales que lo habitaban chocaban constantemente entre ellas con energías aproximadamente de 14 TeV. Estas condiciones son precisamente las que se quieren reproducir en el LHC. Al hacer colisionar partículas a 14 TeV, lo que queremos es entender qué sucedía en el Universo sólo una milmillonésima de segundo después del Big Bang.

2008/08/30

Diez dimensiones, supercuerdas y fractales

Uno de los post más visitados el año pasado, con casi 6.000 visitas, fue este que vuelvo a publicar. Espero que a los nuevos visitantes os guste y a los más antiguos también. En este post se supone la hipótesis fractal para la energía de las fluctuaciones cuánticas.

Al respecto es importante repasar el concepto de estructura fractal de Kenneth Falconer en su obra titulada “Fractal Geometry: Mathematical Foundations and Applications”, en 1990. En ella describe un concepto de estructura fractal ‘F’ como la que satisface alguna(s) de las propiedades siguientes:

(1).- “F” posee detalle a todas las escalas de observación;
(2).- No es posible describir “F” con Geometría Euclidiana, tanto local como globalmente;
(3).- “F” posee alguna clase de autosemejanza, posiblemente estadística;
(4).- La dimensión fractal de “F” es mayor que su dimensión topológica;
(5).- El algoritmo que sirve para describir “F” es muy simple, y posiblemente de carácter recursivo.

Según este concepto, la energía de las fluctuaciones cuánticas del vacío tendría estructura fractal. A continuación seguimos con el post que vuelvo a publicar:


La teoría de supercuerdas predice que la unificación de todas las fuerzas ocurre a la energía de Planck, o 1016 miles de millones de electronvoltios ( mil billones de veces mayor que las energías de que disponemos en los aceleradores actuales). Esto significa que la verificación experimental de la misma escapa a nuestras posibilidades y a las que nos podría brindar un futuro previsible y supone que la teoría decadimensional ( tres dimensiones ordinarias+ seis compactadas + el tiempo) no es verificable directamente .Sin embargo puede haber alguna forma de verificación indirecta. En muchas universidades los físicos están tratando de diseñar experimentos que nos delaten su presencia, pero es posible que su impronta haya quedado reflejada en la propia naturaleza del cuanto de acción, y las fluctuaciones cuánticas del vacío nos puedan decir algo determinante al respecto.



Benoit Mandelbrot decía que la geometría fractal nos enseña a observar este viejo mundo con unos nuevos ojos. La existencia del cuanto de acción que está íntimamente unida a la propia naturaleza de la energía de las fluctuaciones cuánticas del vacío obliga a que su estructura sea discontinua, escalonada, fractal, por ello la geometría fractal puede enseñarnos algo que antes no podíamos ver.

Mandelbrot, se preguntaba cual era la longitud de una costa y observaba que esa longitud dependía de la unidad de medida que se adoptara para medirla. Si la unidad es de 5 km. la longitud nos da un valor, pero si la unidad es de 100 metros nos encontramos con un resultado mucho mayor, y conforme hacemos más pequeña la unidad de medida nos podremos adaptar mejor a las irregularidades y obtendremos un valor aún mayor. En el caso de una costa fractal ideal, podremos disminuir cuanto queramos la unidad de medida y acabaremos obteniendo un valor infinito.

En las fluctuaciones ocurre algo similar, pero nos encontramos que para una determinada distancia D su valor es del orden de E, mientras que para una distancia 4D será del orden de E/4 y así hasta llegar a distancias muy grandes, por ejemplo 10 000 D, en que la energía implicada es muy pequeña, del orden de E/10 000. Es como si al medir la distancia de costa entre Barcelona y Valencia nos encontráramos que es muchísimo menor que la distancia de costa entre nuestros dos pies cuando paseamos por la playa.

La Universidad de Chile (2004), en su revista Ciencia Abierta , me publicó el artículo “ Estabilización del vacío cuántico y dimensiones enrolladas”, ( después otros dos más completos) sobre la posibilidad de que el estudio de la energía de las fluctuaciones cuánticas del vacío nos estuviera evidenciando, indirectamente, la existencia de las 6 dimensiones enrolladas que necesita la teoría de supercuerdas. Los cálculos parecen indicar que en el estado en que se adoptó la configuración de 3 dimensiones ordinarias y 6 enrolladas, debió decidirse la propia naturaleza del cuanto de acción.

De ser correctos los resultados significarían una evidencia de la existencia de las 10 dimensiones que necesita la teoría de supercuerdas para ser considerada una realidad plena.

Todo parece formar parte, en cierta manera, de una sola realidad: 10 dimensiones, supercuerdas y fractales.

2008/08/16

Galaxia M74, plácida apariencia y turbulenta realidad

M74 es una de las galaxias espirales más llamativas, visible con unos buenos prismáticos en la constelación de Piscis, a unos 30 millones de años luz de la Tierra. No es extraño, pues, que fuera descubierta ya a finales de septiembre de 1780 por los astrónomos franceses Pierre Méchain y su amigo Charles Messier, que la incluyó en el catálogo de objetos extensos que él mismo compilaba en la entrada número 74.

Se trata de una imponente galaxia espiral de las llamadas "de gran diseño", majestuosa y simétrica, con una apariencia plácida que nada tiene que ver con su turbulenta realidad. Brillantes manchas azuladas en los brazos explican la historia de los violentos procesos físicos que forman estrellas a partir de nubes de gas y polvo. Las estrellas de mayor masa (más de diez veces la masa del Sol) acabarán su vida en una explosión de supernova, que lanzará a su alrededor los elementos pesados que la estrella ha creado durante su existencia y explosión final, niquel y hierro, sobretodo, que pasarán a formar parte de una nueva generación de estrellas.

El 29 de enero del 2002 tuvo lugar en M74 una explosión de hipernova, mucho más potente que una supernova, el último grito agonizante de una estrella, en este caso, con 40 veces la masa de nuestro Sol. Estas titánicas explosiones son el sueño de cualquier alquimista: parte de los elementos más ligeros (hidrógeno, helio, carbono) se funden en otros más pesados, a causa del calor y la presión que soportan durante la explosión. Sólo la cantidad de níquel que se produjo constituye más de 20.000 veces la masa de la Tierra. Se formaron también otros elementos pesados, como el oro, la plata, cinc y uranio, elementos que fueron expulsados y repartidos entre el gas y el polvo de M74, y que serán incorporados en la próxima generación de sistemas planetarios, junto con ciertas cantidades de carbono, la base de la vida tal como la conocemos.

M74 es parecida en tamaño a nuestra galaxia, la Vía Láctea, con unos 100.000 años luz de diámetro. La podemos ver prácticamente de cara, lo que nos permite estudiar todos sus detalles en profundidad. Largas bandas de polvo (que aparecen rojizas en la imagen) se entremezclan con los elegantes brazos salpicados por brillantes cúmulos estelares de color azulado. Las manchas rosáceas, a su alrededor, son nubes de hidrógeno donde se forman nuevas estrellas.

Pero M74 no siempre ha tenido este aspecto aristocrático; según las teorías más aceptadas de evolución de las galaxias, comenzó siendo un conjunto de galaxias irregulares más pequeñas que, durante miles de millones de años, se fueron amalgamando para dar como fruto final este bello molinete celeste. La unión de estos objetos irregulares dio origen primeramente al halo de la galaxiia (el conjunto de estrellas y gas que envuelven el disco), donde actualmente encontramos las estrellas más viejas, frías y rojizas, y los cúmulos globulares.

Los brazos espirales aparecieron posteriormente por la presencia de ondas de densidad en el disco. El disco de la galaxia no era perféctamente uniforme, sino que había regiones con más estrellas que otras.Estas estrellas atrajeron con su fuerza de gravedad más material hacia ellas, como otras estrellas y gas, y crearon una región más densa que el resto que conocemos como brazos espirales. Con el tiempo, estas sobredensidades hacen que las estrellas se aceleren hacia ellas y después se vayan frenando a medida que pasan de largo, manteniéndose un tiempo en la región.

Este fenómeno provoca que en los brazos tengan lugar los violentos procesos que llevan al nacimiento de nuevas estrellas: a la sobredensidad llegan nubes de gas que resultan comprimidos hasta el punto de colapsar, o cuando el material choca entre si, de formar también nuevas estrellas. Los brazos son, pues, zonas donde se vive poco tiempo (astronómicamente hablando) pero con mucha intensidad.


En estas galaxias no sólo hay materia visible. Los estudios de la astrónoma Vera Rubin y sus colaboradores a finales de la década de 1960 y principios de los 70 demostraron que la mayoría de las estrellas de las galaxias espirales giran a la misma velocidad alrededor del centro. Esto implica que la densidad de materia de la galaxia es uniforme, más allá de los lugares donde se concentran las estrellas. Rubin demostró con sus observaciones que más del 50% de la materia de las galaxias espirales es oscura, no brilla en ninguna longitud de onda, y su naturaleza es uno de los misterios más enigmáticos que los astrónomos tratan de resolver hoy en día.


Traducción y resumen del artículo "Una majestuosa galàxia espiral" (Revista Mètode, de la Universitat de València, nº 57), de Amelia Ortiz Gil del Observatori Astronòmic de València.