2007/12/27

Gravitación cuántica, distancia fundamental, y teoría de cuerdas

La teoría de la relatividad general de Einstein establece una relación directa entre la gravitación y la geometría del espaciotiempo. Esto supone que una teoría cuántica de la gravitación implicará una estructura cuántica del propio espaciotiempo. Y en esta estructura deberá jugar un papel importante una especie de "cuanto espacial", o mínima distancia de interacción. Un nuevo límite fundamental en la Naturaleza, similar a la velocidad de la luz o al cuanto de acción, ahora en la escala de las distancias.

Las dos grandes teorías físicas de las que disponemos, la relatividad general y la mecánica cuántica parecen no llevarse bien entre ellas. La relatividad general está formulada de una manera clásica y esa esencia choca con la formulación cuántica. De hecho, la aplicación directa de las reglas de la mecánica cuántica a la teoría de gravitación de Einstein da lugar a inconsistencias matemáticas. El camino más fácil es intentar formular una teoría cuántica de las ondas gravitacionales, o "arrugas" o vibraciones de la geometría espaciotemporal similares a las ondas electromagnéticas. Cuánticamente, se pueden ver como conjuntos coherentes de partículas, de la misma forma que una onda electromagnética es un conjunto coherente de fotones. Los equivalentes gravitacionales de los fotones se denominan gravitones.

---Distancia fundamental---

A medida que consideramos distancias cada vez menores, las interacciones entre gravitones producen cascadas de creación y aniquilación demasiado violentas, de tal forma que la delicada estructura que funcionaba para las demás partículas fracasa estrepitosamente para los gravitones. Existe una especie de realimentación en la interacción entre gravitones, pues interactúan mediante otros gravitones y esto hace que se pierda la sencilla linealidad que presentan otras fuerzas. Esta cuestión es la causante de que la teoría cuántica de los gravitones no sea renormalizable.

Lo más asombroso es que, por lo que se sabe en otros casos similares de teorías no renormalizables, una explicación posible es que el gravitón no sea una partícula fundamental, sino que tenga componentes a una escala de distancias determinada por la intensidad intrínseca de la interacción gravitacional. Si esto es correcto, el gravitón revelaría sus componentes en la vecindad de al escala de Planck, la única magnitud con dimensiones de longitud que se puede formar con las tres constantes fundamentales de la física, c, h y G (unos 10-33 centímetros).

Para que nos hagamos idea de la dificultad a la que nos enfrentamos en la formulación de una teoría cuántica de la gravitación, a la distancia de Planck las fluctuaciones cuánticas cambian la estructura geométrica e incluso topológica del espaciotiempo, pudiendo crear agujeros incluso negros microscópicos, de ahí que sean tan importantes a esas distancias como los gravitones. Esta es la vieja idea de Wheeler, que habló de la estructura "espumosa" del espaciotiempo cuántico.

---Teoría de cuerdas y agujeros negros---

Otra vez nos encontramos con nuestros viejos amigos lo agujeros negros, ahora en forma microscópica como resultado de las fluctuaciones cuánticas a escalas de la distancia de Planck. Lo que hemos aprendido de ellos, pero sobre todo la teoría de cuerdas, o la idea de que las partículas que denominamos elementales son en realidad objetos extensos en una dimensión, cuerdas diminutas cuya dinámica esta especificada por sus modos de vibración: cada modo de vibración independiente representaría un tipo diferente de partícula. Esta teoría, básicamente muy sencilla en sus planteamientos iniciales, conduce a una estructura matemática de riqueza insospechada, cuya exploración por parte de físicos y matemáticos aún pertenece a las generaciones futuras.

Hay dos clases básicas de cuerdas, según sean cerradas sobre sí mismas o abiertas, con los extremos libres. Las cuerdas cerradas siempre tienen un modo de vibración que se puede identificar con el gravitón, mientras que las cuerdas abiertas siempre tienen un fotón. El resultado es que las cuerdas predicen la existencia de gravitación en el sector cerrado, y de interacciones del tipo de la interacción electromagnética en el sector abierto. Pero se ha descubierto que las cuerdas no son los únicos objetos fundamentales de la teoría, existen regiones singulares a las cuales las cuerdas abiertas estarían enganchadas, se conocen como D-branas: pueden ser objetos puntuales (D-partículas), tener una dimensión (D-cuerdas), dos dimensiones extendidas (D-membranas), etc.

Cuando las cuerdas o D-branas (generalizando) alcanzan un alto grado de excitación sobre su estado de mínima energía, se convierten en agujeros negros. Esto se entiende bastante bien a nivel cuantitativo gracias a un importante cálculo de Andrew Strominger y Cumrum Vafa, de la Universidad de Harvard, aunque sólo en el caso de agujeros negros con mucha simetría. En este caso el número de estados de un agujero negro, según los cálculos independientes (no cuerdísticos) de Bekenstein y Hawking, coincide con el de un sistema adecuado de D-branas.

---Espaciotiempo no conmutativo, el principio básico---

Como en el caso de la mecánica cuántica, en que el principio básico del que emanaba las propias relaciones de indeterminación de Heisenberg era la no conmutatividad entre posiciones y velociadades, la imposibilidad por principio de conocer ambas cantidades con total definición, en nuestro caso de una teoría de la gravitación cuántica se busca un principio de no conmutatividad puramente espaciotemporal. El tipo de estructura matemática necesaria fue descubierto por el matemático francés Alain Connes en los años ochenta, una geometría cuántica en la cual las coordenadas espaciales son matrices que no conmutan entre sí, en analogía exacta con las posiciones y velocidades de una partícula. De hecho ya se ha comprobado que las cuerdas abiertas poseen propiedades matemáticas que recuerdan esta geometría no conmutativa. Posteriormente se ha llegado a la conclusión de que las D-branas son los propios ladrillos del espaciotiempo: el espaciotiempo adquiere así una naturaleza granular a la escala de Planck, una especie de retículo de D-branas trenzadas mediante las cuerdas abiertas.

Una propiedad matemática tan elemental como es la no conmutatividad está en la base de lo que será la futura teoría de gravitación cuántica. Los retículos espaciales que sustituyen a las coordenadas no conmutan, es decir si X es el operador cuántico de la coordenada x e Y es el operador de la y, el producto XY es diferente al producto YX. Las coordenadas clásicas son simples números reales que por descontado son conmutables, pues da lo mismo multiplicar las coordenadas xy en ese orden o en el contrario yx. Esta diferencia tan abismal nos da una idea de la nueva complejidad necesaria para poder describir
correctamente la realidad del espaciotiempo.

2007/12/12

Sobre la ciencia de la información cuántica

La ciencia de la información cuántica ha descubierto que el entrelazamiento o coherencia es, como la energía, un recurso cuantificable que posibilita tareas de procesado de información: algunos sistemas tienen un poco de entrelazamiento, otros mucho. Cuanto mayor sea el entrelazamiento disponible, más valdrá un sistema para el procesado cuántico de la información.

Esta ciencia es lo bastante nueva para que se esté aún intentando aprehender su auténtica naturaleza. Si llegamos a conocer los principios generales o leyes del entrelazamiento o coherencia cuántica sabremos interpretar la complejidad de los sistemas cuánticos.

La transición entre lo cuántico y lo clásico, en los sistemas complejos con muchas partes constituyentes, ocurre porque los grandes sistemas cuánticos interaccionan fuertemente con su entorno y sufren un proceso de decoherencia o pérdida del entrelazamiento que destruye las propiedades cuánticas del sistema. La clave para que un sistema complejo presente un comportamiento verdaderamente cuántico consiste en aislar muy bien el sistema del resto del mundo, de forma que se evite la decoherencia y se preserven los frágiles estados cuánticos. Conforme sea más complejo el sistema más difícil será aislarlo de las interacciones del medio y de hecho los grandes sistemas, practicamente todos los objetos que nos encontramos a nuestro alrededor por pequeños que sean, han perdido su coherencia cuántica y presentan un comportamiento puramente clásico. Como decía en el anterior post esa es la mayor dificultad a la hora de construir un ordenador cuántico, los qubits cuanto más sean tanto más difícil será mantener su coherencia y su funcionamiento cuántico.

Existen fenómenos que ofrecen ejemplos de sistemas cuánticos grandes bien aislados, entre ellos la superconductividad, el efecto Hall cuántico y el condensado de Bose-Einstein. Estos fenómenos demuestran que las reglas sencillas de la mecánica cuántica pueden dar lugar a principios emergentes que gobiernan comportamientos complejos.

El recurso fundamental en el tratamiento de la información cuántica es el qubit, objeto cuántico ideal que proviene de la mecánica cuántica. Sus propiedades son independientes del soporte físico sobre el que se trate, sea el espín de un núcleo atómico o de la polarización de un electrón. Cualquier objeto que tenga dos estados diferentes, necesariamente, poseerá además un conjunto de otros estados posibles conocidos como superposiciones, que incluyen ambos estados en grados distintos, tal como veíamos en el post anterior al definir el qubit. El continuo de estados entre el 0 y el 1 causa muchas de las extraordinarias propiedades de la información cuántica.

Los qubits individuales son interesantes, pero cuando se combinan varios entrelazándose aparece un comportamiento aún más fascinante. Estos estados entrelazados poseen propiedades fundamentalmente distintas de las que caracterizan a cualquier ente de la física clásica. Para Schrödinger, el del famoso gato, el entrelazamiento no era un rasgo característico, sino el rasgo carcterístico de la mecánica cuántica, el que la aparta por completo de las líneas de pensamiento clásicas.


Los objetos entrelazados se comportan como si estuvieran conectados entre sí, con independencia de lo alejados que se hallen el uno del otro, pues la distancia no atenúa lo más mínimo el entrelazamiento. Si se realiza una medición sobre un ente entrelazado con otros objetos, nos proporcionará a la vez información acerca de éstos. Sin embargo el entrelazamiento no vale para enviar señales más deprisa que la velocidad de la luz, pues la naturaleza probabilística de la mecánica cuántica desbarata tal posibilidad.

En 2001, Benjamin Schumacher, del Kenyon College, planteó que los elementos esenciales de la ciencia de la información, tanto clásica como cuántica, se resumían en un procedimiento que abarca tres etapas:
1. Identificar un recurso físico. Una cadena de bits o qubits codificados mediante objetos físicos reales (en nuestro caso los dos estados fundamentales de un átomo, o del spin de un electrón, por ejemplo, que pueden codificar un qubit).
2.Identificar una tarea de procesado de información que pueda realizarse gracias al recurso físico del paso (1).
3.Identificar un criterio que establezca cuándo ha tenido éxito la tarea del paso (2).

La pregunta fundamental de la ciencia de la información dice, pues:¿Cuál es la mínima cantidad de recurso físico (1) que necesitamos para realizar la tarea de procesado de información (2) cumpliendo el criterio de éxito (3)?.

En 1948 Claude E. Shannon resolvió el problema fundamental sobre la información clásica: ¿Cuál es el mínimo número de bits necesarios para almacenar la información producida por una fuente?. Sus trabajos fundaron la teoría de la información, y su expresión matemática del contenido de información recibe hoy el nombre de entropía de Shannon. La clave de nuestra nueva ciencia la tiene la calibración del entrelazamiento de los qubits(*). Las medidas cuantitativas del entrelazamiento están demostrando una enorme utilidad como conceptos unificadores en la descripción de una amplia gama de fenómenos. Podemos analizar el flujo de entrelazamiento, de un subsistema a otro, que se requiere para ejecutar un determinado proceso de información, de forma parecida a como estudiamos el flujo de energía entre distintas partes de un sistema, pues el entrelazamiento de un estado se puede transmitir a otro tal como fluye la energía.

Información y física:

Como ya pasó con la entropía termodinámica que se ha demostrado íntimamente relacionada con la cantidad de información soportada por un sistema físico, y que nos ha dado una referencia inestimable para estudiar la propia física de los agujeros negros, y con ellos para avanzar con la intrincada y aún no resuelta gravedad cuántica, el concepto de entrelazamiento en relación con el tratamiento de la información cuántica puede ayudarnos a desentrañar los secretos de la extraña mecánica cuántica. Algo tan etéreo como el concepto de la información parece estar íntimamente relacionado con las leyes más fundamentales de la física.

(*)El E-Bit estándar:

Cuando dos qubits están entrelazados, ya no tienen estados cuánticos individuales. En su lugar, se define una relación entre qubits. En un par de qubits máximamente entrelazado, los qubits dan resultados opuestos cuando se los mide. Si uno da 0, el otro da 1, y viceversa. Un par máximamente entrelazado tiene un "e-bit" de entrelazamiento, una especie de unidad de medida del entrelazamiento de un sistema cuántico.

Algo de "mágia" mecanico-cuántica:

- Si dos monedas pudieran estar "entrelazadas" como dos partículas cuánticas, cada par entrelazado daría el mismo resultado, aún cuando se lanzaran a años luz de distancia o en instantes muy diferentes: una moneda daría cara y la otra cruz.

Fenómenos Cuánticos. Investigación y Ciencia. Temas 31

2007/12/05

Coherencia y computación mecanico-cuántica

La computación mecanico-cuántica se basa en una propiedad misteriosa de la mecánica cuántica: la coherencia cuántica. En un ordenador actual la información se codifica en ceros (0) y unos (1). El estado de un bit (unidad mínima de información) sólo puede encontrarse en (1) o en (0).

Explicación del QUBIT:

En un ordenador cuántico la unidad mínima de información es el qubit, un estado entrelazado, mezcla de los dos estados a la vez, de forma coherente.


Para visualizarlo (observar el dibujo y pinchar) podemos imaginar una esfera, en el polo norte situariamos el (1) y en el polo sur el (0) : el qubit representaría cualquier punto de la esfera como una combinación de los dos estados a(0) + b(1). El (0) y el (1) constituirían lo que en música son los tonos puros musicales, en cambio, una superposición de (0) y (1) sería un acorde.



La potencia de la computación cuántica se basa en la coherencia o superposición que permite un efecto de paralelismo : Colocamos todos los qubits de entrada en una superposición coherente de ceros y unos. Si hacemos pasar esta entrada a través de un circuito lógico que ejecute un determinado cómputo, el resultado es una superposición de todos los posibles resultados de ese cómputo: la computadora efectúa a la vez todos los cómputos posibles.

Símil musical:
Una computadora cuántica que realice un cómputo ordinario, en el que no haya superposición de bits, genera una secuencia de ondas (mecanico-cuánticas) análogas al sonido de un "cambio de repique" de los campanarios, en que las campanas se tañen una por vez. Un cómputo realizado en modo cuántico paralelo viene a ser como una sinfonía, su sonido corresponde a una multitud de ondas que se interfieren entre sí.


Los dispositivos físicos que se podrían utilizar para procesar la información serían partículas individuales como átomos, moléculas, fotones, etc. Cualquier partícula o partículas de tamaño atómico o subatómico capaz de contar, al menos, con dos estados que pueden identificarse con los valores de un bit. En el caso del átomo se podrían utilizar dos de sus niveles energéticos. De forma natural este átomo presentaría un estado enlazado o coherente de estos dos estados constituyendo la mínima unidad de información cuántica o QUBIT.


Mientras que en un procesador clásico la entrada se verifica con N bits y solamente se pueden representar y procesar, cada vez, una de las posibles combinaciones de los mismos, en un computador cuántico con N qubits se podrían manejar en forma simultánea la combinación coherente o superpuesta de todos los posibles valores 2N . En un procesador actual se necesitaría repetir
2N veces la misma operación o utilizar 2N procesadores en paralelo.


En 1994 Peter W. Shor de AT&T se dio cuenta de cómo sacarle partido a los fenómenos de coherencia y superposición cuántica para descomponer un entero en sus factores primos. Descubrió que un ordenador cuántico podría realizar la tarea de un modo muchísimo más veloz que cualquier ordenador clásico. Para hacernos una idea, mientras que un ordenador o superordenador actual tardaría varios miles de millones de años en factorizar un número de unos 1000 dígitos, un ordenador cuántico tardaría unos 20 minutos. Teniendo en cuenta que los sistemas de encriptación basan su seguridad en la dificultad de descomponer en primos números muy grandes, es fácil entender que el algoritmo de Shor para computación cuántica sacudió los cimientos del mundo de la economía electrónica.


En la búsqueda aleatoria de N elementos en una base de datos,
también es evidente la ventaja de un ordenador cuántico. Mientras que uno clásico logra el resultado en N/2 intentos, otro cuántico lo consigue en N1/2 intentos. En 1 000 000 elementos el clásico conseguirá resultados en 500 000 intentos mientras que el cuántico lo hará en 1000.

Pero la construcción de ordenadores cuánticos es sumamente difícil, porque los estados de coherencia y superposición cuánticos son de una fragilidad superlativa. Pueden quedar destruidos por las más diminutas interacciones con el medio circundante. Este es el gran caballo de batalla en el camino para conseguir el ordenador cuántico. (Continuará en próximos posts)