Mostrando entradas con la etiqueta 2020 Y EL COSMOS. Mostrar todas las entradas
Mostrando entradas con la etiqueta 2020 Y EL COSMOS. Mostrar todas las entradas

martes, 31 de diciembre de 2024

Multiverso: ¿existen otros universos?

Multiverso: ¿existen otros universos?






Hay una idea extraña, atrayente, evocativa,
una de las conjeturas más exquisitas de la ciencia o de la religión.
Es una idea totalmente indemostrada; quizás no llegue a demostrarse nunca.
Pero excita enormemente.
Se nos dice que existe una jerarquía infinita de universos.

Carl Sagan, Cosmos, 1980.


¿Existen otros universos? Si la palabra “universo” significa necesariamente todo lo que existe, entonces por definición no puede haber más de uno. Pero en la frontera de la física actual, por varias direcciones hemos llegado a sospechar que la realidad pudiera ser mucho más amplia que lo que hasta ahora habíamos concebido como nuestro universo. Al menos para algunos físicos, se vuelve entonces útil hablar de muchos universos paralelos, y emplear el término “multiverso” para describir todo lo que existe.
Cuando estudiamos el universo a escalas astronómicas, la gravedad es la influencia dominante. Gracias a la Relatividad General, sabemos que la gravedad se produce porque el espacio y el tiempo se distorsionan en respuesta a los objetos que se ubican sobre ellos, tal como si fueran un inmenso trampolín. Las mediciones nos revelan que, contemplada a gran escala, la forma del espacio que habitamos es análoga no a la superficie de una pelota o de una silla de montar, sino a la de una gigantesca hoja de papel (sin que imaginemos que existe algo fuera de esa hoja).  Durante toda la historia conocida, este espacio “plano” se ha ido estirando, de tal forma que la distancia entre las galaxias crece cada segundo. Corriendo la película hacia atrás, llegamos a la época que llamamos el Big Bang, hace 13,800 millones de años, cuando el universo era increíblemente denso y caliente. Tenemos mucha evidencia de que esa época en verdad ocurrió, incluyendo un baño de luz tenue que recibimos constantemente del espacio, conocido como fondo cósmico de microondas. Esta luz invisible nos llueve de forma casi idéntica desde todas las direcciones, y nos trae noticias de las condiciones del universo cuando era bebé, apenas 380,000 años después del Big Bang.
Un hecho muy hermoso es que, en nuestro afán por entender el cosmos a distancias gigantescas, hacemos contacto también con lo que ocurre a distancias minúsculas. En los primeros minutos después del Big Bang, es indispensable echar mano de nuestros conocimientos sobre las partículas elementales que conforman la materia. Todo lo que tenemos bien entendido sobre este tema se resume en la teoría que llamamos el Modelo Estándar, que explica en exquisito detalle de qué estamos hechos nosotros y todos los objetos que vemos, incluyendo las estrellas más lejanas. Pero desde hace más de dos décadas sabemos que el contenido del universo involucra mayoritariamente sustancias que no vemos: un 68% que llamamos “energía oscura”, responsable de que la expansión del universo se esté acelerando en lugar de frenarse, y un 27% de “materia oscura”, indispensable para explicar la estructura, distribución y formación de las galaxias. El Modelo Estándar describe solo a la materia ordinaria, que constituye el 5% restante.
Es muchísimo lo que podemos explicar con éxito al conjuntar a la Relatividad General con el Modelo Estándar y los conceptos de materia y energía oscuras. Existen, sin embargo, varias interrogantes pendientes. Por ejemplo, no tenemos claro todavía cuál es el origen de la gravedad a nivel microscópico, reto que en esencia equivale a preguntarnos de qué están hechos el espacio y el tiempo. También nos falta identificar la composición precisa de la materia oscura y la energía oscura. En nuestros intentos por avanzar más en estas y otras preguntas, nos hemos topado con varios sentidos en los que podrían existir universos paralelos, todos ellos especulativos y no mutuamente excluyentes:
1) La región del universo que alcanzamos a observar tiene actualmente un diámetro de poco más de 90 mil millones de años luz. Este es un tamaño enorme, pero finito. Está acotado por lo que llamamos nuestro “horizonte” (en analogía directa con el horizonte en la Tierra), que delimita la región de la cual no ha habido tiempo todavía para que recibamos señal alguna. Conforme pasa el tiempo alcanzamos a ver más lejos, pero al encontrarnos en una época de expansión cósmica acelerada, hay una distancia más allá de la cual nunca podremos observar. A pesar de ello, creemos que existen regiones mucho más distantes, así que el primer sentido en el cual podemos hablar de universos paralelos es simplemente como estas regiones mutuamente inobservables entre sí.
2) Nuestras mediciones muestran que el espacio a gran escala es extremadamente plano, y el fondo cósmico de microondas es extremadamente uniforme. Estas características podrían ser simplemente accidentales, pero nos parecen poco naturales. La mayor parte de los cosmólogos piensa que se deben a que, en sus primeros instantes, nuestro universo experimentó lo que llamamos “inflación”: una época de expansión brutalmente acelerada, que hizo que en menos de una quintillonésima de segundo su tamaño creciera más de cien cuatrillones de veces. Esta idea tiene cierto respaldo de las mediciones cosmológicas. La inflación provoca que el espacio completo sea muchísimo más grande que el universo observable, reforzando lo que mencionamos en el punto anterior. Pero otra consecuencia es aún más notable. Si bien hay muchas maneras distintas de implementar la fase de expansión acelerada en un modelo concreto, en la mayor parte de ellas se encuentra que, una vez que la inflación ha comenzado, ¡nunca termina! En todos los modelos que tienen “inflación eterna”, nuestro universo (incluso tomando en cuenta mucho más que la parte que podemos observar) sería apenas una entre muchísimas “burbujas” donde la inflación ya se detuvo, inmersas en un espacio más amplio que se sigue estirando aceleradamente, dando lugar constantemente a nuevas burbujas, cuyos posibles habitantes considerarían universos por derecho propio.
3) Es posible que algunos de los números que determinan las propiedades más básicas de nuestro universo, como la cantidad de energía oscura, o la masa o carga del electrón, o la intensidad de las cuatro fuerzas fundamentales, no sean en realidad números con un valor fijo, sino que sean consecuencia de las condiciones del entorno. Podrían variar entonces de una región a otra, tal como la temperatura y la presión varían en los distintos rincones de la superficie terrestre. Esta posibilidad es sugerida naturalmente por la Teoría de Cuerdas, considerada por muchos físicos como el camino más prometedor para obtener una explicación del origen microscópico de la gravedad. Esta teoría propone que todos los distintos tipos de partículas conocidas son en realidad diminutas cuerdas vibrantes, todas idénticas. Conduce a implicaciones atractivas desde el punto de vista de la física teórica, pero todavía no tiene evidencia experimental alguna a su favor. Independientemente de la Teoría de Cuerdas, si acaso es verdad que los números básicos del universo pueden variar, entonces en los distintos “universos burbuja” mencionados en el punto anterior esperaríamos distintos valores para ellos, de tal modo que tendría aún más sentido considerar a cada burbuja como un universo distinto.

Imagen de burbujas, sugerente de un multiverso, en las variantes 2 o 3 descritas en el texto.
(Crédito: Fotografía de Karen46 en FreeImages https://es.freeimages.com/photo/disco-bubbles-1144841)

4) La Teoría de Cuerdas requiere que el espacio tenga seis o siete dimensiones adicionales a las tres que nos son obvias. Por separado de esta teoría, otras propuestas recientes contemplan también la posible existencia de dimensiones adicionales. El método más tradicional de esconder las dimensiones extra es hacerlas pequeñísimas. Pero también pudieran resultar ser tan grandes como una décima de milímetro, o quizás incluso infinitas, si están distorsionadas de cierta manera particular. En este escenario, no las habríamos detectado si las partículas de las que estamos hechos, y todas aquellas que son descritas por el Modelo Estándar, estuvieran atrapadas dentro de un objeto extendido en tres dimensiones, una “brana”, que flota en un espacio con más dimensiones, como una sábana que flota en una habitación. Si esto resulta ser cierto, entonces es natural considerar la posibilidad de que existan otras branas flotando por ahí, que serían literalmente universos paralelos al nuestro. Si en verdad vivimos en una brana, en los próximos años el Gran Colisionador de Hadrones (LHC) podría quizás darnos las primeras evidencias de ello.
5) El Modelo Estándar incorpora las peculiares reglas de la física cuántica, que les permiten a los habitantes del mundo subatómico estar de cierta forma ‘indecisos’ respecto a su posición u otras propiedades. Un electrón dentro de un átomo, por ejemplo, típicamente se encuentra en muchos sitios a la vez. Dado que los objetos de la vida cotidiana no son otra cosa que colecciones de un número enorme de partículas subatómicas, las reglas cuánticas les permitirían también estar ‘indecisos’, cosa que por supuesto nunca vemos. Esta aparente contradicción fue ilustrada vívidamente por Schrödinger, quien nos invitó a imaginar a un gato en circunstancias que, según la física cuántica, ocasionarían que se encuentre ‘indeciso’ entre estar vivo o muerto. Se han planteado esencialmente tres propuestas distintas para resolver este problema, todas ellas con defectos. Una afirma que los gatos y demás objetos macroscópicos nunca pierden su indeterminación cuántica, nunca se ‘deciden’, solo parecen hacerlo por la interacción con su entorno. Este escenario implicaría la existencia de universos paralelos presentes siempre a nuestro alrededor, que involucran las diversas alternativas entre las cuales estarían en general ‘indecisos’ los electrones, las personas y los planetas. Por esta razón, la propuesta se conoce como la “interpretación de muchos mundos”. Su mayor defecto es que, dado que todos los resultados posibles ocurren simultáneamente, es difícil definir una noción de probabilidad adecuada, para explicar el éxito que tiene la cuántica al predecir probabilidades para nuestras mediciones.
Las cinco variantes de multiverso aquí descritas son especulaciones científicas, cuya veracidad solo podrá ser establecida por corroboración experimental. Esta podría ser mucho más accesible en unas variantes que en otras. Como quiera, no deja de ser interesante que hemos sido llevados a considerar estas exóticas posibilidades por algunas de las mejores teorías actualmente en construcción en la frontera de la física. Tal como antes nos sorprendió descubrir que la Tierra no es el centro del Sistema Solar, que el Sistema Solar es apenas una parte minúscula de la Vía Láctea, y que la Vía Láctea es solo una entre cientos de miles de millones de galaxias en el universo observable, quizás estemos actualmente al borde de descubrir que nuestro universo es apenas un pequeñísimo rincón del multiverso.


Bibliografía adicional:
(1) B. Greene, 2016, La Realidad Oculta, Barcelona, Ed. Crítica.
(2) L. Susskind, 2010, El Paisaje Cósmico, Barcelona, Ed. Crítica, Drakontos.


Alberto Güijosa Hidalgo.
Doctor (Ph.D.) en Física.
Investigador Titular, Instituto de Ciencias Nucleares,
Universidad Nacional Autónoma de México (ICN-UNAM), Ciudad de México.


Elogio a la pequeñez

Elogio a la pequeñez.





Las primeras notas del tercer movimiento de la Symphony to the powers B, del compositor griego Vangelis, no dejan indiferente a ningún científico de mi generación. Al menos a los físicos y astrofísicos que fuimos niños en los 80s.  Durante los primeros años de esa década se estrenaba la serie de TV cosmos en los distintos países de habla hispana, y éramos muchos los que semana a semana esperábamos impacientes frente al televisor que las delicadas notas de piano comenzaran a flotar sobre esos etéreos paisajes sintetizados, mientras efectos especiales de vanguardia para la época nos sumergían en un viaje entre brillantes y anaranjadas galaxias. Los créditos en gruesas letras blancas mostraban un curioso subtítulo: “un viaje personal”. ¿Cómo podía ser personal el viaje que Carl Sagan nos proponía?, ¿no era justamente la ciencia la menos personal de las experiencias humanas?, ¿no se trataba de conocimiento objetivo y consensuado, fuente de tecnología y bienestar público?  Los comienzos de los 80 fueron años de importantes innovaciones tecnológicas que cambiaban nuestras vidas: los ordenadores comenzaban rápidamente a popularizarse, los discos de vinilo se reemplazaban por pequeños y opalescentes CD, y en la TV veíamos el lanzamiento de los primeros transbordadores espaciales. No parecía haber límites para la especie humana, y eso se reflejaba en la cultura televisiva de esos años, en donde la ciencia era invariablemente asociada a desarrollos tecnológicos, a delantales blancos, a desgarbados e incomprensibles “científicos locos”.
El viaje de Carl Sagan era personal porque era hacia el interior. Allí no veríamos ningún dispositivo electrónico y la única nave espacial era la “nave de la imaginación”, que nos llevaba a recorrer el universo y a emocionarnos con sus misterios y con el rol que los humanos jugamos en él. La clave de Sagan era, precisamente, la emoción: el profundo recogimiento que provoca en nosotros el acercarnos a la naturaleza. La ciencia no era otra cosa que esa nave de la imaginación. Una herramienta para conectarnos con el universo y vivir la más personal de las experiencias humanas. La invitación, además, no venía de un personaje extravagante, nerd, lejano. Venía de un hombre preocupado de su aspecto, de gran oratoria y magnetismo. Uno que quizás incluso escuchaba a The Cure en su personal stereo y miraba partidos de fútbol los domingos bebiendo cervezas.
De todas las maravillas que se sucedían en ese viaje, una de las más seductoras era la magnitud de nuestra pequeñez. La Tierra era mostrada como apenas una mota de polvo flotando en un vasto e inabarcable universo, en el que nuestra especie ha existido apenas una fracción despreciable de su larga existencia. Célebre era la aflicción que Sagan tenía por subrayar esa pequeñez mostrando algunos números que esconde la naturaleza: “hay cientos de miles de millones de galaxias en el universo observable, cada una de las cuales cobija a un número similar de estrellas”. Así, mostraba que debía haber unas 1022 estrellas en la galaxia. Especulaba que la cantidad de planetas debía ser similar a la de estrellas, es decir:
10.000.000.000.000.000.000.000
Los cálculos actuales no difieren mucho de estos números enormes, que para Sagan implicaban que muy probablemente el universo estaba rebosante de vida. Por esos años aún no se había observado ningún planeta fuera del sistema solar. Hoy ya se han detectado miles de mundos que giran alrededor de estrellas lejanas en nuestra galaxia. No tenemos nada de especial. O quizás sí. Al menos somos conciencia e inteligencia. Sagan, ligado al proyecto SETI, gastó parte de su vida en buscar señales de otras civilizaciones inteligentes.  No tuvo éxito. ¿Seremos acaso los únicos ojos de los que dispone el universo para mirarse a sí mismo?, ¿las únicas mentes que pueden comprenderlo y admirarlo? Probablemente no. Las últimas décadas han sido una buena lección de humildad, que a través de otros números enormes nos muestra la pequeñez de nuestra inteligencia.
Ya por los años en que Cosmos estaba al aire había un número que comenzaba a desvelar a los físicos teóricos. Sin duda el número más grande que jamás haya aparecido en ciencia. Lamentablemente no se trataba de una observación. Se trataba de una discrepancia. El número es 10120, cien trillones de gúgoles:
1.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000
Es la razón entre el valor que predecimos de una cantidad conocida como la constante cosmológica y el valor que observamos. La constante cosmológica fue una creación de Albert Einstein, que introdujo en 1917. Se trata de una adición a sus ecuaciones de la gravitación universal – la relatividad general – que, a distancias grandes, provoca que la interacción gravitacional sea repulsiva. Por extraño que esto parezca, el truco era necesario para modelar un universo estático. Si el universo está lleno de materia de un modo más o menos homogéneo, la atracción gravitacional lo tiende a comprimir, arrastrando con ella el tejido mismo del espacio, contrayéndolo. El universo, de este modo, no puede ser estático. Como una piedra abandonada en el aire puede elevarse mientras frena o caer aumentando su rapidez. Pero no puede congelar su movimiento. A menos claro, que una fuerza hacia arriba contrarreste a la gravedad. La propuesta de Einstein era que la gravedad misma proveía esta fuerza a grandes distancias, permitiendo un universo estático como el que vemos a simple vista. Pero el universo estático de Einstein tenía muchos problemas que lo invalidaban. El más importante llegó en 1925, cuando Edwin Hubble confirmó que las galaxias se alejan de nosotros a velocidades proporcionales a su distancia.  El universo se estaba expandiendo. La constante cosmológica dejaba de ser necesaria.
Por otra parte, ya bien establecida la mecánica cuántica no había ninguna duda para los físicos teóricos de que el vacío absoluto no podía existir: pequeñas fluctuaciones en forma de pares de partículas que se creaban y se aniquilaban, o una energía potencial no nula almacenada en los campos de materia, siempre lo contaminaban. El campo gravitacional interactúa con cualquier forma de energía, por lo que esta “energía del vacío” ejerce una influencia gravitacional. Más aún, las teorías implican que su efecto es idéntico al de la constante cosmológica. La magnitud de esta no la podemos calcular de manera precisa, ya que no conocemos el comportamiento de la gravedad a escalas muy pequeñas, esto es, la mecánica cuántica del campo gravitacional, pero podemos hacer una estimación gruesa. Y allí es donde llegamos a ese número inabarcable: La constante cosmológica debe ser muchísimo más pequeña. Al menos cien trillones de gúgoles más pequeña para ser compatible con el universo que observamos.

¡Energía del vacío! Credit: CC0 Public Domain

A pesar de la discrepancia, los físicos de los años 80 no estaban demasiado preocupados. Si las observaciones eran compatibles con un universo sin constante cosmológica, entonces debía existir algún mecanismo, aún por descubrir, que obligara a la energía del vacío a anularse. Este tipo de mecanismo es común en física, y suele asociarse a simetrías: cambios que podemos hacer sobre los protagonistas de una teoría sin que esta lo note, como cuando giramos un cuadrado perfecto en 90 grados en torno a su centro.  Es precisamente una simetría de la teoría electromagnética, por ejemplo, la que predice que la masa del fotón debe ser exactamente igual a cero.
Pero en 1998 cae un gran balde de agua fría. Dos grupos de astrofísicos publican un descubrimiento asombroso: observando supernovas lejanas encuentran que la velocidad de expansión del universo no está disminuyendo, sino que, por el contrario, está aumentando.  Saul Perlmutter, Brian Schmidt y Adam Riess ganan el premio Nobel de física en 2011 por esta hazaña. Este fenómeno puede ser explicado asumiendo la existencia de una constante cosmológica que otorgue a la gravitación ese carácter repulsivo que Einstein deseaba.  Pero si la constante cosmológica no es igual a cero, entonces el mecanismo de relojería que los físicos estaban buscando debía ser mucho más intrincado. Ya no era suficiente explicar el porqué la constante cosmológica era tan pequeña, había que explicar además por qué era tan grande. De hecho, aunque gúgoles más pequeña que aquella que predecía una estimación ingenua, aún es suficientemente grande como para representar nada menos que el 70% del contenido energético del universo.  Hoy la llamamos energía oscura y sigue siendo uno de los enigmas fundamentales de la ciencia. El destino del universo depende de su comportamiento. Si la densidad de energía oscura se mantiene constante –caso en que sería indistinguible de la constante cosmológica original de Einstein- la expansión acelerada seguiría adelante hasta que las galaxias se pierdan de vista unas de otras, mientras el combustible de las estrellas se consume y el universo se va apagando en un frío, oscuro y eterno invierno final. Pero es difícil hacer predicciones sin entender mejor la naturaleza de esta energía oscura. Menos aún cuando del 30% restante de energía, solo un sexto corresponde a la materia que conocemos y que describe el modelo standard de las partículas elementales. El resto es la “materia oscura”, otra extraña forma de energía que postuló la astrónoma Vera Rubin en los años 70 y cuya existencia ha sido confirmada en distintas observaciones independientes a lo largo de las décadas que siguieron.  De este modo, las últimas 5 décadas han ido confirmando el hecho de que el 95% del contenido del cosmos no lo entendemos en absoluto. Peor aún, nuestras teorías dan origen a estimaciones erradas en trillones de gúgoles. Parece entonces que la más profunda lección que nos ha dado el cosmos desde aquel día en que escuchamos los créditos finales del decimotercer y último episodio de la serie de Sagan es una sola. Nuestra descomunal pequeñez no es solo espacial y temporal. Más abrumadora aún es la pequeñez de nuestra capacidad de entendimiento. Al igual que el universo, el océano de nuestra ignorancia parece crecer aceleradamente ante nuestros ojos, a menudo dejándonos en ridículo. A pesar de eso, es precisamente ese el océano que nos atrae, que nos emociona, que estimula la empresa científica. Un océano al que muchos de nosotros, después de ver la serie Cosmos, no pudimos sacarle los ojos de encima jamás.

Andrés Gomberoff.
Doctor en Física.
Profesor de la Universidad Adolfo Ibáñez, Santiago de Chile.
Investigador del Centro de Estudios Científicos, Valdivia.
(Cuando escribió este texto)

El amanecer de la astronomía de neutrinos

El amanecer de la astronomía de neutrinos. 





Es una feliz casualidad que Carl Sagan, en la introducción a su libro Cosmos en 1980, mencionase la Física de Neutrinos para ilustrar el continuo progreso científico. Por ello, parece especialmente apropiado que revisitemos su estado actual en este 40º aniversario. Empecemos recordando que los neutrinos son unas de las partículas elementales, es decir, componentes fundamentales de la materia al igual que otras quizás más conocidas como los electrones o los quarks. En el Cosmos de 1980 se menciona “El Problema de Los Neutrinos Solares”, esto es, la observación de un número de neutrinos procedentes del Sol menor que el esperado. Los neutrinos se producen en el Sol como productos secundarios de las reacciones nucleares de fusión que ocurren en su interior, y logran escapar gracias a su escasa probabilidad de interaccionar con otras partículas. Desde mediados de los años 60, físicos de partículas se propusieron detectar estos neutrinos usando gigantescos detectores para lograr atrapar algunos, y una vez tras otra obtuvieron resultados mucho más bajos que los esperados. Sagan menciona posibles explicaciones consideradas en aquella época como que los neutrinos se desintegraban en su viaje entre el Sol y la Tierra, o aun más dramática, que vivíamos en una época en la que el Sol había dejado de fusionar hidrógeno en su núcleo. También menciona brevemente las propiedades de los neutrinos que a la postre conducirían a la explicación correcta: la existencia de tres tipos o “sabores” de neutrinos –electrónico, muónico y tauónico– de los cuales sólo uno de ellos –el electrónico– podía medirse en los detectores de neutrinos solares de la Tierra, y que los neutrinos, a diferencia de los fotones, tienen masa.
Hoy en día sabemos que la solución al Problema de los Neutrinos Solares es un fenómeno conocido como oscilaciones de neutrinos. El origen de este fenómeno se debe a que los tipos de neutrinos que se producen son diferentes a los tipos de neutrinos que se propagan. Esto provoca que neutrinos que se producen con un cierto “sabor” al cabo de un tiempo se encuentren en una mezcla de varios “sabores”. Esto es algo chocante de acuerdo a nuestra experiencia cotidiana pero es algo muy común en Física Cuántica, la física que describe lo muy pequeño. De hecho, es similar a lo que ocurre en el famoso experimento imaginario del gato de Schrödinger, en el que el estado de un gato encerrado en una caja opaca con un dispensador de veneno que depende de la desintegración de un átomo se encuentra en una superposición del gato vivo y el gato muerto. En el caso de los neutrinos solares, las reacciones nucleares en el interior del Sol producen neutrinos electrónicos, pero en su camino hasta la Tierra los neutrinos se convierten en una mezcla que contiene los tres “sabores” de neutrinos aproximadamente en partes iguales. Por ello, los detectores que sólo eran sensibles a neutrinos electrónicos medían números menores a los predichos por modelos teóricos. Fue necesario aguardar hasta 2002, para que el Sudbury Neutrino Observatory (SNO) [1], un experimento capaz de detectar los tres sabores de neutrinos, confirmase que, efectivamente, el número de neutrinos total coincidía con el valor esperado.
Una importante consecuencia de la observación de las oscilaciones de neutrinos es que revela que los neutrinos tienen masa, a diferencia de lo considerado cuando se estableció el Modelo Estándar, la exitosa teoría que describe las partículas elementales y sus interacciones. Las oscilaciones de neutrinos sólo pueden darse si las masas de los neutrinos no son nulas. Este descubrimiento fue galardonado con el Premio Nobel en Física de 2015, concedido a Arthur McDonald como líder del experimento SNO, y a Takaaki Kajita, como líder del experimento Super-Kamiokande [2], otro detector con el que se observó la oscilación de neutrinos usando neutrinos producidos en la atmósfera por rayos cósmicos.
Podemos decir que la astronomía de neutrinos nació con la detección de los neutrinos solares. En 1980, Sagan especulaba con la posibilidad de que en el futuro seríamos capaces de detectar neutrinos de los hornos nucleares en el interior de estrellas cercanas. Sin embargo, esto todavía es algo muy lejano debido a las grandes distancias que nos separan de nuestras estrellas vecinas. No obstante, la astronomía de neutrinos experimentaría una revolución unos años después, en 1987, cuando se detectaron neutrinos producidos en la supernova SN1987A. Estos neutrinos fueron producidos cuando Sanduleak -69 202, una estrella supergigante azul en la Gran Nube de Magallanes –una de las galaxias satélites de la Vía Láctea a 168000 años-luz de la Tierra–, colapsó sobre sí misma. Este tipo de tipo de supernova es conocido como supernova de tipo II, y ocurre cuando una estrella masiva agota su combustible nuclear de manera que la presión generada en el núcleo de la estrella es incapaz de contrarrestar el peso de las capas exteriores. Esto provoca que caigan sobre el núcleo, comprimiéndolo hasta tal punto que los electrones se combinan con los protones de los núcleos atómicos, produciendo una gran cantidad de neutrones y neutrinos electrónicos en forma de estallido. Después del estallido, neutrinos y antineutrinos de todos los sabores continúan siendo emitidos por la supernova como modo de enfriamiento. De hecho, el 99% de la energía liberada en la supernova se emite en forma de neutrinos durante unos diez segundos. La fase final de la supernova es la creación de una estrella de neutrones o un agujero negro, en cuyo caso se espera un cese abrupto en la producción de neutrinos.
SN1987A fue la supernova más cercana desde 1604, y la única por el momento en la que se han detectados neutrinos en la Tierra. En concreto, se detectaron 25 neutrinos repartidos en 3 experimentos diferentes. Kamiokande-II e IMB, dos detectores subterráneos, uno en la mina de Kamioka en Japón y el otro en la mina Fairport en Estados Unidos, llenos de miles de toneladas de agua e inicialmente construidos para investigar la posible desintegración de los protones, detectaron 12 y 8 neutrinos, respectivamente. Otros 5 neutrinos fueron detectados en Baksan, Rusia, con un detector lleno de centellador orgánico. La detección de estos neutrinos confirmó la teoría general que describe cómo una supernova se produce. Desde entonces, los físicos de neutrinos esperan con expectación la próxima supernova. De hecho, actualmente existe una red de detectores de neutrinos conocida como Supernova Early Warning System (SNEWS) [3] que vigila los cielos en espera de la próxima supernova. Debido a la poca probabilidad de interacción de los neutrinos, se espera que éstos escapen de la estrella moribunda y alcancen la Tierra antes de que los fotones emitidos por la supernova lo hagan, en una persecución sobre distancias cósmicas. Esto fue así en 1987, cuando el pulso de neutrinos atravesó la Tierra unas horas antes de que los primeros fotones de la explosión fueran visibles.

El remanente de la supernova 1987A capturado por el Telescopio Espacial Hubble en 2011. Se observan dos anillos débiles producidos por material estelar y un anillo central muy brillante rodeando la difunta estrella. Crédito: ESA/Hubble & NASA.


El logro más reciente en la astronomía de neutrinos es la detección de neutrinos procedentes del cuásar TXS 0506+056 situado a 5700 millones de años-luz de la Tierra. Un cuásar es un núcleo activo de galaxia en el que un agujero negro supermasivo, cuya masa está en el rango de millones o miles de millones veces la masa del Sol, está devorando materia. Algunos de estos objetos producen chorros de partículas, y en ocasiones este chorro apunta en dirección a la Tierra, lo que se conoce como blázar. Este es el caso de TXS 0506+056. El 22 de septiembre de 2017, el observatorio de neutrinos IceCube [4], un volumen de hielo de un kilómetro cúbico instrumentado en la Antártida, detectó un neutrino muónico con una energía veinte veces mayor que la alcanzada en el LHC, el acelerador de partículas más potente de la Tierra. Tras reconstruir la dirección del neutrino, se comprobó que apuntaba hacia TXS 0506+056, que además estaba particularmente activo, emitiendo también en el espectro electromagnético. A posteriori se encontraron otros neutrinos con menores energías pero mismo origen en los datos de IceCube de 2014 – 2015.
El futuro de la astronomía de neutrinos es brillante. La investigación con neutrinos solares continúa progresando, arrojando más información sobre las reacciones nucleares en el interior de nuestro Sol y revelando propiedades de los neutrinos. En la próxima década esperamos contar con dos nuevos detectores, Hyper-Kamiokande [5] en Japón y DUNE [6] en Estados Unidos, con capacidad para detectar neutrinos de la próxima supernova cercana con una precisión sin precedentes, e incluso detectar el fondo de neutrinos producidos por supernovas pasadas. El detector IceCube continúa operando y hay planes para aumentar sus capacidades, y detectores similares están siendo instalados en el Mar Mediterráneo para el proyecto KM3NeT [7]. Quizás el desafío final de la astronomía de neutrinos sea la detección de los neutrinos generados en el Big Bang. Al igual que existe un fondo cósmico de fotones que fue emitido cuando el Universo se volvió transparente a la radiación electromagnética unos 380000 años después del Big Bang, y que debido a la expansión del Universo hoy en día se observa en el espectro de microondas, existe un fondo cósmico de neutrinos. Sin embargo, el fondo de neutrinos cósmico es una reliquia mucho más cercana al propio Big Bang, creado tan sólo un segundo después. La muy baja energía de estos neutrinos hace su detección extremadamente difícil pero no imposible, y retornando a la idea inicial: la ciencia no deja de progresar.


Referencias:


Bibliografía:
(1) F. Close, 2010, Neutrino, Oxford, Oxford University Press.


José I. Crespo-Anadón.
Doctor en Física.
Investigador del Programa de Atracción de Talento de la Comunidad de Madrid, Departamento de Investigación Básica, División de Física Experimental de Altas Energías del Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT), Madrid.


Computación cuántica

Computación cuántica.
La persistencia de la memoria.




La computación cuántica es uno de los grandes retos intelectuales y tecnológicos de la actualidad. Por un lado, atañe a cuestiones de hondo calado filosófico; por otro, la promesa de una nueva computación, exponencialmente más eficiente en ciertos casos que la posibilitada por los ordenadores clásicos, alberga un gran potencial disruptivo para la Ciencia, la industria (en sentido amplio), y para otros ámbitos de la sociedad. En este capítulo, se revisarán muy brevemente el concepto y la historia de la computación cuántica; se pretende dar así una visión cercana del campo, el cual ha experimentado un desarrollo espectacular durante las últimas décadas.

La computación cuántica se fundamenta en la utilización de ciertos efectos (cuánticos) que aparecen a escalas microscópicas a la hora de definir cuál es la unidad básica de información, el denominado qubit. Esto tiene increíbles consecuencias. La naturaleza intrínsecamente cuántica de los qubits hace que su comportamiento siga unas reglas diferentes de las que sigue la lógica binaria basada en bits clásicos (ceros y unos), en la cual por otra parte están basados todos los dispositivos electrónicos digitales tales como ordenadores, teléfonos móviles, etc. Propiedades tales como la superposición, el entrelazamiento y la interferencia proporcionan las herramientas para manipular (¡y entender!) la información de un modo totalmente novedoso, que trae consigo algoritmos cuánticos que resuelven algunos problemas de manera exponencialmente más rápida que los mejores algoritmos clásicos conocidos. Una consecuencia directa es que numerosos métodos de encriptado ampliamente utilizados en la actualidad quedarán obsoletos cuando exista un ordenador cuántico con corrección de errores. Esto significa que la privacidad y seguridad de las comunicaciones (transacciones bancarias, correos electrónicos, etc.) a nivel global se verán comprometidas. Por lo tanto, en unos años habrá que cambiar estos sistemas de encriptación por otros protocolos resistentes a ordenadores cuánticos, a escala planetaria.  Debido a éste y a otros motivos, las implicaciones de los ordenadores cuánticos trascienden el ámbito puramente académico y científico, y mantienen a las grandes potencias con un ojo (y un fajo de billetes) sobre esta potencialmente disruptiva nueva tecnología. 

     Para entender la historia y los fundamentos de la computación cuántica, es necesario adentrarse en las raíces de la Ciencia de la Computación. En 1936, mientras en España estallaba la guerra civil, Alan Turing (o como se refería a él nada menos que el genial físico Richard Feynman, el “señor Turing”) publicaba un artículo que a la postre cambiaría el rumbo del mundo. Y no sólo porque sus ideas le permitirían a él y a sus colaboradores construir una máquina que acabó descifrando Enigma, el código secreto utilizado por los nazis para encriptar sus comunicaciones durante la segunda guerra mundial; sino porque además sentó, de manera decisiva, las bases matemáticas rigurosas de lo que hoy en día entendemos por “computación”.
En dicho artículo se introducía la denominada máquina de Turing, que en realidad es un dispositivo abstracto. ¿Qué hace tan especial a una máquina de Turing? Alan Turing demostró en su artículo que existe lo que se denomina una máquina de Turing universal. Es decir, una máquina de Turing que es capaz de imitar el comportamiento de cualquier otra máquina de Turing. Esto significa, por un lado, que no necesitamos construir una máquina para leer el correo, otra para reproducir vídeo y otra para jugar al ajedrez. Es posible tener una sola máquina que haga todo esto. No obstante, el verdadero alcance del resultado de Turing se debe a la denominada hipótesis de Church-Turing. Ésta afirma que cualquier aparato de computación posible es emulable por una máquina universal de Turing. Esto significa, de ser cierto, que no necesitamos preocuparnos por las características particulares del ordenador que queramos construir (ahora o en el futuro), ya que si estudiamos las máquinas de Turing, entonces podremos derivar resultados que son aplicables a cualquier aparato de computación imaginable. Vemos por lo tanto la potencia y utilidad de esta hipótesis. La hipótesis de Church-Turing es considerada verdadera por la mayoría de expertos en el tema, si bien no ha sido demostrada.
Los ordenadores clásicos son, en esencia, un montón de ceros y unos sobre los que se aplican operaciones (puertas) que siguen la lógica binaria. Existe un resultado de universalidad que dice que absolutamente todo lo que hacen los ordenadores hoy en día puede reducirse en principio a montones de operaciones NAND, COPY y SWAP sobre miles de millones de bits. Esto incluye desde navegar por internet, reproducir música, etc. hasta generar exquisitos “nuevos cuadros de Rembrandt” digitalizados o ganar al ajedrez a los mejores y más brillantes jugadores del mundo. Los ordenadores muestran de forma espectacular cómo algo tremendamente complejo puede emerger a partir de unas unidades constituyentes tremendamente sencillas, cuando juntas muchísimas de ellas de la manera apropiada. También demuestran las inquietantes capacidades “humanas” que pueden adquirir las máquinas, tales como aprender la técnica de un maestro de la pintura y reproducir su estilo en nuevas obras originales. Crear arte. Muchos estarán de acuerdo en que el arte es algo genuina y exclusivamente humano… ¿pero es así realmente? ¿O tal vez es que nosotros mismos no somos sino meros ordenadores, sofisticados, pero emulables al fin y al cabo por una máquina universal de Turing? Sea como fuere, cuando se discuten éste y otros temas similares, es interesante también tener presente la reflexión de Feynman, que nos recuerda que los aviones pueden volar, pero tal vez sean de limitado uso para intentar comprender la naturaleza última de las aves.
Volviendo a la computación cuántica, la idea surgió inicialmente a raíz de dos cuestiones fundamentales. Por un lado, la consideración de cuáles son las limitaciones últimas que imponen las leyes de la Física a la computación. En particular, fue el físico Charles Bennett quien le sugirió a Feynman esta pregunta con respecto de la Mecánica Cuántica. El propio Bennet había demostrado ya que la computación reversible, es decir, aquella que hace uso de puertas lógicas reversibles (a diferencia del NAND, que es irreversible), también es universal. Las leyes cuánticas son reversibles en el tiempo; por lo tanto, las puertas cuánticas son también reversibles, y el resultado de Bennet implica que la computación cuántica puede ser universal. Por otro lado, el segundo motivo que llevó a la idea de la computación cuántica fue la comprensión de que la descripción clásica de los sistemas cuánticos necesita en general de un número de parámetros que crece exponencialmente con el tamaño del sistema (por ejemplo, con el número de partículas), y por lo tanto, no es eficiente. Feynman se dio cuenta de que un sistema (un ordenador) cuántico, en cambio, sí podría emular a otro sistema cuántico de forma más eficiente, pues ambos están regidos por las mismas leyes. La ineficiencia de los ordenadores clásicos para describir sistemas cuánticos había sido observada también por el matemático Yuri Manin. Feynman propuso un simulador cuántico, expandiendo las ideas de Paul Benioff a este respecto. El siguiente gran avance teórico lo introdujo el físico David Deutsch al definir por primera vez una máquina de Turing cuántica. La máquina de Turing cuántica es a los ordenadores cuánticos lo que la máquina de Turing a los ordenadores clásicos. Fundamental.
Otro resultado importantísimo en computación cuántica, análogo al de la universalidad de la puerta NAND en computación clásica, es la universalidad de las puertas de dos qubits. Esto significa que sólo es necesario un conjunto apropiado (y reducido) de puertas lógicas cuánticas que actúen sobre un qubit y de puertas que actúen sobre dos qubits conjuntamente para aproximar tanto como se quiera cualquier otra transformación cuántica posible. Considero estos dos resultados de universalidad (clásico y cuántico) tremendamente sugerentes. Es como si la Naturaleza y las leyes de la Física nos quisieran regalar esta enorme simplificación en términos tanto conceptuales como prácticos a la hora de construir ordenadores. Otro resultado crucial que nos brinda la Naturaleza, descubierto en la década de los 90, es la posibilidad de incorporar esquemas de corrección de errores a los ordenadores cuánticos. Esto parece casi un milagro, teniendo en cuenta que los sistemas cuánticos no pueden ser observados, por ejemplo para comprobar si se ha producido un error, sin destruir su estado previo a la medida. Y teniendo en cuenta también que los qubits tampoco pueden ser clonados o copiados, lo cual constituye por su parte otro resultado sorprendente y fundamental. Muchos de los algoritmos cuánticos conocidos más importantes necesitarán de corrección de errores para poder resolver problemas. Esto tardará todavía un tiempo en llegar. Mientras tanto, se han propuesto toda una serie de algoritmos híbridos cuánticos-clásicos que son más robustos a los errores sistemáticos presentes en los ordenadores cuánticos, y que no requieren necesariamente de corrección de errores. Estos algoritmos acercarán las primeras aplicaciones útiles de la computación cuántica en el tiempo, y hoy en día se ha desarrollado todo un campo de investigación en torno a ellos. Las futuribles aplicaciones de los ordenadores cuánticos incluyen la ciencia de materiales, la ciberseguridad, la bioinformática, el análisis financiero, la industria militar, la logística, la inteligencia artificial y un largo etcétera1. Esto puede dar una idea del gran impacto que puede suponer la computación cuántica. No en vano, es un potencial factor diferencial, y como tal, un elemento de competición geopolítica. Esto es aplicable también a la supercomputación clásica. Basta observar cuáles son los países con mayor poder de supercomputación hoy en día: EEUU y China.

Prototipo de ordenador cuántico.

En definitiva, la computación cuántica alberga un gran potencial disruptivo. La mejora de los ordenadores clásicos basada en la continua miniaturización de los transistores al ritmo marcado por la ley de Moorese acerca a su fin. Los transistores no pueden hacerse infinitamente pequeños, ya que a cierta escala empiezan a aparecer los efectos cuánticos. Todavía no sabemos cuál será el soporte físico definitivo de los ordenadores cuánticos del futuro, pero el objetivo de su construcción está suponiendo un gran esfuerzo de investigación experimental en multitud de sistemas físicos distintos, desde materiales superconductores o semiconductores hasta sistemas de unos pocos átomos o fotones. Esto es muy bueno en sí mismo, aunque algunas de estas tecnologías no lleguen a alcanzar el objetivo final. Asimismo, la Teoría de la Información Cuántica nos ha posibilitado una comprensión muchísimo más amplia de la propia Mecánica Cuántica. Así pues, en el peor de los casos, en el supuesto escenario en el que la construcción de un ordenador cuántico no fuera viable, el camino recorrido habría merecido la pena con creces. No obstante, lo increíble es que nada parece indicar que ése vaya a ser el caso.


Notas:

1 Nota de los coordinadores: Extracto de la conferencia de D. Ignacio Cirac en la Fundación Ramón Areces el 26/09/2019 donde anima/fomenta a los jóvenes a ser científicos, y no solo a los físicos, en multitud de disciplinas que terminarán teniendo importancia en el desarrollo de la computación cuántica: https://youtu.be/n9YLhLb_wl0.
2 La ley de Moore es una ley empírica, formulada en 1965 por Gordon Moore, cofundador de Intel. Afirma que el poder computacional de los ordenadores desarrollados por la humanidad se duplica aproximadamente cada dos años; es decir, crece exponencialmente.



Diego García-Martín.
Doctor en Física Teórica.
Postdoc en Computación Cuántica.
Los Alamos National Laboratory.


Teleportación Cuántica y Causalidad

Teleportación Cuántica y Causalidad.
Viajes a través del espacio y el tiempo.




Pero la era de los entes-máquinas pasó… aprendieron a almacenar el conocimiento en la estructura del propio espacio, y a conservar sus pensamientos para siempre en heladas celosías de luz… Podían vagar a voluntad entre las estrellas, y sumirse como niebla sutil a través de los intersticios del espacio.
Arthur Clarke, 2001 una Odisea Espacial

En tiempos del coronavirus, la relación entre conocimiento y supervivencia se percibe dramática. Para cuando la vida, como la conocemos, sea inviable, deberíamos haber identificado el nuevo albergue de nuestra complejidad evolucionada, transformados en quién sabe qué forma intangible difícil de imaginar. ¿El espacio?... su naturaleza ha sido objeto de la reflexión de los más lúcidos en todas las épocas. Parece ser ese objeto irreductiblemente simple que queda cuando quitamos todo, a veces, por ello, confundido con la nada. Muy al contrario que la nada, el espacio vacío tiene estructura y, según parece, compleja.

El avance más sólido en el conocimiento de su estructura se produjo a principios del siglo XX cuando se nos revelaron dos detalles fundamentales de su engranaje interno. El primero es que está ligado íntimamente al tiempo, formando un bloque indisoluble, el espacio-tiempo. El segundo es que éste es, a su vez, un objeto dinámico cuya geometría se altera ante la presencia de materia. Tal acción y reacción constituye la base de la Gravitación según la Teoría General de la Relatividad. La prueba más espectacular de ese carácter dinámico fue la detección de las ondas gravitacionales: vibraciones de pura geometría que se propagan en el espacio vacío. El castillo conceptual de la Relatividad se soporta en varias claves de arco: una de ellas es la “causalidad”. Descarta este principio la propagación a velocidades superlumínicas; el efecto que causa un agente no puede ocurrir en ningún punto del espacio antes de que lo alcance el emisario más rápido, la luz. Esto limita claramente nuestras posibilidades de actuar sobre el universo y también de conocerlo. Cualquier viaje interestelar, con naves necesariamente más lentas que la luz, se topa con esta barrera infranqueable que obliga a pensar en generaciones de tripulantes, tan sólo para afrontar décadas de travesía.
La idea de la teleportación surgió en argumentos de ciencia ficción incluso anteriores a “Transporter”, la famosa máquina de Star Trek. Sus clarividentes autores preconizaron la idea de que lo que nos conforma como seres, más que materia, es información. Una idea arriesgada: prácticamente todas las moléculas que componen nuestros pesados y torpes cuerpos se renuevan a los pocos años, pero la ubicación relativa de las mismas permanece. Al límite, podríamos decir que somos reductibles a una secuencia de unos y ceros que codifican estructura. Pero incluso viajando convertidos en señales de luz, la causalidad nos confinaría a una porción insignificante del universo. La inexistencia de señales acausales que se propaguen a velocidades superiores a la de la luz es un axioma derivado, como todos, de la observación. Sin embargo, hay un consenso de que en el estudio de estructura íntima del espacio aún queda lana que cardar, y un mechón importante es, precisamente, el origen microscópico de la causalidad. Parte de dicha sospecha proviene de la dificultad que presenta encajar la Teoría de la Relatividad General y la Mecánica Cuántica, las dos catedrales conceptuales erigidas durante el siglo XX. El mundo es cuántico a todas las escalas y para todos los objetos -es importante enfatizar esto-. Para todos menos, todavía, para uno: el espacio-tiempo.  Dado que, desde el punto de vista de la Relatividad General, el espacio-tiempo es una cosa más, parece lógico pensar que obedezca también a las leyes de la Mecánica Cuántica. En este punto encontramos un atolladero que mantiene encallada la Física Teórica desde hace décadas.
¿Viajar convertidos en información pura? La información parece algo liviano y abstracto, más cercano a las “heladas celosías de luz” que a las toneladas de metal del supercomputador que usamos para tratarla. En su carrera hacia la miniaturización, la informática trata de desasirse de las ligaduras de la torpe y pesada materia y, por ahí, está llegando a su límite. A las escalas actuales empieza a percibir la presencia de nuevas reglas. Más pronto que tarde, en esta aspiración por manipular información en estado puro, tendremos que comprender cómo implementarla en la estructura matemática de la Mecánica Cuántica. En la última década, la Teoría Cuántica de la Información ha experimentado un auge exponencial. Se enseña en todas las universidades y muchas empresas destinan grandes recursos a la carrera por el control de la Computación y las Comunicaciones Cuánticas.
La Mecánica Cuántica se asienta sobre varios axiomas. El primero de ellos es una afirmación acerca, no de la Naturaleza, sino de nuestra capacidad para conocerla: toda la información a la que podemos tener acceso sobre un sistema, se condensa en un objeto matemático denominado “vector de estado” o, a veces, “función de onda”. Como su propio nombre indica, es un elemento de un espacio vectorial; un vector, que el lector puede imaginar pintando una flecha que sale de la esquina en una hoja de papel. El cambio de punto de vista es radical: el vector de estado es un elemento que no hace referencia a la posición. Vive en otro espacio, el espacio de estados, y tiene sentido en todo el universo a la vez. Reconstruir la función de onda es aprender todo lo que se puede sobre el sistema, y por tanto, es información. Ocurre, sin embargo, que las preguntas con las que interrogamos al sistema para desvelar su estado reciben una respuesta probabilística. Si preparamos un electrón con velocidad cero, cada vez que midamos su posición obtendremos un valor distinto. Otro axioma de la Mecánica Cuántica afirma que, cada vez que medimos el estado original, éste se modifica irremisiblemente; por eso es necesario prepararlo de nuevo. Los múltiples resultados obtenidos sobre muestras preparadas sucesivamente de manera idéntica permiten reconstruir una distribución de probabilidad que nos desvelará el estado preparado.
Advirtamos cómo se ha colado sutilmente la variable temporal en el problema en la palabra sucesivamente. Imaginemos reconstruir una novela abriendo repetidamente al azar el libro por una página y apuntando cada vez una palabra y su ubicación. Ciertamente va a llevar tiempo. Podríamos hacer otra cosa: clonar el libro un gran número de veces y ordenar a otros tantos lectores que lo abran a la vez por una página aleatoria y reporten el resultado. En un segundo tendremos la novela completa. ¿Se podría hacer lo mismo con un electrón? ¿Tener un millón de electrones, preparar uno y contagiar su estado a los demás? Desgraciadamente con la función de onda esto es imposible: el denominado “Teorema de No Clonación” es uno de los resultados más sencillos de demostrar matemáticamente y cuya importancia, sin embargo, ha sido puesta de manifiesto más tardíamente.
¿Qué es la teleportación cuántica y qué tiene que ver con todo esto? La cosa se pone interesante cuando hablamos del estado de un sistema compuesto por, al menos, dos subsistemas -por ejemplo dos electrones, o dos átomos- que denominaremos A y B. Igualmente, la Mecánica Cuántica asigna al sistema conjunto, AB, un vector de estado que contiene toda la información accesible.  Resulta que, en la mayoría de los casos, esta función de onda goza de una propiedad matemática denominada entrelazamiento. Cuando esto ocurre, medidas que un observador, Alice, efectúa sobre A, modifican el estado de AB en todo el universo a la vez. El subsistema B, no importa en qué galaxia esté, percibe la medición de A y su función de onda colapsa instantáneamente a otra, de una manera correlacionada. Dependiendo de qué resultado haya medido Alice en A, habrá respuestas que un observador, Bob, no podrá obtener nunca midiendo B. Esta correlación instantánea a distancia es un efecto claramente superlumínico, y es genuino de la Mecánica Cuántica.
¿Sería posible transferir información de forma acausal aprovechando el entrelazamiento? Una estrategia sencilla sería la siguiente: Alice asocia una cierta información a su selección de medida sobre A, de entre todas las posibles. Su esperanza es que Bob, al examinar su parte B, reconozca qué medida hizo Alice, y con ello adivine la información que le quiere mandar. Si esto fuera posible, la Mecánica Cuántica y la Relatividad Especial tendrían serios problemas de coexistencia. La imposibilidad de hacer esto nos refiere de nuevo a la naturaleza probabilística de los resultados de medida. El estado B tendría que ser clonado por Bob y medido muchas veces para inferir su estado y, con ello, qué medida hizo Alice y, así, el aviso urgente que contiene dicha selección. Milagrosamente, o quizás no, el Teorema de No Clonación prohíbe esta estrategia, y protege el Principio de Causalidad en la transferencia de información.
La Teleportación Cuántica es una versión más sofisticada en la que, ahora sí, el estado cuántico de A es literalmente trasplantado a B a distancia. El entrelazamiento es, de nuevo, un ingrediente esencial. Pero ahora se necesita un tercer subsistema C, con el que ACB forme estado doblemente entrelazado de una forma muy concreta. En su laboratorio, Alice tiene una parte, AC, y mide sobre ella. Automáticamente, debido al entrelazamiento, el estado de B, en el laboratorio de Bob colapsa a un estado que aún no es el que tenía A. Si lo fuese tendríamos propagación acausal de información. Para completar el proceso, Bob necesita conocer el resultado de la medida de Alice sobre AC, que ésta le envía por métodos clásicos fiables (por ejemplo luz). Con este dato, Bob realiza una operación que actúa sobre el estado colapsado y… ¡bingo! el resultado es que B ahora está en mismo que tenía A originalmente. La necesidad de intercambiar una señal causal clásica, por un lado salva la causalidad y, por otro, protege el Teorema de No Clonación. En efecto, al medir A, Alice ha destruido el estado original. De lo contrario acabaríamos con dos copias del mismo estado, una en A y otra en B.

Cristales usados para almacenar fotones entrelazados.
Crédito: Félix Bussières / Universidad de Ginebra. JPL-NASA

La teleportación cuántica sí que es verdadera transferencia de información y ya se lleva a cabo en el laboratorio. Las plusmarcas de distancia caen día a día y ya alcanzan satélites en órbita. El procedimiento de teleportación cuántica es uno de los “intersticios” que parece dejarnos la naturaleza para enviar información respetando a la vez, tanto la causalidad clásica del espacio tiempo como la no clonación cuántica.  Si ambas propiedades saben una de la otra y se protegen mutuamente o no, es una entrada importante en la lista asuntos que quedan por comprender.

Javier Mas Solé.
Doctor en Física.
Dpto. de Física de Partículas y Materia Condensada e IGFAE.
Facultad de Física, Universidad de Santiago de Compostela.