Mostrando entradas con la etiqueta 2022 Y EL AZAR RELATIVO. Mostrar todas las entradas
Mostrando entradas con la etiqueta 2022 Y EL AZAR RELATIVO. Mostrar todas las entradas

martes, 31 de diciembre de 2024

Una cuestión nuclear

 Una cuestión "nuclear".

Encuentros y desencuentros en los años 30 y 40: Einstein, Bohr, Curie, Heisenberg, Fermi, Meitner, ...







El 6 de agosto de 1945 el mundo entero fue testigo del lanzamiento de la bomba atómica sobre Hiroshima. La BBC radiaba la noticia e informaba de las catastróficas consecuencias del mayor proyecto de investigación científico-militar de la historia. Poco después, en 1946 la revista Time hacia recaer la paternidad de la bomba sobre Albert Einstein y su famosa ecuación E=mc2, postulada 40 años antes, cuando ni siquiera el neutrón se había descubierto.


Fig.1 Todas las imágenes seleccionadas de Wikimedia commons.

Grandes científicos de la época como Niels Bohr y Robert Oppenheimer compartirían, desde el punto de vista mediático, la paternidad y Lise Meitner sería reconocida en América como la madre de la bomba atómica. Pero la implicación de cada uno de ellos sería desigual y en algunos casos prácticamente nula. Para Einstein, pacifista convencido, su contribución tuvo una doble vertiente, una científica y otra política; la segunda lo atormentaría hasta el día de su muerte.

No cabe duda de que su ecuación, E=mc2, ha tenido grandes consecuencias en la historia de la humanidad y que la creación de la bomba atómica ha sido una consecuencia de la misma. Pero casi ningún descubrimiento científico es fortuito, suelen ser el fruto de una larga historia y de pequeños avances concatenados que culminan en algo superior. Así ocurrió también con el descubrimiento de la fisión nuclear, lo que, junto a una guerra mundial, fue el punto de partida de la era atómica.

 

Los antecedentes: Revelando el núcleo.

Culpar a Einstein del desarrollo y uso de la bomba atómica porque su ecuación es la base teórica que la hizo posible, es lo mismo que echar la culpa a Demócrito por ser el primero en dar nombre a las unidades indivisibles de las que se creía que estaba compuesta la naturaleza, los átomos. Éstos son tan pequeños que no los podemos ver, así que hubo que esperar más de 20 siglos para poder demostrar su existencia. Fue Einstein en 1905 quien daría una formulación matemática de los mismos en el modelo del movimiento browniano. “Mi objetivo principal era encontrar hechos que garantizaran lo más posible la existencia de átomos de tamaño finito y determinado”, escribió en sus Notas Autobiográficas.

Los elementos fundamentales de la naturaleza conocidos desde antiguo, a los que se les asignó un símbolo, estarían formados por diferentes átomos. Cada elemento sería una colección de átomos idénticos indestructibles químicamente. En 1869, el menor de 17 hermanos, Dmitri Mendeléjev, dispuso los 63 elementos entonces conocidos en filas según sus propiedades químicas construyendo columnas conforme aumentaba su peso atómico. De esta forma encontró que aparecía periodicidad y asumió que había huecos que debían corresponder a elementos todavía por descubrir, cuyo posterior hallazgo confirmaría el magnífico descubrimiento del sistema periódico.

La regularidad, simetría y capacidad predictiva del sistema periódico son indicios de que debe haber un modelo que explique la estructura de los distintos elementos y que contenga también esas características. Se especuló, por tanto, que los átomos podían tener estructura y estar formados por piezas más pequeñas que pueden añadirse a la estructura atómica de un elemento para obtener el siguiente. Pero la química del siglo XIX no fue capaz de abrir camino en esta línea, así que la física y sus técnicas tomarían el relevo para probarlo.

Tras una gran cantidad de ingenio y trabajo detectivesco, sin faltar una pequeña dosis de casualidad, surgieron a finales del siglo XIX y principios del XX descubrimientos cruciales para entender la estructura del átomo. En 1895 Wilhelm Konrad Röntgen hacía la primera radiografía de la historia con un descubrimiento que le sorprendió a él y al resto del mundo, una radiación desconocida a la que la llamó rayos X. Henri Becquerel decidió estudiar si los cuerpos fosforescentes emitían rayos X y en el camino, ya iniciado por la saga familiar, se topó con una nueva radiación a la que dio el nombre de rayos de uranio, haciendo mención al material en el que los encontró. Esta radiación no parecía cambiar de intensidad ni de carácter a lo largo de los días. Tampoco cambiaba cuando era expuesta a la luz solar o ultravioleta. Era un fenómeno muy distinto a los rayos X ya que no necesitaba de un tubo de rayos catódicos para iniciarlo y sorprendentemente no se podían apagar. Había que explicar la espontaneidad de esta nueva radiación invisible y dar respuesta a las preguntas que suscitaba: ¿Cuál es la fuente de energía que crea estos rayos que les permite penetrar sustancias opacas? ¿Hay otros elementos de la tabla periódica que tengan la misma propiedad? La respuesta a la primera pregunta aún tardará un tiempo en alcanzarse, pero la de la segunda pregunta la proporcionará la joven pareja formada por Pierre y Marie Curie.

Marie Curie realizó estudios sistemáticos y demostró que estos rayos no eran una propiedad característica de un solo elemento, ya que el torio y sus compuestos también los presentaban. Esto estimuló la búsqueda de otros elementos que pudieran emitir rayos similares. El torio y el uranio son los elementos con mayor masa atómica conocida por lo que apuntaba a que los elementos pesados podían tener esta cualidad. Fue una labor titánica, los procesos de separación química duraron 4 años, pero fruto de sus investigaciones descubrieron el polonio y el radio. El radio, mucho más activo que el uranio, hizo que los Curie acuñaran el término de radiactividad.


Fig.2 Marie Curie, Wikimedia commons.


Surgió también la cuestión de la energía. Notaron que las muestras de radio se mantenían a una temperatura mayor que su entorno, llegando a producir 0,1 kcal de energía térmica por hora incluso durante mucho tiempo. La liberación continua de energía indicaba que había que buscar cambios producidos dentro de los átomos de los elementos radiactivos y no solo en reacciones químicas entre átomos. Esto era algo revolucionario y atrevido.

Por el descubrimiento de la radiactividad natural Becquerel y Pierre y Marie Curie compartieron el Premio Nobel de química en 1903, Marie fue la primera mujer de la historia que recibía el galardón. No solo la física se transformará con este descubrimiento, Darwin y su teoría de la evolución se verán directamente beneficiados, ya que la radiactividad natural indicaba que la Tierra era más vieja de lo que hasta entonces se había supuesto.

Una vez conocidas las propiedades del radio, el interés por ellas se disparó y numerosos científicos pasaron a estudiarlas. Los átomos apenas habían empezado a mostrar su rica vida interior. Una tras otra las letras del abecedario griego, alfa, beta, gamma, daban nombre a las nuevas y cada vez más penetrantes radiaciones según iban descubriéndose. Los campos magnéticos ayudarían a determinar carga y masa: positiva, negativa y sin carga respectivamente. Pero en lo tocante a la masa, unas serían más díscolas que otras. En 1900, Becquerel obtuvo la carga y la masa de la radiación beta, descubriendo que era precisamente el electrón descubierto por Thomson en 1897. La naturaleza de la radiación alfa fue algo más difícil, llegando a la conclusión de que podía ser una molécula de hidrógeno sin un electrón o un átomo de He sin sus dos electrones u otras posibles combinaciones. La acertada es efectivamente la del He.

Lo que quedaba claro es que estas emisiones planteaban cuestiones difícilmente compatibles con las ideas existentes de la materia y su estructura. Los átomos ya no eran indivisibles.

En 1907 Ernest Rutherford abandonaba su tierra natal, Nueva Zelanda, por Inglaterra; su maleta iba llena de proyectos, entre los que se encontraban el desentrañar los secretos de la radiación alfa y explorar el modelo atómico del físico de Cambridge J.J. Thomson. Lo que no sabía es que convertiría su famoso laboratorio de Cavendish en la cuna de colaboradores y estudiantes de postgrado que serán clave en el avance de la física: James Chadwick, Niels Bohr, Robert Oppenheimer o el químico alemán Otto Hahn, entre otros.

El estudio de la desintegración del radio también llevó al descubrimiento de que las transformaciones radiactivas terminaban siempre en un producto final estable, que algunos eslabones de la cadena emitían radiación alfa y otros de tipo beta, pero que los rayos gamma se emitían a lo largo de las series de desintegración. Algunos miembros de la serie se desintegraban rápidamente y otros necesitaban mucho tiempo. De ello se desprendía que podía haber elementos radiactivos en origen que hubieran desaparecido por tener periodos de desintegración cortos. Esto presentaba un problema grave, pues, aunque en 1910 todavía había huecos para elementos en la tabla periódica, no eran suficientes para albergar todas las nuevas sustancias que aparentemente surgían de las desintegraciones.

La clave estaba en que algunas de esas nuevas sustancias tenían propiedades químicas idénticas a las de elementos conocidos, aunque tuvieran propiedades físicas diferentes. Así que Frederick Soddy sugirió que un elemento químico puede ser una mezcla de átomos con diferente comportamiento radiactivo, con diferente masa atómica, pero con las mismas propiedades químicas. Surgía así el concepto de Isótopo (mismo lugar en la tabla periódica). La radiactividad y el concepto del isótopo fácilmente formularían nuevas preguntas sobre la estructura última del átomo: ¿Cuáles serían sus piezas básicas?

En 1911, con sus experimentos de dispersión y su modelo atómico, Rutherford cambió radicalmente la idea del átomo, observó que éste era básicamente espacio vacío y que la mayor parte de la masa y la carga positiva estaba concentrada en un núcleo muy masivo rodeado de una nube de ligeros electrones cargados negativamente. ¿Cómo podía este sistema ser estable?

La respuesta llegará en 1913 de la mano de su joven colaborador, el físico danés Niels Bohr, quien perfecciona el modelo atómico de Rutherford incorporando las incipientes ideas sobre cuantización que habían surgido unos años antes con las investigaciones de Max Planck y Albert Einstein. Sugiere que los electrones solo pueden seguir determinadas órbitas seleccionadas. Este modelo, a caballo entre lo clásico y lo cuántico, permitía, a pesar de sus limitaciones, explicar las líneas espectrales del más simple de los átomos, el hidrógeno. En 1922 Bohr recibió el Premio Nobel de Física por sus trabajos sobre la estructura atómica y la radiación, pero todavía no se había explicado en que consiste exactamente el núcleo.


Fig.3 Modelos atómicos de Rutherford y de Bohr. Wikimedia commons.


En 1920, estudiando el átomo de hidrógeno, que contiene un solo electrón externo para compensar la carga positiva del núcleo, Rutherford acuña el nombre de protón para dicha carga positiva. Pero al extrapolar esta asunción natural al siguiente átomo, el helio, que contiene dos electrones externos que deberían compensarse con dos protones del núcleo, las masas no encajaban ya que el He es cuatro veces más masivo que el H, luego debería haber elementos con masa pero sin carga en el núcleo que complementaran a los protones.

La partícula neutra postulada por Rutherford, se descubriría por fin en 1932. La interpretación crucial la daría uno de sus colaboradores, J. Chadwick, pero en realidad fue uno más de los resultados de un trabajo coral de la ciencia: en Alemania se detectó una radiación altamente penetrante, en Francia la pareja Joliot-Curie se interesó por ella y al bombardear berilio con partículas alfa observaron una radiación neutra muy penetrante a la que Chadwick, en Gran Bretaña, reconoció como la partícula postulada por Rutherford y a la que denominó neutrón. Ambos, Chadwick y la pareja Joliot Curie, compartieron el Premio Nobel en 1934 por este descubrimiento y por su contribución al descubrimiento de la radiactividad artificial.

Cualquier átomo era una combinación de tan solo tres elementos fundamentales: protones, neutrones y electrones, lo que llevaría a una pregunta fundamental: ¿es la masa de un átomo neutro igual a la masa de los neutrones, protones y electrones que lo componen? La respuesta es, evidentemente, no. La masa atómica es siempre menor que la suma de las partículas constituyentes en estado libre. El defecto de masa antes y después de la formación de un núcleo puede parecer muy pequeña, pero la energía que le corresponde según la ecuación de Einstein es muy significativa.

En 1933 Niels Bohr perfecciona el modelo de la gota líquida, que fue propuesto por primera vez por George Gamow, quien ya había explicado el mecanismo de emisión de las partículas alfa mediante el efecto túnel. Sobre este modelo también trabajaría el físico alemán Carl Friedrich von Weizsäcker, obteniendo una fórmula semi-empírica para la energía de ligadura del núcleo. Ya se pueden explicar las desintegraciones nucleares.

Ese mismo año se celebró la séptima conferencia Solvay, que reunió a la élite de la física europea bajo el tema “La Estructura del núcleo atómico”. Todas las piezas necesarias para el descubrimiento de la fisión nuclear estaban disponibles. Sin embargo, todavía pasarán cuatro años antes de su descubrimiento. Además de la casualidad, la inestabilidad política y social de Europa jugará un papel decisivo en este retraso. Adolf Hitler asumió la Cancillería del Reich en enero de 1933 y como consecuencia de sus leyes racistas un 25% de los físicos alemanes fueron expulsados de Alemania. Bohr desde Copenhague y Leo Szilard desde Londres fueron especialmente activos en la ubicación de científicos desplazados, encontraron ocupación para más de 2500 estudiantes antes de que estallará la Segunda Guerra Mundial. El propio Einstein, alarmado ante el auge del antisemitismo y el nazismo abandonó Alemania emigrando a Estados unidos, dónde se instaló en la Universidad de Princeton y dónde su fama y popularidad acabaron de fraguar en un popular icono de la cultura moderna.

 

La fisión llega en forma de carta navideña y viaja a EEUU de la mano de Bohr.

El descubrimiento del neutrón hará que los bombardeos con partículas alfa pasen de moda, la nueva partícula neutra se impone como proyectil en los experimentos de los años 30. Enrico Fermi en Roma, Irene Curie y Frédéric Joliot en París, Otto Hahn y Lise Meitner en Berlín, todos seguirían la nueva tendencia.

El físico italiano Enrico Fermi y su equipo, los chicos de la vía Panisperna, bombardearon con neutrones de forma sistemática los 92 elementos de la tabla periódica hasta llegar al último, el uranio. Su objetivo era encontrar elementos más masivos que éste y que no se encuentran de forma natural en la Tierra, lo que se conoce como elementos transuránidos. Los neutrones que usan como proyectil provienen de una emisión radiactiva, lo que significa que son neutrones con altas energías, del orden de 10 MeV.

En sus experimentos de 1934, al bombardear el uranio llegan a postular la existencia del elemento número 94, el plutonio, pero han podido toparse con la fisión sin advertirlo. Al publicar sus resultados la química alemana Ida Noddak sugiere que en esos experimentos también podrían haberse producido rupturas del núcleo. Quizás porque su informe no estaba bien argumentado y los datos de las masas nucleares no parecían encajar o, simplemente, porque en ese momento era un hecho inconcebible, el artículo de Ida fue completamente ignorado.

A pesar de esto, los aportes de Fermi serán cruciales. Siguiendo la antigua técnica de Rutherford decide interponer una lámina de parafina antes del objetivo, observando que la tasa de la reacción se incrementa. De aquí se desprende la necesidad de un moderador que no absorba neutrones pero que disminuya su energía y velocidad tras varios choques, hasta que alcancen la velocidad de las moléculas de los gases a temperatura ambiente, es decir que pasen de energías del orden del MeV al eV, lo que se denomina neutrones térmicos.

En estas condiciones la fisión debería haberse observado, pero Fermi blindó la muestra con aluminio para evitar que accedieran a ella otras radiaciones que no fueran los neutrones; con esta medida estaba impidiendo que se vieran los efectos de los productos de fisión que generalmente son emisores beta. Recibió el Premio Nobel en 1938 por sus demostraciones sobre la existencia de nuevos elementos radiactivos producidos por procesos de irradiación con neutrones y por sus descubrimientos sobre las reacciones nucleares debidas a los neutrones lentos, pero no pudo observar la fisión en ninguno de sus experimentos.

Tras recibir el premio, en cuya ceremonia se negó a hacer el saludo romano impuesto por Mussolini, emigró a Nueva York junto a sus hijos y su esposa Laura, judía. En enero de 1939 comenzó a trabajar en la Universidad de Columbia donde recibiría la noticia de los experimentos de Otto Hahn y Fritz Strassmann.

Otto Hahn escribía en diciembre de 1938 una larga carta destinada a su ex colaboradora, la física austriaca Lise Meitner, a la que Einstein apodaba como “la Madame Curie alemana”. Meitner pasaba en Suecia las vacaciones de Navidad en compañía de su sobrino, el físico Otto R. Frisch, cuando recibió la interesante carta de Otto. Lise era uno más de los muchos científicos desplazados debido al avance del antisemitismo en Europa. En marzo 1938 cuando Hitler anexionaba Austria, pese a su larga trayectoria científica y estar bautizada, pasó a ser considerada tan solo como una judía alemana. Su vida corría peligro, por ello, en julio de ese mismo año, apenas cinco meses antes de conseguir el descubrimiento más extraordinario de su vida, escapaba a Suecia vía Dinamarca.

En su carta, Otto le consultaba si existía alguna posible explicación, de acuerdo a las leyes de la física para sus extraños resultados: al bombardear uranio con neutrones térmicos en busca de elementos transuránidos habían detectado bario, elemento muy alejado del uranio en la tabla periódica y mucho menos masivo que éste. «Quizás tú puedas sugerir una fantástica explicación» aventuraba en su carta, y estaba en lo cierto, pues por fin se descubría y aceptaba que el núcleo de uranio podía dividirse.

Lise Meitner y Otto Frisch, necesitaron de dos grandes hitos de la física para llegar a esta conclusión: el modelo nuclear de la “gota líquida” propuesto por Bohr en 1933 y la ecuación de Einstein (E=mc2) postulada en 1905. Con el primero valoraron la posibilidad de que el núcleo pudiera partirse en dos mitades casi iguales, que al estar eléctricamente cargada se repelerían fuertemente y con la segunda calcularon que la energía liberada en cada escisión sería suficiente para causar un salto visible de un grano de arena, del orden de 200 millones de eV.


Fig.4 Modelo de la gota líquida de fisión nuclear. Wikipedia commons.


Unos días más tarde, Frisch regresaba a Copenhague, justo antes de que Niels Bohr partiera para EEUU, y en un breve encuentro le transmitió las buenas nuevas. “¡Pero qué idiotas hemos sido! ¡Es exactamente como debe ser!” exclamó Bohr entusiasmado y les animó a publicar sus resultados.

El artículo de Otto Frisch y Lise Meitner, donde se hablaba por primera vez del proceso de “fisión” llegó a la sede de la revista Nature, en Londres, a mediados de enero de 1939 pero no sería publicado hasta un mes más tarde. Mientras tanto, el secreto viajaba a través del Atlántico de la mano de Niels Bohr, quien creyendo que ya estaba publicado, lo mencionaría en una conferencia de física indicando además sencillas técnicas experimentales para demostrarlo. Los físicos experimentales presentes se levantaron de entre la audiencia y aun con sus trajes de etiqueta, fueron inmediatamente a sus laboratorios a repetirlo y confirmarlo.

Dos o tres días más tarde, los periódicos nacionales informaban sobre los resultados y cuando los artículos de Frisch y Meitner y de otros físicos alemanes que lo confirmaban de forma independiente, fueron finalmente publicados, los laureles ya habían sido depositados sobre otras cabezas, en este caso la de Enrico Fermi y la Universidad de Columbia según The Times.

 

De cómo una carta puede desencadenar una reacción en cadena.

Uno de los físicos presentes en aquella conferencia fue el húngaro Leo Szilard, un visionario que ya en 1934 concibió y patentó la noción de reacción en cadena: durante el proceso de fisión, además de los fragmentos de fisión también se liberarían neutrones que a su vez producirían una fisión en otro átomo de uranio y así sucesivamente. Si la reacción se producía lo suficientemente rápido podría causar una explosión nuclear. Cuando Szilard supo del descubrimiento de la fisión decidió que dicha información debía mantenerse en secreto para evitar la posibilidad de que los alemanes pudieran hacer una bomba atómica. Nadie mejor que los físicos exiliados podían entender las consecuencias del hecho de que Alemania poseyera tal arma.

Pero la censura en las publicaciones no llegaría hasta el año 1940 y para entonces los Curie-Joliot en su laboratorio de París habían confirmado la existencia de los neutrones que se sospechaba que debían existir durante el proceso de fisión publicando el 19 de marzo de 1939 en la revista Nature un artículo que llevaba por título “Liberación de Neutrones en una explosión nuclear de Uranio”. Por otro lado, Niels Bohr y John Wheeler, mediante consideraciones teóricas, encontraron que el isótopo fisionable del Uranio era el U-235, cuya abundancia es solo de 0,7% y en noviembre de 1939 publicaban un clásico sobre la teoría de la fisión, ese mismo mes estallaba la Segunda Guerra Mundial.

Debido a las circunstancias de la inminente guerra, los científicos de ambos lados sintieron la necesidad de informar a sus respectivos gobiernos del potencial militar de la energía nuclear. Por el lado alemán, la alerta fue una carta fechada el 24 de abril de 1939, en la cual los profesores Hartech y Groth de la Universidad de Hamburgo, informaban al responsable de la investigación en armamento del German Army Weapons Bureau, de la posibilidad del uso de la recientemente descubierta fisión nuclear como explosivo muy potente. En septiembre de 1939, los principales científicos alemanes del área nuclear recibieron sus órdenes de movilización, pero no al frente, sino a Berlín, donde bajo los auspicios de la ordenanza militar formarían parte del llamado Club del Uranio (Uranverein).

En julio de ese mismo año, Leo Szilard y Eugene Wigner visitaron a Einstein en su casa de vacaciones de Long Island para alertarle de las posibilidades de la reacción en cadena, quien sorprendido exclamó: ¡Nunca pensé en ello! Los tres miembros de la llamada “conspiración húngara”, Szilard, Wigner y Teller, habían tenido experiencias personales directas con el régimen nazi por lo que su nivel de preocupación era cada vez mayor. Las noticias que llegaban de Europa sugerían que el expansionismo alemán, que ya había conseguido Checoslovaquia, podía llegar a anexionar Bélgica, cuyas colonias africanas eran ricas en mineral de uranio. Szilard recordó que su antiguo colega Albert Einstein conocía personalmente a la reina Elizabeth de Bélgica y pensó que quizás podría alertarla en su nombre.


Fig.5 Einstein y Szilard, Wikimedia commons.


En agosto de 1939, Szilard y Wigner se reunían de nuevo con Einstein, pero esta vez redactarían una carta de alerta que finalmente harían llegar al presidente Roosevelt a través de uno de sus consejeros económicos, Alexander Sachs. No sería entregada hasta el mes de octubre de 1939, pero cumplió su propósito: convenció a Roosevelt de que había que actuar y diez días más tarde se formaba el comité Briggs, considerado como el germen del proyecto Manhattan.

Sin embargo, es posible que sus efectos no fueran tantos como se le atribuyen, pues Briggs, director del Bureau of Standards, en lugar de ampliar los limitados fondos de los laboratorios de las universidades, anuló muchos proyectos y durante el periodo siguiente solo hubo avances aislados fruto del esfuerzo personal más que del apoyo oficial. A Fermi y Szilard, por ejemplo, les negaron 100.000$ para empezar a construir un reactor nuclear. A pesar de ello, consiguieron la primera reacción en cadena autosostenida en diciembre de 1942, en una pista de squash situada debajo de las gradas del estadio de futbol de la Universidad de Chicago.

A partir de ese momento el general Leslie Groves se puso al frente del proyecto, el cual sufrió un cambio de escala en el esfuerzo por ganar la carrera a los alemanes. Todo sería posible gracias al arte de coordinar todas las especialidades que el proyecto requería. La ciencia, la ingeniería, la industria e incluso la estructura militar se unieron en un esfuerzo conjunto sin precedentes que culminó en la creación de equipos internacionales y la consecución de objetivos en tiempo record. La dirección del proyecto y el diseño de la bomba se llevaron a cabo en el Laboratorio Nacional de los Álamos bajo la dirección de Robert Oppenheimer. La producción de plutonio en reactores y la posterior separación se realizó en Handford Site y finalmente el enriquecimiento de uranio en el Laboratorio Nacional de Oak Ridge. En 1945 el Proyecto Manhattan empleaba a 130.000 personas y había gastado lo equivalente a 20 mil millones de dólares actuales.

Albert Einstein, aunque firmo la carta que activó el programa y tuvo contactos con los grupos de investigación que precedieron al Proyecto Manhattan resolviendo alguna consulta puntual, nunca mostró interés por entrar en el proyecto. Si le hubiera interesado no habría podido participar ya que el FBI lo consideraba un “riesgo para la seguridad” por su faceta pacifista y su apoyo a causas de tinte izquierdista.

Einstein, pacifista convencido y amante de la cultura nipona, se arrepintió siempre de haber firmado aquella carta.

 

La investigación nuclear continúa también en Europa.

Tras su visita a EEUU en 1939, Niels Bohr regresó a Copenhague dónde, a partir de la ocupación alemana permaneció aislado. Lejos quedaban las veladas científicas en su acogedora casa de campo en Tisvilde, donde sus visitantes disfrutaban del entorno y de la compañía de su familia, donde Werner Heisenberg había aprendido a amar a Dinamarca y Erwin Schrödinger cayó enfermo de agotamiento defendiendo su teoría ondulatoria. Lejos quedaban también las intensas discusiones en el Instituto Niels Bohr hasta encontrar la formulación correcta de su principio de complementariedad, mientras Werner peleaba con el de indeterminación. Principios que no serían aceptados por Einstein.

En Octubre de 1941, aproximadamente año y medio después de la ocupación alemana, Bohr recibió la visita de su colega y antiguo colaborador Werner Heisenberg, quien había permanecido en Alemania y trabajaba en el programa de investigación nuclear alemán del que llegaría a ser el líder. Los avances alemanes hasta ese momento eran muy prometedores y alarmantes: tras la ocupación de Noruega disponían de una fábrica de agua pesada, Checoslovaquia suministraba miles de toneladas de compuesto de uranio y tras la ocupación de París y la toma del laboratorio de los Joliot-Curie estaban a punto de completar un ciclotrón. Además de disponer de la industria química más importante del mundo, el programa alemán contaba con un cuerpo de físicos, químicos e ingenieros liberado de las demandas de la guerra. Unos cuarenta físicos y químicos esparcidos en nueve grupos de investigadores que se coordinaron para medir las constantes nucleares de los materiales y concentrarse en la construcción del reactor.


Fig.6 Heisenberg y Bohr, Wikimedia commons.


Los viajes de Heisenberg a los territorios ocupados formaban parte del programa de propaganda cultural alemán. Aquella tarde del 16 de septiembre, Bohr y Heisenberg mantuvieron un encuentro privado, nadie sabe exactamente de que hablaron. Es uno de los eventos más controvertidos de la historia que ha quedado inmortalizado en la obra de teatro Copenhague (1998) escrita por Michael Frayn. De lo que no cabe ninguna duda es que Bohr quedó muy alterado, se llevó la impresión de que Alemania estaba trabajando en una bomba atómica.

Mientras tanto, en Gran Bretaña las investigaciones científicas priorizaron el radar y la criptografía. Pero los emigrados europeos de la Alemania Nazi no podían participar directamente en estas tareas clasificadas, por lo que Otto Frisch, que había abandonado Dinamarca, y el físico alemán Rudolf Peierls desarrollaron un método para producir una bomba atómica basándose en los trabajos teóricos de Bohr y Wheeler. Recalcularon la masa crítica de U-235 en unos pocos Kilogramos y diseñaron procedimientos para enriquecer el U-235. A raíz de sus informes se creó el comité MAUD para un modesto programa de investigación nuclear dependiente de la empresa Tube Alloys con Chadwick como jefe técnico.

Existe una curiosa historia sobre porqué este comité adoptó el nombre en clave de MAUD. Al parecer, Lise Meitner transmitió en un cable la petición de la familia Bohr de informar de su bienestar a una tal Maud Ray, Cuando el cable llegó a Gran Bretaña el comité interpretó que ese nombre era un misterioso anagrama para algo atómico y lo adoptaron.

En enero de 1943 los avances alemanes en investigación nuclear se habían frenado, con el ejército empantanado en el frente ruso los apoyos económicos al proyecto se anularon y la rivalidad entre los distintos grupos de investigación por conseguir los materiales empezaba a hacer mella. Aquel año Bohr recibió una invitación para pasar a Gran Bretaña donde su cooperación podía ser de gran ayuda, pero él consideró que su deber era seguir al frente de su instituto, pues todavía estaba convencido de la inaplicabilidad de los últimos conocimientos nucleares. Sin embargo, en noviembre de ese mismo año, la noticia de que los nazis se llevarían a todos los judíos daneses hizo que Bohr y su familia pasaran a Suecia y desde allí a Inglaterra dónde sería nombrado consultor de Tube Alloys. Fue entonces cuando reveló que Maud Ray Kent era el nombre de la institutriz que enseñaba inglés a sus hijos.

Con el lanzamiento del proyecto Manhattan y frente a la posibilidad de que el Reino Unido quedara excluido, Churchill firmó con Roosevelt el acuerdo de Quebec, a partir del cual se desarrolló una cooperación efectiva en materia nuclear entre los dos países. Con este motivo, los científicos de Tube Alloys se trasladaron a EEUU. Bohr viajó con el equipo británico y tras una breve estancia en Washington pasó a Los Álamos donde revisó todas las fases de proyecto. Concluyó que “no necesitaban mi ayuda para hacer la bomba” y decidió dedicarse a un problema hasta entonces no abordado: las consecuencias de la existencia de la bomba en el mundo de la posguerra.

 

La caja de Pandora: “Se ha ganado la guerra, pero no la paz”.

“Cometí un gran error en mi vida cuando firmé la carta al presidente Roosevelt recomendándole que se fabricaran bombas atómicas” le confió Einstein a su amigo Pauling poco antes de morir, “pero había una justificación: el peligro de que los alemanes la fabricaran”. “Si hubiera sabido que ese miedo no estaba justificado no habría participado en abrir esta caja de Pandora”.

Alemania nunca fabricó la bomba, los investigadores alemanes nunca obtuvieron plutonio. En 5 años de investigación, Alemania había fallado en conseguir una reacción en cadena autosostenida que permitiera la producción de plutonio en cantidad.

En 1945, con Alemania a las puertas de la derrota, Einstein volvió a escribir a Roosevelt, esta vez estaba alarmado por el hecho de que Estados Unidos acabase usando el arma. Desgraciadamente, Roosevelt murió en abril y nunca llegó a leer su carta: Harry Truman, su sucesor, la encontró cerrada en su escritorio. El 6 de agosto de 1945 la BBC Home Service anunciaba por radio que una bomba atómica había sido lanzada sobre la ciudad de Hiroshima.


Fig.7 Bomba atómica. Creative commons Pixabay.


Einstein dedicó la última década de su vida a alertar sobre los peligros de las armas nucleares y a intentar que los países resolvieran los conflictos de forma pacífica. “Se ha ganado la guerra, pero no la paz” decía en un discurso en el hotel Astoria de Nueva York en diciembre de 1945. A pesar de ello, no creía que el secreto de la bomba debiera ser entregado a las Naciones Unidas y a la Unión Soviética, pensaba que el secreto debía ser depositado en manos de un gobierno mundial.

Para Bohr, que desde 1944 analizaba las consecuencias de la existencia de la bomba en el mundo de posguerra, era previsible una futura tensión entre Occidente y Rusia, por lo que consideraba que el único medio de evitar una carrera armamentística era tener un mundo abierto. El 26 de agosto de 1944 Roosevelt recibió a Bohr, quien quedó completamente satisfecho creyendo en la posibilidad de ser encargado de una misión exploratoria en la URSS, pero la obstinación de Churchill en no comunicarse con los rusos sería aceptada por Roosevelt en una segunda entrevista en Quebec. Bohr escribió un segundo memorándum a Roosevelt, quien murió en abril sin recibirlo. Siguió entrevistándose con políticos, pero a medida que la guerra fría se intensificaba, su voz era cada vez menos escuchada.

Antes de terminar la segunda guerra mundial, algunas de las personas encargadas de la fabricación de la bomba atómica reconocieron la importancia de redactar un informe sobre su trabajo, especialmente para exponer el enorme cambio que el descubrimiento exigiría en la política mundial. Se publicaba así el conocido “Informe Smith”, probablemente el que otorgó la paternidad de la bomba a Albert Einstein al hacer gran hincapié en la importancia de su famosa fórmula. Una de las consecuencias de la publicación del Informe Smith fue la creación de la Comisión de Energía Atómica. Otras tentativas para establecer un control internacional de las armas atómicas, como el plan Baruch, no fueron aceptadas, pero los debates que suscitaron en el mundo entero no hubieran podido producirse sin él.

Afortunadamente y tal como sucedió en el mito de Pandora, en el que tras salir de la caja todos los males se abrió por segunda vez dejando salir una maravillosa libélula llamada Esperanza, en pocos años las aplicaciones pacifistas de la fisión nuclear se desarrollarían en dos esferas generales: importantes usos médicos con la producción de radioisótopos y la de producción de energía eléctrica. Estos comienzos de uso no militar tendrían su punto de partida en la Conferencia Internacional sobre los usos pacíficos de la energía atómica mantenida en Ginebra en agosto de 1955 donde se dieron cita 1260 científicos y 800 observadores de 72 naciones para compartir más de 1200 publicaciones.

Unos meses antes, en abril de 1955, moría Albert Einstein todavía atormentado por su contribución en el desarrollo de la bomba atómica. “Es imposible anticipar cuando se aplicará la energía atómica a fines constructivos” declaraba en noviembre 1945. ¡Ojalá hubiera podido aventurar que estos nuevos usos llegarían tan pronto!

 

 

Bibliografía:
(1) Albert Einstein, Antoni Bosh, editor, Mis ideas y opiniones.
(2) Otto Robert Frisch, What little I remember.
(3) Chistopher Galfard, Blackie Books, Para entender a Einstein.
(4) Daniel R. Bes, Niels Bohr y la bomba atómica (versión escrita de la charla dada en el C.A.R.I. el 1 de septiembre de 2009.
(5) Jim Baggott, 2009 Icon books Ltd., Atomic, the first war of physics and the secret history of the atom bomb: 1939-49.
(6) Arthur Holly Compton, The Atomic Quest: A Personal Narrative by Arthur Holly Compton.
(7) David Irving, 1967, The Virus House, Germany’s Atomic Research and allied counter-measures.
(8) Richard Rhodes, Simon &Schuste Paperbacks, The making of the atomic Bomb.
 


Isabel del Río Luna.
Licenciada en Ciencias Físicas.
Máster en Periodismo y Comunicación Científica.
ENUSA.

La Paradoja EPR

De la paradoja EPR a las tecnologías cuánticas.



Siento una enorme fascinación por el mundo cuántico. Sus aspectos difíciles de asimilar, incluso paradójicos, me atrajeron desde el primer momento y es a ellos a los que voy a dedicar este texto. Repasaré los comienzos de la teoría cuántica para mostrar la necesidad de un nuevo paradigma. Describiré cómo, en una aventura tanto teórica como experimental que llega hasta nuestros días, se ha demostrado que la Naturaleza escoge los extraños principios de la mecánica cuántica frente a otros más acordes con nuestra intuición. Y finalmente, cómo esto ha desencadenado una revolución tecnológica que promete moldear el futuro.

Esta historia comienza a finales del siglo XIX, cuando varios experimentos mostraron los límites de la comprensión de la Naturaleza que en ese momento se tenía, y cuyo conjunto de leyes se conoce como física clásica. El más emblemático de ellos fue la medición de la radiación emitida por un cuerpo negro. Es decir, un cuerpo que absorbe toda la radiación que le llega, se calienta, y emite de acuerdo a su temperatura. La teoría clásica predice una emisión creciente a altas frecuencias, que implica la radiación instantánea de toda su energía. Este resultado, no solo equivocado sino absurdo, era una clara indicación de que algo muy profundo debía ser modificado.

La teoría de Maxwell describe la radiación como una onda electromagnética, y como las ondas en un estanque, su amplitud puede tomar cualquier valor. A mayor amplitud, mayor energía asociada a la oscilación. El primer ataque al paradigma clásico se debe a Max Planck. Planck descubrió empíricamente que la curva de radiación de un cuerpo negro se reproducía de forma exacta si solo se permitía a la amplitud tomar valores discretos, múltiplos de la frecuencia de oscilación. Estos cuantos de energía dieron nombre a la teoría que emergería del camino iniciado por Planck, la mecánica cuántica, es decir, la mecánica que gobierna los cuantos. Planck creía que su hipótesis revolucionaria no tendría verdadero significado hasta que no se entendiera su origen. Lo buscó en las propiedades de vibración de los átomos que componen el cuerpo negro, es decir, en el proceso de emisión.

La siguiente contribución fundamental es obra de Albert Einstein. De hecho, aunque varios de sus trabajos hubieran merecido ser reconocidos con el premio Nobel, solo obtuvo este galardón por la explicación del efecto fotoeléctrico. Este efecto describe la emisión de electrones cuando un haz de luz incide sobre un metal, y al igual que la radiación del cuerpo negro, sus propiedades no encajaban con las predicciones de la física clásica. En concreto, la emisión solo se producía con luz de frecuencia suficientemente alta, independientemente de su intensidad. Einstein se dio cuenta de que la solución estaba en los cuantos de energía propuestos por Planck. Bastaba con asumir que son una característica de la radiación en sí misma, teniendo por tanto entidad propia y portándose a todos los efectos como partículas elementales. Los cuantos de luz recibirían posteriormente el nombre de fotones.

La propuesta de Einstein fue tildada de radical por sus colegas, incluido Planck, y tardo varios años en ser aceptada. Dado que la radiación, fenómeno descrito a nivel clásico como una onda, se puede entender como un conjunto de fotones, es natural plantearse si la materia a nivel microscópico   presentará en correspondencia aspectos ondulatorios. Louis De Broglie dedicó su tesis doctoral a esta cuestión, concluyendo que toda partícula lleva asociada una onda. Su hipótesis fue confirmada poco después mediante experimentos de difracción de electrones. Se estableció así un nuevo elemento del sorprendente mundo cuántico: la dualidad onda-corpúsculo, o que un mismo fenómeno cuántico puede manifestarse como onda y como partícula.

Estos descubrimientos dieron lugar a nuevas preguntas. ¿Cómo explicar los aspectos ondulatorios de la radiación en términos de fotones? ¿Cuál es el significado de la onda asociada a una partícula? Las respuestas se condensan en dos principios básicos. El primero de ellos se conoce como principio de superposición: si un sistema puede estar en dos estados distintos, puede encontrarse también en una superposición de ambos. Este postulado es necesario para reconciliar la naturaleza ondulatoria y corpuscular de la luz. Aunque el terreno de la mecánica cuántica es el mundo microscópico, utilizaré una imagen de la vida cotidiana para ilustrar este principio fundamental. No, no será un gato; utilizaré una taza cuyo contenido puede estar caliente o frío. Si perteneciera al mundo cuántico, la taza con su contenido podría estar a la vez caliente y fría.

El segundo postulado se refiere al acto de medir y asegura que no será ambiguo, que se obtendrá un resultado concreto de entre todos los posibles. En consecuencia, cuando toque mi taza cuántica la sentiré con claridad caliente o fría. Si preparo muchas tazas en el mismo estado superposición, unas veces obtendré frío y otras calor. Soy yo al tocarla quien obliga a la taza a escoger entre las dos temperaturas, modificando su estado de caliente y frío a caliente o frío. Es decir, medir destruye la superposición. Describir el estado de la taza consiste en saber con qué probabilidad obtendré un resultado u otro. En la teoría cuántica, la incertidumbre sobre el resultado de la medida no es producto de un conocimiento incompleto, sino que tiene un carácter fundamental.

Los aspectos ondulatorios de la materia resultan tener su origen en la capacidad de superponer estados con características que, a nivel clásico, son mutuamente excluyentes. Una de ellas, quizá la más básica, es la posición que ocupa una partícula en el espacio. La onda que De Broglie concibió asociada a toda partícula representa la incertidumbre en su posición. No describe por tanto la oscilación de una magnitud física, como los campos eléctrico y magnético en el caso de la luz. La amplitud de esta onda, cuya naturaleza es antes matemática que física, determina la probabilidad de encontrar la partícula aquí y no allá.

A Einstein le parecía profundamente insatisfactorio que la naturaleza última de la realidad fuera probabilística. No estaba solo en esta opinión. Colegas tan notables como Erwin Schroedinger, científico fundamental en el desarrollo de la mecánica cuántica, y el propio De Broglie, también la compartían. Es importante entender que la mecánica cuántica utiliza los mismos conceptos que la física clásica para describir la realidad: posición, velocidad, momento angular, etc. Por tanto, implica asumir que el conocimiento más fundamental de cantidades que a nivel clásico podemos describir con total exactitud, incluye un elemento de azar.

La ciencia está impulsada por el deseo de comprender como funciona la Naturaleza y el convencimiento de que adquirir este conocimiento es posible. La mecánica cuántica no representa un contraejemplo a estas altas expectativas, pero es innegable que no encaja en ellas de la manera que a priori desearíamos. Aceptar la interpretación probabilística significa que, aunque hayamos sido capaces de encontrar sus leyes, la naturaleza funciona de una manera radicalmente ajena a nuestra intuición. La única vía para evitar esta conclusión es que la mecánica cuántica, al igual que la física clásica, no sea más que una aproximación a la realidad. De esta forma su carácter probabilístico podría ser fruto de algún elemento que todavía no hemos descubierto. La teoría cuántica completada con este nuevo ingrediente restablecería un entendimiento de la naturaleza basado en el determinismo. Este era el punto de vista preconizado por Einstein.

Para ilustrar sus críticas, Einstein se servía a menudo de situaciones experimentales imaginadas. En sus famosos debates con Niels Bohr, uno de los principales defensores de la interpretación probabilística, Einstein proponía una situación que cuestionaba esta interpretación y Bohr utilizaba todo su ingenio en refutarla. Estos experimentos mentales fueron una gran herramienta para profundizar en las implicaciones de la mecánica cuántica. El más conocido es quizá el del gato vivo y muerto como consecuencia de una superposición cuántica a nivel microscópico, ideado por Schroedinger con la misma intención crítica que Einstein. El más importante fue sin embargo formulado por Einstein, junto a Boris Podolski y Nathan Rosen, en un artículo que apareció en el año 1935 con título ¨¿Puede la descripción cuántica de la realidad física ser completa?¨.

Einstein y sus colegas eran conscientes de que todas las predicciones de la mecánica cuántica habían resultado correctas y que la teoría no sufría de ninguna inconsistencia lógica. Tenían por tanto que hilar muy fino para mostrar que su fundamento probabilístico la hacía incompleta. Dedicaron la primera parte de su trabajo a discutir las premisas que debe satisfacer una teoría completa de la realidad. Sin duda esta discusión contiene un prejuicio sobre cómo debe ser tal teoría, pero éste se intenta mantener en un mínimo irrenunciable. No se rechaza la presencia de principios probabilísticos, pero se asume una asimetría entre las cantidades que pueden ser predichas con certeza y aquellas que no. Denominaron elementos de realidad a cantidades cuyo valor se puede determinar sin realizar una medición, cantidades que están bien definidas sin necesidad de que exista un observador.  Su premisa fundamental es que los elementos de realidad deben tener una representación explícita dentro de una teoría física completa.

Es de enorme importancia para el progreso científico pasar de la intuición y los argumentos cualitativos, a conceptos bien definidos a nivel lógico. Esto es lo que consiguieron Einstein, Podolski y Rosen al transformar las críticas al fundamento probabilístico de la mecánica cuántica en el concepto preciso de elemento de realidad. Su trabajo, al que me referiré de hora en adelante por las iniciales de sus autores (EPR), inició una historia apasionante que concluye con la rigurosa demostración experimental de que la Naturaleza no satisface el criterio EPR de realismo. Sin embargo, esto no disminuye en nada el valor de su trabajo. Bien al contrario, demuestra que equivocarse siguiendo un razonamiento profundo, honesto y creativo puede ser una contribución inestimable al progreso.

Una vez definido el criterio a exigir a una teoría completa de la realidad, el segundo paso fue encontrar una situación que lo pudiera comprometer. Aquí está la segunda gran contribución EPR. Fueron capaces de identificar el fenómeno que mejor representa la ruptura entre el mundo clásico y el cuántico. Se da cuando se aplica el principio de superposición a sistemas con varias componentes y no se había reparado en sus drásticas implicaciones hasta entonces. Tanto es así que ni siquiera se le había dado un nombre propio. Fue Schroedinger quien lo denominó entrelazamiento cuántico en un comentario al trabajo de Einstein, Podolski y Rosen, aparecido el mismo año 1935.

Continuando con el ejemplo anterior, imaginad que en vez de una taza que puede estar caliente o fría, tenemos dos. Este sistema tiene cuatro estados básicos: la primera taza puede estar caliente y la segunda también, o la primera caliente y la segunda fría, o al revés, o ambas pueden estar frías. Según la mecánica cuántica, las tazas pueden encontrarse además en una superposición cualquiera de estos cuatro estados. Esto lleva a la existencia de estados en los que no se puede referir a una parte sin hacer alusión al todo. Esta extraña característica es la que describe el entrelazamiento cuántico. Consideremos por ejemplo que superponemos los estados con ambas tazas calientes y ambas frías. Es claro que el estado de una de ellas está ligado al de la otra, y por ello no podemos describirlas individualmente. El entrelazamiento cuántico introduce una correlación en la incertidumbre sobre el estado de cada una de las partes de un sistema.

La absoluta novedad que introduce el entrelazamiento se aprecia mejor al combinarlo con el postulado de la medida en mecánica cuántica. El acto de medir destruye la superposición cuántica y fuerza al sistema a escoger entre una de las posibilidades incluidas en el estado previo a la medida. Cuando un sistema de varias componentes se encuentra en un estado entrelazado, medir en una de sus partes tiene consecuencias sobre el sistema completo. Antes de tocar una de nuestras tazas entrelazadas en un estado que superpone ambas calientes y ambas frías, no puedo saber qué resultado obtendré. Pero como sus temperaturas están correlacionadas, en el instante en que fuerzo a escoger entre caliente o frío a la primera, la segunda, sobre la que no he actuado, se ve obligada a seguir la misma elección. Y esto ocurrirá aunque mi amiga, que tiene la segunda taza, se la haya llevado a otra habitación, al jardín, o incluso a una galaxia muy muy lejana. Con certeza, si yo he encontrado mi taza caliente y ella toca la suya inmediatamente después, la encontrará también caliente.

Uno de los resultados experimentales más influyentes de finales del siglo XIX fue la medición de la velocidad de propagación de la luz. Sorprendentemente la velocidad resultó ser la misma con independencia del estado de movimiento del observador. Según la física clásica, las velocidades de observador y sistema se deberían sumar y dar lugar a cambios apreciables, que sin embargo no se encontraron. La búsqueda de una explicación llevó a Einstein a formular la teoría de la relatividad especial, cuyo punto central es la existencia de una velocidad máxima de propagación, que coincide precisamente con la velocidad de la luz. Esto implica una concepción totalmente nueva del espacio y el tiempo, y junto con la mecánica cuántica, es el segundo pilar de la física moderna.

La existencia de una velocidad máxima de propagación limita la posible conexión causal entre dos eventos. Si para que una señal emitida desde el primero llegue al segundo, ésta necesita propagarse a mayor velocidad que la luz, es imposible que exista una relación causa-efecto entre ellos. Este es el principio de localidad, el segundo requisito que Einstein, Podolski y Rosen exigieron a una teoría completa de la realidad.

Una consecuencia directa del principio de localidad es la ausencia de acciones inmediatas a distancia. O equivalentemente, la imposibilidad de transmitir información de forma instantánea entre dos observadores distantes. Como hemos visto, la combinación de entrelazamiento cuántico y medida parece cuestionar está conclusión. Sin embargo, la mecánica cuántica logra evadir el conflicto de manera sutil, que ilustraré de nuevo con las tazas. Mi amiga y yo sabemos que nuestras tazas se encuentran en el estado que superpone con igual probabilidad ambas calientes y ambas frías. Si todos los días preparamos las tazas en este mismo estado, cuando ella toque la suya obtendrá la mitad de las veces caliente y la otra mitad fría. Esto ocurrirá independientemente de que yo también haya tocado la mía, y por tanto mi amiga no podrá saber si yo he actuado o no. Es decir, aunque yo conozca el estado de su taza sin actuar sobre ella, no habrá transmisión de información entre nosotras. Einstein era consciente de que no había una contradicción en esta situación, pero le producía un profundo disgusto que manifestó denominando al entrelazamiento como “fantasmagórica acción a distancia”.

Hasta ahora solo hemos considerado una propiedad observable de las tazas, su temperatura. ¿Existen otras características que podamos medir? Ciertamente sí. Podemos preguntarnos también sobre su color. ¿Es posible encontrar un estado en que la temperatura y el color de la taza estén ambos definidos con certeza? En el mundo clásico la respuesta es por supuesto afirmativa. En el cuántico solo es posible construir estados sin incertidumbre en varias de sus propiedades, cuando éstas satisfacen una cierta relación matemática de compatibilidad entre ellas. No voy a entrar a describir esta relación, pero si mencionaré que es el contenido del conocido principio de incertidumbre de Heisenberg.

Con el sencillo ejemplo de taza he ilustrado el sistema cuántico más simple, aquel cuyo estado general se puede describir como una superposición de solo dos posibilidades. Cualquier propiedad en este sistema tiene solo dos resultados posibles. Respecto a la temperatura, en nuestra analogía, hemos escogido caliente y frío. Respecto al color, podrían ser por ejemplo azul y amarillo. En un sistema de dos estados, la relación matemática de compatibilidad entre propiedades distintas nunca se satisface. Por lo tanto, si la taza está en el estado que con certeza resulta caliente al tocarlo, tendrá una incertidumbre en su color. Es decir, el estado caliente corresponde a una superposición entre los estados de color azul y amarillo. De la misma forma un estado donde el color es con seguridad amarillo, implica una indeterminación en la temperatura.

Recordemos la definición de elemento de realidad EPR, una cantidad cuyo valor podemos predecir con certeza sin necesidad de realizar una observación. En el estado caliente de la taza, la temperatura es un elemento de realidad ya que no hay incertidumbre en su resultado. Sin embargo, es claro que en este estado el color no es un elemento de realidad. Y viceversa, intercambiando las propiedades de temperatura y color. Es decir, la mecánica cuántica no puede describir como elementos de realidad dos propiedades que no satisfagan la relación de compatibilidad. Es en este punto donde Einstein, Podolski y Rosen encontraron una paradoja.

En su argumento utilizaron un estado entrelazado de dos componentes, tazas para nosotros. Hemos descrito el estado entrelazado en el que ambas están calientes y ambas frías. El razonamiento EPR se basa en un estado distinto, que superpone la primera taza caliente y la segunda fría, con la situación opuesta en la que la primera está fría y la segunda caliente. Este estado tiene la propiedad especial de hacer compatibles la temperatura total y el color global. Su temperatura total es con certeza cero, si definimos cero como el punto intermedio entre calor y frío. Respecto al color global, este estado resulta ser perfectamente verde. Es decir, una superposición con igual probabilidad entre azul y amarillo para la primera y segunda taza, con amarillo y azul.

Si yo toco mi taza y la encuentro caliente, sé con absoluta seguridad que la taza de mi amiga en ese mismo instante estará fría. Y lo sabré sin necesidad de actuar sobre su taza. Según la definición EPR de elemento de realidad, la temperatura de la taza de mi amiga es un elemento de realidad. Si miro mi taza y la veo amarilla, sé con certeza que la suya será azul. Por lo tanto, también el color de su taza es un elemento de realidad. De la misma forma, podría ser mi amiga la que hiciera estas consideraciones, y concluiría que la temperatura y el color de mi taza son elementos de realidad. Es decir, no solo la temperatura total cero y el color global verde son elementos de realidad en el estado especial que estamos considerando. Las propiedades individuales de cada taza también lo son.

Esta situación muestra la incompatibilidad entre el criterio de realismo EPR y la mecánica cuántica. De acuerdo con el primero, una teoría física completa ha de ser capaz de incluir todas las cantidades que podemos predecir sin necesidad de medir. Por otra parte, hemos explicado cómo en un sistema cuántico con dos estados básicos no es posible describir más de una propiedad con certeza. Y sin embargo hemos encontrado un estado en el que varias propiedades de cada taza satisfacen la definición de elemento de realidad. Esto llevó a Einstein, Podolski y Rosen a concluir que la descripción de la Naturaleza provista por la mecánica cuántica es incompleta. Es importante entender correctamente esta afirmación. No implica que la mecánica cuántica sea incorrecta. Lo que se argumenta es que sus elementos probabilísticos son debidos al desconocimiento de alguna información relevante que en una teoría física completa sí tendría cabida.

La conclusión anterior tiene grandes implicaciones. Antes de aceptarla, cabe preguntarse si no es posible modificar la definición de realismo buscando su compatibilidad con la mecánica cuántica. Podríamos por ejemplo exigir que dos propiedades solo se consideren elementos de realidad si es posible predecirlas simultáneamente. La temperatura y el color de las tazas individuales en el estado de temperatura total cero y color global verde no satisfacen este criterio más restrictivo. Si toco mi taza, también sabré inmediatamente cuál es la temperatura de la de mi amiga. Una vez que las tazas han escogido entre caliente y frío o viceversa, la superposición inicial se destruye y el estado deja de estar entrelazado. Este nuevo estado provocado por mi acción no tiene color global verde. Aunque mire mi taza y obtenga azul, no sabré con certeza el color de la taza que no veo.

Llegamos así a otra situación sorprendente. Si toco mi taza, la temperatura de la de mi amiga será un elemento de realidad, pero no su color. Si miro mi taza, será el color y no la temperatura de la segunda taza lo que puedo predecir con certeza. Es decir, la propiedad de la segunda taza que verifica el criterio de elemento de realidad, y por lo tanto debería tener una existencia independiente de que alguien la observe o no, resulta depender de la acción que yo haya ejecutado sobre la mía.  Claramente esta situación implica una tensión tanto con el principio de realismo, como con el de localidad.

Desde la misma intuición que lleva a exigir el criterio de realismo a una teoría física completa, resulta difícil argumentar contra la exigencia añadida de simultaneidad. El que esta modificación lleve a una situación todavía más paradójica pone de manifiesto la profundidad del cambio conceptual que supone la mecánica cuántica. El éxito de Einstein, Podolski y Rosen fue exponer esto de forma clara y concisa, y por ello el impacto de su contribución no ha hecho más que aumentar con el paso del tiempo.

En la última frase de su trabajo, se expresa la convicción de que una teoría acorde a los principios de localidad y realismo sea posible. Esta teoría completaría la descripción cuántica con unas variables adicionales, que se conocen con el descriptivo nombre de variables ocultas. Ocultas no solo porque no las conocemos, sino porque, aunque tal teoría existiera, en principio no sería posible preparar un estado con unos valores predefinidos para ellas. De lo contrario entraríamos en conflicto con la mecánica cuántica. Por ejemplo, podríamos preparar un estado de nuestra singular taza que no tuviera incertidumbre ni en la temperatura y ni en el color. Y no hay ninguna evidencia experimental de que en el mundo microscópico esto sea posible. Las teorías de variables ocultas asumen que estas nuevas variables tendrán un valor bien definido en cada estado que preparemos, a pesar de que no podamos fijarlos con nuestros dispositivos experimentales. La descripción cuántica surgiría al promediar sobre estas nuevas variables.

En realidad, las discusiones sobre la completitud de la mecánica cuántica y las teorías de variables ocultas no comenzaron con el trabajo EPR. El primer intento de una teoría de variables ocultas se atribuye a De Broglie en 1927. La dualidad onda-corpúsculo que él había propuesto asocia una onda a toda partícula. De Broglie creía que esta onda debía tener realidad física en vez de solo matemática, como promueve la interpretación estándar de la mecánica cuántica, sirviendo como primer modelo de variables ocultas. En un desarrollo opuesto y anterior también a la paradoja EPR, el gran matemático John von Neumann publicó un libro sobre los principios matemáticos de la mecánica cuántica en el que presentaba una prueba de la imposibilidad de las variables ocultas. Poco después Grete Hermann, matemática discípula de Emily Noether, descubrió una falacia en su argumentación. Por desgracia su contribución pasó mayormente inadvertida, y la prueba de von Neumann tuvo una influencia notable. Hubo que esperar largos años hasta que John Bell, otro de los protagonistas de nuestra historia, redescubriera su fallo.

A mediados del siglo pasado David Bohm, importante físico y original pensador, retomó la búsqueda de una teoría de variables ocultas. Formuló una propuesta que hace contacto con la construcción previa de De Broglie. Contrariamente a los criterios EPR, las variables ocultas que contempla tienen un carácter no local. El trabajo de Bohm, junto con las dudas sobre la prueba de von Neumann, llevó a Bell a buscar una respuesta definitiva sobre la viabilidad de las variables ocultas locales.

En 1964, casi tres décadas después de la contribución EPR, Bell demostró que la mecánica cuántica no admite una teoría de variables ocultas satisfaciendo los principios de realismo y localidad. Utilizó en su prueba un sistema análogo al de nuestras tazas y un estado equivalente al que hace compatibles las propiedades de color global y temperatura total. En este estado especial resulta haber más propiedades compatibles. Por ejemplo, el tipo de contenido de la taza. Supongamos que sus dos estados básicos son café y té. En términos del contenido se cumple el mismo esquema verificado por las propiedades anteriores. Es decir, el estado de temperatura total cero y color global verde también se puede describir como una superposición entre café en la primera taza y té en la segunda, y viceversa, té en la primera y café en la segunda.

Si fuera posible completar la mecánica cuántica en el sentido que EPR plantearon, cada taza tendría secretamente unos valores bien definidos de temperatura, color y contenido. Estas propiedades individuales serían las variables ocultas de nuestro ejemplo, las cuales determinan el resultado que obtendremos al medir. Respecto a ellas, el estado especial tendría ocho configuraciones subyacentes: calor-amarillo-café para la primera y fría-azul-té para la segunda, calor-amarillo-té para la primera y fría-azul-café para la segunda, etc. Recordemos que cuando mi amiga y yo preparamos nuestras tazas, no podemos controlar qué configuración se producirá. Pero, si las variables ocultas existen, sabemos con certeza que, dados N pares de tazas, habrá un número de ellos bien definido que corresponde a cada configuración, aunque desconozcamos su valor. Sorprendentemente, esto es suficiente para deducir relaciones entre las probabilidades de los diferentes resultados. No es necesario ningún elemento adicional proveniente del mundo cuántico. Estas relaciones toman la forma de unas famosas desigualdades, que llevan el nombre de su autor. Las desigualdades de Bell establecen lo siguiente:

P(p1,r1; p2,r2) ≤ P(p1,r1; p3,r3) + P(p3,r3; p2,r2) ,

donde P(p1,r1; p2,r2) es la probabilidad de que yo obtenga el resultado r1 al medir la propiedad p1, e independientemente pero al mismo tiempo, mi amiga obtenga r2 para la propiedad p2. Por ejemplo, p1 y p2 pueden ser temperatura y contenido, y r1 y r2 los resultados frío y café.

Puesto que las desigualdades de Bell se derivan exclusivamente de los principios de realismo y localidad, el siguiente paso está claro. Calculemos las probabilidades P(p1,r1; p2,r2) siguiendo los postulados de la mecánica cuántica. Dependiendo de las relaciones matemáticas entre las propiedades que escojamos medir, y para las que la imagen de las tazas es finalmente demasiado limitada, se obtiene una violación de las desigualdades de Bell. Esto implica el importantísimo resultado de que las correlaciones cuánticas son más fuertes de lo que una teoría de variables ocultas locales puede representar. Se excluye así definitivamente la posibilidad de completar la mecánica cuántica como Einstein, Podolski y Rosen deseaban.

¿Cuál es la relevancia práctica de esta conclusión? Hemos insistido en que, aunque existiera una teoría de variables ocultas, no podríamos manipular libremente los valores de sus variables. Por tanto, la respuesta parece ser que tiene escasa relevancia. Esto sin embargo no es así. Una teoría de variables ocultas acorde a los criterios EPR implicaría que la mecánica cuántica no supone el cambio radical que aparenta. Sería solamente la manifestación estadística de una teoría más fundamental que satisface los mismos principios de realismo y localidad que rigen la física clásica. El que no sea así significa que el entrelazamiento cuántico es un fenómeno absolutamente nuevo.

¿Podría el mundo cuántico ser compatible con otros principios ocultos? El resultado de Bell no excluye esta posibilidad. Un ejemplo es la mencionada teoría de Bohm, basada en variables ocultas no locales. Existen otras propuestas, pero todas ellas tienen en común que sustituyen el fundamento probabilista de la mecánica cuántica por unas construcciones que difícilmente se pueden considerar más satisfactorias, más simples o más naturales. Por ello, dejaremos en este punto la discusión sobre la completitud de la mecánica cuántica, y conduciremos nuestra historia a cuestiones más aplicadas que teóricas.

A raíz del trabajo de Bell, resultó de evidente importancia la realización de test experimentales de sus desigualdades. Aunque EPR y Bell analizaron el mismo fenómeno físico, utilizaron distintas realizaciones en su argumentación. Los primeros razonaron sobre dos partículas con sus posiciones y velocidades entrelazadas, mientras que Bell consideró el entrelazamiento entre dos copias del sistema cuántico más simple, con solo dos estados básicos, y por tanto mucho más sencillo de implementar. Esto, junto con el enorme progreso de la física experimental, hizo posible que a comienzos de los años 70 aparecieran los primeros test de las desigualdades.

Es interesante describir a grandes rasgos estos experimentos. En sustitución de nuestras tazas imaginarias, se utilizaron fotones, los cuantos de luz descubiertos por Planck y Einstein. A nivel clásico, la radiación electromagnética es una onda que oscila en el plano perpendicular a su dirección de propagación. Esto implica que, fijada su frecuencia, tiene dos estados de oscilación independientes, que se denominan polarizaciones. Escogido un eje en el plano perpendicular al de propagación, las dos polarizaciones corresponden a una oscilación alineada con dicho eje o perpendicular a él. Los fotones heredan esta propiedad y respecto a ella proporcionan la realización de un sistema cuántico con dos estados básicos. En los mencionados experimentos, una fuente emite pares de fotones entrelazados que se propagan en direcciones opuestas. Cada fotón es recibido por un observador diferente, a los que es tradicional llamar Alice y Bob. Para terminar, éstos hacen pasar su fotón por un polarizador, un instrumento capaz de distinguir entre las polarizaciones paralela y perpendicular respecto a un eje dado, cuya orientación es escogida independientemente por Alice y Bob.

En 1969, John Clauser, Michael Horne, Abner Shimony y Richard Holt derivaron una forma alternativa del resultado de Bell, conocida como desigualdades CHSH por las iniciales de sus autores. En ellas no es necesario que Alice y Bob escojan entre las mismas tres propiedades, en la práctica, orientaciones del polarizador. Este requisito de la formulación original era difícil de implementar de manera exacta. Fueron por tanto las desigualdades de Bell en su forma CHSH las que se sometieron a prueba.

Ya en los primeros experimentos se encontró una clara violación de las predicciones basadas en los principios de localidad y realismo. A pesar de ello y debido a limitaciones tecnológicas, los resultados quedaban lejos de los valores ideales dictados por la mecánica cuántica. No fue hasta 1982 cuando un experimento mostró claro acuerdo con las predicciones cuánticas. Este experimento, liderado por Alain Aspect, marcó un hito en la capacidad de controlar y manipular el mundo cuántico.

Dadas sus implicaciones fundamentales, era necesario asegurar que ningún resquicio experimental pudiera poner en cuestión la violación de las desigualdades de Bell. Me refiero a circunstancias que, aunque improbables o complejas, estrictamente no se puedan excluir. Por ejemplo, si alguna información sobre la medición de Alice llegara a Bob antes de que él complete la suya, podría influir en ella. Correlaciones entre ambas mediciones consistentes con el principio de localidad podrían así pasar erróneamente por correlaciones cuánticas. Esta circunstancia se excluye separando suficientemente las localizaciones de Alice y Bob. Esto supuso un importante reto tecnológico ya que el entrelazamiento cuántico es una propiedad muy frágil, que se ve afectada fuertemente por cualquier interacción del sistema de interés con el ambiente que lo rodea. El primer experimento que cerraba el resquicio asociado con localidad se realizó en 1998, con una separación entre Alice y Bob de 400 metros.


Fig.1 Esquema de la configuración del experimento liderado por Alain Aspect. Los ejes de los dos polarizadores están orientados en direcciones distintas, denotadas como a y b. La novedad de este experimento fue utilizar polarizadores que no bloquean la componente perpendicular a su orientación. El contador de coincidencias es necesario para asegurar que los fotones detectados provienen del mismo par entrelazado.


Otro importante resquicio de los test de Bell se encontraba en la baja eficiencia de los detectores a los que llegaban los fotones tras atravesar el polarizador. En una extraña coincidencia, podría darse que los fotones detectados violaran las desigualdades, pero éstas se restauraran sobre el conjunto completo de fotones. Claramente esta posibilidad se elimina con una mejora de los detectores. Esto se consiguió por primera vez en 2001, con un experimento que sustituía los fotones por iones atrapados en campos electromagnéticos. Hubo que esperar hasta el 2013 para que el problema asociado a la detección se cerrara también con un test de Bell basado en fotones.

En la derivación de las desigualdades de Bell, es esencial que la elección de la orientación de los polarizadores de Alice y Bob sea independiente y aleatoria. No es suficiente con garantizar que Alice no influya en Bob o viceversa. Podría darse que el propio sistema bajo estudio, y más en concreto, sus potenciales variables ocultas, tuvieran algún efecto sobre las elecciones. O dicho de otra manera, es necesario asegurar que el mecanismo de elección aleatoria no se vea influido de alguna manera por la misma física que queremos poner a prueba. Dos interesantes experimentos atacaron este sutil resquicio. En uno de ellos se reclutaron 100.000 voluntarios distribuidos por todo el globo, a los que se pidió participar en un videojuego que incentivaba la toma de decisiones aleatorias. Los resultados del videojuego se utilizaron a tiempo real para generar elecciones en 13 experimentos distintos de las desigualdades de Bell, que se realizaron a lo largo del 30 de Noviembre del 2016. El segundo se llevó a cabo en colaboración con el observatorio astrofísico de las Islas Canarias dos años más tarde. Sus telescopios detectaron luz proveniente de dos cuásares distantes, y utilizaron la distribución aleatoria del color de la luz recibida para fijar la orientación de los polarizadores. De esta forma, situaron el mecanismo de elección varios billones de años atrás.

Se completa así la prueba rigurosa de que el entrelazamiento cuántico es un fenómeno totalmente ajeno al mundo clásico. Esto no representa sin embargo el final de nuestra historia. Más bien al contrario, es el hito fundamental que abre la puerta a una nueva era tecnológica. Me refiero a la era de las tecnologías cuánticas, cuyo recurso principal es precisamente el entrelazamiento. Como es un recurso frágil, su control y manipulación requiere un dominio técnico sin precedentes, del que los test de Bell fueron pioneros. Esta tecnología promete tener un enorme impacto en nuestra sociedad a medio y largo plazo. La mecánica cuántica ha cambiado la forma de entender la Naturaleza. Ahora puede cambiar también nuestro día a día, y por ello hablamos de una segunda revolución cuántica.

Me gustaría terminar mencionando los principales campos de aplicación de las tecnologías cuánticas, y dar una breve impresión sobre su estado de desarrollo. Uno de estos campos es la construcción de aparatos de medida extremadamente precisos. Según la teoría de la gravitación de Einstein, el tiempo transcurre a un ritmo ligeramente distinto dependiendo del lugar en el que nos encontremos. Utilizando un reloj cuántico, en Septiembre de 2021 se pudo medir este efecto en átomos separados por un solo milímetro de altura. Otro importantísimo terreno de aplicación son las comunicaciones, con la promesa de garantizar transmisiones totalmente seguras. Las comunicaciones cuánticas requieren mantener el entrelazamiento sobre grandes distancias. Actualmente el récord para fotones está en más de 1.000 kilómetros. Y finalmente, la estrella de las tecnologías cuánticas es probablemente la computación. El objetivo es construir un ordenador con software basado en la lógica cuántica, capaz de resolver problemas totalmente fuera del alcance de cualquier ordenador clásico, presente o futuro. Se conoce como supremacía cuántica al reto más modesto de completar algún cálculo para el que un ordenador clásico necesitaría un tiempo incomparablemente mayor. Este reto, aunque más modesto igualmente impresionante, fue conseguido por Google en 2019 con un procesador cuántico de 53 cubits, análogos cuánticos de los bits clásicos, implementados en términos de circuitos superconductores.

El mundo se encuentra actualmente inmerso en una frenética carrera por el desarrollo de las tecnologías cuánticas. Nadie puede permitirse quedar al margen. Lograrlo es una cuestión de importancia no solo económica, sino estratégica. Porque el futuro es cuántico y ya está aquí.


Esperanza López Manzanares.
Doctora en Ciencias Físicas.
Investigadora Científica del CSIC, Instituto de Física Teórica - CSIC.




Fig.2 Imagen añadida por los coordinadores el 05/10/2022.