Mostrando entradas con la etiqueta 2019 Y UN GRAN PASO. Mostrar todas las entradas
Mostrando entradas con la etiqueta 2019 Y UN GRAN PASO. Mostrar todas las entradas

martes, 31 de diciembre de 2024

El Electromagnetismo: una historia de grandes pasos

El Electromagnetismo: una historia de grandes pasos.





En el presente capítulo se hará un breve repaso a la Historia del Electromagnetismo como ciencia, desde sus orígenes hasta la aparición de artilugios eléctricos como bombillas, motores, tendidos eléctricos, etc.
En primer lugar, antes de comenzar dicho repaso, es importante señalar que el conocimiento de los principios que rigen el electromagnetismo ha permitido a los seres humanos desarrollar toda una serie de inventos con aplicaciones prácticas (algunos de ellos ya mencionados), que han sido fundamentales en la profunda transformación que ha experimentado el modo de vida de los humanos durante los últimos dos siglos aproximadamente, especialmente en los países desarrollados. A dicho proceso de transformación disruptiva se le puede llamar, sin temor a sobreestimar su impacto e influencia, la Revolución Eléctrica.
Por lo tanto, el conocimiento de la Historia del Electromagnetismo nos acerca de manera decisiva a nuestra propia Historia, y nos permite entender mejor el mundo en el que vivimos actualmente, y la manera en la que hemos llegado hasta aquí.
Hecha esta pequeña -pero notoria- aclaración, comenzamos ahora sí con el repaso a la Historia del Electromagnetismo. Tenga el lector presente que esta exposición estará necesariamente simplificada, y que muchas contribuciones al desarrollo de esta ciencia no serán tratadas en la misma como merecerían, dado que el objetivo es servir como introducción al tema y discutir los principales hitos en la construcción de una de las grandes teorías clásicas de la Física (en otras palabras: la Historia completa del Electromagnetismo no cabe en unas pocas páginas).

Los primeros descubrimientos.
Las observaciones de fenómenos eléctricos, tales como tormentas eléctricas o peces eléctricos (como por ejemplo las anguilas), deben de haberse producido desde tiempos inmemoriales; muy probablemente, a tales fenómenos se les atribuiría un carácter mágico o mitológico. Los primeros indicios acerca de la existencia de fuerzas eléctricas y magnéticas se remontan sin embargo a la Antigüedad, y suelen atribuirse (¡oh, sorpresa!) a los griegos. En torno al año 600 a.C., el filósofo griego Tales de Mileto, describió cómo el ámbar (resina de árboles fosilizada) atraía pequeños y ligeros objetos cuando era frotado con pieles de animales. La palabra que empleaban los griegos para designar el ámbar era “elektron”, y de ahí procede el nombre de “electricidad”. Los griegos también sabían que la magnetita, un mineral compuesto por óxidos de hierro, atraía trozos de hierro. La palabra griega para designar la magnetita es “magnetislithos”, y de ahí procede el nombre de “magnetismo”.
Por otra parte, el uso de la brújula magnética es también antiquísimo (recordemos que una brújula es una aguja de hierro –o de magnetita- imantada que se alinea según el campo magnético de la Tierra, señalando de esta forma sus extremos el polo norte y el polo sur terrestres, aproximadamente). Se suele atribuir a los chinos la invención de la brújula magnética, posiblemente durante el siglo III a.C. Es probable que los vikingos también la inventaran de manera independiente, si bien más tardíamente (alrededor del siglo I d.C.). Por supuesto, ambas civilizaciones se habrían beneficiado inmensamente de tal invención en lo concerniente a la navegación, aunque parece que ésta no fue la aplicación original en la antigua China. En Europa, en contraste, la primera referencia conocida a la brújula data de principios del siglo XIII d.C.

Los orígenes como Ciencia.
En 1269, el francés Petrus Peregrinus de Maricourt colocó un fino rectángulo de hierro sobre una esfera de magnetita en diferentes posiciones, y observó que se alineaba siempre en meridianos análogos a los de la Tierra, lo cual le llevó a definir el concepto de polos magnéticos. Descubrió también que cuando un imán es cortado en dos, cada una de las piezas resultantes también tiene dos polos. Y observó que polos semejantes se repelen y que polos opuestos se atraen. Recogió el resultado de sus investigaciones en su “Epistola de Magnete”, que hoy en día constituye el primer (pequeño) tratado conocido sobre el tema.
Hasta finales del siglo XVI sin embargo, no se produjeron apenas nuevos avances. En el año 1600, William Gilbert, médico de la reina Isabel I de Inglaterra, que había dedicado años a estudiar de manera sistemática el magnetismo (y en menor medida, la electricidad estática), publicó “De Magnete”; suele considerarse la publicación de esta obra como el origen del Electromagnetismo como disciplina científica. Entre otras cosas, Gilbert concluyó que la Tierra debía ser un inmenso imán. Esta notable afirmación contrasta con la visión aceptada en la época, según la cual el magnetismo se debía a la atracción de los polos de la esfera celeste.

El siglo XVIII: la Electrostática.
El siglo XVII vio nacer los generadores electrostáticos, aparatos capaces de almacenar carga eléctrica, generalmente por fricción. El primer generador electrostático fue el construido por Otto von Guericke en 1663, aunque numerosos diseños distintos aparecieron con posterioridad. Entre todos ellos, destacaron significativamente las botellas o jarras de Leyden, inventadas de manera independiente por Peter von Musschenbroek (1746), un científico holandés de la ciudad de Leiden, y el alemán Ewald Georg von Kleist (1745).  La botella de Leyden era una botella de vidrio sellada, llena de agua hasta la mitad, que contenía un cilindro conductor que sobresalía por la abertura de la botella. La carga se le comunicaba al cilindro mediante un generador de fricción. William Watson, médico y científico inglés, añadió un recubrimiento metálico tanto en el interior (en contacto con el cilindro conductor) como en el exterior, lo que aumentó enormemente la capacidad de las botellas y constituyó la invención del primer condensador eléctrico; hoy en día los condensadores se emplean de manera rutinaria en infinidad de aparatos electrónicos.
Los generadores electrostáticos podían acumular grandes cantidades de carga, y jugaron un papel fundamental en el nacimiento y desarrollo, a principios del siglo XVIII, del estudio científico de la electricidad, ya que posibilitaron la investigación de las fuerzas eléctricas entre objetos cargados, en situaciones en las que las cargas son estáticas. Así, en 1785 Charles Coulomb determinó experimentalmente la ley que lleva su nombre, según la cual la fuerza eléctrica entre dos cargas (o entre los polos de dos imanes) disminuye con el cuadrado de la distancia, y es proporcional al valor de cada carga. Para ello inventó la balanza de torsión, un importante instrumento que sirve para medir fuerzas que son débiles. La ley de Coulomb había sido sin embargo ya demostrada por el científico escocés John Robinson en 1769 (aunque de manera menos concluyente), y al parecer también por el extravagante científico inglés Henry Cavendish (quien sin embargo no publicó, fiel a su costumbre, sus resultados). Por su parte, los matemáticos Siméon-Denis Poisson (en 1813), Geroge Green (en 1828) y Carl Friedrich Gauss (en 1835) realizaron importantísimas contribuciones matemáticas a la teoría del Electromagnetismo, y de esta forma, a principios del siglo XIX quedaron establecidos los principios de la electrostática.

La pila de Volta.
En el año 1800 se produjo un descubrimiento crucial, que cambiaría el rumbo de la Historia. Ese año, Alessandro Volta escribió una carta al presidente de la Royal Society de Londres, sir Joseph Banks. Junto a la carta envió un aparato compuesto por discos de cinc y de cobre apilados alternativamente uno sobre otro en pares (cinc, cobre, cinc, cobre…), y separados los pares entre sí por paños empapados en una solución salina (salmuera), también en forma de disco (Fig.1). Cuando se conectaban los extremos de esta pila de discos mediante cables conductores, se producía una corriente continua (esta corriente se manifestaba mediante el calentamiento de los materiales conductores, o la separación de compuestos químicos, como el agua, en sus elementos constituyentes)1.
Este artilugio, que ha pasado a la historia como “la pila de Volta”, revolucionó el estudio de la electricidad, ya que permitió disponer de una fuente de corriente continua duradera. Hasta entonces, se disponía solamente de generadores de carga tales como las botellas de Leyden, que si bien permitían acumular una gran cantidad de carga (lo cual era apropiado para el estudio de la electrostática), se descargaban muy rápidamente, y no permitían por lo tanto el estudio de las corrientes eléctricas.
La pila de Volta fue por lo tanto un invento de la mayor relevancia, sin el cual no se podrían haber producido los descubrimientos posteriores de Ampère, Faraday, etc. sobre el electromagnetismo. Tanto es así, que su valía fue reconocida de inmediato. Francesc Aragó, quien también realizó contribuciones notables al electromagnetismo, escribió: “La producción de electricidad por el mero contacto de metales diferentes es uno de los hechos más grandes y establecidos de la Ciencia Física... y ahora estos medios están en manos de todos los experimentadores, y es gracias al genio de Volta que lo ha hecho posible”. O también: “[es] el instrumento más maravilloso que el hombre nunca ha inventado, sin exceptuar el telescopio y la máquina de vapor” [1]. Volta incluso llegó a presentar su invento en una sesión particular ante el propio Napoleón I Bonaparte, quien, impresionado, le otorgó la medalla de oro al mérito científico y le nombró conde y senador de Lombardía.
Sin embargo, la pila de Volta tenía un problema: el peso de los discos comprimía el paño húmedo, lo cual provocaba cortocircuitos. Para solucionar este inconveniente, William Cruickshank, químico de la Royal Military Academy de Woolwich, ideó una sencilla pero decisiva mejora, introducida a principios de 1802: colocó los componentes de la pila en horizontal en el interior de una caja de madera, y sustituyó la solución salina por ácido sulfúrico.
La mejora introducida por Cruickshank permitió construir baterías cada vez más grandes, con un mayor número de discos o placas metálicas (algo que no habría sido posible con el diseño original de Volta), las cuales proporcionaban voltajes e intensidades de corriente mayores. De hecho, a principios del siglo XIX comenzó una carrera tecnológica entre Francia e Inglaterra por ver quién construía la pila más grande [1]. En 1802, Humphry Davy había construido una gran pila que le había permitido aislar por primera vez mediante electrólisis diferentes elementos químicos, tales como el sodio, el potasio,… (ver el capítulo de Electroquímica). Sin embargo, hacia 1808 la pila ya estaba muy desgastada, y se hizo necesario construir una nueva. Por aquel entonces, Joseph Louis Gay-Lussac y Louis Jacques Thénard estaban inmersos en la construcción de una batería de grandes dimensiones en Francia. La Royal Institution de Londres, a la que pertenecía Humphry Davy, andaba escasa de fondos, e inició una campaña (apelando al nacionalismo y a la grandeza de la nación de Inglaterra) para recaudar fondos para construir una gran batería antes que los franceses. Finalmente, los ingleses consiguieron su objetivo en 1810, con la construcción de una inmensa batería que generaba 2.200 voltios, mientas que la pila de los franceses no llegaría hasta 1813.

La unificación de la electricidad y el magnetismo.
El descubrimiento de Oersted.
Como ya se ha señalado, la invención de la pila de Volta posibilitó el comienzo de los estudios sobre las corrientes eléctricas. Así, en 1820 Hans Christian Oersted, químico y físico danés, realizó un descubrimiento crucial, que desataría un torbellino de investigaciones acerca de la relación entre la electricidad y el magnetismo. Oersted creía firmemente en la interconexión entre ambos fenómenos desde hacía más de una década, en un momento en el que no existían indicios de tal interdependencia y pocos científicos podían siquiera sospecharla. Esta convicción filosófica le llevó a demostrar que una corriente eléctrica provoca la desviación de una aguja imantada. En otras palabras: las corrientes eléctricas se comportan como imanes, ejerciendo una fuerza sobre las agujas imantadas y desviándolas de su posición natural, orientada según el campo magnético terrestre. En concreto, Oersted demostró que una corriente eléctrica continua que circula por un conductor rectilíneo ejerce una fuerza sobre una aguja imantada que tiende a alinear ésta a lo largo de una circunferencia centrada en el conductor (la alineación es mayor cuanto mayor sea la intensidad de la corriente, debido a que hay que compensar la fuerza ejercida por el campo magnético de la Tierra). Era la primera demostración de que la electricidad y el magnetismo estaban conectados de algún modo, y supuso un verdadero hito en la Historia del Electromagnetismo.
Las aportaciones de Ampère (y Aragó, Biot y Savart).
A raíz de este importante descubrimiento, los científicos de la época comenzaron un gran número de experimentos, con resultados notables en un período de tiempo muy breve. Entre todos ellos, destacó especialmente el francés André-Marie Ampère. Ampère formuló una teoría electromagnética según la cual todos los efectos magnéticos, incluidos los de los imanes, eran el resultado de electricidad en movimiento (esto es, de corrientes eléctricas –que serían internas en el caso de los imanes-), y no de un “fluido magnético”, tal y como se creía entonces. Asimismo, llevó a cabo notables descubrimientos en el plano experimental que confirmaron sus intuiciones. Descubrió que la propia pila voltaica, cuando sus extremos eran conectados, provocaba también la deflexión de una aguja imantada del mismo modo que lo hace un cable por el que circula corriente; para llevar a cabo este descubrimiento, inventó el galvanómetro, un sensible aparato que se sigue utilizando hoy en día para medir la corriente eléctrica (en base precisamente a la deflexión causada por la corriente en una aguja imantada); descubrió que dos cables conductores rectilíneos por los que circula corriente se atraen o se repelen mutuamente según la corriente vaya en el mismo o en distinto sentido en ambos (¡y que esta atracción no es una atracción eléctrica!, un buen indicio de que las corrientes producen efectos magnéticos); en realidad, este último descubrimiento estuvo precedido por la observación de que un cable enrollado en forma de hélice por el que circula una corriente (es decir, un solenoide) se comporta exactamente como un imán, atrayendo y repeliendo otros imanes; esta espectacular revelación vino a su vez precedida además por una predicción teórica suya, según la cual la acción de los imanes se debía precisamente a corrientes circulares alrededor de su eje longitudinal, por lo que este descubrimiento no fue casual, sino buscado (para contrarrestar los efectos debidos a la extensión del cable en la dirección de dicho eje, Ampère dobló sobre sí mismos los extremos del cable y los extendió hacia el centro de la hélice); este descubrimiento supuso también de facto la invención de los electroimanes2, que hoy en día se utilizan de manera rutinaria en una gran variedad de dispositivos eléctricos, y que constituyeron la clave para la invención del telégrafo (se utilizan también por ejemplo en los aceleradores de partículas para dirigir a éstas); demostró además, en colaboración con François Aragó, que un electroimán podía provocar la magnetización de una aguja de hierro colocada a lo largo de su eje; y que el campo magnético de la Tierra ejerce una fuerza sobre un circuito circular plano que tiende a alinearlo perpendicular a los meridianos magnéticos terrestres.
En definitiva, estableció de manera esclarecedora una serie hechos experimentales y reveló la naturaleza eléctrica de los campos magnéticos. Elaboró además toda una teoría del Electromagnetismo que publicó en 1825 en su importante obra “Mémoire sur la théorie mathématique des phénomènes électrodynamiques uniquement déduite de l’experience”. En un principio pensó que la electricidad era un fluido3, pero ante los repetidos intentos en vano de encontrar evidencias en una serie de ingeniosos experimentos llevados a cabo por su amigo y físico Augustin Fresnel, asumió la idea de éste de que la corriente eléctrica se debía a una “corriente molecular” de numerosas y pequeñas partículas cargadas, que se movían dentro del conductor. Esta idea, que a la postre se demostraría cierta tras el descubrimiento del electrón por parte de J.J. Thomson en 1897, fue cuestionada por muchos científicos de la época, incluyendo a Michael Faraday [2].
Por su parte, François Aragó demostró que un cable por el que circula corriente eléctrica es capaz de atraer limaduras de hierro como si fuera un imán y magnetizar de manera permanente una aguja de coser. Otra aportación importante fue la de Jean-Baptiste Biot y Félix Savart, quienes utilizando un cable conductor y pequeños cilindros de acero magnetizado suspendidos en hilos de seda de gusano, establecieron la ley que lleva su nombre, según la cual la acción de un elemento muy pequeño de cable por el que circula corriente, sobre un pequeño imán, se produce en la dirección perpendicular al cable y a la línea que une perpendicularmente el punto y el cable.
Todas estas notables aportaciones y descubrimientos tuvieron lugar durante el propio año 1820, a principios del cual Oersted había anunciado su hallazgo. Así, en apenas un año se pasó fugazmente de una situación en la que no existía ningún indicio sobre la conexión entre electricidad y magnetismo, a otra en la que buena parte de dicha conexión había sido revelada con acierto (al menos en lo referente a la magnetostática, esto es, al estudio de los campos magnéticos creados por corrientes que no varían en el tiempo).Faltaban aún sin embargo unos cuantos hallazgos sorprendentes por llegar.
El descubrimiento de la inducción electromagnética.
Hacia 1822, estaba claro que las corrientes eléctricas producían efectos magnéticos. Una pregunta natural entonces era si los imanes -incluidos los electroimanes- podían producir efectos eléctricos. Pese al interés y los múltiples intentos por demostrar tal conjetura, a comienzos de la década de 1830 ningún resultado en positivo había sido hallado. Entonces, en 1831, Michael Faraday enrolló dos bobinas de cobre en torno a un anillo de hierro, a modo de transformador (Fig.2), conectó una de ellas a una pila voltaica, y la otra a un galvanómetro muy sensible. Hizo pasar corriente por la primera de las bobinas y observó en ese momento que la aguja del galvanómetro oscilaba muy fugazmente cuando conectaba la pila, y que la aguja volvía a oscilar rápidamente, esta vez en sentido contrario, cuando desconectaba la pila. El efecto duraba apenas una fracción de segundo, y desaparecía en cuanto la corriente se estabilizaba. Posiblemente ése era el motivo por el cual no había sido descubierto con anterioridad: ¡no era la propia corriente eléctrica la que causaba la inducción, sino la variación de la corriente!


Fig.2. Grabado del transformador utilizado por Faraday para descubrir la inducción electromagnética. Fuente: https://commons.wikimedia.org/wiki/File:Faradays_transformer.png

Faraday se dio cuenta de este hecho sutil, y llevó a cabo una sistemática serie de experimentos para dilucidar el fenómeno de la inducción. Descubrió así que si acercaba o alejaba un imán a una bobina, o una bobina a un imán, o si acercaba o alejaba una bobina por la que circulara corriente a otra, también se inducía corriente eléctrica en la bobina. Descubrió también que la corriente inducida era tanto mayor cuanto más rápido fuera el movimiento, más potente el imán y mayor el área de la bobina. En definitiva, describió de manera exhaustiva el fenómeno de la inducción electromagnética.
Ésta fue sin duda la aportación a la Ciencia y al mundo más determinante de Faraday (entre las numerosísimas que hizo [3]): la inducción electromagnética permite la generación de la electricidad que consumimos, en centrales térmicas, hidroeléctricas, eólicas y nucleares, y ha posibilitado lo que podríamos llamar la Revolución Eléctrica (en analogía con la Revolución Industrial, acontecida a raíz de la invención de la máquina de vapor).
Es interesante, llegados a este punto, destacar que todo comenzó con unas modestas y fugaces deflexiones de la aguja de un galvanómetro. Este hecho ilustra perfectamente el funcionamiento de la Ciencia Básica, en contraste con la Ciencia Aplicada. Se dice que, en una ocasión, Faraday, al ser preguntado sobre la utilidad del descubrimiento que acababa de realizar, respondió: «¿Y para qué sirve un recién nacido?» [4].
También Joseph Henry, profesor universitario estadounidense, realizó en los mismos años que Faraday experimentos muy similares, que al parecer también lo condujeron al hallazgo de la inducción electromagnética, si bien Faraday publicó antes los resultados. Henry descubrió además la autoinducción (descubrimiento que sí se le reconoce), mejoró y popularizó los electroimanes (llegó a construir uno capaz de sostener masas cercanas a una tonelada) e inventó el telégrafo en 1831, aunque no lo patentó (posteriormente ayudaría a Samuel Morse en la construcción de su telégrafo, entre Baltimore y Washington). Las aportaciones de Henry lo convierten por lo tanto en una figura descomunal en la Historia de la Física. Una figura que, no obstante, se ha visto eclipsada por la de Michael Faraday, pero que es de justicia destacar.

La unificación de luz y electromagnetismo: la síntesis electromagnética.
Con el descubrimiento de la ley de inducción por parte de Faraday (con el permiso de Henry), y los descubrimientos realizados con anterioridad por Oersted, Ampère, Aragó y compañía, se había logrado hallar una bonita interdependencia entre la electricidad y el magnetismo: los fenómenos eléctricos producían efectos magnéticos (más aún, eran la única fuente de los mismos); al mismo tiempo, estos fenómenos magnéticos producían efectos eléctricos.
La teoría del Electromagnetismo clásico iba tomando forma. Gran cantidad de hechos experimentales habían sido probados, y también interpretados a la luz de consideraciones teóricas, y se habían incluso diseñado y fabricado artilugios como motores y generadores eléctricos. Existían sin embargo discrepancias en la interpretación sobre la manera en la cual un cuerpo cargado ejercía su ‘influencia’ electromagnética sobre otro. Por un lado, un gran número de científicos consideraban que se producía una “acción a distancia” entre las cargas, tal y como sugerían las ecuaciones, y como se pensaba que se comportaba también la gravedad entre cuerpos con masa. Por su parte, Faraday creía que las cargas distorsionaban de algún modo el espacio a su alrededor, creando una cierta “tensión”, y que esta distorsión o tensión era la que provocaba las fuerzas eléctrica y magnética, que se podían explicar y representar mediante las denominadas “líneas de fuerza”. Éstas constituirían una especie de red que llenaría el espacio alrededor de los cuerpos cargados, y servirían como representación gráfica para indicar la intensidad, la dirección y el sentido de las fuerzas eléctrica y magnética (Fig.3). Para Faraday, la existencia de tales líneas reflejaba la integridad e interconexión de todas las cosas, en tanto que obras de Dios (cabe recordar que Faraday pertenecía a una minoritaria y ferviente corriente religiosa de la Iglesia presbiteriana, los sandemanianos). Hoy en día se aceptan las ideas de Faraday, se entiende el electromagnetismo (y también otras teorías físicas) en términos de campos, y las líneas de fuerza se utilizan como representación de los campos eléctricos y magnéticos. Esto es así gracias a la denominada síntesis electromagnética llevada a cabo por James Clerk Maxwell, profesor escocés del King’s College por aquella época.


Fig.3. Limaduras de hierro dispuestas a lo largo de las líneas de fuerza del campo magnético generado por un imán. Biangular Coordinates Redux: Discovering a New Kind of Geometry - Scientific Figure on ResearchGate. Fuente:

Maxwell había leído los “Experimental Researches on Electricty” de Faraday, y había quedado convencido por las explicaciones e intuiciones de Faraday acerca de las líneas de fuerza. De modo que, a principios de la década de 1860, se propuso formular dichas ideas en términos matemáticos, una tarea que Faraday (cuyo conocimiento matemático, según se dice, era limitado) no había realizado. Es importante resaltar que, si bien Faraday no dotó de contenido matemático a sus descripciones de los campos eléctrico y magnético en términos de líneas de fuerza, demostró una gran intuición física al introducir el concepto de campo y aceptar su validez como realidad física subyacente a los fenómenos observados. Es por ello que también debe ser considerado un importante teórico, si bien esta faceta suya ha quedado a menudo oscurecida y poco reconocida, debido probablemente tanto a su innegable pericia en el plano experimental como a su falta de destreza matemática. “Al principio me asusté cuando vi la cantidad de fuerza matemática relacionada con el tema”, le confesó Faraday a Maxwell [5] cuando este último introdujo por primera vez sus ideas en un artículo publicado en dos partes entre 1855 y 1856, titulado “On Faraday’s Lines of Force”.
Maxwell quería encontrar una teoría coherente que permitiera explicar de manera satisfactoria las diversas leyes formuladas de manera cuantitativa y precisa hasta la fecha por Coulomb, Ampère, Faraday…, que aparecían como piezas bien establecidas pero inconexas de un único puzle. Para ello, empleó el concepto de líneas de fuerza de Faraday -como ya se ha mencionado- y los conceptos introducidos por Poisson, Gauss y Green, pero además se sirvió de una analogía física: un modelo mecanicista del medio en el que se producían los fenómenos electromagnéticos (del éter en este caso, según el pensamiento de la época). Maxwell entendía este modelo como “una ayuda al pensamiento”, en sus propias palabras [5].
Esta ayuda fue clave. El modelo de Maxwell fue evolucionando: empezó tomando elementos del flujo de calor y sus ecuaciones, y acabó representando los medios en los que se producen los fenómenos electromagnéticos como si estuvieran compuestos por esferas empaquetadas, entre las que se movían partículas pequeñas (comparadas con el tamaño de las esferas). El movimiento de estas partículas (corriente eléctrica) actuaba como cojinete y hacía girar por fricción las esferas, lo cual hacía que las esferas se achataran por los polos y se ensancharan por el ecuador, del mismo modo que le ocurre a la Tierra al girar. El ensanchamiento provocaba una fuerza efectiva radial en el plano del ecuador, y el achatamiento provocaba de igual modo una fuerza efectiva de ‘succión’ en la dirección perpendicular a este plano. La diferencia en la intensidad de los fenómenos en distintos medios (por ejemplo en el hierro comparado con otros materiales) se debía entonces a una distinta densidad de las esferas.
De esta forma, Maxwell logró explicar todos los fenómenos electromagnéticos conocidos hasta ese momento, y aunarlos todos bajo un conjunto unificado de ecuaciones. En otras palabras, puso las piezas conocidas del rompecabezas en su sitio. Pero no solo eso. Pudo explicar también lo que sucedía en la frontera entre dos materiales con propiedades eléctricas y magnéticas distintas, lo cual se desconocía. Más aún, Maxwell consideró que las esferas eran elásticas, y que por lo tanto se podían deformar, dando lugar a pequeños desplazamientos de las partículas eléctricas y en consecuencia, a pequeñas corrientes (a este tipo de corriente, que aparece cuando el campo eléctrico varía en el tiempo, la denominó “corriente de desplazamiento”). Esto ocurriría en los materiales aislantes sometidos a campos eléctricos, mientras que en los conductores las partículas tendrían mayor libertad para poder moverse (esta característica de los materiales se explicaba por un distinto grado de elasticidad de las esferas). Éste era un fenómeno completamente nuevo, predicho acertadamente por Maxwell.
Maxwell se dio cuenta además de que las corrientes de desplazamiento generadas por la variación del campo eléctrico eran también fuente del campo magnético (es decir, producían un campo magnético). Al introducir esta novedosa contribución en las ecuaciones, pudo predecir que las perturbaciones (variaciones) en el campo eléctrico provocaban perturbaciones en la rotación de las celdas, y por lo tanto, en el campo magnético, y viceversa, y que estas perturbaciones se transmitían en forma de ondas transversales. Esto es justo lo que pasa en las ondas electromagnéticas. Maxwell calculó la velocidad de propagación de estas ondas, ¡y halló un resultado muy cercano a los medidos por el francés Armand Fizeau en 18494 y anteriormente por el gran astrónomo británico James Bradley en 1728! Acababa de descubrir y de predecir que la luz es una onda electromagnética5. Sus resultados fueron publicados en un artículo en cuatro partes (1860-1862) titulado “On Physical Lines of Force”, y de esta forma completó la denominada síntesis electromagnética. El “modelo de vórtices moleculares”, como el propio Maxwell lo bautizó, resultó ser una de las ideas más provechosas de la Historia de la Ciencia.
La formulación matemática del Electromagnetismo como una teoría completa en términos de campos desarrollada por Maxwell supuso, y supone aún hoy en día, uno de los mayores logros intelectuales alcanzados por la humanidad. Asimismo, esta síntesis electromagnética supuso la unificación de los fenómenos ópticos y los fenómenos electromagnéticos dentro de una teoría coherente. Es importante destacar en este punto también a Olivier Heaviside, quien reformuló las ecuaciones de Maxwell y consiguió reducir su número de trece a cuatro, dotándolas así de su forma moderna (Fig.4).


Fig.4. Ecuaciones de Maxwell en el vacío, expresadas en su forma moderna. Fuente: elaboración propia del autor.

Más de veinte años más tarde de la predicción hecha por Maxwell, entre 1887 y 1888, un físico alemán llamado Heinrich Hertz confirmaría experimentalmente la existencia de las ondas electromagnéticas. La idea de Hertz fue generar una onda que viajara hasta un receptor que consistía en un cable conductor en forma de circunferencia con una pequeña abertura. Al atravesar la onda el circuito, el flujo magnético a través de éste variaría y se induciría en él una fuerza electromotriz, que se manifestaría por la producción de una chispa entre los extremos del cable. Hertz llevó a la práctica esta idea con éxito, completando de este modo la primera transmisión y recepción de ondas electromagnéticas, y confirmando también así las predicciones, y por lo tanto la teoría, de Maxwell. Hoy en día, la transmisión de ondas electromagnéticas es fundamental en el mundo moderno (piénsese en las telecomunicaciones, la radio, el wifi, etc.).

La Revolución Eléctrica.
En paralelo a los descubrimientos y los avances en la comprensión de la naturaleza del electromagnetismo, se produjo una auténtica revolución mediante la introducción de la bombilla, la corriente alterna, los generadores eléctricos y otros brillantes inventos que cambiaron el mundo para siempre. No es necesario enfatizar aquí en exceso la magnitud de la importancia de los inventos desarrollados a raíz del conocimiento generado por el descubrimiento de las leyes del electromagnetismo. Basta simplemente con imaginar por un momento cómo sería nuestra vida y cómo sería el mundo sin electricidad. La historia de todas estas invenciones es también fascinante, pero solo se abordará someramente debido a que no queremos desviarnos demasiado de la narración sobre el desentrañamiento de la naturaleza física profunda del electromagnetismo. Se mencionarán brevemente, eso sí, las importantes contribuciones hechas por Faraday, Swan, Edison y Tesla.
El primer descubrimiento de Faraday en el campo del electromagnetismo no fue la inducción electromagnética, sino la “rotación electromagnética” tal y como él mismo la bautizó. En 1821, Faraday colocó una barrita imantada en el interior de un recipiente con mercurio y la lastró por uno de sus extremos, de manera que flotara verticalmente a modo de boya. Colocó también un cable conductor atravesando verticalmente el recipiente, e hizo pasar corriente por él. Como consecuencia, la barra comenzó a rotar alrededor del cable. Faraday había conseguido utilizar la corriente eléctrica para generar movimiento capaz de efectuar trabajo: ¡había inventado el primer (y rudimentario) motor eléctrico! Las aplicaciones de los motores eléctricos hoy en día, a nivel industrial principalmente, son gigantescas.
Pero Faraday fue una persona prolija. En el mismo año 1831, diseñó el primer generador eléctrico, un disco de cobre cuyo borde se encontraba entre los polos de un imán en forma de herradura. Al girar el disco en el seno del campo magnético producido por el imán, se producía una fuerza sobre los electrones del mismo en la dirección radial, de manera que uniendo el centro y el borde del disco mediante un cable conductor y contactos deslizantes se generaba una corriente eléctrica en el circuito. De esta manera, se transformaba la energía cinética de rotación en corriente eléctrica; de una manera similar funcionan los generadores de las centrales que nos suministran energía, transformando la energía del movimiento de las turbinas en corriente, aunque en este caso la parte móvil suelen ser los imanes. Por supuesto, el funcionamiento del mundo moderno se asienta sobre la generación de energía eléctrica por estos medios.
También dependemos actualmente de la iluminación eléctrica. Como es bien sabido, Thomas Alva Edison patentó la bombilla en Estados Unidos en 1879. En realidad, la bombilla de incandescencia ya había sido inventada por Joseph Wilson Swan en torno a 1860, tras doce años de experimentos (hubo también otros inventores que desarrollaron diferentes modelos de bombilla). Sin embargo, estas bombillas no eran duraderas ni comercializables a gran escala. Edison probó más de 6000 materiales distintos hasta que encontró uno que le permitió obtener filamentos que duraran lo suficiente como para fabricar un artilugio que fuera comercialmente viable. El material escogido fue bambú carbonizado, que años más tarde sería reemplazado por el propio Edison por un filamento de tungsteno. Esta mejora convirtió a Edison en un hombre rico, y posibilitó la iluminación de hogares y ciudades, que comenzó a ser llevada a cabo al poco tiempo de producirse el descubrimiento. Por su parte, Swan se había vuelto a adelantar a Edison y había conseguido la patente británica en 1878, con un filamento de celulosa. En 1883, ambos fusionaron sus compañías en la “Edison and Swan Electric Light Company”, conocida comúnmente como “Ediswan”, zanjando de este modo la polémica sobre la prioridad en la invención de la bombilla ‘de uso práctico’.
Otra aportación clave al mundo fue la de Nikola Tesla, responsable de la introducción de la corriente alterna en 1888. La corriente alterna (que varía en el tiempo y revierte periódicamente su sentido) permite la transmisión y distribución eficaz de la energía eléctrica, evitando así las enormes pérdidas asociadas a la transmisión a grandes distancias de la corriente continua; hoy en día, las redes de alta tensión de distribución eléctrica funcionan con corriente alterna. Es famosa la disputa –denominada “la guerra de las corrientes”- que mantuvo al respecto Tesla con Edison, quien abogaba fuertemente (y de manera errónea) por el uso de corriente continua en la distribución de la electricidad. Tesla desarrolló además, en el mismo año 1888, un motor eléctrico capaz de funcionar con corriente alterna (en contraste con el primer motor diseñado por Faraday, que funcionaba con corriente continua), otra genial invención cuya enorme utilidad se extiende hasta nuestros días.

La Electrodinámica y la Teoría de la Relatividad Especial de Einstein.
Retomamos ahora de nuevo la narración sobre el estudio de los campos electromagnéticos: a principios del siglo XX, la teoría del Electromagnetismo clásico estaba firmemente establecida y había propiciado una revolución en la forma de vida de millones de personas mediante la introducción de sistemas de iluminación y la potenciación de la producción industrial. No estaba todo dicho respecto de la naturaleza última del electromagnetismo, sin embargo. El primer cuarto del siglo XX vio nacer dos teorías físicas, la Relatividad y la Mecánica Cuántica, que revolucionaron la Física, y eventualmente también, de nuevo, la forma de vida de millones de seres humanos mediante la invención del transistor, impulsor de la Revolución Electrónica. Ambas teorías aportaron nuevos conocimientos, más profundos, sobre el electromagnetismo.
El papel que jugó el Electromagnetismo, y en particular las ecuaciones de Maxwell, en el establecimiento de la Teoría Especial de la Relatividad fue absolutamente clave. El principio de relatividad de Einstein establece que las leyes de la Física son las mismas para todos los sistemas de referencia inerciales (sistemas en los que se cumple la 1ª ley de Newton, o ley de la inercia; estos sistemas se mueven con velocidad constante unos respecto de otros). Es decir, que las ecuaciones que determinan cómo se comportan los objetos cargados, por ejemplo, deben ser las mismas cuando se describe este comportamiento en un sistema inercial o en otro.
La pregunta entonces era cuáles eran las transformaciones (matemáticas) que permitían pasar de la descripción en un sistema inercial a la descripción en otro sistema inercial que se mueve con velocidad constante respecto al primero, manteniendo las leyes de la Física invariantes. Hendrik Antoon Lorentz había obtenido las transformaciones que llevan su nombre al imponer la invariancia de las ecuaciones de Maxwell frente a tales cambios entre sistemas inerciales. Estas transformaciones constituyen la base matemática de la Teoría de la Relatividad Especial, y eran conocidas por Albert Einstein cuando desarrolló esta teoría en 1905. Einstein demostró que las transformaciones de Lorentz describen de manera apropiada la Naturaleza, y que por lo tanto las ecuaciones de Maxwell son correctas; lo que había que modificar por tanto eran las leyes de la Mecánica de Newton (que no son invariantes), lo cual llevaba a predecir efectos verdaderamente sorprendentes (y anti-intuitivos) como la dilatación del tiempo o la contracción de las longitudes. Otra particularidad por cierto de las transformaciones de Lorentz deducidas a partir de las ecuaciones clásicas del Electromagnetismo de Maxwell, es que mantienen constante la velocidad de la luz.
Con la Teoría de la Relatividad Especial de Einstein, se puede resolver de manera clarificadora el siguiente problema: piense el lector en una carga que se mueve con respecto a un sistema de referencia (tres ejes de coordenadas “x”, “y”, “z”). En dicho sistema de referencia, el movimiento de la carga genera un campo magnético. Piense ahora en otra carga que se mueve en este campo magnético (en una dirección no paralela al mismo); la Física nos dice que dicha carga experimentará una fuerza. Ahora bien, piense ahora sobre esta misma situación, pero vista desde el punto de vista de otro sistema de referencia en el cual una de las dos cargas está en reposo (velocidad cero). En este caso, un observador en dicho sistema debería concluir que no habrá fuerza (o bien porque la segunda carga no se mueve en el seno del campo magnético, o bien porque no hay tal campo magnético debido a que la primera carga no se mueve). ¿Entonces? ¿No decía el principio de relatividad que en todos los sistemas inerciales las leyes de la Física son las mismas? ¿Que si una carga experimenta una fuerza de Lorentz6 en un sistema inercial, también experimentará una fuerza en otro sistema inercial? La respuesta a esta aparente paradoja se encuentra en las transformaciones interdependientes de los campos eléctricos y magnéticos al pasar de un sistema a otro. En palabras del propio Einstein [6]:
Lo que me condujo más o menos directamente a la Teoría Especial de la Relatividad fue la convicción de que la fuerza electromotriz que actúa sobre un cuerpo en movimiento en un campo magnético era nada menos que un campo eléctrico”.
De esta forma, queda puesta de relieve la más profunda e intrínseca interrelación entre los campos eléctricos y magnéticos, entre la electricidad y el magnetismo, cuya misteriosa conexión comenzó a destaparse con el experimento de Oersted a principios del siglo XIX. La otra gran teoría física moderna, la Mecánica Cuántica, también revela hechos profundos sobre la naturaleza de los campos electromagnéticos (la existencia del fotón y la naturaleza cuántica del magnetismo, principalmente)7. Y también surgió como solución a problemas directamente relacionados con el electromagnetismo (en particular, al problema de la llamada radiación del cuerpo negro”. Pero ésa es ya otra historia…

Notas:
1 El hecho de que la electricidad podía ser transmitida por un material conductor se conocía gracias al descubrimiento llevado a cabo por Stephen Gray en 1729, que fue capaz por ejemplo de transmitir una corriente a lo largo de un tallo de cáñamo de 150 metros. Había buenos motivos por lo tanto para sospechar la existencia de una verdadera “corriente material” a través de los materiales conductores.
2 En 1824, William Sturgeon introdujo los núcleos de hierro (cuya función es aumentar la intensidad del campo magnético) en los electroimanes, al enrollar un cable de cobre alrededor de un núcleo en forma de herradura. Esta mejora fue determinante en los experimentos posteriores que llevaron al descubrimiento de la inducción electromagnética por parte de Michael Faraday y Joseph Henry. El propio Henry construyó electroimanes de gran potencia, capaces de levantar casi una tonelada, gracias a que utilizó seda para aislar el cable conductor, lo que le permitió enrollar el cable de manera mucho más compacta y potenciar así aún más el campo magnético.
3 La idea de que la electricidad era un fluido estaba bastante aceptada durante los siglos XVII, XVIII y XIX. Charles François de Cisternay Du-Fay defendió en 1733 que existían dos fluidos eléctricos, y que en general la materia era neutra, pues contenía igual cantidad de ambos; cuando por fricción, un cuerpo adquiría más de un fluido que de otro, entonces atraía o repelía otros objetos igualmente cargados. Benjamin Franklin, inventor del pararrayos tras su famoso experimento con la cometa, pensaba por el contrario que existía un único fluido eléctrico, y que un exceso o un defecto de este fluido en un cuerpo provocaba que los cuerpos estuvieran cargados positiva o negativamente. Las ideas de Franklin, introducidas por primera vez en 1747, dominaron el estudio de la electricidad durante 100 años aproximadamente. Hoy sabemos que ninguna de las dos opiniones es totalmente correcta. En primer lugar, la electricidad no es un fluido. Después, por un lado, Franklin tenía razón en que un único tipo de carga es el que se transmite en las corrientes eléctricas (los electrones). Por otro lado, Du-Fay tenía razón en que existen dos tipos de carga eléctrica, que hoy denominamos positiva y negativa.
4 El valor de esta medición fue mejorado entre los años 1850-1862 por el también francés Jean Léon Foucault. Estos experimentos para determinar la velocidad de la luz fueron sugeridos directamente por Aragó a Fizeau y Foucault.
5 La existencia de la relación entre la luz y el electromagnetismo había sido puesta de relieve por primera vez de manera convincente en 1845 por Faraday, tras numerosos esfuerzos infructuosos. De hecho, el efecto descubierto por Faraday también fue explicado por Maxwell en su artículo. Faraday descubrió que la dirección de vibración de un rayo de luz linealmente polarizado sufre una rotación cuando el rayo atraviesa un material colocado en el interior de un solenoide por el que circula corriente (un experimento muy similar había sido llevado a cabo en 1823 por William Herschel, quien sin embargo no logró observar el efecto buscado). Este descubrimiento sugería vívidamente que existía una relación estrecha entre ambos fenómenos. Además, el propio Faraday, antes de que Maxwell lo demostrara, también había pensado que los efectos eléctricos y magnéticos debían transmitirse a velocidades finitas, probablemente mediante vibraciones (ondas); así lo dejó escrito en una nota que hizo guardar en una caja fuerte en la Royal Institution en 1831.
6 La fuerza de Lorentz es la fuerza total (eléctrica y magnética) que experimenta una partícula cargada en el seno de un campo electromagnético. La expresión matemática para esta fuerza fue introducida por primera vez, no obstante, por Heaviside en 1889, y derivada posteriormente por Lorentz en 1895.
7 Otro hecho sorprendente que explica la Mecánica Cuántica es la existencia a bajas temperaturas de materiales superconductores (como el aluminio o el niobio), en los que la corriente circula sin resistencia, y que hoy en día se utilizan por ejemplo para intentar fabricar ordenadores cuánticos. (Véase capítulo Computación Cuántica de Elías Fernández-Combarro).


Referencias:
[1] Paul, C. y Valls, A. (2016). El Magnetismo Rotatorio de Aragó10.13140/RG.2.1.1694.6803.
[2] Faraday, M. (1821-22). Historical Sketch of Electro-magnetism.  Annals of Philosophy 1821: 195-200, 274-90; 1822, 19: 107-17.
[3] García-Martín, D. (2018) Michael Faraday, la inducción electromagnética y su enseñanza en 2º de Bachillerato. Ciencia y Educación 6.
[4] Parra Castillo, S. (2012). Faraday. La inducción electromagnética. RBA. España.
[5] Sabadell, M.A. (2013). Maxwell. La síntesis electromagnética. RBA. España.
[6] Resnick, R. (1977) Introducción a la teoría especial de la relatividad. Limusa. México.


Diego García-Martín
(En el momento de escribir este texto)
Junior research engineer en el Barcelona Supercomputing Center (BSC).
Realizando un doctorado en computación cuántica codirigido entre la Universidad Autónoma de Madrid (UAM) – Instituto de Física Teórica (IFT) y la Universidad de Barcelona (UB).


Doctor 21/11/2022. Fuente: IFT

(En la actualidad)
Doctor en Física Teórica.
Postdoc en Computación Cuántica.
Los Alamos National Laboratory.



El más allá del Modelo Estándar

El más allá del Modelo Estándar: futuros pasos en física de partículas. 




¿Entendemos la física de partículas? ¡Por supuesto! Tenemos hasta un modelo. ¡EL! modelo: el Modelo Estándar de física de partículas. Esta es la primera respuesta que nos encontramos en muchos sitios y de muchas personas. Argumentos no faltan, desde luego, pues sabemos mucho de la física de partículas y este modelo es una de las teorías más exitosas de la historia. Pero… ¿sabemos lo suficiente? No voy a ser yo quien responda a esta pregunta, prefiero que lo hagas tú. Yo solo quiero contarte algunas de las ideas que se discuten a día de hoy y que podrían ser importantes en el futuro.
Sin embargo, antes de empezar déjame aclarar dos cosas. Primero, es imposible comprender el presente o imaginarse el futuro de nada sin conocer antes su historia. Nuestro pasado define quiénes somos y señala hacia dónde podría ir nuestro futuro. Por eso te recomiendo que antes de seguir leas el capítulo “El Modelo Estándar de la Física de Partículas”, de Claudia García en este mismo libro.
Segundo, hablar del futuro es muy difícil. Vamos a hablar de cosas que no se entienden hoy, pero que nos gustaría entender mañana. Como te podrás imaginar, es muy probable que parte — ¡o todo! — de lo que digamos aquí resulte estar mal dentro de unos años. ¡No pasa nada! No por miedo a equivocarnos deja de ser divertido hablar de lo desconocido. Y si nos equivocamos, que lo haremos, ya se encargarán los historiadores del futuro de corregirnos.
Dicho esto, estamos preparados para hablar de algunos de los grandes pasos que podríamos dar para entender mejor la física de lo muy pequeño. Lo vamos a hacer sin ningún orden en particular y de la manera más independiente posible, de forma que puedas saltar directamente al tema que más te interese. Habrá temas que se queden fuera —como la gravedad, que la dejamos para el capítulo de Enrique Álvarez —, pero si te gustara saber más de otros temas no tengas miedo en preguntárnoslo. Empecemos.


Fig.1. Posibles caminos hacia la nueva física. Ilustración de Niceto Marcano.


¿Higgs, eres tú?
El descubrimiento del bosón de Higgs en el LHC supuso encontrar la pieza perdida del Modelo Estándar y, como cuando se coloca la última piedra de un arco, le dio la consistencia que toda gran teoría necesita. Pero el Modelo Estándar no predice solo su existencia, sino también muchas de sus propiedades. Es hora de ponerlas a prueba.
El LHC ya ha conseguido comprobar algunas de las propiedades del bosón de Higgs — o simplemente Higgs, para los amigos —, como su carga y espín, o sus interacciones con algunas de las partículas más pesadas. Esto último es importante para ver que entendemos bien las cosas. Fíjate que decimos que la masa de una partícula depende de su interacción con el Higgs, así que los experimentos deberían ser capaces de ver que la intensidad con la que se relacionan con el Higgs está relacionada con su masa. Las de mayor masa se hablan más fuerte con el Higgs, a grito pelado vamos, por lo que el LHC ya ha conseguido medir este efecto. Las más ligeras, en cambio, solo cuchichean con el Higgs, así que es muy difícil que nos enteremos de lo que dicen en el LHC, o incluso en otros experimentos que vendrán después. Pero bueno, con lo que ha visto el LHC hasta ahora parece que todo marcha a pedir del Modelo Estándar.


Fig.2. La física de Higgs podría esconder muchos secretos todavía.

Pero todo esto del Higgs genera una pregunta inmediata. Si la masa de las partículas viene de su interacción con el Higgs, ¿de dónde viene la masa del propio Higgs? No es fácil contestarlo. La respuesta fácil sería algo como ‘yo no he sido, estaba así cuando yo llegué’. La respuesta real es más compleja, pero el mensaje es parecido. Resulta que el Higgs es distinto a las demás partículas del Modelo Estándar. No es un fermión que hace de ladrillo, pero tampoco es el bosón mensajero de ninguna fuerza. Es un bosón, sí, pero sin espín. Es el más soso de todos si quieres. Tan soso que nadie se ha molestado en prohibirle que tenga masa, como sí han hecho con el resto de partículas. El Higgs podía tener la masa que quisiera y, de hecho, hasta que apareció en el LHC no sabíamos que había elegido ser 125 veces más pesado que el protón. Por qué este valor y no otro es algo que no sabemos. De hecho, nos podríamos esperar algo mucho más grande. Pero la cosa es que saber este número era vital para el Modelo Estándar porque con él la teoría nos dice el resto de sus propiedades, como la velocidad con la que se desintegra o cómo de intensa es su interacción consigo mismo.
Sí, como lo lees, los bosones de Higgs socializan entre ellos y lo mejor es que no sabemos cómo. Bueno, miento, el Modelo Estándar sí que lo sabe. Nos dice la frecuencia con la que se juntan tres o hasta cuatro bosones de Higgs. Grupos más grandes ya no, porque se le va de las manos. Claro que estas son solo las predicciones teóricas, hace falta medirlo en los experimentos y, por desgracia, es muy difícil que el LHC consiga hacerlo. Es probable que tengamos que esperar a experimentos futuros, por lo que podemos decir que a día de hoy no tenemos ni idea de cómo se comportan los bosones de Higgs en sus reuniones.
Llegados a este punto es probable que pienses que no sabemos nada del Higgs. Es la única partícula fundamental sin espín y no sabemos por qué. Y podrían tener una secta bosónica secreta montada entre ellos y nosotros aquí sin enterarnos. Bueno, razón no te falta, pero piensa que hace solo siete años que sabemos de su existencia, así que todavía nos queda mucho que aprender.
Sin embargo, es precisamente éste el motivo que lleva a mucha gente a estudiar en detalle todo lo que rodea al Higgs. Muchos intentan explicar por qué tiene la masa que tiene. ¿Te has fijado que se parece mucho a la masa de los bosones W y Z? ¿Será casualidad? Hay a quien lo que le mosquea es que sea la única partícula fundamental sin espín y que piensa que si hay una, debería haber más — si hay tres familias de materia, ¿por qué iba a haber solo un Higgs?—. O puede que simplemente el Higgs no sea tan fundamental como dice ser, sino que esté formado de otras partículas que desconocemos. También hay quien piensa que podría estar relacionado con alguna nueva fuerza, como ocurre con los otros bosones. Quién sabe.
Un mundo abierto de posibilidades que descubriremos al estudiar cómo interactúa el bosón de Higgs con el resto de partículas y, puede que sobre todo, consigo mismo. Porque es precisamente en todo esto que todavía no sabemos dónde podría estar escondido el gran paso hacia la nueva física.

Esos malditos neutrinos.
Se dice de los neutrinos que son unos bichos raros, aunque, como ocurre a menudo, confundimos raro con incomprendido. Solemos decir que son distintos a las demás partículas que conocemos — ¿y cuál no? —, pero su mayor diferencia puede que sea la dificultad para estudiarlos en los experimentos.
Todo sea dicho, los neutrinos no lo ponen fácil. Son como ninjas capaces de atravesar la Tierra entera sin dejar rastro alguno. Entonces, ¿cómo los estudiamos? Es más, ¿cómo sabemos que existen? La verdad es que responder a estas preguntas podría llevarnos un libro entero, así que mejor resumirlo en tres ingredientes básicos: ingenio, tamaño y paciencia.
Hace falta ingenio para diseñar una forma de detectarlos, para lo que es importante un buen conocimiento de física de partículas. Los neutrinos son invisibles para nosotros y nuestras herramientas, pero en ciertas condiciones pueden hacer aparecer otras partículas que sí vemos, como electrones o muones. Midiendo estas últimas, podemos deducir que por ahí ha pasado un neutrino. Por supuesto, también hace falta mucho ingenio para desarrollar el experimento y la tecnología necesaria para medir estas señales, que en algunos casos no son más que pequeños destellos de luz casi indetectables. El problema es que, aún con el mejor de los detectores, la probabilidad de cazar un neutrino sigue siendo muy pequeña. Por suerte, esto se puede compensar con tamaño y paciencia, como cuando compras muchos boletos de la lotería y juegas muchas veces. Por esto, normalmente los experimentos de neutrinos tienen detectores enormes y funcionan durante muchos años, para aumentar sus probabilidades de detectar muchos neutrinos y poder estudiarlos.
Gracias a su naturaleza evasiva, durante mucho tiempo han conseguido mantener ocultas algunas de sus propiedades más importantes, como su masa. Según el Modelo Estándar los neutrinos no tienen masa, y así se pensaba hasta que los experimentos SuperKamiokande y SNO demostraron lo contrario. Esto ocurrió en los años 1998 y 2002, respectivamente, cuando consiguieron medir un efecto que solo puede ocurrir si los neutrinos tienen masa: las oscilaciones de neutrinos.
Las oscilaciones de neutrinos son una consecuencia de la mecánica cuántica, pero podemos entenderlo con un jamón y una monja. ¿Has probado alguna vez a decir jamón muchas veces y muy rápido? Tras un periodo un poco confuso, te encontrarás diciendo claramente monja, y si sigues al rato volverás a decir jamón. Oscilarás entre una palabra y otra pasando por un periodo en el que dices una combinación de las dos. Con los neutrinos pasa lo mismo, oscilan entre los tres tipos de neutrinos que existen. Por ejemplo, un neutrino puede producirse de tipo muónico, pero luego detectarse como tipo electrónico. Esto fue lo que midieron los experimentos de SuperKamiokande y SNO primero, y muchos otros después.

Fig.3 Las oscilaciones de neutrinos se parecen al juego de palabras entre jamón y monja. Empezamos diciendo jamón, luego monja, luego jamón,…


Durante los últimos años han sido muchos los experimentos que han ayudado a aprender sobre los neutrinos. Sabemos que a los tres tipos de neutrinos les gusta mezclarse entre ellos, todos con todos, y que tienen tres masas distintas, aunque todavía no sabemos de cuánta masa estamos hablando. Tampoco sabemos cuál de ellos es el más ligero y cuál el más pesado, ni si los neutrinos y antineutrinos se comportan igual. Es más, ni siquiera sabemos muy bien cuál es la diferencia entre neutrinos y antineutrinos. Vale, esto es muy raro, ¿cómo no vamos a saber diferenciar una partícula y su antipartícula?
Las diferencias entre partícula y antipartícula son sus cargas. Son iguales en todo pero con cargas, por ejemplo la eléctrica, opuestas. ¿Qué pasa entonces si una partícula no tiene carga? Este es el caso del neutrino, que no tiene carga eléctrica. ¿Quiere decir esto que el antineutrino es igual que el neutrino? La pregunta real es un poco más compleja porque existen más cargas que la eléctrica, pero la respuesta es igual de simple: no tenemos ni idea. Los experimentos de oscilaciones de neutrinos no pueden responder a esta pregunta, pero existen otros experimentos que sí y, con un poco de suerte, nos lo dirán en un futuro cercano. A día de hoy, no sabemos si un antineutrino es distinto a un neutrino —llamado neutrino de Dirac— o si son lo mismo —neutrino de Majorana—. Esto último sería un bombazo en la física de partículas, puesto que todos los demás fermiones tienen partículas y antipartículas bien distintas, y haría que los neutrinos fuesen realmente especiales.
Lo más interesante es que nada de esto ocurriría si, como dice el Modelo Estándar, los neutrinos no tuviesen masa. ¿Quiere decir que esta especie de metamorfosis cuántica de los neutrinos nos está diciendo que el Modelo Estándar está mal? ¡Sí! y sin duda necesitamos una nueva teoría más completa. El problema es que no sabemos cuál… De hecho, a día de hoy se han propuesto decenas de teorías, cada una con sus partes buenas y malas. En muchas de ellas, se piensa que existen nuevos neutrinos que todavía están por descubrir. Se piensa incluso que estos podrían ser la materia oscura que buscamos, o los responsables de haber producido la diferencia necesaria entre materia y antimateria para que exista el universo pero no el antiuniverso. Claro que para demostrar que estas teorías son ciertas deberíamos encontrar estos nuevos neutrinos, y por ahora ningún experimento ha sido capaz de lograrlo.
Poco a poco vamos comprendiendo los neutrinos. Una vez más, ¡el secreto está en la masa! ¿Tendrán los neutrinos alguna relación con el bosón de Higgs? Tampoco lo sabemos todavía. Lo que sí sabemos es que descubrir el modelo detrás de la masa de los neutrinos será un gran paso para la física de partículas.


Fig.4. Experimentos futuros como DUNE (Deep Underground Neutrino Experiment) en Estados Unidos nos ayudarán a descubrir los misterios que esconden los neutrinos. Neutrinos producidos en el laboratorio de Fermilab, cerca de Chicago, son enviados a través de la Tierra hasta un detector a 1300 km. para poder estudiar las oscilaciones de neutrinos. Fuente: DUNE collaboration [1].


El antiuniverso perdido.
Todos perdemos cosas. ¿Quién no ha perdido alguna vez las llaves, la cartera o hasta el gato? Pero si miramos atrás, muy atrás, en la historia, nos encontramos con la mayor pérdida de todas. ¡Hablamos de un universo entero! O más bien, de un antiuniverso.
Bueno, dicho así puede parecer que hablamos de una película de ciencia ficción, pero la realidad tampoco desmerece. Hablamos de toda la antimateria que se creó al principio de los tiempos y que ya no está. De la batalla entre materia y antimateria de la que salió victoriosa la materia y surgimos nosotros. Pudo ser al revés. Pudo no haber quedado nada tras la batalla.
La teoría del Big Bang nos explica cómo fue el principio de nuestra historia. Nos dice que poco después del Big Bang todo era una sopa muy caliente de luz, materia y antimateria, o mejor dicho, de las partículas y antipartículas que las componen. Como puede que sepas ya, al juntarse partícula y antipartícula se destruyen formando fotones de luz. Al mismo tiempo, los fotones se pueden juntar para crear parejas partícula-antipartícula, de modo que el proceso ocurre en las dos direcciones, como si de un partido de tenis se tratase. Según avanza el tiempo, el universo se enfría, haciendo este intercambio cada vez más difícil, como si la red de tenis se hiciese demasiado alta de superar. Fin del partido.
En realidad, lo que ocurrió se parece más a que, en un momento, los fotones se cansasen de jugar, de devolver la pelota en forma de pareja partícula-antipartícula. En el otro lado de la pista, en cambio, las partículas y antipartículas se siguen destruyendo mutuamente para generar fotones que lanzar, ignorantes de que al otro lado no hay nadie con quien jugar. El final de este partido solo puede ser uno: toda la materia acabará destruida junto con la antimateria, dejando un rastro de luz que ni en las mejores ferias. Entonces, ¿cómo es posible que existamos?
Dado que nosotros estamos hechos de materia, parece claro que en algún momento la balanza entre partículas y antipartículas se desniveló, de modo que al final de este partido de tenis, cuando la antimateria se abalanzó contra la materia, quedó un remanente de materia. En algún momento se crearon más partículas, o se perdieron más antipartículas, como prefieras. La diferencia fue de una partícula extra por cada mil millones de antipartículas. Parece un número ridículo, ¿verdad? Pero este 0.0000001% extra somos nosotros y el resto del universo que vemos.
Es increíble que una diferencia tan pequeña tenga unas consecuencias tan grandes, por lo que es inevitable preguntarse por su origen. Antes hemos dicho que la luz, los fotones, crean las partículas y antipartículas siempre en pareja, así que siempre tendremos el mismo número de ambas. ¿De dónde viene entonces esta diferencia?
Por suerte para nuestra existencia, no es luz todo lo que nos rodea. Existen otro tipo de interacciones, de fuerzas, entre las partículas, todas aquellas que describe el Modelo Estándar. Entre ellas está la interacción nuclear débil, que resulta que trata ligeramente distinto las partículas que las antipartículas. Esto quiere decir que, si el partido de tenis lo arbitrase la fuerza débil en vez de la electromagnética, el partido podría estar amañado a favor de la materia.
Este efecto de la interacción débil se ha estudiado bien entre los quarks en experimentos y se está estudiando ahora entre los neutrinos. Por desgracia, las predicciones del Modelo Estándar no son suficientes para explicar el exceso de materia del universo.
Este problema se conoce como asimetría bariónica del universo, en referencia a los bariones, como protones o neutrones, que forman la materia que vemos en el universo. A día de hoy seguimos sin saber qué originó esta diferencia entre materia y antimateria, pero existen toda clase de nuevas teorías que intentan explicarlo. Algunas de ellas, culpan a la materia oscura o a los neutrinos. Todas ellas son opciones interesantes, pero todavía no tenemos claro qué desequilibró la balanza, llevándose consigo un posible antiuniverso. Un gran misterio para resolver en el futuro.

El lado oscuro del universo.
Sabemos mucho de muy poco. Al menos eso es lo que nos dice el universo al mirar cómo se comporta. Todo lo que sabemos del Modelo Estándar y sus partículas no es más que el 5% de lo que forma el universo. El resto, un lado oscuro del que sabemos muy poco.
Al mirar al cielo, podemos observar planetas, estrellas y galaxias enteras. Podemos estudiar cómo se mueven, saber si se acercan o se alejan entre sí. También podemos ver cuánta materia hay en ellas. Esta materia que vemos, la materia visible, es a lo que nos referimos al hablar del Modelo Estándar y sus problemillas.
Sin embargo, el cielo nos cuenta mucho más. Por ejemplo, podemos estudiar cómo se mueven las estrellas dentro de sus galaxias. Según las leyes de la gravedad, el movimiento de una estrella depende de la cantidad de materia que hay en la galaxia, ya que es la que se encarga de atraerla y atraparla es su órbita. Pero como somos científicos, no nos fiamos de lo que dicen las leyes sin comprobarlo. Para ello, podemos medir la velocidad de las estrellas, compararla con la materia que vemos en su galaxia y comprobar que la ley de la gravedad se cumple. Esta medida se ha hecho en muchas galaxias y… ¡no sale bien! Las estrellas se mueven como si hubiese mucha más materia de la que vemos. ¿Quiere decir esto que la ley de la gravedad está mal?, ¿o es que hay algo más que no vemos?
Para responder a esta pregunta podemos seguir mirando al cielo. Empezamos por comprobar que las leyes de la gravedad funcionan en otros casos… parece que sí. ¿Será entonces que hay más materia que no podemos ver? Pero, ¿cómo vamos a estudiar algo que no vemos?
Una posibilidad en estos casos es simular lo que pasaría si existiese. Usando ordenadores muy potentes, podemos pedirles que sigan las leyes de la gravedad desde el principio del universo hasta ahora, y que nos digan cómo hubiese sido el universo si solo hubiese la materia que vemos. El resultado no es bueno. La gravedad hace que la materia se atraiga entre sí y se acumule en las galaxias que vemos hoy en día, pero solo con la materia que vemos la gravedad no es lo suficientemente potente para que esto ocurra. ¿Y si metemos un poco de esta otra materia que no vemos? A más materia, mayor será la gravedad, podría funcionar. Y así es, funciona. De hecho, las simulaciones dicen que este nuevo tipo de materia podría haber tenido un papel clave en la creación de las galaxias y demás formaciones que vemos hoy en día.
Esta materia que no podemos ver recibe el original nombre de materia oscura. La razón para no verla es simplemente que no emite ni reacciona con la luz, o si lo hace es tan poco que no podemos verlo. Por suerte, su parte materia le hace sentir la gravedad y nos permite aprender un poco sobre ella. Por ejemplo, mirando choques de galaxias — ¡sí, las galaxias chocan! — aprendemos que la materia oscura no es muy sociable, que interactúa muy poco con el resto de materia de su entorno. Se parece un poco a los neutrinos, poco sociables y que no emiten luz. ¿Será que la materia oscura son neutrinos?
Los neutrinos son las únicas partículas del Modelo Estándar que podrían llegar a ser la materia oscura. Por desgracia, su masa es demasiado pequeña y esto impide que ayuden lo suficiente en la formación de las galaxias. Sin embargo, si existiesen nuevos neutrinos más pesados sí que podrían. Este es un ejemplo de cómo un modelo nuevo podría matar dos pájaros de un tiro, añadiendo nuevas partículas que estarían detrás de la masa de los neutrinos y serían la materia oscura que buscamos. No lo voy a negar, este tipo de soluciones conjuntas son muy interesantes y bonitas — en la escala de la física teórica —, sin embargo a día de hoy no sabemos qué demonios es la materia oscura.
En realidad, por saber no sabemos seguro si la materia oscura está formada por una — o varias — partícula fundamental que no hayamos descubierto todavía, aunque esta es la hipótesis más común. La esperanza de los rastreadores de materia oscura es entonces que estas nuevas partículas hablen, aunque sea muy bajito, con alguna de las partículas que sí podemos ver del Modelo Estándar. Los experimentos de materia oscura llevan varios años tras este rastro y, aunque no hayan conseguido encontrar al culpable todavía, la esperanza es lo último que se pierde.
No cabe duda que descubrir la naturaleza de la materia oscura sería un gran paso para la física, ya que estaríamos hablando de entender aproximadamente un 25% del universo, que sumado al 5% de la materia visible, hacen un total de… un mísero 30%. ¡Tanto lío para esto! ¿Qué pasa con el resto? El 70% restante es algo aún más oscuro y desconcertante… es energía oscura.
Para entenderlo, volvamos al cielo e imaginémonos cómo se ha movido toda la materia que se creó tras el Big Bang. Al principio, con el impulso inicial, toda la materia tendería a alejarse entre sí. Pero claro, por otro lado tenemos la gravedad que intentará atraerla, así que hará de freno primero y pondrá rumbo de colisión después, como cuando lanzamos una piedra al aire y pensamos que apartarse no es buena idea. Aplicado al universo, nos deja dos opciones: o bien el universo todavía sigue expandiéndose, producto de la inercia inicial pero frenado poco a poco por la gravedad; o bien la gravedad lo ha frenado ya y está empezando a colapsar. Esto se ha medido observando cómo se alejan algunas supernovas, que son muy útiles para estos estudios, y el resultado es que el universo se está expandiendo… ¡pero cada vez más deprisa!


Fig.5. El satélite Planck ha conseguido la medida más precisa del fondo cósmico de microondas, la luz más antigua del universo. Estudiando su temperatura en detalle, el modelo estándar de la cosmología, el lambda CDM (ΛCDM), es capaz de extraer la composición del universo, que a día de hoy resulta tener aproximadamente un 5% de materia visible, un 25% de materia oscura y un 70% de energía oscura. Fuente: ESA [2].

Es como si algo estuviese empujando las galaxias entre sí, y es muy raro porque la gravedad es siempre atractiva. ¿Cómo puede ser? ¿Existe la antigravedad o algo así? En cierto modo, se podría decir que sí. Resulta que en las ecuaciones que propuso Einstein para explicar la gravedad puede existir una parte que produzca este efecto de antigravedad que explicaría la expansión acelerada del universo que vemos. Este bicho matemático se conoce como constante cosmológica y fue, en sus propias palabras, “el mayor error” de Einstein.
Al igual que nosotros, Einstein se imaginó el mismo destino para el universo, un final triste que no le gustó, e introdujo esta nueva parte matemática en sus ecuaciones que compensase la atracción de la gravedad y dejase un universo estático, tranquilo, como a él le gustaba. Porque la tranquilidad no se valora lo suficiente. El propio Einstein reconoció su error al introducir este efecto basándose en sus propias creencias, pues no tenía motivos científicos para hacerlo. Años más tarde, al ver que el universo se expande cada vez más rápido, ha resultado que la constante cosmológica está presente. Los genios son genios hasta en sus equivocaciones.
La materia, tanto la visible como la oscura, genera efectos gravitatorios atractivos, por lo que este tipo de efecto expansivo se asocia a algo distinto, una especie de energía oscura que sigue reglas un tanto distintas. Se suele relacionar a la energía que tiene el propio vacío, por eso también se conoce como energía del vacío.
Un momento. Esto de que el vacío tenga energía nos suena de algo. Se parece un poco a lo que ocurre en el mecanismo de Higgs, en el que lo que nosotros pensábamos que estaba vacío está en realidad lleno de campo de Higgs. ¿Será entonces que el mismo efecto que hace que las partículas fundamentales tengan masa es el encargado de que el universo se expanda de manera acelerada? Este cálculo se ha hecho y el resultado es tremendamente malo. Horrible. Se equivoca en decenas de órdenes de magnitud, por lo que podría considerarse una de las peores predicciones de la historia de la física. Nuestro gozo en un pozo, seguimos sin saber qué es la energía oscura.
Como ves, el lado oscuro domina el universo. Tanto la materia como la energía oscura son un misterio todavía. Entenderlas será un gran paso para entender de qué está hecho la mayor parte del universo.

El Modelo Estándar, de héroe a villano.
El Modelo Estándar funciona muy bien, salvo algunos pequeños cabos sueltos en los que estamos trabajando. Nos dice cómo funcionan las partículas que transmiten las tres fuerzas, cómo clasificar las partículas que forman la materia y cómo el Higgs se encarga de dar masa a todo. Y funciona tan bien que ha pasado de ser una de las mejores teorías de la física, a convertirse en la peor pesadilla de cualquiera que quiera construir una nueva teoría. Pero entonces, ¿es éste el final del viaje?
Si le preguntásemos esto a un o una investigadora en física teórica, difícilmente obtendríamos un sí por respuesta, como mucho pondría pose de superhéroe y nos diría algo como “puede que llegue el día en que alcancemos el final, un punto donde nuestro conocimiento no pueda continuar y tengamos que rendirnos; pero hoy no será ese día, no mientras yo siga aquí preguntándome el porqué de las cosas”.
Y es que éste es el papel de los físicos y físicas teóricas. Su misión es evitar que la física se detenga. Su enemigo, el Modelo Estándar de partículas y su incesante afán de explicarlo todo con éxito. Su mejor arma, una simple pregunta: ¿por qué? Sé que puede sonar raro que lo importante sea la pregunta, algo que cualquiera puede hacer. Puede, incluso, que pienses que los mejores científicos son aquellos que responden las preguntas, pero estos son solo los más famosos. Los mejores son quienes encuentran la pregunta, pues no hay respuesta sin pregunta.
Ya para terminar, te propongo un juego. Pongámonos por un momento la capa de superhéroe y miremos al Modelo Estándar. Tienes barra libre para preguntarte todos los porqués que quieras, no te cortes. Yo te doy algunos ejemplos para arrancar:
-Hemos dicho que los ladrillos que forman la materia existen en tres familias, copias cada vez más pesadas. ¿Por qué tres y solo tres? ¿Hay algo mágico en este número? ¿Habrá más?
-La diferencia entre las familias es la masa, y la masa se la da el Higgs, pero ¿por qué tienen la masa que tienen y no otra? Tenemos algunas partículas muy muy ligeras, como los neutrinos, y otras muy muy pesadas, como el quark top. ¿Por qué son tan distintas?
-¿Por qué en el Modelo Estándar hay tres fuerzas y por qué son como son? Quizá existen más fuerzas, quién sabe, con nuevas partículas y todo, que están ahí aunque nosotros no las conozcamos todavía. Como un nuevo continente esperando a ser descubierto.
-Hace más de cien años se dieron cuenta de que la electricidad y magnetismo eran dos caras de la misma moneda, el electromagnetismo. Años más tarde, resultó que el electromagnetismo era una parte de una fuerza más compleja, la fuerza electrodébil. ¿Por qué parar aquí? A lo mejor la fuerza electrodébil viene de una nueva fuerza. Tal vez la fuerza nuclear fuerte también. Puede que incluso de la misma fuerza, y no sean más que distintas caras de la misma moneda. ¿Te lo imaginas? Una única fuerza para dominarlas a todas.
Este tipo de preguntas son el pan de cada día de muchos teóricos y teóricas. Por darte un ejemplo, hay quien va en busca de la teoría de gran unificación, este santo grial que mencionábamos en el que todas las fuerzas vienen de una más simple. Pretenden entender la propia estructura del Modelo Estándar, por qué la materia viene en packs indivisibles de tres o por qué hay partículas tan ligeras y otras tan pesadas. Encontrar la explicación a estas preguntas es muy difícil, sobre todo porque no vale con dar una respuesta, hay que justificarla con predicciones que podamos demostrar en los experimentos. Todo un reto que hasta ahora ninguna teoría ha sido capaz de superar.
Por suerte, estos superhéroes del porqué tienen la ayuda de los experimentales, quienes han sido capaces de encontrar fisuras en la reluciente armadura del Modelo Estándar. Aquí hemos contado algunas de ellas, pero déjame insistir en que hablar del futuro es difícil, y que lo que hemos dicho aquí hoy puede que sea mentira mañana. Habrá problemas resueltos y nuevos problemas por resolver. Como suele decirse, no serán todos los que están, pero seguro que no están todos lo que serán.
El tiempo — más bien el trabajo de investigadores e investigadoras — dirá si estas fisuras que hemos visto son lo suficientemente grandes como para romper la armadura y obligarnos a construir un nuevo modelo, o si necesitaremos encontrar más. Y para ello habrá que seguir haciéndose preguntas. Porque recuerda, un buen ¿por qué? puede ser el mayor de los pasos hacia una nueva teoría.

Referencias:
[1] DUNE Collaboration: http://www.dunescience.org
[2] Misión PLANCK de la ESA: https://www.cosmos.esa.int/web/planck



Xabier Marcano.
Doctor en Física Teórica.
Profesor, Euskal Erriko Unibertsitatea / Universidad del Pais Vasco.