Mostrando entradas con la etiqueta 2024 Y OTRAS EASY PIECES. Mostrar todas las entradas
Mostrando entradas con la etiqueta 2024 Y OTRAS EASY PIECES. Mostrar todas las entradas

martes, 31 de diciembre de 2024

Ordenadores Cuánticos - Simuladores Cuánticos Universales

Ordenadores Cuánticos - Simuladores Cuánticos Universales.





De pequeño, miraba con asombro aquella caja blanca con la que tenía una cita en mi colegio cada ocho días; eran mis primeros pasos en el mundo de la computación. Tenía la mirada inquieta y curiosa de cualquier niño de esa edad, pero no estaba solo; quizás estabas tú, ella y otros niños maravillados por el fenómeno que los ordenadores empezaban a ser en nuestras vidas. Después de unas cuantas décadas, comencé a escribir este pequeño texto con la perspectiva de aquel niño y la influencia de Richard P. Feynman sobre él. Ahora bien, ¿qué cambio experimentó ese niño para que las palabras tan resonantes en la actualidad como “cuánticos” se repitan en el título?

Desde aquel primer día en que escribí “cd win” en aquella pantalla oscura y, de repente, ¡Eureka! Muchos colores, una música que siempre recordaría como el sonido de "Windows se está reiniciando", y la posibilidad perpleja de manipular esa caja blanca llamada ordenador. Los años han mantenido intactos esos primeros recuerdos, recuerdos que alivian a aquel ser sediento de respuestas: ¿Cómo funciona realmente esa caja blanca? ¿Qué es un bit? Y cómo ha logrado esta caja blanca captar tanta atención e impacto en nuestras vidas.

Con el paso de los años, fui encontrando respuestas a muchas de mis preguntas. Y así, un día, al concluir mis estudios previos a la universidad, me encontré frente a mi primera decisión importante y dejada al azar: ¿estudiar Física o Matemáticas? Lancé una moneda al aire, con igual probabilidad de cara o cruz, y tras varios golpes contra el suelo, finalmente cayó cruz (figura 1). Decidido, exclamé: ¡seré físico! Justo en mi primer año universitario, el apellido “Feynman” hizo su entrada en mi vida, un hombre verdaderamente peculiar, tocando esas congas y con lecturas que cautivaron a aquel joven. Cada página era un viaje desde lo más cercano y cotidiano hasta lo más abstracto. En mi opinión, Feynman era el mejor pedagogo.

Fig. 1 Mientras el joven Richard Feynman tocaba los bongos, las monedas volaban en el aire con igual probabilidad, adentrándose en el mundo cuántico mientras el joven niño curioso trataba ahora de entender la paradoja del gato de Schrödinger.


Ahora bien, volvamos nuestra atención a esa caja blanca, la moneda girando en el aire y el joven físico apasionado por el gran Feynman. Pero ahora surge la pregunta: ¿qué diablos es eso de “cuántico” y cómo encaja esta historia? Hacia el tercer año de la licenciatura, una materia a veces temida y otras veces amada, dependiendo del exquisito gusto de los físicos, es la Mecánica Cuántica. “La naturaleza no es clásica, maldición, y si quieres hacer una simulación de la naturaleza, será mejor que sea de mecánica cuántica”, apuntó alguna vez Feynman. Y es cierto, el comportamiento dual onda-partícula de la naturaleza parece ser mejor descrito por la mecánica cuántica. En un vistazo rápido, la mecánica cuántica proporciona las leyes que rigen la naturaleza a nivel nanoscópico.

La emoción de aquel primer día frente a esa caja blanca fue superada con creces, y ser cautivado por tratar de entender esos nuevos misterios o fenómenos descritos en mi curso de mecánica cuántica me llevó a donde estoy hoy en día: un investigador postdoctoral curioso acerca de la unión entre la mecánica cuántica y la computación. Hace siete años, el mundo presenció por primera vez la introducción de un ordenador cuántico funcional, accesible de forma gratuita y premium para empresas, investigadores, estudiantes y entusiastas de la computación cuántica. IBM fue la empresa tecnológica pionera en hacer posible este avance. Aunque la computación cuántica está en sus etapas iniciales, ya es una realidad tangible que sugiere un prometedor futuro tecnológico basado en la exploración de las peculiares propiedades y recursos del mundo cuántico. Los ordenadores cuánticos aprovechan la naturaleza probabilística de la mecánica cuántica y están dando grandes pasos hacia una nueva revolución tecnológica.

Desde la computación clásica hasta la cuántica, en 1982 Feynman vislumbró un camino que aún seguimos recorriendo sin respuesta, en el cual la computación cuántica mostraría una ventaja real sobre la simulación de problemas cotidianos que la computación clásica no es capaz de resolver. Actualmente, muchos problemas siguen abiertos, conocidos como "problemas NP", situaciones de la vida cotidiana en las cuales las relaciones entre las variables y el tiempo de cálculo para obtener las soluciones crecen polinómicamente o exponencialmente en el tiempo. Es decir, necesitaríamos un supercomputador trabajando o corriendo durante un tiempo prolongado, es decir, años o incluso siglos, para llegar a una respuesta. En este nuevo paradigma, un ordenador cuántico reduciría radicalmente este tiempo de cálculo.

 



Fernando Javier Gómez Ruiz.
Doctor en Física.
Departamento de Física Teórica, Atómica y Óptica.
Universidad de Valladolid (UVa).


Todos los caminos conducen a Roma

Todos los caminos conducen a Roma.




La Mecánica Cuántica según Feynman.

Hoy en día nadie pone en duda que Richard P. Feynman fue tal vez uno de los más brillantes e ingeniosos físicos de la segunda parte del siglo XX. Sus contribuciones a la física moderna son tan profundas como originales. Sólo por citar algunas de ellas podríamos mencionar:

A finales de los años cuarenta ya había resuelto los problemas fundamentales de la Electrodinámica Cuántica y había introducido sus famosos diagramas que, no sólo ayudaban a visualizar las diferentes contribuciones a los procesos entre partículas como electrones, positrones y fotones, sino que permitían realizar los cálculos mucho más rápida y eficientemente. Estas contribuciones le valieron el Premio Nobel de Física de 1965 junto a Schwinger y Tomonaga.

A principio de los años cincuenta desarrolló una exitosa interpretación cuántica de la teoría fenomenológica de la superfluided del helio líquido, introducida previamente por Lev D. Landau y que le valió a éste el Premio Nobel de Física de 1962.

Junto con Murray Gell-Mann desarrolló en 1958 la teoría V-A, previamente sugerida por Sudarshan and Marshak, y que describía aspectos sutiles de las interacciones débiles como la violación de la paridad.

En 1959 pronuncio su famosa conferencia ante la APS Plenty of Room at the Bottom, donde se ponía de manifiesto el potencial de la física cuántica para el desarrollo de la nanociencia y la nanotecnología.

Trabajando con físicos experimentales de SLAC, en 1968 introdujo el concepto de partón como constituyente elemental del protón, para explicar el comportamiento de las reacciones electrón-protón profundamente inelásticas. Los partones con el tiempo acabaron reinterpretándose como lo que hoy llamamos quarks.

A principios de los ochenta pronunció diversas conferencias y publicó varios trabajos proponiendo la idea de los computadores cuánticos y sus posibles usos para simular el comportamiento de los sistemas cuánticos difíciles de tratar con medios convencionales.

Y eso sólo por mencionar algunas de las más conocidas aportaciones de Feynman.

Sin embargo, en esta lista he omitido deliberadamente la que personalmente considero su más fundamental contribución a la física moderna. Se trata, ni más ni menos, de su personal formulación de la mecánica cuántica.

 A principio de los años treinta existían básicamente dos formulaciones diferentes de la mecánica cuántica. La primera de ellas era la llamada mecánica cuántica matricial desarrollada en 1925 por Heisenberg, junto con Jordan y Born, y estaba inspirada en el modelo del átomo de hidrógeno de Bohr y posteriores desarrollos de Sommerfeld. Aunque se trataba de una formulación plenamente consistente, resultaba demasiado abstracta para la mayoría de los físicos de la época.

Mucho más intuitiva resultó la mecánica ondulatoria presentada por Schrödinger en 1926 a través de su famosa ecuación. Inspirado en la idea propuesta previamente por de Broglie de que toda partícula llevaba asociada una onda, Schrödinger fue capaz de encontrar una ecuación para la onda de materia (función de onda Ψ (x,t) )  cuyas soluciones regulares describían, entre otras cosas,  los niveles energéticos correctos del átomo de hidrógeno de Bohr. Aunque la naturaleza de la función de onda permanecía un poco oscura, la formulación de Schrödinger de la mecánica cuántica resultaba mucho más familiar al basarse en ecuaciones diferenciales que eran la herramienta habitual de los físicos de aquella época. Posteriormente Born, inspirado por el propio Einstein, ofrecería la interpretación todavía generalmente aceptada del módulo al cuadrado de dicha función |Ψ (x,t)|2 como densidad de probabilidad de encontrar la partícula en el punto x en el instante t.

En todo caso la comunidad no tardó mucho tiempo en darse cuenta de que en realidad ambas formulaciones de la mecánica cuántica eran en el fondo equivalentes, como se manifestaba claramente en los textos de Dirac (con su famosa notación de kets y bras) y de von Neumann mediante el uso extensivo de los espacios de Hilbert, ya a comienzos de la década de los treinta.

De esta forma se disponía dos formulaciones de la mecánica cuántica, siendo la basada en la ecuación de Schrödinger la más popular. De acuerdo con dicha ecuación, la evolución temporal de la función de onda viene determinada por el llamado operador hamiltoniano H que está relacionado con la correspondiente magnitud clásica H y por tanto con la energía de la partícula. En los casos sencillos el hamiltoniano H es por tanto la suma de la energía cinética T y la energía potencial U, es decir H = T + U y formalmente es una función de la posición x y del momento p, es decir, H = H (x, p).

Existe sin embargo una formulación más directa de la mecánica clásica basada en la función de Lagrange (lagrangiano) L = T - U, donde L se considera formalmente una función de la posición x y la velocidad v, es decir L = L (x, v). A partir de esta función es posible construir la acción S[x(t)] como la integral en el tiempo de L evaluada a lo largo de una cierta trayectoria x(t) que une el punto xA en el instante tA con el punto xB en el instante tB. Así la acción es un funcional que asocia un cierto valor a cada trayectoria imaginable x(t) que conecte el punto (xA, tA) con el punto (xB, tB). El principio de mínima acción de Hamilton afirma entonces que la trayectoria clásica de la partícula corresponde exactamente a aquella función x(t) que hace mínimo el valor de la acción S[x(t)] (matemáticamente la condición precisa es: δ δ x(t) = 0), lo cual no es sino una forma sofisticada de presentar la segunda ley de Newton de la mecánica: F = m a.

Fue Dirac el primero en plantear seriamente la posibilidad de desarrollar una mecánica cuántica basada en el formalismo de Lagrange en lugar del formalismo hamiltoniano utilizado por Schrödinger en su famosa ecuación. Su motivación en principio era considerar el formalismo lagrangiano más fundamental que el hamiltoniano, pero también la creencia de que aquel era más apropiado para adaptar la mecánica cuántica a las exigencias de la teoría especial de la relatividad.

En este caso el objeto fundamental no es la función de onda Ψ (x,t), sino la amplitud cuántica (xA, tA; xB, tB), cuyo módulo al cuadrado proporciona la densidad de probabilidad de que, si la partícula se encuentra en el punto xA en el instante tA, podamos detectarla en el punto xB en el instante  tB. Dirac sugirió que dicha amplitud podría obtenerse de alguna manera a partir de la acción S[x(t)] pero no pudo precisar exactamente de qué forma.

Y aquí es donde aparece nuestro increíble Feynman. Inspirado por las ideas de Dirac presentó en 1948 un artículo histórico en el cual consiguió encontrar una fórmula que relacionaba la amplitud cuántica con la acción clásica. Reelaborando algunas ideas de su tesis doctoral, supervisada por Wheeler, consiguió obtener la amplitud (xA, tA; xB, tB) como el resultado de una suma muy particular (integral sobre caminos) que recibe contribuciones de todas las trayectorias imaginables x(t) que conecten el punto (xA, tA) con el punto (xB, tB). Todas estas trayectorias contribuyen igual en módulo, pero no así en fase, siendo la fase de cada contribución igual a exp (i2π S[x(t)]/h), donde h es la constante de Planck. Es decir, la fase asociada a cada posible trayectoria x(t) viene determinada por la acción clásica evaluada para esa trayectoria medida en unidades de la constante de Planck. De esta manera todos los caminos que unan el punto A con el punto B contribuyen de una forma muy precisa a la amplitud   (xA, tA; xB, tB). A partir de la relación entre esta amplitud y la función de onda Feynman fue capaz de demostrar que este formalismo es equivalente a la ecuación de Schrödinger. Sin embargo, en esta nueva formulación de la mecánica cuántica, conocida como la integral sobre caminos de Feynman, todos los objetos son clásicos y no es necesario tratar con operadores que representan magnitudes físicas actuando sobre estados físicos pertenecientes a un espacio de Hilbert. Aquí todas las complejidades de la cuantización se tienen en cuenta con el nuevo concepto de integral (funcional) sobre caminos y se realiza el sueño de Dirac de formular la mecánica cuántica en un contexto exclusivamente lagrangiano (aquí no aparece el hamiltoniano sino la acción clásica).

Fig. 1 Paul Dirac parece escuchar atentamente a Richard Feynman. Foto tomada en Jabłonna, cerca de Varsovia, durante una conferencia científica internacional sobre Relatividad General y Gravitación en julio de 1962. "Richard Feynman and Paul Dirac at Relativity Conference in Warsaw, 1962-07, 1.10-20. Caltech Images Collection, Images. California Institute of Technology Archives and Special Collections. https://collections.archives.caltech.edu/repositories/2/archival_objects/106341  Accessed March 22, 2024”.


Sin embargo, tal vez lo más interesante de esta nueva formulación de la mecánica cuántica es que nos ofrece una imagen pictórica de los procesos altamente sugerente. Es como si para ir del punto A al punto B, la partícula cuántica utilizara (virtualmente) todos los caminos posibles cada uno con su fase correspondiente y es la suma de todos, pesados con su factor de fase, la que determina la amplitud y por tanto la densidad de probabilidad de ocurrencia de la transición desde A hasta B.

Y todavía hay más en esta fantástica visión de la mecánica cuántica. Si la transición ocurre en objetos macroscópicos, los valores de la acción sobre los diferentes caminos serán típicamente enormes comparados con la constante de Planck, es decir S[x(t)] >> h. De esta forma el factor de fase oscilante tenderá a cancelar la contribución a la amplitud del camino correspondiente; ¡con una excepción! Los caminos x(t) que hacen estacionaria la acción con respecto a pequeños cambios x(t) + δ x(t). Pero resulta que esos caminos cumplen la ecuación: δ S/δ x(t) = 0, es decir son justamente los que satisfacen las ecuaciones clásicas del movimiento. Es decir, la mecánica cuántica de los objetos macroscópicos está dominada por las trayectorias clásicas. De esta forma tan fascinante establece Feynman la emergencia de la mecánica clásica a partir de la mecánica cuántica. En las situaciones genuinamente cuánticas (S[x(t)] del orden de h) todos los caminos contribuyen a la amplitud, mientras que en situaciones macroscópicas (S[x(t)] >> h) a la amplitud sólo contribuyen esencialmente las trayectorias clásicas.


Fig.2 Imagen mostrando cinco trayectorias que unen los puntos A y B. Todas ellas e infinitas más contribuyen a la amplitud del proceso en la formulación de la integral sobre caminos de Feynman de la mecánica cuántica.  De todas ellas, solamente aquella que minimiza la acción, por ejemplo la del medio, sobrevive al límite clásico de la mecánica cuántica. Attribution: By Sachin48 sps - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=94348813


De esta forma la integral sobre caminos de Feynman, no sólo nos proporciona una visión pictórica de la mecánica cuántica, sino que además nos ofrece una explicación de cómo la mecánica clásica surge de la mecánica cuántica en el mundo macroscópico.

Desde el punto de vista técnico cabe añadir que la integral sobre caminos puede aplicarse a la teoría cuántica de campos relativista con éxito y es así como pueden obtenerse los famosos diagramas de Feynman.  Resulta particularmente útil en las llamadas teorías gauge, como el Modelo Estándar de las partículas elementales que describe, con gran éxito hasta la fecha, las interacciones fuertes y electrodébiles de los quarks y leptones. De hecho, muchos teóricos consideran la integral sobre caminos de Feynman como la más fundamental de las formulaciones de la mecánica cuántica conocidas.

Personalmente descubrí la integral sobre caminos de Feynman unos meses después de obtener mi licenciatura en Física en la Universidad Autónoma de Madrid a principios de los ochenta del siglo pasado y quedé inmediatamente fascinado por la ingeniosa forma de entender la mecánica cuántica de Feynman. Desde entonces no he dejado de sorprenderme de los misterios del mundo cuántico y del ingenio de Feynman para intentar dilucidarlos.





Bibliografía:
(1)  Feynman, Richard P. (1949b). «Space-Time Approach to Quantum Electrodynamic». Physical Review 76 (6): 769-789.
(2) Feynman, Richard P. (1953). «The λ-Transition in Liquid Helium». Physical Review 90 (6): 1116-1117.
(3) Feynman, Richard P. (1959). «Plenty of Room at the Bottom». Presentation to American Physical Society. Archivado desde el original el 11 de febrero de 2010.
(4) Feynman, Richard P. (1974a). «Structure of the proton». Science (February 15, 1974) 183 (4125): 601-610.
(5) R. P. Feynman, "Quantum mechanical computers," in Conference on Lasers and Electro-Optics, D. Hodges, W. Silfvast, G. Bjorklund, and E. Hinkley, eds., OSA Technical Digest (Optica Publishing Group, 1984).
(6) R. Feynman, “Quantum Mechanical Computers,” Optic News, Vol. 11, 1985, pp. 11-20.
(7) Feynman, R.P. Simulating physics with computers. Int J Theor Phys 21, 467–488 (1982).
(8) Schrödinger, E. (1926). "An Undulatory Theory of the Mechanics of Atoms and Molecules" (PDF). Physical Review. 28 (6): 1049–70.
(9) Born, Max (1926). "Zur Quantenmechanik der Stoßvorgänge" [On the quantum mechanics of collisions]. Zeitschrift für Physik. 37 (12): 863–867. Reimpreso como Born, Max (1983). "On the quantum mechanics of collisions". In Wheeler, J. A.; Zurek, W. H. (eds.). Quantum Theory and Measurement. Princeton University Press. pp. 52–55.
(10) Dirac, Paul A. M.  "The Principles of Quantum Mechanics" 4th ed., Clarendon Press. London (1958). 1º ed 1930.
(11) John von Neumann (2018). Nicholas A. Wheeler (ed.). Mathematical Foundations of Quantum Mechanics. New Edition. Translated by Robert T. Beyer. Princeton University Press.
(12) Dirac, Paul A. M. (1933). "The Lagrangian in Quantum Mechanics" (PDF). Physikalische Zeitschrift der Sowjetunion. 3: 64–72.
(13) Feynman, Richard P. (1942). Laurie M. Brown, ed. The Principle of Least Action in Quantum Mechanics. Ph.D. Dissertation, Princeton University. World Scientific (with title Feynman's Thesis: A New Approach to Quantum Theory) (publicado el 2005).
(14) Feynman, Richard P. (1948a). «Space-time approach to non-relativistic quantum mechanics». Reviews of Modern Physics 20 (2): 367-387.
(15) Feynman, Richard P. and Hibbs, Albert (1965). Quantum Mechanics and Path Integrals. McGraw Hill..



Antonio Dobado González.
Doctor en Ciencias Físicas.
Catedrático del Departamento de Física Teórica.
Universidad Complutense de Madrid (UCM).


A vueltas con Richard Feynman

A vueltas con Richard Feynman, sus diagramas y la nanotecnología.






Las cosas más interesantes en Física son aquellas que no encajan con lo que ya se conoce. Y quizá, si conseguimos entenderlas, harán más sencilla la comprensión del conjunto.

Richard Feynman, entrevista en televisión.

Introducción: el carisma de Feynman.

Solo unos pocos físicos en la historia concitan el fervor, rayano en la idolatría, que despierta Richard Feynman (en mi altar personal de dicho fervor, dejad que incluya una hipotética santísima trinidad donde figuren Albert Einstein, Carl Sagan y Richard Feynman). Feynman era conocido por su personalidad carismática y su capacidad para comunicar conceptos científicos de manera accesible y atractiva y podemos señalar al menos cuatro características que contribuyeron a este carisma:

a) Pasión por la ciencia y curiosidad innata: Feynman era apasionado por la física y la ciencia en general. Su entusiasmo por entender el mundo natural era evidente en su forma de hablar y de abordar los problemas científicos. Su pasión se transmitía a quienes lo escuchaban, haciendo que la ciencia pareciera fascinante y manteniendo viva su curiosidad y asombro frente al mundo. Esta actitud hacía que la ciencia fuera más intrigante y emocionante. Su enfoque lúdico contribuyó a la percepción de que la exploración científica era una aventura emocionante. Un ejemplo lo podemos encontrar en “el punto de Feynman”: resulta que Feynman se dio cuenta de que a partir del decimal 762 del número p hay una secuencia de seis 9 consecutivos: …34999999… y mencionó que le gustaría aprenderse de memoria todos los dígitos de p hasta ese punto.

b) Sentido del humor y enfoque desenfadado: Feynman era conocido por su sentido del humor único. Utilizaba el humor de manera efectiva para ilustrar conceptos complicados y para hacer que la ciencia fuera más accesible. Sus anécdotas y chistes a menudo se centraban en la vida cotidiana, lo que generaba empatía. A pesar de ser un científico de renombre y un premio Nobel, Feynman tenía un estilo desenfadado y poco convencional. No tenía miedo de romper con la formalidad tradicional, lo que lo hacía más accesible para aquellos que podían sentirse intimidados por la ciencia.

c) Habilidad para simplificar conceptos complejos: Feynman era un maestro en la habilidad de simplificar conceptos altamente complejos. Utilizaba explicaciones simples y analogías comprensibles para transmitir ideas científicas avanzadas. Esta capacidad de hacer que la ciencia sea comprensible para un público más amplio contribuyó significativamente a su carisma y prestigio, muy en la línea de Carl Sagan.

d) Conexión con las personas: Feynman (Dick para sus amigos y colegas) no solo era un genio científico, sino también una persona que conectaba con los demás. Su capacidad para relacionarse con la gente común, su humildad y su enfoque relajado lo convirtieron en una figura querida tanto entre sus colegas como entre el público en general. Por lo tanto, el carisma de Feynman no solo provenía de sus logros académicos, sino también de su personalidad vibrante y su habilidad para transmitir su amor por la ciencia de una manera que resonaba con una amplia audiencia.

Feynman murió en 1988, el año que yo empecé los estudios de Física en la Universidad de Zaragoza. Durante la carrera, varios compañeros, animados por el profesor de Historia de la Ciencia, Mariano Hormigón, decidimos fundar una asociación de divulgación científica que se llamó Ateneo Científico Universitario. Es fácil de entender que Feynman fuera uno de nuestros referentes a la hora de intentar divulgar la ciencia de modo ameno, pero sin perder rigor. En las asignaturas que cursé esos años, las aplicaciones de las teorías de Feynman aparecieron por ejemplo en contextos de la física nuclear y del magnetismo, aunque ya se prefería la descripción convencional de la mecánica cuántica mediante operadores y matrices, en lugar de integrales de camino y diagramas, como había propuesto Feynman de modo alternativo. No obstante, me gustaría centrar este ensayo en dos puntos donde he sentido el influjo e inspiración de Feynman. Primero, querría relatar una pequeña experiencia con sus famosos diagramas que me ayudó a comprender mejor algunos conceptos de la física del estado sólido. En segundo lugar, me centraré en el papel de Feynman como precursor de la Nanotecnología, a la que he dedicado una buena parte de mi carrera investigadora.

 

A vueltas con los diagramas de Feynman.

Introducción a los diagramas de Feynman.

Richard Feynman presentó los diagramas que finalmente llevarían su nombre como una representación visual de las interacciones de partículas en la electrodinámica cuántica, teoría que se utiliza para comprender la física del núcleo atómico. Desarrolló este enfoque a finales de los años 1940 y principios de los 1950 como parte de su trabajo en la teoría cuántica de campos [1, 2]. Los diagramas de Feynman proporcionan una forma de visualizar y calcular las complejas expresiones matemáticas involucradas en las interacciones entre partículas. Estos diagramas representan los caminos que toman las partículas a medida que se mueven a través del espacio-tiempo e interactúan entre sí. La idea clave detrás de los diagramas de Feynman es representar las interacciones en términos de elementos gráficos simples, lo que facilita la comprensión y el cálculo de las probabilidades de diferentes procesos físicos que ocurren entre partículas.

Los diagramas de Feynman jugaron un papel crucial en el desarrollo de la electrodinámica cuántica y luego se extendieron a otras áreas de la física de partículas. Se han convertido en una herramienta muy útil para que los físicos comprendan y calculen interacciones complejas de partículas. El enfoque innovador de Feynman hacia la visualización de los fenómenos que tienen lugar ha tenido un gran impacto en la forma en la que los físicos analizan los procesos en la teoría cuántica de campos. Algunos elementos clave sobre los diagramas de Feynman son los siguientes:

a) Partículas y líneas: en los diagramas de Feynman, los diferentes tipos de partículas (electrones, positrones, fotones, etc.) se representan mediante diferentes líneas. Por ejemplo, los electrones se representan mediante líneas rectas, mientras que los fotones se representan mediante líneas onduladas.

b) Vértices: los puntos de interacción entre partículas están representados por vértices. En estos vértices, las líneas convergen, lo que indica una interacción entre las partículas correspondientes.

c) Flechas: Las flechas sobre las líneas indican la dirección del flujo de partículas a través del tiempo.

d) Conservación de carga y momento: los diagramas de Feynman se construyen de manera que conserven la carga y el momento en cada vértice. Esto garantiza que en la representación se respeten los principios fundamentales de la física.

e) Propagadores: Las líneas entre vértices representan la propagación de partículas a través del espacio-tiempo. El tipo de línea (recta u ondulada) y su expresión matemática asociada transmiten información sobre la naturaleza de las partículas involucradas.

f) Fórmulas matemáticas: cada diagrama de Feynman corresponde a una expresión matemática que representa la amplitud de probabilidad de una interacción de partículas particular. Estas expresiones se pueden combinar para calcular la probabilidad general de un proceso determinado.

Fig.1 Diagrama de Feynman relativo a la dispersión Compton, en la que interactúan un electrón y un fotón. © Alix Tatiana Escalante y José María de Teresa (reproducción permitida citando los autores).


 

Mi encuentro con los diagramas de Feynman.

Tras acabar mi tesis doctoral en la Universidad de Zaragoza, centrada en fenómenos magnéticos y de magnetorresistencia y supervisada por los profesores A. Del Moral y R. Ibarra, comencé en 1998 una estancia postdoctoral de dos años en París, en el grupo del profesor A. Fert, quien fue posteriormente galardonado con el premio Nobel en Física por el descubrimiento de la magnetorresistencia gigante. Al poco de llegar, iba paseando un día por la avenida de las Tullerías y entré en una librería. Rebuscando, me encontré con un libro de Richard Mattuck cuyo título llamó mi atención, ya que trataba del uso de los diagramas de Feynman para resolver el problema de muchos cuerpos [3]. En mi ingenuidad, pensé que quizá Feynman hubiese encontrado una forma sencilla de abordar el, en principio inabordable, problema de muchos cuerpos. Aunque solo llegué a leer un tercio del libro dada su complejidad y carga matemática conforme este iba avanzando, los primeros capítulos me resultaron muy útiles a la hora de comprender mejor el comportamiento de los materiales y otros sistemas de muchos cuerpos utilizando los conceptos de cuasi-partícula y de excitaciones colectivas.

Las cuasi-partículas son cuerpos ficticios débilmente interactuantes, por lo que si somos capaces de modelar un sistema de muchos cuerpos altamente interactuantes como un conjunto de cuasi-partículas poco interactuantes, la descripción del sistema será mucho más sencilla. Imaginemos un electrolito compuesto por iones positivos y negativos y queremos describir su comportamiento. Si enfocamos el problema queriendo resolver el comportamiento individual de cada ion, la solución será muy complicada. Pero si nos damos cuenta que un ion positivo va a estar rodeado de iones negativos y conseguimos representar el sistema como un conjunto de cuasi-partículas formadas por un ion positivo más su nube de iones negativos, con un tiempo de vida bastante largo porque la cuasi-partícula interactúa solo débilmente con otras cuasi-partículas, la descripción se va a simplificar. A estas cuasi-partículas se les denomina también partículas renormalizadas o vestidas y podemos describir su movimiento asociándoles una masa efectiva. En electrodinámica cuántica, por ejemplo, se habla de un electrón desnudo que en presencia de un campo de fotones adquiere una nube de fotones virtuales a su alrededor, convirtiéndolo en un electrón renormalizado. En la propia investigación de mi tesis doctoral, nos encontramos en óxidos magnéticos con los polarones magnéticos, que son cuasi-partículas formadas por un electrón de conducción que se localiza durante un tiempo en una posición y se deforma localmente la red cristalina en ese punto, permitiendo además una interacción local de carácter ferromagnético. Este fenómeno da origen a la magnetorresistencia colosal [4]. Otros materiales donde el concepto de cuasi-partícula se utiliza con frecuencia es en los materiales superconductores, aunque aquí el concepto es más complicado: en el estado superconductor, los electrones se agrupan en parejas de un electrón con momento +k y estado de espín arriba y un hueco con momento -k y estado de espín abajo. Este estado fundamental está protegido por un gap de energía, siendo sus excitaciones cuasi-partículas fruto de la rotura de estas parejas, que aparecen cuando por ejemplo mediante un incremento de temperatura o un campo magnético se proporciona energía suficiente para vencer dicho gap.

Las excitaciones colectivas, por el contrario, representan un comportamiento al unísono de muchas partículas del sistema. En lugar de mirar cómo se comporta cada una de las partículas del sistema de modo aislado, podemos centrarnos en encontrar el comportamiento correlacionado de muchas partículas, lo que ayudará a realizar una descripción más simplificada del conjunto. En física nuclear, existen varios movimientos vibracionales y rotacionales colectivos que ocurren en los núcleos, mientras que en física del estado sólido encontramos conceptos que reflejan este comportamiento colectivo tales como fonones, magnones, plasmones, etc. Si tomamos el ejemplo de los fonones, resulta que en una red cristalina los átomos en cada punto de la red se mueven respecto de su posición de equilibrio siguiendo unas pautas determinadas por el movimiento colectivo, como si se tratase de una onda que se propaga. Gracias a este concepto, no solo es mucho más sencillo abordar cómo se comporta la materia, sino que controlando y manipulando estas excitaciones colectivas podemos generar nuevas aplicaciones [5].

Feynman, en sus diagramas para describir problemas de muchos cuerpos, usa el concepto de los propagadores para describir la evolución temporal de las cuasi-partículas y sus excitaciones colectivas. La herramienta matemática básica que permite dichos cálculos con propagadores se basa en las funciones de Green. La idea subyacente es que, en lugar de pretender conocer el comportamiento individual de cada una de las partículas del sistema, podemos conocer ciertas propiedades físicas relevantes conociendo el comportamiento medio de una o dos partículas utilizando un propagador de una partícula o de dos. El método se puede extender en una serie infinita si es necesario. Para ilustrar el método, y sin duda haciendo gala de una buena dosis de humor, Mattuck propone el “propagador del borracho”, imaginando que un borracho quiere ir desde donde está actualmente hasta su casa, pero tiene un montón de lugares intermedios que puede visitar, incluyendo bares, clubs y casas de amigos. Para calcular la probabilidad de que el borracho alcance su casa, hay que considerar la suma de todas las probabilidades con paradas en los lugares intermedios. En un ejemplo de interés para la física, como la descripción del movimiento de un electrón en un metal, el propagador de una partícula entre el punto inicial y el punto final sería la suma de las amplitudes de probabilidad mecánico-cuántica de todas las posibilidades que existen en ese camino entre ambos puntos teniendo en cuenta las interacciones posibles con los iones presentes.

 

A vueltas con la Nanotecnología.

En su provocadora conferencia de 1959 en la reunión anual de la American Physical Society y el artículo correspondiente, publicado unos meses más tarde [6], Feynman demostró que no había ningún impedimento para utilizar el mundo nanoscópico con el objetivo de almacenar una capacidad ingente de información. De este modo, propone escribir los 24 volúmenes de la Enciclopedia Británica en la cabeza de un alfiler simplemente reduciendo el tamaño de cada punto de impresión a un área que ocuparía 1000 átomos, equivalente a un área de 8 nm x 8 nm. Y hasta se atreve a proponer un método que recuerda mucho al método de nanoimpresión que se inventó en los años 90. Su clarividencia era meridiana, como también puede colegirse de su propuesta en este mismo artículo de mejorar los microscopios electrónicos de la época un factor 100 para resolver una gran cantidad de problemas en biología, tal y como se ha conseguido en el siglo XXI gracias a la corrección de aberraciones en los microscopios electrónicos de transmisión y la crio-microscopía.

En el año 2000 regresé de mis estancias postdoctorales y conseguí una plaza permanente en el CSIC, lo que me permitió abordar proyectos a largo plazo en el campo de la nanotecnología, que actualmente sigo desarrollando en el Laboratorio de Microscopías Avanzadas (Universidad de Zaragoza) y en el Instituto de Nanociencia y Materiales de Aragón (CSIC-Universidad de Zaragoza), donde dirijo el Grupo de nanofabricación y microscopías avanzadas (Nanomidas). Desde ese año, también he participado como colaborador docente o como profesor asociado en la Universidad de Zaragoza en cursos de doctorado, diploma de estudios avanzados, varios másteres y escuelas de verano, donde la predicción de Feynman del año 1959 me ha servido en muchas ocasiones para introducir la temática de la nanotecnología. Aunque el concepto de nanotecnología fue introducido por Feynman en esta charla, en realidad el término “nanotecnología” propiamente dicho fue introducido por primera vez en el año 1974 por el científico japonés Norio Taniguchi.

¿Hasta qué punto hemos alcanzado la densidad de almacenamiento propuesta por Feynman? Tal y como hemos comentado antes, él calcula que sería necesario hacer cada punto de impresión de un tamaño de 64 nm2. Teniendo en cuenta que cada letra necesita muchos puntos de impresión, este tamaño habría que incrementarlo por un factor de al menos 100, es decir que una letra ocuparía por lo menos 6400 nm2. Hoy en día, el almacenamiento de información en discos duros magnéticos es uno de los más habituales, donde cada letra no está impresa con puntos, sino que está representada por 8 bits (1 byte) y cada bit (que puede ser un 1 o un 0) está formado por varios átomos magnéticos con la dirección de su imanación hacia arriba o hacia abajo, en un almacenamiento magnético que es perpendicular al plano, ya que es el que permite una mayor densidad de almacenamiento. ¿Cuánto ocupa cada bit de información? En la tecnología actual de 1 Tbit/pulgada2, el tamaño de cada bit magnético es de 30 nm x 15 nm, y por lo tanto un byte, que es lo que codifica una letra, ocupa 8 veces esa área, es decir 3600 nm2 [7]. Por lo tanto, podemos concluir que ya se ha alcanzado la predicción de Feynman, aunque eso sí, mucho más tarde que lo que él había pronosticado en su famosa conferencia y artículo, donde hablaba de un horizonte de quizá 10 años. En sus predicciones, Feynman hablaba del átomo como la unidad mínima en base a la cual se podrían fabricar dispositivos, pero manipular átomos individuales, aunque hoy en día es posible, es una técnica ultra-lenta que no es viable económicamente teniendo en cuenta la velocidad de fabricación necesaria [8]. Los métodos de nanofabricación que se utilizan hoy en día para fabricar dispositivos involucran el uso de obleas de diámetro hasta 300 mm y sofisticadas técnicas como la litografía óptica, la litografía electrónica o la litografía de nanoimpresión [9].

Fig. 2 Representación de dos pistas de un disco duro magnético, basado en una estructura granular de aleaciones de cobalto, donde la información se almacena magnéticamente, representando la imanación hacia arriba un bit 1 y la imanación hacia abajo un bit 0. Hoy en día estos bits solo ocupan un área típicamente de 30 nm x 15 nm. © Alix Tatiana Escalante y José María de Teresa (reproducción permitida citando los autores).


En resumen, podemos concluir que Feynman fue muy valiente y bastante certero haciendo predicciones sobre un campo que luego adoptaría el nombre de nanotecnología. Por esta conferencia de 1958 y el artículo de 1959, quedará para la Historia que Feynman fue el precursor de la nanotecnología, aunque no trabajase nunca en ella ni hiciese ninguna contribución. Pero su prestigio fue suficiente para impulsar un campo que nació tímidamente en los años 70 y 80 pero produjo un gran impacto en el siglo XXI. Para concluir este artículo, me quedaré con las palabras de Hans Bethe, que colaboró con Feynman en el proyecto Manhattan y posteriormente le ofreció un puesto de profesor en la Universidad de Cornell una vez acabada la Segunda Guerra Mundial. Tras el fallecimiento de Feynman en 1988, Bethe dijo [10]: “El mago hace cosas que nadie puede hacer y que nadie espera que se hagan. Ese mago es Feynman”.




Referencias:
[1] FEYNMAN, R. P. (1948)Space-time approach to non-relativistic quantum mechanics, Reviews of Modern Physics20:367-387.
[2] FEYNMAN, R. P. (1949)Space-time approach to quantum electrodynamics, Physical Review 76: 769-789.
[3] MATTUCK R. D. (1992), A guide to Feynman diagrams in the many-body problem, Dover publications, New York, second edition, ISBN 0-486-67047-3.
[4] DE TERESA, J. M. et al. (1997), Evidence for magnetic polarons in the magnetoresistive perovskites, Nature 386: 256-259.
[5] BARMAN A. et al. (2021), The 2021 magnonicsroadmap, J. Phys.: Condens. Matter 33: 413001.
[6] FEYNMAN, R. P. (1960) There's Plenty of Room at the Bottom. Engineering and Science. 23: 22–36.
[7] FULLERTON E. E. and CHILDRESS J. E. (2016), Spintronics, magnetoresistive heads and the emergence of the digital world, Proceedings of the IEEE 104: 1787-1795.
[8] GARCÍA R. et al. (2014), Advanced scanning probe lithography, Nat. Nano. 9: 577-587.
[9] DE TERESA, J. M. (2020), Nanofabrication: nanolithography techniques and their applications, Institute of Physics, Bristol (U.K.), ISBN 978-0-7503-2606-3.
[10] LUBKIN, G. B. (1989), Special issue: Richard Feynman, Physics Today 42: 22-23.



José María de Teresa Nogueras.
Doctor en Ciencias Físicas.
Profesor de Investigación del CSIC.
Instituto de Nanociencia y Materiales de Aragón (INMA).
Facultad de Ciencias. Campus Plaza San Francisco. Zaragoza.
Presidente de la Sociedad Europea de Física.


Hay mucho espacio en el fondo

Hay mucho espacio en el fondo: Feynman nos invita a descubrir un nuevo campo de la Física.






There’s Plenty of Room at the Bottom1.

El 29 de diciembre de 1959, el físico teórico Richard Feynman pronunció su charla titulada "There's Plenty of Room at the Bottom" en la reunión anual de la Sociedad Estadounidense de Física en el Instituto de Tecnología de California (Caltech). Un discurso icónico que ha pasado a la historia como un hito en la física y la tecnología, ya que anticipó y sentó las bases para lo que más tarde se conocería como nanotecnología. Exploremos la charla y su impacto en el mundo de la ciencia y la tecnología.

La charla de Feynman "There's Plenty of Room at the Bottom" marcó un punto de inflexión en la forma en que los científicos y los ingenieros pensaban sobre la manipulación de la materia a una escala extremadamente pequeña. En su discurso, Feynman planteó la idea de que, si pudiéramos manipular los átomos y las moléculas individualmente, podríamos abrir un mundo completamente nuevo de posibilidades en la ciencia y la tecnología. Este concepto revolucionario se convirtió en la semilla de lo que más tarde se desarrollaría como la nanotecnología.

Feynman comenzó su charla haciendo hincapié en lo que sucedía en el mundo a escala nanométrica. Imaginemos, por un momento, que tenemos la capacidad de manipular átomos y moléculas individualmente. En esta escala, la materia se comporta de manera fundamentalmente diferente a como lo hace a una escala macroscópica. Los efectos cuánticos dominan, y las leyes de la física clásica se desvanecen en gran medida. Este fue el punto de partida de Feynman para su visión revolucionaria.

Uno de los conceptos clave que Feynman presentó en su charla fue el de la miniaturización. Argumentó que, si pudiéramos construir máquinas y dispositivos a una escala nanométrica, podríamos lograr avances tecnológicos impresionantes. Imaginemos, por ejemplo, la posibilidad de construir circuitos electrónicos en los que los componentes individuales fueran átomos o moléculas. Esto abriría la puerta a computadoras mucho más poderosas y compactas de lo que jamás habíamos imaginado.

Feynman también discutió la idea de la fabricación a escala atómica y molecular. En lugar de cortar, soldar y ensamblar piezas, podríamos construir objetos manipulando átomos y moléculas directamente. Esto no solo permitiría una precisión sin precedentes en la fabricación, sino que también reduciría drásticamente los residuos y los costos asociados con los métodos de fabricación convencionales.

Uno de los campos que Feynman vislumbró como beneficiario de la nanotecnología fue la medicina. Imaginó pequeñas máquinas médicas que podrían entrar dentro del cuerpo humano y realizar reparaciones a nivel molecular. Esto abriría la puerta a tratamientos revolucionarios para enfermedades actualmente incurables y aumentaría la longevidad humana de manera significativa.

Fig. 1 Ilustración de una nanomáquina reparando un glóbulo rojo, algo que Feynmann imaginó en su famosa charla. Obtenida de The Conversation: https://theconversation.com/meet-the-nanomachines-that-could-drive-a-medical-revolution-58107


Otro aspecto destacado de la charla de Feynman fue su discusión sobre la exploración espacial. Argumentó que la miniaturización y la capacidad de fabricar a escala atómica podrían transformar la forma en que exploramos el espacio. En lugar de naves espaciales masivas, podríamos enviar sondas minúsculas que se autoensamblarían en el espacio para realizar tareas específicas. Esto haría que la exploración del espacio fuera más eficiente y económica.

Si bien Feynman planteó una visión emocionante de las posibilidades de la nanotecnología, también reconoció los desafíos y las cuestiones éticas asociadas con ella. La capacidad de manipular la materia a nivel atómico plantea preguntas sobre la seguridad y el uso responsable de esta tecnología. Además, la nanotecnología podría tener implicaciones profundas en la economía global y la distribución de la riqueza.

La charla de Feynman sobre la nanotecnología ha dejado un legado duradero en la ciencia y la tecnología. Después de su discurso, los científicos y los ingenieros comenzaron a explorar en serio la manipulación de la materia a una escala nanométrica. Esto llevó al desarrollo de herramientas y técnicas que hicieron posible la fabricación y la investigación a nivel nanométrico.

Hoy en día, la nanotecnología es una disciplina madura que ha dado lugar a una amplia gama de aplicaciones en campos como la electrónica, la medicina, la energía y los materiales. Los nanomateriales se utilizan en productos que van desde pantallas de teléfonos inteligentes hasta medicamentos de liberación controlada. La nanotecnología también ha revolucionado la investigación científica, permitiendo la observación y manipulación de estructuras a nivel atómico.

La charla de Richard Feynman "There's Plenty of Room at the Bottom" ha demostrado ser un faro de inspiración para generaciones de científicos y tecnólogos. Su visión audaz de la manipulación de la materia a nivel atómico y molecular ha dado lugar a avances que han transformado nuestra vida cotidiana y nuestra comprensión del mundo natural. La nanotecnología, como resultado de las ideas presentadas en esta charla, continúa siendo un campo de investigación y desarrollo en constante crecimiento, con un potencial ilimitado para moldear nuestro futuro. En última instancia, Feynman nos recordó que, en el mundo de la ciencia y la tecnología, "hay mucho espacio en la parte inferior", y ese espacio sigue siendo un terreno fértil para la innovación y la exploración.

Recuerdo perfectamente al Profesor Fernando Moreno, uno de los supervisores de mi tesis doctoral, recomendarme la charla de Feynman, "There's Plenty of Room at the Bottom," muy al principio de mi tesis, como forma de introducirme en el campo de la nanotecnología. Ha sido una fuente de inspiración en mi propia percepción del mundo científico y tecnológico. La idea de que existe un vasto mundo por explorar a una escala tan diminuta me parece emocionante y fascinante. En mi opinión, esta charla de Feynman subraya la importancia de la curiosidad científica y la imaginación en la búsqueda de avances significativos.

La nanotecnología, impulsada por las ideas presentadas por Feynman, ha demostrado ser una disciplina crucial en el mundo moderno. Ha generado avances innovadores en una amplia gama de campos, y su impacto solo está comenzando a manifestarse por completo.

La nanotecnología representa un área emocionante y llena de posibilidades para la investigación futura. Su potencial en la medicina es particularmente apasionante para mí. La idea de nanorobots navegando por el torrente sanguíneo para combatir enfermedades o la capacidad de realizar diagnósticos precisos a nivel molecular ofrece un nuevo nivel de precisión y eficiencia en el cuidado de la salud. Esto no solo puede salvar vidas, sino también mejorar la calidad de vida de las personas en todo el mundo.

Además, la nanotecnología puede tener un impacto positivo en la sostenibilidad y el medio ambiente. La mejora de la eficiencia energética y la producción de materiales más sostenibles pueden contribuir significativamente a abordar los desafíos globales, como el cambio climático y la escasez de recursos naturales.

Sin embargo, también es importante abordar las preocupaciones éticas y de seguridad asociadas con la nanotecnología. La capacidad de manipular la materia a nivel atómico y molecular plantea preguntas sobre el uso responsable de esta tecnología y los posibles riesgos para la salud y el medio ambiente. Es crucial que la investigación y la aplicación de la nanotecnología se realicen de manera ética y segura.

 

Repulsión electrostática.

La idea de que dos cuerpos nunca pueden tocarse debido a la repulsión electrostática es un concepto fundamental en la física que se deriva de las propiedades de las partículas cargadas eléctricamente. Para comprender completamente este concepto, es necesario explorar la naturaleza de las cargas eléctricas, la Ley de Coulomb y cómo afecta a la interacción entre objetos. En este texto, profundizaremos en estos temas para explicar por qué dos cuerpos nunca pueden tocarse debido a la repulsión electrostática.

En la física, se reconoce la existencia de dos tipos de cargas eléctricas: positivas y negativas. Estas cargas son fundamentales para comprender la repulsión electrostática. Los electrones tienen una carga negativa, mientras que los protones tienen una carga positiva. La carga eléctrica es una propiedad intrínseca de las partículas subatómicas y es responsable de la interacción electromagnética.

La Ley de Coulomb es una expresión matemática que describe la fuerza de interacción entre dos cargas eléctricas. Esta ley fue formulada por Charles-Augustin de Coulomb en el siglo XVIII y es fundamental para comprender la repulsión electrostática. La Ley de Coulomb establece que la fuerza entre dos cargas eléctricas es directamente proporcional al producto de sus cargas e inversamente proporcional al cuadrado de la distancia entre ellas.

La repulsión electrostática ocurre cuando dos objetos tienen cargas eléctricas del mismo signo, es decir, ambos son positivos o ambos son negativos. Según la Ley de Coulomb, cuando dos cargas del mismo signo se acercan, experimentarán una fuerza de repulsión que los empujará en direcciones opuestas. Esto es análogo a lo que sucede cuando intentamos unir dos imanes con los polos iguales: experimentamos una fuerte resistencia que impide que se toquen.

Para comprender por qué dos cuerpos nunca pueden tocarse debido a la repulsión electrostática, consideremos dos escenarios: cuerpos con cargas positivas y cuerpos con cargas negativas.

Si tenemos dos cuerpos con cargas positivas y tratamos de acercarlos, la repulsión electrostática entre las cargas positivas se vuelve evidente. Cuanto más cerca intentemos acercar los cuerpos, mayor será la fuerza de repulsión. A medida que disminuimos la distancia entre ellos, la fuerza repulsiva aumenta drásticamente según la inversa del cuadrado de la distancia. Esto significa que, incluso si acercamos los cuerpos casi hasta el punto de contacto, la fuerza de repulsión nunca se vuelve cero, y los cuerpos nunca pueden tocarse en realidad.

El mismo principio se aplica a dos cuerpos con cargas negativas. Cuando intentamos acercarlos, experimentamos una repulsión electrostática que impide que los cuerpos se toquen. Cuanto más cerca los acercamos, más fuerte es la repulsión, y nuevamente, debido a la inversa del cuadrado de la distancia en la Ley de Coulomb, la fuerza de repulsión nunca desaparece por completo.

Es importante destacar que, en la realidad, los cuerpos no consisten en cargas eléctricas macroscópicas que podemos observar y tocar directamente. En su lugar, están compuestos por átomos, que a su vez están formados por núcleos cargados positivamente y electrones cargados negativamente que orbitan alrededor de ellos. La mecánica cuántica y la estructura atómica nos enseñan que los electrones no ocupan órbitas precisas como los planetas en un sistema solar, sino que se distribuyen en nubes de probabilidad alrededor del núcleo.

Cuando tocamos un objeto, en realidad estamos experimentando la interacción electromagnética a una escala macroscópica. La sensación de tocar un objeto es el resultado de la repulsión electromagnética entre los electrones de nuestros átomos y los electrones de la superficie del objeto. Sin embargo, lo que percibimos como "tocar" es en realidad una interacción a muy pequeña escala a nivel atómico, donde los electrones nunca llegan a "tocarse" en el sentido tradicional debido a la repulsión electrostática.

En resumen, la idea de que dos cuerpos nunca pueden tocarse debido a la repulsión electrostática se basa en la Ley de Coulomb y en las propiedades de las cargas eléctricas. Cuando dos cuerpos tienen cargas eléctricas del mismo signo, ya sea positivas o negativas, experimentarán una fuerza de repulsión que aumenta a medida que intentamos acercarlos. Esta fuerza de repulsión es la consecuencia de la interacción entre las partículas cargadas eléctricamente a nivel subatómico. Aunque percibimos el acto de tocar un objeto en la vida cotidiana, en realidad estamos experimentando una interacción electromagnética a una escala muy pequeña, donde las partículas nunca llegan a tocarse físicamente debido a la repulsión electrostática. Esto es un ejemplo fascinante de cómo la física subyacente rige nuestras interacciones diarias a niveles que a menudo no somos conscientes.

 

Homenaje a mi Tío Diego.

Recuerdo perfectamente mi último curso de Bachillerato. Era el año 2003. Yo estaba acabando satisfactoriamente un 2.º de Bachillerato de Ciencias, pero aún tenía mis dudas sobre qué estudiar. Siempre me habían gustado las matemáticas, pero no tanto como para estudiar Matemáticas puras. Me encantaba también (y lo sigue haciendo) la Geografía y la Historia, hasta el punto de que no descartaba estudiarla en la Universidad. La ingeniería me fascinaba igualmente, especialmente la aeroespacial, pero el dibujo técnico no era mi fuerte, y sinceramente no me veía capaz de superarlo.

Fue entonces cuando mi querido Tío Diego entró en escena y resolvió de un plumazo mi dilema entre estudiar letras o ciencias. Me convenció de que, en la vida, siempre tendría tiempo para estudiar Historia por mi cuenta, de una manera autodidacta, mientras que conseguir lo mismo con una carrera como Física, Química, o cualquier ingeniería, iba a ser mucho más complicado.

La decisión final de estudiar Física fue fruto de una serie de factores, entre ellos mi torpeza con el dibujo técnico (lo que descartó la mayoría de las ingenierías, menos Teleco), y mi afán por comprender los fundamentos de cómo funcionan todas esas máquinas y dispositivos que utilizamos diariamente, amén de mi aprecio por las Matemáticas.

Apenas podía imaginarme lo mucho que iba a acertar con mi juicio, pues estudiar Física resultó ser una de las mejores decisiones de mi vida, acompañándome siempre en la forma de ver el mundo que me rodea y todos los fenómenos que ocurren en él.

 



Notas:
1 The nanotechnology web site: https://www.zyvex.com/nanotech/feynman.html
 


Rodrigo Alcaraz de la Osa.
Doctor en Física.
Profesor de Física y Química en el IES Peñacastillo de Cantabria.
Creador de FisiQuímicamente (Web): https://fisiquimicamente.com/