El año 2005 ha sido proclamado año internacional de la Física. Uno de los desarrollos más espectaculares de esta ciencia durante el siglo XX ha sido el de la Física Cuántica que, aunque poco intuitiva al principio, es hoy parte fundamental en nuestra vida a través de numerosas aplicaciones que van desde las células fotoeléctricas que controlan las puertas de entrada de los ascensores y garajes, hasta la generación de energía en las centrales nucleares. En esta contribución, se esbozan los hitos más importantes del desarrollo de la Física Cuántica desde su nacimiento hasta nuestros días.
1. Algo no funciona
A finales del siglo XIX la mayor parte de los científicos tenían la impresión de que el cuadro de la Física estaba fundamentalmente completo. En 1898, lord Kelvin (1824-1907) resumía este sentimiento en un famoso discurso en el que afirmaba que la Física estaba acabada. Según él, solamente faltaban unas pocas constantes por medir, pero todas las grandes ideas ya habían sido formuladas. Quedaban, eso sí, dos pequeños problemas para que los jóvenes físicos los resolvieran en los años próximos: la radiación del cuerpo negro, y los extraños resultados de los experimentos de Michelson (1852-1931) sobre el éter. Aunque lord Kelvin se equivocaba en el sentido general de su discurso, identificó perfectamente los problemas que aún quedaban por resolver. De hecho, el primero condujo a Max Planck (1858-1947), en 1900, a introducir la cuantización de los intercambios de energía entre radiación y materia, que sería el inicio de la Mecánica Cuántica, y el segundo a Albert Einstein (1879-1955), a proponer en 1905, los primeros principios de la teoría de la relatividad en un trabajo titulado ''Electrodinámica de los cuerpos en movimiento''. Aquellos dos pequeños problemas revolucionaron toda la Física. En esta contribución repasamos brevemente el desarrollo histórico de la Física Cuántica.
Todo comenzó con el problema de la radiación del cuerpo negro. A finales del siglo XIX se disponía de una gran cantidad de medidas fiables y precisas sobre la radiación emitida por un pequeño orificio, hecho a una cavidad mantenida a temperatura constante. Era evidente que la intensidad de la radiación emitida variaba mucho con la frecuencia de la misma. Además, la intensidad de la radiación para una frecuencia dada, sólo dependía de la temperatura. Dos amigos de Planck, Wien y Rubens, habían hecho en Munich medidas complementarias de la radiación emitida por la cavidad, que mostraban que la curva de intensidad en función de la frecuencia era similar a la propuesta por Maxwell para la distribución de velocidades de las moléculas de un gas contenido en un recipiente a una temperatura dada. El propio Wien propuso una expresión fenomenológica, basándose en ese hecho, que describía muy bien los datos experimentales a alta frecuencia, pero se desviaba de ellos a baja frecuencia. Los ingleses, Rayleigh (1842-1919) y Jeans (1877-1946), se propusieron usar toda la potencia del electromagnetismo clásico para dar una explicación teórica a un fenómeno que parecía tan fundamental. A pesar de sus esfuerzos, la expresión que dedujeron en 1905 describía bien las observaciones a baja frecuencia, pero discrepaba dramáticamente de los datos experimentales a frecuencias altas. De hecho, su expresión llevaba a la denominada catástrofe ultravioleta: la teoría clásica predecía una intensidad infinita para frecuencias más allá de la región ultravioleta. ¡Una observación fundamental no se entendía y había que hacer algo!
2. Una hipótesis desesperada y sus consecuencias
En 1900, Planck propone que los intercambios de energía entre radiación y materia, ocurren de forma cuantizada en múltiplos enteros de una constante con dimensiones de acción (a partir de entonces denominada constante de Planck) por la frecuencia de la radiación. Con esta hipótesis, la catástrofe ultravioleta desaparecía. En la región de alta frecuencia, los cuantos de energía son tan grandes que sólo unos pocos modos vibracionales se pueden excitar con apreciable probabilidad. A medida que aumenta la frecuencia, menos y menos modos se excitan, cayendo a cero en el límite de frecuencias muy altas. Además, la expresión deducida por Planck, se ajustaba perfectamente a los datos experimentales.
Éste fue el comienzo de toda una revolución en la Física, más sorprendente cuando el propio Planck no estaba muy convencido de la validez de su hipótesis. Sin embargo, unos pocos físicos sí tomaron en serio su propuesta. Einstein la aplicó ampliándola a otro problema en boga a principios del siglo XX. Éste era el efecto fotoeléctrico que, observado primero por Hertz en la última década del siglo XIX, a principios del XX Lenard (1862-1947) había podido estudiar de un modo sistemático. Entre los resultados obtenidos por Lenard, llamó la atención el hecho de que los electrones más energéticos emitidos, tuvieran la misma energía independientemente de la intensidad de la radiación incidente. Esto era inexplicable en términos de las teorías clásicas, ya que la radiación incidente no era más que una onda electromagnética, el campo electromagnético asociado actuaba sobre los electrones ligados del metal fotosensible. De esta forma, la fuerza que actuaba sobre un electrón era proporcional al campo eléctrico, pero la amplitud del campo al cuadrado es directamente proporcional a la intensidad de la onda luminosa. De forma que aumentando la intensidad de la luz, aumentamos la amplitud de la onda y, correspondientemente, la fuerza que se ejerce sobre el electrón es mayor. En consecuencia, el electrón debería ser emitido con mayor velocidad, en contra de lo observado. Einstein retomó la idea de Newton de que la luz era un chorro de corpúsculos y la combinó con la hipótesis de Planck, de forma que propuso que no sólo los intercambios de energía entre radiación y materia estaban cuantizados sino que la propia radiación no era más que un conjunto de partículas. A éstas las denominó fotones. Los fotones portaban una energía igual a la constante de Planck por la frecuencia de la radiación. En este esquema, un aumento de intensidad de la luz significa un aumento en el número de fotones, pero todos ellos de la misma energía. En consecuencia, si se acepta que en el efecto fotoeléctrico un fotón es absorbido completamente por el metal, y toda su energía se transfiere a un electrón, se pueden explicar de un modo sencillo todas las observaciones sobre el efecto fotoeléctrico. Este trabajo de Einstein (1905) fue un espaldarazo importante a la teoría cuántica.
Aunque no lo hemos mencionado anteriormente, había un tercer conjunto de observaciones experimentales cuya explicación en términos de las teorías clásicas era imposible. Desde mediados del siglo XVIII se había visto que la radiación emitida por gases calientes no era un continuo, sino que aparecía un espectro de líneas brillantes, características para cada gas. Thomas Melvill (1697-1778) fue el primero que descompuso la luz con un prisma, y observó el espectro de líneas brillantes de gases calientes, en 1752. En 1885, Balmer (1825-1898) publicó el resultado de sus observaciones sobre las frecuencias emitidas por el hidrógeno en la región visible del espectro electromagnético. Balmer propuso una expresión matemática que daba exactamente las longitudes de onda medidas en el hidrógeno. No obstante, él mismo sólo lo consideró como un juego matemático. En ese tiempo, nadie tenía la menor idea de cómo eran los constituyentes “básicos” de la materia, los átomos. J.J. Thomson (1856-1940) descubrió en 1897 que los rayos catódicos no eran más que chorros de partículas con una determinada relación carga/masa, esas partículas recibieron el nombre de electrones. Este descubrimiento y el de la radioactividad se unieron para que Ernest Rutherford (1871-1937), en 1907, hiciera la primera propuesta de una estructura atómica en la que había una parte central muy pequeña, denominada núcleo, en la que se concentraba la carga positiva, mientras que los electrones rodeaban al núcleo a grandes distancias. De todas formas, este modelo planetario del átomo presentaba serios problemas de estabilidad desde el punto de vista clásico. No hubo avances significativos sobre la estructura atómica hasta 1912 en que Niels Bohr (1885-1962), propone su modelo para el átomo de hidrógeno. En él se mantenía la imagen planetaria del átomo, pero se proponía la existencia de órbitas estacionarias en las que el electrón no radiaba energía. Las órbitas permitidas eran aquéllas en las que el momento angular del electrón era un múltiplo entero de la constante de Planck dividida por 2. Bohr retomó las ideas de cuantización de Planck y Einstein, y propuso que el átomo sólo emitía o absorbía energía cuando el electrón pasaba de una órbita permitida a otra. Estas ideas consiguieron aceptación rápidamente, al permitir la obtención de la fórmula de Balmer como un caso particular (aquel en que el número cuántico final era n=2).
El éxito del modelo de Bohr y otros modelos relacionados fue inmediato. Sin embargo, el estudio del efecto Zeeman (1865-1943), anómalo, presentaba un reto que no pudo resolverse hasta que a Pauli (1900-1958) se le ocurrió la hipótesis de una rotación intrínseca oculta. Enseguida comprobó que aquella idea funcionaba para explicar el efecto Zeeman en todos sus detalles, pero pensó que no era más que un truco matemático sin ninguna realidad física. Por las mismas fechas los físicos holandeses Uhlenbeck (1900-1988) y Goudsmit (1902-1978), tuvieron la misma idea y, animados por su profesor Ehrenfest (1880-1933), la publicaron y mostraron que el efecto Zeeman anómalo, se explicaba de un modo natural considerando un momento angular intrínseco para el electrón. Con la introducción del espín, y con la necesidad de explicar por qué los electrones no se encontraban todos en el estado fundamental, Pauli enunció su famoso principio de exclusión, que Bohr utilizó para explicar la tabla periódica y las propiedades de los distintos elementos, en función de la constitución de su corona electrónica.
Los trabajos de Planck y Einstein indicaban un carácter dual de la radiación, en tanto que la materia no parecía presentar esta dualidad. Este hecho no satisfacía a Louis de Broglie (1892-1983), que consideraba que la naturaleza debía presentar simetría en cuanto a la dualidad onda-corpúsculo. Así, propuso en 1923 que las partículas debían exhibir carácter ondulatorio. Einstein apoyó las ideas de Louis de Broglie. Sólo un par de años después éstas fueron confirmadas experimentalmente por Davisson (1881-1958) y Germer (1896-1971), que observaron la difracción de electrones sobre un material cristalino, y obtuvieron imágenes de interferencia características de ondas. Los experimentos de G.P. Thomson (1892-1975) de difracción de electrones sobre sustancias policristalinas, confirmaron la hipótesis propuesta por de Broglie. Curiosamente, J.J. Thomson estableció el carácter corpuscular de los electrones al medir su relación carga-masa, y su hijo G.P. Thomson, 30 años después, establecía su carácter ondulatorio con estos experimentos de difracción.
3. Formulación de la Mecánica Cuántica
Así las cosas, entre 1925 y 1926, se produce el nacimiento de la teoría cuántica tal como la conocemos y usamos hoy día. En realidad, no hubo una única formulación sino tres formulaciones distintas, aunque, posteriormente, se demostró su equivalencia. Esas formulaciones fueron debidas a Heisenberg (1901-1976), Schroedinger (1887-1961) y Dirac (1902-1984). Heisenberg analizando los datos espectroscópicos del átomo de hidrógeno, enseguida renunció a la idea clásica de órbita. ¿Qué sentido tenía hablar de un concepto que no se podía observar? Por tanto, se olvida del modelo planetario del átomo e intenta correlacionar los números cuánticos y las energías, con las frecuencias e intensidades que se observaban en el espectro. En esta imagen, el átomo era como un conjunto de osciladores para los que en cada instante se podían definir sus momentos lineales (p) y sus desviaciones con respecto a la posición de equilibrio (x). Heisenberg observa que, agrupados estos valores en filas y columnas, no se cumplía que xp fuera igual a px, en contra de la bien conocida propiedad conmutativa de la multiplicación. Heisenberg comunicó sus resultados a Born (1882-1970) quien, en colaboración con su discípulo Jordan (1902-1980), se dio cuenta de que las agrupaciones de números que había ideado Heisenberg, no eran otra cosa que matrices. Había nacido la mecánica matricial, que demostró su utilidad deduciendo el espectro del hidrógeno en todos sus detalles. Sin embargo, la teoría de Heisenberg nacía sin ninguna imagen mecánica, ya no había órbitas ni trayectorias ni se entraba en si el electrón era onda o partícula. Además, la no conmutatividad entre posición y momento parecía indicar que el orden en que se realizaran las medidas era importante.
Sobre las mismas fechas, Erwin Schroedinger propuso una formulación alternativa de la mecánica cuántica, basada en la idea de de Broglie de las ondas de materia. La ecuación de Schroedinger es una ecuación de ondas cuya solución es una onda que representa al sistema en estudio. Schroedinger reducía el problema de obtener los estados energéticos del sistema al problema de obtener los sobretonos, en un problema de análisis de Fourier. Aunque el formalismo mostró su utilidad para estudiar el átomo de hidrógeno, la interpretación del significado de la función de onda no era claro. Max Born introdujo enseguida la interpretación probabilística de la función de onda, según la cual el cuadrado de la función de onda proporciona la densidad de probabilidad de encontrar al sistema en un entorno dado. Born notó que la probabilidad que proporcionaba la función de onda, no era una probabilidad debida a ignorancia, sino que era todo lo que la Naturaleza nos permitía conocer sobre el sistema. Al propio Schroedinger, que inicialmente veía su teoría como una prolongación de las ideas clásicas, le parecía absurda la idea de probabilidad asociada a una superposición de estados cuánticos que, tras la propuesta de Born, ganó adeptos rápidamente. Schroedinger propuso su famosa paradoja del gato para mostrar que la idea de probabilidad junto con una función de onda que fuera superposición de estados, llevaba a resultados inaceptables. Aún hoy día existe controversia sobre la interpretación de la mecánica cuántica (colapso de la función de onda, interpretación de la medición, muchos mundos, consciencia y subconsciente, etc), pero las preguntas relacionadas son más materia filosófica que física, ya que desde un punto de vista descriptivo, operacional y predictivo, la mecánica cuántica ha mostrado su validez en los más variados escenarios. El mismo Schroedinger mostró la equivalencia entre su formulación y la de Heisenberg. La formulación de Schroedinger es la que hoy se enseña en la mayor parte de las universidades del mundo.
Dirac conoció la formulación de Heisenberg de la mecánica cuántica directamente de él, en una conferencia pronunciada en Cambridge donde Dirac era estudiante. Inmediatamente se dio cuenta de la importancia de la no conmutatividad, y se basó en esta propiedad para hacer su propia formulación de la mecánica cuántica, a la que se conoce con el nombre de formulación algebraica. El mismo Dirac mostró que tanto la mecánica matricial de Heisenberg como la ondulatoria de Schroedinger, eran casos especiales de su propia formulación. También fue Dirac quien primero aplicó las ideas de la mecánica cuántica a la teoría del electromagnetismo de Maxwell, dando la primera formulación incipiente de la teoría cuántica de campos. Las ideas de Dirac fueron desarrolladas años más tarde por Feynman (1918-1988), Dyson (1923-), Schwinger (1918-1994) y Tomonaga (1913-1979), dando forma a la teoría de la electrodinámica cuántica.
La formulación por parte de Heisenberg del principio de indeterminación, fue una carga de profundidad para el determinismo, según había enunciado Laplace más de un siglo antes. El principio de indeterminación impedía la determinación simultánea de posición y momento de un sistema y, por tanto, hacía imposible conocer la evolución del sistema, aunque las ecuaciones de evolución de la función de onda fueran completamente deterministas. De todas formas, la dicotomía determinismo-indeterminismo es un problema “filosófico”, que ha dado lugar a multitud de artículos en la literatura.
4. Desarrollos hasta nuestros días
Aunque el cuadro matemático de la Mecánica Cuántica estaba básicamente completo en los años 30 tras la interpretación probabilística de la función de onda de Born y la introducción del concepto de espacio de Hilbert y la teoría general de operadores, su naturaleza indeterminista no convencía a muchos. En 1935 Einstein, Podolsky y Rosen (EPR) publicaron un artículo en el que, según ellos, se demostraba que la Mecánica Cuántica no podía ser la última descripción del mundo físico en tanto que era indeterminista de un modo fundamental. La idea básica en el artículo EPR es que si, sin perturbar un sistema en modo alguno, podemos predecir con certeza el valor de una cantidad física, entonces tiene que existir un elemento de realidad física asociado a esa cantidad física. Según esto, uno debe esperar encontrar una teoría determinista local más completa que la Mecánica Cuántica, que es intrínsecamente no-local e indeterminista. La discusión permaneció en un estado teórico hasta 1965, año en el que Bell (1928-1990) probó sus conocidas desigualdades. Bell estableció unas relaciones matemáticas estrictas que debía cumplir cualquier teoría local de variables ocultas y que, sin embargo, podían ser violadas por la Mecánica Cuántica. A finales de los 70 y principios de los 80 se realizaron detallados experimentos que verificaron la violación de las desigualdades de Bell y, consecuentemente, establecieron la validez de la Mecánica Cuántica.
Desde los años 30 no han cesado los desarrollos y aplicaciones de la Mecánica Cuántica. Por citar algunos de los eventos más significativos, en 1930 Rabi inventa la resonancia magnética, en 1938 se descubre el helio superfluido y se conecta esta observación con la condensación Bose-Einstein. En 1941 Landau propone su teoría de la superfluidez, en 1946 se inventa el transistor, en 1949 se desarrolla la Electrodinámica Cuántica, en 1957 Baarden, Cooper y Schrieffer formulan su teoría de la superconductividad, en 1962 Townes desarrolla el láser. Más recientemente, en 1985, se inventa el microscopio de efecto túnel, y en 1995 se observa experimentalmente la condensación Bose-Einstein en gases atómicos a muy bajas temperaturas. Éstos y otros muchos desarrollos se encuentran presentes en nuestra vida diaria, y han revolucionado nuestra percepción de la Naturaleza.
5. Algunas líneas de investigación en la actualidad
El desarrollo de la Mecánica Cuántica ha sido extraordinario durante la segunda mitad del siglo XX. Su aplicación a problemas físicos ha cubierto todo el rango de escalas, desde las gigantescas distancias de la Cosmología hasta las extremadamente pequeñas de la Física de Partículas Elementales. Por tanto, en casi cualquier línea actual de investigación en cualquier campo de la Física, la Mecánica Cuántica juega un papel fundamental. Seguidamente cito unos pocos temas que, personalmente, encuentro de interés especial, y son de gran actualidad:
1. Computación cuántica
2. Condensados de Bose-Einstein
3. Óptica cuántica
4. Entrelazamiento de estados cuánticos
5. Comunicaciones y confidencialidad
6. Manipulaciones de átomos individuales mediante radiación láser.
7. La interacción débil y violación de paridad en átomos y en moléculas quirales.
8. Estudio de transiciones prohibidas (de interés en astrofísica).
9. Espectroscopía libre de ensanchamiento Doppler mediante láseres sintonizables.
10. Aplicación de superordenadores al cálculo de moléculas complejas.
11. Estudio de colisiones atómicas.
12. Átomos Rydberg con un electrón en un estado de número cuántico principal muy elevado (n del orden de 100). Estos átomos son muy estables frente a transiciones electromagnéticas, y se espera que permitan determinar la constante de Rydberg con gran precisión.
Así pues, hemos puesto de manifiesto que el desarrollo de la Mecánica Cuántica ha constituido un elemento esencial en el desarrollo de toda la Física del siglo XX. El conocimiento básico de esta materia constituye un pilar fundamental en la formación de todo físico, jugando un papel esencial en todas las ramas de la Física.
6. Un último comentario
En este trabajo hemos presentado brevemente el desarrollo de uno de los campos fundamentales de la Física actual. En la secuencia de este desarrollo se puede observar que sigue las pautas del método científico: a) observación de hechos experimentales que no se pueden explicar con las teorías conocidas, b) formulación de modelos sencillos que permiten entender parcialmente las observaciones experimentales, c) nuevas observaciones ponen de manifiesto las limitaciones de los modelos propuestos, d) se formula una teoría que da cuenta de todo lo observado y que se considera la teoría definitiva mientras no se observen hechos experimentales que no pueda explicar, e) una vez que se entiende como funciona la Naturaleza, se empiezan a desarrollar aplicaciones que redundan en beneficio de toda la sociedad.
En esta secuencia se pone de manifiesto que el enfrentamiento que desde algunas instancias se quiere hacer entre lo que es Ciencia básica y Ciencia aplicada no existe. La Ciencia sólo tiene que ser buena, los aspectos básicos y aplicados son dos caras de la misma moneda que difieren sólo temporalmente. En el caso de la Mecánica Cuántica se ve claramente que lo que inicialmente era una curiosidad para unos pocos empeñados en entender la naturaleza (aspectos básicos), ha terminado por impregnar toda la sociedad (transistores, diodos, semiconductores, células fotoeléctricas, generación de energía, terapia, etc.). La Ciencia básica de hoy será la que genere aplicaciones mañana. Tanto los aspectos básicos como los aplicados son apasionantes, y hay mucha e interesante tarea para jóvenes con inquietudes científicas.
Por último, me gustaría mencionar que acabo de asistir a un seminario sobre la titulación de Física en Europa, y cito a continuación algunas de las conclusiones que se han presentado y que considero de interés para los potenciales estudiantes de física: 1) Los empresarios que contratan a físicos están extraordinariamente contentos con su trabajo por su capacidad para afrontar problemas nuevos, 2) el paro entre los licenciados en Física es prácticamente inexistente, 3) el nivel de satisfacción de los físicos en sus trabajos es muy alto, y las habilidades que adquieren en sus estudios les son muy útiles. Así que animo a los jóvenes que sientan inquietudes por esta materia a que estudien Física, los estudios son duros pero los resultados pueden ser muy gratificantes.
No hay comentarios:
Publicar un comentario