Creo poder decir con toda
tranquilidad que nadie comprende la mecánica cuántica… Les voy a describir cómo
se comporta la naturaleza. Si ustedes sencillamente aceptan que tal vez se
comporte de esa manera, les va a parecer que se trata de algo espléndido y
maravilloso. Si pueden evitarlo, no vayan por ahí preguntándose “¿Pero cómo
puede ser?”, porque van a meterse en un lío del que nadie ha conseguido aún
salir. Nadie sabe cómo puede ser. (Richard P. Feynman.)
Nadie sabe cómo puede ser pero no faltan interpretaciones,
posiblemente porque lo llevamos en los genes y no podemos evitarlo. Interpretó
Bohr, Born, y Heisenberg, siendo los principales responsables de la perspectiva
oficial que conocemos como “interpretación de Copenhague”. Si Richard Feynman
tenía razón y nadie comprende la mecánica cuántica, tal vez hubiera sido más
prudente no cuestionar de forma oficial a la realidad objetiva, porque sigue
siendo un lío del que nadie ha conseguido salir.
El origen del tremendo rompecabezas comenzó con la radiación
emitida por un cuerpo negro, que sería el que absorbe toda la radiación para
todas las frecuencias, no reflejando nada. Esta condición es ideal pero se
puede construir algo que se parece mucho, por ejemplo un recinto cerrado con
paredes interiores de metal. Con buen aislamiento, el calor interior será
irradiado y reabsorbido por las paredes de forma incesante, y practicando un
pequeño agujero se puede observar el espectro de emisión para diferentes
temperaturas del interior. El resultado es como el que vemos en la figura, una
emisión de energía para todas las longitudes de onda que tiene un máximo para
una longitud de onda concreta, y dicho máximo se desplaza hacia menores
longitudes de onda a medida que aumenta la temperatura del cuerpo negro.
Lógicamente, el fenómeno debería explicarse con la conjunción de la
termodinámica y la teoría electromagnética…
Pero fue un fracaso… No se podía hacer otra cosa que buscar
ecuaciones para representar el fenómeno de la forma más ajustada posible,
teniendo en cuenta el equilibrio térmico, la emisión continua para todas las
frecuencias, y los máximos dependientes de cada temperatura. Al principio se trabajaba
con bajas temperaturas y frecuencias, de forma que la energía era proporcional
a la temperatura y al cuadrado de la frecuencia según la ecuación de
Rayleigh-Jeans.
Cuando se calentó más al cuerpo negro, emitiendo con máxima
intensidad para longitudes de onda más cortas, la energía predecible se
disparaba muy por encima del valor medido. Al contrario, cuando Wilhelm Wien
perfeccionó la ecuación para que se ajustase correctamente para pequeñas
longitudes de onda, entonces la energía se disparaba con grandes longitudes de
onda. Estos dos fracasos pasaron a ser conocidos como catástrofes ultravioleta
e infrarroja, más o menos lo que indica la figura.
Max Planck encontró finalmente una ecuación que respondía
correctamente para todas las frecuencias, una solución que parecía manipulada
para llegar al resultado esperado sin conocimiento de causa. Nunca se había
imaginado la energía de una radiación como algo discontinuo, y esa era
precisamente la hipótesis que Planck, un verdadero absurdo en el contexto de su
época.
Vamos a comentar brevemente la ecuación de Planck que
aparece en la figura anterior, y que representa una densidad de energía en
función de la frecuencia. Dentro de una cavidad con superficie radiante se
mantienen mejor las ondas estacionarias, es decir, radiación que pierde menos
energía por estar en estado de resonancia, con número entero de longitudes de
onda entre pared y pared. Desde que Rayleigh y Jeans plantearon su hipótesis ya
se conocía que al aumentar el cuadrado de la frecuencia también aumentaba el número
de ondas que podían encontrar un camino estacionario, siendo proporcionales. La
primera fracción de la ecuación de Planck es precisamente eso: Un número de
modos de vibración que es proporcional al cuadrado de la frecuencia.
Parecía lógico que la energía radiada tenía que ser
proporcional a la temperatura absoluta de la cavidad y al número de ondas
estacionarias (suma de todos los modos de vibración), deduciendo de ahí que la
energía sería proporcional a la temperatura absoluta y al cuadrado de la
frecuencia, y terminando en la catástrofe ultravioleta como ya sabemos.
La
segunda fracción de la ecuación de Planck representa la energía promedio que
corresponde a una frecuencia dada, y que multiplicada por el número de modos
para esa frecuencia (primera fracción) permite obtener la energía radiada por
unidad de volumen, que es la densidad de energía. En esta segunda fracción está
el origen de la mecánica cuántica, ya que las ondas estacionarias no pueden
tener cualquier frecuencia, y Planck multiplicó a la frecuencia por una
constante (h) para obtener la energía que aparece en el numerador (E = h·ν). Se trata entonces de la energía
cuantificada de una onda, algo así como un paquete de energía indivisible que solo
depende de la frecuencia y no de la intensidad de la radiación. Hay más intensidad
si aumenta el número de paquetes, pero no porque aumente la energía de cada
paquete.
Quitando la energía del numerador (h·ν), lo que queda de la segunda fracción
es la probabilidad de que aparezca una onda con la frecuencia dada, exactamente
la misma estadística que sirve para determinar cuántas partículas pueden
aparecer con una energía determinada, la que sirvió a Bose y Einstein para
predecir la formación de condensados como ondas de materia, excepto por un
factor que es igual a 1 en el caso de fotones, no apareciendo en la ecuación de
Planck. Por lo tanto, la segunda fracción representa el producto de la energía
de un cuanto de radiación con frecuencia dada (ν), y su probabilidad, que depende de la energía (h·ν) y la temperatura absoluta dentro
de la cavidad.
Einstein se toma en serio el
aparente absurdo:
Una onda cuantificada era un absurdo desde que Young demostró
el patrón de interferencias de la luz, razón por la que el mismo Planck no podía
creer que su hipótesis fuera realista. Esperaba que alguien encontrase una
explicación razonable de su ecuación, pero Einstein vino a confirmar que la hipótesis
de Planck ya era lo razonable porque explicaba correctamente el efecto
fotoeléctrico.
El efecto fotoeléctrico ya se conocía desde 1887, cuando
Heinrich Hertz iluminó con luz ultravioleta dos electrodos en alta tensión,
comprobando que saltaba el arco para distancias mayores que si estaba en oscuridad.
Cuando se ilumina un metal no saltan electrones a menos que la luz supere una
determinada frecuencia, en contra de la suposición de que deberían arrancarse más
electrones a medida que se aumenta la intensidad. Einstein entendió por primera
vez que la energía de una radiación está dividida en fracciones indivisibles,
que puede haber muchas de esas fracciones y por lo tanto mucha energía, pero si
la energía de cada fracción no basta para arrancar un electrón, entonces no se
arrancarán electrones por mucho que se aumente la intensidad de la luz. Al
contrario, una luz será muy débil si contiene muy pocas fracciones de energía,
pero si cada fracción es de alta frecuencia como la luz ultravioleta, entonces
arrancarán electrones.
Recordemos que la ley más fundamental de la mecánica cuántica
es que la energía de un cuánto de luz, llamado “fotón”, es proporcional a la
frecuencia (E = h·ν), donde
h es la llamada constante de Planck, y se calcula fácilmente basándonos en el
efecto fotoeléctrico:
Para una luz con frecuencia suficiente para arrancar
electrones, se ajusta el potencial V de la fuente de forma que se detecte un
paso de corriente. Disminuyendo el potencial hasta el punto exacto en el que
deja de circular corriente, dicho potencial coincide con V0 y se
denomina potencial de corte. Es básicamente un potencial de frenado de los
electrones, que multiplicado por la carga del electrón nos da una energía de
frenado que será igual a la energía cinética con la que se arranca el electrón,
ya que se ajustó exactamente para que no llegaran a circular electrones.
La energía total del fotón incidente (h·ν) será entonces igual a la suma de
dos energías: La de frenado (V0·e)
mas la mínima necesaria para arrancar electrones (h·ν0), es decir, con la frecuencia umbral
(ν0) por debajo de la cuál no salta ningún electrón. Si se
repite con varias frecuencias puede trazarse una recta cuya pendiente será la
relación h/e, y puesto que se conoce la carga del electrón y la pendiente de la
recta, se determina la constante de Planck con unidades de energía por tiempo.
La paradoja estaba en el aire y los físicos se rompían la
cabeza pensando: ¿Pero cómo puede ser? La misma luz que Newton imaginó formada
por partículas, Young demostró que estaba formada por ondas, y ahora se
demostraba que también cumplía la física de los choques elásticos, como corpúsculos.
Entre otros experimentos que lo confirman se puede destacar el efecto Compton,
demostrando que los rayos X que inciden sobre un metal se dispersan formando un
determinado ángulo, y que dicho ángulo y la frecuencia de la radiación
dispersada se ajustan perfectamente a la hipótesis de choques elásticos con
electrones, porque no depende de la naturaleza del metal.
Para enredar más el problema, también
eran ondas lo que siempre habían sido partículas:
En
1924, Louis de Broglie formuló una propuesta teórica para los electrones,
pensando que si éstos interaccionan con fotones también deberían mostrar la
misma dualidad. Ya sabemos que la energía de un fotón es h·ν, y si aplicamos la equivalencia de
Einstein, la misma energía debería ser m·c2,
resultando que h·ν = m·c2, o bien h·c/λ = m·c2, de donde λ
= h / (m·c). Aunque los fotones no
tienen masa, de Broglie pensaba que la expresión anterior podría tener sentido
para las partículas cambiando c por la velocidad:
Longitud de onda
asociada a una partícula…… λ = h / (m·v)
En el apartado sobre el problema de la realidad ya se explicaba la historia de la función de onda de Schrödinger, llegando a formular
una expresión con características de onda y de corpúsculo. Max Born interpretó que
la onda representada por la función de Schrödinger era de probabilidad, entendiendo
que había un corpúsculo con una cierta probabilidad de aparecer en cada punto
del espacio, y esa probabilidad era lo que oscilaba como una onda.
¿Pero cómo podía ser eso? Esta
pregunta es el tremendo lío del que hablaba Richard Feynman, pero dejó de preocupar
cuando Bohr formuló el llamado “principio de complementariedad” para explicar
el extraño comportamiento de la luz y la materia.
La interpretación de Copenhague:
Bohr
pensaba que se puede recurrir a conceptos clásicos dentro de los límites de la
constante de Planck, como por ejemplo con la posición y el momento lineal de
una partícula. Más allá del límite de Planck, los incrementos de posición y
momento quedan indefinidos por la indeterminación de Heisenberg, resultando que
su producto es proporcional a la constante de Planck (Δx·Δp = K·h). Cuando se afina demasiado en la determinación de una
de las variables, el error de la otra se dispara y es imposible su determinación,
independientemente de la precisión de medida. La mecánica cuántica tampoco
puede precisar más en la determinación teórica, entendiendo que la naturaleza
de la materia ya lleva implícita la incertidumbre, como una realidad que oscila
sin control hasta que se hace una medida.
Einstein y el mismo Schrödinger manifestaron muy pronto su desacuerdo con la hipótesis
indeterminista de la mecánica cuántica, y la complicación seguía en aumento
cuando se analizaba más de una partícula, ya que dejaban de ser evidentes las
relaciones entre las partes de un sistema complejo y el conjunto se comportaba
como una sola cosa indivisible (incluyendo al observador), partes entrelazadas
a distancia y de forma instantánea como se explica en el apartado del problema de la realidad. Indeterminismo, no localidad e
inexistencia de realidad objetiva, fueron las razones de Einstein para pelear
duramente en contra de la interpretación que se había impuesto, defendiendo que
no podía ser completa y necesitaba madurar hasta llegar a una explicación determinista
y objetiva.
En el apartado sobre el origen de la dualidad onda-corpúsculo se explica el experimento de la doble rendija, sin
duda el más decisivo en relación con las interpretaciones. Las ondas de
probabilidad como superposición de todos los estados posibles, el colapso, y la
influencia de un dispositivo de observación, son las características más
decisivas en todo experimento cuántico.
Relación entre mecánica cuántica y
relatividad.
La función de onda de Schrödinger no fue pensada para explicar las consecuencias de
velocidades muy grandes, pero en muchas ocasiones las partículas aceleradas
alcanzan se acercan a la velocidad de la luz. Los primeros intentos de formular
una función de onda relativista fueron un fracaso, porque predecían energías no
acotadas, incluso negativas, y puesto que todo sistema disminuye su energía
para hacerse más estable, las partículas deberían caer en un pozo de energía
sin fondo, infinitamente negativa.
En 1930, Dirac consiguió
deducir una ecuación que seguía teniendo el problema de las energías negativas,
pero al menos predecía correctamente los fenómenos cuánticos con la suposición
de que los niveles de energía negativos ya estaban ocupados por partículas. Esa
extraña hipótesis condujo a la predicción de las antipartículas, pues en el
caso de faltar una partícula con energía negativa, su ausencia se dejaría
sentir como una partícula de carga opuesta. Por otra parte, lo que se llama vacío
cuántico es equivalente a un mar infinito de partículas, como el pozo sin fondo
pero lleno a rebosar de niveles negativos de energía.
Dirac predijo correctamente antipartículas
que ya son una realidad bien demostrada, y en teoría son posibles antiátomos formando
todo tipo de antimateria. Cuando una partícula encuentra su equivalente de
antimateria se aniquilan transformando toda su masa en energía, muy superior a
la emitida por cualquier fisión o fusión nuclear en las que solo se transforma
una proporción de masa muy pequeña.
Excepto en el caso de partículas
neutras, las antipartículas tiene carga eléctrica opuesta. Un positrón tiene la
misma masa que un electrón pero su carga es positiva, un antiprotón será de
carga negativa, y aunque los antineutrones no tienen carga también se aniquilan
cuando entran en contacto con neutrones.
En general, la fusión entre relatividad y mecánica cuántica
ha hecho posible la comprensión de numerosos fenómenos desconocidos, y el
descubrimiento de tantas partículas que hacían parecer a la materia como un
Universo insondable. En ese sentido, cuando Murray Gell-Mann sugirió que las
partículas pesadas podían estar compuestas por quarks, y se demostró, la
perspectiva de la materia se simplificó notablemente. Se considera que los
quarks ya son partículas elementales que no se dividen, pero nunca se detectan aislados
porque forman parejas de quark-antiquark o se agrupan de tres en tres para
formar protones y neutrones.
Los quarks son las únicas partículas conocidas que aumentan
su fuerza de enlace cuando aumenta la distancia que los divide, a modo de
resortes que aumentan su tensión al estirarse. Son tan fuertes sus enlaces y
tan elevada la energía necesaria para romperlos, que al dividirse se crean
nuevos conjuntos de quarks, como resultado de la energía que rompe al conjunto
original.
Teoría cuántica de campos.
En el apartado sobre teoría de campos y realidad ya se comentaba su escasa incidencia sobre la filosofía y la forma
de pensar en la realidad, en lo que sí ha influido notablemente lo relacionado
con las funciones de onda, entrelazamiento, colapsos, y otros muchos aspectos
de la mecánica cuántica. Tampoco es un campo que se haya convertido en objetivo
de la crítica, posiblemente porque apenas existen trabajos de divulgación que
la expliquen con claridad para los no expertos. En líneas generales, parece
claro que la teoría de campos ya no sigue con rigor las pautas oficiales de la
interpretación de Copenhague, tiene aspectos con dudoso formalismo matemático,
y a pesar de todo es la teoría más exacta de la historia como parecen demostrar
los experimentos.
Nuevamente queda la pregunta en el aire: ¿Pero cómo puede
ser? Esperemos al menos que siga siendo difícil evitar la pregunta, porque
sería triste haber perdido el interés en seguir buscando lo que nadie sabe cómo
puede ser…