El Universo hubiera podido ser un desierto de partículas baldías, pero no lo ha sido. La materia es la fuente de la luz, del calor y la energía, es lo que da forma y propiedades a las cosas, ya estaba cuando la vida no existía y es la causa más primitiva de su evolución, está en el tejido neuronal que nos da la razón y nos hace conscientes de la realidad… ¡La materia lo es todo!

sábado, 30 de noviembre de 2013

18.- Fundamentos de mecánica cuántica.

Creo poder decir con toda tranquilidad que nadie comprende la mecánica cuántica… Les voy a describir cómo se comporta la naturaleza. Si ustedes sencillamente aceptan que tal vez se comporte de esa manera, les va a parecer que se trata de algo espléndido y maravilloso. Si pueden evitarlo, no vayan por ahí preguntándose “¿Pero cómo puede ser?”, porque van a meterse en un lío del que nadie ha conseguido aún salir. Nadie sabe cómo puede ser.  (Richard P. Feynman.)
Nadie sabe cómo puede ser pero no faltan interpretaciones, posiblemente porque lo llevamos en los genes y no podemos evitarlo. Interpretó Bohr, Born, y Heisenberg, siendo los principales responsables de la perspectiva oficial que conocemos como “interpretación de Copenhague”. Si Richard Feynman tenía razón y nadie comprende la mecánica cuántica, tal vez hubiera sido más prudente no cuestionar de forma oficial a la realidad objetiva, porque sigue siendo un lío del que nadie ha conseguido salir.
El origen del tremendo rompecabezas comenzó con la radiación emitida por un cuerpo negro, que sería el que absorbe toda la radiación para todas las frecuencias, no reflejando nada. Esta condición es ideal pero se puede construir algo que se parece mucho, por ejemplo un recinto cerrado con paredes interiores de metal. Con buen aislamiento, el calor interior será irradiado y reabsorbido por las paredes de forma incesante, y practicando un pequeño agujero se puede observar el espectro de emisión para diferentes temperaturas del interior. El resultado es como el que vemos en la figura, una emisión de energía para todas las longitudes de onda que tiene un máximo para una longitud de onda concreta, y dicho máximo se desplaza hacia menores longitudes de onda a medida que aumenta la temperatura del cuerpo negro. Lógicamente, el fenómeno debería explicarse con la conjunción de la termodinámica y la teoría electromagnética…
Pero fue un fracaso… No se podía hacer otra cosa que buscar ecuaciones para representar el fenómeno de la forma más ajustada posible, teniendo en cuenta el equilibrio térmico, la emisión continua para todas las frecuencias, y los máximos dependientes de cada temperatura. Al principio se trabajaba con bajas temperaturas y frecuencias, de forma que la energía era proporcional a la temperatura y al cuadrado de la frecuencia según la ecuación de Rayleigh-Jeans.
Cuando se calentó más al cuerpo negro, emitiendo con máxima intensidad para longitudes de onda más cortas, la energía predecible se disparaba muy por encima del valor medido. Al contrario, cuando Wilhelm Wien perfeccionó la ecuación para que se ajustase correctamente para pequeñas longitudes de onda, entonces la energía se disparaba con grandes longitudes de onda. Estos dos fracasos pasaron a ser conocidos como catástrofes ultravioleta e infrarroja, más o menos lo que indica la figura.
Max Planck encontró finalmente una ecuación que respondía correctamente para todas las frecuencias, una solución que parecía manipulada para llegar al resultado esperado sin conocimiento de causa. Nunca se había imaginado la energía de una radiación como algo discontinuo, y esa era precisamente la hipótesis que Planck, un verdadero absurdo en el contexto de su época.
Vamos a comentar brevemente la ecuación de Planck que aparece en la figura anterior, y que representa una densidad de energía en función de la frecuencia. Dentro de una cavidad con superficie radiante se mantienen mejor las ondas estacionarias, es decir, radiación que pierde menos energía por estar en estado de resonancia, con número entero de longitudes de onda entre pared y pared. Desde que Rayleigh y Jeans plantearon su hipótesis ya se conocía que al aumentar el cuadrado de la frecuencia también aumentaba el número de ondas que podían encontrar un camino estacionario, siendo proporcionales. La primera fracción de la ecuación de Planck es precisamente eso: Un número de modos de vibración que es proporcional al cuadrado de la frecuencia.
Parecía lógico que la energía radiada tenía que ser proporcional a la temperatura absoluta de la cavidad y al número de ondas estacionarias (suma de todos los modos de vibración), deduciendo de ahí que la energía sería proporcional a la temperatura absoluta y al cuadrado de la frecuencia, y terminando en la catástrofe ultravioleta como ya sabemos.
La segunda fracción de la ecuación de Planck representa la energía promedio que corresponde a una frecuencia dada, y que multiplicada por el número de modos para esa frecuencia (primera fracción) permite obtener la energía radiada por unidad de volumen, que es la densidad de energía. En esta segunda fracción está el origen de la mecánica cuántica, ya que las ondas estacionarias no pueden tener cualquier frecuencia, y Planck multiplicó a la frecuencia por una constante (h) para obtener la energía que aparece en el numerador (E = h·ν). Se trata entonces de la energía cuantificada de una onda, algo así como un paquete de energía indivisible que solo depende de la frecuencia y no de la intensidad de la radiación. Hay más intensidad si aumenta el número de paquetes, pero no porque aumente la energía de cada paquete.
Quitando la energía del numerador (h·ν), lo que queda de la segunda fracción es la probabilidad de que aparezca una onda con la frecuencia dada, exactamente la misma estadística que sirve para determinar cuántas partículas pueden aparecer con una energía determinada, la que sirvió a Bose y Einstein para predecir la formación de condensados como ondas de materia, excepto por un factor que es igual a 1 en el caso de fotones, no apareciendo en la ecuación de Planck. Por lo tanto, la segunda fracción representa el producto de la energía de un cuanto de radiación con frecuencia dada (ν), y su probabilidad, que depende de la energía (h·ν) y la temperatura absoluta dentro de la cavidad.
Einstein se toma en serio el aparente absurdo:
Una onda cuantificada era un absurdo desde que Young demostró el patrón de interferencias de la luz, razón por la que el mismo Planck no podía creer que su hipótesis fuera realista. Esperaba que alguien encontrase una explicación razonable de su ecuación, pero Einstein vino a confirmar que la hipótesis de Planck ya era lo razonable porque explicaba correctamente el efecto fotoeléctrico.
El efecto fotoeléctrico ya se conocía desde 1887, cuando Heinrich Hertz iluminó con luz ultravioleta dos electrodos en alta tensión, comprobando que saltaba el arco para distancias mayores que si estaba en oscuridad. Cuando se ilumina un metal no saltan electrones a menos que la luz supere una determinada frecuencia, en contra de la suposición de que deberían arrancarse más electrones a medida que se aumenta la intensidad. Einstein entendió por primera vez que la energía de una radiación está dividida en fracciones indivisibles, que puede haber muchas de esas fracciones y por lo tanto mucha energía, pero si la energía de cada fracción no basta para arrancar un electrón, entonces no se arrancarán electrones por mucho que se aumente la intensidad de la luz. Al contrario, una luz será muy débil si contiene muy pocas fracciones de energía, pero si cada fracción es de alta frecuencia como la luz ultravioleta, entonces arrancarán electrones.
Recordemos que la ley más fundamental de la mecánica cuántica es que la energía de un cuánto de luz, llamado “fotón”, es proporcional a la frecuencia (E = h·ν), donde h es la llamada constante de Planck, y se calcula fácilmente basándonos en el efecto fotoeléctrico:

Para una luz con frecuencia suficiente para arrancar electrones, se ajusta el potencial V de la fuente de forma que se detecte un paso de corriente. Disminuyendo el potencial hasta el punto exacto en el que deja de circular corriente, dicho potencial coincide con V0 y se denomina potencial de corte. Es básicamente un potencial de frenado de los electrones, que multiplicado por la carga del electrón nos da una energía de frenado que será igual a la energía cinética con la que se arranca el electrón, ya que se ajustó exactamente para que no llegaran a circular electrones.
La energía total del fotón incidente (ν) será entonces igual a la suma de dos energías: La de frenado (V0·e) mas la mínima necesaria para arrancar electrones (ν0), es decir, con la frecuencia umbral (ν0) por debajo de la cuál no salta ningún electrón. Si se repite con varias frecuencias puede trazarse una recta cuya pendiente será la relación h/e, y puesto que se conoce la carga del electrón y la pendiente de la recta, se determina la constante de Planck con unidades de energía por tiempo.
La paradoja estaba en el aire y los físicos se rompían la cabeza pensando: ¿Pero cómo puede ser? La misma luz que Newton imaginó formada por partículas, Young demostró que estaba formada por ondas, y ahora se demostraba que también cumplía la física de los choques elásticos, como corpúsculos. Entre otros experimentos que lo confirman se puede destacar el efecto Compton, demostrando que los rayos X que inciden sobre un metal se dispersan formando un determinado ángulo, y que dicho ángulo y la frecuencia de la radiación dispersada se ajustan perfectamente a la hipótesis de choques elásticos con electrones, porque no depende de la naturaleza del metal.
Para enredar más el problema, también eran ondas lo que siempre habían sido partículas:
En 1924, Louis de Broglie formuló una propuesta teórica para los electrones, pensando que si éstos interaccionan con fotones también deberían mostrar la misma dualidad. Ya sabemos que la energía de un fotón es ν, y si aplicamos la equivalencia de Einstein, la misma energía debería ser m·c2, resultando que ν = m·c2, o bien h·c/λ = m·c2, de donde λ = h / (m·c). Aunque los fotones no tienen masa, de Broglie pensaba que la expresión anterior podría tener sentido para las partículas cambiando c por la velocidad:
Longitud de onda asociada a una partícula…… λ = h / (m·v)
En el apartado sobre el problema de la realidad ya se explicaba la historia de la función de onda de Schrödinger, llegando a formular una expresión con características de onda y de corpúsculo. Max Born interpretó que la onda representada por la función de Schrödinger era de probabilidad, entendiendo que había un corpúsculo con una cierta probabilidad de aparecer en cada punto del espacio, y esa probabilidad era lo que oscilaba como una onda.
¿Pero cómo podía ser eso? Esta pregunta es el tremendo lío del que hablaba Richard Feynman, pero dejó de preocupar cuando Bohr formuló el llamado “principio de complementariedad” para explicar el extraño comportamiento de la luz y la materia.
La interpretación de Copenhague:
Bohr pensaba que se puede recurrir a conceptos clásicos dentro de los límites de la constante de Planck, como por ejemplo con la posición y el momento lineal de una partícula. Más allá del límite de Planck, los incrementos de posición y momento quedan indefinidos por la indeterminación de Heisenberg, resultando que su producto es proporcional a la constante de Planck (Δx·Δp = K·h). Cuando se afina demasiado en la determinación de una de las variables, el error de la otra se dispara y es imposible su determinación, independientemente de la precisión de medida. La mecánica cuántica tampoco puede precisar más en la determinación teórica, entendiendo que la naturaleza de la materia ya lleva implícita la incertidumbre, como una realidad que oscila sin control hasta que se hace una medida.
Einstein y el mismo Schrödinger manifestaron muy pronto su desacuerdo con la hipótesis indeterminista de la mecánica cuántica, y la complicación seguía en aumento cuando se analizaba más de una partícula, ya que dejaban de ser evidentes las relaciones entre las partes de un sistema complejo y el conjunto se comportaba como una sola cosa indivisible (incluyendo al observador), partes entrelazadas a distancia y de forma instantánea como se explica en el apartado del problema de la realidad. Indeterminismo, no localidad e inexistencia de realidad objetiva, fueron las razones de Einstein para pelear duramente en contra de la interpretación que se había impuesto, defendiendo que no podía ser completa y necesitaba madurar hasta llegar a una explicación determinista y objetiva.
En el apartado sobre el origen de la dualidad onda-corpúsculo se explica el experimento de la doble rendija, sin duda el más decisivo en relación con las interpretaciones. Las ondas de probabilidad como superposición de todos los estados posibles, el colapso, y la influencia de un dispositivo de observación, son las características más decisivas en todo experimento cuántico.
Relación entre mecánica cuántica y relatividad.
La función de onda de Schrödinger no fue pensada para explicar las consecuencias de velocidades muy grandes, pero en muchas ocasiones las partículas aceleradas alcanzan se acercan a la velocidad de la luz. Los primeros intentos de formular una función de onda relativista fueron un fracaso, porque predecían energías no acotadas, incluso negativas, y puesto que todo sistema disminuye su energía para hacerse más estable, las partículas deberían caer en un pozo de energía sin fondo, infinitamente negativa.
En 1930, Dirac consiguió deducir una ecuación que seguía teniendo el problema de las energías negativas, pero al menos predecía correctamente los fenómenos cuánticos con la suposición de que los niveles de energía negativos ya estaban ocupados por partículas. Esa extraña hipótesis condujo a la predicción de las antipartículas, pues en el caso de faltar una partícula con energía negativa, su ausencia se dejaría sentir como una partícula de carga opuesta. Por otra parte, lo que se llama vacío cuántico es equivalente a un mar infinito de partículas, como el pozo sin fondo pero lleno a rebosar de niveles negativos de energía.
Dirac predijo correctamente antipartículas que ya son una realidad bien demostrada, y en teoría son posibles antiátomos formando todo tipo de antimateria. Cuando una partícula encuentra su equivalente de antimateria se aniquilan transformando toda su masa en energía, muy superior a la emitida por cualquier fisión o fusión nuclear en las que solo se transforma una proporción de masa muy pequeña.
Excepto en el caso de partículas neutras, las antipartículas tiene carga eléctrica opuesta. Un positrón tiene la misma masa que un electrón pero su carga es positiva, un antiprotón será de carga negativa, y aunque los antineutrones no tienen carga también se aniquilan cuando entran en contacto con neutrones.
En general, la fusión entre relatividad y mecánica cuántica ha hecho posible la comprensión de numerosos fenómenos desconocidos, y el descubrimiento de tantas partículas que hacían parecer a la materia como un Universo insondable. En ese sentido, cuando Murray Gell-Mann sugirió que las partículas pesadas podían estar compuestas por quarks, y se demostró, la perspectiva de la materia se simplificó notablemente. Se considera que los quarks ya son partículas elementales que no se dividen, pero nunca se detectan aislados porque forman parejas de quark-antiquark o se agrupan de tres en tres para formar protones y neutrones.
Los quarks son las únicas partículas conocidas que aumentan su fuerza de enlace cuando aumenta la distancia que los divide, a modo de resortes que aumentan su tensión al estirarse. Son tan fuertes sus enlaces y tan elevada la energía necesaria para romperlos, que al dividirse se crean nuevos conjuntos de quarks, como resultado de la energía que rompe al conjunto original.
Teoría cuántica de campos.
En el apartado sobre teoría de campos y realidad ya se comentaba su escasa incidencia sobre la filosofía y la forma de pensar en la realidad, en lo que sí ha influido notablemente lo relacionado con las funciones de onda, entrelazamiento, colapsos, y otros muchos aspectos de la mecánica cuántica. Tampoco es un campo que se haya convertido en objetivo de la crítica, posiblemente porque apenas existen trabajos de divulgación que la expliquen con claridad para los no expertos. En líneas generales, parece claro que la teoría de campos ya no sigue con rigor las pautas oficiales de la interpretación de Copenhague, tiene aspectos con dudoso formalismo matemático, y a pesar de todo es la teoría más exacta de la historia como parecen demostrar los experimentos.
Nuevamente queda la pregunta en el aire: ¿Pero cómo puede ser? Esperemos al menos que siga siendo difícil evitar la pregunta, porque sería triste haber perdido el interés en seguir buscando lo que nadie sabe cómo puede ser…




No hay comentarios:

Publicar un comentario