«La física cuántica es asombrosa y especialmente sorprendente. Ya lo decía Niels Bohr: “Quien no se haya escandalizado por la teoría cuántica es que no la ha entendido”. Hoy nos disponemos a desvelar su realidad, su historia, sus pilares más importantes y sus hechos más fascinantes. Veamos pues, cuáles son:

1. Una ciencia no determinista. La teoría cuántica rompe contundentemente con la física clásica newtoniana y con el determinismo de Laplace. Se trata de una ciencia con incapacidad para la predicción definida, es decir, de cada observación predice un cierto número de resultados distintos y sus probabilidades de ocurrencia. A diferencia de la mecánica clásica newtoniana, la física cuántica abandona la idea de partículas concebidas como puntos definidos cuya posición y estado de movimiento se conocen en cualquier instante de tiempo y entiende la partícula como una entidad repartida en el espacio. No hay trayectorias definidas dadas unas condiciones iniciales, sino que solo conocemos probabilidades de encontrar una partícula en una determinada región del espacio.

2. Max Planck como padre de la teoría cuántica. La publicación de la Ley de Planck en 1901 supuso el inicio de la física cuántica tal y como la conocemos. En aquella época, habían surgido grandes dificultades para lograr dar una explicación a la curva de la radiación de un cuerpo negro. Esto se conoce como la “catástrofe del ultravioleta”.

Todos tenemos la experiencia de imaginar como la punta de una barra de hierro se torna de color rojo al calentarse. A esto se le conoce como radiación de cuerpo negro. Los cuerpos, especialmente los de materiales más oscuros con mayor capacidad de absorber y emitir radiación, emiten luz a frecuencias cada vez más elevadas a medida que son calentados. Estas frecuencias van del rojo al azul y la mayor parte de la energía irradia en torno a una frecuencia máxima. La energía aumenta en intensidad desde las bajas frecuencias hacia la frecuencia máxima y se reduce superada esta frecuencia máxima. Se obtiene así un diagrama con forma de “colina”, la denominada curva de cuerpo negro.

Bien, pues el problema estaba en explicar el porqué de esta curiosa distribución. Rayleigh y Jeans daban una explicación para el crecimiento en el espectro rojo, y Wien lo hizo para la rápida amortiguación a altas frecuencias. No obstante, no se podían explicar ambas cuestiones a la vez con la física conocida. Especialmente preocupante era la teoría de Rayleigh y Jeans pues su modelo predecía una emisión infinita de energía en las longitudes del ultravioleta.

Ante esta problemática, Max Planck presentó una genialidad que solventaría por fin el dilema. Nuestro hombre se encontraba fascinado por las leyes de la termodinámica y por las ecuaciones del electromagnetismo de Maxwell, y buscaba una relación entre ellas. Uno de los grandes problemas que se le presentaban era que el electromagnetismo se encontraba descrito en términos de ondas, mientras que la termodinámica se refería a fenómenos estadísticos en los que interferían un gran número de átomos. Por tanto, como simple ingenio matemático, llamémosle truco, decidió hacer una descripción del electromagnetismo similar a la que se hacía en termodinámica e imaginó diminutos osciladores cada uno de los cuales tomaban una cierta cantidad de energía electromagnética y que transportaban a los campos magnéticos. Este concepto era puramente teórico, ni siquiera tenían por qué existir, se trataba de un útil artificio matemático, como hemos dicho, de un truco. Bien conocida es la posterior expresión E=hv, donde las unidades o paquetes de energía se denominaron cuantos.

Así, con esta nueva descripción, Planck calculó la distribución de energía más probable para un conjunto de cuantos electromagnéticos. El resultado que obtuvo explicaba de manera sorprendentemente exitosa el problema que traía a los físicos con dolores de cabeza: la “catástrofe del ultravioleta”. Lejos de lo que imaginaría Planck, este hecho se convertiría en la piedra angular de la teoría cuántica que posteriormente se desarrollaría.

3. La concepción dual y su evolución. Durante el siglo XX, los físicos se encontraban desorientados para entender el experimento de la doble rendija. Un fotón, en ocasiones, parecía mostrar un comportamiento corpuscular y en otras un comportamiento ondulatorio. Esta es la denominada dualidad onda-partícula, es decir, la idea de que onda y partícula son dos caras de la misma moneda. Así, Einstein, inspirado por la Ley de Planck, propuso un comportamiento corpuscular para la luz y logró explicar con acierto el efecto fotoeléctrico, lo que le merecería un Nobel.

En este punto, la luz parecía haberse propuesto no mostrarnos su verdadera naturaleza. Pero la cosa no quedó ahí, De Broglie utilizó esta dualidad onda-partícula para entender las órbitas de los electrones dentro del átomo de Bohr consiguiendo un éxito rotundo. Con esto, De Broglie ampliaba el concepto que ya no solo era aplicable a la luz, sino que tanto los electrones como otras partículas, tales como los neutrones, los protones o incluso las moléculas, presentaban este extraño comportamiento.

Hoy día, los físicos ya no entienden la dualidad onda-partícula de la misma forma en la que lo hacían en el siglo XX, sino que como adelantaba en el primer punto, la física cuántica entiende de probabilidades y el responsable principal fue Erwin Schrödinger.

4. La revolución de Schrödinger. En 1926, Erwin Schrödinger presentó una ecuación que lo cambiaría todo: la ecuación de onda de Schrödinger. Esta era capaz de describir la probabilidad de que una partícula se encuentre en un determinado lugar, usando para ello la física ondulatoria y las probabilidades. Esta ecuación es hoy un hito de la mecánica cuántica y convirtió a Erwin Schrödinger en uno de los padres fundadores de la física cuántica.

Schrödinger llegó a este resultado cuando se dispuso a describir el electrón como una onda tridimensional. De otra manera, Schrödinger estaba buscando la ecuación diferencial de las ondas electrónicas.

De este modo, cuando Schrödinger resolvía su ecuación para el átomo de hidrógeno se dio cuenta de algo sorprendente. Schrödinger había encontrado los niveles de energía exactos del hidrógeno que ya habían sido medidos experimentalmente con anterioridad. Esto traía consecuencias contundentes, y es que la vieja imagen del átomo con electrones purulando a su alrededor era incorrecta. En vez de eso, las órbitas debían dar paso a ondas alrededor del núcleo. Es decir, Schrödinger había conseguido expresar la probabilidad de encontrar una partícula en un determinado lugar dado un instante en términos de una función de onda.

5. Gobernada por el principio de incertidumbre de Heisenberg. Y es que toda la física cuántica se construye sobre el principio de incertidumbre de Heisenberg y se encuentra gobernada por el mismo. En física cuántica no se pueden determinar simultáneamente y con precisión arbitraria, ciertos pares de magnitudes físicas observables y complementarias. Es decir, cuanto más precisamente se determina una, menos precisamente se conoce la otra en ese instante, y viceversa. De esta manera, el principio de incertidumbre cuantifica la máxima precisión que podemos obtener en la observación simultánea de dos magnitudes conjugadas. Y esto no es un problema de la precisión de la técnica empleada en la observación, sino que se trata de una incertidumbre intrínseca a los sistemas físicos.

Sin duda, se trata de uno de los pilares más importantes para entender la teoría cuántica.

6. La interpretación de Cophenague. Tras el desarrollo de la física cuántica durante estos años se generó una carrera por lograr una teoría cuántica completa. Heisenberg, Pauli, Max Born y Niels Bohr, entre otros grandes científicos, desarrollan una concepción de la mecánica cuántica basada en un nuevo concepto matemático, las matrices. En este nuevo entendimiento se concibe la materia como partículas que saltan de un estado a otro siguiendo las reglas dictadas por las matrices. Es decir, la materia no existía en los estados intermedios, solo cuando era medida.

Esto configuraba dos teorías para la mecánica cuántica, dos teorías que enfrentaban a dos gigantes de la física, Heisenberg y Schrödinger.

El tratado de paz se busca con la conferencia de Solvay, en 1927, que reúne a los más grandes científicos de la época. Acudieron Einstein, Curie y los protagonistas de las dos teorías rivales, Heisenberg, Pauli, Bohr y Schrödinger, entre otros.

¿Quién fue el vencedor en esta disputa? ¿Quién estaba en lo correcto? La respuesta es ambos, pues Paul Dirac había demostrado que ambas teorías eran equivalentes, como mirar una misma imagen desde dos espejos distintos. De esta manera, se buscó fusionar ambas teorías. Heisenberg, Pauli y Niels Bohr reformularon la teoría cuántica desde Cophenague, configurando así, la llamada interpretación de Cophenague. Según esta interpretación, cuando no se observa una partícula, esta evoluciona en el tiempo siguiendo una función de onda. Esta función de onda, dice Max Born, da la probabilidad de encontrar una partícula en un determinado estado. En concreto, el cuadrado de esta función. En el momento en el que se observa la partícula, la función de onda colapsa, es decir, aleatoriamente y siguiendo la distribución de probabilidad de la función de onda toma uno de entre sus valores.

Pero a Schrödinger la mecánica matricial, los saltos cuánticos y el colapso de la función de onda le horrorizaban. Toda esta nueva concepción le sonaba a magia y sin fundamento teórico. Por ello, Schrödinger quedó fuera y apartado. Pero no estaba solo, a Einstein tampoco le terminaban de encajar las cosas, este colapso inmediato de la función parecía indicar que había algo viajando más rápido que la luz. De esta forma, crearon la paradoja del gato de Schrödinger para mostrar que en esta interpretación de la mecánica cuántica había algo de absurdo.

Así comenzó una batalla por entender la realidad cuántica, una batalla que continúa hasta nuestros días, pues ese colapso de la función de onda no es nada físico, y como alternativa surgen otras interpretaciones tales como la decoherencia o la interpretación de los múltiples universos.

7. El modelo estándar, una de las teorías más exitosas de la física. El Modelo Estándar de física de partículas es una de las teorías más importantes en la física moderna y una de las teorías que más nuevas preguntas levanta.

Las primeras partículas exóticas surgieron de los rayos cósmicos, partículas con grandes energías procedentes del espacio que inciden en nuestra atmósfera produciendo una lluvia de partículas secundarias.

Más tarde, los primeros aceleradores de partículas eran capaces de generar energías cada vez mayores. Disparando haces de protones a blancos o a haces opuestos, se lograron generar nuevas partículas que surgían a partir de las colisiones. De esta manera, se fue configurando un amasijo de partículas fundamentales que sugerían leyes naturales subyacentes, lo que constituiría el denominado Modelo Estándar.

El Modelo Estándar explica las interacciones de las partículas materiales a través de tres fuerzas fundamentales, cada una descrita por sus portadores de fuerza.

Las partículas son de dos tipos principalmente: los fermiones, que incluyen los quarks y los leptones, y los bosones, asociados a la transmisión de fuerzas.

Los quarks tienen masa y son de seis tipos llamados “aromas”. Se agrupan en tres generaciones y aparecen en tres pares complementarios. Sus nombres son quarks arriba y abajo, encanto y extraño, y cima y fondo. Además, los quarks se encuentran unidos por los gluones, que actúan a modo de pegamento, una partícula transmisora de la fuerza nuclear fuerte. Los protones, por ejemplo, están formados por un quark arriba y dos abajo.

Los leptones incluyen a los electrones, los muones, los taus y a sus neutrinos correspondientes. Los tres primeros tienen masa creciente, el muón es 200 veces más pesado que el electrón y el tau lo es 3700 veces más que el muón. Además, solo tienen carga negativa. Los neutrinos, por su parte, no tienen carga y casi no tienen masa, por lo que interactúan muy poco con la materia.

Por otro lado, en cuanto a los bosones, las partículas transmisoras de fuerza, encontramos a los ya mencionados gluones, a los fotones, que transmiten la fuerza electromagnética, y a las partículas W y Z, relacionadas con la interacción nuclear débil.

De esta manera, se configuran como bosones aquellas partículas que no están sometidas al principio de exclusión de Pauli, es decir, que pueden existir en cualquier estado cuántico, mientras que los fermiones se encuentran limitados por las normas de Pauli.

Por último, se encuentra el bosón de Higgs, el encargado de crear un campo que confiere masa a las partículas. Veamos de qué se trata.

8. El bosón de Higgs. ¿Por qué existe una gama de masas para las partículas? ¿Por qué una son más pesadas que otras? Los fotones no tienen masa y, sin embargo, los bosones W y Z son pesados, cien veces más que los protones. Esto no tenía sentido y los físicos teóricos comenzaron a buscar respuestas. Fue Peter Higgs, en la Universidad de Edimburgo, quien dedujo el mecanismo que describe, en términos de un bosón, la adquisición de masa de las partículas.

Higgs imaginó un campo de fondo, llamado campo de Higgs, que estaba mediado por bosones de Higgs. Este campo, por analogía, actuaba como un fluido viscoso frenando a las partículas, un concepto que confería inercia a las partículas. Digamos que existen partículas con carácter de estrellas, verdaderas celebridades en el mundo cuántico. Cuando estas entran en un salón lleno de gente se ven rodeados de fans y periodistas que limitan su avance por la habitación. Es decir, el campo de Higgs, igual que la multitud de gente, actúa más fuertemente sobre aquellas partículas con carácter de estrellas, a diferencia de los simples fotones, de modo que aparecen más pesados.

El bosón de Higgs fue descubierto no hace tanto, en 2012, gracias al Gran Colisionador de Hadrones (LHC) del CERN, en Suiza. Puesto que el bosón de Higgs es pesado solo podía hallarse en energías extremas, y debido al principio de incertidumbre, solo durante un corto espacio de tiempo. Así, su descubrimiento para la energía esperada por el Modelo Estándar (125 GeV) se ha convertido en una de las grandes hazañas para la física moderna.

9. La búsqueda de una teoría de campos unificados. La búsqueda de una teoría de campos unificados puede entenderse como la búsqueda de una teoría simple y concisa que describa la relación entre las cuatro fuerzas fundamentales de la naturaleza: la fuerza electromagnética, la fuerza nuclear fuerte, la fuerza nuclear débil y la gravedad.

Como hemos visto, la física de partículas se basa actualmente en el Modelo Estándar de partículas para describir tres de las fuerzas fundamentales. Sin embargo, la gravedad, descrita por la relatividad general de Einstein, se resiste a una explicación cuántica que dé la oportunidad de atar los efectos de la gravedad con las otras tres fuerzas fundamentales.

De este modo, la búsqueda de la Gran Teoría Unificada se centra en unir el Modelo Estándar con la fuerza gravitatoria. De estos esfuerzos surgen teorías como la teoría de cuerdas, la supersimetría o la gravedad cuántica.

10. Aplicaciones a un mundo demasiado newtoniano. Hay dos tipos de personas en este mundo, aquellos fascinados por el entendimiento de la naturaleza, y aquellos que necesitan y buscan poder hacer algo con ello. Personalmente, soy más de los primeros, pero para los que tengan almas de ingenieros y me estén leyendo que no se preocupen, la física cuántica no es solo un rompecabezas que interesa a los científicos más ensimismados, sino que presenta una infinidad de oportunidades para el desarrollo de nuevas tecnologías.

Tal es el ejemplo de los ordenadores cuánticos, que podrían llegar a sustituir a las tecnologías de silicio en un futuro no tan lejano. Basados en la mecánica cuántica, manejan la información en forma de cubits o estados de átomos. Estos ordenadores podrán realizar millones de cálculos a la vez de forma eficiente y descifrar cualquier código. Procesos que ahora le llevarían a un ordenador normal desarrollar durante años podrían ser resueltos de una forma increíblemente más eficiente.

Por otro lado, la criptografía cuántica se configura como el futuro en la seguridad informática. Empleando la incertidumbre, cualquier intruso alteraría el estado del sistema cuántico, con lo que se evidenciaría la inferencia y se destruiría el mensaje.

Pero la cosa no queda ahí, la superconductividad a temperatura ambiente, el santo grial para los físicos de la materia condensada, es una de las mayores promesas para revolucionar nuestros transportes y tecnologías.

A temperaturas cercanas al cero absoluto, determinados metales, aleaciones o cerámicas pierden toda resistencia eléctrica, convirtiéndose así en superconductores. La razón, aunque es uno de los campos de investigación más importantes hoy día, se basa en la mecánica cuántica. El efecto Meissner y otras consecuencias derivadas de los superconductores podrían dar un vuelco total a toda nuestra tecnología.

Por tanto, actualmente, existe una carrera por encontrar superconductores a temperaturas cada vez mayores que permitan que los superconductores sean ampliamente aplicables.

Estas son tan solo algunas de las posibles aplicaciones que se basan en la física cuántica pero las hay muchas más. Sin duda, se trata de un mundo de posibilidades por descubrir.»

Fuente: New Physics.

https://newphysics.eu/2019/08/10-cosas-que-debes-saber-sobre-fisica-cuantica