Blog

Estudiar Física de Bachillerato (32): La estructura atómica

7. FENÓMENOS CUÁNTICOS

7.1. La estructura atómica

Atomismo.

En la antigua Grecia, antes de que la ciencia estuviese bien formalizada, ya se había planteado un debate de gran relevancia sobre la naturaleza de la materia: ¿está compuesta de pequeños ladrillos llamados átomos, o se puede dividir más bien sin límite? Algunos consideran que la teoría atómica es, de hecho, el principal descubrimiento del ser humano, y que si pudiésemos dejar algún mensaje a una civilización inteligente del futuro ese debería ser: la materia está hecha de átomos.

¿Pero cómo hemos llegado a esa conclusión? La teoría atómica de Demócrito en la antigua Grecia no tenía más respaldo que un simple «yo creo que», y la historia de la ciencia nos ha mostrado muchas veces que creer algo y que tenga sentido no lo hace correcto.

Durante la segunda mitad del siglo XVIII, el célebre científico Antoine Lavoisier, coetáneo de Lagrange y Laplace, comenzó a desarrollar la rama de la física que hoy denominamos química. Identificó los primeros elementos, definió gases tan esenciales como el oxígeno y el hidrógeno, y elaboró la teoría de la combustión, donde el oxígeno hacía de detonante para que algunos gases ardiesen liberando gas y agua. Además, se atrevió a aventurar las primeras ideas sobre la fotosíntesis. Además, estableció uno de los principios más importantes de la química: la conservación de la masa. Este principio, como veremos durante este bloque, es falso cuando trabajamos con partículas cuánticas, pero una buena aproximación a gran escala.

Su legado fue recogido, entre otros, por John Dalton, quien a finales del siglo XVIII, muy interesado en las reacciones químicas, verificó que era frecuente que al mezclarse dos compuestos para formar un tercero no pudiesen aparecer estos en cualquier proporción. Por ejemplo, el agua siempre tenía 8 g de oxígeno por cada gramo de hidrógeno, y era imposible hacer agua con una proporción diferente. Si se añadía oxígeno de más, no reaccionaba, y si se añadía hidrógeno de más, lo mismo. Desde el punto de vista de Dalton, la única explicación posible para este fenómeno era que existiesen átomos de hidrógeno y de oxígeno, cada uno con su masa particular, y siempre se combinasen en la misma proporción.

La teoría atómica de Dalton se fundamentó en tres postulados simples pero contundentes:

  • Los elementos puros están hechos de átomos indivisibles. Los elementos mezcla contienen combinaciones de átomos de otros elementos, los cuales forman moléculas.
  • Todos los átomos del mismo elemento son indistinguibles, poseyendo la misma masa y tamaño, entre otras propiedades.
  • Durante el transcurso de las reacciones químicas los átomos de los distintos reactivos se recombinan dando lugar a nuevos compuestos.

Interesado en estas ideas, a principios del siglo XIX el científico Amedeo Avogadro las aprovecharía para establecer las proporciones de cada elemento de los compuestos más comunes que involucraban gases, apelando a su propia ley de Avogadro, que decía: «en dos gases con la misma temperatura, presión y volumen, siempre hay la misma cantidad de moléculas«. Tiempo después, Avogadro acabaría dando nombre al número de moléculas de átomo que contiene una cierta cantidad de masa de dicho átomo gracias a Johann Loschmidt unos cincuenta años después, fijada en 6,02*10^23.

A partir de Dalton, la cantidad de aportes se vuelve tan polifacética que es difícil concretar los más relevantes, pero desde luego, si hay que destacar a alguien, es a los químicos Julius Meyer y Dmitri Mendeléyev, quienes hicieron grandes contribuciones separados por la distancia y por décadas a la clasificación de los átomos según sus propiedades en la tabla periódica de los elementos. Meyer estableció el concepto de número de valencia,  el cual permitía numerar a los átomos en una tabla, y Mendeléyev los ordenó de tal forma que fue capaz de predecir algunos elementos todavía no descubiertos que dejaban huecos en su tabla.

Más adelante, a finales del siglo XIX, el físico Ludwig Boltzmann sentó las bases de la mecánica estadística, una rama de la física centrada en relacionar conceptos macroscópicos como la temperatura de un sistema con los movimientos e interacciones de sus moléculas componentes. Uno de sus principales aportes, en este sentido, fue la definición de entropía. La entropía de un sistema del que conocemos alguna o varias propiedades mide, en esencia, la cantidad de posibles posiciones y velocidades de sus componentes que podrían dar lugar a dichas propiedades. Por ejemplo, si sabemos que un vaso de agua está a 14 ºC ocupando cierto volumen y sometido a presión atmosférica, la entropía del agua nos dirá la cantidad de posibles estados de sus moléculas compatibles con dicho resultado. La entropía es un medidor de ignorancia del observador, en el sentido de que si pudiésemos conocer todo acerca de las moléculas de un sistema tendríamos que decir que su entropía es nula. La fórmula de Boltzmann para la entropía S puede escribirse, en función del número de estados posibles de las moléculas Ω, con la ecuación de Boltzmann:

Entropía Boltzmann.PNG

Aquí la constante kB es la constante de Boltzmann, de 1,38*10^-23 J/K, que son las unidades de la entropía. Esta constante aparece constantemente en sistemas donde se trabaja con el número de moléculas, siendo el más famoso la ecuación de los gases ideales, que relaciona la presión p, el volumen V, el número de moléculas N y la temperatura T mediante la relación:

Ley Gases Ideales

En química tienen la costumbre de trabajar contando moles de moléculas, una cantidad vinculada con la cantidad de ellas mediante el número de Avogadro, y debido a ello llaman a la constante R y le asignan otras unidades, pero en esencia R y kB son lo mismo con unidades diferentes, y se relacionan mediante la siguiente multiplicación:

Constante R.PNG

La definición de la entropía conllevaba una ley estadística: dado un sistema del que conocemos ciertas propiedades, lo más probable es que sus componentes tengan uno de los estados más comunes. Volviendo al ejemplo del vaso de agua, podría suceder que su temperatura promedio fuese de 14 ºC teniendo algunas regiones a 2 ºC y otras a 40 ºC, pero ello requeriría de anomalías estadísticas y lo más probable es que esté a esa temperatura en todas partes.

El teorema de conservación de la energía y el de aumento de la entropía, siendo el primero de validez general y el segundo indicando solo una tendencia, se conocen como la primera y segunda leyes de la termodinámica. La tercera fue introducida por William Thomson, más conocido como Lord Kelvin, a mediados del siglo XIX, al establecer que había una temperatura a la cual las moléculas no se movían absoluto, definiendo el cero absoluto de temperatura, al cual hoy denominamos 0 kelvin. Dado que los sistemas con diferentes temperatura siempre acaban alcanzando el equilibrio, la tercera ley de la termodinámica establecía que era imposible para un sistema alcanzar el cero absoluto de temperatura.

Electrones.

Que los átomos tenían que albergar cargas eléctricas en su interior era obvio desde el punto de vista de que toda la materia estaba hecha de átomos, y muchos de estos átomos podían relacionarse con fenómenos electromagnéticos, la cuestión era cómo las carga y el átomo estaban relacionados. Desde que Volta fabricó la primera pila empleando materiales químicos eléctricamente cargados, parecía claro que algunos átomos tenían tendencia a producir corriente y otros a absorberla.

Por cuestiones arbitraria a la hora de definir el signo de las cargas, se supuso por error que en las corrientes eléctricas las cargas positivas eran las que se movían, y esto llevó a los físicos durante mucho tiempo a estar convencidos de que la corriente era de signo positivo.

Sin embargo, a finales del siglo XIX el físico Joseph Thomson demostraría que estaban equivocados recurriendo a los conceptos de las órbitas magnéticas. Al conseguir extraer electricidad de una serie de átomos, le aplicó a esta un campo magnético y comprobó que se giraban en el sentido en el que lo haría una carga negativa. Además, descubrió que con independencia del campo magnético y de la velocidad, todas las corrientes emitidas por átomos tenían la misma relación entre su carga y su masa, la cual surge de la relación que ya vimos en el bloque de relatividad especial:

Relación Carga Masa.PNG

De modo que, en esencia, verificó que ese cociente era independiente del radio de la órbita, la velocidad de la corriente y el campo magnético. A este modo de clasificar cargas según su relación carga/masa y sentido de giro se le conoce como espectrometría de masas.

Thomson concluyó, además, que la ratio carga/masa para dichas corrientes era unas 1840 veces menor que en el caso del átomo de hidrógeno con carga positiva, y que sus cargas parecían ser exactamente opuestas. Esto le llevó irremediablemente a postular la existencia de una partícula llamada corpúsculo de la corriente, a la cual a día de hoy llamamos electrón, que tendría que tener una masa de 9,11*10^-31 kg, una carga de -1,60*10^-19 C, y constituía la unidad básica de carga negativa de todos los átomos.

A Thomson tampoco se le escapó el detalle de que debía de haber algún motivo esencial por el cual tan solo las cargas negativas pudiesen ser arrancadas de los átomos, y debido a ello planteó el modelo pudin de pasas, según el cual el átomo era una esfera de carga positiva con algunos electrones incrustados en su corteza.

El descubrimiento del electrón supuso descubrir que los científicos llevaban prácticamente un siglo indicando los signos de las corrientes eléctricas al revés, pero se decidió dejarlo sin modificar y por eso a día de hoy todos seguimos aprendiendo el modelo de que las corrientes transportan carga positiva.

Fotones.

A comienzos del siglo XX la física de la luz se creía que estaba completamente desarrollada, pero existían algunas cuestiones que no acababan de encajar, principalmente la catástrofe ultravioleta.

Desde comienzos del siglo XIX se sabía que además de la luz invisible existían ondas del mismo tipo que nos resultaban invisibles, como eran la luz infrarroja y la luz ultravioleta. Ambas fueron correctamente intuidas por el hecho de que las zonas de sombra podían llegar a calentarse aunque hasta ellas no llegase luz alguna. La luz infrarroja fue descubierta por William Herschel, y la ultravioleta por Johann Ritter apenas un año después. Así que estaba claro que existían los colores visibles, pero además los colores anteriores al rojo y los posteriores al violeta.

Gracias al electromagnetismo de Maxwell quedó bastante claro que la diferencia entre estos colores radicaba únicamente en su frecuencia, siendo los colores más próximos al ultravioleta aquellos con la frecuencia más alta y los más próximos al infrarrojo aquellos con frecuencia más baja. Se suele pensar erróneamente que el color rojo es el color del calor, pero en realidad tan solo es el color con el que empiezan a brillar los cuerpos calientes. Basta fijarse en las llamas de una sartén para ver que donde más caliente está la llama (compuesta de dióxido de carbono) es de color violeta/azul.

Otra propiedad interesante era que, si bien los rayos ultravioletas eran más energéticos que los infrarrojos, los segundos tenían más facilidad para atravesar obstáculos, de modo que basta una simple atmósfera para que los rayos ultravioleta del Sol no nos frían sobre la Tierra, pero sin embargo sí recibimos toda la radiación infrarroja. Además, esta nos llega incluso con sombrillas de por medio.

A mediados del siglo XIX, el físico Gustav Kirchhoff denominó radiación de cuerpo negro al calor que emitían todos los cuerpos hacia su entorno por el hecho de poseer una temperatura. Al combinar esta idea con la teoría electromagnética, resultó obvio que la transmisión de calor entre los cuerpos se producía a través de ondas infrarrojas, y por tanto se pudo llegar a la conclusión correcta de que todas las cosas emiten luz, aunque esta no sea visible. A día de hoy, de hecho, ese es el fundamento de la visión infrarroja: detectar esa luz y convertirla en colores visibles por el ojo humano artificialmente al representarla.

A finales del siglo XIX, Lord Rayleigh demostró erróneamente que, dado que un cuerpo cualquiera emitiría siempre radiación, y esta podría ser liberada con cualquier frecuencia, la infinita cantidad de posibles frecuencias ultravioletas provocaría una explosión de energía infinita, a la cual se la bautizó como catástrofe ultravioleta. Sin embargo, aunque todos los cuerpos radiasen, estamos todos vivos y no pasa nada, con lo que algo fallaba.

Con el cambio de siglo, el físico Max Planck propuso una explicación alternativa, la cual, como Lorentz al desarrollar sus transformaciones relativistas, no se acabó de creer nunca. Planck explicó que si suponíamos que un rayo de luz blanca estaba compuesto de pequeños rayos de luz de todos los colores, y se establecía que los colores más energéticos fuesen menos probables, la catástrofe era evitada y los colores ultravioletas resultaban penalizados. En su explicación, Planck formuló la ecuación que ahora se conoce como ley de Planck, la cual relaciona la energía de un rayo de luz con su frecuencia:

Ley Planck.PNG

Aquí h sería la constante de Planck, con un valor de 6,63*10*-34 J*s. En física teórica, no obstante, es preferible trabajar con la constante de Planck barrada, cuyo valor es de 1,05*10^-34 J*s y se corresponde con la fórmula:

Constante Planck Barrada.PNG

Poco tiempo después, en 1905, el prolífico Einstein usó la teoría de Planck para explicar el efecto fotoeléctrico. En este fenómeno, sucedía que al iluminar con luz algunos metales se conseguía arrancar electrones de ellos para producir corriente. Sin embargo, radiar mucho tiempo con luz de un color con poca energía no tenía los mismos efectos que radiar menos tiempo con luz más energética. En particular, existían metales de los que se podía extraer corriente con luz a partir de cierta frecuencia, pero resultaba imposible con luz de frecuencia menor, por más tiempo que se insistiera.

Einstein dijo que la luz estaba hecha de cuantos, a los que hoy llamamos fotones, y que cada cuanto tiene una energía proporcional a su frecuencia mediante la ley de Planck. La Los electrones, por su parte, al estar en sus átomos necesitarían un trabajo de extracción W para poder ser desprendidos. Las colisiones se producirían siempre por parejas, entre un fotón y un electrón, y si el fotón tenía energía superior al trabajo de extracción conseguiría arrancarlo, pero si no no. La idea clave de la explicación de Einstein era que, al producirse siempre las colisiones entre un fotón y un electrón, era imposible que entre varios fotones de baja energía lo arrancasen del átomo al no ser ninguno de ellos capaz de hacerlo individualmente.

De un material sabemos que puede producir corriente si es bombardeado por fotones con una longitud de onda inferior a 400 nm.
a) Calcula la frecuencia de dichos fotones.
b) Calcula la energía de dichos fotones.
c) Calcula el trabajo de extracción del material.
d) Indica qué energía cinética adquiría un electrón extraído si la longitud de onda de los fotones fuese de 300 nm.
e) Analiza si un fotón con una frecuencia de 10^9 Hz podría extraer electrones del material en cuestión.

a) Empleamos la fórmula para ondas:

Solución 1.PNG

b) Empleamos la ley de Planck:

Solución 2.PNG

c) Como nos dicen que el fotón anterior transportaba la energía mínima, sabemos que el trabajo de extracción idéntico.

d) La energía cinética con la que saldría despedido el electrón es la que le aportaría el fotón menos el trabajo de extracción:

Solución 3.PNG

e) Por último, el fotón que nos proponen aquí no podría extraer electrones ya que su frecuencia es inferior a la mínima.

La cuantización de Einstein de la luz fue algo inesperado para el propio Planck, quien habría renegado de su explicación y le habría acusado de dejarle en evidencia al relacionarle con esa idea. En efecto, Planck sería uno de los principales detractores del fotón, siendo un firme defensor de que las ondas electromagnéticas no podían estar formadas por cuantos. Se sumaba así a las críticas de Mach a toda la teoría atómica, en tanto que los átomos no eran observables directamente.

Pero la ley de Planck había llegado para quedarse, y además suponía la única forma de calcular la energía de los fotones, ya que al moverse a la velocidad de la luz y no tener masa la ecuación relativista de Einstein no podía ofrecer ningún resultado.

Orbitales atómicos.

Entre tanto, el físico Ernest Rutherford, discípulo de Thomson, seguía indagando en la estructura del átomo, y su experimento con núcleos de helio, más conocidos como partículas alfa, le llevó a un descubrimiento sorprendente.

Suponiendo que los átomos constaban de una corteza con electrones de carga negativa y un núcleo de carga positiva, empleó las partículas alfa, que al ser núcleos tenían carga positiva, para dispararlas contra otros átomos. Las partículas alfa atravesarían con pocos problemas la corteza electrónica, al tener carga opuesta, y una vez que se encontraban dentro dirigiéndose hacia el núcleo seguían una trayectoria hiperbólica, tal y como explicamos en el capítulo de las órbitas keplerianas.

Esta distancia mínima a la que las partículas alfa podían acercarse al núcleo le sirvió a Rutherford para determinar que este medía aproximadamente 10^-15 m, o 1 fm, siendo por lo tanto al menos un millón de veces más pequeño que los átomos en sí. Ante tal resultado, la conclusión era que los átomos estaban esencialmente vacíos, y toda la masa se concentraba en una pequeña cantidad del volumen de estos. El modelo atómico de Rutherford, a partir de este hecho, consistió en una órbita kepleriana de los electrones alrededor del núcleo.

Sin embargo, esta idea no convenció a muchos porque los electrones orbitando deberían ir liberando energía en forma de fotones (radiación electromagnética) hasta caer al núcleo, donde se verían atraídos por electrostática. Este argumento fue esgrimido como ejemplo de por qué no podía compararse las órbitas de los electrones con las de los planetas, pero dado que ahora sabemos que existen también ondas gravitatorias no era del todo exacto. Los electrones tendrían que caer hacia el núcleo exactamente como los planetas lo hacen hacia el Sol debido a la liberación de ondas, en un caso electromagnéticas y en el otro de gravedad.

La cuestión llevó al físico Niels Bohr prácticamente un año después a complementar el modelo de Rutherford con un axioma: el momento angular de los electrones debe ser siempre un múltiplo de la constante de Planck barrada, el cual define sus diversos niveles energéticos posibles. De este modo, si un electrón estaba en el nivel energético n, su momento angular sería de la forma:

Cuantización Momento Angular.PNG

Y sabiendo que en esta órbita circular electrostática se cumpliría que la velocidad es proporcional a la inversa de la raíz del radio, sería posible obtener las siguientes ecuaciones (teniendo en cuenta la teoría de órbitas keplerianas):

Relaciones Bohr.PNG

Estas relaciones que obtuvo Bohr a partir de la cuantización del momento angular eran correctas en esencia, ya que efectivamente en el átomo de hidrógeno la energía decae con el cuadrado del nivel energético n y el radio aumenta con dicho cuadrado, por lo que su reputación comenzó a florecer hasta el punto de convertirse en uno de los padres de la mecánica cuántica, que sería la rama de la física dedicada al análisis de los cuantos de la materia y los campos.

El modelo atómico de Bohr explicaba, además, que los átomos podían absorber o liberar fotones según el nivel energético u orbital en el que se encontrasen sus electrones. Así, un electrón que absorba la energía exacta para aumentar su momento angular en una constante de Planck subirá al siguiente nivel orbital, y cuando libere dicha energía regresará al original. El principio de mínima energía potencial, por supuesto, provocaría la tendencia de los electrones a estar en los orbitales más bajos posibles.

Dado que la energía exacta de cada átomo dependía de factores como la masa y carga de su núcleo, y la cantidad de electrones orbitándolo, a efectos prácticos los niveles energéticos de cada átomo servían para clasificarlo en la tabla periódica. Esto resultó de particular interés en la astrofísica, ya que pudimos comenzar a conocer la composición atómica de las estrellas analizando la luz que emitían (la que caracterizaba sus orbitales) y observar patrones, pero de esto hablaremos más próximamente.

Otro aporte muy importante del modelo orbital fue poder explicar con mucho más detalle qué sucede cuando dos cuerpos chocan. En esencia, cuando empujamos algo hacemos que nuestros electrones y los suyos intercambien fotones, y que estos fotones empujen con tanta fuerza a los electrones y átomos de aquello que queremos empujar que se desplacen hacia atrás. De este modo, todos los fenómenos mecánicos, a excepción de la gravedad, serían consecuencia en última instancia del electromagnetismo entre átomos y moléculas, y tal y como anticipamos, la separación clásica entre ondas mecánicas y electromagnéticas pierde su sentido a nivel cuántico. Si las ondas mecánicas se propagan moviendo las moléculas a su paso es, en esencia, porque hay una onda electromagnética de fondo (una inmensa cantidad de fotones) abriéndose paso y empujando todo lo que se encuentran.

Podemos reexplicar así, además, el índice de refracción de los materiales. Cuando la luz pasa por ellos no es que se mueva más despacio, sino que cada uno de sus fotones pierde un montón de tiempo siendo absorbido por los átomos y esperando a ser liberado de nuevo. Cuando los átomos absorben estos electrones pueden pasar a hacer varias cosas: girar, desplazarse, o modificar los niveles orbitales de sus electrones, y cuando los liberan deshacen todo lo anterior.

De modo que, si alguna idea central hay que llevarse de esta sección, es que el electromagnetismo está presente en todas partes durante nuestro día a día. No en vano es la interacción que explica todo lo que sucede fuera de los núcleos, a excepción de la gravedad. Y ante este hecho solo nos queda sentir fascinación porque la evolución nos haya hecho capaces de descubrir esto y, además, nos haya permitido desarrollar ojos con la capacidad de ver únicamente los fotones que más nos interesan.

Nucleones.

Pocos años después del modelo de Bohr, Rutherford volvió a aparecer en escena con sus nuevos descubrimientos. Él había dado por hecho que del mismo modo que la corteza atómica estaba ocupada por partículas de carga negativa llamadas electrones, el núcleo debía de estar compuesto de partículas de carga positiva 1,60*10^-19 C y masa 1,67*10^-27 kg llamadas protones. Sin embargo, esa hipótesis no era compatible con las ratios carga/masa de la mayoría de los núcleos atómicos porque en la inmensa mayoría de los casos era diferente. Así que Bohr propuso que debían de existir en el núcleo, además, partículas de carga neutra llamadas neutrones, las cuales deberían de tener la misma masa que los protones. Así, todas las masas observadas para los diferentes núcleos atómicos pasaban a tener mucho sentido en términos de estas dos partículas. No obstante, ambas partículas, los nucleones, tardarían un tiempo en poder ser descubiertas.

En el próximo capítulo hablaremos acerca de cómo estas ideas cuánticas llevaron a un gran conflicto en la física teórica, y analizaremos algunas de sus consecuencias más famosas.

ACTIVIDADES RECOMENDADAS
1. Bombardeamos con fotones de longitud de onda de 250 nm un material cuyo trabajo de extracción es de 1,2 eV. Conociendo la constante de Planck, la velocidad de la luz y la masa del electrón, calcula:
a) La frecuencia de los fotones.
b) La longitud de onda de los fotones.
c) La energía cinética de los electrones liberados.
d) La velocidad de los electrones, empleando mecánica clásica.
e) El radio de giro de los electrones si entrasen perpendicularmente en un campo magnético de 0,4 T.
2. Conociendo las cargas y masas del protón y el electrón, y sabiendo que en el cuarto nivel orbital del hidrógeno el electrón describe una órbita circular de momento angular igual a 4*h- (h barrada), calcula:
a) El radio de la órbita.
b) La velocidad del electrón en la órbita.
c) La energía de la órbita.
d) A partir de c), comprueba que la energía del primer nivel orbital debe ser de -13,6 eV.

 

Preguntas, correcciones y debate son bien recibidos.