Saltar al contenido

¿Por qué nos preocupamos por el espectro del hamiltoniano?

Después de mucho trabajar hemos encontrado la contestación de esta duda que muchos usuarios de nuestro espacio presentan. Si quieres aportar algo puedes compartir tu comentario.

Solución:

Aparte de la interpretación física, a uno siempre le gustaría tener los autovalores y autovectores de un operador dado. Piense, por ejemplo, en la evolución del tiempo: un estado vectorial arbitrario se puede escribir en la base propia de su operador en cuestión, en este caso $ H $. La evolución temporal simplemente asciende a

begin ecuación begin split | Psi (t) rangle & = U (t) | Psi (t = 0) rangle \ & = U (t) sum_ n = 1 ^ N c_n | E_n rangle \ & = sum_ n = 1 ^ N c_n exp (-itH / hbar) | E_n rangle \ & = sum_ n = 1 ^ N c_n exp (- itE_n / hbar) | E_n rangle. end dividir end ecuación

Simple, la evolución del tiempo equivale a multiplicar una fase real, que en este caso son simplemente las energías $ E_n $, en cada uno de los autovectores de la descomposición antes mencionada.

Puedo darte dos razones para estudiar el problema de los valores propios para el operador hamiltoniano.

  1. En la Mecánica Cuántica, los estados son vectores unitarios en un espacio de Hilbert y los obserables son operadores hermitianos en este espacio. Los postulados afirman que dado uno observable $ cal O $ los posibles valores que puede alcanzar son los elementos de su espectro $ sigma ( cal O) $. Ahora, por simplicidad, suponga que el espectro es discreto y no degenerado, de modo que para cada $ lambda_i in sigma ( cal O) $ hay un estado único $ | i rangle $ tal que $$ cal O | i rangle = lambda_i | i rangle. $$
    Entonces los postulados también te dicen que la distribución de probabilidad para la medición de $ cal O $ dado que el estado del sistema es $ | psi rangle $ es $$ p_i = | langle i | psi rangle | ^ 2 $$
    Tan dado alguna observable si desea encontrar cuáles son sus posibles valores, encontrar cuáles son las probabilidades para cada valor en un estado dado y averiguar el valor esperado para ese obserable, necesita resolver su problema de valor propio. Los valores permitidos son los elementos del espectro y las probabilidades están codificadas en proyecciones sobre los autoestados asociados. El hamiltoniano es un observable que le puede interesar y, por lo tanto, podría seguir este procedimiento con él para comprender las energías permitidas del sistema y las probabilidades correspondientes y los valores medios en algún estado.

  2. Sin embargo, existe una segunda razón, que es simplemente comprender la dinámica del sistema. En pocas palabras, a menudo estamos realmente interesados ​​en la dinámica del sistema: cómo evoluciona en el tiempo de acuerdo con alguna interacción. Resulta que esto puede ser respondido por la ecuación de Schrödinger: el hamiltoniano es el generador de traslaciones de tiempo, de modo que si $ | psi (t) rangle $ es el estado del sistema en el momento $ t $ obedece $$ i hbar dfrac d dt | psi (t) rangle = H | psi (t) rangle, $$ donde prescribimos alguna condición inicial $ | psi_0 rangle $ en algún $ t_0 $. Ahora, una estrategia simple para lidiar con esto es definir un operador al que llamamos operador de evolución en el tiempo. $ U (t, t_0) $. Está definido para que $$ | psi (t) rangle = U (t, t_0) | psi_0 rangle. $$ Ahora lo interesante es que obedece a una ecuación simple. De hecho, empleando la ecuación de Schrödinger para $ | psi (t) rangle $ encontramos $$ i hbar dfrac d dt U (t, t_0) | psi_0 rangle = HU (t, t_0) | psi_0 rangle, $$ y dado que esto debería funcionar para cualquier condición inicial, debemos tener $$ i hbar dfrac d dt U (t, t_0) = HU (t, t_0). $$ Si $ H $ es independiente del tiempo, entonces esta ecuación puede resolverse mediante la exponencial. De hecho tenemos $$ U (t, t_0) = e ^ – frac i hbar H (t-t_0). $$ Ahora resulta que las funciones de los operadores hermitianos se comprenden mejor en sus bases de eingenstates. De hecho, para un operador ermitaño general $ cal O $ con base $ | i rangle $ como en el artículo anterior, si $ f (x) $ es una función real que uno define $ f ( cal O) $ ser el operador ermitaño dado por $$ f ( cal O) | i rangle = f ( lambda_i) | i rangle. $$ Esto define $ f ( cal O) $ completamente porque especifica cómo actúa en una base particular. En ese caso $ U (t, t_0) $ actúa muy simplemente en la base de $ H $: $$ U (t, t_0) | i rangle = e ^ – frac i hbar E_i (t-t_0) | i rangle. $$ Pero ahora esto resuelve completamente el problema dinámico. De hecho, deja $ | psi_0 rangle $ sea ​​su estado inicial. Queremos actuar con $ U (t, t_0) $ sobre él. Así que amplíalo sobre la base de $ H $. Esto te da $$ | psi_0 rangle = sum_i c_i (0) | i rangle. $$ Ahora actúa con $ U (t, t_0) $ sobre él para obtener $$ U (t, t_0) | psi_0 rangle = sum_i c_i (0) e ^ – frac i hbar E_i (t-t_0) | i rangle. $$ Pero ahora observe que esto le da los coeficientes de expansión $ c_i (t) $ de $ | psi (t) rangle $ en una base. Tan efectivamente conoces el estado en el momento $ t $.

Entonces, en resumen, he dado dos razones por las que uno puede preocuparse por el problema del valor propio para el hamiltoniano: le informa sobre los valores de un observable en particular, la energía del sistema, y ​​también le dice cómo definir el operador de evolución en el tiempo para que puedes evolucionar tus estados con el tiempo.

Esta es más una pregunta de álgebra lineal que de mecánica cuántica.

¿Cómo se ve esto como la mecánica precuántica?

Entonces, un operador es una generalización de una matriz y una función de onda es un vector con un índice continuo, en lugar de discreto. El producto interno intercambia un signo de suma por un signo integral, pero aparte de eso, tiene un simple $ vec u cdot vec v = sum_n u_n ^ * ~ v_n $ siendo intercambiado por algo un poco más complicado $ langle u | v rangle = int _ mathbb R mathrm dx ~ u ^ * (x) ~ v (x) $ en QM. Gran parte de QM es solo álgebra lineal con sombreros divertidos.

Así que tomemos el caso discreto. Suponga que tiene, digamos, una matriz de Markov que describe un flujo de probabilidad clásica entre tres estados, $$ begin bmatrix p_1 (t_n) \ p_2 (t_n) \ p_3 (t_n) end bmatrix = begin bmatrix 0.5 & 0.2 & 0.1 \ 0.5 & 0.3 & 0.4 \ 0 y 0.5 y 0.5 end bmatrix begin bmatrix p_1 (t_ n-1) \ p_2 (t_ n-1) \ p_3 (t_ n-1) end bmatrix $$Entonces tal vez empiece con PS[1; 0; 0]PS y luego me encuentro con el siguiente paso de tiempo en la distribución de probabilidad PS[0.5; 0.5; 0]PS y luego, en el siguiente paso temporal, me encuentro en la distribución PS[0.35; 0.40; 0.25]PS, etcétera. También podríamos formar una versión de tiempo continuo de este sistema; si esa matriz es $ mathbf M $ entonces podríamos considerar $ mathrm d mathbf v / mathrm dt = ( mathbf M – I) mathbf v $ por ejemplo.

Ahora bien, una cosa que podría ser realmente útil es saber que esta matriz de Markov en particular $ mathbf M $ tiene autovector $ mathbf v_1 = [3/13, 5/13, 5/13]PS con valor propio $ 1 $ y algunos otros valores propios $ lambda_ pm = (3 pm sqrt 29) / 20, $ de modo que esencialmente hay una desintegración geométrica / exponencial de cualquier vector de probabilidad que lo alimente, hasta esa distribución estacionaria $ mathbf v_1. $ ¡Así que conocer los autovalores y autovectores realmente ayuda a analizar el sistema! Me dice que si solo espero unos pocos pasos de tiempo, el sistema se relajará más o menos a su “punto fijo” $ mathbf v_1 $ y de hecho sugiere que incluso si $ mathbf M $ se agranda probablemente pueda analizar $ mathbf M ^ n $ para algunos grandes $ n $ y obtenga un poco de física más simple una vez que toda la información irrelevante se desvanezca.

Cómo QM complica la historia

Desafortunadamente, la mecánica cuántica no tiene distribuciones estacionarias a primera vista. La mecánica cuántica preserva la información. Mucho más tarde modelará este tipo de física en sus clases de estado sólido, pero solo con argumentos complicados que involucren depósitos infinitos de partículas, y el formalismo de “matriz de densidad” o “matriz de estado” que le permite crear estados “impuros” que han perdido su “coherencia” cuántica. Así que no es tan simple en mecánica cuántica.

Pero todavía hay algo de valor. Por qué ¿Los autovalores y autovectores ayudaron arriba? Ayuda porque diagonaliza al operador de evolución. Y eso es enorme.

El problema con los vectores es que los vectores tienen una magnitud y una direccion. ¡Esa dirección es tremendamente complicada en general! Luego tengo que pensar en muchos componentes diferentes de mi vector a lo largo de diferentes ejes y, en general, todos evolucionan en ecuaciones acopladas. Pero un valor propio dice, “a lo largo de este eje $ mathbf v $, la acción de este operador es puramente una escala, $ mathbf M ~ mathbf v = lambda mathbf v $: no gira ese eje hacia ningún otro eje “. Y, por lo tanto, puedo resolver el problema a lo largo de ese eje directamente. Si me dejas diagonalizar, me das una $ n $-problema dimensional y $ n $ ejes linealmente independientes a lo largo de los cuales me dices qué $ mathbf M $ lo hace. Eso es realmente útil, ¡eso casi siempre es suficiente para decirme completamente lo que sucede en cada estado!

“Casi siempre,” digo. Permítanme ampliar eso. Aquí está el hecho clave: la evolución de Schrödinger es lineal. En otras palabras, la evolución de $ a mathbf v_1 + b mathbf v_2 $ es solo $ a mathbf v_1 (t) + b mathbf v_2 (t) $. Está porque tenemos una evolución lineal que podemos considerar cualquier vector de entrada como una combinación lineal de nuestros vectores propios básicos, y luego podemos calcular la salida de esos vectores simplemente sabiendo lo que le sucede a cada vector propio de forma independiente. En el caso de un hamiltoniano independiente del tiempo en QM, cada La evolución temporal del vector propio se multiplica por una fase que gira con la velocidad de la energía, $ | n (t) rangle = e ^ – i E_n t / hbar | n rangle. $

Los fermiones hacen que esto sea esencial.

Eventualmente, las cosas se pondrán aún más intrigantes, porque tendrás fermiones. Los fermiones son un tema en la mecánica cuántica de muchas partículas y, a menudo, requieren enfoques mucho más sofisticados como la “segunda cuantificación” para describirlos completamente. Pero la idea básica es que resolverás para un hamiltoniano y luego comenzarán los fermiones que interactúan débilmente. ocupar esos niveles independientemente unos de otros.

Esto es en realidad, como aprenderá, la base cuántica de la tabla periódica de los elementos. Entonces, si observa cuántos elementos hay en cada fila, encontrará estos números misteriosos $ 2, 8, 18, 32 $. El comportamiento cuántico de los electrones, que son fermiones, sugiere que cada expansión se debe a que se desbloquean nuevos estados de momento angular más alto, por lo que realmente debería observar las diferencias $ 2, 6, 10, 14 $. Además, dice que debes dividir por un factor de 2 debido a una degeneración de espín: esto es realmente en secreto $ 1, 3, 5, 7. $ Eso suena mucho más simple. (Si solo divide por 2, es posible que vea que cada número es el doble de un número cuadrado; resulta que cada número cuadrado es una suma de probabilidades consecutivas).

De hecho, demostrará que para un potencial simétrico esférico arbitrario existe una relación entre los niveles de energía y el momento angular, donde hay un número de nivel $ n = 1,2, puntos $ y algo de momento angular total $ langle L ^ 2 rangle = hbar ^ 2 ell ( ell + 1) $ por algún entero $ ell $, y alguna proyección de ese momento angular a lo largo de algún eje arbitrario $ langle L_z rangle = hbar m $ por algún número $ | m | le ell. $ Entonces la primera expansión corresponde a estos nuevos estados $ n = 2, ell = 1 $ tener giro $ + hbar, 0, – hbar $ en una dirección particular; esos estados luego reaparecen para $ n = 3, 4, 5 puntos $, la segunda expansión corresponde a estos nuevos estados $ n = 3, ell = 2 $ tener giro $ 2 hbar, hbar, 0, – hbar, -2 hbar $ a lo largo de esa dirección particular, reapareciendo para todos los proyectiles posteriores; etcétera. Ese $ ell = 0, 1, puntos n-1 $ también surge para las leyes del cuadrado inverso, aunque puede observar en la tabla periódica que el momento angular contribuye a la energía, por lo que estas “capas de electrones” no se llenan en orden de norte directamente.

De todos modos, esta relación es solo el resultado de la simetría esférica y la atracción del cuadrado inverso del núcleo y nada más, siempre y cuando los electrones entre sí se “difuminen” en un campo medio cuadrado inverso esféricamente simétrico. aproximación (el efecto de blindaje), también es aproximadamente cierto incluso si ya tiene varios electrones y está agregando otro electrón a la mezcla. Entonces este es el origen cuántico de la tabla periódica.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)



Utiliza Nuestro Buscador

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *