jueves, 28 de julio de 2022

Clase 26: Introducción al momento angular en cuántica

 

Momento angular

El operador momento angular es uno de los operadores más importantes en la mecánica cuántica, ya que juega un papel muy importante en la teoría atómica y en la estudio de las moléculas, y algunos otros sistemas que tengan simetría rotacional. Hay diferentes tipos de operadores que representen el momento angular como por ejemplo: el operador momento angular orbital denotado por $L$, el momento angular de spin denotado por $S$ y se denota usualmente al momento angular total por $J$. 

Consideremos un eje cuyo vector director unitario es $\hat{n}$, y un vector posición $\vec{r}$ tal que  $\hat{n}$ y $\vec{r}$ parten del mismo origen. Sea $\vec{r'}$ el vector $\vec{r}$ después de realizar una rotación  de un ángulo infinitesimal $\delta \phi$ alrededor del eje definido por $\hat{n}$. Entonces, el vector  $\vec{r'}$ se puede expresar de la siguiente manera:

$$ \vec{r'}=\vec{r}+\delta \phi (\hat{n} \times \vec{r})=\vec{r}+\vec{\delta \phi}  \times \vec{r}$$

Dado un campo escalar $f(\vec{r'})=f(\vec{r}+\vec{\delta \phi}  \times \vec{r})$ se puede expandir realizando aproximación de orden uno en la serie de Taylor como: 

$$f(\vec{r}+\vec{\delta \phi}  \times \vec{r})  \approx f(\vec{r})+(\vec{\delta \phi} \times \vec{r}) \cdot \vec{\nabla}f(\vec{r}) \\ =f(\vec{r})+\vec{\delta \phi} \cdot ( \vec{r} \times  \vec{\nabla})  f(\vec{r}) \\=[\hat{1}+\vec{\delta \phi} \cdot ( \vec{r} \times  \vec{\nabla}) ] f(\vec{r}) \\ \approx e^{\vec{\delta \phi} \cdot (\vec{r} \times \vec{\nabla})} f(\vec{r}) \\= e^{\vec{\delta \phi} \cdot \frac{i}{\hbar}\left[\vec{r} \times  \left (-i \hbar \vec{\nabla} \right)\right ]} f(\vec{r}) \\=e^{\vec{\delta \phi} \cdot \frac{i}{\hbar}\left(\vec{r} \times \vec{p}\right )} f(\vec{r}) \\= e^{\frac{i}{\hbar}\vec{\delta \phi} \cdot   \vec{L}} f(\vec{r}) $$


De lo anterior se puede decir que  $\vec{L}$ es un operador (vectorial) diferencial  que genera una rotación y por esto a este operador vectorial se le denomina comúnmente como generador de rotaciones. 

$$\vec{\hat{L}}=-i\hbar (\vec{r} \times \vec{\nabla})=\vec{r} \times \vec{p}$$

En coordenadas cartesianas:

$$\vec{\hat{L}}=\begin{bmatrix}  \hat{L}_x \\  \hat{L}_y \\   \hat{L}_z\end{bmatrix}= \begin{bmatrix}   \hat{y} \hat{p}_z- \hat{z}  \hat{p}_y \\   \hat{z} \hat{p}_x- \hat{x}  \hat{p}_z\\    \hat{x} \hat{p}_y- \hat{y}  \hat{p}_x \end{bmatrix}$$

A partir de la ecuación anterior y realizando los siguientes cambios en la notación: $x \rightarrow 1$, $y \rightarrow 2$,  $z \rightarrow 3$, denotando las componentes de $\vec{r}$ como $q_\mu$ tal que  el  subíndice pueda tomar valores entre 1 y 3, es decir, $q_1=x$,  $q_2=y$, $q_3=z$  se tienen las siguientes expresiones: 

  • $[q_j,p_k]=i\hbar \delta_{ik}$
  • $[q_j,q_k]=[p_j,p_k]=0$
  • $[L_j,L_k]=i \hbar \epsilon_{jkr} L_r$                                 (1)
Las expresiones anteriores, suelen ser utilizadas con frencuencia. Cualquier operador que cumpla con esta ultima relación se dice que cumple con el álgebra del momento angular. 

Demostremos de la Ec. (1) un caso específico, veamos por ejemplo que $[L_x, L_y] = i \hbar L_z$. Si se utiliza la siguiente relación de conmutadores $[AB,CD] = A[B,C]D + [A,C]BD + CA[B,D] + C[A,D]B$ se tiene: 

$$[L_x, L_y] = [\hat{y}\hat{p_z} - \hat{z}\hat{p_y}, \hat{z}\hat{p_x} - \hat{x}\hat{p_z}] \\ = [\hat{y}\hat{p_z}, \hat{z}\hat{p_x}] + [\hat{z}\hat{p_y}, \hat{x}\hat{p_z}] \\ = \hat{y}[\hat{p_z},\hat{z}]\hat{p_x} + \hat{x}[\hat{z},\hat{p_z}]\hat{p_y} \\ = -i\hbar \hat{y}\hat{p_x} + i\hbar \hat{x} \hat{p_y} \\ = i\hbar L_z $$

 

Momento angular total

Una generalización del operador momento angular $\vec{\hat{L}}$ es el operador momento angular total $\vec{\hat{J}}$ que de forma rigurosa se define como: 

$$\vec{\hat{J}}=\vec{\hat{L}} \otimes \vec{\hat{I}}+\vec{\hat{I}} \otimes \vec{\hat{S}}  $$

Este operador cumple con el álgebra del momento angular, $\vec{\hat{S}} $ es el operador vectorial espín.

Considerando la siguiente expresión

$$J^{2}=\vec{\hat{J}}^{2}=J_x^{2}+J_y^{2}+J_z^{2}=J_1^{2}+J_2^{2}+J_3^{2}$$

Se puede escribir la siguiente relación:

  • $[J^{2},J_k]=0$
Tomemos $k=1$ que representa a la componente $x$ y mostremos que da cero, para los otros dos casos es análogo. 

$$[J^{2},J_x]=[J_x^{2}+ J_y^{2}+J_z^{2}, J_x]=[J_x^{2},J_x]+[J_y^{2},J_x]+[J_z^{2},J_x]\\ =J_y [J_y,J_x]+[J_y,J_x]J_y+J_z[J_z,J_x]+[J_z,J_x]J_z \\=i \hbar (L_yL_z+L_zL_y)-i\hbar(L_yL_z+L_zL_y)=0$$

Si se supone que $J^{2}$ es un observable, entonces a partir de la expresión anterior se concluye que tiene los mismo autoestados que $J_1,J_2,J_3$; sin embargo como los $J_k$ no conmutan entre sí, se dice que no compatibles y por esto no comparten autoestados. 

Operadores escalera


Hasta ahora sólo se ha trabajado con las componentes cartesianas (observables) de $J$, es conveniente definir  otros operadores $J_{\pm}$ (no observables) llamados operadores escalera: 

$$\hat{J}_{+}=\hat{J}_x+i\hat{J}_y$$
$$\hat{J}_{-}=\hat{J}_x-i\hat{J}_y$$

Debido a la hermiticidad de los operadores $\hat{L}_x$ y $\hat{L}_y$ es fácil mostrar que se cumplen las siguientes dos ecuaciones 

$$\hat{J}_{+}^{\dagger}=\hat{J}_{-}$$
$$\hat{J}_{-}^{\dagger}=\hat{J}_{+}$$

Algunas relaciones de conmutación son:

  • $[\hat{J}_+,\hat{J}_-]=2 \hbar \hat{J}_z$
  • $[\hat{J}_z,\hat{J}_+]= \hbar \hat{J}_+$
  • $[\hat{J}_z,\hat{J}_-]= -\hbar \hat{J}_-$
  • $[\hat{J}^{2},\hat{J}_+]=[\hat{J}^{2},\hat{J}_-]=0$

Con las relaciones anteriores, se puede verificar fácilmente las siguientes expresiones: 


$$\hat{J}^{2}=\hat{J}_+\hat{J}_-+\hat{J}_z^{2}-\hbar \hat{J}_z$$

$$\hat{J}^{2}=\hat{J}_-\hat{J}_++\hat{J}_z^{2}+\hbar \hat{J}_z$$

$$\hat{J}^{2}=\frac{1}{2}(\hat{J}_+\hat{J}_-+\hat{J}_-\hat{J}_+)+ \hat{J}_z^{2}$$
 
Ejercicio

Demuestre, a partir de la definición $\hat{L} = \hat{r} × \hat{p}$, que los operadores de momento angular $\hat{L_i}\  , i = 1, 2, 3$ son hermitianos.

Problema sacado del libro Problemas y Ejercicios de Mecánica Cuántica de Peña y Villavicencio.

 

sábado, 23 de julio de 2022

Clase 23 - Oscilador armónico unidimensional

Oscilador armónico unidimensional

 Al estudiar el comportamiento de un oscilador armónico clásico, vemos que una gran cantidad de fenómenos físicos están relacionados a este fenómeno debido a la forma del potencial que  $V(x)=k x^{2}$ esto de un modo u otro nos habla de que el potencial es de tipo parabólico y una manera de verlo es al hacer la expansión de $V(x)$ en serie de Taylor, (bajo la premisa de que la función es diferenciable) alrededor de un ponto en particular $x_{0}$:


$$ V(x)=V(x_0)+(x-x_0)\frac{\mathrm{d}V(x)}{\mathrm{d}x} \mid_{x=x_0}+(x-x_0)^2 \frac{\mathrm{d^2} V(x)}{\mathrm{d}x} \mid_{x=x_{0}}$$

$$+(x-x_0)^{3}\frac{\mathrm{d^3} V(x)}{\mathrm{d} x} \mid_{x=x_0}+...$$ 

Figura 1. Representación típica de potencial que rige un oscilador armónico

Al estar muy cerca del punto sobre el cual hacemos la expansión, que además es un mínimo de $V(x)$, se tiene que $\frac{\mathrm{d} V(x)}{\mathrm{d} x}$ y que $(x-x_{0})<1$ luego $(x-x_{0})^{2}<<1$ y así  sucesivamente, por lo que podemos despreciar los términos mayores a orden dos y obtenemos la siguiente expresión del potencial: 

$$ V(x)=kx^{2} \rightarrow k= \frac{\mathrm{d^{2}} V(x)}{\mathrm{d} x^{2}} \mid_{x=x_0} $$

Sea m la masa de la partícula, se define entonces $w^{2}=k/m$; para separarnos de las variables físicas del problema ligadas a las fuerzas y obtener información acerca de la frecuencia asociada a la energía $E=h*\nu $, un parámetro que es de mayor importancia en el oscilador cuántico.

Ahora, para centrarnos en el caso en cuestión, estudiemos la ecuación de Schrödinger independiente del tiempo con $V(x)=\frac{1}{2}m w^2x^2$ obtenemos:

$$ -\frac{h^{2}}{2m}\frac{\mathrm{d^{2}} \psi}     {\mathrm{d}x^{2}}+\frac{1}{2}m w^2x^2\psi =E\psi  \; \; \; \; \; \; \; \; (1) $$

Si escogemos $    y=\sqrt{\frac{m w}{h}}x $ la ecuación queda como 

 $$ \frac{\mathrm{d^{2}} \psi}{\mathrm{d} x^{2}} +\left ( \frac{2E}{\hbar w} - y^2 \right  )\psi=0 $$ 

Si estudiamos las condiciones físicas que debe cumplir esta función observamos que cuando $y \rightarrow \infty$ la ecuación diferencial diverge, como también $y^2>>\frac{2E}{\hbar w}$, es importante anotar que esta última relación no tiene unidades, lo que facilita identificar que tipo de funciones pueden estar asociadas a la solución.

$$  \frac{\mathrm{d^{2}} \psi}{\mathrm{d} x^{2}}-y^2\psi=0  (4) $$ 

Luego se propone una solución de la forma 

$$\psi = e^{-\frac{y^2}{2}}v(y) \; \; \; \; \; \; \; \; (2) $$ 

Si remplazamos (2) en la ecuación diferencial (1) obtenemos

 $$   e^{-y^2}\left( \frac{\mathrm{d^{2}} v(y)}{\mathrm{d} y^{2}}-2y\frac{\mathrm{d} v(y)}{\mathrm{d} y} +\left ( \frac{2E}{\hbar w} - 1 \right  ) v(y) \right  )=0 $$ 

Luego buscaremos encontrar la solución a la EDO entre paréntesis, solución que será continua, con derivadas continuas y que no diverja en el infinito. Estas soluciones serán los polinomios de Hermite, los cuales están dado por la siguiente función generatriz:

$$    g(x,t)= e^{-t^2+2t x}=\sum_{n=0}^{^\infty}H_{n}(x)\frac{t^n}{n!} $$

Para buscar ciertas relaciones de recurrencia que son bastantes útiles a la hora de realizar integraciones y entender el comportamiento de estos polinomios, se realizan algunas derivadas.

$$    \frac{\partial g(x,t) }{\partial x} = 2\sum_{n=0}^{\infty} H_{n}(x)\frac{t^{n+1}}{n!} = \sum_{n=0}^{\infty}{H_{n+1}'}(x)\frac{t^{n+1}}{(n+1)!} $$ 

Lo cual se observa fácilmente es igual a

   $$  2n H_{n-1}(x)={H_{n}'}(x)   \; \; \; \; \; \; \; \;  (3) $$ 

Expresión que relaciona la derivada del polinomio de Hermite con el polinomio anterior a él.

Ahora, realizando un proceso similar, pero esta vez con la derivada parcial respecto a t se obtiene

  $$ H_{n+1}(x)-2x H_{n}(x)+{H'}(x)=0  \; \; \; \; \; \; \; \; (4) $$ 

Si derivamos (4) y luego remplazamos (3), obtenemos:

$$    {H_n''}(x)-2x {H_n'}(x)+2n H_n(x)=0   \; \; \; \; \; \; \; \; (5) $$ 

 Y si recordamos la ecuación con la que iniciamos

 $$    \frac{\mathrm{d^{2}} v(y)}{\mathrm{d} y^{2}}-2y\frac{\mathrm{d} v(y)}{\mathrm{d} y} +\left ( \frac{2E}{\hbar w} - 1 \right  ) v(y)=0   \; \; \; \; \; \; \; \; (6)  $$  

Al comparar (5) y (6) se encuentra que son la misma ecuación si y solo si $2n=\frac{2E}{\hbar w}-1$, igualdad que nos lleva a confirmar un detalle de gran importancia para la mecánica cuántica y es que la energía está cuantizada.

    $$ E=\left(n+\frac{1}{2}\right) \hbar w    $$

 Podemos ver entonces que la solución general a la ecuación de Schrödinger independiente del tiempo viene dada por:

    $$ \psi_n(y)=C_n e^{-\frac{y^2}{2}} H_n(y)$$

 Donde C_n es una constante de normalización igual a $C_{n}=\sqrt{\frac{1}{2^n n!}}$

 Una solución en general va a ser una superposición lineal de las $\psi_n(y) \rightarrow \psi(y)=\sum_n C_n \psi_n(y)$, donde las $\psi_n$ son auto funciones del operador $\hat{H}$ y esta es otra gran diferencia entre el oscilador mecánico y el oscilador cuántico:

 Hamiltoniano clásico:

    $$ H=\frac{P^2}{2m}+V(x)$$

  Hamiltoniano cuántico:

    $$  \hat{H}\psi_n= E_n \psi_n  $$

 Cuando examinamos los autovalores asociados a las auto funciones dadas por el operador hamiltoniano observamos que si la función está en un solo autoestado, entonces $\Delta E_n = 0$, por lo que se concluye que se presenta oscilación únicamente si hay más de un estado.


Editado por: Juan Pablo Ortiz Gil

 

 Ejercicio Clase 23 - 2 Septiembre

1) Partiendo de la siguiente definición:

$$H_n(x)=(-1)^ne^{x^2}\frac{d^n}{dx^n}e^{-x^2}$$

Hallar los primeros 5 polinomios de Hermite, $H_0(x)$, ... , $H_4(x)$

2) Partiendo de la siguiente relación de los polinomios de Hermite:

$$e^{-t^2+2tx}=\sum_{n=0}^{\infty}H_n(x)\frac{t^n}{n!}$$

Demostrar que se cumple la siguiente ecuación diferencial:

$$\frac{d^2}{dx^2}H_n(x)-2x\frac{d}{dx}H_n(x)+2nH_n(x)=0$$



Solución presentada por Sergio Castrillón, ya que no ví el ejercicio de la clase 22




 






martes, 19 de julio de 2022

Clase 21: Implicaciones físicas de la ecuación de Schrodinger

 

Principio de indeterminación de Schrodinger: 


También llamado primera regla de cuantización.
Sea dos observables $A$, $B$, tal que $[A,B]=i C$ con $C$ observable, entonces $\Delta A \Delta B \; \geq |1/2 \langle C \rangle| $.
En particular si $[A,B]=i \hbar$ entonces:  $$\Delta A \Delta B \; \geq \hbar/2 $$
Demostración para el caso de los observables $X$,$P$:

Sea un estado $| \varphi \rangle = (X+i \lambda P) | \psi \rangle  $ donde $\lambda \in  \mathbb{R} $
Ahora:   $\langle \varphi | \varphi \rangle =  \langle \psi | (X-i \lambda P)  (X+i \lambda P) | \psi \rangle =  \langle \psi | X^2|\psi \rangle + \lambda \langle \psi | P^2 |\psi \rangle + i \lambda \langle \psi |XP-PX |\psi \rangle $.
$\langle \varphi | \varphi \rangle = \langle X^2 \rangle+\lambda^2 \langle P^2 \rangle +i \lambda \langle [X,P] \rangle$

y como $[X,P]=i \hbar$ entonces $\langle \varphi | \varphi \rangle = \langle X^2 \rangle+\lambda^2 \langle P^2 \rangle -\lambda \hbar \geq 0 $ puesto que $ | \varphi \rangle $  es un estado físico.

La cual es un polinomio de segundo orden en la variable $\lambda$, ya que este siempre es mayor o igual a cero todas sus raíces deben ser complejas. Reescribiéndola ci$f(\lambda)=  \lambda^2 \langle P^2 \rangle - \lambda \hbar + \langle X^2 \rangle$ tenemos que el discriminante de esta ecuación debe de ser $ \hbar^2-4  \langle P^2 \rangle  \langle X^2 \rangle \leq 0$ para que todas las raíces sean complejas, de esta manera se obtiene: $$ \langle X^2 \rangle  \langle  P^2 \rangle \geq \hbar^2/4$$.
Ahora, sean los operadores $P´=P- \langle P^2 \rangle$, $X´=X- \langle X^2 \rangle$ los cuales siguen cumpliendo la ecuación anterior pues solamente se realizó una resta por un escalar.

Se puede probar que $\Delta P= \langle P´^2 \rangle ^{1/2}$, $\Delta X= \langle X´^2 \rangle ^{1/2}$ de tal manera que si remplazamos en la expresión anterior $P'$, $X'$ se llega a: $$\langle \Delta X \rangle  \langle \Delta P\rangle \geq \hbar/2 $$
La cual es la relación de indeterminación de Schrodinger, una expresión que delimita el conocimiento de cantidades físicas en un mismo experimento.


Algunos comentarios


Si dos observables conmutan, lo cual significa que los autoestados de uno son autoestados del otro, al realizar una medida de a un sistema $|\psi \rangle$  con el observable $A$ obtengo $A|\psi \rangle=a_1 |a_1 \rangle$. al realizar una siguiente medida con el observable $B$ obtengo de nuevo $|a_1 \rangle$ puesto que los observables poseen autoestados compartidos de tal manera que puede conocer exactamente los autovalores de los dos observables simultáneamente ya que si un sistema se encuentra en un autaestado de $A$ también se encuentra en un autoestado de $B$ si estos conmutan.

Si dos observables no conmutan entonces al momento de realizar una medición con el observable $A$, $A|\psi \rangle=a_1 |a_1 \rangle$ y al realizar una siguiente medición con el observable $B$, $B|a_1 \rangle$ el resultado será una combinación lineal de los autoestados de $B$, de tal manera de que no se obtendrá de nuevo $|a_1 \rangle$ sino algunos autoestados de $| b_i\rangle$ con alguna probabilidad es decir, no obtenemos un autoestado exacto como en el caso anterior, por tanto no podemos conocer exactamente el autovalor asociado a la medición de B si conocemos el autovalor de $A$.

Si $|\psi_1 \rangle$ y $|\psi_2 \rangle$ son soluciones linealmente independientes a la ecuación de Schrodinger entonces  $|\psi \rangle = \lambda |\psi_1 \rangle +|\psi_2 \rangle$ también es solución a la ecuación de Schrodinger, de tal manera que el principio de superposición se cumple para los estados de un sistema.

La probabilidad de que un sistema se encuentre en un estado $|\psi \rangle$ se puede representar como $P(|\psi \rangle) $ que está asociada a $\langle \psi | \psi \rangle \sim \lambda^2\langle \psi_1 | \psi_1 \rangle + \langle \psi_2 | \psi_2 \rangle+ \lambda^*\langle \psi_1 | \psi_2 \rangle +\lambda \langle \psi_2 | \psi_1 \rangle$ donde $\langle \psi_1 | \psi_1 \rangle$ está asociado a la probabilidad del estado $ | \psi_1 \rangle$ ,  $\langle \psi_2 | \psi_2 \rangle$ está asociado a la probabilidad del estado  $ | \psi_2 \rangle$ y los términos $\lambda^*\langle \psi_1 | \psi_2 \rangle$, $\lambda \langle \psi_2 | \psi_1 \rangle$ son términos de interferencia. Por tanto podemos observa que la probabilidad de la suma de dos estados en general no es la suma individual de cada estado, sino que se debe de tener en cuenta el término de interferencia.


Conservación de probabilidad


queremos estudiar como evoluciona temporalmente la probabilidad, por tanto:
$$ \frac{d}{dt} \langle \psi | \psi \rangle = \frac{d \langle \psi |}{dt} | \psi \rangle  +\langle \psi |\frac{d | \psi \rangle}{dt}   $$ y usando el sexto postulado o la ecuación de Schrodinger: $i \hbar\frac{d  | \psi \rangle}{dt}=H(t)  | \psi \rangle$ y como $H$ es hermítico  $-i \hbar\frac{d  |  \langle \psi |}{dt}= \langle \psi | H(t) $ por tanto podemos usar esta ecuación para remplazar los términos dependientes de la derivada temporal así la expresión se transforma a $\frac{1}{i\hbar}[-\langle \psi |H(t) |\psi \rangle +\langle \psi | H(t)|\psi \rangle]=0$ por tanto: $$  \frac{d}{dt} \langle \psi | \psi \rangle=0$$ 
lo que implica que en un sistema debidamente normalizado la normalización es constante en el tiempo.
Si expresamos esta relación en el espacio de funciones $$\frac{d}{dt} \int d^3r \psi^*(r ,t) \psi(r,t)=0$$ Por tanto, si conozco esta expresión en un tiempo $t_0$ la conoceré para cualquier t pues la probabilidad se conserva temporalmente. 



Conservación local de la probabilidad-densidad de corriente de probabilidad


Con la intuición ganada en los ejercicios de pozos de potenciales, ya que la función de onda toma una valor diferente en cada punto del espacio, se puede tratar como un fluido y asociarle una corriente de densidad de probabilidad  $\rho=| \psi |^2$ resultado de una corriente de materia, fotones, etc.

Las partículas poseen cierta velocidad, que está asociada con el momento, de esta manera podemos definir una corriente:

Utilizando la ecuación de Schrödinger en el espacio de las posiciones podemos encontrar la evolución temporal de $\psi(r,t)$

 $i \hbar \frac{\partial \psi(r,t)}{\partial t}=-\frac{\hbar^2}{2m} \nabla^2 \psi(r,t)+V(r)\psi(r,t)$, 

Ahora conjugando y multiplicando por $\psi$ la ecuación anterior teniendo en cuenta la hermiticidad del Hamiltoniano y suponiendo potenciales reales:

 $-i \hbar \psi \frac{\partial \psi(r,t)^*}{\partial t}=-\psi \frac{\hbar^2}{2m} \nabla^2 \psi(r,t)^*+V(r)\psi \psi(r,t)^*$, 

y multiplicando la ecuación  de Schrödinger por $\psi^*$
 $i\hbar \psi^* \frac{\partial \psi(r,t)}{\partial t}=-\psi^* \frac{\hbar^2}{2m} \nabla^2 \psi(r,t)+V(r)\psi^* \psi(r,t)$

restando estas dos ecuaciones se encuentra:
 $i \hbar \frac{\partial (\psi \psi^*) }{\partial t}=-\frac{\hbar^2}{2m}( \psi^* \nabla^2 \psi -\psi \nabla^2 \psi^* ) $,

y usando la identidad de Green :
 $\nabla \cdot (f \nabla g)=\nabla f \cdot \nabla g+f \nabla^2 g $,
 $\nabla \cdot (g \nabla f)=\nabla g \cdot \nabla f+g \nabla^2 f $ 
entonces $\nabla \cdot (f \nabla g-g \nabla f)= f \nabla^2g-g \nabla^2 f $ y definiendo  $\vec{J}=\frac{\hbar^2}{2mi}( \psi^* \nabla \psi -\psi \nabla \psi^* ) $ como la densidad volumétrica de corriente de probabilidad obtenemos la ecuación de continuidad conocida en mecánica de fluidos: $$ \frac{\partial }{\partial t} \rho (r,t)=-\nabla \cdot \vec{J}$$ con $\rho(r,t)=\psi \psi^*=|\psi|^2$, $\vec{J}=\frac{\hbar}{m}Re[  \psi^* \frac{\hbar}{i} \nabla \psi ]$.

Por tanto podemos concluir que la distribución de probabilidad cumple una ecuación de continuidad, el cual es un resultado de la causalidad ya que si algo fluye hacia dentro o hacia afuera es porque hubo un cambio temporal en la densidad.


Evolución temporal de un observable $A$ asociado a una cantidad física $\mathcal{A}$


Sea la cantidad física $\mathcal{A}=\mathcal{A(t)}$ queremos responder a la pregunta de como es el cambio temporal del observable asociado $A$.

Consideramos: $$  \langle A \rangle (t)=  \langle \psi(t) | A(t) | \psi(t) \rangle $$ 

Nota:  $ \langle A \rangle (t) \neq \langle A(t) \rangle$ puesto que $\langle A(t) \rangle= \langle \psi | A(t) | \psi \rangle$ i.e los estados $ |\psi \rangle$ no poseen dependencia temporal.

estudiando la dependencia temporal de $\langle A \rangle (t)$, $\frac{d}{dt}  \langle \psi(t) | A(t) | \psi(t) \rangle = \frac{d \langle \psi |}{dt}| A | \psi \rangle  +\langle \psi | A |\frac{d | \psi \rangle}{dt} +  \langle \psi | \frac{\partial A}{\partial t}  |\psi \rangle$ y usando la ecuación de Schrödinger para remplazar la derivada temporal se obtiene:
 $$ \frac{d}{dt}  \langle A \rangle (t)=\frac{1}{i \hbar} \langle [A,H] \rangle +\langle \psi | \frac{\partial A}{\partial t}  |\psi \rangle$$ el cual es llamado Teorema de Ehrenfest.

Si consideramos que $A$ no depende explícitamente del tiempo y que $A$ conmuta con $H$ i.e $[A,H]=0$ entonces encontramos que $ \frac{d}{dt}  \langle A \rangle (t)=0$ lo que se traduce en que $A$ es una constante de movimiento en el problema.


Ejemplos:

$\frac{d}{dt} \langle X \rangle =\frac{1}{i \hbar} \langle [X,H] \rangle$ con $H=\frac{P^2}{2m}+V(X)$. $[X,V(X)]=0$ ya que $V(X)$  es una función exclusiva de $X$. $[X,P^2]= i \hbar P$ entonces:

$$\frac{d}{dt} \langle X \rangle =\frac{1}{i \hbar} \frac{i \hbar}{m} P =\frac{P}{m}$$ la cual es una expresión que recuerda a la física clásica ya que clásicamente $\frac{\vec{p}}{m}=\vec{v}$.

También se puede demostrar que:  $$\frac{d}{dt} \langle P \rangle=  - \langle \nabla V(X) \rangle$$ la cual es una expresión que también recuerda a la mecánica clásica pues $\frac{dp}{dt}= - \nabla V=\vec{F}$.


Comentario por: Sofía Idárraga M.

Muy buen resumen, queda clara la explicación que se dio en los casos de conmutación y no conmutación.

Algo interesante que se mencionó es que el término de “primera cuantización” ya no es muy utilizado, y se hace, en particular, cuando A es alguna variable generalizada Q y B es el momento canónico conjugado, entonces la cuantización canónica, es un procedimiento informal que asigna a una magnitud física (expresable en términos de las coordenadas canónicas del sistema clásico), un operador obtenido por sustitución directa de las variables canónicas por operadores hermíticos Pi y Qi que satisfacen las relaciones [Qi,Pi] = ih/2π, [Qi,Qj] = 0, [Pi,Pj] = 0 y [Qi,Pj] = 0.

Por otro lado, cabe resaltar un análisis que se realizó sobre la naturaleza cuántica estocástica donde en muchas circunstancias \delta A es 0 solo si la medida de la cantidad física A arroja algún autovalor, en principio, solo se obtiene ese valor con cierta probabilidad, pero por otro lado, el problema del laboratorio tiene naturaleza estadística y se tiene muchas fuentes de error y de imprecisión, haciendo que las fuentes sean diferentes al de la naturaleza cuántica estocástica y teórica, por lo que la medida de la cantidad física A sea a1 + \delta a1 en el laboratorio, siendo al fin un problema de análisis de datos. Así pues, en el laboratorio solo se puede aceptar resultados con cierta probabilidad.


Ejercicio:

Calcule $\frac{d< \hat{T}>}{dt}$, donde $\hat{T}$ representa el operador de energía cinética, para un sistema cuántico conservativo. Tenga presente que como es un sistema conservativo, la fuerza aplicada está dada por $F=-\nabla V$.


Solución por Michelle Mora:

Por el Teorema de Ehrenfest: $\frac{d< \hat{T}>}{dt}=\frac{1}{i\hbar}<[\hat{T},\hat{H}]>+\left \langle \frac{\partial \hat{T}}{\partial t} \right \rangle$. Como $\hat{T}$ no depende del tiempo el último término será 0 y teniendo que $\hat{H}=\hat{T}+\hat{V}(\hat{x})$:

$$\frac{d< \hat{T}>}{dt}=\frac{1}{i\hbar}<[\hat{T},\hat{T}+\hat{V(x)}]>$$

$$\frac{d< \hat{T}>}{dt}=\frac{1}{i\hbar}<[\hat{T},\hat{T}]+[\hat{T},\hat{V(x)}]>$$

Como $[\hat{T},\hat{T}]=0$ y $\hat{T}=\hat{P}^2/2m$:

$$\frac{d< \hat{T}>}{dt}=\frac{1}{i\hbar 2m}<[\hat{P}^2,\hat{V(x)}]>$$

$$\frac{d< \hat{T}>}{dt}=\frac{1}{i\hbar 2m}<\hat{P}[\hat{P},\hat{V(x)}]+[\hat{P},\hat{V(x)}]\hat{P}>$$

Usando la propiedad $[\hat{P},f(\hat{x})]=-i\hbar\frac{\partial f}{\partial x}$:

$$\frac{d< \hat{T}>}{dt}=-\frac{i\hbar}{i\hbar 2m}<\hat{P}\triangledown V+\triangledown V\hat{P}>$$

Por la definición de Fuerza tendremos entonces finalmente:

$$\boxed{\frac{d< \hat{T}>}{dt}=\frac{1}{2m}<\hat{P}\hat{F}+\hat{F}\hat{P}>}$$


Problema:


a) Encuentre los estados estacionarios de una partícula en un pozo de potencial infinito de ancho $a$. 

b) Encuentra la representación  momento del estado de mínima energía.

c) Calcule el momento promedio del estado estacionario arbitrario.


Solución ejercicio: 

Para el pozo de potencial infinito se asume que $V(x)$ es cero para la región $0<x<a$ e infinito en cualquier otra región. De la ecuación de Schröndinger se tiene: 

$$\frac{- \hbar^2}{2m} \frac{d^2 \psi}{dx^2} + V_o\psi = E\psi$$ 

Despejando: 

$$\frac{d^2 \psi}{dx^2} = \frac{2m}{\hbar^2}(V_o - E)\psi$$

Luego: 

$$\frac{d^2 \psi}{dx^2} = -\frac{2m}{\hbar^2}(E- V_o)\psi$$

Por hipótesis $V_o = 0$ en la región $0<x<a$. Así, se puede definir una nueva variable $k$ como: 

$$k = \sqrt{\frac{2mE}{\hbar^2}}$$

Por otro lado, la función de onda $\psi(x)$ debe ser cero fuera del intervalo $(0,a)$ y continua en las paredes $x=0$ y $x=a$. Así, dado que: 

$$\frac{d^2 \psi}{dx^2} = -k\psi$$ 

Se tiene como solución: 

$$\psi(x) = A e^{ikx} - A'e^{-ikx} \\ =Acos(kx) + Aisin(kx) - Acos(kx) + Aisin(kx) \\ =2Aisin(kx)$$

Lo anterior es debido al hecho de que $\psi(0)=0$, de lo cual se puede deducir que $A' = A$. Adicionalmente, la condición de que $\psi(a)=0$ permite obtener $k = \frac{n\pi}{a}$. Por lo tanto, la función de onda queda: 

$$\psi(x) = 2Aisin(\frac{n\pi x}{a})$$ 

Recordando que  $k = \frac{n\pi}{a}$ se puede encontrar la energía, dado que la energía dentro del pozo solo sería energía cinética. Donde esta se puede escribir como $E = \frac{P^2}{2m}$ y por hipótesis de Broglie $P = \frac{h}{\lambda} = \frac{2\pi h}{2 \pi \lambda} = \hbar k$. Así, los estados estacionarios de la partícula se pueden escribir como: 

$$E_n = \frac{\hbar^2 k^2}{2m} = \frac{\hbar^2 n^2 \pi^2}{2ma^2}$$ 

Para desarrollar el item b) y c) se toma la función de onda normalizada, la cual se puede escribir como: 

$$\psi(x) = \sqrt{\frac{2}{a}} sin(\frac{n\pi x}{a})$$

Ahora se considera que la partícula en un estado $|\psi_n>$ con energía $E_n$. La propabilidad de una medida del momento $P $ de una partícula entre $P$ y $P + dP$ es: 

$$\bar{P_n}(p)dp = |\bar{\psi(p)}|^2 dp $$

con $\bar{\psi_n}(p) = \frac{1}{\sqrt{2\pi \hbar}} \int_{0}^{a} \sqrt{\frac{2}{a}} sin(\frac{n\pi x}{a}) e^{-ipx/\hbar}dx $, donde el resultado de esta integral es: 

$$ \bar{\psi_n}(p) = \frac{1}{2i\sqrt{\pi \hbar a}} \int_{0}^{a} [e^{i (n\pi /a - p/\hbar)x} - e^{-i(n \pi /a + p/\hbar)x}]dx$$

Definiendo la función $F(p) = \frac{sin(pa /2\hbar)}{pa/ 2\hbar}$ y evaluando la integral se tiene: 

$$\bar{\psi_n}(p) =  \frac{1}{2i\sqrt{\pi \hbar a}}[\frac{e^{i(n\pi/a - p/\hbar)a} -1}{i (n\pi /a - p/\hbar)} - \frac{e^{-i(n\pi/a + p/\hbar)a} - 1}{-i(n\pi/a + p/\hbar)}]$$

Se puede verificar que la función dentro de corchetes dentro de la ecuación atenrior es par si $n$ es par y par si $n$ es impar. 


Por tanto la densidad de probabilidad es una función impar de $p$ en todos los casos. Así: 

$$<P>_n = \int_{-\infty}^{+\infty} \bar{P_n}(p) p dp = 0$$

Así, el valor medio del momento de la partícula en un estado de energía es cero. 

Otra forma de desarrollar el problema es partiendo directamente de la definición del valor esperado en la representación posición: 

$$<P> = \int_{0}^{a}  \psi^*_n (x) (-i\hbar \frac{d}{dx} \psi_n(x) dx) \\= \int_{0}^{a} (\frac{2}{a})^{1/2} sin(n\pi x/a) (-i\hbar \frac{d}{dx}) (\frac{2}{a})^{1/2} sin(n\pi x/a) dx \\ = -i\hbar (2/a) (n\pi /a) \int_{0}^{a} sin(n\pi x /a) cos(n\pi x/a) dx \\= 0$$

Resuelto por: César A. Hoyos. 



 

 

domingo, 17 de julio de 2022

Clase 20: Álgebra de operadores, Varianza de un observador y primeros postulados

 

Álgebra de operadores:

 
$i).$ Sea la matriz $\sigma_{2}$ dada por:

$\sigma_{2} = \begin{pmatrix} 0 & -i \\ i  & 0\end{pmatrix}$ 


Mostrar que: 


$$e^{-i\phi\sigma_{2}} = cos\phi \mathbb{I}_{2 \times 2} - i \sin \theta \cdot \sigma_{2}$$

$ii).$ Mostrar que si $[A,B] = 0$, entonces:

$$e^{A}e^{B} = e^{B}e^{A} = e^{A+B}$$


Solución:

En general, la expasión de Taylor de la función exponencial se puede escribir como

$$ e^{x} = \sum_{n = 0}^{\infty}\frac{x^{n}}{n!} $$

Luego, podemos proponer

$$e^{-i\phi\sigma_{2}} = \mathbb{I} + i\sigma_{2}(-\phi) + i^{2}\frac{\sigma_{2}^{2}}{2!}(-\phi)^{2} + i^{3}\frac{\sigma_{2}^{3}}{3!}(-\phi)^{3} +  i^{4}\frac{\sigma_{2}^{4}}{4!}(-\phi)^{4} + ... $$

Podemos reacomodar la expresión en una parte real y otra imaginaria

$$e^{-i\phi\sigma_{2}} = [\mathbb{I} - i^{2}\frac{\sigma_{2}^{2}}{2!}(-\phi)^{2} +  i^{4}\frac{\sigma_{2}^{4}}{4!}(-\phi)^{4} + ... ] + i[i\sigma_{2}(-\phi) - i^{3}\frac{\sigma_{2}^{3}}{3!}(-\phi)^{3} + ...]$$

 Podemos reconocer en la parte real la expansión en series de Taylor de la función coseno y en la parte imaginaria la expansión de la función seno, sacando un signo - por la paridad de la función. Así, reescribiendo

$$ e^{-i\phi\sigma_{2}} =  \mathbb{I}cos\phi - i\sigma_{2}sin\phi $$

2)

$$ e^{A}e^{B} = \sum \frac{A^{n}}{n!}\sum\frac{B^{n}}{n!} $$

$$\sum_{m=0}^{\infty} \sum_{n=0}^{\infty}\frac{A^{m}B^{n}}{m!n!}$$

A partir de esta expresión es evidente que si $AB = BA$ luego $e^{A}e^{B} = e^{B}e^{A}$

Haciendo $l=m+n$ como consecuencia de que $[A,B] = 0$

$$\sum_{l=0}^{\infty} \sum_{m=0}^{l}\frac{A^{m}B^{l-m}}{m!(l-m)!}$$

$$\sum_{l=0}^{\infty}\frac{1}{l!}\sum_{m=0}^{l} \frac{l!}{m!(l-m)!}A^{m}B^{l-m}$$

$$\sum_{l=0}^{\infty} \frac{(A+B)^{l}}{l!}$$

$$e^{A+B}$$


Varianza de un observable cuántico:

La varianza de un observable cuántico $A$ se define como:

$$ (\Delta A)^2 = \langle (A-\langle A \rangle)^2 \rangle _\psi $$

Demostrar que esta definición lleva a la forma usada convencionalmente para la varianza de $A$:
$$ Var(A) =  \langle A^2 \rangle - \langle A \rangle^2$$


Basado en los contenidos de Cohen-Tanoudji, Diu, Laloë. "Quantum Mechanics Vol. 1", 2 ed. (2019).
 
Solución:
 
Para cada medida, se toma la diferencia entre el valor obtenido y $\langle A \rangle$ 

$\langle A - \langle A \rangle \rangle= \langle A \rangle - \langle A \rangle = 0$

Por la propia definición de $\langle A \rangle$, el promedio de las desviaciones negativas equilibra exactamente el promedio de las positivas.

Para evitar esta compensación, basta con definir $\Delta A$ tal que $(\Delta A)^2$ es la media de los cuadrados de las desviaciones. 

Por definición: 

$\Delta A = \sqrt{\langle (A - \langle A \rangle)^2 \rangle}$

Usando la expresión para el valor medio tenemos: 

$\Delta A = \sqrt{\langle \psi | (A - \langle A \rangle)^2| \psi \rangle}$

Esta relación también se puede escribir de una manera ligeramente diferente de la siguiente manera: 

$\langle( A - \langle A \rangle)^2\rangle = \langle( A^2 - 2 \langle A \rangle A + \langle A \rangle^2)\rangle$

$= \langle A^2 \rangle - 2\langle A \rangle^2 + \langle A \rangle ^2$

$=\langle A^2 \rangle - \langle A \rangle ^2$

Por lo tanto, la desviación de la raíz cuadrada media $\Delta A$ se puede escribir como: 

$\Delta A = \sqrt{ \langle A^2 \rangle -  \langle A\rangle^2}$
 
 

Primeros tres postulados de la Mecánica Cuántica:

 
La descripción clásica de un sistema físico se puede resumir como:

1) El estado de un sistema en un tiempo $t_0$ se define especificando las N coordenadas generalizadas $q_i$ y sus N momentos conjugados $p_i$.

2) El valor, en un tiempo dado, de las cantidades físicas está completamente determinado cuando el estado del sistema en este instante es conocido. Sabiendo el estado del sistema, se puede predecir con certeza el resultado de cualquier medida realizada en un tiempo $t_0$.

3) La evolución temporal del estado de un sistema está dada por la ecuación de Hamilton-Jacobi.

Por otro lado, los postulados de la mecánica cuántica sientan las bases para describir los fenómenos físicos en escalas muy pequeñas. Mediante los postulados se puede describir matemáticamente el estado de un sistema cuántico en un tiempo dado; Cómo se puede predecir los resultados de una medida de varias cantidades físicas; Y cómo se puede encontrar el estado del sistema cuántico en un tiempo arbitrario $t$ conociendo el estado del sistema en el tiempo $t_0$. Es por esto que los postulados se aplican de manera general a la descripción de cualquier sistema cuántico.

 
Clases unificadas pasadas por Manuela Mesa Sánchez
 


domingo, 10 de julio de 2022

# Clase 17 Algebra de los operadores

Álgebra de operadores 

Cuando se habla del álgebra de operadores, se hace referencia a como se comportan los conmutadores de estos. La importancia de este análisis recae en que permite establecer cual es el conjunto completo de los observables que conmutan y por lo tanto cuales son los autovalores que son importantes para estudiar un sistema. Estos autovalores suelen llamarse números cuánticos. 

Para esto se han de tener presentes algunas de las propiedades de los conmutadores:

  • $[A,B]=-[B,A]$
  • $[A,\alpha B+C]=\alpha[A,B]+[A,C]$
  • $[A,BC]=[A,B]C+B[A,C]$
  • $[A,B]^{\dagger}=[A^{\dagger},B^{\dagger}]$
También se tiene la identidad de Jacobi: $$[A,[B,C]]+[C,[A,B]]+[B,[C,A]]=0$$

Con los operadores se pueden construir funciones como "polinomios" y funciones exponenciales mediante expansiones de Taylor. Por ejemplo para un operador $A$ se puede escribir: 

$$P(A)=a_nA^n+a_{n-1}A^{n-1}+...+a_0$$
$$f(A)=e^A=\sum_{n=0}^{\infty}\frac{A^n}{n!}=I+A+\frac{A^2}{2!}+...$$

Si $e^A$ se dejara actuar sobre un vector $| \varphi \rangle$ se obtendría:
 $$e^A| \varphi \rangle=\sum_{n=0}^{\infty}\frac{A^n}{n!}| \varphi \rangle=\sum_{n=0}^{\infty}\frac{a^n}{n!}| \varphi \rangle=e^a| \varphi \rangle$$

Donde $a$ sería un autovalor del operador $A$. 

También pueden realizarse aproximaciones mediante estas expansiones, por ejemplo para un $\lambda \leqslant 1$  se puede tener una aproximación del tipo: 
$$e^{\lambda A}\approx I + \lambda A$$

Un punto importante a tener en cuenta es que si $[A+B]\neq 0$, entonces $ e^A e^B\neq e^{A+B}$. puesto que en la multiplicación de operadores el orden es relevante. 

En la mecánica cuántica los operadores pueden depender de algún parámetro, generalmente este parámetro es el tiempo. Entonces para un operador $A(t)$ es posible seguir utilizando la definición tradicional de la derivada temporal tal que $\dot A=\frac{dA}{dt}$. Esta derivación con respecto a $t$ es distinta por ejemplo a la derivada parcial con respecto al tiempo pues mientras $t$ es un parámetro $\frac{\partial}{\partial x}$ es un operador.

Dentro de la mecánica cuántica se toma a $t$ como un parámetro no relativista, esto quiere decir que se trabaja en un espacio $\mathbb{R}^3+\mathbb{R}$, donde $ \mathbb{R}^3$ hace referencia a las coordenadas espaciales y  $\mathbb{R}$ hace referencia al tiempo que se toma como un parámetro escalar y que no tiene efectos relativistas, es decir, no se mezcla con las coordenadas espaciales. 

Postulados de la mecánica cuántica 

La mecánica cuántica toma elementos de la mecánica clásica como el Hamiltoniano, el Lagrangiano y la teoría de Jacobi. A partir de ellas se construye una teoría adaptada a la cuántica


1. Primer postulado

En un tiempo $t_o$ el estado de un sistema está definido por un ket $| \varphi (t_o) \rangle$  $\epsilon$ $\varepsilon$, donde  $\varepsilon$ es un espacio de estados.

2. Segundo postulado

 Cada cantidad física medible $\mathbb{A}$, es descrita por un operador $A$ en $\varepsilon$, $A$  es un observable. Es decir, existe un relación entre medible y ser un observable, recordando que un     observable es un operador hermítico con raíces reales. Las cantidades físicas determinan las bases de $\varepsilon$ que se van a usar, puesto que los operadores relacionados a ellas dan una base completa para $\varepsilon$. Por ejemplo el la posición $x$ está relacionada con el operador $\chi$ que a su vez está relacionado con la base $\xi _{r_o}(r)\to | r_o \rangle$.

3. Tercer postulado

El único posible resultado de la medida de una cantidad física $\mathbb{A}$ es uno de los autovalores de su observable asociado $A$. De esta manera, cada vez que se hace la medida de una cantidad física, se obtendrá uno de los autovalores del operador, que como se vio previamente son reales. Entonces si se tiene un sistema $\varphi$ y se está midiendo una cantidad física $\mathbb{A}$ asociada a un operador $A$, se va a obtener el valor real $a$ tal que $$A|\varphi\rangle=a|\varphi\rangle$$.

Si se realizaran dos medidas en un sistema con exactamente la misma configuración, se pueden obtener valores diferentes $a$ y $a'$, sin embargo estos van a ser autovalores del operador asociado a la cantidad medida. 

4.Cuarto postulado: Descomposición espectral 

Un operador determina una base en el espacio de estados $A\to | u_i\rangle$, de modo que un estado $|\varphi\rangle$ puede ser escrito como la combinación lineal de esta base $|\varphi\rangle=\sum C_i |u_i\rangle$.
Si tenemos el operador $A$ actuando sobre elementos de la base se tendría $$A| u_i\rangle=a_i| u_i\rangle$$
 De este modo $A$ actuando sobre un estado  $|\varphi\rangle$ sería: $$A|\varphi\rangle=\sum C_i A|u_i\rangle$$ $$A|\varphi\rangle=\sum C_i a_i|u_i\rangle$$

Los coeficientes $C_i$ están relacionados con la probabilidad de obtener un autovalor al hacer una medida. La probabilidad de obtener uno de los autovalores está dada por: 
$$P(a_n)=|\langle u_n|\varphi \rangle|^2$$




EJERCICIO 1 

Muestre que:

a) el determinante de un operador permanece invariante bajo transformaciones de similaridad.

b) un operador hermítico permanece hermítico bajo una transformación de similaridad unitaria.


Propuesto por: Valentina Pérez Cadavid.

Solución.

Sean $ \hat{T} $ y $\hat {\tilde{T}}$ operadores tales que $ \hat{T}  = A\hat {\tilde{T}}A^{-1}$ (transformación de similaridad)

a) Se tiene que det( $ \hat{T} $ ) = det($ A\hat {\tilde{T}}A^{-1} $). 

Por un resultado del álgebra lineal sabemos que det( $ AB $ ) = det( $BA $ ), así se tiene que

 det( $ \hat{T} $ ) = det($ A\hat {\tilde{T}}A^{-1} $) =  det($A^{-1} A\hat {\tilde{T}} $)  = det($\hat {\tilde{T}}$)

Así el determinante de  $ \hat{T} $ permanece invariante bajo transformaciones de similaridad.


b) Sea  $ \hat{T} $ un operador hermitico, es decir $ \hat{T} = \hat{T}^{\dagger} $ y que transforma como  $ \hat{T}  = S\hat {\tilde{T}}S^{\dagger}$ (S es unitaria).

Entonces como  $ \hat{T} $ es hermitico,  $ \hat{T} ^{\dagger} = (S\hat {\tilde{T}}S^{\dagger})^{\dagger}$, por resultado del álgreba lineal tenemos que  $ (AB)^T = A^TB^T $, así

$ \hat{T} ^{\dagger} = (S\hat {\tilde{T}}S^{\dagger})^{\dagger} $

$ \hat{T} ^{\dagger} =S(S\hat{\tilde{T}})^{\dagger} = S \hat{\tilde{T}}^{\dagger}S^{\dagger}$ 

Teniendo en cuenta que $ \hat{T} $ es hermitico, se sigue que

$ \hat{T} ^{\dagger} = \hat{T} =  S\hat {\tilde{T}}S^{\dagger} = S \hat{\tilde{T}}^{\dagger}S^{\dagger} $

Como S es unitaria, entonces

$ S^{\dagger}S\hat {\tilde{T}}S^{\dagger}S =S^{\dagger}S \hat{\tilde{T}}^{\dagger}S^{\dagger} S$

Así $\hat {\tilde{T}} = {\tilde{T}}^{\dagger}$








 

sábado, 9 de julio de 2022

Clase #16: representacion de operadores

Dado un operador lineal A en una base $\left | u_{i} \right \rangle o \left | w_{i} \right \rangle$, podemos asociar con el una serie de números definidos por:

$$A_{ij}=\left \langle u_{i}\left | A \right |u_{j} \right \rangle$$

O en una base continua:

$$A_{\alpha \alpha^{'} }=\left \langle w_{\alpha}\left | A \right |w_{\alpha}^{'}\right \rangle$$

Estos números dependen de dos índices y por tanto pueden ser ordenados en una matriz tipo n\times n. Por convención, para el operador en la base $\left | u_{i} \right \rangle$, su representación matricial se escribe como:

$$\begin{pmatrix} A_{11} & A_{12} & \cdots  & A_{1j}\\

A_{21}&  A_{22}& \cdots  & A_{2j}\\ 

\vdots &  \vdots&  \vdots& \vdots\\ 

A_{i1}&  A_{i2}&  \cdots & A_{ij} \end{pmatrix}$$

Se puede observar que la $j-esima$ columna se conforma por componentes en la base $\left | u_{i} \right \rangle$  de la transformación $A\left | u_{i} \right \rangle$ del vector de la base $\left | u_{j} \right \rangle$

Representación del ket $\left | \psi ^{'}\right \rangle=A\left | \psi\right \rangle$

Conociendo las componentes de $\left | \psi\right \rangle$ y los elementos de matriz de $A$ en cierta representación, es posible calcular las componentes de en dicha representación.

 En la base $\left | u_{i}\right \rangle$, la coordenada de $c_{i}^{'}$ de $\left | \psi\right \rangle$ está dada por:

$$c_{i} ' =  \langle{u_{i}} | \psi ' \rangle = \langle{u_{i}} |A| \psi \rangle$$

 Aplicando la relación de completez, se obtiene:

 $$c_{i} ' =   \langle{u_{i}} |A \mathbb{I}| \psi \rangle =  \langle{u_{i}} |A P_{u_{j}}| \psi \rangle$$

 $$\sum_{j} \langle{u_{i}} |A| u_{j} \rangle \langle{u_{j}} | \psi \rangle$$

 $$\sum_{j} A_{ij} c_{j}$$

 De la misma manera para una base continua $|w_{\alpha}\rangle$:

 $$c_{\alpha} ' =  \langle{w_{\alpha}} | \psi ' \rangle = \langle{w_{\alpha}} |A| \psi \rangle$$

 $$\int d \alpha '\langle{w_{\alpha}} |A| w_{\alpha '}  \rangle \langle{w_{\alpha '} }|\psi \rangle$$

 $$\int d \alpha ' A(\alpha , \alpha ') c(\alpha ')$$

 

 Expresión para el número $\langle{\phi} |A| \psi \rangle$

 Al insertar la relación de completez entre $\langle{\phi}|$ y $A$ y nuevamente entre $A$ y $ | \psi \rangle $, se obtiene:

 $$ \langle{\phi} |A| \psi \rangle =   \langle{\phi} |P_{u_{i}}AP_{u_{j}}| \psi \rangle$$

 $$ \sum_{i,j} b^{*}_{i} A_{ij} c_{j}$$

 Y de manera análoga para la base continua:

 $$ \langle{\phi} |A| \psi \rangle =   \langle{\phi} |P_{w_{\alpha}}AP_{w_{\alpha '}}| \psi \rangle$$

 $$ \int \int d \alpha d \alpha '  b^{*}(\alpha) A(\alpha , \alpha ') c(\alpha ')$$

martes, 5 de julio de 2022

Clase 14: Representaciones de estados, operadores y cambio de base

 

 Representación en el espacio de estados:

Antes de adentrarnos de lleno en el terreno de estados y operadores cuánticos se muestra un ejemplo intuitivo de la representación de un vector en diferentes bases, para esto tomamos el ejemplo de una rotación de ejes en $\mathbb{R}^3$ como se muestra en la figura 1 :

Figura 1: rotación de ejes coordenadas en $\mathbb{R}^3$

Si definimos un conjunto de vectores base $\{i,j,k\}$ siempre podemos realizar una rotación a un sistema con ejes $\{i´ ,j´,k´ \}$. Al realizar esto un vector cualesquiera $\overrightarrow{r}=(x,y,z)$ puede ser descrito en la nueva base como $\overrightarrow{r'}=(x´,y´,z´)$ mediante una transformación lineal representada por una matriz $A$, así mismo los operadores $T$ en la base original cambian de representación a $T´$ , es decir: $\overrightarrow{R} =T \overrightarrow{r} \rightarrow \overrightarrow{R´}=T' \overrightarrow{r´}$.


Ahora, realizando definiciones más formales, sea $\mathcal{E}$ el espacio de estados, para estudiarlo debemos de definir bases que permitan poseer una representación de los elementos pertenecientes a  $\mathcal{E}$. Sea $| \psi \rangle $ un elemento del espacio de estados, sea la base discreta completa $ \{    | u_i \rangle  \} $ ortonormal, i.e $ \langle u_i | u_j \rangle =\delta_{ij}$, se la base continua completa a $ \{    | v_{\alpha} \rangle  \} $ ortonormal, i.e $ \langle v_{\alpha} | v_{\alpha´} \rangle =\delta(\alpha-\alpha')$.

Cualquier vector $| \psi \rangle $ puede ser expandido por estas bases debido a la condición de cerradura, por tanto en la base discreta  $| \psi \rangle=\displaystyle\sum_{i} c_i   | u_i \rangle$ o en la base continua $| \psi \rangle= \int_{V} d \alpha \, c(\alpha) |u_{\alpha} \rangle $. 

$c_i$ puede escribirse como $c_i= \langle u_i | \psi \rangle$ i.e las proyecciones de $| \psi \rangle$ sobre los elemento de la base $| u_i \rangle$, para la base continua se tiene $ \langle v_{\alpha'} | \psi \rangle=c(\alpha´)$.

de esta manera  $| \psi \rangle= \displaystyle\sum_{i}  \langle u_i | \psi \rangle  | u_i \rangle =   \displaystyle\sum_{i}  |u_i \rangle  \langle u_i |   \psi \rangle =  (\displaystyle\sum_{i}  |u_i \rangle  \langle u_i | )  \psi   $

por tanto se obtiene la relación: 

$$\displaystyle\sum_{i} |u_i \rangle  \langle u_i |=\mathbb{1}$$ la cual es la condición de cerradura, i.e la base es completa, así esta expande todo el espacio de estados (todos son expresables). 

Para la base continua el procedimiento es análogo y se encuentra: $$| \psi \rangle= \int_{V} d \alpha \,  | v_{\alpha´} \rangle \langle v_{\alpha}|  =1 $$.

Matricialmente, si escogemos una base conveniente podemos asociar un vector columna con los coeficientes $c_i$ i.e los coefientes que permiten expresar los estados de $| \psi \rangle$ en dicha representación como se muestra: 

 $$ \begin{pmatrix}c_{0} \\ \vdots \\  c_i   \\  \vdots  \end{pmatrix} =  \begin{pmatrix} \langle u_0 | \psi \rangle \\ \vdots \\   \langle u_i | \psi \rangle   \\  \vdots  \end{pmatrix}  \qquad , \qquad   \begin{pmatrix} \vdots \\  c(\alpha)   \\  \vdots  \end{pmatrix} =  \begin{pmatrix} \vdots \\   \langle v_{\alpha} | \psi \rangle   \\  \vdots  \end{pmatrix}  $$

a la izquierda es la representación matricial para bases discretas, a la derecha es la representación matricial para bases continuas, $\alpha$ puede ser un número o varios; recordemos el ejemplo de la base en el espacio de momentos en la cual $v_{\overrightarrow{p}}$ eran los componentes de la base continua en el espacio de Fourier (de momentos) con $\overrightarrow{p}=(p_x,p_y,p_z)$.

Si los kets se pueden representar como vectores columna, entonces los bras deben de poseer una representación vectorial similar: sea $\langle \psi | $=  $\langle \psi |  1 = \displaystyle\sum_{i}\langle \psi |u_i \rangle  \langle u_i |$ pero  $c_i= \langle u_i | \psi \rangle \Rightarrow c_i^{*}= \langle \psi | u_i \rangle$ por tanto: $$\langle \psi |= c_i^{*}  \langle u_i|  $$

Ahora calculando $ \langle \phi | \psi \rangle $ en una base específica es conveniente introducir el operador identidad 1, así:  $$ \langle \phi | \psi \rangle=  \langle \phi | 1 |\psi \rangle = \displaystyle\sum_{i}  \langle \phi | u_i \rangle   \langle u_i | \psi \rangle= \displaystyle\sum_{i} b_i^* c_i \in  \mathbb{C} $$. Para una base continua el procedimiento es análogo  $$ \langle \phi | \psi \rangle=  \langle \phi | 1 |\psi \rangle =  \int_{V} d \alpha \,  \langle \phi | v_{\alpha} \rangle   \langle v_{\alpha} | \psi \rangle=  \int_{V} d \alpha \,b(\alpha)^{*} c(\alpha) \in  \mathbb{C}  $$. 

Matricialmente podemos interpretar entonces los kets como vectores columna y los bra como vectores fila aplicando complejo conjugado de tal manera que el producto interno  $ \langle \phi | \psi \rangle $ es simplemente el producto de un vector fila por un vector columna.


Representación de operadores

Consideremos un operador $A$ en un espacio abstracto $\mathcal{E}$. 

Los elementos matriciales del operador $A$ pueden ser obtenidos en una base discreta como:   $$A= \langle u_i | A | u_j \rangle$$ para efectos prácticos se puede considerar $A$ como una matriz cuadrada. 

Para una base continua: $$A(\alpha,{\alpha}´)=\langle v_{\alpha} | A | v_{\alpha}'  \rangle$$ la cual puede ser considerada como una función en dos variables.


Ahora, encontrando la representación matricial de $| \psi' \rangle=A | \psi \rangle $.

  • Si expandimos $ |\psi \rangle$ ,  $| \psi \rangle=\displaystyle\sum_{i} c_i   | u_i \rangle$ luego  $| \psi' \rangle=A | \psi \rangle=A  \displaystyle\sum_{i} c_i   | u_i \rangle=  \displaystyle\sum_{i} c_i A  | u_i \rangle$ (debido a la linealidad), por otro lado $| \psi' \rangle=\displaystyle\sum_{i} {c_i}'   | u_i \rangle$, comparando estas expresiones se llega a: $$ c_i' = \displaystyle\sum_{j} A_{ij} c_j$$ es decir, podemos representarlas como productos matriciales:

          Para las bases continuas: $$c'(\alpha)= \int_{V} d \alpha' \, A(\alpha,\alpha') c(\alpha') $$

  • Calculando $ \langle \phi | A |\psi \rangle \in \mathbb{C}$, $$ \langle \phi | A |\psi \rangle=\langle \phi | 1 \, A \, 1 |\psi \rangle=\displaystyle\sum_{i,j} \langle \phi | u_i \rangle  \langle u_i|A | u_j \rangle  \langle u_j | \psi \rangle = \displaystyle\sum_{i,j} b_i^* A_{ij} c_j$$ la cual se puede representar por el producto de un vector fila ($b_i^*$), una matriz $(A_{ij})$ y un vector columna ($c_j$).
  • Forma matricial de adjunto de un operador:   
         $(A^{\dagger})_{ij}= \langle u_i | A^{\dagger} | u_j \rangle =  \langle u_j | A | u_i \rangle ^*=(A_{ji})^*$
          i.e matricialmente $A^{\dagger}$ representa el transpuesto complejo conjugado. 

         Si el operador es hermítico: 
         para una base discreta $A_{ij}=A_{ji}^*$        
         Para una base continua $A(\alpha,\alpha')=A(\alpha´,\alpha)^*$



Cambio de representación (matrices de cambio de base):

Se dos bases discretas $ |u_i \rangle$ , $ |z_j \rangle$ tal que: $| \psi \rangle=\displaystyle\sum_{i} c_i   | u_i \rangle$,  $| \psi \rangle=\displaystyle\sum_{j} d_j   | z_j \rangle$.

Para responder la pregunta de como se relacionan la dos bases podemos expandir $ |u_i \rangle$ en términos de $ |z_j \rangle$, así $| u_i \rangle=\displaystyle\sum_{j} S_{ij}   | z_j \rangle$, ahora si 'conectamos' $\langle z_l| $  a la expresión anterior obtenemos  $\langle z_l| u_i \rangle=\displaystyle\sum_{j} \langle z_l| S_{ij}   | z_j \rangle=\displaystyle\sum_{j}S_{ij} \delta_{lj}=S_{li}$ ya que  $\langle z_i |z_k \rangle=\delta_{ik}$. Por tanto: $$\langle z_l| u_i \rangle=S_{li} $$

A la representación matricial de $S_{ij}$ la llamamos matriz de cambio de base o matriz de cambio de representación.

Para los bra se puede demostrar que: $$\langle u_i| z_l \rangle= \langle z_l| u_i \rangle^*=S_{li}^*=(S_{il})^{\dagger} $$.

Por otro lado $ |u_i \rangle= \displaystyle\sum_{j}S_{ij}  \displaystyle\sum_{k} |u_k \rangle  \langle u_k | z_j \rangle = \displaystyle\sum_{j} S_{ij} \langle u_k | z_j \rangle  |u_k \rangle $, pero $ \langle u_k | z_j \rangle=S^{\dagger}$ por tanto para que se cumpla la igualdad : $$ S S^{\dagger}=S^{\dagger} S=I, \qquad \text{matriz unitaria} \\ S^{\dagger}=S^{-1} \Rightarrow \text{det}(S^{\dagger} S)=1 \Rightarrow  \text{det (S)}=\pm 1 $$.

La matriz S también puede ser usada para realizar cambios de base en operadores:

$A_{ij}= \langle u_i |\, 1\,  A \, 1 \, |u_j \rangle=\displaystyle\sum_{k,l} \langle u_i | z_k \rangle  \langle z_k|A | z_l \rangle  \langle z_l | u_j \rangle $ pero

$S_{ik}^{\dagger}= \langle u_i | z_k \rangle$, $A_{kl}= \langle z_k|A | z_l \rangle$, $S_{lj}= \langle z_l | u_j \rangle$ así: $$ A_{ij}=\displaystyle\sum_{k,l} S_{ik}^{\dagger} A_{kl} S_{lj}$$

Si relacionamos este resultado con los operadores ortogonales en $\mathbb{R}^3$ observamos que esa operación no es más que una diagonalización de A, así: $$A \rightarrow A' =S^{\dagger}  A  \, S$$


Utilidades del cambio de base

Implementar un cambio de base permite llevar operaciones a espacios en los cuales es más sencillo realizarlas, tomemos por ejemplo el caso de encontrar los ejes principales de una forma cuadrática como se muestra en la figura 2. 

Figura 2: rotación de ejes en  $\mathbb{R}^2$

Al realizar una diagonalización de la forma funcional de la elipse presentada en la figura 2 podemos encontrar los ejes principales de esta, es decir, los ejes respecto a  los cuales la elipse no está rotada (no presenta términos cruzados). 
en $xy \rightarrow ax^2+bxy+cy^2=k \qquad \text{en  } x´y´ \rightarrow a'x'^2+c'y'^2=k´ $
con esto en mente podemos introducir los autovalores de un operador.


Autovalores y observables:

Definimos los autovalores $ \lambda_i$ asociados a un operador $A$ que cumplen: 

$$ A  | u_i \rangle = \lambda_i   | u_i \rangle, \, \lambda_i \in  \mathbb{C} \text{    ecuación de autovalores de  } A $$

Nos interesa estudiar operadores $A$ relevantes para cantidades físicas, es decir, que actúen sobre un espacio  $\mathcal{E}$ con significado físico un ejemplo de ello es el espacio de estados.  

Para encontrar los autovalores se recurre a la ecuación propuesta en el álgebra lineal:

$$ \text{Det} (A-\lambda I)=0 \, \, \text{Ecuación característica de } A  $$



Referencias: 

  •  Cohen-Tannoudji C., Diu B., Laloe F. (1973) Vol. 1: Quantum Mechanics.
  • Rotation about z axis by an angle φ [Graph].Malhotra, Lakshya & Golub, Robert & Krägeloh, Eva & Nouri, Nima & Plaster, Bradley. (2019). Effect of Thomas Rotation on the Lorentz Transformation of Electromagnetic fields.
  • Rotation of axes. (2018). [Graph]. Lumen Learning. https://courses.lumenlearning.com/precalctwo/chapter/rotation-of-axes/

Ejercicio clase #14:  Espacio de estados y espacios duales.

Sea $B = {\{e_{i}\}}_{i=1,...,n}$  base del espacio vectorial $V$ de dimensión $n$ en un campo $K$.

Entonces un vector $v$ tal que $v \in V$ se puede escribir como: $$v = \sum_{i=1}^{n}{v^{i}e_{i}} \:\:\:\ ; \:\:\:\ v^{i} \in K$$

Sea $B^{\ast} = {\{e^{\ast j}\}}_{j=1,...,n}$ conjunto de $n$ elementos que cumplen las siguientes propiedades:

$$e^{\ast i}(e_{j}) = \delta_{ij} \:\:\:\ ; \:\:\:\ e^{\ast i}(v) = v^{i} \in K$$

Mostrar:

i) Los elementos de $B^{\ast}$ son linealmente independientes y por lo tanto, una base para el espacio dual $V^{\ast}$ (teniendo en cuenta que $dimV = dimV^{\ast}$) 

ii) Un vector $f^{\ast}$ tal que $f^{\ast} \in V^{\ast}$ entonces $f^{\ast}$ se puede escribir de la siguiente manera:

$$f^{\ast} = \sum_{i=1}^{n} f_{i}^{\ast} e^{\ast i}$$

Donde $ f_{i}^{\ast} =  f^{\ast}(e_{i})$

Solución ejercicio clase #14: Espacio de estados y espacios duales.

i) Hagamos actuar una combinación lineal del espacio dual sobre un elemento del espacio $V$ e igualemos a cero

$$\sum_i c_i e^{*i}(v) = 0$$

Con $v = \sum_{j}{v^{j}e_{j}}$

$$\sum_{ij} c_i e^{*i}(v^j e_j) = \sum_{ij} c_i v^j e^{*i}(e_j) = \sum_{ij} c_i v^j \delta_{ij}  = \sum_{j} c_j v^j = 0$$

Como $B$ es base, en esta igualdad los coeficientes $v^j$ no son necesariamente idénticos a cero, y por tanto para esta suma ser cero, cada coeficiente debe cumplir que $c_j = 0$. Lo cual, viendo la combinación lineal inicial, significa que los elementos de $B^{*}$ son linealmente independientes.

ii) Veamos como actúa el vector $f^*$ sobre v

$$f^*(v) = f^* (\sum_{i}{v^{i}e_{i}}) =  \sum_{i}{v^{i} f^*(e_{i})} =  \sum_{i}{v^{i}f^{*}_i}$$

Es condición que $e^{\ast i}(v) = v^{i}$ por tanto

$$f^*(v) = \sum_{i}{f^{*}_i e^{\ast i}(v)}$$ 

Lo cual demuestra que $f^*$ se puede escribir como

$$f^{\ast} = \sum_{i} f_{i}^{\ast} e^{\ast i}$$


viernes, 1 de julio de 2022

Clase 13: Efecto tunel

Aplicación.

  Una de la aplicaciones del efecto túnel es el microscopio de efecto túnel, el cual es un instrumento para tomar imágenes de superficies a nivel atómico. Su desarrollo en 1981 hizo ganar a sus inventores, Gerd Binnig y Heinrich Rohrer, el Premio Nobel de Física en 1986.

El funcionamiento de este, se da cuando una punta conductora es colocada muy cerca de la superficie a ser examinada, una corriente de polarización (diferencia de voltaje) aplicada entre las dos puede permitir a los electrones pasar al otro lado mediante el efecto túnel a través del vacío entre ellas. La resultante corriente de tunelización es una función de la posición de la punta, el voltaje aplicado y la densidad local de estados de la muestra. La información es adquirida monitorizando la corriente conforme la posición de la punta escanea a través de la superficie, y es usualmente desplegada en forma de imagen. La microscopía de efecto túnel puede ser una técnica desafiante, ya que requiere superficies extremadamente limpias y estables, puntas afiladas, excelente control de vibraciones, y electrónica sofisticada.

FIG 1: Microscopio de efecto túnel




FIG 2: Nanotubo de Carbono (Imagen tomada desde un microcopio de efecto túnel)



Conociendo la función de onda es posible calcular la densidad de probabilidad para que el electrón se encuentre en una localización en particular. En el caso de efecto túnel, las funciones de onda de la punta y la muestra se traslapan tal que cuando están bajo una tensión de voltaje, existe alguna probabilidad finita de encontrar al electrón en la región de barrera e incluso del otro lado de la barrera. Se asume que la tensión de voltaje es V y la anchura de la barrera es W. La probabilidad mencionada, de que un electrón en z=0 pueda ser encontrado en z=W es proporcional al cuadrado de la función de onda.




Clase 34: Experimento de Stern Gerlach

 El experimento consiste de la deflexión de un rayo de atomos neutros paramagnéticos al pasar por un campo magnético altamente no-homogéneo ...