Tengo $x= \exp(At)$ donde $A$ es una matriz. Me gustaría encontrar la derivada de $x$ con respecto a cada elemento de $A$. ¿Podría alguien ayudarme con este problema?
Respuestas
¿Demasiados anuncios?Teniendo en cuenta la expresión $x = \exp(tA)$ puedo pensar en dos derivadas.
Primero, la derivada con respecto a la variable real $t$ de la función matricial $t \mapsto \exp(tA)$. Aquí el resultado se deriva fácilmente del cálculo directo de la definición en serie de la exponencial de una matriz: \begin{align} \frac{d}{dt} \exp(tA) &= \frac{d}{dt} \left[ I+tA+\frac{1}{2}t^2A^2+\frac{1}{3!}t^3A^3+ \cdots\right] \\ &= A+tA^2+\frac{1}{2}t^2A^3+ \cdots \\ &= A\exp(tA) \end{align} Así, $\frac{d}{dt} \exp(tA) = A\exp(tA)$.
Segundo, podemos diferenciar con respecto al componente $A_{ij}$ de $A = \sum A_{ij} E_{ij}$ donde $E_{ij}=e_ie_j^T$ es la matriz que es cero excepto en la posición $ij$ donde hay un $1$. En otras palabras, $(E_{ij})_{kl} = \delta_{ik}\delta_{jl}$. Veré la derivada como una derivada direccional esencialmente: calcular la diferencia a lo largo de la dirección de $E_{ij}$: considerando $f(t,A)=\exp(tA)$ $$ \frac{\partial f}{\partial A_{ij}}= \lim_{h \rightarrow 0}\frac{1}{h} \left[\exp(t(A+hE_{ij}))-\exp(tA)\right]$$ Espero que esto se pueda simplificar.
Ok, la exponencial de una matriz satisface la relación de Baker-Campbell-Hausdorf: $$ \exp(A)\exp(B) = \exp\left(A+B+ \frac{1}{2}[A,B] + \cdots\right)$$ A partir de esto se deriva la fórmula de Zassenhaus, $$ \exp(A+B) = \exp(A)\exp(B)\exp\left(-\frac{1}{2}[A,B] + \cdots\right) $$ Usaré esto para simplificar $\exp( t(A+hE_{ij})) = \exp\left(tA+ thE_{ij}\right)$ $$ \exp\left(tA+ thE_{ij}\right) = \exp(tA)\exp\left( thE_{ij}\right) \exp\left( -\frac{1}{2}[tA,thE_{ij}]+ \cdots\right)$$ por lo tanto $$ \exp\left(tA+ thE_{ij}\right) = \exp(tA)\exp\left( thE_{ij} -\frac{1}{2}[tA,thE_{ij}]+ \cdots\right)$$ donde estoy omitiendo términos con $h^2,h^3,\dots$ ya que estos desaparecen en el límite y también estoy omitiendo términos con conmutadores anidados de $A$ así que la respuesta a continuación son solo los primeros términos en una serie infinita que fluye de la relación BCH. \begin{align} \frac{\partial f}{\partial A_{ij}}&= -\lim_{h \rightarrow 0}\frac{1}{h} \left[\exp(tA)-\exp(t(A+hE_{ij}))\right] \\ &=-\lim_{h \rightarrow 0}\frac{1}{h} \left[\exp(tA)-\exp(tA)\exp\left( thE_{ij} -\frac{1}{2}[tA,thE_{ij}]+ \cdots\right) \right] \\ &=-\exp(tA)\lim_{h \rightarrow 0}\frac{1}{h} \left[I-\exp\left( thE_{ij} -\frac{1}{2}[tA,thE_{ij}]+ \cdots\right) \right] \\ &=-\exp(tA)\lim_{h \rightarrow 0}\frac{1}{h} \left[I-I-thE_{ij} +\frac{1}{2}[tA,thE_{ij}]+ \cdots \right] \\ &=-\exp(tA)\left[-tE_{ij} +\frac{t^2}{2}[A,E_{ij}]+ \cdots \right]. \end{align} Nota que los términos lineales en $h$ sí sobreviven al límite y hay tales términos (indicados por el $+ \cdots$) que provienen de $[tA,[tA,hE_{ij}]]$ y $[tA,[tA,[tA,hE_{ij}]]]$ etc. Ahora, puedes calcular: $[A,E_{ij}] = \sum_{k=1}^n \left(A_{ki}E_{kj}-A_{jk}E_{ik} \right)$ así que, $$ \frac{\partial f}{\partial A_{ij}} = -\exp(tA) \left[-tE_{ij}+ \frac{t^2}{2}\left(A_{ki}E_{kj}-A_{jk}E_{ik} +\cdots \right)\right]$$ Por lo que vale, puedes simplificar el conmutador anidado: $$ [A,[A,E_{ij}]] = \sum_{k,l=1}^n \left( A_{lk}A_{ki}E_{lj}-2A_{ki}A_{jl}E_{kl}+A_{jl}A_{lk}E_{ik} \right)$$ O, en notación de Einstein, $$ [A,[A,E_{ij}]] = (A^2)_{li}E_{lj}-2A_{ki}A_{jl}E_{kl}+(A^2)_{jk}E_{ik}.$$ De todos modos, espero que esto ayude. Observa que si $i=j$ y $A$ es diagonal o si simplemente $[A,E_{ij}]=0$ entonces obtenemos: $$ \frac{\partial }{\partial A_{ij}} \exp(tA) = t\exp(tA)E_{ij}.$$ (Los errores en los signos han sido corregidos, perdón por todos los signos menos extraños: 9-18-21).
Según Derivatives of the Matrix Exponential and Their Computation (que hace referencia a Karplus, Schwinger, Feynmann, Bellman y Snider) la derivada puede expresarse como el mapa lineal (es decir, derivada de Fréchet)
$$\frac{\rm{d} e^{At}}{\rm{d} A} = \Big(V\longmapsto\int_{0}^t e^{A(t-\tau)}Ve^{A\tau}\,\rm{d}\tau\Big)$$
Podemos verificar la respuesta de Hyperplane directamente. La derivada de Fréchet de la exponencial de una matriz $$ f:A\mapsto e^A=I+A+\frac{1}{2!}A^2+\frac{1}{3!}A^3+\cdots $$ es \begin{align*} Df(A):H&\mapsto H+\frac{1}{2!}(HA+AH)+\frac{1}{3!}(HA^2+HAH+AH^2)+\cdots\\ &=\sum_{k=0}^\infty \sum_{r=0}^k \frac{1}{(k+1)!} A^r H A^{k-r}\\ &=\sum_{k=0}^\infty \sum_{r=0}^k \frac{B(k-r+1, r+1)}{r!(k-r)!} A^r H A^{k-r}\\ &=\sum_{k=0}^\infty \sum_{r=0}^k \frac{\int_0^1 s^r(1-s)^{k-r} ds}{r!(k-r)!} A^{k-r} H A^r\\ &=\int_0^1 \sum_{k=0}^\infty \sum_{r=0}^k \frac{(1-s)^{k-r}s^r}{r!(k-r)!}A^{k-r} H A^r ds\\ &=\int_0^1 \left(\sum_{n=0}^\infty \frac{1}{r!}(1-s)^rA^r\right) H \left(\sum_{n=0}^\infty \frac{1}{r!}s^rA^r\right) ds\\ &=\int_0^1 e^{(1-s)A} H e^{sA} ds.\\ \end{align*} Para $g(A)=e^{tA}=(f\circ L)(A)$ donde $L(A)=tA$, tenemos $$ Dg(A)(H)=Df\big(L(A)\big)DL(A)(H)=tDf(tA)(H). $$ Por lo tanto \begin{align*} Dg(A)(H) =\sum_{k=0}^\infty \sum_{r=0}^k \frac{t^{k+1}}{(k+1)!} A^r H A^{k-r} =t\int_0^1 e^{(1-s)tA} H e^{stA} ds =\int_0^t e^{(t-\tau)A} H e^{\tau A} d\tau. \end{align*} En particular, cuando $H=E_{ij}$,$$ \frac{\partial e^{tA}}{\partial A_{ij}}=\sum_{k=0}^\infty \sum_{r=0}^k \frac{t^{k+1}}{(k+1)!} A^r E_{ij} A^{k-r} =\int_0^t e^{(t-\tau)A} E_{ij} e^{\tau A} d\tau. $$
Editar: ver comentario de loup blanc abajo para explicación de por qué estoy incorrecto.
La respuesta principal de que $D_{A_{ij}}\exp(A)=\exp(A) E_{ij}$ parece incorrecta. En particular, creo que la suposición
\begin{equation} \exp(A)\exp(B) = \exp\left(A+B+ \frac{1}{2}[A,B] + \cdots\right) \\ \Rightarrow \exp(A+B) = \exp(A)\exp(B)\exp\left(-\frac{1}{2}[A,B] + \cdots\right) \end{equation}
es errónea. Quizás simplemente no pueda verlo, pero creo que la lógica asume $\exp(A+B)=\exp(A)\exp(B)$ lo cual no es cierto para matrices generales.
De lo contrario, las respuestas de otros lugares parecen proporcionar respuestas correctas: Derivada del exponencial matricial con respecto a su argumento matricial
- Ver respuestas anteriores
- Ver más respuestas