36 votos

Forma intuitiva de entender la covarianza y contravarianza en el Tensor de Álgebra

Estoy tratando de comprender básica de análisis tensorial. Entiendo el concepto básico de que la valencia del tensor determina cómo se transforma, pero estoy teniendo problemas con la visualización de la diferencia entre los diferentes valencies cuando se trata de tensores de orden superior.

Tengo esta imagen en mi mente para la parte inferior del orden de los tensores

$X^i = \left(\begin{array}{x} x^1 \\\\ x^2 \\\\ x^3\end{array}\right)$

$X_i = \left(\begin{array}{ccc} x_1 & x_2 & x_3\end{array}\right)$

$X^i_j = \left(\begin{array}{ccc} x^1_1 & x^1_2 & x^1_3 \\\\ x^2_1 & x^2_2 & x^2_3 \\\\ x^3_1 & x^3_2 & x^3_3\end{array} \right)$

por $X^{ij}$ y $X_{ij}$ son representados en la misma matriz 2d, pero la acción en un vector no está definido de la misma manera que con las matrices.

Lo que yo estoy teniendo problemas con es intuitivamente la comprensión de la diferencia entre $X^{ijk}$, $X_{k}^{ij}$, $X_{jk}^{i}$ y $X_{ijk}$ (otras permutaciones de la valencia de dólares(2,1)$ y $(1,2)$ omitido por razones de brevedad).

AGREGÓ Después de leer las respuestas y sus comentarios me ocurrió con esta nueva imagen en mi cabeza para tensores de orden superior.

Ya que soy algo cómodo con tensor de productos en la mecánica cuántica, me puede trazar un paralelo con la específica tensor de espacio a lo que estoy acostumbrado.

Si tenemos en cuenta un rango de 5 tensor con una valencia de (2,3), entonces podemos considerar que en la notación del braket

$ \langle \psi_i \mid \otimes \ \langle \psi_j \mid \otimes \ \langle \psi_k \mid \otimes \mid \psi_l \rangle \ \otimes \mid \psi_m \rangle = X_{ijk}^{lm} $

Ahora si operamos con este tensor de rango-3 tensor contravariante, estamos a la izquierda con una constante (desde el interior del producto) y un rango de-2 tensor contravariante, sin mezclar producto tensor $\begin{eqnarray}(\langle \psi_i \mid \otimes \ \langle \psi_j \mid \otimes \ \langle \psi_k \mid \otimes \mid \psi_l \rangle \ \otimes \mid \psi_m \rangle)(\mid \Psi_i \rangle \ \otimes \mid \Psi_j \rangle \ \otimes \mid \Psi_k \rangle) &=& c \mid \psi_l \rangle \ \otimes \mid \psi_m \rangle \\\\ &=& X_{ijk}^{lm}\Psi^{ijk} = cX'^{lm}\end{eqnarray}$

Si tuviéramos que además de operar con un rango de 2 covariante del tensor (desde la derecha, por la convención de que un covector y el vector de uno frente al otro a una instrucción directa del producto) podríamos obtener simplemente un número.

Una cosa que estoy confundido acerca de sin embargo, es que en una de las respuesta a esta pregunta fue un punto hecho de que nos están tomando el tensor de productos de un espacio Vectorial con sí mismo (y posiblemente es doble), sin embargo en la mecánica cuántica de la imagen (aunque yo no depender de ella en este ejemplo) a menudo nos tensor de productos entre los diferentes, a menudo inconexos, los subespacios de la enorme espacio de Hilbert que describe la mecánica cuántica del universo. ¿La imagen de tensor de cambio en este caso?

Cualquier comentario en mi ejemplo sería apreciada.

25voto

Nicolai Reuschling Puntos 2073

Puesto que usted pidió de una forma intuitiva de entender la covarianza y contravarianza, creo que esto va a hacer.

En primer lugar, recuerde que la razón de haber covariante o contravariante de los tensores es porque quiere representar la misma cosa en un sistema de coordenadas diferente. Esta nueva representación se realiza mediante una transformación mediante un conjunto de derivadas parciales. En el análisis tensorial, una buena transformación es la que deja invariante la cantidad que usted está interesado en.

Por ejemplo, consideramos que la transformación de un sistema de coordenadas $x^1,...,x^{n}$ otros $x^{'1},...,x^{n}$:

$x^{i}=f^{i}(x^{'1},x^{'2},...,x^{n})$, donde $f^{i}$ son determinadas funciones.

Echa un vistazo a un par de cantidades específicas. ¿Cómo podemos transformar las coordenadas? La respuesta es:

$dx^{i}=\displaystyle \frac{\partial x^{i}}{\partial x^{k}}dx^{k}$

Cada cantidad que en virtud de una transformación de coordenadas, transformaciones como la de coordinar los diferenciales se llama un tensor contravariante.

¿Cómo podemos transformar algunos escalares $\Phi$?

$\displaystyle \frac{\partial \Phi}{\partial x^{i}}=\frac{\partial \Phi}{\partial x^{k}}\frac{\partial x^{k}}{\partial x^{i}}$

Cada cantidad que en virtud de una transformación de coordenadas, se transforma, como los derivados de un escalar se llama un covariante del tensor.

En consecuencia, una generalización razonable es tener una cantidad que se transforma como el producto de los componentes de dos contravariante de los tensores, que es

$A^{ik}=\displaystyle \frac{\partial x^{i}}{\partial x^{'l}}\frac{\partial x^{k}}{\partial x^{m}}^{'lm}$

lo que se llama un tensor contravariante de rango dos. Lo mismo se aplica a los tensores covariantes de rango n o mixto tensor de rango n.

Teniendo en cuenta la analogía para coordinar los diferenciales y derivadas de un escalar, echa un vistazo a esta imagen, que creo que será de ayuda para hacerlo más claro:

De La Wikipedia:

alt text

El contravariante componentes de un vector se obtienen por medio de la proyección sobre los ejes de coordenadas. La covariante componentes se obtienen proyectando en las líneas normales a la coordenada hyperplanes.

Por último, es posible que desee leer: vectores de la Base

Por cierto, no recomiendo a confiar a ciegas en la imagen dada por las matrices, especialmente cuando usted está haciendo los cálculos.

7voto

Paul VanKoughnett Puntos 3197

Yo prefiero pensar en ellos como los mapas en lugar de matrices. Al mover el tensor de paquetes de más de colectores, usted no tendrá coordenadas globales, por lo que podría ser preferible a pensar de esta manera.

Por lo que $x_i$ es un mapa que envía vectores reales. Ya que es un tensor, estás sólo se preocupa de cómo se actúa sobre la base de los elementos. Es agradable pensar en ellos en términos de la doble bases: $x_i(x^j)=\delta_{ij}$, que se define como $1$ cuando $i=j$ y $0$ lo contrario.

Del mismo modo, $x^i$ es un mapa que envía covectors a los reales, y se define por el valor de $x^i(x_j)=\delta_{ij}$.

Si usted tiene más índices, entonces usted está tratando con un producto tensor $V^*\otimes\dotsb\otimes V^*\otimes V\otimes\dotsb\otimes V$, dicen que con $n$ copias del vector de espacio y $m$ copias de el doble. Un elemento de este vector en el espacio adquiere en $m$ vectores y le da una copia de $n$, de nuevo en una forma tensorial. Así, por ejemplo, $X_{ijk}$ es un trilineal mapa; $X^{ijk}$ es un trivector (orden del triple de los vectores hasta linealidad); $X_{ij}^k$ es bilineal mapa de tomar dos vectores un vector; y así sucesivamente.

Vale la pena pensar acerca de estos en términos de los tensores has visto ya. El producto escalar, por ejemplo, es básico (0,2)-tensor. El producto cruzado es un (1,2)-tensor. Si el estudio de Riemann colectores, resulta que usted puede utilizar la métrica de "subir y bajar los índices"; por lo que la curvatura de Riemann tensor, por ejemplo, es alternativamente se define como (1,3)-tensor y un (0,4)-tensor, dependiendo del autor.

6voto

korkman Puntos 1061

La covarianza o un contravarianza de ciertas cantidades dirá cómo transformarlos para mantener el resultado invariable de la elección del sistema de coordenadas. Transformar covariante cantidades de una manera mientras que usted no a la inversa con el contravariante.

Para describir un vector que usted necesita coordenadas $v^j$ y vectores de la base $\mathbf{e_j}$. Así que la combinación lineal de las dos le da la real vector $v^j \mathbf{e_j}$.

Pero usted es libre de elegir la base de modo que en una base diferente el mismo vector tal vez descrito como $w^j \mathbf{f_j}$.

Por lo que $v^j \mathbf{e_j} = w^j \mathbf{f_j}$

La base de vectores propios se puede expresar como una combinación lineal de los otros base:

$\mathbf{e_j} = A^k_j \mathbf{f_k}$.

Hay $$ es la base de la transformación de la matriz. Vamos a tener otra matriz $B$. Que es la inversa de la matriz $A$, de modo que su producto le da una matriz identidad (de Kronecker-delta):

$B^l_j^k_l = \delta^k_j$

Tomemos $w^j \mathbf{f_j}$ y se multiplica con la identidad, nada cambia:

$w^j \delta^k_j \mathbf{f_k}$

Expanda el delta como un producto de las dos matrices, nada cambia:

$w^j B^l_j^k_l \mathbf{f_k}$

Parenthesize de esta manera y usted puede ver algo:

$\left( w^j B^l_j \right) \left( A^k_l \mathbf{f_k} \right)$

En el soporte derecho obtuvo $\mathbf{e_j}$. Mientras que en la izquierda del soporte debe ser de $v^j$.

Usted puede ver los vectores de la base son transformadas con $Un$, mientras que las coordenadas son las transformadas con $B$. Los vectores de la base en una forma, mientras que las coordenadas varían exactamente de la manera opuesta. Los vectores de la base son covariantes, las coordenadas son contravariante.

Superior índices y bajar los índices acaba de indicar si usted necesita utilizar para el cambio de base de la matriz o a la inversa. Así que si usted tiene un tensor vamos a decir: ${F^{abc}}_{defg}$. Basado en el índice de colocación usted ya sabe que puede transformar a un sistema de coordenadas diferente como esto: ${F^{abc}}_{defg} B^h_a B^i_b B^j_c^d_k^e_l^f_m^g_n$.

También si usted cuida siempre coinciden con los de la parte superior de los índices con los inferiores cuando se multiplica el resultado será invariante y sistema de coordenadas independientes. Esta es una oportunidad para la auto comprobar su trabajo.

El índice de colocación también es útil para comprobar si y el objeto es realmente tensor o simplemente un símbolo.

Por ejemplo, el tensor métrico $g_{ij}$ tiene dos índices covariantes que significa que en un sistema de coordenadas diferente, debe verse como esto: $\tilde g_{ij} A^i_k^j_l$.

Y en efecto: $g_{ij} = \mathbf{e_i} \cdot \mathbf{e_j} = \left( \mathbf{f_k} A^k_i \right) \cdot \left( \mathbf{f_l} A^l_j \right) = \left( \mathbf{f_k} \cdot \mathbf{f_l} \right)^k_i^l_j = \tilde{g}_{kl} A^k_i^l_j $

Del mismo modo, usted puede comprobar el Christoffel-símbolos $\Gamma^m_{jk}$ no son tensores, porque ellos no son transforman como eso.

Mientras que la derivada covariante de $\nabla_k v^m = \partial_k v^m + v^j \Gamma^m_{jk}$. Pero eso requeriría más símbolo de plegado.

4voto

Nikos M. Puntos 1031

(cross-posting una variación de mi respuesta de este)

Ambos co-variante y contra-variante de vectores son sólo los vectores (o más en general 1-el fin de los tensores).

Además son vectores que se relacionan con el mismo subyacente espacio (por ejemplo el espacio euclidiano o, en general, un colector)

Además se relacionan con el mismo espacio pero en diferente pero de doble maneras (como tales tienen diferentes, pero el doble, el de las leyes de transformación)

Co-variante de vectores son parte de lo que se llama el espacio de la tangente, que para un espacio euclidiano coincide o es isomorfo al espacio en sí mismo. Y de contra-variante de vectores son parte de la doble espacio de la tangente, llamado co-el espacio de la tangente y de la que para un espacio euclidiano también coincide o también es isomorfo al espacio en sí mismo.

Estos espacios (y sus vectores) se doble, en el sentido algebraico, relacionados a través de la norma (producto interior) del espacio. Además son isomorfos a cada uno de los otros sin importar si son isomorfos a la base del colector de sí mismo (lo que se llama el subir y bajar índices)

Una pregunta es lo que estos (asociado) espacios representan, cómo se relacionan y qué es la intuición detrás de su uso?

Historicaly tensores y análisis tensorial se inició como un producto de la teoría de invariantes. Un camino que se necesitaba para expresar cantidades invariantes bajo un cambio de representación (o de cambio de base subyacente). Así, los tensores se utilizaron. tensores representan cantidades que se transforman en virtud de un cambio de representación en maneras que diversas cantidades expresadas en términos de invariantes.

Nota, en la terminología de la asociación con la co-variant/contra-variante de índices es en gran parte un convenio, consistente convención va a hacer.

Esto también le da la (intuitiva) relación entre los co-variante de los tensores (vectores) y de contra-variante de los tensores (vectores). Cuando un co-variante vector (componentes) transformar en una forma, por ejemplo por un factor de escala de $s$. El (asociado) contra-variante vector (componentes) se tiene que transformar por el inverso del factor de escala de 1 $/$ s a fin de invariantes de las cantidades (por ejemplo, un producto interior $a^ib_i$) permanecen invariables.

Si uno va a los de más alto rango de los tensores (e.g $g_{ij}$, $R^{i}_{jkl}$) uno puede ver un adicional de doble asociación como tal:

Supongamos que tenemos un covariante del tensor (he.e métrica) $g_{ij}$ y quiere que la contra-variante de la parte ($g^{ij}$). si una parte de la métrica (e.g por $g_{12}$) representa un área (por ejemplo, de $A_{12}$), el doble tensor en que los mismos índices ($g^{12}$) representa el doble de área (por ejemplo $A^{12}$), que es la zona restantes después de la se $A_{12}$ es restado formulario de toda la zona (por ejemplo $A$).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X