14 votos

Vectores propios y ' ' eigenrows ' '

Generalmente buscamos los vectores propios de una matriz $M$ como los vectores que abarcan
un subespacio que es invariante por la izquierda de la multiplicación por la matriz: $M\vec x= \lambda \vec x$.

Si tomamos la transposición problema $\mathbf x M=\lambda \mathbf x$ donde $\mathbf x$ es un vector fila, vemos que los valores propios
son el mismo, pero el "eigenrows" no son la transpuesta del vector propio (en general).

E. g., para la matriz $$\left[ \matriz{0&1\\2&1} \right] $$
nos encontramos, por el autovalor $\lambda=2$, $$ \begin{bmatrix} 0&1\\2&1 \end{bmatrix} \left[ \matriz{1\\2} \right]= 2\left[ \matriz{1\\2} \right] $$ $$\left[ \matriz{1&1} \right] \begin{bmatrix} 0&1\\2&1 \end{bmatrix} = 2\left[ \matriz{1&1} \right] \;\;. $$

Así que mis preguntas son: ¿hay alguna relación entre estos "derecha" e "izquierda" subespacios propios de la
misma matriz? ¿Hay alguna razón por la que el "eigenrows" no son tan estudiados como los vectores propios?

16voto

Matthew Scouten Puntos 2518

Generalmente se llaman "eigenvectores izquierdo". No hay ninguna razón para que puedan ser descuidado, salvo que mucha gente (no todos) como considerar los operadores que actúan en la izquierda algo más que en el derecho.

Cualquier matriz es similar a su transposición. Así los subespacios propios izquierdos y derecho para el mismo valor propio tienen la misma dimensión.

15voto

5xum Puntos 41561

En general, no hay una simple conexión entre los dos conjuntos de vectores, aparte del hecho de que pertenecen a los mismos autovalores.

Por supuesto, si $A$ es simétrica, entonces el "eigenrows" son simplemente transpone de vectores propios.

En cuanto a tu segunda pregunta:

El problema de encontrar eigenrows para una matriz es idéntico al problema de hallar los vectores propios de la transpuesta de la matriz. Esto significa que no hay ninguna razón real para tener una teoría desarrollada por el bien de algo que es equivalente a un bien establecido en la teoría.

8voto

Chris Benard Puntos 1430

Existe una relación entre la izquierda y la derecha subespacios propios, de la siguiente manera:

Si $\lambda$ $\mu$ son distintos números reales, entonces la izquierda $\lambda$ espacio propio es ortogonal a la derecha $\mu$ subespacio propio.

Prueba: Supongamos que $\vec{v}$ es un vector fila de la izquierda $\lambda$ espacio propio y $\vec{w}$ es un vector columna de la derecha $\mu$ subespacio propio. Entonces $$\vec{v} A \vec{w} = \vec{v} (\mu \vec{w}) = \mu (\vec{v} \cdot \vec{w})$$ y también $$\vec{v} A \vec{w} = (\lambda \vec{v}) \vec{w} = \lambda (\vec{v} \cdot \vec{w}).$$

Así $$\mu (\vec{v} \cdot \vec{w})=\lambda (\vec{v} \cdot \vec{w})$$ y $\vec{v} \cdot \vec{w}=0$.

En particular, si $A$ es simétrica, esto demuestra que los subespacios propios de autovalores distintos son ortogonales.

5voto

Andrew Puntos 140

Como señaló Robert, su "eigenrows" son más convencionalmente se llama "izquierda vectores propios", y que son simplemente los vectores propios de la matriz transpuesta.

Uno particularmente importante de la aplicación que se involucra a la izquierda y a la derecha vectores propios es en el concepto de que el autovalor condición de número. Para cada autovalor $\lambda$$\mathbf A$, es asociada a una condición de número, que se define como el recíproco del producto escalar de (geométricamente, la secante del ángulo entre la escala adecuada) a la izquierda y a la derecha vectores propios. Esto es particularmente valioso cuando se $\mathbf A$ no es una normal de la matriz, puesto que esta condición número mide la distancia de $\mathbf A$ es de ser una matriz con $\lambda$ como múltiples autovalor, y, posiblemente, de ser una defectuosa de la matriz. Ver esta referencia, entre otros.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by: