200 votos

Las diferencias entre una matriz y un tensor

¿Cuál es la diferencia entre una matriz y un tensor? O, ¿qué es lo que hace a un tensor, un tensor? Sé que una matriz es una tabla de valores, ¿verdad? Pero, ¿un tensor?

39 votos

Siguiendo con tu analogía, una matriz no es más que una tabla bidimensional para organizar la información y un tensor no es más que su generalización. Puedes pensar en un tensor como una forma de organizar la información en una dimensión superior. Así que una matriz (5x5 por ejemplo) es un tensor de rango 2. Y un tensor de rango 3 sería una "matriz 3D" como una matriz de 5x5x5.

2 votos

Pensé que un tensor de rango n es una función multilineal que toma n vectores y devuelve un vector del mismo espacio vectorial.

7 votos

Un punto de confusión es que, en el aprendizaje automático, la gente suele utilizar el término "tensor" cuando en realidad sólo quiere decir "matriz multidimensional". No estoy de acuerdo en que un tensor de rango 3 sea una "matriz 3D", pero hay que reconocer que no es raro oír la palabra "tensor" utilizada de esta manera. stats.stackexchange.com/questions/198061/

144voto

celtschk Puntos 13058

Quizá para ver la diferencia entre tensores y matrices de rango 2, lo mejor sea ver un ejemplo concreto. En realidad esto es algo que en su día me confundió mucho en el curso de álgebra lineal (donde no aprendimos sobre tensores, sólo sobre matrices).

Como ya sabrás, puedes especificar una transformación lineal $a$ entre vectores por una matriz. Llamemos a esa matriz $A$ . Ahora bien, si se hace una transformación de base, esto también puede escribirse como una transformación lineal, de modo que si el vector en la base antigua es $v$ el vector en la nueva base es $T^{-1}v$ (donde v es un vector columna). Ahora se puede preguntar qué matriz describe la transformación $a$ en la nueva base. Bueno, es la matriz $T^{-1}AT$ .

Bueno, hasta ahora, todo bien. Lo que memoricé entonces es que bajo cambio de base una matriz se transforma como $T^{-1}AT$ .

Pero entonces, aprendimos sobre las formas cuadráticas. Esas se calculan usando una matriz $A$ como $u^TAv$ . Todavía no hay problema, hasta que aprendimos a hacer cambios de base. Ahora, de repente la matriz hizo no transformar como $T^{-1}AT$ sino como $T^TAT$ . Lo cual me confundió muchísimo: ¿cómo podía un mismo objeto transformarse de forma diferente cuando se utilizaba en distintos contextos?

Pues bien, la solución es: ¡porque en realidad estamos hablando de objetos diferentes! En el primer caso, estamos hablando de un tensor que lleva vectores a vectores. En el segundo caso, se trata de un vector que convierte dos vectores en un escalar, o lo que es lo mismo, que convierte un vector en un covector .

Ahora ambos tensores tienen $n^2$ y, por lo tanto, es posible escribir esos componentes en un $n\times n$ matriz. Y como todas las operaciones son lineales o bilineales, los productos normales martix-matriz y matriz-vector, junto con la transposición, pueden utilizarse para escribir las operaciones del tensor. Sólo cuando se miran las transformaciones de base, se ve que ambas son efectivamente no y el curso nos hizo (bueno, al menos a mí) un flaco favor al no decirnos que en realidad estamos viendo dos objetos diferentes, y no sólo dos usos diferentes del mismo objeto, la matriz.

De hecho, hablar de un tensor de rango 2 no es realmente exacto. El rango de un tensor tiene que estar dado por dos números. El mapeo de vector a vector viene dado por un tensor de rango (1,1), mientras que la forma cuadrática viene dada por un tensor de rango (0,2). También existe el tipo (2,0) que también corresponde a una matriz, pero que mapea dos covectores a un número, y que de nuevo se transforma de forma diferente.

La conclusión de esto es:

  • Los componentes de un tensor de rango 2 pueden escribirse en una matriz.
  • El tensor no es esa matriz, porque diferentes tipos de tensores pueden corresponder a la misma matriz.
  • Las diferencias entre esos tipos de tensor se descubren mediante las transformaciones de base (de ahí la definición del físico: Un tensor es lo que se transforma como un tensor").

Por supuesto, otra diferencia entre las matrices y los tensores es que las matrices son, por definición, objetos de dos índices, mientras que los tensores pueden tener cualquier rango.

2 votos

Esta es una gran respuesta, porque revela que la pregunta es errónea. De hecho, una matriz ni siquiera es una matriz, y mucho menos un tensor.

6 votos

Estoy de acuerdo con la primera frase de tu comentario @RyanReich pero totalmente confundido por: "una matriz ni siquiera es una matriz". ¿Podrías explicarlo con más detalle o indicar otra fuente que lo explique (a no ser que lo haya sacado de contexto)?

5 votos

@AJP Hace tiempo, pero creo que lo que quería decir es que una matriz (matriz de números) es diferente de una matriz (transformación lineal = (1,1) tensor). La misma matriz de números puede representar varios objetos diferentes independientes de la base cuando se elige una base particular para ellos.

49voto

Filip Ekberg Puntos 22189

En efecto, hay algunas "confusiones" que hacen algunas personas al hablar de los tensores. Esto ocurre sobre todo en Física, donde los tensores suelen describirse como "objetos con componentes que se transforman de forma correcta". Para entender realmente este asunto, recordemos primero que esos objetos pertenecen al ámbito del álgebra lineal. Aunque se utilizan mucho en muchas ramas de las matemáticas, el área de las matemáticas dedicada al estudio sistemático de esos objetos es realmente el álgebra lineal.

Empecemos con dos espacios vectoriales $V,W$ sobre algún campo de escalares $\Bbb F$ . Ahora, dejemos que $T : V \to W$ sea una transformación lineal. Asumiré que sabes que podemos asociar una matriz con $T$ . Ahora bien, podrías decir: ¡entonces las transformaciones lineales y las matrices son todas iguales! Y si dices eso, te equivocas. La cuestión es: una puede asociar una matriz con $T$ sólo cuando se fija alguna base de $V$ y alguna base de $W$ . En ese caso obtendremos $T$ representado en esas bases, pero si no las introducimos, $T$ será $T$ y las matrices serán matrices (matrices rectangulares de números, o la definición que quieras).

Ahora bien, la construcción de tensores es mucho más elaborada que decir simplemente "toma un conjunto de números, etiquétalo por componentes, deja que se transformen de la manera correcta, obtienes un tensor". En realidad, esta "definición" es una consecuencia de la definición real. De hecho, la definición real de un tensor pretende introducir lo que llamamos "propiedad universal".

La cuestión es que si tenemos una colección de $p$ espacios vectoriales $V_i$ y otro espacio vectorial $W$ podemos formar funciones de varias variables $f: V_1\times \cdots \times V_p \to W$ . Una función como ésta se llamará multilineal si es lineal en cada uno de sus argumentos manteniendo los demás fijos. Ahora, ya que sabemos estudiar las transformaciones lineales nos preguntamos: ¿existe una construcción de un espacio vectorial $S$ y una universal mapa multilineal $T : V_1 \times \cdots \times V_p \to S$ tal que $f = g \circ T$ para algunos $g : S \to W$ lineal y tal que esto se mantiene para todos los $f$ ? Si eso es siempre posible, reduciremos el estudio de los mapas multilineales al estudio de los mapas lineales.

La parte feliz de la historia es que esto siempre es posible, la construcción está bien definida y $S$ se denota $V_1 \otimes \cdots \otimes V_p$ y se denomina producto tensorial de los espacios vectoriales y el mapa $T$ es el producto tensorial de los vectores. Un elemento $t \in S$ se llama tensor. Ahora es posible demostrar que si $V_i$ tiene dimensión $n_i$ entonces se cumple la siguiente relación:

$$\dim(V_1\otimes \cdots \otimes V_p)=\prod_{i=1}^p n_i$$

Esto significa que $S$ tiene una base con $\prod_{i=1}^p n_i$ elementos. En ese caso, como sabemos por el álgebra lineal básica, podemos asociar a cada $t \in S$ sus componentes en alguna base. Ahora bien, esos componentes son lo que la gente suele llamar "el tensor". De hecho, cuando ves en la Física a la gente diciendo: "considera el tensor $T^{\alpha \beta}$ "lo que realmente están diciendo es "considerar el tensor $T$ cuyos componentes en alguna base entendida por el contexto son $T^{\alpha \beta}$ ".

Así, si consideramos dos espacios vectoriales $V_1$ y $V_2$ con las dimensiones respectivas $n$ y $m$ por el resultado que he declarado $\dim(V_1 \otimes V_2)=nm$ por lo que para cada tensor $t \in V_1 \otimes V_2$ se puede asociar un conjunto de $nm$ escalares (los componentes de $t$ ), y obviamente podemos introducir esos valores en una matriz $M(t)$ y así hay una correspondencia de tensores de rango $2$ con matrices.

Sin embargo, al igual que en el caso de las transformaciones lineales, esta correspondencia sólo es posible cuando se han seleccionado bases en los espacios vectoriales con los que tratamos. Por último, con cada tensor es posible asociar también un mapa multilineal. Así que los tensores pueden entenderse en su forma totalmente abstracta y algebraica como elementos del producto tensorial de espacios vectoriales, y también pueden entenderse como mapas multilineales (esto es mejor para la intuición) y podemos asociarles matrices.

Así que después de todo este lío con el álgebra lineal, la respuesta corta a tu pregunta es: las matrices son matrices, los tensores de rango 2 son tensores de rango 2, sin embargo hay una correspondencia entre ellos siempre que fijes una base en el espacio de los tensores.

Mi sugerencia es que leas el capítulo "Álgebra lineal y geometría de Kostrikin" $4$ sobre el álgebra multilineal. Este libro es difícil, pero es bueno para captar realmente las ideas. También puedes ver sobre tensores (construcciones en términos de mapas multilineales) en buenos libros de Análisis multivariable como "Calculus on Manifolds" de Michael Spivak o "Analysis on Manifolds" de James Munkres.

0 votos

Debo estar perdiéndome algo, pero ¿no se puede poner $S=W, g=\mathrm Id_W$ ?

1 votos

La cuestión es que queremos un espacio $S$ construido a partir de los espacios vectoriales $V_i$ de manera que podamos utilizarlo para todo $W$ . En otras palabras, dado sólo $V_i$ podemos construir el par $(S,g)$ y utilizar de una vez por todas para cualquier $W$ y $f$ . Por eso se llama propiedad universal.

31voto

Drealmer Puntos 2284

Como respuesta de lugar a la espera quizás de una aclaración por la reacción del preguntante (y de otros): dado que su contexto tiene una matriz ser una tabla de valores (que puede ser totalmente razonable)...

En este contexto, un "vector" es un lista de valores, una "matriz" es una tabla (o una lista de listas), el siguiente elemento sería una lista de tablas (equivalentemente, una tabla de listas, o una lista de listas de listas), luego una tabla de tablas (equivalentemente, una lista de tablas de listas, o una lista de listas de tablas...). Y así sucesivamente. Todo esto son "tensores".

No es de extrañar que se puedan adoptar puntos de vista mucho más sofisticados, pero quizás este poco de eslogan sea útil

1 votos

Además de la respuesta de celtschk Esto hace que los tensores tengan algún sentido para mí (y sus diferentes rangos)

2 votos

Así que, básicamente, un tensor es una matriz de objetos en programación. Tensor1 = matriz. Tensor2 = matriz de una matriz. Tensor3 = array de array de array.

1 votos

@Pacerier, sí, desde el punto de vista de la programación esa sería una versión inicial razonable de lo que es un tensor. Pero, como he señalado en mi respuesta, en varios contextos matemáticos hay complicaciones, debido, en efecto, al "colapso" en el esquema de indexación.

15voto

Muphrid Puntos 12245

Los tensores son objetos cuyas leyes de transformación les dan un sentido geométrico. Sí, soy físico, y para mí eso es un tensor: existe la idea general de que los tensores son objetos que se describen simplemente mediante componentes con respecto a alguna base, y a medida que cambian las coordenadas (y por tanto cambia la base asociada), los componentes del tensor deben transformarse en consecuencia. Lo que son esas leyes se desprende, pues, de la regla de la cadena del cálculo multivariable, nada más.

¿Qué es una matriz? Una representación de un mapa lineal, también con respecto a alguna base. Así, algunos tensores pueden representarse con matrices.

¿Por qué algunos? Bueno, al contrario de lo que puede haber oído, no todos Los tensores son inherentemente mapas lineales. Sí, usted puede construir un mapa lineal a partir de cualquier tensor, pero eso no es lo que el tensor es . A partir de un vector, se puede construir un mapa lineal que actúe sobre un covector para producir un escalar; de ahí viene la idea, pero es engañosa. Consideremos un tipo diferente de cantidad, que representa un plano orientado. La llamaremos bivector : A partir de un bivector, se puede construir un mapa lineal tomando un covector y devolviendo un vector, o un mapa lineal tomando dos covectores y devolviendo un escalar.

El hecho de que se puedan construir múltiples mapas a partir de un bivector debería indicar que el bivector no es, en sí mismo, ninguno de estos mapas, sino un objeto geométrico más fundamental. Los bivectores se representan mediante tesores antisimétricos de 2 índices, o matrices antisimétricas. De hecho, se pueden formar bivectores a partir de dos vectores. Mientras puede hacer que encaje con la imagen del mapa, empieza a parecer increíblemente arbitrario.

Sin embargo, algunos tensores son mapas intrínsecamente lineales, y todos esos mapas pueden escribirse en términos de alguna base como una matriz. Incluso el tensor de Riemann, que tiene $\binom{n}{2}$ por $\binom{n}{2}$ componentes, puede escribirse así, aunque normalmente se considera un mapa de dos vectores a dos vectores, de tres vectores a un vector, de cuatro vectores a un escalar... Podría seguir.

Pero no todas las matrices representan información adecuada para estas consideraciones geométricas.

0 votos

Su interpretación de los bivectores como tensores antisimétricos de rango 2 es muy interesante. ¿Dónde encuentra su justificación? ¿Podría construirse algo similar o análogo para los "cobivectores", productos externos de 2 covectores o 2 formas? Esto podría ayudar a proporcionar visualizaciones interesantes de las 2 formas.

4voto

Tim Lohnes Puntos 376

Tal vez quiera echar un vistazo a estas páginas web http://en.wikipedia.org/wiki/Tensor http://physics.stackexchange.com/questions/20437/are-matrices-and-second-rank-tensors-the-same-thing

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X