Resumiremos brevemente en esta entrada algunas propiedades importantes de los espacios euclidianos de «n» dimensiones, definidos a través del conjunto de vectores «vi = {vi1, vi2, …, vin}» que los componen.
Dependencia Lineal:
Hablamos de dependencia lineal entre dos o más vectores cuando uno de ellos se puede construir combinando los demás.
Sean, por ejemplo, los vectores «v» y «w«, si se cumple:
- v = α w.
, siendo «λ» un número real, decimos que «v» es linealmente dependiente de «w«.
Análogamente, si poseemos tres vectores «u«, «v«, «w«, siendo «v» y «w» linealmente independientes, y se verifica:
- u = α u + β w.
, «u» es linealmente dependiente de «v» y «w«.
Por las propiedades de esta denominada dependencia lineal, el modo de calcular los valores «α» y «β» es por medio de las componentes de los vecores:
- u1 = α v1 + β w1.
- u2 = α v2 + β w2.
- …
- un = α vn + β wn.
Dado que tenemos 2 incógnitas y «n» ecuaciones, si el sistema es incompatible «u» no es linealmente dependiente de «v» y «w«, si es compatible siempre será determinado y podremos calcular los coeficientes deseados.
El método del cálculo es análogo para trabajar con cualquier número de vectores.
Demostraremos ahora que, en un espacio de «n» dimensiones, el número máximo de vectores linealmente independientes entre ellos es también «n». Para ello supondremos que no, y que es posible que dados «n + 1» vectores, es posible que cada uno de ellos sea linealmente independiente de los anteriores. Si representamos las ecuaciones correspondientes, igualando cada componente del vector estudiado a una combinación de los otros a través de los coeficientes que, en caso de que fuesen linealmente dependientes, existitían.En este caso tendríamos un sistema de «n» incógnitas y de «n» ecuaciones incompatible, tal y como hemos visto antes. Sin embargo, las leyes fundamentales del álgebra nos dicen que a no ser que dos de las ecuaciones sean linealmente dependientes, es imposible que el sistema sea incompatible, y como hemos puesto de condición que nuestros vectores fuesen linealmente independientes llegamos a una contradicción. El vector «n + 1» tiene que ser, a la fuerza, dependiente de los anteriores.
Subespacios:
Conocido el concepto de dependencia lineal, podemos comenzar a valorar sus consecuencias geométricas.
Dado un espacio de dimensión «n», siempre existirán, como mucho, combinaciones de hasta «n» vectores linealmente independientes, y todos los demás podrán ser expresados como una combinación lineal de los mismos.
Si consideramos el espacio R^1, es decir, la recta, el único vector independiente existente nos indica la dirección de la misma, y podemos generar todo el espacio (la recta), como combinación lineal del mismo.
Si consideramos el espacio R^2, el plano, y sobre él definimos un vector (v1, v2), que al ser libre deberemos ubicar sobre el origen, combinanciones lineales del mismo definirán la recta sobre el plano que pasa por el origen con la dirección del vector. Dicha recta, compuesta por los vectores linealmente dependientes al mismo, es un subespacio de R^2 de dimensión «1». Si definimos otro vector linealmente independiente con el primero, cualquier punto de R^2 se podrá construir como combinación lineal de los anteriores.
Si ampliamos a R^3, con un vector podremos definir un subespacio de dimensión «1», que será una vez más una recta que cruce el origen de coordenadas. Añadiendo un vector más linealmente independiente con el primero, definiremos otro subespacio de dimensión «2», que será un plano que cruce el origen. Finalmente, al obtener tres vectores linealmente independientes podremos generar todo el espacio.
En resumen, un subespacio de dimensión «n» es el lugar geométrico de los vectores linealmente dependientes a «n» vectores libres y linealmente independientes entre ellos. Por medio de esta propia definición, un subespacio nunca puede tener una dimensión mayor que el espacio en el que está contenido, pero si igual.
Bases:
Dado un espacio de dimensión «n», decimos que nos encontramos ante una base del mismo si poseemos un conjunto de vectores que lo genera de modo unívoco, es decir, que cualquier vector de nuestro espacio está asociado a ellos a través de unos coeficientes determinados, y que a través de estos coeficientes se puede también saber de qué vector se está hablando.
Para que un conjunto de vectores sea base, tienen que cumplir, por tanto, dos normas evidentes:
- Ser el mínimo número de vectores que genere el espacio, es decir, que no se pueda prescindir de ninguno de ellos.
- Ser el máximo número de vectores linealmente independientes posible.
Es trivial, de hecho, demostrar que los enunciados anteriores son equivalentes a través de la relación de dependencia lineal.
Si nuestra base de vectores es ortogonal, es decir, todos ellos son perpendiculares (o sus productos escalares nulos), nos encontramos ante una Base Ortogonal.
Aplicaciones Lineales:
Si definimos una función que a cada vector «v» le da un nuevo valor «f(v)», y ésta es expresable a través de un sistema lineal de ecuaciones, hablamos de una aplicación lineal, y cumple las siguientes propiedades:
- f(α v) = α f(v).
- f(v + w) = f(v) + f(w).
, de donde, consecuentemente:
- f(α v + β w) = α f(v) + β f(w).
Consecuencia directa de ello es que un vector «u» perteneciente al subespacio generado por «v» y «w«, cumplirá que «f(u)» seguirá perteneciendo al subespacio generado por «f(v)» y «f(w)».
Dichas aplicaciones pueden realizarse dentro del propio espacio o no, es decir, si el vector «v» pertenece a R^n, y «f(v)» pertenece a «R^m», no tiene por qué cumplirse:
- n = m.
Casos particulares de aplicaciones lineales donde:
- n = m.
para los vectores «v = {vx, vy}» y «w = {wx, wy, wz}», son:
- vx’ = a11 vx + a12 vy.
- vy’ = a21 vx + a22 vy.
- wx’ = a11 wx + a12 wy + a13 wz.
- wy’ = a21 wx + a22 wy + a23 wz.
- wz’ = a31 wx + a32 wy + a33 wz.
, donde los términos «aij» definen las matrices asociadas a las aplicaciones lineales correspondientes y que, una vez más, gracias a wordpress.com no puedo representar.
Casos particulares de aplicaciones lineales donde:
- n ≠ m.
, son:
- vx’ = a11 vx + a12 vy + a13 vz.
- vy’ = a21 vx + a22 vy + a23 vz.
- wx’ = a11 wx + a12 wy.
- wy’ = a21 wx + a22 wy.
- wz’ = a31 wx + a32 wy.
Y algunos casos aleatorios son:
- vx’ = vx.
- vy’ = 0.
- wx’ = a11 vx + a12 vy.
- wy’ = a21 vx + a23 vz.
- wz’ = a32 vy + a33 vz.
Núcleo:
Dada una aplicación lineal «f(v)», llamamos núcleo de la aplicación al conjunto de vectores que, al «pasar» por ella, toman, componente a componente el valor 0.
Por ejemplo, dada la aplicación anterior:
- wx’ = a11 wx + a12 wy + a13 wz.
- wy’ = a21 wx + a22 wy + a23 wz.
- wz’ = a31 wx + a32 wy + a33 wz.
El núcleo de la misma son los vectores {wx, wy, wz} que cumplen:
- 0 = a11 wx + a12 wy + a13 wz.
- 0 = a21 wx + a22 wy + a23 wz.
- 0 = a31 wx + a32 wy + a33 wz.
Si el sistema de ecuaciones es incompatible, la aplicación no tiene núcleo, lo cual es imposible, pues el vector «o» siempre va a si mismo, aunque cambie la dimensión del espacio. Si el sistema es compatible y determinado tan solo el vector «o» pertenece al núcleo. En conclusión, la mayoría de las veces surgirán sistemas compatibles indeterminados, con hasta «n – 1» ecuaciones indeterminadas resultantes. Si «m» es el número de ecuaciones que nos resultan, «n – m» nos da la dimensión del subespacio que va a dar al núcleo de la aplicación.
Categorías:Carrera, Matemáticas
muchisimas gracias por la informacion. buscando informacion sobre algebra lineal me tope con esta pagina muy buena.saludos