Matemáticas
Álgebra Lineal. Espacios Vectoriales
Espacios Vectoriales. Definición
Comenzaremos con el estudio de un ente matemático como son los espacios vectoriales. Su definición puede parecer un poco extraña al no entendido, sin embargo, una idea ha de quedar clara: es una estructura que nos asegura que al componer dos elementos pertenecientes al espacio (elementos a los que llamaremos vectores) de acuerdo a una cierta operación, el resultado sigue siendo un elemento del espacio. En otras palabras, la suma de vectores será un vector y no cualquier otra cosa, como podría ser un punto.
Definición de espacio vectorial
Sea
un cuerpo. Diremos que un conjunto
dotado de una operación interna
y otra externa
sobre el cuerpo
tiene estructura de espacio vectorial si cumple las siguientes propiedades:
1.
es un grupo abeliano
2.
es una operación que va del producto cartesiano
en el conjunto
:
verificando las siguientes propiedades:
2.1.
Distributiva respecto de la suma de vectores:
2.2.
Distributiva respecto de la suma de escalares:
2.3.
Asociativa mixta:
2.4.
Producto por el elemento unidad del cuerpo:
Siguiendo esta definición de lo que es un espacio vectorial, a partir de las propiedades que todos sabemos de la suma y producto de números reales (sabemos que
es un cuerpo, lo que implica, en particular, que
y
son grupos), se demuestra muy fácilmente que, por ejemplo, el espacio
de los vectores del plano con las operaciones de suma de vectores y producto de un escalar con un vector definidas como conocemos de cursos anteriores (esto es,
,
), se tiene que
es un espacio vectorial sobre
.
Sin embargo, si ahora consideramos
estando definidas estas operaciones como sigue:
,
, se tiene que
no es un espacio vectorial sobre
, pues falla la propiedad de producto por el elemento de unidad del cuerpo, ya que
Dependencia e independencia lineal
Hemos visto la definición de espacio vectorial, vamos ahora a concretar algunas propiedades que tiene la operación externa.
Propiedades de la operación
Sea
un espacio vectorial. Entonces, se verifica:
1.
2.
3.
ó
4.
5.
6.
Simplificación de escalares:
7.
Simplificación de vectores:
De la estructura de espacio vectorial sabemos que si sumamos dos vectores el resultado va a ser un vector. También sabemos que si multiplicamos un escalar por un vector, el resultado será un vector. Uniendo estos resultados, llegamos a las siguientes definiciones:
Combinaciones lineales. Dependencia e independencia de vectores
Decimos que un vector
es combinación lineal de los vectores
si existen unos escalares
de forma que
Por ejemplo, el vector
es combinación lineal de los vectores
, pues existen los escalares
,
,
verificándose
Diremos que los vectores
son linealmente independientes si la igualdad
es únicamente cierta cuando los escalares
son todos iguales a cero. Entonces se dice que forman un sistema libre. En caso contrario se dirá que los vectores son linealmente dependientes, o que forman un sistema ligado.
Por ejemplo, en
(con las operaciones usuales
y
), se tiene que los vectores
y
son linealmente independientes, ya que si buscamos los escalares
,
tales que
, haciendo operaciones, llegamos a que tiene que ser
. Como sabemos, dos vectores son iguales si lo son componente a componente, lo que implica, automáticamente, que
y
luego, según la definición, son linealmente independientes.
Sin embargo, también en
, los vectores
y
no son linealmente independientes, pues al buscar los escalares
,
tales que
, haciendo operaciones, llegamos a que tiene que ser
. Aplicando de nuevo que dos vectores son iguales si lo son componente a componente, obtenemos
, es decir, nos hemos trasladado al mundo de la resolución de sistemas de ecuaciones. Ahora, con lo que sabemos sobre sistemas lineales, resolviendo se tiene que
y
. ¿Qué me dice esto sobre los vectores? Que son linealmente dependientes. Es claro que si decimos
, entonces, automáticamente
,
, lo que podría conducirnos a concluir (erróneamente) que los vectores son linealmente independientes. Sin embargo, la definición nos dice que
y
han de ser únicos. Ahora, si hacemos
, automáticamente
y
también verifican la relación
, lo que nos hace ver que no son únicos y, por tanto, los vectores no son linealmente independientes.
Lo importante de aquí es darse cuenta de que el concepto de dependencia e independencia lineal se ha trasladado al estudio de las soluciones de un cierto sistema de ecuaciones homogéneo. La existencia de una única solución (que, por ser homogéneo el sistema, será la nula) me dice que los vectores son linealmente independientes, y la existencia de más de una solución, que los vectores son linealmente dependientes.
Mencionamos unas propiedades referentes a dependencia/independencia lineal de un conjunto de vectores, y después introduciremos tres conceptos importantes: sistema generador de un espacio vectorial, envoltura lineal de un conjunto de vectores y base de un espacio vectorial.
Un conjunto de vectores es linealmente dependiente si y solamente si alguno de los vectores es combinación lineal de los demás.
Si un conjunto de vectores es linealmente independiente cualquier subconjunto suyo también lo es.
Obviamente, si tenemos un conjunto de vectores tales que ninguno de ellos es combinación de los demás, escogiendo sólo unos cuantos, no podrán ser combinación de los otros.
Si un conjunto de vectores es linealmente dependiente también lo es todo conjunto que lo contenga.
Ya que un conjunto de vectores es linealmente dependiente si y sólo si tiene algún vector que es combinación lineal de los demás, si metemos este conjunto de vectores en otro más grande, seguimos teniendo el vector que es combinación lineal de otros, por tanto, el conjunto más grande sigue siendo linealmente dependiente.
Sistema generador y base del espacio
Sistema generador de un espacio vectorial
Decimos que un conjunto de vectores
es un sistema generador del espacio vectorial al cual pertenece si cualquier vector de dicho espacio se puede poner como combinación lineal de ellos.
Por ejemplo, los vectores
,
forman un sistema generador de
(
,
las operaciones usuales), ya que si cogemos cualquier
, de igualar
, se tiene enseguida que ha de ser
y
. Por ejemplo, si
, tendremos
y
.
No todos los conjuntos de vectores forman un sistema generador de un espacio vectorial. Por ejemplo, los vectores
y
no forman un sistema generador de
.
Si lo fueran,
tales que
. Pero esto implica, escribiéndolo como un sistema, que:
Es decir, tenemos que
, por tanto, sustituyendo en la primera ecuación,
. Como debe verficarse cada ecuación, sustituyendo
y
en la última tenemos que, para que
sea sistema generador de
se ha de cumplir la relación
. Evidentemente, esto no es cierto para todos los vectores del espacio. Si tomamos, en particular, el
, vemos que la coordenada
no verifica la relación. Por tanto, el sistema dado no es un sistema generador de
.
Envoltura lineal
Al conjunto de todos los vectores que son combinación lineal de los vectores
se le llama envoltura lineal de los vectores
, y se representa
.
Base de un espacio vectorial
Decimos que los vectores
son base del espacio vectorial
al cual pertenecen si cumplen dos condiciones:
-
Han de ser linealmente independientes.
-
Han de formar un sistema generador del espacio vectorial
.
Todas las bases de un espacio vectorial tienen el mismo número de elementos, al que se le llama dimensión del espacio vectorial. La siguiente base del espacio vectorial
es la conocida como base canónica:
Hay que notar que un sistema generador de un espacio vectorial de dimensión
debe tener al menos
vectores, pero si tiene
no tiene por qué ser un sistema generador.
Un ejemplo simple e inmeadiato lo vemos con el espacio
, siendo
y
las operaciones usuales, y escogiendo los vectores
. Estos dos vectores, al ser proporcionales, generarían únicamente una recta, pero no todo el plano.
CAMBIO DE BASE.
Ya aparecieron ejemplos de bases en los que se usó más de una base simultáneamente; el ejemplo 5.36, se escribieron polinomios en términos tanto de { 1; t ; t } como de{1; 1+ t ; 1 + t } ese ejemplo fue esencialmente un ejercicio para encontrar las coordenadas con respecto a una base ordenada partiendo de aquéllas con respecto a la otra. Por lo pronto se desarrollara este tópico.
Suponga que
B = {v1; v2 ;............;v p } y qué B = {v1 ; v2;………;v p}
Son dos bases de ordenadas para el mismo espacio vectorial real o complejo de dimensión , v. Para entender como se traduce entre las coordenadas en B y las coordenadas en B , primero se escribirá cada vector v i de la base ordenada B como una combinación de los vectores v ; de la base ordenada B como sigue
Vi = m1i v1 + m2i v2 + ………+ mI v i
t
CB = ( v I ) = mi = [ m 1i m 2i : """ m pi ]-->[Author:BF]
Suponga que tiene las coordenadas , CB (v) y se requiere conocer las coordenadas B, CB (v) esto es, se tiene " 1,…" tales que v = "1v1 = +…- " v y se desea encontrar "1…, " tales que v = "1v1 + … - teorema 5.38 sobre el isomorfismo CB y de ( 5.4 ) se sabe que ( usando rotación de matrices separadas
CB(v) = CB ( " 1 v 1+ ……+" v )
= " 1 CB ( v 1) +……+" CB (v )
= " 1m1 + " 2m2 + ……+"m
= [ m1 m2 …… m ] [ 1 2 …… ]
= McB (v),
en donde M es la matriz p x p , M = [ m1 m2"""""""mi ]
Lo anterior dice como obtener las coordenadas en B partiendo de las coordenadas en B ; solamente hay que multiplicar la matriz p x p M, cuyos elementos < M > i j son iguales a m i j de 5.41. A la inversa, es posible obtener las coordenadas en B' partiendo de las coordenadas en B y multiplicando M porque es no singular. Para comprobar que M es no singular, suponga que M = 0; si puede demostrar que x = 0: entonces el teorema clave 4.18 dirá que M es no singular. Sea v el vector en V cuyas coordenadas en B', " 1 son los elementos de alguna x para la cual Mx = 0: " 1 = < x > por (5.42), las coordenadas en B de v son justamente Mx , que es = 0; entonces,
V = 0v1 + 0v2 + …+0vp = 0 en V
Pero si v = 0 V, entonces sus coordenadas en B' son todas 0 y que B' es linealmente independiente; como v se definió para que esas coordenadas fueran los < x > se tiene que x = 0 como x = 0 sí Mx = 0, M es no singular. Esto demuestra el siguiente resultado que es extremadamente importante:
3
Ejemplo considere el espacio polinomial y las dos bases ordenadas B = {1;t ; t'} y B'=
3
{1 ;1 + t;1+ t + t'} de del ejemplo 5.36 para moverse entre ellas, es necesario que la matriz M: cada v'1 se debe escribir en términos de la vj como en (5.41) lo cual es fácil:
v'1 = 1 = 1(1) + 0(t) + 0(t') para la primera columna de M
v'2 = 1 + t = 1(1) + 1(t) + 1(t') para la segunda columna
v'3 = 1 + t + t' = 1(1) + 1(t) + 1(t') para la tercera columna
por lo tanto.
-
1 1 1 -1 0
0 1 1 - 1 0 1 -1
0 0 1 y se encuentra M 0 0 1
-1
Es posible usar en M y en M para traducir coordenadas. Para escribir 7 - 3t + 4t' en términos de B' se tomaran sus coordenadas en B, [ 10 - 7 4] t y se multiplicara por M-1 obteniendo [10 - 7 4 ] t como coordenadas en B'; como comprobación , observe que
10(1) + (-7) ( 1 + t ) + (4) (1 + t + t') = (10 - 7 4 ) + ( -7 + 4)t + (4)t'= 7- 3t + 4t'
como se necesitaba. Más generalmente , las coordenadas en B' de
-1 t
a + bt + ct' son M [a b c ] = [ a - b b - c c ]
que precisamente fue lo que encontró el ejercicio. 5.36.
Ortogonalización de Gram-Schmidt
Con este método se consiguen directamente los factores Q y R imponiendo las condiciones que deben cumplir. Sean A = [ a1, a2, ........, an ], Q = [ q1, q2, ......, qn ], los ai , qi representan los vectores columna de A y Q, y R(i,j) los elementos de R. Identificamos elemento a elemento las matrices A = QR.
a1 = R(1,1) q1 ð q1 = a1 / R(1,1);
Q ortogonal → q1' q1 =|| q1 ||22 = 1ð R(1,1) = ð ||a1||2
a2 = R(1,2) q1 + R(2,2) q2 ð q2 = (a2 - R(1,2) q1) / R(2,2) ;
q1' q2 = 0 ð R(1,2) = q1' a2
|| q1 ||22 = 1 ð R(2,2) = ± || a2 - R(1,2) q1 ||2
............................................................................................
ak =
qi ð qk = (ak -
qi) / R(k,k);
R(i,k) = qi' ak (i<k-1)
R(k,k) = || ak -
qi ||2
............................................................................................
an =
qi ð qn = (an -
qi) / R(k, k);
R(i, n) = qi' an (i<n-1)
R(n, n) = || an -
qi ||2
La implementación directa de este algoritmo tiene malas propiedades numéricas que se traducen frecuentemente en una pérdida de ortogonalidad entre los qi computados. Una astuta organización de los cálculos puede disminuir tales riesgos, es el llamado algoritmo modificado de Gram-Schmidt ( ref. BND p. 338 ).
El coste operativo es de O(2n3)
Comparando los métodos anteriores, la eliminación gaussiana, o factorización LU, es más económica y los QR más estables.
Transformaciones Lineales.
Definición.- Se llama álgebra sobre un campo ð a un espacio vectorial ð al cual esta asociado una aplicación bilineal:
M=ð *ð → ð (La cual se denomina producto)
Dados x e y que pertenecen al conjunto ð (no vaco), el vector m(x,y) que también pertenece a ð , llamamos producto de "x por y" y se representa por xy.
Si encontramos que se cumple:
x(yz)=(xy)z, x,y,zð ð
Se dice que es una álgebra asociativa.
Elemento Unidad.- Si existe en ð un elemento, por ejemplo "e", de manera que se satisface:
xe=ex=x,
para todo x que pertenezca a ð , entonces "e" es el elemento unidad.
Dados los espacios vectoriales U y V sobre un cierto campo ð , una aplicación T:U→ V es una transformación lineal u homomorfismo de U en V si se cumplen las siguientes condiciones:
T(U1+U2)=T(U1)+T(U2); ð U1,U2 ð U
b) T(ð U1)= ð T(U1); ð ð ,U1 ð U
T(ð 1U1+ ð 2U2)= ð 1T(U1)+ ð 2T(U2); ð ð 1, ð 2,U1,U2 ð U
Nota.- El conjunto de todas las transformaciones lineales de U en V es un espacio vectorial respecto de las operaciones de adición y de producto por un escalar definidas por:
a) (T1+T2)(x)=T1(x)+T2(x)
b) (ð T)(x)=ð T(x) ,para todo x ð U y ð ð ð .
Este espacio se puede designar mediante L(U,V) o bien Hom(U,V)
Nota.- Las transformaciones lineales inyectivas se llaman transformaciones regulares; las biyectivas se llaman isomorfismos. Si existe un isomorfismo de U sobre V se dice que dichos espacios son isomorfos.
Las transformaciones lineales de un espacio U en sí mismos se llaman "endomorfismos", y el espacio vectorial de los endomorfismos de U se designa por L (U).
Las transformaciones lineales biyectivas sobre U se llaman automorfismos.
Nota.- Las transformaciones lineales de U en ð se llaman funciones o formas lineales y el espacio de las funciones lineales definidas en U se designa por:
L (U).
Núcleo e Imagen de una Transformación Lineal.
A continuación daremos al lector solo una explicación sencilla y directa, además de algunos teoremas que mas adelante se necesitaran, pero esto es mas que suficiente ya que no se necesita profundizar demasiado en esta parte.
Se llama núcleo de una transformación lineal T:U→ V y se designa por Ker T al subespacio de U: Ker T={u ð U/ T(u)=0}
Teorema.- Una transformación lineal es regular si y solo si Ker T={0}, es decir si su núcleo se reduce al vector nulo.
Teorema.- Cada transformación lineal regular T:U→ V aplica a los vectores de un sistema linealmente independiente en vectores de un sistema linealmente.
Se llama imagen de la transformación T:U→ V, y se designa mediante Im T al subespacio de V:
Im V=T(u)={vð V/ ð uð U, T(u)=v}
El cual constituye un subespacio como puede ser fácilmente comprobado.
Nota.- Cuando Im T=V entonces es una transformación lineal de U sobre V o sea una sobreyeccion, se dice también epiyeccion o suryeccion).
Composición de Transformaciones Lineales. Transformaciones Lineales Inversas.
Si S :U→ V y T: V→ W son dos transformaciones lineales, se comprueba inmediatamente que la transformación compuesta
T? S: U→ W, definida por :
(T? S)(u)=T[S(u)], ð uð U
En adelante la transformación lineal T? S se representará simplemente por TS.
Obs.- Se podrán definir las potencias de una transformación lineal T:
T2 =TT, T3 =TTT , etc.
Nota.- La transformación Iu:U→ U /T(u)=u; ð uð U se llama transformación idéntica de U, y es evidentemente lineal.
Transformación Inversa.- Se dice que la transformación lineal T-1 :V→ U es inversa de T si se cumplen las relaciones:
TT-1 =Iv y T-1T=Iu
Según vimos el conjunto L(U,V) de las transformaciones lineales de U en V admite una estructura de espacio vectorial.
En E(V) es posible introducir una nueva ley de composición interna, a saber el producto de endomorfismos.
Sean U,V,W tres espacios vectoriales y T1 :U→ V, T2 :V→ W ambas transformaciones lineales, entonces T2T1 es la transformación lineal de U en W/ (T2T1)x=T2(T1x), xð U
Obs.- Sean T1 :U→ V, T2 :V→ W , T3:W→ Z entonces:
T3(T2T1)=(T3T2)T1
(ð T1+ð T2)T3=ð T1 T3 + ð T2 T3
Teorema.- Una transformación lineal T: U→ V es continua en un punto de U, entonces es uniformemente continua.
Teorema.- Una transformación lineal T: U→ V es continua si y solo si existe un número real M>0 tal que para todo u ð U se cumple ð T(U) ð ð M ð U ð .
Teorema.- Una transformación lineal T: U→ V es continua si y solo si para todo conjunto acotado A de U, T(A) es acotado.
Teorema.- Si T: U→ V es una transformación lineal sobreyectiva ( no necesariamente continua ), entonces T es no singular y T-1 es continua si y solo si existe un número m>0 tal que para todo u ð U / m ð u ð ð Tð (U) ð .
Ahora haremos una pequeña introducción a una nueva teoría que explicaremos mas adelante.
Consideremos dos espacios normados U y V y formemos el producto cartesiano U*V de ambos conjuntos. Definimos U*V como un espacio normado que depende de las estructuras de U y V.
Las funciones f1 : U*V→ U, f2: U*V→ V, que reciben nombre de proyecciones canónicas, se definen de la siguiente manera, para todo (x,y)ð U*V / f1 (x,y)= x, f2 (x,y)=y.
Obs.- Ambas son transformaciones lineales sobreyectivas, aunque no inyectivas en general. Por otra parte:
ð fi(x,y)ð ð ð (x,y) ð ; I=1,2
Lo cual implica la continuidad de las dos proyecciones canónicas en virtud de:
ð u ð U / T ð u ð ð Mð U ð
Teorema.- Dos espacios normados U y Vson isótopos si y solo si existe una transformación lineal sobreyectiva T:U→ V y números reales m,M>0 tales que:
ð u ð U / mð uð ð T ð (x) ð ð Mð U ð
Nota: Topologicamente isomorfos es equivalente a decir que son isótopos.
Lema.- Sean (E,d) un espacio métrico y U normado.
Si f: Að E→ U es continua en A, entonces la función ð fð : Að E→ ð / ð að A:
ð f ð (x)=ð f(x)ð
Teorema.- Dos espacios normados de una misma dimensión finita son isótopos.
Teorema.- Todo espacio normado de dimensión finita es de Banach (completo).
Teorema.- Si T: U→ V es una transformación lineal y U es de dimensión finita, entonces T es continua.
Teorema.- Todo conjunto acotado de un espacio normado de dimensión finita es precompacto.
TEOREMA CLAVE. ( cambio de base) sean B = {v1; ............;v p } y B =
{v1 ; ………;v p} dos bases ordenadas para el mismo espacio vectorial V de dimensión p. Para cualquier vector v en V, las coordenadas en B, vB de v y las coordenadas en B', vB de v relacionado por:
vB = MvB y vB' = M-1B'
En donde m es la matriz no singular p x p con los elementos < M > u = mu
En donde v'i = m1i vi + ……+ mpi vp.
[Author:BF]Descargar
Enviado por: | Skaider |
Idioma: | castellano |
País: | México |