Matemáticas


Álgebra Lineal. Espacios Vectoriales


Espacios Vectoriales. Definición

Comenzaremos con el estudio de un ente matemático como son los espacios vectoriales. Su definición puede parecer un poco extraña al no entendido, sin embargo, una idea ha de quedar clara: es una estructura que nos asegura que al componer dos elementos pertenecientes al espacio (elementos a los que llamaremos vectores) de acuerdo a una cierta operación, el resultado sigue siendo un elemento del espacio. En otras palabras, la suma de vectores será un vector y no cualquier otra cosa, como podría ser un punto.

Definición de espacio vectorial

Sea Álgebra Lineal. Espacios Vectoriales
un cuerpo. Diremos que un conjunto Álgebra Lineal. Espacios Vectoriales
dotado de una operación interna Álgebra Lineal. Espacios Vectoriales
y otra externa Álgebra Lineal. Espacios Vectoriales
sobre el cuerpo Álgebra Lineal. Espacios Vectoriales
tiene estructura de espacio vectorial si cumple las siguientes propiedades:

1.

Álgebra Lineal. Espacios Vectoriales
es un grupo abeliano

2.

Álgebra Lineal. Espacios Vectoriales
es una operación que va del producto cartesiano Álgebra Lineal. Espacios Vectoriales
en el conjunto Álgebra Lineal. Espacios Vectoriales
:

Álgebra Lineal. Espacios Vectoriales

verificando las siguientes propiedades:

2.1.

Distributiva respecto de la suma de vectores: Álgebra Lineal. Espacios Vectoriales

2.2.

Distributiva respecto de la suma de escalares: Álgebra Lineal. Espacios Vectoriales

2.3.

Asociativa mixta: Álgebra Lineal. Espacios Vectoriales

2.4.

Producto por el elemento unidad del cuerpo: Álgebra Lineal. Espacios Vectoriales

Siguiendo esta definición de lo que es un espacio vectorial, a partir de las propiedades que todos sabemos de la suma y producto de números reales (sabemos que Álgebra Lineal. Espacios Vectoriales
es un cuerpo, lo que implica, en particular, que Álgebra Lineal. Espacios Vectoriales
y Álgebra Lineal. Espacios Vectoriales
son grupos), se demuestra muy fácilmente que, por ejemplo, el espacio Álgebra Lineal. Espacios Vectoriales
de los vectores del plano con las operaciones de suma de vectores y producto de un escalar con un vector definidas como conocemos de cursos anteriores (esto es, Álgebra Lineal. Espacios Vectoriales
, Álgebra Lineal. Espacios Vectoriales
), se tiene que Álgebra Lineal. Espacios Vectoriales
es un espacio vectorial sobre Álgebra Lineal. Espacios Vectoriales
.
Sin embargo, si ahora consideramos Álgebra Lineal. Espacios Vectoriales
estando definidas estas operaciones como sigue: Álgebra Lineal. Espacios Vectoriales
, Álgebra Lineal. Espacios Vectoriales
, se tiene que Álgebra Lineal. Espacios Vectoriales
no es un espacio vectorial sobre Álgebra Lineal. Espacios Vectoriales
, pues falla la propiedad de producto por el elemento de unidad del cuerpo, ya que Álgebra Lineal. Espacios Vectoriales

Dependencia e independencia lineal

Hemos visto la definición de espacio vectorial, vamos ahora a concretar algunas propiedades que tiene la operación externa.

Propiedades de la operación Álgebra Lineal. Espacios Vectoriales

Sea Álgebra Lineal. Espacios Vectoriales
un espacio vectorial. Entonces, se verifica:

1.

Álgebra Lineal. Espacios Vectoriales

2.

Álgebra Lineal. Espacios Vectoriales

3.

Álgebra Lineal. Espacios Vectoriales
Álgebra Lineal. Espacios Vectoriales
ó Álgebra Lineal. Espacios Vectoriales

4.

Álgebra Lineal. Espacios Vectoriales

5.

Álgebra Lineal. Espacios Vectoriales

6.

Simplificación de escalares:

Álgebra Lineal. Espacios Vectoriales

7.

Simplificación de vectores:

Álgebra Lineal. Espacios Vectoriales

De la estructura de espacio vectorial sabemos que si sumamos dos vectores el resultado va a ser un vector. También sabemos que si multiplicamos un escalar por un vector, el resultado será un vector. Uniendo estos resultados, llegamos a las siguientes definiciones:

Combinaciones lineales. Dependencia e independencia de vectores

Decimos que un vector Álgebra Lineal. Espacios Vectoriales
es combinación lineal de los vectores Álgebra Lineal. Espacios Vectoriales
si existen unos escalares Álgebra Lineal. Espacios Vectoriales
de forma que Álgebra Lineal. Espacios Vectoriales

Por ejemplo, el vector Álgebra Lineal. Espacios Vectoriales
es combinación lineal de los vectores Álgebra Lineal. Espacios Vectoriales
, pues existen los escalares Álgebra Lineal. Espacios Vectoriales
, Álgebra Lineal. Espacios Vectoriales
, Álgebra Lineal. Espacios Vectoriales
verificándose Álgebra Lineal. Espacios Vectoriales

Diremos que los vectores Álgebra Lineal. Espacios Vectoriales
son linealmente independientes si la igualdad Álgebra Lineal. Espacios Vectoriales
es únicamente cierta cuando los escalares Álgebra Lineal. Espacios Vectoriales
son todos iguales a cero. Entonces se dice que forman un sistema libre. En caso contrario se dirá que los vectores son linealmente dependientes, o que forman un sistema ligado.

Por ejemplo, en Álgebra Lineal. Espacios Vectoriales
(con las operaciones usuales Álgebra Lineal. Espacios Vectoriales
y Álgebra Lineal. Espacios Vectoriales
), se tiene que los vectores Álgebra Lineal. Espacios Vectoriales
y Álgebra Lineal. Espacios Vectoriales
son linealmente independientes, ya que si buscamos los escalares Álgebra Lineal. Espacios Vectoriales
, Álgebra Lineal. Espacios Vectoriales
tales que Álgebra Lineal. Espacios Vectoriales
, haciendo operaciones, llegamos a que tiene que ser Álgebra Lineal. Espacios Vectoriales
. Como sabemos, dos vectores son iguales si lo son componente a componente, lo que implica, automáticamente, que Álgebra Lineal. Espacios Vectoriales
y Álgebra Lineal. Espacios Vectoriales
luego, según la definición, son linealmente independientes.

Sin embargo, también en Álgebra Lineal. Espacios Vectoriales
, los vectores Álgebra Lineal. Espacios Vectoriales
y Álgebra Lineal. Espacios Vectoriales
no son linealmente independientes, pues al buscar los escalares Álgebra Lineal. Espacios Vectoriales
, Álgebra Lineal. Espacios Vectoriales
tales que Álgebra Lineal. Espacios Vectoriales
, haciendo operaciones, llegamos a que tiene que ser Álgebra Lineal. Espacios Vectoriales
. Aplicando de nuevo que dos vectores son iguales si lo son componente a componente, obtenemos Álgebra Lineal. Espacios Vectoriales
, es decir, nos hemos trasladado al mundo de la resolución de sistemas de ecuaciones. Ahora, con lo que sabemos sobre sistemas lineales, resolviendo se tiene que Álgebra Lineal. Espacios Vectoriales
y Álgebra Lineal. Espacios Vectoriales
. ¿Qué me dice esto sobre los vectores? Que son linealmente dependientes. Es claro que si decimos Álgebra Lineal. Espacios Vectoriales
, entonces, automáticamente Álgebra Lineal. Espacios Vectoriales
, Álgebra Lineal. Espacios Vectoriales
, lo que podría conducirnos a concluir (erróneamente) que los vectores son linealmente independientes. Sin embargo, la definición nos dice que Álgebra Lineal. Espacios Vectoriales
y Álgebra Lineal. Espacios Vectoriales
han de ser únicos. Ahora, si hacemos Álgebra Lineal. Espacios Vectoriales
, automáticamente Álgebra Lineal. Espacios Vectoriales
y Álgebra Lineal. Espacios Vectoriales
también verifican la relación Álgebra Lineal. Espacios Vectoriales
, lo que nos hace ver que no son únicos y, por tanto, los vectores no son linealmente independientes.

Lo importante de aquí es darse cuenta de que el concepto de dependencia e independencia lineal se ha trasladado al estudio de las soluciones de un cierto sistema de ecuaciones homogéneo. La existencia de una única solución (que, por ser homogéneo el sistema, será la nula) me dice que los vectores son linealmente independientes, y la existencia de más de una solución, que los vectores son linealmente dependientes.

Mencionamos unas propiedades referentes a dependencia/independencia lineal de un conjunto de vectores, y después introduciremos tres conceptos importantes: sistema generador de un espacio vectorial, envoltura lineal de un conjunto de vectores y base de un espacio vectorial.

  • Un conjunto de vectores es linealmente dependiente si y solamente si alguno de los vectores es combinación lineal de los demás.

  • Si un conjunto de vectores es linealmente independiente cualquier subconjunto suyo también lo es.
    Obviamente, si tenemos un conjunto de vectores tales que ninguno de ellos es combinación de los demás, escogiendo sólo unos cuantos, no podrán ser combinación de los otros.

  • Si un conjunto de vectores es linealmente dependiente también lo es todo conjunto que lo contenga.
    Ya que un conjunto de vectores es linealmente dependiente si y sólo si tiene algún vector que es combinación lineal de los demás, si metemos este conjunto de vectores en otro más grande, seguimos teniendo el vector que es combinación lineal de otros, por tanto, el conjunto más grande sigue siendo linealmente dependiente.

  • Sistema generador y base del espacio

    Sistema generador de un espacio vectorial

    Decimos que un conjunto de vectores Álgebra Lineal. Espacios Vectoriales
    es un sistema generador del espacio vectorial al cual pertenece si cualquier vector de dicho espacio se puede poner como combinación lineal de ellos.

    Por ejemplo, los vectores Álgebra Lineal. Espacios Vectoriales
    , Álgebra Lineal. Espacios Vectoriales
    forman un sistema generador de Álgebra Lineal. Espacios Vectoriales
    ( Álgebra Lineal. Espacios Vectoriales
    , Álgebra Lineal. Espacios Vectoriales
    las operaciones usuales), ya que si cogemos cualquier Álgebra Lineal. Espacios Vectoriales
    , de igualar Álgebra Lineal. Espacios Vectoriales
    , se tiene enseguida que ha de ser Álgebra Lineal. Espacios Vectoriales
    y Álgebra Lineal. Espacios Vectoriales
    . Por ejemplo, si Álgebra Lineal. Espacios Vectoriales
    , tendremos Álgebra Lineal. Espacios Vectoriales
    y Álgebra Lineal. Espacios Vectoriales
    .

    No todos los conjuntos de vectores forman un sistema generador de un espacio vectorial. Por ejemplo, los vectores Álgebra Lineal. Espacios Vectoriales
    y Álgebra Lineal. Espacios Vectoriales
    no forman un sistema generador de Álgebra Lineal. Espacios Vectoriales
    .

    Si lo fueran, Álgebra Lineal. Espacios Vectoriales
    tales que Álgebra Lineal. Espacios Vectoriales
    . Pero esto implica, escribiéndolo como un sistema, que:

    Álgebra Lineal. Espacios Vectoriales

    Es decir, tenemos que Álgebra Lineal. Espacios Vectoriales
    , por tanto, sustituyendo en la primera ecuación, Álgebra Lineal. Espacios Vectoriales
    . Como debe verficarse cada ecuación, sustituyendo Álgebra Lineal. Espacios Vectoriales
    y Álgebra Lineal. Espacios Vectoriales
    en la última tenemos que, para que Álgebra Lineal. Espacios Vectoriales
    sea sistema generador de Álgebra Lineal. Espacios Vectoriales
    se ha de cumplir la relación Álgebra Lineal. Espacios Vectoriales
    . Evidentemente, esto no es cierto para todos los vectores del espacio. Si tomamos, en particular, el Álgebra Lineal. Espacios Vectoriales
    , vemos que la coordenada Álgebra Lineal. Espacios Vectoriales
    no verifica la relación. Por tanto, el sistema dado no es un sistema generador de Álgebra Lineal. Espacios Vectoriales
    .

    Envoltura lineal

    Al conjunto de todos los vectores que son combinación lineal de los vectores Álgebra Lineal. Espacios Vectoriales
    se le llama envoltura lineal de los vectores Álgebra Lineal. Espacios Vectoriales
    , y se representa Álgebra Lineal. Espacios Vectoriales
    .

    Base de un espacio vectorial

    Decimos que los vectores Álgebra Lineal. Espacios Vectoriales
    son base del espacio vectorial Álgebra Lineal. Espacios Vectoriales
    al cual pertenecen si cumplen dos condiciones:

    • Han de ser linealmente independientes.

    • Han de formar un sistema generador del espacio vectorial Álgebra Lineal. Espacios Vectoriales
      .

    Todas las bases de un espacio vectorial tienen el mismo número de elementos, al que se le llama dimensión del espacio vectorial. La siguiente base del espacio vectorial Álgebra Lineal. Espacios Vectoriales
    es la conocida como base canónica:

    Álgebra Lineal. Espacios Vectoriales

    Hay que notar que un sistema generador de un espacio vectorial de dimensión Álgebra Lineal. Espacios Vectoriales
    debe tener al menos Álgebra Lineal. Espacios Vectoriales
    vectores, pero si tiene Álgebra Lineal. Espacios Vectoriales
    no tiene por qué ser un sistema generador.

    Un ejemplo simple e inmeadiato lo vemos con el espacio Álgebra Lineal. Espacios Vectoriales
    , siendo Álgebra Lineal. Espacios Vectoriales
    y Álgebra Lineal. Espacios Vectoriales
    las operaciones usuales, y escogiendo los vectores Álgebra Lineal. Espacios Vectoriales
    . Estos dos vectores, al ser proporcionales, generarían únicamente una recta, pero no todo el plano.

    CAMBIO DE BASE.

    Ya aparecieron ejemplos de bases en los que se usó más de una base simultáneamente; el ejemplo 5.36, se escribieron polinomios en términos tanto de { 1; t ; t } como de{1; 1+ t ; 1 + t } ese ejemplo fue esencialmente un ejercicio para encontrar las coordenadas con respecto a una base ordenada partiendo de aquéllas con respecto a la otra. Por lo pronto se desarrollara este tópico.

    Suponga que

    B = {v1; v2 ;............;v p } y qué B = {v1 ; v2;………;v p}

    Son dos bases de ordenadas para el mismo espacio vectorial real o complejo de dimensión  , v. Para entender como se traduce entre las coordenadas en B y las coordenadas en B , primero se escribirá cada vector v i de la base ordenada B como una combinación de los vectores v ; de la base ordenada B como sigue

    Vi = m1i v1 + m2i v2 + ………+ mI v i

    t

    CB = ( v I ) = mi = [ m 1i m 2i : """ m pi ]-->[Author:BF]

    Suponga que tiene las coordenadas  , CB (v) y se requiere conocer las coordenadas B, CB (v) esto es, se tiene " 1,…"  tales que v = "1v1 = +…- "  v  y se desea encontrar "1…, " tales que v = "1v1 + … - teorema 5.38 sobre el isomorfismo CB y de ( 5.4 ) se sabe que ( usando rotación de matrices separadas

    CB(v) = CB ( " 1 v 1+ ……+"  v  )

    = " 1 CB ( v 1) +……+"  CB (v )

    = " 1m1 + " 2m2 + ……+"m 

    = [ m1 m2 …… m ] [ 1  2 ……  ]

    = McB (v),

    en donde M es la matriz p x p , M = [ m1 m2"""""""mi ]

    Lo anterior dice como obtener las coordenadas en B partiendo de las coordenadas en B ; solamente hay que multiplicar la matriz p x p M, cuyos elementos < M > i j son iguales a m i j de 5.41. A la inversa, es posible obtener las coordenadas en B' partiendo de las coordenadas en B y multiplicando M porque es no singular. Para comprobar que M es no singular, suponga que M = 0; si puede demostrar que x = 0: entonces el teorema clave 4.18 dirá que M es no singular. Sea v el vector en V cuyas coordenadas en B', " 1 son los elementos de alguna x para la cual Mx = 0: " 1 = < x > por (5.42), las coordenadas en B de v son justamente Mx , que es = 0; entonces,

    V = 0v1 + 0v2 + …+0vp = 0 en V

    Pero si v = 0 V, entonces sus coordenadas en B' son todas 0 y que B' es linealmente independiente; como v se definió para que esas coordenadas fueran los < x > se tiene que x = 0 como x = 0 sí Mx = 0, M es no singular. Esto demuestra el siguiente resultado que es extremadamente importante:

    3

    Ejemplo considere el espacio polinomial  y las dos bases ordenadas B = {1;t ; t'} y B'=

    3

    {1 ;1 + t;1+ t + t'} de  del ejemplo 5.36 para moverse entre ellas, es necesario que la matriz M: cada v'1 se debe escribir en términos de la vj como en (5.41) lo cual es fácil:

    v'1 = 1 = 1(1) + 0(t) + 0(t') para la primera columna de M

    v'2 = 1 + t = 1(1) + 1(t) + 1(t') para la segunda columna

    v'3 = 1 + t + t' = 1(1) + 1(t) + 1(t') para la tercera columna

    por lo tanto.

    • 1 1 1 -1 0

    0 1 1 - 1 0 1 -1

    0 0 1 y se encuentra M 0 0 1

    -1

    Es posible usar en M y en M para traducir coordenadas. Para escribir 7 - 3t + 4t' en términos de B' se tomaran sus coordenadas en B, [ 10 - 7 4] t y se multiplicara por M-1 obteniendo [10 - 7 4 ] t como coordenadas en B'; como comprobación , observe que

    10(1) + (-7) ( 1 + t ) + (4) (1 + t + t') = (10 - 7 4 ) + ( -7 + 4)t + (4)t'= 7- 3t + 4t'

    como se necesitaba. Más generalmente , las coordenadas en B' de

    -1 t

    a + bt + ct' son M [a b c ] = [ a - b b - c c ]

    que precisamente fue lo que encontró el ejercicio. 5.36.

    Ortogonalización de Gram-Schmidt

    Con este método se consiguen directamente los factores Q y R imponiendo las condiciones que deben cumplir. Sean A = [ a1, a2, ........, an ], Q = [ q1, q2, ......, qn ], los ai , qi representan los vectores columna de A y Q, y R(i,j) los elementos de R. Identificamos elemento a elemento las matrices A = QR.

    a1 = R(1,1) q1 ð q1 = a1 / R(1,1);
    Q ortogonal → q1' q1 =|| q1 ||22 = 1ð R(1,1) = ð ||a1||2
    a2 = R(1,2) q1 + R(2,2) q2 ð q2 = (a2 - R(1,2) q1) / R(2,2) ;
    q1' q2 = 0 ð R(1,2) = q1' a2
    || q1 ||22 = 1 ð R(2,2) = ± || a2 - R(1,2) q1 ||2
    ............................................................................................

    akÁlgebra Lineal. Espacios Vectoriales
    qi ð qk = (akÁlgebra Lineal. Espacios Vectoriales
    qi) / R(k,k);
    R(i,k) = qi' ak (i<k-1)
    R(k,k) = || akÁlgebra Lineal. Espacios Vectoriales
    qi ||2
    ............................................................................................
    anÁlgebra Lineal. Espacios Vectoriales
    qi ð qn = (anÁlgebra Lineal. Espacios Vectoriales
    qi) / R(k, k);
    R(i, n) = qi' an (i<n-1)
    R(n, n) = || anÁlgebra Lineal. Espacios Vectoriales
    qi ||2  

    La implementación directa de este algoritmo tiene malas propiedades numéricas que se traducen frecuentemente en una pérdida de ortogonalidad entre los qi computados. Una astuta organización de los cálculos puede disminuir tales riesgos, es el llamado algoritmo modificado de Gram-Schmidt ( ref. BND p. 338 ).

    El coste operativo es de O(2n3)

    Comparando los métodos anteriores, la eliminación gaussiana, o factorización LU, es más económica y los QR más estables.

    Transformaciones Lineales.

    Definición.- Se llama álgebra sobre un campo ð a un espacio vectorial ð al cual esta asociado una aplicación bilineal:

    M=ð *ð → ð (La cual se denomina producto)

    Dados x e y que pertenecen al conjunto ð (no vaco), el vector m(x,y) que también pertenece a ð , llamamos producto de "x por y" y se representa por xy.

    Si encontramos que se cumple:

    x(yz)=(xy)z, x,y,zð ð

    Se dice que es una álgebra asociativa.

    Elemento Unidad.- Si existe en ð un elemento, por ejemplo "e", de manera que se satisface:

    xe=ex=x,

    para todo x que pertenezca a ð , entonces "e" es el elemento unidad.

     Dados los espacios vectoriales U y V sobre un cierto campo ð , una aplicación T:U→ V es una transformación lineal u homomorfismo de U en V si se cumplen las siguientes condiciones:

  • T(U1+U2)=T(U1)+T(U2); ð U1,U2 ð U

  • b) T(ð U1)= ð T(U1); ð ð ,U1 ð U

  • T(ð 1U1+ ð 2U2)= ð 1T(U1)+ ð 2T(U2); ð ð 1, ð 2,U1,U2 ð U

  •  

    Nota.- El conjunto de todas las transformaciones lineales de U en V es un espacio vectorial respecto de las operaciones de adición y de producto por un escalar definidas por:

     

    a) (T1+T2)(x)=T1(x)+T2(x)

    b) (ð T)(x)=ð T(x) ,para todo x ð U y ð ð ð .

    Este espacio se puede designar mediante L(U,V) o bien Hom(U,V)

     Nota.- Las transformaciones lineales inyectivas se llaman transformaciones regulares; las biyectivas se llaman isomorfismos. Si existe un isomorfismo de U sobre V se dice que dichos espacios son isomorfos.

    Las transformaciones lineales de un espacio U en sí mismos se llaman "endomorfismos", y el espacio vectorial de los endomorfismos de U se designa por L (U).

    Las transformaciones lineales biyectivas sobre U se llaman automorfismos.

     

     

    Nota.- Las transformaciones lineales de U en ð se llaman funciones o formas lineales y el espacio de las funciones lineales definidas en U se designa por:

    L (U).

     

    Núcleo e Imagen de una Transformación Lineal.

    A continuación daremos al lector solo una explicación sencilla y directa, además de algunos teoremas que mas adelante se necesitaran, pero esto es mas que suficiente ya que no se necesita profundizar demasiado en esta parte.

    Se llama núcleo de una transformación lineal T:U→ V y se designa por Ker T al subespacio de U: Ker T={u ð U/ T(u)=0}

     

    Teorema.- Una transformación lineal es regular si y solo si Ker T={0}, es decir si su núcleo se reduce al vector nulo.

     

    Teorema.- Cada transformación lineal regular T:U→ V aplica a los vectores de un sistema linealmente independiente en vectores de un sistema linealmente.

    Se llama imagen de la transformación T:U→ V, y se designa mediante Im T al subespacio de V:

    Im V=T(u)={vð V/ ð uð U, T(u)=v}

    El cual constituye un subespacio como puede ser fácilmente comprobado.

     

    Nota.- Cuando Im T=V entonces es una transformación lineal de U sobre V o sea una sobreyeccion, se dice también epiyeccion o suryeccion).

     

    Composición de Transformaciones Lineales. Transformaciones Lineales Inversas.

    Si S :U→ V y T: V→ W son dos transformaciones lineales, se comprueba inmediatamente que la transformación compuesta

    T? S: U→ W, definida por :

    (T? S)(u)=T[S(u)], ð uð U

    En adelante la transformación lineal T? S se representará simplemente por TS.

    Obs.- Se podrán definir las potencias de una transformación lineal T:

    T2 =TT, T3 =TTT , etc.

     

    Nota.- La transformación Iu:U→ U /T(u)=u; ð uð U se llama transformación idéntica de U, y es evidentemente lineal.

     

    Transformación Inversa.- Se dice que la transformación lineal T-1 :V→ U es inversa de T si se cumplen las relaciones:

    TT-1 =Iv y T-1T=Iu

    Según vimos el conjunto L(U,V) de las transformaciones lineales de U en V admite una estructura de espacio vectorial.

    En E(V) es posible introducir una nueva ley de composición interna, a saber el producto de endomorfismos.

    Sean U,V,W tres espacios vectoriales y T1 :U→ V, T2 :V→ W ambas transformaciones lineales, entonces T2T1 es la transformación lineal de U en W/ (T2T1)x=T2(T1x), xð U

    Obs.- Sean T1 :U→ V, T2 :V→ W , T3:W→ Z entonces:

  • T3(T2T1)=(T3T2)T1

  • (ð T1+ð T2)T3=ð T1 T3 + ð T2 T3

  •  

    Teorema.- Una transformación lineal T: U→ V es continua en un punto de U, entonces es uniformemente continua.

     

    Teorema.- Una transformación lineal T: U→ V es continua si y solo si existe un número real M>0 tal que para todo u ð U se cumple ð T(U) ð ð M ð U ð .

     

    Teorema.- Una transformación lineal T: U→ V es continua si y solo si para todo conjunto acotado A de U, T(A) es acotado.

     

    Teorema.- Si T: U→ V es una transformación lineal sobreyectiva ( no necesariamente continua ), entonces T es no singular y T-1 es continua si y solo si existe un número m>0 tal que para todo u ð U / m ð u ð ð Tð (U) ð .

    Ahora haremos una pequeña introducción a una nueva teoría que explicaremos mas adelante.

    Consideremos dos espacios normados U y V y formemos el producto cartesiano U*V de ambos conjuntos. Definimos U*V como un espacio normado que depende de las estructuras de U y V.

    Las funciones f1 : U*V→ U, f2: U*V→ V, que reciben nombre de proyecciones canónicas, se definen de la siguiente manera, para todo (x,y)ð U*V / f1 (x,y)= x, f2 (x,y)=y.

    Obs.- Ambas son transformaciones lineales sobreyectivas, aunque no inyectivas en general. Por otra parte:

    ð fi(x,y)ð ð ð (x,y) ð ; I=1,2

     

    Lo cual implica la continuidad de las dos proyecciones canónicas en virtud de:

    ð u ð U / T ð u ð ð Mð U ð

     

    Teorema.- Dos espacios normados U y Vson isótopos si y solo si existe una transformación lineal sobreyectiva T:U→ V y números reales m,M>0 tales que:

    ð u ð U / mð uð ð T ð (x) ð ð Mð U ð

    Nota: Topologicamente isomorfos es equivalente a decir que son isótopos.

     

    Lema.- Sean (E,d) un espacio métrico y U normado.

    Si f: Að E→ U es continua en A, entonces la función ð fð : Að E→ ð / ð að A:

    ð f ð (x)=ð f(x)ð

     

    Teorema.- Dos espacios normados de una misma dimensión finita son isótopos.

     

    Teorema.- Todo espacio normado de dimensión finita es de Banach (completo).

     

    Teorema.- Si T: U→ V es una transformación lineal y U es de dimensión finita, entonces T es continua.

     

    Teorema.- Todo conjunto acotado de un espacio normado de dimensión finita es precompacto.

    -->

    TEOREMA CLAVE. ( cambio de base) sean B = {v1; ............;v p } y B =

    {v1 ; ………;v p} dos bases ordenadas para el mismo espacio vectorial V de dimensión p. Para cualquier vector v en V, las coordenadas en B, vB de v y las coordenadas en B', vB de v relacionado por:

    vB = MvB y vB' = M-1B'

    En donde m es la matriz no singular p x p con los elementos < M > u = mu

    En donde v'i = m1i vi + ……+ mpi vp.

    [Author:BF]



    Descargar
    Enviado por:Skaider
    Idioma: castellano
    País: México

    Te va a interesar