Demostraciones de temas teóricos del programa de álgebra y geometría analítica

Vectorización. Subespacio. Matriz. Codominio. Dominio

  • Enviado por: Amy
  • Idioma: castellano
  • País: Argentina Argentina
  • 9 páginas
publicidad

ALGUNAS DEMOSTRACIONES DE TEMAS TEORICOS DEL PROGRAMA DE ALGEBRA Y GEOMETRIA ANALITICA

En esta página incluimos las demostraciones de algunos temas teóricos que en ciertas ocasiones, por razones de disponibilidad de tiempo, no pueden dictarse en los cursos, pero que están incluidos en el programa analítico de la materia y que por lo tanto es necesario conocer y saber demostrar.

En la tipografía empleada, indicaremos los vectores con negrita.

Unidad VI: Espacios Vectoriales

1.- La intersección de dos subespacios es un subespacio vectorial

En primer lugar recordemos la definición de intersección de subespacios. Si S1 y S2 son dos subespacios vectoriales incluidos en un espacio vectorial V, S = S1 S2 está formado por todos los vectores u pertenecientes a V tales que u pertenece a S1 y simultáneamente u pertenece a S2.

Para probar que efectivamente S = S1 S2 es un subespacio vectorial de V debe cumplirse:

a.- Que S no sea vacío

Esto es cierto por cuanto al ser S1 y S2 subespacios, siempre el vector nulo (0) pertenece a ambos, por lo que la intersección de S1 y S2 siempre cuenta por lo menos con un elemento: el mencionado vector nulo.

b.- Que sea cerrado para la suma

Consideremos un vector u que pertenece a S1 S2 y un vector v que pertenece a S1 S2.

Debemos probar que u + v pertenece a S1 S2.

Si u pertenece a S1 S2 entonces u pertenece a S1 y a la vez u pertenece a S2, por definición de intersección de subespacios.

Del mismo modo, si v pertenece a S1 S2 entonces v pertenece a S1 y a la vez v pertenece a S2, por similar razón.

Como S1 es un subespacio vectorial de V, si u pertenece a S1 y v también pertenece a S1, su suma u + v pertenecerá a S1, por cuanto al ser S1 subespacio como hemos mencionado, es cerrado para la suma (1)

Análogamente, como S2 es un subespacio vectorial de V, si u pertenece a S2 y v también pertenece a S2, su suma u + v pertenecerá a S2, por cuanto al ser S2 subespacio, es cerrado para la suma (2)

Considerando lo expuesto en (1) y (2), resulta que u + v pertenece tanto a S1 como a S2, por lo que por definición de intersección, pertenece a S1 S2. Con ello probamos que es cerrado para la suma.

c.- Que sea cerrado para el producto por un escalar

Consideremos un vector u que pertenece a S1 S2 y un escalar α que pertenece al cuerpo de los números reales (R).

Debemos probar que αu pertenece a S1 S2.

Si u pertenece a S1 S2, entonces u pertenece tanto a S1 como a S2, por definición de intersección de subespacios.

Si u pertenece a S1, αu también pertenece a S1, por cuanto éste es subespacio vectorial y es cerrado para el producto por un escalar. (3)

Análogamente, si u pertenece a S2, αu también pertenece a S2, por cuanto éste también es subespacio vectorial y es cerrado para el producto por un escalar. (4)

De lo expuesto en (3) y (4) resulta que αu pertenece simultáneamente a S1 y a S2, por lo cual pertenece a S1 S2 por definición de intersección de subespacios, con lo que queda demostrado que esta operación es cerrada.

En consecuencia, al no ser un conjunto vacío y cumplir con la condición necesaria y suficiente para que un conjunto SV sea subespacio vectorial de éste, S = S1 S2 es un subespacio vectorial.

2.- La suma de dos subespacios es un subespacio vectorial

Recordemos en primer lugar la definición de suma de subespacios: si S1 y S2 son dos subespacios incluidos en un espacio vectorial V, el subespacio S = S1 + S2 está formado por todos los vectores v de V tales que v = v1 + v2, con v1 perteneciente a S1 y v2 perteneciente a S2.

Para probar que S = S1 + S2 es efectivamente un subespacio vectorial de V debe cumplirse:

a.- Que S no sea vacío

Como definíamos la suma de subespacios de modo que si v pertenece a S entonces v = v1 + v2 con v1 perteneciente a S1 y v2 perteneciente a S2, al ser S1 y S2 subespacios el vector nulo 0 pertenece a ambos, por lo que dicho vector también pertenece a S, lo que demuestra que la suma de subespacios cuenta por lo menos con un elemento: el vector nulo.

b.- Que sea cerrado para la suma

Consideremos un vector u que pertenece a S = S1 + S2 y un vector v que pertenece a S = S1 + S2.

Debemos probar que u + v pertenece a S = S1 + S2.

Si u pertenece a S1 + S2 entonces u = u1 + u2 con u1 perteneciente a S1 y u2 perteneciente a S2, por definición de suma de subespacios.

Del mismo modo, si v pertenece a S1 + S2 entonces v = v1 + v2 con v1 perteneciente a S1 y v2 perteneciente a S2, por similar razón.

Por lo tanto, u + v = (u1 +u2) + (v1 + v2)

Al segundo miembro de esta expresión la podemos agrupar aplicando la propiedad asociativa de la suma de vectores de la siguiente forma:

u + v = (u1 + v1) + (u2 + v2) (1)

En la ecuación (1), el primer término encerrado entre paréntesis incluye a dos vectores pertenecientes a S1 (u1 y v1), por lo que hemos expuesto en los párrafos anteriores. El segundo sumando incluye a dos vectores pertenecientes a S2 (u2 y v2), por la misma razón. En consecuencia, u + v (vector perteneciente a S) está calculado como suma de un vector de S1 y un vector de S2, con lo cual probamos que esta operación entre subespacios es cerrada para la suma.

c.- Que sea cerrado para el producto por un escalar

Consideremos un vector u que pertenece a S = S1 + S2 y un escalar α que pertenece al cuerpo de los números reales (R).

Obviamente u = u1 +u2, con u1 perteneciente a S1 y u2 perteneciente a S2, por definición de suma de subespacios.

Debemos probar que αu pertenece a S1 + S2.

Si u pertenece a S = S1 + S2, entonces u = u1 + u2, como hemos señalado más arriba.

Multiplicando miembro a miembro por el escalar α, resulta:

α u = α(u1 + u2) = αu1 + αu2 (2)

Como S1 es por definición subespacio vectorial de V, entonces es cerrado para el producto por un escalar, por lo que αu1 pertenece a S1

De la misma manera, como S2 es por definición subespacio vectorial de V, entonces es cerrado para el producto por un escalar, por lo que αu2 pertenece a S2

Si los dos sumandos del segundo miembro de la ecuación indicada como (2) pertenecen respectivamente a S1 y a S2, entonces por definición de suma de subespacios, el vector αu pertenece a S = S1 + S2, con lo que queda demostrado que esta operación es cerrada para el producto por un escalar y por lo tanto la suma de subespacios es también un subespacio vectorial de V.

3.- El complemento ortogonal de un subespacio vectorial es también subespacio vectorial

Definíamos complemento ortogonal de un subespacio S V (siendo V espacio vectorial) a un conjunto, que designábamos como S, formado por todos aquellos vectores u pertenecientes a V que eran perpendiculares a todos los vectores v pertenecientes a S.

Es decir, que S= {u ε V/ u . v = 0 con v ε S}

Para probar que S es un subespacio vectorial, debemos probar que se cumplan las tres condiciones siguientes:

a.- Que S no sea vacío

Como S es subespacio vectorial de V, el vector nulo 0 pertenece a S. Como u . 0 = 0, con u perteneciente a S, entonces u = 0 verifica la ecuación anterior, por lo que el complemento ortogonal no es vacío.

b.- Que sea cerrado para la suma

Se debe probar que si u1 y u2 pertenecen a S, entonces u1 + u2 también pertenecen a S.

Consideremos un vector v perteneciente a S.

Por definición de complemento ortogonal,

u1 . v = 0 (1)

y

u2 . v = 0 (2)

Sumando miembro a miembro (1) y (2):

u1 . v + u2 . v = 0 (u1 + u2) . v = 0 (u1 + u2) es perpendicular a v u1 + u2 pertenece a S S es cerrado para la suma.

c.- Que sea cerrado para el producto por un escalar

Se debe demostrar que si u pertenece a S, entonces αu pertenece a S.

Si u pertenece a S, entonces u . v = 0 con v ε S.

Multiplicando miembro a miembro la ecuación anterior por el escalar α, resulta:

α(u . v) = α0 = 0

Aplicando la propiedad asociativa mixta del producto escalar de vectores con un número real, resulta:

αu . v = 0

con lo cual resulta que αu es perpendicular a v, y por lo tanto pertenece al complemento ortogonal de S, es decir a S. Con ello queda probado que es cerrado para el producto con un escalar y por lo tanto Ses un subespacio vectorial de V.

4.- El conjunto S de todas las combinaciones lineales de A = {v1, v2,…, vn} es un subespacio vectorial de V

Este concepto es el de subespacio generado. Se dice que S es el subespacio generado por los elementos de A, y se suele designar como S = gen {v1, v2, … vn}

Debe demostrarse que el conjunto S así conformado es un subespacio vectorial de V. Para ello deben cumplirse las condiciones siguientes:

a.- Que S no sea vacío

Dentro de todas las combinaciones lineales posibles que pueden hacerse con los elementos de A, una de ellas es aquella en la que los escalares son todos nulos.

Es decir, un vector v ε S se obtiene como;

v = k1v1 + k2v2 +…+ knvn

Si los escalares k1, k2,…, kn son todos iguales a 0, entonces v = 0 y por lo tanto S no es vacío ya que contiene al menos un elemento.

b.- Que sea cerrado para la suma

Si v es un vector de S, entonces:

v = k1v1 + k2v2 +…+ knvn (1)

y si u es un vector de S, también puede escribirse:

u = t1v1 + t2v2 +…+ tnvn (2)

donde los ki y los ti son números reales.

Sumando (1) y (2) miembro a miembro, y asociando, resulta:

v + u = (k1 + t1) v1 + (k2 + t2)v2 +…+ (kn + tn)vn

Haciendo

(k1 + t1) = α1

(k2 + t2) = α2

....................

(kn + tn) = αn

donde los αi son escalares pertenecientes al cuerpo de los números reales.

v + u = α1v1 + α2v2 +…+ αnvn

con lo que se demuestra que v + u se puede obtener como combinación lineal de los vectores que integran el conjunto A, por lo que v + u ε S y S es por lo tanto cerrado para la suma.

c.- Que sea cerrado para el producto por un escalar

Si v es un vector de S, entonces:

v = k1v1 + k2v2 +…+ knvn (3)

Si λ es un escalar, multiplicando (3) miembro a miembro por éste resulta:

λ v = λ(k1v1 + k2v2 +…+ knvn) = λk1v1 + λk2v2 +…+ λknvn

Haciendo:

λk1 = t1

λk2 = t2

………

λkn = tn

resulta:

λv = t1v1 + t2v2 +…+ tnvn

lo que demuestra que λv se puede obtener como combinación lineal de los vectores vi del conjunto A, por lo que λv pertenece a S, siendo entonces S cerrado para el producto por un escalar y en consecuencia, subespacio vectorial de V.

ALGUNAS DEMOSTRACIONES DE TEMAS TEORICOS DEL PROGRAMA DE ALGEBRA Y GEOMETRIA ANALITICA

En esta página incluimos las demostraciones de algunos temas teóricos que en ciertas ocasiones, por razones de disponibilidad de tiempo, no pueden dictarse en los cursos, pero que están incluidos en el programa analítico de la materia y que por lo tanto es necesario conocer y saber demostrar.

Quiere señalarse que estas demostraciones están desarrolladas en la mayoría de los textos de Álgebra Lineal que se proponen en la Bibliografía del curso.

En la tipografía empleada, indicaremos los vectores con negrita.

Unidad VIII: Transformaciones lineales

1.- La transformación matricial es una transformación lineal

Sea T: V → W una transformación lineal.

Se verifica que T(x) = Ax (1)

donde A se denomina matriz asociada o matriz estándar de la transformación lineal.

La expresión (1) se denomina transformación matricial y es de extensa utilización en el Álgebra Lineal.

La aplicación precedente puede interpretarse en el sentido que si tengo un vector x perteneciente al dominio (el espacio vectorial V) y le aplico el operador A (es decir, la matriz asociada a la transformación T), obtengo la imagen de x, del mismo modo que la obtendría si a x le aplicara la expresión analítica de la transformación lineal.

Demostraremos que (1) representa una transformación lineal.

Aplicando la expresión (1) sobre un vector x ε V, resulta, tal cual está indicado,

T(x) = Ax (2)

Aplicando la expresión (1) sobre un vector y ε V, resulta:

T(y) = Ay (3)

Sumando miembro a miembro (2) y (3):

T(x) + T(y) = Ax + Ay = A (x + y) (4)

Por la ecuación (1), tal cual se expresara más arriba, cuando sobre un vector del dominio aplico el operador A, obtengo la imagen de dicho vector. En el caso de las ecuaciones indicadas con el numeral (4), el vector sobre el que aplico A es (x + y), por la que la imagen que voy a obtener será T (x + y)

En consecuencia, resulta:

T(x) + T(y) = Ax + Ay = A (x + y) = T (x + y)

con lo cual queda probado que la suma de los transformados es igual al transformado de la suma, primera de las dos condiciones que definen cuando una transformación es lineal.

Para demostrar la segunda, si a la ecuación indicada con el numeral (2) la multiplicamos miembro a miembro por el escalar α, resulta:

αT(x) = αAx (5)

Asociando en el segundo miembro (recordemos que todo vector de Rn puede considerarse como una matriz perteneciente a las matrices Rnx1) y agrupando resulta:

αT(x) = Aαx = A(αx) (6)

y considerando en la expresión (6) el concepto de operador de A enunciado precedentemente, la imagen del vector αx cuando le aplico A será T(αx), por lo que en definitiva:

αT(x) = Aαx = A(αx) = T(αx)

lo que demuestra la segunda condición para que T sea lineal.

2.- El Núcleo de una transformación lineal es un subespacio vectorial del dominio

Sea T: V → W una transformación lineal.

Vamos a demostrar que el Núcleo de la transformación lineal [Nu (T)] es un subespacio vectorial del dominio V.

Recordemos que Nu (T) está formado por todos los elementos de V cuya imagen es el vector nulo (0) del codominio W.

Para probar que Nu (T) es un subespacio vectorial, debemos demostrar:

a.- Que Nu (T) no es un conjunto vacío.

b.- Que es cerrado para la suma.

c.- Que es cerrado para el producto por un escalar.

a.- Nu (T) no es vacío ya que una de las propiedades de las transformaciones lineales (se sugiere consultar los apuntes de clase o la bibliografía propuesta) es que si una aplicación T es lineal, entonces el vector nulo del dominio tiene como imagen el vector nulo del codominio.

Es decir T(0V) = 0W

En consecuencia, siempre Nu (T) tiene al menos un elemento, que es el vector nulo del dominio.

b.- Consideremos que u ε Nu (T) y que v ε Nu (T)

Debe probarse que u + v ε Nu (T)

Si u ε Nu (T), entonces T(u) = 0 (1)

Si v ε Nu (T), entonces T(v) = 0 (2)

Sumando las expresiones indicadas con los numerales (1) y (2) resulta :

T(u) + T(v) = 0 (3)

Como T es lineal, T(u) + T(v) = T (u + v) (4)

Reemplazando (4) en (3) resulta :

T(u + v) = 0 u + v ε Nu (T)

con lo que se prueba que es cerrado para la suma

c.- Consideremos que u ε Nu (T) y que α es un número real.

Debe probarse que αu ε Nu (T)

Si u ε Nu (T), entonces T(u) = 0 (5)

En consecuencia, αT(u) = α0 = 0 (6)

Pero como T es lineal αT(u) = T(αu) (7)

Reemplazando (7) en (6) queda:

T(αu) = 0 αu ε Nu (T)

con lo que se prueba que es cerrado para el producto por un escalar y en consecuencia, es un subespacio vectorial de V

3.- La Imagen de una transformación lineal es un subespacio vectorial del codominio

Sea T: V → W una transformación lineal.

Vamos a demostrar que la Imagen de la transformación lineal [Im (T)] es un subespacio vectorial del codominio W.

Recordemos que la Im (T) es el conjunto formado por todos los elementos del codominio que tienen su correspondiente preimagen.

Para probar que Im (T) es un subespacio vectorial, debemos demostrar:

a.- Que Im (T) no es un conjunto vacío.

b.- Que es cerrado para la suma.

c.- Que es cerrado para el producto por un escalar.

a.- Im (T) no es vacío ya que una de las propiedades de las transformaciones lineales, tal cual señaláramos cuando tratamos este tema con Nu (T), es que si una aplicación T es lineal, entonces el vector nulo del dominio tiene como imagen el vector nulo del codominio.

Es decir T(0V) = 0W

En consecuencia, siempre Im (T) tiene al menos un elemento, que es el vector nulo del codominio, cuya preimagen es el vector nulo del dominio V.

b.- Consideremos que u ε Im (T) y que v ε Im (T)

Debe probarse que u + v ε Im (T)

Si u ε Im (T), entonces existe al menos un vector x de V tal que T(x) = u (1)

Si v ε Im (T), entonces existe al menos un vector y de V tal que T(y) = v (2)

Si sumamos miembro a miembro las expresiones (1) y (2), resulta:

T(x) + T(y) = u + v (3)

Como T es lineal, T(x) + T(y) = T(x + y), por lo tanto, reemplazando esta expresión en (3), resulta:

T(x + y) = u + v

lo que significa que u + v tiene como preimagen en V a los vectores x + y, por lo tanto, u + v ε Im (t)

c.- Consideremos que u ε Im (T) y que α es un número real.

Debe probarse que αu ε Im (T)

Si u ε Im (T), entonces existe al menos un vector x en V tal que T(x) = u (4)

Multiplicando la expresión (4) miembro a miembro por el escalar α resulta:

αT(x) = αu (5)

Como T es lineal, αT(x) = T(αx) (6)

Reemplazando (6) en (5) queda:

T(αx) = αu

lo que significa que αu tiene como preimagen en V al vector αx, por lo que entonces αu ε Im (T) y en consecuencia la Imagen de una transformación lineal es un subespacio vectorial del codominio.

4.- Teorema fundamental de las transformaciones lineales

Sea T: V → W una transformación lineal.

Supongamos que conocemos una base B del dominio, tal que B = {v1, v2,…, vn}

Además, conocemos las imágenes de los vectores de esa base, es decir, T(v1), T(v2) … T(vn) son también datos del problema.

Bajo esas hipótesis, es posible conocer la imagen de cualquier vector v ε V y dicha imagen es única. Por tal motivo, también se conoce a este teorema como el de unicidad de las transformaciones lineales (siempre y cuando sean conocidos los elementos más arriba indicados)

En efecto; por ser B base del espacio vectorial V, cualquier vector del dominio puede obtenerse como combinación lineal de los vectores de la base, y dicha combinación lineal es única (se sugiere sobre este punto consultar los apuntes de clase o la bibliografía propuesta)

Es decir:

v = k1v1 + k2v2 + … + knvn (1)

donde v es un vector cualquiera del dominio y k1, k2,…, kn son escalares (dichos escalares son las coordenadas del vector v en la base B; tal cual se ha expresado, como los vectores de la base son linealmente independientes, esos escalares son únicos. En otras palabras, el sistema de ecuaciones lineales que resulta de resolver la ecuación vectorial (1) es un sistema compatible determinado)

Si los vectores que se encuentran en ambos miembros de la ecuación (1) son iguales, tal como allí se indica, entonces sus imágenes son también iguales. Por lo tanto:

T(v) = T(k1v1 + k2v2 + … + knvn) = T(k1v1) + T(k2v2) + … + T(knvn) = k1T(v1) + k2T(v2) + … + knT(vn) (2)

por ser T lineal.

Como T(v1), T(v2) … T(vn) son conocidos, y los escalares k1, k2, ..., kn se obtienen resolviendo la ecuación vectorial (1), a través de un sistema de ecuaciones lineales, de la lectura de la ecuación (2) se concluye que es posible obtener la imagen T(v) de cualquier vector v del dominio, siendo esta imagen única, ya que lo son los escalares, lo que demuestra el teorema.

5.- Cálculo de la matriz asociada a una transformación lineal en bases cualesquiera del dominio y del codominio

Sea T: V → W una transformación lineal.

Sea B = {v1, v2,…, vn} una base del dominio y B' = {u1, u2,…, um} una base del codominio.

Obsérvese que las dimensiones del dominio y del codominio no tienen necesariamente que ser las mismas.

Cuando se estudió la transformación matricial, se demostró que cualquier transformación lineal puede escribirse como:

T(x) = Ax

Donde A es la matriz asociada a dicha transformación. La matriz A no es única; cambia según sean las bases que se adopten en V y en W.

Si las bases son las canónicas, la matriz A se obtiene escribiendo como columnas las imágenes de los vectores canónicos del dominio.

Por ejemplo, si T: R2 → R3 / T = resulta:

T =

T =

y por lo tanto A =

¿Cómo se calcula la matriz A si las bases no son las canónicas?

Vamos a demostrar que en ese caso,

A =

Donde cada una de las columnas de A se obtiene como el transformado de cada vector de la base B del dominio expresado en la base B' del codominio.

En efecto: consideremos que

ABB' = es la matriz asociada a la transformación lineal que me transforma un vector x expresado en la base B del dominio en su imagen expresada en la base B' del codominio.

En consecuencia: [T(x)]B' = ABB'[x]B (1)

Obtengamos la imagen de cada uno de los vectores de la base B del dominio.

Comencemos con v1.

En ese caso, la expresión (1) se escribirá:

[T(v1)]B' = ABB'[v1]B (2)

Expresemos v1 en la base B del dominio.

v1 se obtendrá como combinación lineal de los vectores de B. Es decir

v1 = k1v1 + k2v2 + … + knvn

En este caso, la resolución de esta ecuación vectorial es muy sencilla, ya que los escalares que verifican la igualdad son k1 = 1; k2 = k3 = ... = kn = 0

Es decir:

[v1]B =

y por lo tanto:

[T(v1)]B' = =

Es decir, la primer columna de la matriz ABB' no es otra cosa que la imagen del vector v1 perteneciente a la base B del dominio expresado en la base B' del codominio.

Del mismo modo, si hacemos similar razonamiento con v2, la expresión (1) se escribirá:

[T(v2)]B' = ABB'[v2]B (3)

Expresemos v2 en la base B del dominio.

v2 se obtendrá como combinación lineal de los vectores de B. Es decir

v2 = k1v1 + k2v2 + … + knvn

En este caso, la resolución de esta ecuación vectorial también es muy sencilla, ya que los escalares que verifican la igualdad son k2 = 1; k1 = k3 = ... = kn = 0

Por lo tanto:

[v2]B =

y en consecuencia:

[T(v2)]B' = =

Es decir, la segunda columna de la matriz ABB' no es otra cosa que la imagen del vector v2 perteneciente a la base B del dominio expresado en la base B' del codominio.

Extendiendo este razonamiento a todos los vectores vi de la base B del dominio, llegamos a la conclusión ya enunciada que la matriz asociada a la transformación lineal que me transforma un vector expresado en la base B del dominio en su imagen expresada en la base B' del codominio se obtiene escribiendo como columnas las imágenes de los vectores de la base B expresados en la base B'.

En el ejemplo numérico anterior, si B = {(1,1);(0,2)} y B' = {(1,1,1);(1,1,0);(1,0,0)} resulta:

T =

T =

= x + y + z

Resolviendo el sistema, =

Análogamente

= x' + y' + z'

Resolviendo el sistema:

=

Por lo tanto la matriz ABB' =

Como puede observarse, A ≠ ABB' . En general, para diferentes bases en el dominio y codominio, tendré distintas matrices asociadas a la transformación lineal.

Universidad Tecnológica Nacional

Facultad Regional Avellaneda

Apunte Teórico

Álgebra I

Página: 9 de: 9