Administración de sistemas informáticos


Ecuaciones lineales


SISTEMA DE ECUACIONES LINEALES

INTRODUCCION

Si buscamos la palabra “lineal” en un diccionario, encontraremos algo como lo siguiente: lineal, adj. Relativo a las líneas o de aspecto de línea. En matemáticas la palabra “lineal” significa algo más que eso. Sin embargo, gran parte de la teoría del álgebra lineal elemental es de hecho una generalización de las propiedades de las líneas rectas. Como repaso, damos aquí algunos de los hechos fundamentales acerca de las citadas rectas:

  • La pendiente m de una recta que pasa por los puntos (x1, y1) y (x2, y2) esta dada por (si x2 " x1).

  • m = y2 - y1 =  y

    x2 - x 1  x

    2. Si X2 - X1 = 0 y y2 " y1 entonces la recta es vertical y se

    dice que la pendiente no esta definida.

  • Cualquiera recta (excepto una con pendiente indefinida), se pude describir expresando su ecuación en la forma simplificada y = mx + b, donde m es la pendiente de la recta y b es la ordenada al origen (el valor de y en el punto donde la recta cruza al eje y).

  • Dos rectas son paralelas si y solo si tienen la misma pendiente.

  • Si la ecuación de una recta es ax + by = c (b "0) entonces, como se ve fácilmente, m = - a/b

  • Si m1 es la pendiente de la recta L1, m2 la del L2, m1 " 0 y L1, L2 son perpendiculares, entonces m2 = - 1m1.

  • Las rectas paralelas al eje x tienen pendiente cero.

  • Las rectas paralelas al eje y tienen pendiente indefinida.

  • DOS ECUACIONES LINEALES EN DOS INCOGNITAS

    Consideramos el siguiente sistema de dos ecuaciones lineales en dos incógnitas x1 y x2:

    a11x1 + a12x2 = b1

    a21x1 + a22x2 = b2

    donde a11, a12, a22, b1 y b2 son números dados. Cada una de estas ecuaciones es la ecuación de una línea recta (en el plano x1 x2 en vez del plano xy). La pendiente de la primera recta es -a11/a12 y la pendiente de la segunda es -a21/a22 (si a12 " 0 y a22 " 0). Una solución del sistema (1) es un par de números, denotados (x1, x2), que satisface (1). Las preguntas que surgen naturalmente son: ¿cuándo (1) tiene soluciones? y, si la tiene, ¿cuántas son? Responderemos a estas preguntas después de ver algunos ejemplos. En estos ejemplos usaremos dos propiedades importantes del álgebra elemental:

    Propiedad A. Si a = b y c = d entonces a + c = b + d

    Propiedad B. Si a = b y c es cualquier número real,

    entonces ca = cb.

    La propiedad A dice que si sumamos dos ecuaciones obtenemos una tercera ecuación valida. La B dice que si multiplicamos ambos lados de una ecuación por una constante obtenemos una segunda ecuación valida.

    VECTORES

    El estudio de los vectores y matrices es parte medular del álgebra lineal. Es el estudio de vectores comenzó esencialmente con el trabajo del gran matemático irlandés William Rowan Hamilton (1805-1865). Su deseo de encontrar un modo de representar ciertos objetos en el plano y en el espacio, lo llevó al descubrimiento de lo que llamó cuaterniones. Este concepto lo condujó al de lo que actualmente se denomina vectores. Durante la vida Hamilton, y en lo que restó del siglo diecinueve, existió un considerable debate sobre la utilidad de los cuaterniones o cuaternios y de los vectores. A fin de siglo, el gran físico británico Lord Kelvin, escribió acerca de los cuaternios. “aun cuando son notablemente ingeniosos, han demostrado ser una mala fortuna para todos aquellos que de alguna manera los han estudiado (así como) los vectores… nunca han sido de la más remota utilidad a criatura alguna”.

    Sin embargo Kelvin estaba equivocado. Actualmente, casi todas las áreas de la física clásica y moderna son representadas por medio del lenguaje de los vectores. También se usan cada vez más frecuentemente en las ciencias biológicas y sociales.

    En la sección 1.2. describimos la solución a un sistema de dos ecuaciones en dos incógnitas como un par de números (x1, x2). En el ejemplo 1.6 expresaremos la solución de un sistema de tres ecuaciones en tres incógnitas como la terna de números (4, -2, 3). Ambos, (x1, x2) y (4, -2, 3) son vectores.

    Vector renglón de n componentes. Definimos un vector renglón de n componentes (o n-dimensional) como un conjunto ordenado de n números escrito como

    (x1, x2, …, xn) (1)

    Vector columna de n componentes. Un vector columna de n componentes (o n-dimensional) es un conjunto ordenado de n números escrito como

    X1

    X2

    .

    .

    .

    Xn (2)

    En (1) o (2), x1 se llama la primera componente del vector, x2 es la segunda componente, y así sucesivamente. En general, xk es la k-ésima componente del vector.

    Por simplicidad, frecuentemente nos referimos a un vector renglón n-dimensinal como un vector renglón o un n-vector. De igual manera, usamos el término vector columna (o n-vector) para denotar a un vector columna n-dimensional. Cualquier vector con todas sus componentes iguales a cero se llama vector cero.

    ESPACIOS VECOTORIALES

    INTRODUCCIÓN

    Según se vio en el capitulo anterior, los conjuntos R2 (vectores en el plano) y R3 (vectores en el espacio) tienen propiedades interesantes. Así, si sumamos dos vectores en R2 obtenemos otro vector en R2. Sometidos a la suma, los vectores en R2 son conmutativos y satisfacen la ley asociativa. Si X " R2, entonces x + 0 = x y x + (- x) = 0. Además, podemos multiplicar los vectores en R2 por escalares y establecer varias leyes distributivas. Las mismas propiedades también valen en R3.

    A los conjuntos como R2 y R3 se los llama espacios vectoriales. Intuitivamente, podemos decir que un espacio vectorial es un conjunto de objetos que cumplen con las reglas descritas en el párrafo anterior.

    En este capítulo pasaremos de un mundo concreto, en donde resolvíamos ecuaciones y tratábamos con vectores fácilmente visualizables, a un mundo abstracto de espacios vectoriales arbitrarios. Esto es muy ventajoso, ya que, si establecemos una cierta propiedad sobre espacios vectoriales en general, podemos aplicar dicha propiedad a todo espacio vectorial. De otra forma, tendríamos que demostrar dicha propiedad una y otra vez para cada nuevo espacio vectorial que estuviéramos tratando (y de hecho, hay una cantidad innumerable de ellos). Además, como se verá más adelante, los teoremas abstractos que demostraremos no son más difíciles que los que ya hemos visto en este trabajo.

    DEFINICIÓN Y PROPIEDADES BÁSICAS

    Espacio vectorial real. Un espacio vectorial real V es un conjunto de objetos llamados vectores, junto con dos operaciones, llamadas suma y multiplicación por un escalar que satisfacen los diez axiomas que se enumeran a continuación.

    Notación. Si x y y están en V y si  es numero real, entonces escribiremos x + y para la suma de x y y y  x para el producto escalar de  y x.

    Antes de enumerar las propiedades en un espacio vectorial, hagamos un par de aclaraciones. Primero, si bien es cierto que es muy útil pensar en R2 o en R3 cuando tratamos con algún espacio vectorial, es frecuente encontrarse con espacios vectoriales cuya forma es muy diferente de la de estos espacios tan familiares. Segundo, la definición 1 se refiere a un espacio vectorial real. La palabra “real” significa que los escalares que usamos son reales. Es muy fácil definir un espacio vectorial complejo usando números complejos en lugar de números reales. En este libro se trata básicamente con espacios vectoriales reales, pero no es muy difícil hacer generalizaciones a otros conjuntos de escalares.

    Axiomas de un espacio vectorial

    1. Si x " V y y " V, entonces x + y " V (es decir, V es

    cerrado para la suma).

  • Para todos x, y, z en V, (x + y) + z = x + (y + z) (ley asociativa de la suma).

  • Existe un vector 0 " V tal que para todos X " V, x + 0 = 0 +

  • x = x (0 se conoce como neutro aditivo).

  • Si X " V, existe un vector -x en V tal que x + (-x) = 0 (-x se conoce como inverso aditivo de x).

  • Si x y y están en V, entonces x + y = y + x (ley conmutativa de la suma de vectores.

  • Si X " V, y  es un escalar, entonces x " V (se dice que V es cerrado para la multiplicación escalar).

  • Si x y y están en V y si  es un escalar, entonces (x + y) = x + y (primera ley distributiva).

  • Si x " V y si  y  son escalares, entonces ( +  ) x = x + x (segunda ley distributiva).

  • Si x " V y si  y  son escalares, entonces (x) = x (ley asociativa de la multiplicación por escalar).

  • Para todo vector x V, 1x = x (al escalar 1 se le conoce como neutro multiplicativo).

  • Teorema 1

    Sea V un espacio vectorial. Entonces

  • 0 = 0 para todo número real .

  • 0 . x = 0 para todo x " V.

  • Si x = 0, entonces = 0 o bien x = 0 (o ambos).

  • (-1) x = -x para todos x " V.

  • SUBESPACIOS

    En el ejemplo 4.2.1. vimos que R2 = { (x,y): x R y y R} es un espacio vectorial. En el ejemplo 4.2.4. vimos que V = {(x,y): y = mx} es también un espacio vectorial. Además, es claro que V " R2. Esto es, R2 tiene un subconjunto que es también un espacio vectorial. De hecho, todos los espacios vectoriales tienen subconjuntos que son a su vez espacios vectoriales. En esta sección estudiaremos estos conjuntos tan importantes.

    Subespacio. Sea H un subconjunto de un espacio vectorial V y supongamos que H es en sí un espacio vectorial con las operaciones de suma y multiplicación escalar definidas sobre V. Se dice entonces que H es un subespacio de V.

    En este capitulo veremos muchos ejemplos de subespacios. Antes de ello veremos un resultado mediante el cual resulta relativamente sencillo determinar si un subconjunto de V es de hecho un subespacio de V.

    Teorema 1: Un subconjunto no vacio H de un espacio vectorial V es un subespacio de V si las dos reglas de cerradura valen:

    Reglas para verificar si un subconjunto es un subespacio:

  • Si x " H y y " H, entonces x + y " H.

  • Si x " H, entonces x " H para todo escalar .

  • Demostración: Para demostrar que H es un espacio vectorial, debemos verificar que los axiomas (i) a (x) cumplen con las operaciones de la suma vectorial y multiplicación escalar definidas en V. Las dos operaciones de cerradura (axiomas i y vi) se cumplen por hipotesis. Puesto que los vectores en H tambien estan en V, las leyes asociativa, conmutativa, distributiva y la del neutro multiplicativo (axiomas ii, v, vii, viii, ix y x) se satisfacen.

    Este teorema nos dice que para probar que H es un subespacio de V, nos basta con verificar que:

    x + y y x están en H, siempre que x y y estén en H y  sea un escalar.

    La demostración anterior contiene un resultado importante que debe mencionarse explícitamente:

    Todo subespacio de un espacio vectorial V contiene al 0.

    Este resultado nos permitirá ver fácilmente si un subespacio particular V no es un espacio vectorial. Esto es, si un subconjunto no contiene al 0, entonces no es un subespacio.

    Subespacio propio. Los primeros dos ejemplos nos muestran que todo espacio vectorial V contiene dos espacios vectoriales, {0} y V (a menos que V = {0}). Desde luego, es mucho más interesante encontrar otros subespacios. Los subespacios que no son ni {0} ni V se conocen como subespacios propios.

    INDEPENDENCIA LINEAL

    En el estudio de álgebra lineal, una de las ideas centrales es la independencia o dependencia lineal de vectores. En esta sección definiremos lo que entendemos por independencia lineal y se mostrara el modo en que se relaciona con la teoría de sistemas homogéneos y con los determinantes.

    ¿Existe una relación especial entre los vectores v1 = ½ y v2 = 2/4? Desde luego, vemos que v2 = 2v1, o escribiendo esto de otro modo, que

    2v1 - v2 = 0 (1)

    ¿Qué propiedad especial comparten los vectores v1 =

    Esta pregunta es más fácil de contestar a simple vista. Es fácil verificar que v3 = 3v1 +2v2, o escribiendo de otra manera

    3v1 + 2v2 - v3 = 0 (2)

    se ve pues que los dos vectores en la Ecuación (1) y los tres vectores en la Ecuación (2), mantienen una relación más cercana que un par cualquiera de vectores -2 o una terna arbitraria de vectores -3. En cada caso, decimos que los vectores son linealmente dependientes. En general, se tiene la siguiente definición importantes.

    Definición 1. Dependencia e independencia lineales. Sean V1, V2, …, Vn n vectores en un espacio vectorial V. Entonces se dice que los vectores son linealmente dependientes si existen n escalares c1, c2, …, cn no todos cero, tales que

    c1v1 + c2v2 + … + cn vn = 0 (3)

    Si los vectores no son linealmente dependientes, entonces se dice que son linealmente independientes.

    Expresado de otro modo, v1, v2, …, vn son linealmente independientes si la ecuación c1v1 + c2v2 + … + cnvn = 0 solo se satisface si c1 = c2 = … = cn = 0.

    Teorema 2

    Un conjunto de n vectores en Rm es siempre linealmente dependiente si n > m.

    Demostración. Sean v1, v2, …, vn n vectores Rm y tratemos de evaluar constantes c1, c2, …, cn, no todas nulas, tales que

    c1v1 + c2v2 + …. + cnvn = 0

    teorema 3

    Sean v1, v2,…, vn, n vectores en Rn, y sean A una matriz de n x n cuyas columnas son v1, v2,…, vn. Entonces v1, v2, …, vn son linealmente independientes si y sólo si la única solución al sistema homogéneo Ax = 0 es la solución trivial x = 0.

    COMBINACION LINEAL Y GENERACION DE ESPACIO

    Combinación lineal. Sean v1, v2, …, vn entonces en un espacio vectorial V. Entonces, toda expresión de la forma

    a1v1 + a2v2 + … + anvn (1)

    en donde a1, a2,…, an son escalares, se llama combinación lineal de v1, v2,…, vn.

    Generación de un espacio vectorial. Los vectores v1, v2, …, vn en un espacio vectorial V se dice que generan V, si todo vector en V puede expresarse como combinación lineal de ellos. Esto es, para todo v " V, existen escalares a1, a2, …, an tales que

    v = a1v1 + a2v2 + …+ anvn

    espacio generado por un conjunto de vectores. Sean v1, v2,…, vn n vectores en un espacio vectorial V. El espacio generado por {v1, v2,…, vn} es el conjunto de las combinaciones lineales de v1, v2,…, vn. Esto es,

    gen {v1,v2,…, vn} = {v: v = a1v1 + a2v2 + …+ anvn}

    donde a1, a2,…, an son escalares.

    El gen {v1,v2,…,vn} es un subespacio de V.

    Teorema. Sean los n + 1 vectores v1, v2,…, vn, vn+1, de un espacio vectorial V. Si v1, v2,…, vn generan V, entonces v1, v2,.., vn, vn+1 también generan V. Esto es, la adición de uno (o más) vectores a un conjunto generador resulta en otro conjunto generador.

    BASE Y DIMENSION

    Hemos visto que en R2 es conveniente escribir los vectores en

    1 0

    términos de los vectores i = 0 y j = 1. En R3 se expresan los

    1 0 0

    vectores en función de 0 1 0. Ahora generalizaremos esta idea.

    0 0 1

    Base. Un conjunto de vectores {v1, v2,…,vn} forma una base para V si

  • {v1, v2,…, vn} es linealmente independiente.

  • {v1, v2,…, vn} genera V.

  • Hemos visto ya algunos ejemplos de bases. Por ejemplo se vio que cualquier conjunto de n vectores linealmente independientes en Rn, genera Rn. Así pues,

    Todo conjunto de n vectores linealmente independientes en Rn es una base en Rn

    Teorema 1. Si {v1, v2,…, vn} es una base de V y si v " V, entonces existe un conjunto único de escalares c1, c2,…,cn tales que v = c1v1 + c2v2 + … + cnvn.

    Demostración. Al menos existe un conjunto tal de escalares, puesto que {v1, v2,…, vn} genera a V. Supongamos que v puede ser expresado de dos modos como combinación lineal de los vectores de base. Esto es, supóngase que

    v = c1v1 + c2v2 +… + cnvn = d1v1 + d2v2 +…+ dnvn

    teorema 2. Si {u1, u2,…, um} y {v1, v2,…,vn} son bases del espacio vectorial V, entonces m = n; esto es, cualesquiera dos bases en un espacio vectorial V poseen el mismo número de vectores.

    Demostración. Sean S1 = {u1, …, um} y S2 = {v1,…,vn} dos bases de V. Debemos demostrar que m = n. Se realizará lo anterior probando que si m > n, entonces S1 es un conjunto linealmente dependiente, lo cual contradice la hipótesis de que S1 es una base. Esto prueba que m < n. La misma demostración hará ver que n < m, y esto corrobora el teorema. Así pues, basta demostrar que si m > n entonces S1 es linealmente dependiente. Como S2 es una base, podemos escribir cada u1, como combinación lineal de los términos v.

    Dimensión. Si el espacio vectorial V posee una base finita, la dimensión de V es el número de vectores en la base, y V se llama espacio vectorial de dimensión finita. De otra manera, V se denomina espacio vectorial de dimensión infinita. Si V = {0}, entonces V se dice que es de dimensión cero.

    RANGO, NULIDAD, ESPACIO DE RENGLONES Y ESPACIO DE COLUMNAS DE UNA MATRIZ

    En la sección 4.4. se presentó la noción de independencia lineal. Demostramos que si A es una matriz en n x n, entonces los renglones y las columnas de A forman conjuntos de vectores linealmente independientes si y solo si det A " 0. Sin embargo, si det A = 0, o si A no es cuadrada, entonces estos resultados no dicen nada acerca del número de renglones o columnas linealmente independientes de A. en esta sección subsanaremos esta omisión. También se demostrará como obtener una base para el espacio generado por un conjunto de vectores usando reducción por filas o renglones.

    NA = {x " Rn: Ax = 0}

    Como se vio en el ejemplo anterior NA es un subespacio de Rn.

    Nucleo (o kernel) y nulidad de una matriz. NA se llama núcleo (o kernel) de A, y al número v(A) = dim NA se le denomina nulidad de A. Si NA contiene sólo al vector cero, entonces v(A) = 0. (NA se representa también por ker A, o bien, por núcl A.)

    Teorema. Sea A una matriz de n x n. Entonces A es invertible si y sólo si v(A) = 0.

    Por el teorema resumen (Teorema 4.4.6., partes (i) y (ii), A es invertible si y sólo si el sistema homogéneo Ax = 0 posee solamente la solución trivial x = 0. De la ecuación (1), esto significa que A es invertible si y solo si NA = {0}. Asi pues, A es invertible si y solo si v(A) = dim NA = 0.

    Teorema 2. Sea A una matriz de m x n, entonces Imag A es un subespacio de Rm.

    Supongamos que y1 y y2 están en Imag A. entonces existen vectores x1, x2 en Rn tales que y1 = Ax1, y2 = Ax2. Por lo tanto.

    Teorema 3. Si A es una matriz de m x n, entonces

  • CA = Imag A

  • dim RA = dim CA= dim Imag A = (A)

  • La demostración de este teorema no es difícil, pero si laboriosa. La diferiremos hasta el final de la sección.

    RANGO Y DETERMINANTES DE SUBMATRICES (OPCIONAL)

    En esta sección mostraremos cómo puede ser evaluado el rango de una matriz mediante el calculo de ciertos determinantes.

    Submatriz cuadrada de orden k. Se A una matriz de m x n. La matriz obtenida como la intersección de K renglones y k columnas de A se le llama submatriz cuadrada de orden de k de A.

    Teorema 1. Sea A una matriz de m x n. Entonces.

    (A) > k

    si y sólo si A posee una subdeterminante no nulo de orden k.

    Teorema 2. Sea A una matriz de m x n. Entonces

    (A) = r > 0 si y sólo si A posee al menos un subdeterminante no nulo de orden r y cada subdeterminante de orden r + 1 es cero.

    CAMBIO DE BASE

    En R2 se formuló cualquier vector en términos de la base

    1 0

    estándar (o canónica) i = 0, j = 1. En Rn ya definimos la base estándar {e1, e2,…, en}, y en Pn, la base estándar con {1, x, x2,…,xn}. Estas bases son las más usadas puesto que es muy fácil trabajar con ellas. Sin embargo, en ciertas ocasiones son convenientes otras bases. Obviamente, existen muchas bases que podemos escoger puesto que en un espacio vectorial de dimensión n, cualquier conjunto n vectores linealmente independientes forman una base. En esta sección veremos como cambiar de una base a otra calculando cierta matriz.

    Matriz de transición. La matriz A de n x n, cuyas columnas están dadas por (8), recibe el nombre de matriz de transición de la base B1 a la base B2.

    Teorema 1. Sean B1 y B2 bases para un espacio vectorial V. Sea A la matriz de transición de B1 a B2. Entonces, para todo x " V.

    (x)B2 = A (x)B1

    teorema 2. Si A es la matriz de transición de B1 a B2, entonces

    A-1 es la matriz de transición de B2 a B1.

    TRANSFORMACIONES LINEALES

    En este capitulo vamos a discutir una clase especial de funciones, llamadas transformaciones lineales, las cuales aparecen con gran frecuencia en el álgebra lineal y otras ramas de las matemáticas. También son importantes en una amplia variedad de aplicaciones. Antes de definir lo que es una transformación lineal, estudiemos dos ejemplos sencillos para ver lo que puede suceder.

    Antes de definir una transformación lineal, conviene expresar algo acerca de las funciones. En la sección anterior 1.6 escribimos un sistema de ecuaciones como

    Ax = b

    En donde A es una matriz de m x n, x " Rn y b " Rm. Se pidió encontrar x cuando A y b eran conocidos. Sin embargo, es posible considerar a la ecuación de otra manera: supóngase que A es dada. Entonces la ecuación Ax = b “dice”: Si se da una x en RN, se proporcionara una b en Rm. Esto es, A representa una función con dominio en Rn y un ámbito o contradominio en Rm.

    Transformación lineal. Sean V y W espacios vectoriales. Una transformación lineal T de V en W es una función que asigna a cada vector v " V un único vector Tv " W y que satisface para cada u y v en V y cada escalar ,

    T(u + v) = Tu + Tv

    T (v) = Tv

    PROPIEDADES DE LAS TRANSFORMACIONES LINEALES. IMAGEN Y KERNEL (O NUCLEO)

    En esta sección desarrollaremos algunas de las propiedades básicas de las transformaciones lineales.

    Teorema. Sea T:V - W una transformación lineal. Entonces para todos los vectores u, v, v1, v2,…, vn en V y todos los escalares 1, 2, …,n:

  • T(0) = 0

  • T(u-v) = Tu - Tv

  • T(1v1+ 2v2+…+ nvn) = 1Tv1 + 2Tv2 + … +nTvn

  • Nota: en la parte (i) el 0 de la izquierda, es el vector cero en V mientras que el 0 del lado derecho, es el vector cero en W.

    Demostración:

  • T(0) = T(0+0) = T(0) + T(0). Entonces 0 = T(0) - T(0) = T(0) + T(0) - T(0) = T(0)

  • T(u-v) = T [u + (-1)v] = Tu + T[(-1)v] = Tu + (-1) Tv = Tu - Tv.

  • Demostraremos esta parte por inducción (apéndice1). Para n = 2, obtenemos T (1v1 + 2V2) = T (1v1) + T (2v2) = 1Tv1 + 2Tv2. En consecuencia, tenemos que, la ecuación es valida para n = 2. Supongamos que es valida para n = k y demostremos que vale para n = k + 1: T(1v1 + 2V2 + …+ kvk + k+1 vk+1) = T(1v1 + 2V2 + …+kvk) + T(k + vk+1 ) y usando la ecuación de la parte (iii) para n = k, esto es igual a (1Tv1 + 2Tv2 + k Tvk) + k+1 Tvk+1, que es lo que queríamos demostrar. Con esto queda completa la demostración.

  • LA REPRESENTACION MATRICIAL DE UNA TRANSFORMACION LINEAL

    Si A es una matriz de m x n y T: Rn Rm esta definida por Tx = Ax entonces, como vimos en el ejemplo 5.1.7., T es una transformación lineal. Ahora veremos que para toda transformación lineal de Rn en Rm, existe una matriz A de m x n tal que Tx = Ax para toda x " Rn.

    Sea T: Rn Rm una transformación lineal. Entonces existe una única matriz AT de m x n tal que

    Tx = AT x para toda x " Rn

    INSTITUTO TECNOLOGICO DE CULIACAN

    TRABAJO DE MATEMATICAS III




    Descargar
    Enviado por:Chico 666
    Idioma: castellano
    País: Chile

    Te va a interesar