Matrices

Ciencias matemáticas. Operaciones. Propiedades. Rango. Filas. Columnas. Teoremas. Permutación. Determinantes. Signatura. Ecuaciones

  • Enviado por: Amaia
  • Idioma: castellano
  • País: España España
  • 11 páginas
publicidad
publicidad

Tema 3: Matrices

Definiciones y primeras propiedades.

Sea f: V!W una aplicación lineal entre dos k-espacios vectoriales {a1,…,an} una base de V y {b1,…,bm} una base de W.

Si conocemos f(aj) para cada j = 1,…,n, ya conocemos la aplicación f perfectamente.

f(a1) = t11b1 + t21b2 + … + tm1bm

f(a2) = t12b1 + t22b2 + … + tm2bm

f(aj) = t1jb1 + t2jb2 + … + tmjbm

f(am) = t1mb1 + t2mb2 + … + tmmbm

Un vector cualquiera de V será a = x1a1 + … + xnan = "nj=1 xjaj.

Su imagen por f será: f(a) = f("nj=1 xjaj) = "nj=1 xjf(aj) = "nj=1 xj("mi=1 tijbi) = "mi=1 ("nj=1 xjbij)bi = ("nj=1 xjt1j)b1 + …+ ("nj=1 xjtmj)bm

Escribiendo f(a) = y1b1 + y2b2 + … + ymbm podemos poner que en general yi = "nj=1 xjtij.

Se llama matriz mxn sobre el cuerpo k a una familia de m·n elementos de k dispuestos en un cuadro de m filas y n columnas.

f(a1) f(a2) …. f(an)

t11 t12 …. t1n

A = t21 t22 …. t2n Matriz A

…. …. …. ….

tm1 tm2 … tmn

La matriz A se llama matriz coordenada de f en las bases {a1,..,an} y {b1,…,bm}. La columna j-ésima de A viene dada por los coeficientes (las coordenadas de f(aj) en la base {b1,…,bm}.

a1

Si aV, a = x1a1 + x2a2 + … + xnan = [x1 … xn] ..

an

a1

f(a) = y1b1 + … + ymbm = [y1 … yn] .. con yi = "mj=1 tijxj =

an

x1

= ti1x1 + ti2x2 + … + tinxn = [ti1 … tin] ..

xn

y1 x1

y2 = A ..

.. ..

ym xn

  • Matriz cuadrada: m = n

  • Elemento (i,j): el que está en la fila i y columna j ! tij

  • Fila i: [ti1 ti2 … tin]

  • Columna j: t1j

...

tmj

  • Matriz fila: cuando m = 1

  • Matriz columna: cuando n = 1

  • Matriz triangular superior: tij = 0 siempre que i>j

  • Matriz triangular inferior: tij = 0 siempre que i<j

  • Matriz diagonal: tij = 0 Vi"j

  • Matriz escalar: una matriz diagonal en la que t11 = t22 = … = tnn

  • Matriz identidad: tii = 1 Vi tij = 0 si i"j. Se llama In.

Se llama submatriz de la matriz A a cualquier matriz que se obtenga tras eliminar en A alguna fila y alguna columna (completas).

Se llama bloque de A a cualquier submatriz de A en la que las filas que quedan eran consecutivas y las columnas que quedan eran consecutivas.

Se llama bloque fila de A a una submatriz de A que consta de una fila de A (completa).

Análogamente se define bloque columna.

Una matriz cuadrada, nxn, A = [tij] se dice que es simétrica si tij = tji Vi,j.

Una matriz cuadrada se dice que es hermitiana si tij = tij (k"!).

Si k"! !hermitiana " simétrica.

Se llama matriz diagonal de cajas a una matriz que sea de la forma

* *

* 0

*

* *

0 * *

*

Si un vector (x1,…,xn)Kn lo queremos usar como matriz lo pondremos como matriz columna denotándolo con una letra mayúscula, X.

Si queremos usarlo como matriz fila pondremos X' = (x1 … xn).

Se llama traspuesta de la matriz A = [tij] a la matriz nxm cuyas filas son las columnas de A, se denota A'.

El conjunto de todas las matrices de tamaño mxn sobre el cuerpo K lo denotamos Mat(mxn,K). Si m = n, ponemos Mat(n,K).

V, W K-espacios vectoriales. Elegimos {a1,…,an} una base de V y {b1,…,bm} una base de W.

Sabemos que para cada aplicación lineal f: V!W tenemos una matriz (coordenada de f en las base {aj} y {bi}), A = [tij] dada por f(aj) = t1jb1 + … + tmjbm (f(aj) nos da la columna j-ésima de A).

Establecemos una aplicación ð: Hom(V,W)!Mat(mxn,k)

f ! A

  • ð es inyectiva: si f " g sus respectivas matrices coordenadas no pueden ser iguales (porque en ese caso f(aj) = g(aj) Vj y así f = g).

  • ð es suprayectiva: dada una matriz cualquiera A = [tij]Mat(mxn,K), podemos construir una aplicación lineal cuya matriz coordenada es A:

f: V!W haciendo f(aj) = t1jb1 + … + tmjbm Vj = 1,…,n

Definimos la suma de matrices para que a funcione bien respecto a sumas:

A + B = ð(ð-1(A) + ð-1(B))

El elemento (i,j) de A+B es el elemento (i,j) de A más el (i,j) de B

A = [tij] B = [sij] A+B = [tij+sij]

Ya que el elemento (i,j) de A+B es el coeficiente de bi en (f+g)(aj) = f(aj)+g(aj).

Análogamente, definimos el producto de matrices por escalares para que a funcione bien respecto a la operación externa ·k.

De esta forma tA tiene por elemento (i,j) t·tij ViVj.

ð: (Hom(V,W),+,·k) ! (Mat(mxn,K),+,·) es isomorfismo de k-espacios vectoriales.

Definimos un producto de matrices Bpxm·Amxn cuyo elemento (k,j) es:

fila k de B x columna j de A

Así, la matriz coordenada de g%f es B·A.

El elemento (k,j) de BA es sk1t1j + sk2t2j + … + skmtmj = "mi=1 skitij

Propiedades: (del producto de matrices)

  • Es asociativo: C(BA) = (CB)A porque la composición de aplicaciones es asociativa.

  • Distributivo a la suma de matrices: B(A+C) = BA + BC

  • Asociatividad” con el producto por escalares: t(BA) = (tB)A = B(tA)

  • Amxn m filas ! cada fila “es” un vector de Km.

n columnas ! cada columna “es” un vector de Kn.

  • Cada fila de BA es una combinación lineal de las filas de A.

  • Cada columna de BA es una combinación lineal de las columnas de B.

  • Columna j de BA = (BA)j = (gf)(aj) = g(f(aj))

Una matriz cuadrada, AMat(n,k) se dice que es regular o inversible si existe otra matriz BMat(n,k) tal que BA= In = AB. En este caso se escribe B = A-1 y se dice que A-1 es la inversa de A. La inversa, de existir, es única.

Proposición:

  • Si AMat(mxn,k) y BMat(pxm,k), entonces (BA)' = A'B'

  • Si AMat(n,k) y A es regular, entonces también A' es regular y además

  • (A')-1 = (A-1)'.

    (Mat(n,k),+,·k,·) es k-álgebra asociativa con identidad.

    (End(V),+,·k,%) es k-álgebra asociativa con identidad.

    Es automorfismo de V = GL(V)

    Es isomorfismo de V en V

    GL(n,k) = {matrices regulares} forman un grupo con la operación producto.

    Si A,BMat(n,k) son regulares, entonces BA también es regular y (BA)-1 = A-1B-1.

    Cada columna de BA es combinación lineal de las columnas de B, luego, con la propiedad anterior:

    Cada fila de BA = cada columna de (BA)' = A'B' es combinación lineal de filas de A.

    Cambio de base en un espacio vectorial:

    IdV: V ! V idV(aj)= aj =0·a1+0·a2+…+1·aj+0·aj +…+0·an

    {c1,…,cn} P {a1,…,an} matriz coord. de idV en bases{a1,…,an}

    base nueva base antigua y {c1,…,cn}: In

    ¿Matriz coordenada en bases {a1,…,an} y {c1,…,cn}? (P) P = [ðij]

    P tendrá por columna j-ésima las coordenadas de idV(aj) en base {c1,…,cn}.

    Un vector cualquiera de V, a, se podrá escribir x1a1+…+xnan

    x1c1+…+xncn

    o lo que es lo mismo:

    x1

    [a1 … an] … = [aj]'X

    xn

    x1

    [c1 … cn] … = [cj]'X

    xn

    ðij

    luego, cj = ðija1 + ð2ja2 + … + ðnjan = [a1…an] …

    ðnj

    [c1 … cn] = [a1 … an]·P

    [cj]'·X = [aj]'PX

    = X = PX Ecuación del cambio de coordenadas en V.

    [aj]'·X

    Nota: Si la base antigua {a1,…,an} es la canónica, la columna j-ésima de P es cj.

    P es matriz coordenada de idV ( un isomorfismo), luego P es regular.

    Ahora planteo el mismo cambio de bases pero en W.

    idV: W ! W

    {b1,…,bm} {d1,…,dm}

    antigua nueva

    Q la matriz del cambio de bases (de antigua a nueva) en W.

    [bi]' = [di]'Q

    Y un vector cualquiera en W escrito en coordenadas con respecto de la base [bi]'.

    Y el mismo vector de W escrito en coordenadas con respecto de la base [di]'.

    Y = QY

    Si X son las coordenadas de un vector, a, de V en base {a1,…,an} entonces f(a) tiene coordenadas Y = AX en base {b1,…,bm} de W. a se podrá escribir

    x1

    a = x1a1+…+xnan = [a1…an] … = [aj]'X !f(a) = x1f(a1)+…+xnf(an) = x1A1+…+xnAn =

    xn

    x1

    = A … = AX

    xn

    Y = AX es la ecuación de f en bases {a1,…,an} y {b1,…,bm}.

    Ecuación de f en bases {c1,…,cn} y {d1,…,dm} será Y = BX

    Y = AX !Q-1Y = APX !Y = QAPX

    Luego B = QAP.

    Dos matrices A,BMat(mxn,k) se dice que son equivalentes, si existen matrices regulares PMat(n,k) y QMat(m,k) tales que B = QAP.

    Observación: La relación “ser equivalentes” es reflexiva, simétrica y transitiva. Luego es una relación de equivalencia.

    Acabamos de ver que si dos matrices, A y B, son matrices coordenadas de una misma aplicación lineal f, entonces son equivalentes.

    Además se tiene:

    Proposición: Si A y B son equivalentes, entonces son matrices coordenadas de una misma aplicación lineal.

    Rango de matrices.

    Dada una matriz AMat(mxn,k), cada fila es un vector de Kn y cada una de sus columnas es un vector de Km.

    Se llama rango de filas de la matriz A al rango de la familia de vectores de Kn {A1,…,An}.

    Rango filas A = rang{A1,…,An} (= dim K(A1,…,An) " Kn)

    Rango columnas A = rang{A1,…,An} (= dim K(A1,…,An) " Km)

    Observación: Si AMat(mxn,k) es matriz coordenada de una aplicación lineal f:V!W (en bases {a1,…,an} de V y {b1,…,bm} de W) entonces rango columnas A = rang f.

    Corolario: Si A y B son matrices equivalentes, entonces

    rango columnas A = rango columnas B.

    Proposición: Si rang. Columnas A = r, entonces A es equivalente a la matriz Jrmxn y existen P,Q tales que QAP = Jrmxn.

    Corolario: Si A,BMat(mxn,k) y rango columnas A = rango columnas B, entonces A y B son equivalentes.

    Corolario: rango filas A = rango columnas A (A este rango le llamaremos rango de A, y se escribe rang A).

    Consecuencias:

  • rang [0] = 0, rang In = n, rang A = rang A'

  • Si AMat(mxn,k) !rangA " min{n,m}

  • Rang BA " min{rangA,rangB}

  • Si AMat(n,k) entonces A es regular ! rangA = n.

  • Si AMat(n,k) y BMat(n,k) t.q. BA = In !AB = In (o sea, A y B son una inversa de la otra).

  • AMat(mxn,k) rang A = rang filas A = rang columnas A

    Teorema: Dado A, se tiene: rang A = máximo de los tamaños de las submatrices regulares de A (= orden del mayor menor no nulo).

    Cálculo práctico del rango de una matriz: las matrices elementales.

    Operaciones en una familia de vectores que no cambian la clausura de la familia.

    F = {a,b,…} familia de vectores K(F)

    Operación elemental de tipo 1:

    Cambiar el orden de los vectores que ocupan los lugares i y j.

    Operación elemental de tipo 2:

    Sustituir el vector i-ésimo por el resultado de sumarle t veces el j-ésimo.

    Operación elemental de tipo 3:

    Multiplicar el vector i-ésimo por un escalar s no nulo.

    Matrices elementales:

    De tipo 1:

    Pij = = In - Eii - Ejj + Eij + Eji

    De tipo 2:

    Sij(t) = = In + t·Eij

    De tipo 3:

    Mi(s) = = In + (s-1)·Eii (s"0)

    Las matrices elementales son regulares:

    Pij-1 = Pij Sij(t)-1 = Sij(-t) Mi(s)-1 = Mi(-s)

    Sea A la matriz cuyos elementos son thk Amxn = [thk]

    • PijA es la matriz que resulta de intercambiar en A las filas i y j.

    • APij es la matriz que resulta de intercambiar en A las columnas i y j.

    • Sij(t)A es la matriz que resulta de sustituir en A la fila i por el resultado de sumarle t veces la fila j.

    • ASij(t) es la matriz que resulta de sustituir en A la columna j por el resultado de sumarle t veces la columna i.

    • Mi(s)A es la matriz que resulta de multiplicar la fila i de A por s.

    • AMi(s) es la matriz que resulta de multiplicar la columna i de A por s.

    Finalmente, para hallar el rango de una matriz, se transforma la matriz A en una matriz escalonada mediante operaciones elementales.

    Teorema:

  • Dada una matriz A de tamaño mxn sobre el cuerpo K (AMat(mxn,K)). Si

  • rang A = r entonces existen matrices elementales P1,…,Pl, Q1,…,Qs tales que P1…PlAQ1…Qs = Jrmxn.

  • Cualquier matriz regular es un producto de matrices elementales.

  • Consecuencia: Cálculo práctico de la inversa de una matriz regular:

    Si A es nxn y regular, mediante operaciones elementales sólo por filas la podemos transformar en la matriz In.

    P1…PlA = In, luego P1…Pl = A-1

    Sistemas de ecuaciones lineales.

    Un sistema de ecuaciones lineales es una familia de m ecuaciones de grado 1 en las incógnitas x1,…,xn de la forma:

    t11x1 + t12x2 + … + t1nxn = b1 con los tij,bi  K

    t21x1 + t22x2 + … + t2nxn = b2 Se trata de hallar las n-tuplas (x1,..,xn) que

    …………………………….. hacen que se verifiquen las n ecuaciones

    tm1x1 + tm2x2 + … + tmnxn = bm

    Si escribimos Amxn = [tij], B = [b1 … bm]' y X = [x1 … xn]', entonces el sistema es AmxnXnx1 = Bmx1.

    Consideramos la aplicación lineal f: Kn!Km cuya matriz coordenada en bases canónicas es A. La ecuación f en bases canónicas es Y = AX.

    Por tanto, puede ocurrir:

    • Si B"Imf el sistema dado no tiene solución (se dice que es un sistema incompatible).

    • Si BImf el sistema dado tiene alguna solución (se dice que es un sistema compatible).

    Si X0 es una solución, entonces el conjunto de todas las soluciones es f!(B) = X0 + ker f.

    Supongamos que Zkerf, entonces A(X0+Z) = AX0+AZ = B+0 = B.

    Recíprocamente, si X1 es otra solución, entonces AX0 = B = AX1.

    Luego A(X1-X0) = 0, o sea (X1-X0)ker f

    X1-X0 = zker f

    X1 = X0 + z con zker f

    Ker f es el conjunto de las soluciones al sistema AX = 0.

    La matriz A se llama matriz de coeficientes del sistema.

    La matriz B se llama matriz de términos independientes.

    La matriz X se llama (matriz) columna de incógnitas.

    [A|B]mxn+1 se llama matriz ampliada del sistema.

    • Si B = (0), el sistema se dice homogéneo. En este caso el sistema siempre es compatible (puesto que X = (0) es solución).

    Un sistema puede ser:

    • Determinado: si tiene una única solución (forzosamente será ker f = 0).

    • Indeterminado: si tiene más de una solución (forzosamente será ker f " 1).

    Teorema (de Roché-Frobenius):

    Dado el sistema AX = B (siendo AMat(mxn,k), BMat(nx1,k)), se considera la matriz ampliada [A|B]. Se tiene:

    • El sistema es incompatible si y sólo si rang [A|B] > rang A.

    • El sistema es compatible si y sólo si rang [A|B] = rang A.

    En este caso se tiene:

    • Si rang A = nº incógnitas = n, el sistema es compatible determinado.

    • Si rang A < n, el sistema es compatible indeterminado. El conjunto de las soluciones es X0 + KerA, siendo X0 una solución cualquiera del sistema.

    Observación: Las soluciones de AX = B son las mismas que las de PAX = PB para cualquier matriz regular B.

    X1 es solución de AX = B ! AX1 = B ! PAX1 = PB (para cualquier P regular) ! X1 es solución de PAX = PB.

    (Pensar, en particular, en el caso en el que P es una matriz elemental).

    Resolución práctica de un sistema de ecuaciones lineales:

    Se escribe la matriz ampliada [A|B]. La transformamos mediante operaciones elementales por filas. [PA|PB] hasta conseguir que la matriz obtenida tenga la forma reducida (forma de hermite), es decir, hasta que sea escalonada:

    * *

    *

    *

    *

    0 0…….0 c

    Entonces.

    • Si c"0 !rang PA < rang[PA|PB] luego el sistema es incompatible.

    • Si c = 0 !rang PA = rang [PA|PB] y el sistema es compatible

    • Si r = n ! hay una única solución y se halla despejando xn en la última ecuación, xn-1 en la anterior, etc.

    • Si r<n !hay “muchas” soluciones. Las soluciones dependen de n-r parámetros. Esas soluciones se hallan igual que antes despejando “hacia atrás”.

    Matrices inversas generalizadas

    Dada AMat(mxn,k), se llama inversa generalizada de A a cualquier matriz GMat(nxm,k) que verifique AGA = A.

    Teorema: Sea AX = B un sistema de m ecuaciones lineales con n incógnitas. Se tiene:

    G es inversa generalizada de A si y sólo si GnxmBmx1 es solución del sistema para cualquier B que haga que AX = B es compatible.

    Formas de hallar una inversa generalizada de una matriz A:

  • Construir una aplicación lineal f: Kn!Km cuya matriz coordenada en bases canónicas sea A. Hallar una inversa generalizada de f, g. Entonces, la matriz coordenada de g: Km!Kn en bases canónicas, G, es inversa generalizada de A.

  • Dada AMat(mxn,K), mediante operaciones elementales por filas se puede transformar A en su forma reducida (o de Hermite) Jrmxn. Con r columnas y que están ordenadas (pero entre medio de ellos puede haber otras columnas). Además, la matriz es escalonada, las m-r últimas filas son todo ceros. Reordenando las columnas (haremos operaciones elementales de tipo I sobre las columnas de esa matriz) podemos conseguir una matriz:

  • Ir X = B

    0 0

    Llamemos M al producto de todas las operaciones elementales hechas por filas (MA es la forma de Hermite de A). Llamemos N al producto de todas las operaciones elementales (de tipo I) hechas por columnas.

    MAN = Bmxn

    Proposición: N·Jrmxn·M = G es inversa generalizada de A.

    Determinantes.

    Una permutación del conjunto {1, 2 …, n} es una aplicación biyectiva

    ð: {1,…,n}!{1,…,n}

    El conjunto de todas las permutaciones forma un grupo con la operación composición. Lo llamábamos grupo simétrico de grado n, Sn y tiene n! elementos.

    Dada una permutación ð, se dice que dos cifras i,j forman inversión para a si i<j y ð(i)>ð(j).

    Denotaremos I(ð) al número total de inversiones para la permutación ð.

    Llamaremos signatura de la permutación ð, al número

    (-1)I(ð) = 1 si I(ð) es par

    -1 si I(ð) es impar

    Una permutación ð cuya signatura sea 1 se dirá permutación par.

    Una permutación ð cuya signatura sea -1 se dirá permutación impar.

    Proposición: Si dos permutaciones ð y ð se diferencian sólo en 2 cifras, entonces

    sigð = -sigð

    ð ……i……….j……. ð …….i……..j…….. ð(K) = ð(K) Vk"I,j

    ……ði …….ðj……. ……ði……ðj……. ð(i) = ð(j)

    ð(j) = ð(i)

    Dada una matriz A = [thk]Mat(n,k), se llama determinante de A al número

    |A| = "ðSn(sigð)t1ð1·t2ð2·….·tnðn.

    |A| es la suma de todos los posibles productos que se pueden hacer tomando n elementos de A que estén uno en cada fila y uno en cada columna, estando cada producto multiplicado por 1 ó -1 según sea la signatura de la permutación.

    Si tenemos una matriz de tamaño nxn, su determinante tendrá n! sumandos. La definición de determinante no es útil par ahacer el cálculo del determinante.

    Observación: Si la matriz es triangular, su determinante es el producto de los elementos de la diagonal.

    Teorema: |A| = |A|'. En consecuencia de este teorema, cualquier propiedad sobre determinantes que sea válida en términos de las filas de A también lo es en términos de las columnas de A.

    Lema: |Mi(s)·A| = s·|A| = |A·Mj(s)|

    Lema: |Pij·A| = -|A| = |A·Pij|

    Corolario: |Mi(s)| = S

    |Pij| = -1

    Lema: |Sij(t)·A| = |A| = |A·Sij(t)| |Sij(t)| = 1

    Teorema: Una matriz cuadrada, A, es regular si y sólo si |A| " 0.

    Corolario: Dadas dos matrices cuadradas de tamaño nxn, A y B, se tiene |AB| = |A|·|B|.

    Corolario: Si A es regular, |A-1| = |A|-1

    Sea Anxn = [tij] |A| = "ðSn(sigð) t1ð1·….·tnðn = ti1A1i + … + tijAji + … + tinAni

    El número A se llama adjunto del elemento (i,j) de la matriz A. Queremos calcular el valor de Aji.

    Se llama menor complementario del elemento (i,j) de la matriz A al determinante de la submatriz que resulta de eliminar la fila i y la columna j en A. Se denota Dji(A).

    Teorema: Aji = (-1)i+1Dji.

    Corolario: Dada una matriz cuadrada A = [tij] se tiene:

    "nk=1 tikAkj = ti1A1j + … + tinAnj = δij|A| δij = 0 si i"j

    1 si i=j

    Al cambiar filas por columnas:

    "nk=1 tkiAjk = δij|A|

    El sumatorio del producto de los elementos de una línea por los adjuntos de una paralela es 0 (si son distintas) ó |A| si son la misma).

    Corolario (Regla de Cramer): Sea AX = B un sistema de ecuaciones que consta de n ecuaciones con n incógnitas tal que A es regular.

    Entonces la solución del sistema viene dada por

    t11 b1 tn1

    … … …

    … … … Cambiar en A la columna j por B

    tn1 bn tnn

    xj =

    |A|

    En la práctica no es útil, pero tiene interés teórico.

    Corolario: Si A es regular, entonces A-1 = (1/|A|)·[Aij].

    Proposición: Si A = B 0 (triangular por bloques), entonces |A| = |B|·|C|

    D C

    Corolario: El determinante de una matriz triangular por bloques es el producto de los determinantes de los bloques de la diagonal. Los bloques de la diagonal son matrices cuadradas.

    11

    Vídeos relacionados