F´ısicas Primer Curso ALGEBRA...

57
F ´ ısicas Primer Curso ´ ALGEBRA LINEAL Juan A. Navarro Gonz´alez 26 de noviembre de 2019

Transcript of F´ısicas Primer Curso ALGEBRA...

Fısicas

Primer Curso

ALGEBRA LINEAL

Juan A. Navarro Gonzalez

26 de noviembre de 2019

Indice

1. Preliminares 31.1. Numeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3. Matrices y Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.4. Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2. Espacios Vectoriales 112.1. Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 112.2. Teorıa de la Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.3. Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3. Aplicaciones Lineales 183.1. Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183.2. Teorema de Isomorfıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

4. Geometrıa Euclıdea 234.1. Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234.2. Espacios Vectoriales Euclıdeos . . . . . . . . . . . . . . . . . . . . . . . . . . . 244.3. Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

5. Endomorfismos 275.1. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275.2. Diagonalizacion de Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . 295.3. Operadores Autoadjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

6. El Espacio Dual 346.1. El Espacio Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346.2. Incidencia y Bidualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366.3. Aplicacion Lineal Traspuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

7. Formas Cuadraticas 407.1. Metricas Simetricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407.2. Clasificacion de Metricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427.3. Cuadricas Centrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

8. Tensores 478.1. Producto Tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

9. Tensores Alternados 509.1. Producto Exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519.2. Determinantes y Formas de Volumen . . . . . . . . . . . . . . . . . . . . . . . 53

1. Preliminares

Un conjunto X esta totalmente determinado por sus elementos, que se pueden contar, ysu cardinal |X| es el numero de elementos de X (puede ser infinito), y ∅ denota el conjuntovacıo, que no tiene ningun elemento.

Si X es un conjunto, x ∈ X significa que x es un elemento de X.Si X e Y son conjuntos, Y ⊆ X significa que Y es un subconjunto de X, que todos los

elementos de Y son elementos de X; i.e. y ∈ Y ⇒ y ∈ X. Si Z es otro subconjunto de X, launion Y ∪ Z e interseccion Y ∩ Z son los siguientes subconjuntos de X:

Y ∪ Z := x ∈ X : x ∈ Y o x ∈ ZY ∩ Z := x ∈ X : x ∈ Y y x ∈ Z

Dados dos conjuntos X,Y , no necesariamente distintos, el producto directo o cartesianoX × Y denota el conjunto de parejas ordenadas (x, y) donde x ∈ X, y ∈ Y .

Numeros naturales N = 0, 1, 2, 3, . . .Numeros enteros Z = . . . ,−3,−2,−1, 0, 1, 2, 3, . . .Numeros racionales Q = a/b : ∃a, b ∈ Z, b 6= 0Numeros reales R = numeros decimales infinitos c′0c1c2 . . .

1.1. Numeros Complejos

Definiciones: Los numeros complejos son las parejas de numeros reales z = x+yi (dondex ∈ R se llama parte real de z e y ∈ R se llama parte imaginaria) que se suman ymultiplican con las siguientes reglas (i2 = −1):

(x1 + y1i)+(x2 + y2i) := (x1 + x2) + (y1 + y2)i,

(x1 + y1i)·(x2 + y2i) := (x1x2 − y1y2) + (x1y2 + x2y1)i,

producto que es asociativo, (z1z2)z3 = z1(z2z3), conmutativo, z1z2 = z2z1, y distributivo,z1(z2 + z3) = z1z2 + z1z3. El conjunto de todos los numeros complejos se denota C.

Si x, y ∈ R, el conjugado de z = x + yi es el numero complejo z∗ = z := x − yi, demodo que un numero complejo z es real si y solo si z = z.

Si z = x+ yi no es nulo, tenemos que zz = x2 + y2 > 0, ası que su inverso existe y es

z−1 =z

z · z=

x

x2 + y2− y

x2 + y2i.

El cociente de numeros complejos se define como u/z := uz−1 = (uz)/(zz).

Propiedades de la Conjugacion: z + u = z + u, zu = zu, z/u = z/u, ¯z = z.

Definicion: Si x, y ∈ R, el modulo del numero complejo z = x+ yi es el numero real

|z| := +√z · z = +

√x2 + y2 ≥ 0 , |z|2 = z · z.

Es el valor absoluto cuando z es real, y un numero complejo z es nulo si y solo si |z| = 0.

Propiedades: |z| = |z|, |zu| = |z| · |u|, |u/z| = |u|/|z|, z + z ≤ 2|z|, |z + u| ≤ |z|+ |u|.

Demostracion: Veamos las dos ultimas, y pongamos z = x+ yi con x, y ∈ R.

z + z = x+ yi+ x− yi = 2x ≤ 2|x| = 2√x2 ≤ 2

√x2 + y2 = 2|z|.

|z + u|2 = (z + u)(z + u) = (z + u)(z + u) = |z|2 + |u|2 + zu+ zu

= |z|2 + |u|2 + zu+ zu ≤ |z|2 + |u|2 + 2|zu|= |z|2 + |u|2 + 2|z| · |u| = |z|2 + |u|2 + 2|z| · |u| = (|z|+ |u|)2 .

3

Raıces Cuadradas: Todo numero complejo z tiene raız cuadrada compleja, pues(√ρρ+ z

|ρ+ z|

)2

= ρ(ρ+ z)2

(ρ+ z)(ρ+ z)=ρ2 + ρz

ρ+ z=zz + ρz

ρ+ z= z , ρ := |z|.

Definicion: Si t ∈ R, ponemos eti := cos t+ i sen t, donde el seno y coseno se consideran enradianes para que d

dt (eit) = ieit y e0 = 1. Tenemos la formula de Euler (1707-1783)

e2πi = 1,

y las formulas del seno y coseno de una suma expresan que etiet′i = e(t+t

′)i. En efecto:

etiet′i = (cos t+ i sen t)(cos t′ + i sen t′) =

=((cos t)(cos t′)− (sen t)(sen t′)

)+ i((cos t)(sen t′) + (sen t)(cos t′)

).

e(t+t′)i = cos(t+ t′) + i sen(t+ t′).

En general |eti| =√cos2 t+ sen2 t = 1, y todo numero complejo de modulo 1 es eθi para

algun numero real θ, unico salvo la adicion de un multiplo entero de 2π.

Definicion: Si z ∈ C es de modulo ρ 6= 0, entonces el modulo de z/ρ es 1, ası que

z = ρeθi = ρ(cos θ + i sen θ)

para algun numero real θ = arg z, llamado argumento de z (bien definido salvo la adicionde un multiplo entero de 2π). Cuando z = x+ yi, con x, y ∈ R, por definicion el argumentode z es cualquier numero real θ que cumpla

cos θ = x/ρ , sen θ = y/ρ,

ası que arg z = ± arc cos(x/ρ), donde el signo coincide con el de su seno, que es y/ρ.

Teorema 1.1 arg (z · z′) = (arg z) + (arg z′).

Demostracion: Se sigue de la igualdad (ρeθi)(ρ′eθ′i) = ρρ′e(θ+θ

′)i.

Ejemplos: Si ρ es un numero real positivo, arg ρ = 0, arg (ρi) = π/2, arg (−ρ) = π y

arg (−ρi) = 3π/2 porque ρ = ρe0, ρi = ρeπ2 i, −ρ = ρeπi, −ρi = ρe

3π2 i.

Si 0 6= z ∈ C, tanto z−1z = 1 como zz = |z|2 tienen argumento nulo, porque son numerosreales positivos, ası que arg z−1 = arg z = −arg z, y por tanto arg (u/z) = arg u− arg z.

Raıces n-esimas Complejas: Sea n un numero natural, n ≥ 2, y sea z un numero complejono nulo de modulo ρ y argumento θ. Las raıces n-esimas complejas de z son los numeroscomplejos u que cumplen un = z = ρeiθ.

Teorema 1.2 Todo numero complejo no nulo z = ρeiθ tiene n raıces n-esimas complejas(que forman un polıgono regular inscrito en el cırculo de radio n

√ρ centrado en el 0)

n√ρ e(

θ+2kπn )i = n

√ρ e

θn ie

2kπn i , k = 0, . . . , n− 1.

En particular, las raıces n-esimas de la unidad complejas son

e2kπn i = (e

2πn i)k ; k = 0, . . . , n− 1,

ası que las raıces n-esimas de un numero complejo no nulo se obtienen multiplicando unade ellas por las n raıces n-esimas de la unidad, que son las sucesivas potencias de e

2πn i.

4

Demostracion: La igualdad un = z = ρeiθ equivale a decir que

|u|n = |un| = |z| = ρ,

n(arg u) = arg (un) = arg z = θ + 2πk , k ∈ Z.

Es decir, |u| = n√ρ, arg (u) = θ+2kπ

n , y claramente basta tomar 0 ≤ k < n.

Ejemplos: n = 2 , e0i = 1 , e2π2 i = −1.

n = 3 , e0i = 1 , e2π3 i = − 1

2 +√32 i , e

4π3 i = − 1

2 −√32 i.

n = 4 , e0i = 1 , e2π4 i = i , e

4π4 i = −1 , e

6π4 i = −i.

n = 6 , e0i = 1 , e±2π6 i = 1

2 ±√32 i , e

± 4π6 i = −1

2 ±√32 i , e

6π6 i = −1.

n = 8 , e0i = 1 , e±2π8 i = 1√

2± i√

2, e±

4π8 i = ±i , e± 6π

8 i = −1√2± i√

2, e

8π8 i = −1.

Logaritmos: Si z = x + yi pondremos ez := exeyi = ex(cos y + i sen y), de modo queez

′+z = ez′ez para cualesquiera numeros complejos z′, z.

Cuando eu = z, decimos que u es el logaritmo (neperiano) de z, y ponemos u = ln z.El logaritmo de z = ρeθi = eln ρeθi = eln ρ+θi es ln z = ln ρ+ θi.

1.2. Permutaciones

Definiciones: Sean X e Y dos conjuntos. Dar una aplicacion f : X → Y es asignar a cadaelemento x ∈ X un unico elemento f(x) ∈ Y , llamado imagen de x por la aplicacion f .

Si g : Y → Z es otra aplicacion, la composicion de g y f es la aplicacion

g f : X −→ Z, (g f)(x) := g(f(x)

).

La identidad de un conjunto X es la aplicacion IdX : X → X, IdX(x) = x.

Sea f : X → Y una aplicacion. Si A ⊆ X, ponemos

f(A) := y ∈ Y : y = f(x),∃x ∈ X = f(x)x∈A ⊆ Y

y si B ⊆ Y , ponemos f−1(B) := x ∈ X : f(x) ∈ B ⊆ X.

Si y ∈ Y , puede ocurrir que f−1(y) no tenga ningun elemento o tenga mas de uno, demodo que, en general, f−1 no es una aplicacion de Y en X.

Diremos que f : X → Y es inyectiva si elementos distintos tienen imagenes distintas:

x, y ∈ X, f(x) = f(y) ⇒ x = y

(i.e., cuando, para cada y ∈ Y se tiene que f−1(y) tiene un elemento o ninguno) y diremosque f es epiyectiva si todo elemento de Y es imagen de algun elemento de X:

y ∈ Y ⇒ y = f(x) para algun x ∈ X ,

es decir, cuando f(X) = Y o, lo que es igual, cuando para cada y ∈ Y se cumple que f−1(y)tiene al menos un elemento.

Diremos que f : X → Y es biyectiva cuando es inyectiva y epiyectiva; es decir, cuandocada elemento y ∈ Y es imagen de un unico elemento de X, de modo que f−1(y) tiene ununico elemento, y en tal caso f−1 : Y → X sı es una aplicacion, llamada aplicacion inversade f porque f−1 f = IdX y f f−1 = IdY .

Definiciones: Sea n un numero natural, n ≥ 2. Las permutaciones de n elementos sonlas aplicaciones biyectivas

σ : 1, . . . , n −→ 1, . . . , n .

5

El conjunto de todas las permutaciones de n elementos se denota Sn, y su cardinal esn! = n · (n− 1) · . . . · 2 · 1. El producto de permutaciones es la composicion de aplicaciones, ycomo son aplicaciones biyectivas, toda permutacion σ tienen una permutacion inversa σ−1,de modo que σ−1(j ) = i cuando σ(i) = j. Ademas, (στ)−1 = τ−1σ−1.

Dados a1, . . . , ad ∈ 1, . . . , n distintos, (a1 . . . ad) denota la permutacion σ ∈ Sn talque σ(ai) = ai+1, entendiendo que σ(ad) = a1, y deja fijos los restantes elementos. Dire-mos que (a1 . . . ad) es un ciclo de longitud d, y los ciclos (a1a2) de longitud 2 se llamantrasposiciones. El inverso de un ciclo σ = (a1 . . . ad) es σ

−1 = (ad . . . a1).Diremos que dos ciclos (a1 . . . ad) y (b1 . . . bk) son disjuntos cuando ai 6= bj para todo

par de ındices i, j; en cuyo caso conmutan: (a1 . . . ad)(b1 . . . bk) = (b1 . . . bk)(a1 . . . ad).Toda permutacion descompone en producto de ciclos disjuntos, y tambien en producto de

trasposiciones, porque todo ciclo es producto de trasposiciones:

(a1a2a3 . . . ad) = (a1a2)(a2a3) · · · (ad−1ad). (1)

Ejemplos: (19725)(621)(835976) = (1683)(29)(57) = (16)(68)(83)(29)(57),(317549)(782)(2571)(12345) = (1482)(39) = (14)(48)(82)(39).

Definicion: Consideremos el siguiente polinomio con coeficientes enteros:

∆(x1, . . . , xn) =∏

1≤i<j≤n(xj − xi).

Dada una permutacion σ ∈ Sn, los factores de ∆(xσ(1), . . . , xσ(n)) =∏i<j(xσ(j) − xσ(i))

coinciden, eventualmente salvo el signo, con los de ∆(x1, . . . , xn). Luego ambos polinomioscoinciden o difieren en un signo, ∆(xσ(1), . . . , xσ(n)) = ±∆(x1, . . . , xn), y llamaremos signode σ al numero entero sgn(σ) = ±1 tal que

∆(xσ(1), . . . , xσ(n)) = sgn(σ) ·∆(x1, . . . , xn). (2)

Llamaremos pares a las permutaciones de signo 1, e impares a las de signo –1.

Teorema 1.3 El signo de cualquier producto de permutaciones es el producto de los signosde los factores: sgn(τσ) = (sgn τ)(sgnσ) .

El signo de las trasposiciones es –1, y el signo de los ciclos de longitud d es (−1)d−1.

Demostracion: Sean σ, τ ∈ Sn. Aplicando τ a los ındices de las indeterminadas x1, . . . , xnen la igualdad 2, obtenemos que

∆(x(τσ)(1), . . . , x(τσ)(n)) = (sgnσ) ·∆(xτ(1), . . . , xτ(n)) = (sgnσ)(sgn τ) ·∆(x1, . . . , xn).

Luego sgn(τσ) = (sgnσ)(sgn τ) = (sgn τ)(sgnσ).El unico factor de ∆(x1, . . . , xn) que cambia de signo con la trasposicion (12) es el factor

(x2 − x1): luego el signo de la trasposicion (12) es –1. Si (ij) es otra trasposicion, tomamosuna permutacion τ tal que τ(1) = i, τ(2) = j, de modo que (ij) = τ · (12) · τ−1, y

sgn(ij) = sgn(τ) · sgn(12) · sgn(τ−1) = −sgn(τ) · sgn(τ−1) = −sgn(τ · τ−1) = −1.

Ahora es claro que el signo de un ciclo (a1 . . . ad) = (a1a2)(a2a3) · · · (ad−1ad) es (−1)d−1.

1.3. Matrices y Determinantes

En adelante pondremos K = R o C, llamaremos escalares a los elementos de K yconsideraremos matrices A = (aij) con coeficientes en K, donde el subındice i indica la filay el subındice j la columna).

6

Definiciones: Dada una matriz A = (aij) de m filas y n columnas, su matriz traspuestaes At := (aji), que tiene n filas y m columnas, y su matriz conjugada es A := (aij). Secumple que (A+B)t = At +Bt, A+B = A+ B.

Si B = (bjk) es otra matriz de n filas y r columnas, su producto AB es una matrizm× r cuyo coeficiente cik de la fila i y columna k es

cik = ai1b1k + ai2b2k + . . .+ ainbnk.

El producto de matrices es asociativo, distributivo y (AB)t = BtAt, AB = A · B.La matriz unidad In es la matriz n × n con todos sus coeficientes nulos, salvo los de la

diagonal, que son la unidad. Si A es una matriz m× n, entonces ImA = A y AIn = A.Una matriz cuadrada A de n columnas se dice que es invertible si existe otra matriz

cuadrada B de n columnas tal que AB = In = BA, en cuyo caso tal matriz B es unica yse pone B = A−1. Si A y B son matrices invertibles n × n, entonces (AB)−1 = B−1A−1,A−1 = A−1, (At)−1 = (A−1)t.

Definicion: El determinante de una matriz cuadrada A = (aij) de n filas y columnas es

detA = |A| :=∑σ∈Sn

(sgnσ)a1σ(1) . . . anσ(n)

y tiene las siguientes propiedades:

1. |A| = |At|.

2. Es lineal en cada columna (y por tanto en cada fila):

|A1, . . . , Ai +Bi, . . . , An| = |A1, . . . , Ai, . . . , An|+ |A1, . . . , Bi, . . . , An| ,|A1, . . . , λAi, . . . , An| = λ|A1, . . . , Ai, . . . , An| .

3. |Aσ(1), . . . , Aσ(n)| = (sgnσ)|A1, . . . , An|.

4.

∣∣∣∣∣∣∣∣a11 0 . . . 0a21 a22 . . . 0. . . . . . . . . 0an1 an2 . . . ann

∣∣∣∣∣∣∣∣ = a11 . . . ann, |In| = 1.

5. |AB| = |A| · |B|.

6. El determinante puede calcularse desarrollando por cualquier fila o columna:

|A| = ai1Ai1 + . . .+ ainAin,

|A| = a1jA1j + . . .+ anjAnj ,

donde el adjuntoAij es (−1)i+j por el determinante de la matriz que se obtiene eliminandola fila i y la columna j de la matriz A.

En particular el determinante es 0 cuando dos columnas (o dos filas) son iguales y

|A1, . . . , Ai, . . . , An| = |A1, . . . , Ai + λAj , . . . , An| , i 6= j,

ası que un determinante siempre se puede calcular aplicando transformaciones elemen-tales a las columnas (permutarlas, multiplicar una por un escalar no nulo, o sumarle a unael producto de otra por un escalar) hasta que quede en la forma (4).

Si A es invertible, de (5) se sigue que su determinante no es nulo, y |A−1| = |A|−1.Por otra parte, para toda matriz A se tiene que ai1Aj1 + . . .+ ainAjn = 0 cuando i 6= j,

porque (6) afirma que es el determinante de la matriz que se obtiene al sustituir en A la filaj por la fila i (de modo que tiene dos filas iguales); e igualmente a1jA1i + . . .+ anjAni = 0.

7

Es decir, las matrices (aij)(Aij)t y (Aij)

t(aij) tiene todos los coeficientes nulos, salvo los dela diagonal, que son |A|. Cuando |A| 6= 0, vemos que A es invertible, y su inversa es

A−1 =1

|A|

A11 . . . A1n

. . . . . . . . .An1 . . . Ann

t

.

Definiciones: El rango (por columnas) de una matriz A es el maximo numero de columnasde A linealmente independientes, y se denota rgA.

Los menores de orden r de una matriz A son los determinantes de las matrices formadascon los coeficientes de r filas y r columnas de A.

Teorema del Rango: El rango de una matriz es el mayor orden de los menores no nulos.

Teorema de Rouche-Frobenius (1832-1910, 1849-1917): Un sistema de ecuaciones linea-les AX = B es compatible si y solo si rgA = rg(A|B) .

Regla de Cramer (1704-1752): Si A = (A1, . . . , An) es una matriz cuadrada invertible,entonces el sistema de ecuaciones lineales AX = B tiene una unica solucion,

xi =|A1, . . . , B, . . . , An||A1, . . . , Ai, . . . , An|

·

Demostracion: Si A es invertible, la unica solucion de AX = B es X = A−1B. Ademas, six1, . . . , xn es la solucion del sistema, entonces x1A1 + . . .+ xnAn = B y por tanto:

|A1, . . . , B, . . . , An| =∑jxj |A1, . . . , Aj , . . . , An| = xi|A1, . . . , Ai, . . . , An|

porque la matriz (A1, . . . , Aj , . . . , An) tiene dos columnas iguales (las columnas i y j) cuandoi 6= j. Luego xi = |A1, . . . , B, . . . , An|/|A1, . . . , Ai, . . . , An| es la unica solucion del sistema.

Sistemas de Ecuaciones Lineales: Una forma de resolver un sistema de ecuaciones li-neales AX = B compatible es realizar transformaciones elementales (permutar ecuaciones,multiplicar una por un escalar no nulo o sumarle a una el producto de otra por un escalar)hasta que la resolucion sea inmediata. Tambien se puede fijar un menor no nulo de A deorden r = rgA = rg(A|B), eliminar las ecuaciones que no entren en ese menor e igualara parametros las n − r indeterminadas que no entren en ese menor, obteniendo ası un sis-tema de Cramer. Por ultimo, si X0 es una solucion particular, AX0 = B, entonces todaslas soluciones se obtienen sumandole las soluciones del sistema homogeneo AY = 0; i.e., lassoluciones son X = X0 + Y , donde AY = 0.

En efecto, B = A(X0 + Y ) = AX0 +AY = B +AY si y solo si AY = 0.

1.4. Grupos

Definicion: Una operacion (interna) en un conjunto G es una aplicacion G × G → G, yla imagen de un par (a, b) ∈ G×G se denota a ∗ b, a · b, a+ b, e incluso ab sin mas.

Definicion: Un conjunto G con una operacion G×G·−→ G es un grupo cuando

1. La operacion es asociativa: a · (b · c) = (a · b) · c, ∀a, b, c ∈ G.

2. Existe un elemento 1 ∈ G, llamado neutro o unidad, tal que a · 1 = 1 · a = a, ∀a ∈ G.

3. Para cada a ∈ G existe a−1 ∈ G, llamado inverso de a, tal que a · a−1 = a−1 · a = 1.

y se dice que el grupo es conmutativo o abeliano cuando a · b = b · a, ∀a, b ∈ G.

8

Ejemplos: Con la suma, Z, Q, R y C son grupos conmutativos, y el neutro es el numero 0.Con el producto, R∗ := x ∈ R : x 6= 0 y R∗ := x ∈ R : x 6= 0 son grupos conmutati-

vos, y el neutro es el numero 1.El conjunto Sn de las permutaciones de n elementos, con la composicion de aplicaciones,

es un grupo, llamado grupo simetrico n-esimo, y el neutro es la permutacion identidad.El conjunto Mm×n(K) de las matrices de m filas y n columnas con coeficientes en K

(= R o C), con la suma de matrices, es un grupo conmutativo, y el neutro es la matriz quetiene todos los coeficientes nulos.

El conjunto Gl(n,K) := A ∈ Mn×n(K) : det(A) 6= 0, con el producto de matrices, esun grupo, llamado grupo lineal n-esimo con coeficientes en K, y el neutro es la matriz In.

Los polinomios en una indeterminada x y coeficientes en K, con la suma de polinomios,forman un grupo conmutativo K[x]. El neutro es el polinomio de coeficientes nulos.

Fijado un conjunto X, las funciones f : X → K, con la suma de funciones, (f +h)(x) :=f(x) + h(x), ∀x ∈ X, forman un grupo conmutativo, y el neutro es la funcion constante 0.

Notacion: En un grupo pondremos a0 := 1 y an := a· n. . . ·a, a−n := a−1· n. . . ·a−1 paratodo numero natural n ≥ 1, de modo que an+m = anam, ∀n,m ∈ Z.

Cuando el grupo es conmutativo, a menudo usaremos la notacion aditiva: ponemos a+ ben vez de a · b, el neutro se denota 0, el inverso −a (y se llama opuesto de a) y pondremos0 · a := 0, n · a := a+ n. . . +a, (−n) · a := (−a)+ n. . . +(−a), y a− b := a+(−b), de modo quea− a = a+ (−a) = 0.

Definicion: Un subconjunto H de un grupo G es un subgrupo si cumple las siguientescondiciones (de modo que H, con la operacion de G, tambien es un grupo):

1. Si a, b ∈ H, entonces ab ∈ H.

2. 1 ∈ H.

3. Si a ∈ H, entonces a−1 ∈ H.

Ejemplos: Z, Q y R son subgrupos de C.±1, R+ = x ∈ R : x > 0 y R∗ son subgrupos de C∗.El grupo ortogonal O(n) = A ∈Mn×n(K) : AtA = In es un subgrupo de Gl(n,K).El grupo unitario U(n) = A ∈Mn×n(C) : AtA = In, es un subgrupo de Gl(n,C).Fijado n ∈ N, los polinomios de grado ≤ n forman un subgrupo Pn del grupo K[x].

Notacion: Si H es un subgrupo de un grupo G y a ∈ G, pondremos aH = ahh∈H .

Lema 1.4 Sea H un subgrupo de un grupo G, y sean a, b ∈ G. Si b ∈ aH, entonces aH =bH. Por tanto, los conjuntos aH y bH o son disjuntos o coinciden,

Demostracion: Si b ∈ aH, entonces b = ah para algun h ∈ H, y bH = ahH ⊆ aH.Como a = bh−1 ∈ bH, tambien tenemos que aH ⊆ bH. Luego aH = bH.Por ultimo, si c ∈ (aH) ∩ (bH), tenemos que aH = cH = bH.

Teorema de Lagrange (1736-1813): Si H es un subgrupo de un grupo finito G, entoncesel cardinal de H divide al cardinal de G.

Demostracion: Si H = h1, . . . , hd tiene cardinal d, tambien aH = ah1, . . . , ahd, ∀a ∈ G.Tomemos un elemento a1 ∈ G. Si a2 /∈ a1H, entonces a1H y a2H son disjuntos; luego

a1H∪a2H tiene cardinal 2d. Si a3 /∈ (a1H∪a2H), entonces a1H∪a2H y a3H son disjuntos;luego a1H ∪ a2H ∪ a3H tiene cardinal 3d, etc.

Procediendo ası obtenemos elementos a1, . . . , ar ∈ G tales que a1H, . . . , arH son disjun-tos y a1H ∪ . . . ∪ arH = G, de modo que el cardinal de G es rd.

9

Definicion: Una aplicacion f : G → G′ entre dos grupos en un morfismo de gruposcuando f(a · b) = f(a) · f(b), ∀a, b ∈ G.

En tal caso, como f(1) = f(1 · 1) = f(1) · f(1), tendremos que f(1) es el neutro de G′, ycomo 1 = f(1) = f(a−1 · a) = f(a−1) · f(a), tendremos que f(a−1) = f(a)−1, ∀a ∈ G.

Proposicion 1.5 Si f : G → G′ y h : G′ → G′′ son morfismos de grupos, entonces sucomposicion h f : G→ G′′ tambien es morfismo de grupos.

Demostracion: Si a, b ∈ G, se cumple que

(h f)(ab) = h(f(ab)) = h(f(a) · f(b)) = h(f(a)) · h(f(b)) = (h f)(a) · (h f)(b).

Proposicion 1.6 Sea f : G→ G′ un morfismo de grupos.Su nucleo Ker f := f−1(1) = a ∈ G : f(a) = 1 es un subgrupo de G, y su imagen

Im f := f(G) = a′ ∈ G′ : a′ = f(a),∃a ∈ G = f(a)a∈G es un subgrupo de G′.

Demostracion: Veamos que Ker f es un subgrupo de G. Si a, b ∈ Ker f , por definicionf(a) = f(b) = 1, ası que f(ab) = f(a)f(b) = 1 · 1 = 1, y ab ∈ Ker f .

Si a ∈ Ker f , por definicion f(a) = 1; luego f(a−1) = f(a)−1 = 1−1 = 1, y a−1 ∈ Ker f .Por ultimo, 1 ∈ Ker f porque f(1) = 1.

Veamos ahora que Im f es un subgrupo de G′. Si a′, b′ ∈ Im f , por definicion existena, b ∈ G tales que a′ = f(a) y b′ = f(b), ası que a′b′ = f(a)f(b) = f(ab) ∈ Im f .

Si a′ ∈ Im f , entonces a′ = f(a) para algun a ∈ G, y (a′)−1 = f(a)−1 = f(a−1) ∈ Im f .Por ultimo, 1 ∈ Im f porque f(1) = 1.

Ejemplos: La aplicacion C∗ → R+, z 7→ |z| es morfismo de grupos porque |zu| = |z| · |u|;luego su nucleo U(1) = z ∈ C : |z| = 1 es un subgrupo de C∗.

El signo sgn: Sn → ±1 es morfismo de grupos porque sgn(στ) = (sgnσ)(sgn τ), asıque el grupo alternado An = σ ∈ Sn : sgnσ = 1 es un subgrupo de Sn.

El determinante Gl(n,K) → K∗ es morfismo de grupos porque |AB| = |A · |B|, ası que elgrupo especial lineal Sl(n,K) = A ∈ Gl(n,K) : detA = 1 es un subgrupo de Gl(n,K).

Si a ∈ K, la aplicacion f : K → K, f(z) = az, es morfismo de grupos: a(x+y) = ax+ay.La aplicacion f : C → C∗, f(z) = ez, es morfismo de grupos: ez+z

′= ezez

′.

Si G es un grupo abeliano y n ∈ N, la aplicacion f : G → G, f(a) = an, es morfismo degrupos porque (ab)n = anbn. En particular, cuando G = C∗, vemos que las raıces n-esimasde la unidad complejas forman un subgrupo Cn := z ∈ C : zn = 1 de C∗.

Si G es un grupo y a ∈ G, la aplicacion f : Z → G, f(n) = an, es morfismo de gruposporque an+m = anam; luego su imagen (a) := . . . , a−2, a−1, a0 = 1, a, a2, a3, . . . es unsubgrupo de G, y claramente es el menor subgrupo de G que contiene al elemento a.

Proposicion 1.7 Un morfismo de grupos f : G→ G′ es inyectivo si y solo si Ker f = 1.

Demostracion: Si f es inyectivo y a ∈ Ker f , entonces f(a) = 1 = f(1); luego a = 1.Recıprocamente, supongamos que Ker f = 1. Si f(a) = f(b), donde a, b ∈ G, entonces

f(a−1b) = f(a)−1f(b) = 1; luego a−1b ∈ Ker f = 1, ası que a−1b = 1 y por tanto a = b.

10

2. Espacios Vectoriales

2.1. Espacios Vectoriales y Subespacios Vectoriales

En adelante pondremos K = R o C, y llamaremos escalares a los elementos de K.Dar una operacion externa de K en un conjunto E es dar una aplicacion K×E → E,

y la imagen de un par ordenado (λ, e) ∈ K × E se suele denotar λ · e, o λe sin mas.

Definicion: Un K-espacio vectorial es un grupo conmutativo (E,+), cuyos elementosllamamos vectores o puntos, con una operacion externa K × E → E que cumple

1. λ(e1 + e2) = λe1 + λe2 para todo λ ∈ K, e1, e2 ∈ E.

2. (λ1 + λ2)e = λ1e+ λ2e para todo λ1, λ2 ∈ K, e ∈ E.

3. (λµ)e = λ(µe) para todo λ, µ ∈ K, e ∈ E.

4. 1 · e = e para todo vector e ∈ E.

Definicion: Un subgrupo V de un espacio vectorial E es un subespacio vectorial de Ecuando λv ∈ V para todo λ ∈ K y v ∈ V , de modo que V , con el producto por escalaresque tenemos en E, tambien es un espacio vectorial.

Ejemplos:

1. En la Geometrıa euclıdea clasica, fijado un origen O, los puntos forman un espacio vec-torial real cuando se suman con la regla del paralelogramo, y se multiplican por escalaressegun la proporcion de segmentos:

e+ vv

eO

λe

Las rectas y planos que pasan por el origen O son subespacios vectoriales, y una flechacon origen en un punto p y final en q denotara el vector pq := q − p. Dados tres puntosa, b, c, si ponemos e = b− a, v = c− b, tendremos que e+ v = c− b+ b− a = c− a:

a b

c

e

e+ v v

2. El grupo Kn = K× n. . . ×K, con la operacion externa

α · (λ1, . . . , λn) = (αλ1, . . . , αλn)

es un K-espacio vectorial. Si A ∈ Mm×n(K), las soluciones del sistema de ecuacioneslineales homogeneo AX = 0 forman un subespacio vectorial de Kn.

3. Fijados dos numeros naturales positivosm y n, el producto usual de matrices por escalaresdefine una estructura de K-espacio vectorial en el grupo Mm×n(K).

4. El conjunto K[x] de los polinomios en una indeterminada x y coeficientes en K, con lasuma de polinomios y el producto usual por escalares, forman un K-espacio vectorial.Fijado n ∈ N, los polinomios de grado ≤ n forman un subespacio vectorial Pn de K[x].

11

5. El espacio vectorial con un unico vector (necesariamente el vector nulo) se denota 0. Todoespacio vectorial E admite los subespacios vectoriales triviales 0 y E.

6. Sean V y W dos subespacios vectoriales de un K-espacio vectorial E. Su interseccionV ∩W := e ∈ E : e ∈ V y e ∈W es un subespacio vectorial de E, y su suma

V +W := e ∈ E : e = v + w, ∃v ∈ V, w ∈W = v + wv∈V,w∈W

tambien es un subespacio vectorial de E. Si un subespacio vectorial F de E contiene a Vy a W , entonces tambien contiene a V +W , porque F es un subgrupo de E.

7. Si e es un vector de un K-espacio vectorial E, entonces

〈e〉 = Ke := v ∈ E : v = λe, ∃λ ∈ K = λeλ∈Kes un subespacio vectorial de E, y diremos que esta generado por el vector e.

Notese que si V es un subespacio vectorial de E y e ∈ V , entonces Ke ⊆ V .

8. Si e1, . . . , en son vectores de un espacio vectorial E, entonces

〈e1, . . . , en〉 := Ke1 + . . .+Ken = λ1e1 + . . .+ λnenλ1,...,λn∈K

es un subespacio vectorial de E, y diremos que esta generado por e1, . . . , en.

Si V es un subespacio vectorial de E y e1, . . . , en ∈ V , entonces 〈e1, . . . , en〉 ⊆ V . Enparticular, tendremos que 〈e1, . . . , en〉 = 〈v1, . . . , vm〉 cuando e1, . . . , en ∈ 〈v1, . . . , vm〉 yv1, . . . , vm ∈ 〈e1, . . . , en〉.

9. Fijado un conjunto X, las funciones ψ : X → K forman un K-espacio vectorial, con lasoperaciones

(ψ + ϕ)(x) := ψ(x) + ϕ(x) , (λψ)(x) := λ(ψ(x)

).

Cuando K = C y X = [a1, b1] × [a2, b2] × [a3, b3] es un producto de intervalos en R3,las funciones continuas forman un subespacio vectorial, y cada funcion continua com-pleja ψ(x, y, z) : X → C describe el estado de una partıcula cuantica (confinada en X),entendiendo que la probabilidad de encontrar a la partıcula en cierta region Ω ⊆ X es∫

Ω

|ψ(x1, x2, x3)|2dx1dx2dx3∫X

|ψ(x1, x2, x3)|2dx1dx2dx3·

De hecho una funcion ψ(x1, x2, x3) y λψ(x1, x2, x3), 0 6= λ ∈ C, describen el mismocomportamiento, ası que el estado de la partıcula viene dado por el subespacio vectorialCψ = 〈ψ〉, y puede ser representado por cualquier funcion λψ(x1, x2, x3), 0 6= λ ∈ C.En Mecanica Cuantica, la funcion (dependiente del tiempo) que describe una onda planaes ψ(t, x1, x2, x3) = Aek1x1+k2x2+k3x3−ωt, donde A ∈ C y k1, k2, k3, ω ∈ R.

10. Si E y F son dos K-espacios vectoriales, su producto directo E × F es un K-espaciovectorial, con las operaciones (e, v) + (e′, v′) := (e+ e′, v + v′), λ(e, v) := (λe, λv).

11. Dado un subespacio vectorial V de un espacio vectorial E y un punto p ∈ E, diremos que

p+ V := e ∈ E : e = p+ v, ∃v ∈ V = p+ vv∈Ves la subvariedad lineal de E que pasa por p con direccion V . De acuerdo con 1.4, siq ∈ p+ V , entonces p+ V = q + V , ası que dos subvariedades lineales de igual direccionp+ V y q+ V o son disjuntas o coinciden. Dos subvariedades lineales p+ V , q+W de Ese llaman paralelas cuando sus direcciones son incidentes: V ⊆W o W ⊆ V .

12

Definicion: Sea V un subespacio vectorial V de un K-espacio vectorial E, y para cadavector e ∈ E pongamos [e] := e + V , de modo que [e] = [e′] si y solo si e′ ∈ e + V . Enparticular [e] = [0] precisamente cuando e ∈ V :

[e] = 0 ⇔ e ∈ V (3)

El conjunto E/V := [e]e∈E de las subvariedades lineales de E de direccion V es unK-espacio vectorial (el espacio vectorial cociente de E por V ) con las operaciones

[e] + [u] := [e+ u]

λ · [e ] := [λe ]

En efecto, es sencillo comprobar todas las propiedades una vez que se demuestra queestas definiciones no dependen de los puntos elegidos en las subvariedades lineales:

Si [e] = [e′], entonces e′ = e + v, ∃v ∈ V ; luego e′ + u = e + u + v ∈ e + u + V yλe′ = λe+ λv ∈ λe+ V , de modo que [e′ + u] = [e+ u] y [λe′] = [λe].

El vector nulo de E/V es [0], y el opuesto de un vector [e] ∈ E/V es [−e].Ademas, si e ∈ 〈e1, . . . , en〉, entonces [e] ∈ 〈[e1], . . . , [en]〉, pues si e = λ1e1 + . . .+ λnen,

entonces [e] = [λ1e1 + . . .+ λnen] = λ1[e1] + . . .+ λn[en].

2.2. Teorıa de la Dimension

Definiciones: Diremos que unos vectores e1, . . . , en de un espacio vectorial E lo generan, oque forman un sistema de generadores de E cuando todo vector de E es una combinacionlineal de e1, . . . , en con coeficientes en K:

Ke1 + . . .+Ken = E.

Diremos que e1, . . . , en son linealmente dependientes si existen escalares λ1, . . . , λntales que λ1e1 + . . .+ λnen = 0 y algun λi 6= 0, de modo que ei es combinacion lineal de losrestantes vectores. En caso contrario diremos que son linealmente independientes.

Es decir, e1, . . . , en son linealmente independientes cuando la unica combinacion linealnula es la que tiene todos los coeficientes nulos:

λ1, . . . , λn ∈ K y λ1e1 + . . .+ λnen = 0 ⇒ λ1 = . . . = λn = 0.

Diremos que una sucesion de vectores e1, . . . , en de un espacio vectorial E es una basede E cuando tales vectores sean linealmente independientes y generen E. En tal caso, cadavector e ∈ E se escribe de modo unico como combinacion lineal con coeficientes en K

e = x1e1 + . . .+ xnen,

y diremos que (x1, . . . , xn) ∈ Kn son las coordenadas del vector e en la base e1, . . . , en .

En efecto, si e = x1e1 + . . .+ xnen = y1e1 + . . .+ ynen, entonces

0 = x1e1 + . . .+ xnen − (y1e1 + . . .+ ynen) = (x1 − y1)e1 + . . .+ (xn − yn)en,

luego yi − xi = 0 para todo ındice i, porque e1, . . . , en son linealmente independientes.

Ejemplos:

1. Los vectores e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 0, 1) forman una basede Kn, llamada base usual de Kn. Las coordenadas de un vector e = (a1, . . . , an) deKn en esta base son precisamente (a1, . . . , an), porque e = a1e1 + . . .+ anen.

13

2. Las matrices m×n que tienen todos sus coeficientes nulos, excepto uno que es la unidad,definen una base deMm×n(K), base que esta formada por mn matrices. Las coordenadasde una matriz en tal base son precisamente los coeficientes de la matriz.

3. Los polinomios a0 + a1x + . . . + anxn de grado ≤ n con coeficientes en K forman un

K-espacio vectorial Pn = K +Kx+ . . .+Kxn, de base 1, x, . . . , xn.

4. Si α1, . . . , αn son numeros complejos distintos entre sı, entonces las funciones eα1x, . . . , eαnx

de una variable real x, son linealmente independientes, y forman por tanto una base delsubespacio vectorial que generan Ceα1x + . . .+ Ceαnx.

Para demostrarlo procedemos por induccion sobre n, y es claro cuando n = 1 porqueeαx 6= 0. Cuando n > 1, si ϕ(x) = λ1e

α1x + . . .+ λneαnx = 0, derivando

0 = ϕ′(x) = α1λ1eα1x + . . .+ αnλne

αnx.

0 = αnϕ(x)− ϕ′(x) = (αn − α1)λ1eα1x + . . .+ (αn − αn−1)λn−1e

αn−1x.

Por hipotesis de induccion (αn − α1)λ1 = . . . = (αn − αn−1)λn−1 = 0, y vemos queλ1 = . . . = λn−1 = 0 porque αi 6= αj cuando i 6= j. Luego 0 = ϕ(x) = λne

αnx, yconcluimos que tambien λn = 0.

5. Todo vector no nulo e es linealmente independiente, porque λe = 0 ⇒ λ = 0; luego e esuna base del subespacio vectorial Ke que genera.

Ahora, si v /∈ Ke, entonces e, v son linealmente independientes, y forman una base deKe+Kv.

Ecuaciones Parametricas e Implıcitas: Fijada una base de un espacio vectorial dedimension finita E, dar ecuaciones parametricas de un subespacio vectorial V de E es darlas coordenadas de un sistema de generadores de V (mejor si forman una base de V ), y darecuaciones implıcitas de V es dar un sistema homogeneo de ecuaciones lineales (mejor sison linealmente independientes) cuyas soluciones sean las coordenadas de los vectores de V .

Dar ecuaciones parametricas de una subvariedad lineal X = p + V de E es dar lascoordenadas de un punto p de X y de un sistema de generadores de la direccion V de X,y dar ecuaciones implıcitas de X es dar un sistema de ecuaciones lineales cuyas solucionessean las coordenadas de los puntos de X, y pasar de ecuaciones implıcitas a parametricases sencillamente resolver el sistema.

Conocido un sistema de generadores V = 〈v1, . . . , vr〉, como el subespacio vectorial ge-nerado por unos vectores es invariante por transformaciones elementales:

〈v1, . . . , vr〉 = 〈vσ(1), . . . , vσ(r)〉 , σ ∈ Sr

〈v1, . . . , vi, . . . vr〉 = 〈v1, . . . , λvi, . . . vr〉 , 0 6= λ ∈ K

〈v1, . . . , vi, . . . vr〉 = 〈v1, . . . , vi + λvj , . . . vr〉 , j 6= i

podemos aplicar transformaciones elementales a las coordenadas de v1, . . . , vr hasta obtenerlas de un sistema de generadores en que los vectores no nulos sean linealmente independien-tes, y formen por tanto una base de V .

Lema Fundamental: Sean e1, . . . , en vectores de un K-espacio vectorial E. Si r vectoresv1, . . . , vr ∈ Ke1 + . . .+Ken son linealmente independientes, entonces r ≤ n.

Demostracion: Por induccion sobre r, y es claro cuando r = 1, porque tambien n ≥ 1.

Si r > 1, como vr 6= 0, reordenando e1, . . . , en tendremos vr = λ1e1 + . . . + λnen conλn 6= 0. Despejando, vemos que en ∈ Ke1 + . . .+Ken−1 +Kvr, y por tanto

v1, . . . , vr−1 ∈ Ke1 + . . .+Ken ⊆ Ke1 + . . .+Ken−1 +Kvr.

14

de modo que en el espacio vectorial cociente E/(Kvr) tendremos que

[v1], . . . , [vr−1] ∈ K[e1] + . . .+K[en−1] +K[vr] = K[e1] + . . .+K[en−1].

Veamos que [v1], . . . , [vr−1] son linealmente independientes:Si una combinacion lineal de estos vectores es nula,

0 = λ1[v1] + . . .+ λr−1[vr−1] = [λ1v1 + . . .+ λr−1vr−1],

entonces∑r−1i=1 λivi ∈ Kvr segun 3, y

∑r−1i=1 λivi = λrvr para algun escalar λr.

Como v1, . . . , vr son linealmente independientes, tenemos que λ1 = . . . = λr−1 = 0.Ahora, por hipotesis de induccion, r − 1 ≤ n− 1, y concluimos que r ≤ n.

Teorema 2.1 Todas las bases de un espacio vectorial tienen igual numero de vectores.

Demostracion: Sean e1, . . . , en y v1, . . . , vr dos bases de un espacio vectorial E.Como v1, . . . , vr ∈ E = Ke1 + . . . + Ken son linealmente independientes, por el lema

fundamental r ≤ n. Como e1, . . . , en ∈ E = Kv1+ . . .+Kvr son linealmente independientes,tambien tenemos que n ≤ r; luego n = r.

Definicion: El espacio vectorial E = 0 tiene dimension 0, y la dimension de un espaciovectorial E 6= 0 es el numero de vectores de cualquier base de E, y se denota dimE. Cuandoninguna familia finita de vectores de un espacio vectorial E 6= 0 sea una base de E, diremosque E tiene dimension infinita.

La dimension de una subvariedad lineal X = p + V es la de su direccion V . Las subva-riedades lineales de dimension 1 y 2 se llaman rectas y planos respectivamente.

Ejemplos:

1. dimKn = n, y dimMm×n(K) = mn.

2. dimPn = n+ 1. donde Pn = K +Kx+ . . .+Kxn.

3. dim (Ceα1x + . . .+ Ceαnx) = n, cuando α1, . . . , αn ∈ C son distintos entre sı.

4. dim (Ke) = 1 cuando el vector e no es nulo, y dim (Ke+Kv) = 2 si ademas v /∈ Ke.

5. De acuerdo con el lema fundamental, en un espacio vectorial de dimension n no puedehaber mas de n vectores linealmente independientes.

6. Por dos puntos distintos p y q = p + e pasa una unica recta p + Ke, formada por lospuntos p + λe = (1 − λ)p + λq; es decir, por las combinaciones lineales αp + βq, conα+ β = 1, y el punto p+ 1

2e =p+q2 se llama punto medio entre p y q.

En efecto, si una recta a + V pasa por p, entonces a + V = p + V . Si ademas pasa porq = p+ e, entonces e ∈ V y Ke = V , pues en caso contrario existirıa v ∈ V , v /∈ Ke, demodo que e, v ∈ V son linealmente independientes, en contra de que dimV = 1.

Proposicion 2.2 Todo sistema de generadores e1, . . . , en de un espacio vectorial E 6= 0contiene una base de E. Por tanto n ≥ dimE, y si ademas n = dimE, entonces los vectorese1, . . . , en ya forman una base de E.

Demostracion: Procedemos por induccion sobre n.

Si n = 1, e1 6= 0 porque Ke1 = E 6= 0; luego e1 es ya una base de E = Ke1.

Si n > 1, y los vectores e1, . . . , en son linealmente independientes, forman ya una basede E. Si son linealmente dependientes, tendremos alguna relacion

∑ni=1 λiei = 0 con algun

coeficiente λi no nulo. Reordenando los vectores e1, . . . , en podemos suponer que λn 6= 0.

15

Despejando en tenemos que en ∈ Ke1 + . . .+Ken−1. Luego E = Ke1 + . . .+Ken−1, y porhipotesis de induccion el sistema de generadores e1, . . . , en−1 contiene una base de E.

Por ultimo, si n = dimE, entonces los vectores e1, . . . , en ya forman una base de E;porque una base de E no puede tener menos de n vectores segun 2.1.

Corolario 2.3 Sea e1, . . . , en una base de un espacio vectorial E. Si A es la matriz quetiene por columnas las coordenadas de v1, . . . , vm ∈ E en tal base de E, entonces

dim (Kv1 + . . .+Kvm) = rgA.

Demostracion: Pongamos r = rgA y d = dim (Kv1 + . . . +Kvm).Como v1, . . . , vm contiene una base vi1 , . . . , vid deKv1+. . .+Kvm, las columnas i1, . . . , id

de la matriz A son linealmente independientes y por tanto d ≤ r (pues unos vectores sonlinealmente independientes precisamente cuando sus coordenadas son linealmente indepen-dientes en Kn). Pero tambien r ≤ d, porque en Kv1 + . . .+Kvm no puede haber mas de dvectores linealmente independientes.

Lema 2.4 Si e1, . . . , en ∈ E son linealmente independientes, y no se pueden ampliar conun vector de E de modo que lo sigan siendo, entonces ya forman una base de E.

Demostracion: Si e ∈ E, entonces e1, . . . , en, e son linealmente dependientes,

λ1e1 + . . .+ λnen + λe = 0,

con algun coeficiente no nulo. Si λ = 0, entonces e1, . . . , en son linealmente dependientes,en contra de la hipotesis. Luego λ 6= 0 y despejando vemos que e ∈ Ke1 + . . .+Ken.

Luego los vectores e1, . . . , en generan E, y como son linealmente independientes porhipotesis, forman una base de E.

Proposicion 2.5 Sea E un espacio vectorial de dimension finita. Si e1, . . . , er ∈ E sonlinealmente independientes, se pueden anadir vectores hasta obtener una base de E. Portanto r ≤ dimE, y si ademas r = dimE, entonces e1, . . . , er ya forman una base de E.

Demostracion: Anadimos vectores de E hasta obtener una familia linealmente independientee1, . . . , er, e

′1, . . . , e

′s que ya no pueda ampliarse de modo que lo siga siendo (el proceso

termina porque, si n = dimE, en virtud el lema fundamental en E no puede haber mas den vectores linealmente independientes, ası que siempre r + s ≤ n).

Ahora e1, . . . , er, e′1, . . . , e

′s ya es base de E por el lema anterior.

Por ultimo, si r = dimE = r + s, entonces s = 0 y e1, . . . , er ya es una base de E.

Teorema 2.6 Sea V subespacio vectorial de un espacio vectorial de dimension finita E.

1. dimV ≤ dimE , y solo se da la igualdad cuando V = E.

2. dim (E/V ) = dimE − dimV .

Demostracion: Tomemos1 una base v1, . . . , vr de V , de modo que r = dimV .Segun 2.5 podemos ampliarla hasta obtener una base v1, . . . , vr, e1, . . . , es de E.Luego dimV = r ≤ r + s = dimE; y si se da la igualdad, entonces s = 0 y v1, . . . , vr

tambien es una base de E, de modo que E = Kv1 + . . .+Kvr = V .

En cuanto a (2), basta ver que los vectores [e1], . . . , [es] forman una base de E/V .

1La dimension de V es finita, porque si v1, . . . , vr es una familia linealmente independiente en V que yano pueda ampliarse con un vector de V de modo que lo siga siendo (existe porque, si n = dimE, por el lemafundamental en E no puede haber mas de n vectores linealmente independientes) entonces v1, . . . , vr es unabase de V por el lema anterior.

16

Si [e] ∈ E/V , tendremos e = µ1v1 + . . .+ µrvr + λ1e1 + . . .+ λses para ciertos escalaresµ1, . . . , µr, λ1, . . . , λs; luego

[e] = µ1[v1] + . . .+ µr[vr] + λ1[e1] + . . .+ λs[es] = λ1[e1] + . . .+ λs[es]

porque [v1] = . . . = [vr] = 0, y vemos que [e1], . . . , [es] generan E/V .Veamos por ultimo que [e1], . . . , [es] son linealmente independientes:

Si 0 =∑si=1 λi[ei] = [

∑si=1 λiei], entonces

∑si=1 λiei ∈ V de acuerdo con 3, ası que

λ1e1 + . . .+ λses = µ1v1 + . . .+ µrvr

para ciertos escalares µ1, . . . , µr. Luego∑si=1 λiei −

∑rj=1 µjvj = 0, y como los vectores

v1, . . . , vr, e1, . . . , es son linealmente independientes, concluimos que λ1 = . . . = λs = 0.

Teorema de Rouche-Frobenius (1832-1910, 1849-1917): Un sistema de ecuaciones linea-les AX = B es compatible si y solo si rgA = rg(A|B) .

Demostracion: Sean A1, . . . , An las columnas de A, de modo que el sistema AX = B puedeescribirse x1A1+ . . .+xnAn = B, y la condicion de que sea compatible significa que en Km

tenemos que B ∈ 〈A1, . . . , An〉; es decir, que 〈A1, . . . , An〉 = 〈A1, . . . , An, B〉.Ahora bien, el teorema 2.6 afirma que

〈A1, . . . , An〉 = 〈A1, . . . , An, B〉 ⇔ dim〈A1, . . . , An〉 = dim〈A1, . . . , An, B〉

y, de acuerdo con 2.3, esta ultima condicion significa que rgA = rg (A|B).

2.3. Suma Directa

Definicion: Diremos que la suma V1 + . . . + Vr de unos subespacios vectoriales V1, . . . , Vrde un espacio vectorial E es directa si cada vector e ∈ V1 + . . .+ Vr descompone de modounico en la forma e = v1 + . . .+ vr, donde vi ∈ Vi.

En tal caso, el subespacio vectorial V1 + . . .+ Vr se denota V1 ⊕ . . .⊕ Vr.

Teorema 2.7 La condicion necesaria y suficiente para que la suma de dos subespacios vec-toriales V y W de un espacio vectorial E sea directa es que V ∩W = 0.

Demostracion: Si e ∈ V ∩W , tenemos que 0 = 0+0 = e+(−e), donde 0, e ∈ V y 0,−e ∈W .Si la suma de V y W es directa, la unicidad de la descomposicion del vector 0 en suma deun vector de V y otro de W implica que e = 0. Luego V ∩W = 0.

Recıprocamente, si V ∩W = 0 y un vector e ∈ V +W admite dos descomposiciones

e = v + w = v′ + w′ , donde v, v′ ∈ V, w,w′ ∈W

entonces v′ − v = w − w′ ∈W . Como v′ − v ∈ V , se sigue que v′ − v ∈ V ∩W = 0.Luego 0 = v′ − v = w − w′, y concluimos que v = v′ y w = w′.Es decir, tal descomposicion es unica, ası que la suma de V y W es directa.

Ejemplos:

1. Si e1, . . . , en es una base de un espacio vectorial E, entonces cada vector e ∈ E descom-pone de modo unico como combinacion lineal e = λ1e1 + . . .+ λnen; luego

E = Ke1 ⊕ . . .⊕Ken.

2. Sean p+ V y q +W dos subvariedades lineales de un espacio vectorial E. Dar un puntode corte es dar vectores v ∈ V , w ∈ W tales que p+ v = q + w; es decir, q − p = v − w.Por tanto, la condicion necesaria y suficiente para que se corten es que q− p ∈ V +W , yel punto de corte es unico cuando la suma V ⊕W es directa.

17

3. Aplicaciones Lineales

3.1. Aplicaciones Lineales

Definicion: Una aplicacion f : E → E′ entre dos K-espacios vectoriales es K-lineal si esmorfismo de grupos, f(e+ v) = f(e) + f(v), ∀e, v ∈ E, y

f(λ · e) = λ · f(e) para todo λ ∈ K, e ∈ E,

y, cuando K = C, es antilineal si es morfismo de grupos y f(λ ·e) = λ ·f(e), ∀λ ∈ K, e ∈ E.

Toda aplicacion lineal f cumple que f(λ1e1 + . . . + λnen) = λ1f(e1) + . . . + λnf(en), ytoda aplicacion antilineal f cumple que f(λ1e1 + . . .+ λnen) = λ1f(e1) + . . .+ λnf(en).

Proposicion 3.1 Si dos aplicaciones f : E → E′ y h : E′ → E′′ son K-lineales, entoncessu composicion h f : E → E′′, (h f)(e) = h

(f(e)

), tambien es K-lineal.

Demostracion: Como f y h son morfismos de grupos, tambien lo es h f por 1.5.Ademas, para todo λ ∈ K, e ∈ E tenemos que

(hf)(λe) = h(f(λe)

)= h

(λ · f(e)

)= λ · h(f(e)) = λ · (hf)(e).

Proposicion 3.2 El nucleo Ker f := e ∈ E : f(e) = 0 de cualquier aplicacion linealf : E → E′ es un subespacio vectorial de E, y su imagen Im f := e′ ∈ E′ : e′ = f(e),∃e ∈ Ees un subespacio vectorial de E′.

Demostracion: Como f es morfismo de grupos, de acuerdo con 1.6 tenemos que Ker f es unsubgrupo de E, y que Im f es un subgrupo de E′.

Ahora, si e ∈ Ker f y λK, entonces f(λe) = λf(e) = λ · 0 = 0, ası que λe ∈ Ker f .Si e′ ∈ Im f , existe e ∈ E tal que e′ = f(e); luego λe′ = λf(e) = f(λe) ∈ Im f , ∀λ ∈ K.

Ejemplos:

1. Una aplicacion lineal (o antilineal) f : E → E′ es epiyectiva si y solo si Im f = E′, y esinyectiva si y solo si Ker f = 0, de acuerdo con 1.7.

2. Cada matriz A ∈Mm×n(K) define una aplicacion lineal f : Kn → Km, f(X) = AX, cuyonucleo Ker f esta formado por todas las soluciones de la ecuacion homogenea AX = 0, yla condicion B ∈ Im f significa que el sistema AX = B es compatible.

3. Cada familia e1, . . . , en de vectores de un K-espacio vectorial E define una aplicacion

f : Kn −→ E , f(λ1, . . . , λn) = λ1e1 + . . .+ λnen ,

que siempre es K-lineal. La imagen de esta aplicacion lineal es Im f = Ke1 + . . .+Ken,ası que f es epiyectiva cuando e1, . . . , en generan E.

Ademas la condicion de que e1, . . . , en sean linealmente independientes significa queKer f = 0, de modo que en tal caso la aplicacion lineal f es inyectiva. Por tanto, cuandoe1, . . . , en forman una base de E, esta aplicacion lineal f es biyectiva.

4. Sea E el espacio vectorial complejo formado por las funciones complejas de variable realψ(x) = u(x) + iv(x) : R → C infinitamente derivables. La derivada define una aplicacionC-lineal d

dx : E −→ E, dψdx := u′(x) + iv′(x). Ademas, fijada una funcion ϕ ∈ E, la

aplicacion T : E −→ E, T (ψ) = ϕψ, tambien es C-lineal.

18

Matriz de una Aplicacion Lineal

Definicion: Sea f : E → E′ una aplicacion lineal entre dos espacios vectoriales de dimensionfinita. Si fijamos una base e1, . . . , en de E y una base e′1, . . . , e

′m de E′, tendremos que

f(ej) = a1je′1 + . . .+ amje

′m , 1 ≤ j ≤ n, (4)

para ciertos escalares aij ∈ K, y diremos que A = (aij) ∈ Mm×n(K) es la matriz de laaplicacion lineal f en las bases e1, . . . , en de E y e′1, . . . , e

′m de E′. La columna j de la

matriz A esta formada por las coordenadas del vector f(ej) en la base e′1, . . . , e′m de E′.

Ahora, para cada vector e = x1e1 + . . .+ xnen ∈ E tendremos que su imagen f(e) es

f(e) =n∑j=1

xjf(ej) =n∑j=1

m∑i=1

xjaije′i =

m∑i=1

( n∑j=1

aijxj

)e′i .

Es decir, si X denota las coordenadas del vector e en la base e1, . . . , en, puestas encolumna, entonces las coordenadasX ′ de f(e) en la base e′1, . . . , e

′m se obtienen multiplicando

X por la matriz A de f en las bases consideradas:

X ′ = AX. (5)

Proposicion 3.3 Si A es la matriz de una aplicacion lineal f : E → E′, entonces

dim (Im f) = rgA.

Demostracion: Como f(∑i λiei) =

∑i λif(ei), la imagen de f esta generada por los vectores

f(e1), . . . , f(en):Im f = 〈f(e1), . . . , f(en)〉

y tenemos que dim 〈f(e1), . . . , f(en)〉 = rgA de acuerdo con 2.3 y 4.

Ejemplos: Sea A ∈Mm×n(K). La matriz de la aplicacion lineal f : Kn → Km, f(X) = AX,en las bases usuales de Kn y Km es A, de modo que dim (Im f) = rgA.

Si A es la matriz de una aplicacion lineal f : E → E′ en ciertas bases e1, . . . , en de Ey e′1, . . . , e

′m de E′, y B es la matriz de otra aplicacion lineal g : E′ → E′′ en ciertas bases

e′1, . . . , e′m de E′ y e′′1 , . . . , e

′′r de E′′, entonces su producto BA es la matriz de la composicion

g f en las bases e1, . . . , en y e′′1 , . . . , e′′r .

3.2. Teorema de Isomorfıa

Definicion: Una aplicacion K-lineal f : E → E′ es un isomorfismo cuando es biyectiva, yen tal caso la aplicacion inversa f−1 : E′ → E tambien es K-lineal y por supuesto biyectiva,ası que f−1 tambien es un isomorfismo.

En efecto, si e′, v′ ∈ E′, entonces e′ = f(e) y v′ = f(v), donde e, v ∈ E, de modo que

f−1(e′ + v′) = f−1(f(e) + f(v)

)= f−1

(f(e+ v)

)= e+ v = f−1(e′) + f−1(v′),

f−1(λe′) = f−1(λf(e)

)= f−1

(f(λe)

)= λe = λ · f−1(e′).

Diremos que dosK-espacios vectoriales E y E′ son isomorfos si existe algun isomorfismoK-lineal f : E → E′, en cuyo caso pondremos E ' E′.

Ejemplos:

1. Si una matriz A ∈Mn×n(K) es invertible, la aplicacion lineal f : Kn → Kn, f(X) = AX,es un isomorfismo, y el isomorfismo inverso f−1 : Kn → Kn es precisamente el que definela matriz inversa A−1; es decir, f−1(X) = A−1X.

19

2. Si V1, . . . , Vn son subespacios vectoriales de un espacio vectorial E, la aplicacion

s : V1 × . . .× Vn → V1 + . . .+ Vn , s(v1, . . . , vn) = v1 + . . .+ vn ,

es lineal y epiyectiva. Ademas esta aplicacion lineal s es inyectiva precisamente cuandola suma es directa, de modo que en tal caso V1 × . . .× Vn ' V1 ⊕ . . .⊕ Vn.

3. Si e1, . . . , en es una base de un K-espacio vectorial E, entonces la aplicacion lineal

f : Kn −→ E f(x1, . . . , xn) = x1e1 + . . .+ xnen,

es un isomorfismo. El isomorfismo inverso f−1 : E → Kn asigna a cada vector e ∈ E suscoordenadas (x1, . . . , xn) en la base e1, . . . , en.

Por tanto, todo K-espacio vectorial de dimension n es isomorfo a Kn.

4. Los isomorfismos transforman vectores linealmente independientes en vectores linealmen-te independientes, y sistemas de generadores en sistemas de generadores; luego bases enbases. Por tanto, si E ' E′, entonces dimE = dimE′.

Teorema de Isomorfıa: Toda aplicacion lineal f : E → E′ es constante en las subva-riedades lineales e + Ker f con direccion el nucleo, y la aplicacion ϕ : E/Ker f → Im f ,ϕ([e]) = f(e), es un isomorfismo lineal:

E/Ker f ' Im f.

Demostracion: Si u ∈ e+Ker f , entonces u = e+ v, ∃v ∈ Kerf ; luego f(v) = 0 y

f(u) = f(e+ v) = f(e) + f(v) = f(e) + 0 = f(e).

Veamos ahora que la aplicacion ϕ([e]) = f(e) es lineal:

ϕ([e] + [v]) = ϕ([e+ v]) = f(e+ v) = f(e) + f(v) = ϕ([e]) + ϕ([v])

ϕ(λ[e]) = ϕ([λe]) = f(λe) = λf(e) = λϕ([e]).

ϕ es inyectiva: Como es lineal, basta ver que Kerϕ = 0. Ahora bien, si 0 = ϕ([e]) = f(e),entonces e ∈ Ker f , luego [e] = 0 por 3.

ϕ es epiyectiva: Si e′ ∈ Im f , entonces existe e ∈ E tal que e′ = f(e) = ϕ([e]).

Corolario 3.4 Para toda aplicacion lineal f : E → E′ entre espacios vectoriales de dimen-sion finita se cumple que

dimE = dim (Ker f) + dim (Im f).

Demostracion: dim (Im f) = dim (E/Ker f)2.6= dimE − dim (Ker f) .

Corolario 3.5 Si A es la matriz de una aplicacion lineal f : E → E′ en ciertas bases,

dim (Ker f) = (no de columnas)− rgA.

Demostracion: dim (Ker f)3.4= dimE − dim (Im f)

3.3= dimE − rgA.

Corolario 3.6 Si A ∈ Mm×n(K), el conjunto V = X ∈ Kn : AX = 0 de las solucionesdel sistema homogeneo AX = 0 es un subespacio vectorial de Kn de dimension n − rgA;y las soluciones de un sistema no homogeneo compatible AX = B forman una subvariedadlineal de Kn de direccion AX = 0 y dimension n− rgA.

20

Demostracion: La matriz A ∈Mm×n(K) define una aplicacion lineal f : Kn → Km, f(X) =AX, y V es precisamente el nucleo de f . La matriz de f en las bases usuales de Kn y Km

es A, ası que 3.5 afirma que la dimension de V es n− rgA.Por ultimo, si un sistema AX = B es compatible, las soluciones se obtienen sumando a

una solucion particular X0 las soluciones de la ecuacion homogenea AX = 0; luego formanla subvariedad lineal X0 + V y, por tanto, su dimension tambien es n− rgA.

Ecuaciones Implıcitas: Conocidas las ecuaciones parametricas de una subvariedad linealX de dimension d en un espacio vectorial de dimension n, un metodo para hallar ecuacionesimplıcitas de X es despejar los d parametros en funcion de las coordenadas del punto de X(usando transformaciones elementales en d ecuaciones) para despues sustituir esos valoresen las restantes n− d ecuaciones. Veamos un metodo alternativo:

Fijada una base (e1, e2, e3, e4) de un espacio vectorial E de dimension 4, consideremosla subvariedad lineal X de ecuaciones parametricas

x1 = λ1 + 4λ2 + 2x2 = 2λ1 + 3λ2 + 1x3 = 3λ1 + 2λ2 + 1x4 = 4λ1 + λ2 + 3

,

x1x2x3x4

=

2113

+ λ1

1234

+ λ2

4321

cuya direccion V admite como base los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), demodo que dimV = 2. Hallemos primero ecuaciones implıcitas de la direccion V .

Si (x1, x2, x3, x4) son las coordenadas de un vector de V , entonces

2 = rg

1 4 x12 3 x23 2 x34 1 x4

, 0 =

∣∣∣∣∣∣1 4 x12 3 x23 2 x3

∣∣∣∣∣∣ = −5x1 + 10x2 − 5x3

0 =

∣∣∣∣∣∣1 4 x12 3 x24 1 x4

∣∣∣∣∣∣ = −10x1 + 15x2 − 5x4

y las coordenadas de los vectores de V son soluciones del sistema homogeneo

x1 − 2x2 + x3 = 02x1 − 3x2 + x4 = 0

(6)

Como ambos subespacios vectoriales de K4 tienen dimension 2, coinciden, y (6) son lasecuaciones implıcitas de V . Ahora, como X pasa por el punto de coordenadas (2, 1, 1, 3), lasecuaciones implıcitas de X son

x1 − 2x2 + x3 = 12x1 − 3x2 + x4 = 4

Teorema 3.7 Si V y W son dos subespacios vectoriales de un espacio vectorial de dimen-sion finita E, entonces

dim (V +W ) = dimV + dimW − dim (V ∩W )

Demostracion: Consideremos la aplicacion lineal f : V → (V +W )/W , f(v) = [v], que esepiyectiva, pues para toda clase [v + w] ∈ (V +W )/W tenemos que

[v + w] = [v] + [w] = [v] + 0 = f(v) ,

y su nucleo es Ker f = v ∈ V : [v] = 0 = V ∩W . Terminamos por 3.4 y 2.6:

dimV = dim (V ∩W ) + dim (V +W )/W = dim (V ∩W ) + dim (V +W )− dimW .

21

Corolario 3.8 Sean V yW dos subespacios vectoriales de un espacio vectorial de dimensionfinita E. Si la suma de V y W es directa, entonces dim (V ⊕W ) = dimV + dimW .

Demostracion: De acuerdo con 2.7 tenemos que V ∩W = 0.

Corolario 3.9 Si E y E′ son dos K-espacios vectoriales de dimension finita,

dim (E × E′) = dimE + dimE′.

Demostracion: La aplicacion p : E × E′ → E′, p(e, e′) = e′, es lineal, epiyectiva (su imagenes E′), y su nucleo E × 0 es isomorfo a E. Terminamos por 3.4:

dim (E × E′) = dim (Ker p) + dim (Im p) = dimE + dimE′.

3.3. Cambio de Base

Definicion: Sea e1, . . . , en una base de un espacio vectorial E. Si consideramos una nuevabase v1, . . . , vn de E, tendremos escalares bij ∈ K tales que

vj = b1je1 + . . .+ bnjen , 1 ≤ j ≤ n, (7)

y diremos que B = (bij) ∈Mn×n(K) es la matriz de cambio de base. Sus columnas estanformadas por las coordenadas de los vectores de la nueva base en la antigua. Es decir, B esla matriz de la identidad Id: E → E cuando en el espacio de salida se considera la nuevabase v1, . . . , vn y en el de llegada la base antigua e1, . . . , en.

De acuerdo con 5, si Y son las coordenadas de un vector e ∈ E en la nueva base, y Xson las coordenadas de Id(e) = e en la base antigua, tendremos que X = BY .

Por otra parte, tambien tenemos una matriz de cambio de base C ∈ Mn×n(K) cuandose considera que v1, . . . , vn es la base inicial de E y que e1, . . . , en es la nueva base, demodo que Y = CX. Luego X = BCX y Y = CBY , y como estas igualdades son validaspara cualesquiera columnas X,Y , se concluye que BC = CB = I. Es decir, la matriz B esinvertible, y su inversa es la matriz C. En resumen, la relacion entre las coordenadas X e Yde un mismo vector e ∈ E en las bases e1, . . . , en y v1, . . . , vn respectivamente es

X = BY , Y = B−1X. (8)

Veamos ahora como se transforma la matriz de una aplicacion lineal cuando se cambianlas bases. Sea f : E → E′ una aplicacion lineal y sea A ∈Mm×n(K) su matriz en ciertas basese1, . . . , en y e′1, . . . , e

′m de E y E′ respectivamente. Consideremos nuevas bases v1, . . . , vn y

v′1, . . . , v′m de E y E′ respectivamente, las correspondientes matrices de cambio de base

B ∈Mn×n(K) y C ∈Mm×m(K), y sea A ∈Mm×n(K) la matriz de f en estas nuevas basesde E y E′. Vamos a determinar A en funcion de A, B y C.

Sean X e Y las coordenadas de un vector e ∈ E en las bases e1, . . . , en y v1, . . . , vnrespectivamente, y sean X ′ e Y ′ las coordenadas de f(e) ∈ E′ en las bases e′1, . . . , e

′m y

v′1, . . . , v′m respectivamente. De acuerdo con 5 y 8 tendremos que

X ′ = AX , Y ′ = AY , X = BY , X ′ = CY ′.

AX = X ′ = CY ′ = CAY = CAB−1X.

Como esta igualdad es valida para cualquier columna X ∈ Kn, concluimos que

A = CAB−1 , A = C−1AB. (9)

22

4. Geometrıa Euclıdea

4.1. Producto Escalar

Definiciones: Dar un producto escalar en un K-espacio vectorial E es asignar a cadapar de vectores e, v ∈ E un escalar, que denotaremos e · v o 〈e|v〉, de modo que

1. Es lineal a la derecha y antilineal a la izquierda:

〈e|λv + µv′〉 = λ〈e|v〉+ µ〈e|v′〉 , 〈λe+ µe′|v〉 = λ〈e|v〉+ µ〈e′|v〉.

2. 〈v|e〉 = 〈e|v〉.

3. Es definido-positivo: 〈e|e〉 ≥ 0, y solo se da la igualdad cuando e = 0.

y se dice que dos vectores e, v ∈ E son ortogonales cuando 〈e|v〉 = 0 (y por tanto 〈v|e〉 = 0).Un isomorfismo lineal f : E → E es una isometrıa o un operador unitario cuando

conserva el producto escalar: 〈e|v〉 = 〈f(e)|f(v)〉, ∀e, v ∈ E.El modulo de un vector e ∈ E es el numero real ‖e‖ := +

√〈e|e〉 ≥ 0 (positivo cuando

e 6= 0), de modo que ‖e‖2 = 〈e|e〉, y ‖λe‖ = |λ| · ‖e‖.La distancia entre dos puntos p, q ∈ E es d(p, q) := ‖q − p‖.

Ejemplos:

1. El producto escalar usual en Kn es 〈(x1, . . . , xn)|(y1, . . . , yn)〉 := x1y1 + . . .+ xnyn.

2. Fijado un intervalo [a, b] ⊂ R, un producto escalar en el espacio vectorial complejo for-mado por las funciones continuas ψ : [a, b] → C, ψ(x) = u(x) + v(x)i, es

〈ψ|ϕ〉 :=∫ b

a

ψ(x)ϕ(x) dx , ‖ψ‖ =

∫ b

a

|ψ(x)|2 dx.

3. En Mecanica Cuantica, el espacio de estados de un sistema cuantico es un espacio vectorialcomplejo E (normalmente de dimension infinita) con un producto escalar, un estado delsistema es un subespacio vectorial unidimensional de E (normalmente representado poralguno de sus vectores de modulo 1, condicion que lo determina salvo un factor eiθ,θ ∈ R), y la evolucion temporal del estado del sistema viene dada, segun la ecuacion deSchrodinger (1886-1961), o de Dirac (1902-1984) en el caso relativista, por una familia deoperadores unitarios Ut : E → E, t ∈ R, que cumple Ut+s = Ut Us.

(1) Teorema de Pitagoras (s. VI a. de C.): ‖e+ v‖2 = ‖e‖2 + ‖v‖2 , cuando 〈e|v〉 = 0.

(2) Desigualdad de Cauchy-Schwarz (1789-1857, 1843-1921): |e · v| ≤ ‖e‖ · ‖v‖.

(3) Desigualdad triangular: ‖e+ v‖ ≤ ‖e‖+ ‖v‖.

Demostracion: ‖e+ v‖2 = (e+ v) · (e+ v) = e · e+ e · v + v · e+ v · v = ‖e‖2 + 0+ 0+ ‖v‖2.

(2) La desigualdad de Cauchy-Schwarz es obvia cuando e = 0.Cuando e 6= 0, ponemos v = λe+w, con λ ∈ K y e ·w = 0 (basta tomar λ = (e ·v)/(e ·e),

porque e · e 6= 0), y por el teorema de Pitagoras ‖v‖2 = |λ|2‖e‖2 + ‖w‖2.Ademas |e ·v| = |λ(e ·e)| = |λ| ·‖e‖2, y terminamos tomando raız cuadrada en la siguiente

desigualdad‖e‖2‖v‖2 = ‖e‖2(|λ|2‖e‖2 + ‖w‖2) ≥ |λ|2‖e‖4 = |e · v|2.

(3) Basta tomar raız cuadrada en la siguiente consecuencia de la desigualdad triangular,

‖e+ v‖2 = (e+ v) · (e+ v) = e · e+ v · v + e · v + e · v ≤≤ e · e+ v · v + 2|e · v| ≤ ‖e‖2 + ‖v‖2 + 2‖e‖ · ‖v‖ = (‖e‖+ ‖v‖)2.

23

Definicion: En el caso real, cuando e, v 6= 0, de acuerdo con la desigualdad de Cauchy-Schwarz tenemos que −1 ≤ e·v

∥e∥·∥v∥ ≤ 1, y se llama medida en radianes del angulo que

forman los vectores e y v al unico numero real α entre 0 y π que cumple

cosα =e · v

‖e‖ · ‖v‖·

Notese que α = π2 justo cuando e y v son ortogonales, e · v = 0.

El angulo que forman 3 puntos distintos apc se define como el angulo que forman losvectores no nulos pa = a− p y pc = c− p.

4.2. Espacios Vectoriales Euclıdeos

Definicion: Llamaremos espacio vectorial euclıdeo2, en honor de Euclides (c. 325-265a. de C.), a todo espacio vectorial E de dimension finita dotado de un producto escalar, ydiremos que el ortogonal de un subespacio vectorial V de E es:

V ⊥ := e ∈ E : 〈v|e〉 = 0 para todo vector v ∈ V .

Teorema 4.1 El ortogonal es un subespacio vectorial de E de dimension:

dimV ⊥ = dimE − dimV.

Demostracion: Sea v1, . . . , vd una base de V , y consideremos el nucleo de la aplicacion lineal

f : E −→ Kd , f(e) = (v1 · e, . . . , vd · e)Ker f = e ∈ E : v1 · e = . . . = vd · e = 0 = (Kv1 + . . .+Kvd)

⊥ = V ⊥

En efecto, si un vector e es ortogonal a ciertos vectores, v1 · e = . . . = vd · e = 0, entoncestambien es ortogonal a todas sus combinaciones lineales,

(λ1v1 + . . .+ λdvd) · e = λ1(v1 · e) + . . .+ λr(vd · e) = 0,

de modo que e ∈ (Kv1 + . . .+Kvd)⊥. Luego V ⊥ es un subespacio vectorial de E y

dimE3.4= dimV ⊥ + dim (Im f) ≤ dimV ⊥ + d = dimV ⊥ + dimV, (10)

donde la desigualdad se debe a que la imagen de f es un subespacio vectorial de Rd.

Por otra parte, si v ∈ V ⊥ ∩V , entonces v · v = 0; luego v = 0, porque el producto escalares definido-positivo, y vemos que V ⊥ ∩ V = 0. Por tanto

dimV ⊥ + dimV3.7= dim (V ⊥ + V ) ≤ dimE (11)

y comparando con 10 concluimos que dimV ⊥ + dimV = dimE.

Corolario 4.2 E = V ⊥ ⊕ V y (V ⊥)⊥ = V .

Demostracion: Como V ⊥ ∩ V = 0, la suma de V y V ⊥ es directa por 2.7 y, de acuerdocon 3.8, su dimension es dim (V ⊥ ⊕ V ) = dimV ⊥ + dimV = dimE, ası que 2.6.1 permiteconcluir que V ⊥ ⊕ V = E. Ademas V ⊆ (V ⊥)⊥ por definicion de V ⊥, y por 4.1

dim (V ⊥)⊥ = dimE − dim (V ⊥) = dimE − (dimE − dimV ) = dimV,

ası que de nuevo 2.6.1 permite concluir que (V ⊥)⊥ = V .

2Los espacios euclıdeos complejos reciben tambien el nombre de espacios vectoriales hermıticos, enhonor de Hermite (1822-1901).

24

Corolario 4.3 Si V y W son subespacios vectoriales de un espacio vectorial euclıdeo E,

1. 0⊥ = E , E⊥ = 0.

2. V ⊆W ⇔ W⊥ ⊆ V ⊥ , y en particular V =W ⇔ V ⊥ =W⊥.

3. (V +W )⊥ = V ⊥ ∩W⊥.

4. (V ∩W )⊥ = V ⊥ +W⊥.

Demostracion: Es obvio que 0⊥ = E; y E⊥ = 0 porque si e ∈ E⊥, entonces e · e = 0.

2.– Si V ⊆ W , es claro que W⊥ ⊆ V ⊥ . Recıprocamente, si W⊥ ⊆ V ⊥, entonces(V ⊥)⊥ ⊆ (W⊥)⊥; luego V ⊆W de acuerdo con 4.2.

3.– Como V ⊆ V +W y W ⊆ V +W , tenemos que (V +W )⊥ ⊆ V ⊥ y (V +W )⊥ ⊆W⊥;luego (V +W )⊥ ⊆ V ⊥ ∩W⊥.

Ademas, si e ∈ V ⊥ ∩ W⊥, entonces e · (v + w) = e · v + e · w = 0 para todo vectorv + w ∈ V +W . Luego V ⊥ ∩W⊥ ⊆ (V +W )⊥ y concluimos que (V +W )⊥ = V ⊥ ∩W⊥.

4.– De acuerdo con el segundo apartado, para demostrar que (V ∩W )⊥ = V ⊥ +W⊥

basta ver que sus ortogonales coinciden:(V ⊥ +W⊥)⊥ 3

= (V ⊥)⊥ ∩ (W⊥)⊥4.2= V ∩W 4.2

=((V ∩W )⊥

)⊥.

Ejemplos:

1. Se llama distancia de un punto p a una subvariedad lineal X al ınfimo de las distanciasde p a los puntos de X; i.e. d(p,X) := ınfx∈X d(p, x). Pues bien, existe un unico puntoq ∈ X tal que p − q es ortogonal a la direccion de X. Ademas, la distancia de p a X sealcanza en tal punto: d(p, q) = d(p,X).

En efecto, si X = x+ V , segun 4.2 tendremos p− x = v + w (es decir p− (x+ v) = w)con v ∈ V y w ∈ V ⊥, y esta descomposicion es unica. Luego q = x+ v es el unico puntode X tal que p− q ∈ V ⊥. Para cualquier otro punto x′ ∈ X, por el teorema de Pitagorasd(p, x′)2 = d(p, q)2 + d(q, x′)2, ası que d(p, q) < d(p, x′) cuando x′ 6= q.

2. Si V es un subespacio vectorial de un espacio vectorial euclıdeo E, de acuerdo con 4.2tenemos que E = V ⊥ ⊕ V . La aplicacion lineal SV : E → E que es la identidad en Vy transforma cada vector de V ⊥ en su opuesto se llama simetrıa respecto de V , y laaplicacion lineal PV : E → E que es la identidad en V y se anula en todos los vectores deV ⊥ se llama proyeccion ortogonal sobre V . Es decir, cada vector e ∈ E descomponede modo unico en suma, e = v + w, de un vector v ∈ V y otro w ∈ V ⊥, y por definicionSV (e) = v − w, PV (v + w) = v. En particular, SV = 2PV − IdE .

4.3. Bases Ortonormales

Definicion: Una base u1, . . . , un de un espacio vectorial euclıdeo E es ortonormal cuandotodos los vectores de la base son de modulo 1 y mutuamente ortogonales:

〈ui|uj〉 = δij :=

1 cuando i = j

0 cuando i 6= j

En una base ortonormal el producto escalar de dos vectores e, v ∈ E de coordenadasXt = (x1, . . . , xn), Y

t = (y1, . . . , yn) es

〈e|v〉 = (x1u1 + . . .+ xnun) · (y1u1 + . . .+ ynun) = x1y1 + . . .+ xnyn = XtY,

y en particular 〈e|e〉 = XtX =∑i xixi =

∑i |xi|2.

25

Un isomorfismo T : E → E, de matriz A en una base ortonormal, es una isometrıa cuandoXtY = (AX)t(AY ) = XtAtAY para cualesquiera columnas X,Y ∈ Kn; i.e. cuando A esuna matriz unitaria: AtA = In.

Ejemplos: En Mecanica Clasica, el espacio (fijado un origen y la unidad de longitud) es unespacio euclıdeo real de dimension 3 y una base ortonormal suele denotarse i,j,k.

Sean a1, . . . , an numeros enteros distintos. Las funciones ei2πa1x, . . . , ei2πanx forman una

base ortonormal de Cei2πa1x+. . .+Cei2πanx, con el producto escalar 〈ψ|ϕ〉 =∫ 1

0ψ(x)ϕ(x) dx:

〈ei2πaix|ei2πajx〉 =∫ 1

0

ei2π(aj−ai)x dx =

∫ 1

0

dx = 1 , i = j[ei2π(aj−ai)x

2π(aj − ai)i

]10

= 0 , i 6= j

Lema 4.4 Si unos vectores no nulos e1, . . . , en son mutuamente ortogonales, 〈ei|ej〉 = 0cuando i 6= j, entonces son linealmente independientes.

Demostracion: Si∑λiei = 0, entonces 0 = ej · (

∑i λiei) =

∑i λi(ej · ei) = λj(ej · ej) para

todo ındice j = 1, . . . , n; y concluimos que λj = 0 porque ej · ej 6= 0.

Teorema 4.5 Todo espacio vectorial euclıdeo E 6= 0 admite bases ortonormales.

Demostracion: Procedemos por induccion sobre n = dimE. Cuando n = 1, tenemos queE = Kv. Si tomamos u = v/‖v‖, entonces u · u = 1 y u ya es una base ortonormal de E.

Si n > 1, tomamos un vector no nulo v ∈ E y ponemos un = v/‖v‖, de modo que〈un|un〉 = 1. De acuerdo con 4.1, dim (Kun)

⊥ = n − 1, ası que por hipotesis de induccionexiste una base ortonormal u1, . . . , un−1 de (Kun)

⊥.Los vectores u1, . . . , un son de modulo 1 y mutuamente ortogonales, luego linealmente

independientes y, de acuerdo con 2.5, forman una base de E.

Metodo de ortonormalizacion de Gram-Schmidt (1850-1916, 1876-1959):Dada una base e1, . . . , en de E, cada uno de los siguientes vectores vi

v1 = e1 6= 0 , 〈v1〉 = 〈e1〉

v2 = e2 −v1 · e2v1 · v1

v1 6= 0 , 〈v1, v2〉 ⊆ 〈e1, e2〉

v3 = e3 −v1 · e3v1 · v1

v1 −v2 · e3v2 · v2

v2 6= 0 , . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . , 〈v1, . . . , vi−1〉 ⊆ 〈e1, . . . , ei−1〉

vi = ei −v1 · eiv1 · v1

v1 − . . .− vi−1 · eivi−1 · vi−1

vi−1 6= 0 , . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . , 〈v1, . . . , vn−1〉 ⊆ 〈e1, . . . , en1〉

vn = en − v1 · env1 · v1

v1 − . . .− vn−1 · envn−1 · vn−1

vn−1 6= 0 ,

es no nulo, porque ei /∈ 〈e1, . . . , ei−1〉, y ortogonal a los anteriores, vi · vj = 0 cuando i 6= j.Los vectores u1 = v1/‖v1‖, . . . , un = vn/‖vn‖ ya cumplen que ui · uj = δij ; luego son

linealmente independientes y, segun 2.5, forman una base de E.

26

5. Endomorfismos

Sea p(x) un polinomio no constante con coeficientes complejos. En este capıtulo usaremosel siguiente teorema fundamental, que se demostrara en el curso de Variable Compleja:

Teorema de D’Alembert (1717-1783): Todo polinomio no constante con coeficientes com-plejos admite alguna raız compleja.

Regla de Ruffini (1765-1822): Si α es una raız compleja de p(x), entonces

p(x) = (x− α)q(x).

Demostracion: Dividiendo p(x) por x − α tendremos que p(x) = (x − α)q(x) + r, donde elresto r es de grado menor que 1; luego constante.

Sustituyendo x = α en esta igualdad obtenemos que el resto es nulo:

0 = p(α) = (α− α)q(α) + r = r.

Definicion: Si α es una raız compleja de p(x), llamaremos multiplicidad de tal raız almayor numero natural m tal que (x− α)m divida a p(x).

Las raıces de multiplicidad 1 se denominan simples.

Consideremos una raız compleja α1 de p(x), que tendra cierta multiplicidad m1, demodo que p(x) = (x − α1)

m1q1(x), donde el polinomio q1(x) ya no admite la raız α1.Tomemos una raız compleja α2 de q1(x), que tendra cierta multiplicidad m2, de modo quep(x) = (x − α1)

m1(x − α2)m2q2(x). Por el teorema de D’Alembert, podemos proceder ası

hasta que el factor qi(x) sea constante, y obtenemos una descomposicion

p(x) = c(x− α1)m1(x− α2)

m2 . . . (x− αr)mr , (12)

donde α1, . . . , αr son las raıces complejas de p(x), los exponentes m1, . . . ,mr son sus res-pectivas multiplicidades, y c es constante.

Esta descomposicion muestra que el numero de raıces complejas de un polinomio noconstante, contadas con su multiplicidad, coincide siempre con el grado del polinomio.

Nota: Las raıces racionales a/b (donde a y b son enteros primos entre sı) de un polinomiocon coeficientes enteros cdx

d + . . .+ c0 se hallan usando que a divide a c0 y b divide a cd.En efecto, de la igualdad cda

d+cd−1ad−1b+ . . .+c1ab

d−1+c0bd = 0 se sigue que a divide

a c0bd = −cdad− cd−1a

d−1b− . . .− c1abd−1, y como a no tiene factores primos comunes con

b, ha de dividir a c0. Analogamente se prueba que b divide a cd.Ası, las posibles raıces racionales de p(x) = 32x5 − 16x4 − 32x3 − 16x2 − 10x − 3 son

x = ±2−n,±2−n3, con n = 0, 1, 2, 3, 4, 5. Sustituyendo vemos que son x = − 12 y x = 3

2 :

p(x) = 2(x+ 12 )(16x

4 − 16x3 − 8x2 − 4x− 3) = 4(x+ 12 )

2(8x3 − 12x2 + 2x− 3)

= 8(x+ 12 )

2(x− 32 )(4x

2 + 1) = 32(x+ 12 )

2(x− 32 )(x+ i

2 )(x− i2 ).

5.1. Valores y Vectores Propios

Definicion: Los endomorfismos u operadores lineales de un K-espacio vectorial E sonlas aplicaciones K-lineales T : E → E. Si S, T : E → E son endomorfismos, su suma S + T ,el producto λT por un escalar λ, y su producto ST := S T son los endomorfismos

(S + T )(e) := S(e) + T (e) , (λT )(e) := λ(T (e)

), (ST )(e) = S

(T (E)

).

27

Definiciones: Dado un endomorfismo T de unK-espacio vectorial E, diremos que un escalarα ∈ K es un valor propio o autovalor de T si existe algun vector no nulo e ∈ E tal queT (e) = αe, en cuyo caso diremos que e es un vector propio o autovector de T y ponemos

Vα := e ∈ E : T (e) = αe = e ∈ E : αId(e)− T (e) = 0 = Ker (αId− T )

de modo que Vα es un subespacio vectorial no nulo de E, llamado subespacio propio delvalor propio α.

Fijada una base e1, . . . , en de E, el endomorfismo T : E → E esta determinado por sumatriz A = (aij) ∈Mn×n(K) en tal base:

T (ej) =n∑i=1

aijei , j = 1, . . . , n.

Las ecuaciones implıcitas de Vα son (αI −A)X = 0, y de acuerdo con 3.5,

dimVα = (no de columnas)− rg(αI −A).

Ejemplos:

1. Un endomorfismo T tiene el valor propio 0 si y solo si KerT 6= 0, es decir, cuando T noes inyectivo, en cuyo caso V0 = KerT .

2. Sea V un subespacio vectorial de un espacio vectorial euclıdeo E. Si V 6= 0, E, entonceslos valores propios de la proyeccion ortogonal PV son 0 y 1, y V1 = V , V0 = V ⊥. Ademas,los valores propios de la simetrıa SV son 1 y −1, y V1 = V , V−1 = V ⊥.

3. Sea u1, u2 una base ortonormal de un plano euclıdeo real E, y sea T : E → E el giro deangulo π/2, definido por las igualdades T (u1) = u2, T (u2) = −u1. Este endomorfismo notiene ningun valor propio.

4. Sea E el espacio vectorial complejo formado por las funciones ψ : R → C infinitamentederivables. Todo numero complejo α es un valor propio del operador lineal d

dx : E → E

porque ddx (e

αx) = αeαx. Si y(x) es otra funcion infinitamente derivable tal que y′ = αy,entonces α = y′/y = (ln y)′, de modo que ln y = αx+c, y vemos que y(x) = ec+αx = λeαx

para algun λ ∈ C. En este caso Vα = Ceαx es de dimension 1.

5. Sea E el espacio vectorial complejo formado por todas las funciones ψ : R → C. Losvalores propios del operador lineal Π: C(R,C) → C(R,C), Π(ψ(x)) = ψ(−x), son 1 y−1. Ademas E = V1 + V−1 porque ψ(x) = 1

2 (ψ(x) + ψ(−x)) + 12 (ψ(x)− ψ(−x)).

Definicion: Si A = (aij) ∈ Mn×n(K) es la matriz de un endomorfismo T : E → E en unabase de E, diremos que el polinomio

cT (x) :=

∣∣∣∣∣∣∣∣x− a11 −a12 . . . −a1n−a21 x− a22 . . . −a2n. . . . . . . . . . . .

−an1 −an2 . . . x− ann

∣∣∣∣∣∣∣∣ = xn −( n∑i=1

aii

)xn−1 + . . .+ (−1)n|A|

es el polinomio caracterıstico de T , pues no depende de la base elegida, solo de T .En efecto, si se considera una nueva base en E, y B es la matriz del cambio de base,

segun 9 la matriz A de T en la nueva base es

A = B−1AB (13)

y tenemos que

|xI − A| = |xB−1IB −B−1AB| = |B−1(xI −A)B| = |B−1| · |xI −A| · |B| == |B−1| · |B| · |xI −A| = |B−1B| · |xI −A| = |I| · |xI −A| = |xI −A|.

28

Teorema 5.1 Sea T un endomorfismo de un K-espacio vectorial E de dimension n. Losvalores propios de T son las raıces en K de su polinomio caracterıstico cT (x).

Demostracion: Por definicion, α ∈ K es un valor propio de T precisamente cuando

0 6= dimVα = n− rg (αI −A),

lo que significa que rg (αI −A) < n; es decir, que cT (α) = |αI −A| = 0.

Corolario 5.2 El numero de valores propios de un endomorfismo de un espacio vectorialde dimension n siempre es menor o igual que n.

Demostracion: El grado del polinomio caracterıstico es n, y el numero de raıces en K de unpolinomio siempre esta acotado por el grado del polinomio.

Corolario 5.3 Todo endomorfismo de un espacio vectorial complejo de dimension finitatiene algun valor propio.

Demostracion: Es consecuencia directa de 5.1 y del Teorema de D’Alembert.

Teorema de Hamilton-Cayley (1805-1865 y 1821-1895): El polinomio caracterıstico c(x) =xn + . . .+ c1x+ c0 de un endomorfismo T de un K-espacio vectorial de dimension finita Esiempre anula al endomorfismo: c(T ) := Tn + . . .+ c1T + c0Id = 0.

Demostracion: Si A ∈ Mn×n(K) es la matriz de T en una base de E, la matriz del endo-morfismo c(T ) es c(A) = An + . . .+ c1A+ c0I = 0, ası que el teorema afirma que c(A) = 0,donde c(x) = |xI −A|; luego basta probarlo en el caso K = C.

En tal caso procedemos por induccion sobre n = dimE. Si n = 1, entonces A = (a) paraalgun escalar a ∈ C. Luego c(x) = x− a y c(A) = A− aI = 0.

Si n > 1, de acuerdo con 5.3, el endomorfismo T tiene algun valor propio α ∈ C.Consideremos un vector propio e1 ∈ E de valor propio α, y una base e1, . . . , en en E. Lamatriz A de T en esta base es de la forma

A =

(α . . .0 A

)para cierta matriz cuadrada A de n− 1 columnas. Luego c(x) = (x− α)c(x), donde c(x) =|xI − A| y, por hipotesis de induccion, c(A) = 0. Ahora

Ar =

(αr . . .0 Ar

)

c(A) = (A− αI)c(A) =

(0 . . .0 B

)(c(α) . . .0 c(A)

)=

(0 . . .0 B

)(c(α) . . .0 0

)= 0 .

5.2. Diagonalizacion de Endomorfismos

Definicion: Un endomorfismo T de un K-espacio vectorial de dimension finita E es dia-gonalizable si existe alguna base e1, . . . , en de E formada por vectores propios de T ; i.e.,T (ej) = αjej para ciertos escalares αj ∈ K, lo que significa que la matriz de T en tal basees diagonal (todos sus coeficientes son nulos, salvo quizas los de la diagonal):

D =

α1 0 . . . 00 α2 . . . 0. . . . . . . . . . . .0 0 . . . αn

29

De acuerdo con 13, un endomorfismo T de matriz A es diagonalizable si existe algunamatriz invertible B tal que D = B−1AB es una matriz diagonal. En tal caso A = BDB−1,y es sencillo calcular las potencias Am (y por tanto, la solucion general Xm = AmX0 delsistema de ecuaciones en diferencias finitas Xm+1 = AXm), porque

Am = (BDB−1)(BDB−1) . . . (BDB−1) = BDmB−1.

Igualmente, la solucion general del sistema de ecuaciones diferenciales Y ′ = AY es Y = BY ,donde Y es la solucion general del sistema Y ′ = DY . En efecto:

Y ′ = BY ′ = BDY = BDB−1Y = AY.

Teorema 5.4 Sean α1, . . . , αm valores propios de un endomorfismo T , distintos entre sı.La suma de los subespacios propios Vα1

, . . . , Vαmsiempre es directa, y por tanto

dim (Vα1 ⊕ . . .⊕ Vαm) = dimVα1 + . . .+ dimVαm .

Demostracion: Sea Vα1× . . . × Vαm

el espacio vectorial formado por las sucesiones de vec-tores (v1, . . . , vm), donde vi ∈ Vαi . Por definicion de suma directa, hemos de probar que esinyectiva la siguiente aplicacion lineal (que siempre es epiyectiva):

s : Vα1× . . .× Vαm

−→ Vα1+ . . .+ Vαm

, s(v1, . . . , vm) = v1 + . . .+ vm.

Procedemos por induccion sobre m, y el enunciado es obvio cuando m = 1.Si m > 1 y v1 + . . .+ vm = 0, donde vi ∈ Vαi

, tendremos que

0 = T (v1 + . . .+ vm) = α1v1 + . . .+ αmvm

y restando la igualdad 0 = αm(v1 + . . .+ vm) obtenemos que

0 = (α1 − αm)v1 + . . .+ (αm−1 − αm)vm−1 .

Por hipotesis de induccion, se sigue que (α1 − αm)v1 = . . . = (αm−1 − αm)vm−1 = 0.Como αi 6= αj cuando i 6= j, concluimos que v1 = . . . = vm−1 = 0, y por tanto que

tambien 0 = v1 + . . .+ vm−1 + vm = 0 + . . .+ 0 + vm = vm.

Por ultimo, dim (Vα1⊕ . . .⊕ Vαm

) = dimVα1+ . . .+ dimVαm

, de acuerdo con 3.8.

Corolario 5.5 Sean α1, . . . , αr todos los valores propios de un endomorfismo T de un es-pacio vectorial E de dimension finita. Las siguientes condiciones son equivalente:

1. T es diagonalizable.

2. E = Vα1⊕ . . .⊕ Vαr

.

3. dimE = dimVα1+ . . .+ dimVαr

.

Demostracion: (1 ⇒ 2) Si T es diagonalizable, por definicion Vα1 ⊕ . . . ⊕ Vαr contiene unabase de E, y como es un subespacio vectorial de E, concluimos que Vα1

⊕ . . .⊕ Vαr= E.

(2 ⇒ 1) Si Vα1 ⊕ . . .⊕Vαr = E, considerando una base en cada sumando Vαi obtenemosun sistema de generadores de Vα1 ⊕ . . .⊕ Vαr = E formado por vectores propios de T , y 2.1permite concluir que E admite una base formada por vectores propios de T .

(2 ⇔ 3) Como Vα1 ⊕ . . .⊕ Vαr es un subespacio vectorial de E, coincide con E si y solosi dimE = dim (Vα1 ⊕ . . .⊕ Vαr ) = dimVα1 + . . .+ dimVαr .

Corolario 5.6 Si el numero de valores propios coincide con el grado del polinomio carac-terıstico, entonces T es diagonalizable.

30

Demostracion: Si α es un valor propio de T , entonces 1 ≤ dimVα, ası que

r ≤ dimVα1 + . . .+ dimVαr = dim (Vα1 ⊕ . . .⊕ Vαr ) ≤ dimE.

Luego, si r = gr cT (x) = dimE, estas desigualdades son igualdades, y T es diagonalizable.

Ejemplo: Para resolver la ecuacion diferencial y′′ = ay′ + by, a, b ∈ C, planteamos elsiguiente sistema de ecuaciones diferenciales con una nueva funcion incognita z:

y′ = z

z′ = az + by,

(yz

)′

=

(0 1b a

)(yz

), A =

(0 1b a

)El polinomio caracterıstico del endomorfismo T : C2 → C2, T (X) = AX, es

cT (t) = |tI −A| =∣∣∣∣ t −1−b t− a

∣∣∣∣ = t2 − at− b.

Si el polinomio caracterıstico t2 − at− b tiene dos raıces distintas (a2 + 4b 6= 0)

α1 , α2 =a±

√a2 + 4b

2

estas son los valores propios de T . Para hallar vectores propios e1, e2 ∈ C2 de valores propiosα1 y α2 se han de resolver los sistemas de ecuaciones lineales homogeneos(

α1 −1−b α1 − a

)(x1x2

)=

(00

),

(α2 −1−b α2 − a

)(x1x2

)=

(00

)α1x1 − x2 = 0 , α2x1 − x2 = 0

Los vectores propios e1 = (1, α1) y e2 = (1, α2) forman una base de C2, y nos permitendiagonalizar la matriz A:

D =

(α1 00 α2

)= B−1AB , B =

(1 1α1 α2

)Ahora resolvemos el sistema de ecuaciones diferenciales Y ′ = DY :(

yz

)′

=

(α1 00 α2

)(yz

),

y′ = α1y

z′ = α2z,

y = c1e

α1x

z = c2eα2x

y la solucion general del sistema de ecuaciones diferenciales Y ′ = AY es Y = BY :(yz

)=

(1 1α1 α2

)(c1e

α1x

c2eα2x

)y(x) = c1e

α1x + c2eα2x , c1, c2 ∈ C.

Si a, b, c son reales y se buscan soluciones reales, cuando α1 y α2 son reales (a2+4b > 0),basta tomar c1, c2 ∈ R. Cuando a2 +4b < 0, el polinomio caracterıstico t2 − at− b tiene dos

raıces imaginarias α± iω = a2 ± i

√−a2−4b

2 , y las soluciones complejas son

y(x) = c1e(α+iω)x + c2e

(α−iω)x = eαx(c1e

iωx + c2e−iωx) , c1, c2 ∈ C.

En las soluciones reales, c1 y c2 han de ser conjugados, c1 = ρeiθ y c2 = ρe−iθ, ası que

y(x) = eαx(ρei(ωx+θ) + ρe−i(ωx+θ)

)= ceαx cos(ωx+ θ) , c, θ ∈ R.

31

5.3. Operadores Autoadjuntos

Definicion: Un endomorfismo T : E → E de un espacio vectorial E, dotado de un productoescalar, es autoadjunto o hermıtico, en honor de Hermite (1822-1901), cuando

〈T (e)|v〉 = 〈e|T (v)〉 , ∀e, v ∈ E.

Si E es de dimension finita, y A es la matriz de T en una base ortonormal u1, . . . , un deE, esta condicion significa que XtAtY = XtAY para cualesquiera columnas X,Y ∈ Kn; esdecir, que la matriz A es hermıtica o autoadjunta, A = At.

Cuando K = R, esta condicion significa que la matriz A es simetrica, A = At, y estecaso los endomorfismos autoadjuntos tambien se llaman simetricos.

Teorema Espectral: Todos los valores propios de un operador hermıtico T : E → E sonreales, y dos vectores propios de T de valores propios distintos siempre son ortogonales.Si ademas E es de dimension finita, E admite una base ortonormal formada por vectorespropios de T .

Demostracion: Si α es un valor propio de T , existe 0 6= e ∈ E tal que T (e) = αe. Comoe · e 6= 0, concluimos que α es real:

α(e · e) = e · (αe) = e · T (e) = T (e) · e = (αe) · e = α(e · e),

Ahora, si vα, vβ ∈ E son vectores propios de T de valores propios α 6= β, entonces α = α,y concluimos que vα · vβ = 0 porque

α(vα · vβ) = α(vα · vβ) = (αvα) · vβ = T (vα) · vβ = vα · T (vβ) = vα · (βvβ) = β(vα · vβ).

Por ultimo, cuando dimE < ∞, existe algun vector propio u de T , incluso si K = R,porque acabamos de ver que el polinomio caracterıstico de toda matriz hermıtica compleja(y las matrices reales simetricas lo son) tiene todas sus raıces reales. Despues de dividirlopor su modulo, podemos suponer que ‖u‖ = 1. Consideremos la recta Ku y su ortogonalV := (Ku)⊥, que es de dimension n−1, y es invariante por T , en el sentido de que T (V ) ⊆ V .En efecto, si v ∈ V , entonces T (v) · u = v · T (u) = v · (αu) = α(v · u) = 0, y T (v) ∈ V .

Luego T induce, por restriccion, un operador hermıtico T |V : V → V , T |V (v) = T (v), ysi procedemos por induccion sobre la dimension del espacio, V admite una base ortonormalu1, . . . , un−1 formada por vectores propios de T |V ; luego tambien de T .

Ahora u1, . . . , un−1, un := u es una base ortonormal de E formada por vectores propiosde T , porque son n = dimE vectores propios de modulo 1 y mutuamente ortogonales.

Teorema 5.7 Sean S, T dos operadores hermıticos de un espacio vectorial euclıdeo E. Siconmutan, ST = TS, entonces E admite una base ortonormal formada por vectores propiosde S y de T .

Demostracion: Sean α1, . . . , αr todos los valores propios de T , sean Vα1, . . . , Vαr

los corres-pondientes subespacios propios y pongamos di := dimVαi

.Si vi ∈ Vαi

, entonces T (vi) = αivi, de modo que tambien

T (S(vi)) = S(T (vi)) = S(αivi) = αiS(vi),

y vemos que S(vi) ∈ Vαi. Es decir, S(Vαi

) ⊆ Vαi, de modo que S induce por restriccion un

operador hermıtico S|V : Vαi → Vαi y, por el Teorema Espectral, existe una base ortonormalui1, . . . , u

idi

de Vαi formada por vectores propios de S (que tambien son vectores propios deT porque estan en Vαi

).Los vectores u11, . . . , u

1d1, . . . , ur1, . . . , u

rdr

son de modulo 1, y mutuamente ortogonales porel Teorema Espectral, luego linealmente independientes, y forman una base de E porque

32

d1+ . . .+dr = dim (Vα1 + . . .+Vαr ) = dimE de acuerdo con 5.5, ya que T es diagonalizableen virtud del Teorema Espectral.

Ejemplo: En Mecanica Cuantica, el espacio de estados de un sistema es un espacio vectorialcomplejo (normalmente de dimension infinita) con un producto escalar y toda magnitudmedible esta descrita por un operador hermıtico T . Los posibles valores de la medicion deesa magnitud en un estado del sistema son los valores propios αn de T , que siempre sonnumeros reales. Cuando el estado del sistema esta representado por un vector propio vn devalor propio αn, entonces el valor de la medicion es αn con toda seguridad; pero cuando estarepresentado por una suma ψ = v1+ . . .+vr de vectores propios de valores propios distintosα1, . . . , αr (descomposicion que es unica segun 5.4, y que en dimension finita siempre existepor el Teorema Espectral) entonces los posibles valores de la medicion son α1, . . . , αr, y laprobabilidad de que sea αn es

P(αn) =‖vn‖2

‖ψ‖2=

〈vn|vn〉〈ψ|ψ〉

y, por el teorema de Pitagoras, ‖ψ‖2 = ‖v1‖2 + . . .+ ‖vr‖2, P(α1) + . . .+ P(αr) = 1.En particular, el valor medio de las observaciones en ese estado es

∑nαnP(αn) =

〈∑n vn|

∑n αnvn〉

〈ψ|ψ〉=

〈ψ|T (ψ)〉〈ψ|ψ〉

·

Si el resultado de la medicion es αn, el estado del sistema pasa a ser vn; es decir (al menoscuando E es de dimension finita) Pn(ψ), donde Pn : E → E es la proyeccion ortogonal sobreel subespacio propio Vαn

(notese que, aunque ψ sea un representante normalizado, ‖ψ‖ = 1,el representante Pn(ψ) del nuevo estado no lo es, salvo que P(αn) = 1).

En el caso de una partıcula de masa m, su estado esta determinado por una funcioncompleja ψ(x, y, z) de 3 variables reales, llamada funcion de onda de la partıcula, el momentoen la direccion del eje x viene descrito por el operador hermıtico

Px :=~i

∂x= −i~ ∂

∂x

(con expresiones similares para las direcciones y, z), la energıa cinetica viene dada por eloperador hermıtico

1

2m(P 2x + P 2

y + P 2z ) = − ~2

2m

(∂2

∂x2+

∂2

∂y2+

∂2

∂z2

)y, en presencia de fuerzas que se deriven de un potencial V (x, y, z), la energıa viene dada‘porel operador hermıtico

V (x, y, z)− ~2

2m

(∂2

∂x2+

∂2

∂y2+

∂2

∂z2

).

33

En adelante E denotara un K-espacio vectorial de dimension finita n, y K = R o C.

6. El Espacio Dual

Si f, h : E → E′ son dos aplicaciones K-lineales y λ ∈ K, entonces aplicaciones

f + h : E −→ E′ , (f + h)(e) = f(e) + h(e),

λf : E −→ E′ , (λf)(e) = λ · f(e),

tambien son K-lineales, y estas operaciones definen una estructura de K-espacio vectorialen el conjunto HomK(E,E′) de todas las aplicaciones lineales de E en E′ (tambien llamadasen algunos libros homomorfismos o morfismos de E en E′).

El vector nulo de este espacio vectorial es la aplicacion lineal 0 : E → E′, que transformatodo vector e ∈ E en el vector nulo de E′; y el opuesto de una aplicacion lineal f : E → E′

es la aplicacion lineal −f : E → E′, (−f)(e) := −f(e).

Lema 6.1 Fijada una base e1, . . . , en en E, tenemos un isomorfismo lineal

ϕ : HomK(E,E′) ∼−−→ E′× n. . . ×E′ , ϕ(f) = (f(e1), . . . , f(en)).

Demostracion: Veamos primero que la aplicacion ϕ es lineal:Si f, g ∈ HomK(E,E′) y λ ∈ K, se cumple que

ϕ(f + g) = (. . . , (f + g)(ei), . . .) = (. . . , f(ei) + g(ei), . . .) =

= (. . . , f(ei), . . .) + (. . . , g(ei), . . .) = ϕ(f) + ϕ(g),

ϕ(λf) = (. . . , (λf)(ei), . . .) = (. . . , λf(ei), . . .) = λ(. . . , f(ei), . . .) = λϕ(f).

Veamos que Kerϕ = 0. Si ϕ(f) = 0, entonces f(e1) = . . . = f(en) = 0, y para todovector e ∈ E se tiene que f(e) = f(

∑i λiei) =

∑i λif(ei) = 0. Luego f = 0.

Veamos que ϕ es epiyectiva. Dados n vectores e′1, . . . , e′n ∈ E′, definen una aplicacion

lineal f : Kn → E′, f(λ1, . . . , λn) =∑i λie

′i, mientras que la base e1, . . . , en de E define un

isomorfismo h : Kn → E, h(λ1, . . . , λn) =∑i λiei. La composicion fh−1 : E → E′ es lineal

y cumple que (fh−1)(ei) = e′i, de modo que ϕ(fh−1) = (e′1, . . . , e′n).

Corolario 6.2 Fijada una base e1, . . . , en en E, y vectores e′1, . . . , e′n ∈ E′, existe una unica

aplicacion lineal f : E → E′ tal que f(e1) = e′1, . . . , f(en) = e′n.

Teorema 6.3 Si E y E′ son dos K-espacios vectoriales de dimension finita, se cumple que

dimHomK(E,E′) = (dimE)(dimE′).

Demostracion: Fijemos una base e1, . . . , en en E. Por el lema,

dimHomK(E,E′) = dim (E′× n. . . ×E′)3.2= n(dimE′).

6.1. El Espacio Dual

Definicion: Las formas lineales sobre E son las aplicaciones lineales ω : E → K, y elespacio dual es el K-espacio vectorial E∗ formado por todas las formas lineales sobre E:

E∗ := HomK(E,K).

Teorema 6.4 El dual es un espacio vectorial de dimension dimE∗ = dimE y, fijada unabase e1, . . . , en en E, existe una unica base ω1, . . . , ωn de E∗, la base dual, tal que

ωi(ej) = δij .

34

Demostracion: Por el teorema anterior,

dimE∗ = dimHomK(E,K) = (dimE)(dimK) = dimE.

Ademas, segun 6.2, existen formas lineales ω1, . . . , ωn tales que ωi(ej) = δij , y son unicas.Para concluir que forman una base de E∗ basta ver que son linealmente independientes.Ahora bien, si

∑i λiωi = 0, para todo ındice j tenemos que

0 =(∑

i λiωi)(ej) =

∑i λiωi(ej) =

∑i λiδij = λj .

Corolario 6.5 Sea e1, . . . , en una base de E, y ω1, . . . , ωn su base dual. Las coordenadas decualquier vector e ∈ E en la base dada son (ω1(e), . . . , ωn(e)),

e = ω1(e)e1 + . . .+ ωn(e)en,

y las coordenadas de cualquier forma lineal ω ∈ E∗ en la base dual son (ω(e1), . . . , ω(en)),

ω = ω(e1)ω1 + . . .+ ω(en)ωn.

Demostracion: Si e =∑i xiei, entonces para todo ındice j se cumple que

ωj(e) = ωj(∑

i xiei)=∑i xiωj(ei) =

∑i xiδij = xj .

Igualmente, si ω =∑i yiωi, entonces para todo ındice j se cumple que

ω(ej) =(∑

i yiωi)(ej) =

∑i yiωi(ej) =

∑i yiδij = yj .

Corolario 6.6 Sean e1, . . . , en y v1, . . . , vn dos bases de E, y sean ω1, . . . , ωn y η1, . . . , ηnsus respectivas bases duales. Si B = (bij) es la matriz de cambio de base de e1, . . . , en av1, . . . , vn, entonces es la matriz C = (cij) de cambio de base η1, . . . , ηn a ω1, . . . , ωn es Bt;es decir, cij = bji.

Demostracion: Por definicion ωj =∑i cijηi, de modo que si X e Y son las coordenadas de

un vector e ∈ E en las bases e1, . . . , en y v1, . . . , vn, tendremos que xj =∑i cijyi.

Pero sabemos que X = BY ; es decir, que xj =∑bjiyi.

Demostracion alternativa: Si U y V son las coordenadas de una forma lineal ω ∈ E∗ en lasbases ω1, . . . , ωn y η1, . . . , ηn, se cumple que

ω(e) = u1x1 + . . .+ unxn = U tX = U tBY,

ω(e) = v1y1 + . . .+ vnyn = V tY.

Como V = CU , vemos que U tBY = U tCtY . Como esta igualdad es valida para cualesquieraY, U ∈ Kn, concluimos que Ct = B.

Notacion: Si E es un espacio vectorial euclıdeo, cada vector e ∈ E define un bra o formalineal 〈e| : E → K, v 7→ 〈e|v〉, mientras que el ket |e〉 es el propio vector e. Ası, en MecanicaCuantica, dos estados ψ,φ ∈ E definen un operador lineal |ψ〉〈φ| del espacio de estados E,dado por la igualdad (|ψ〉〈φ|)(ϕ) := |ψ〉〈φ|ϕ〉 := 〈φ|ϕ〉ψ.

Si u1, . . . , un es una base ortonormal de E, la correspondiente base dual es 〈u1|, . . . , 〈un|porque el valor de la forma lineal 〈ui| en el vector uj es 〈ui|uj〉 = δij .

Teorema 6.7 Si E es un espacio vectorial euclıdeo, la aplicacion E → E∗, e 7→ 〈e|, es unisomorfismo antilineal.

35

Demostracion: Es una aplicacion antilineal porque 〈e+ e′| = 〈e|+ 〈e′| y 〈λe| = λ〈e|.Es inyectiva porque su nucleo es 0: Si 〈e| = 0, entonces 〈e|e〉 = 0 y e = 0.Luego esta aplicacion induce un isomorfismo antilineal de E con la imagen, que es por

tanto un subespacio vectorial de E∗ de dimension dimE = dimE∗, y concluimos que laimagen de esta aplicacion coincide con E∗: es una aplicacion epiyectiva.

Ejemplos:

1. Fijado un sistema de coordenadas (x1, . . . , xn) definido por una base e1, . . . , en de E,las funciones coordenadas x1, . . . , xn : E → K son formas lineales, y forman la base dualporque xi(ej) = δij . Por tanto, toda forma lineal es ω = a1x1 + . . . + anxn para ciertosescalares a1, . . . , an.

2. En Fısica casi nunca se considera un vector o una forma lineal aislada, sino campos devectores o campos de formas lineales; es decir, en cada punto p ∈ E se considera un vectore ∈ E o una forma lineal ω ∈ E∗, que depende del punto p considerado. Entonces, fijadoun sistema de coordenadas (x1, . . . , xn) definido por una base e1, . . . , en de E, la base dualω1, . . . , ωn se denota tambien dx1, . . . , dxn porque, dados dos puntos p = (x1, . . . , xn),q = (y1, . . . , yn), se tiene que ωi(pq) = ωi(q − p) = yi − xi es el incremento de la funcionxi entre los puntos p y q.

Por ejemplo, en Mecanica Clasica la fuerza viene dada por un campo de vectores F =F1(x, y, z)i+ F2(x, y, z)j+ F3(x, y, z)k, y el trabajo es la forma lineal asociada ω = 〈F |;es decir, ω = F1(x, y, z)dx+ F2(x, y, z)dy + F3(x, y, z)dz.

3. En un espacio vectorial real E, la diferencial de una funcion diferenciable f : E → R enun punto p ∈ E es la forma lineal

(df)(e) := lımt→0

f(p+ te)− f(p)

t

que mide el incremento infinitesimal de f en el punto p y en la direccion del vector e. Esdecir, (df)(e) es la derivada de la funcion h(t) := f(p+ te) en t = 0, de modo que df = 0en los maximos y mınimos locales de f , y cuando (df)(e) = 0, se dice que en el punto pel vector e es tangente a la hipersuperficie f = cte que pasa por p.

Fijado un sistema de coordenadas (x1, . . . , xn) definido por una base e1, . . . , en de E, pordefinicion ∂f/∂xi es la derivada de la funcion f(x1, . . . , xi + t, . . . , xn) en t = 0; luego∂f/∂xi = (df)(ei), y vemos que, segun 6.5,

(*) df =∑i∂f∂xi

dxi =∂f∂x1

dx1 + . . .+ ∂f∂xn

dxn.

4. En un espacio vectorial euclıdeo real E, el vector que se corresponde con la diferencialdf en un punto dado p ∈ E se llama gradiente de f en p, de modo que

〈grad f |e〉 = (df)(e),

y el gradiente indica la direccion, en p, de maximo crecimiento de f .

Fijado un sistema de coordenadas (x1, . . . , xn) definido por una base ortonormal, deacuerdo con (*), las coordenadas del gradiente de f son

(∂f∂x1

, . . . , ∂f∂xn

).

6.2. Incidencia y Bidualidad

Teorema de Bidualidad: Tenemos un isomorfismo lineal natural

ϕ : E ∼−−→ E∗∗ , ϕ(e)(ω) = ω(e).

Demostracion: Veamos primero que la aplicacion ϕ es lineal:

36

Si e, v ∈ E, para todo escalar λ ∈ K y toda forma lineal ω ∈ E∗ se cumple que

ϕ(e+ v)(ω) = ω(e+ v) = ω(e) + ω(v) = ϕ(e)(ω) + ϕ(v)(ω) = (ϕ(e) + ϕ(v))(ω),

ϕ(λe)(ω) = ω(λe) = λω(e) = λ(ϕ(e)(ω)

)=(λϕ(e)

)(ω),

y vemos que ϕ(e+ v) = ϕ(e) + ϕ(v) y ϕ(λe) = λϕ(e).

Veamos ahora que Kerϕ = 0:Si ϕ(e) = 0, entonces ω(e) = 0 para toda forma lineal ω ∈ E∗, y del corolario se sigue

que, en cualquier base de E, todas las coordenadas del vector e son nulas; luego e = 0.

Por ultimo, de 3.4 se sigue que dim (Imϕ) = dimE = dimE∗∗.Luego Imϕ = E∗∗, porque Imϕ es un subespacio vectorial de E∗∗, y ϕ es epiyectiva.

Definicion: El incidente de un subespacio vectorial V de E es

V o = ω ∈ E∗ : ω(v) = 0,∀v ∈ V ,

y el incidente de un subespacio vectorial W de E∗, identificando E∗∗ con E, es

W o = e ∈ E : ω(e) = 0,∀ω ∈W.

Ejemplos: Dadas r formas lineales ω1, . . . , ωr : Kn → K, las soluciones del sistema de ecua-

ciones lineales homogeneo ω1 = 0, . . . , ωr = 0 forman el incidente del subespacio vectorialW = 〈ω1, . . . , ωr〉.

Cuando E es un espacio vectorial euclıdeo, el isomorfismo antilineal E ∼−−→ E∗, e 7→ 〈e|,transforma el ortogonal V ⊥ justamente en el incidente V o.

Teorema 6.8 El incidente es un subespacio vectorial de dimension

dimV o = dimE − dimV.

Demostracion: Ampliemos una base e1, . . . , ed de V hasta obtener una base e1, . . . , ed, . . . , ende E, y sea ω1, . . . , ωn su base dual.

Una forma lineal ω =∑i λiωi esta en V o cuando λ1 = ω(e1) = 0, . . . , λd = ω(ed) = 0.

Es decir, V o = 〈ωd+1, . . . , ωn〉; luego es un subespacio vectorial de E∗, y dimV o = n− dporque ωd+1, . . . , ωn son linealmente independientes (forman parte de una base de E∗).

Corolario 6.9 (V o)o = V .

Demostracion: V ⊆ (V o)o = e ∈ E : ω(e) = 0,∀ω ∈ V o, y V = (V o)o porque

dim (V o)o = dimE∗ − dimV o = dimE − (dimE − dimV ) = dimV.

Corolario 6.10 Si V y W son subespacios vectoriales de E, se cumple que:

1. 0o = E∗ , Eo = 0.

2. V ⊆W ⇔ W o ⊆ V o , y en particular V =W ⇔ V o =W o

3. (V +W )o = V o ∩W o

4. (V ∩W )o = V o +W o

Demostracion: Es obvio que 0o = E∗, y Eo = 0 porque dimEo = dimE − dimE = 0.

2.– Si V ⊆W , es claro que W o ⊆ V o.Recıprocamente, si W o ⊆ V o, entonces V = (V o)o ⊆ (W o)o =W .

3.– Como V ⊆ V +W y W ⊆ V +W , tenemos que (V +W )o ⊆ V o y (V +W )o ⊆W o;luego (V +W )o ⊆ V o ∩W o.

37

Ademas, si ω ∈ V o ∩ W o, entonces ω(v + w) = ω(v) + ω(w) = 0 para todo vectorv + w ∈ V +W . Luego V o ∩W o ⊆ (V +W )o y concluimos que (V +W )o = V o ∩W o.

4.– De acuerdo con el segundo apartado, para demostrar que (V ∩W )o = V o+W o bastaver que sus incidentes coinciden:(

V o +W o)o 3

= (V o)o ∩ (W o)o = V ∩W =((V ∩W )o

)o.

6.3. Aplicacion Lineal Traspuesta

Definicion: Sea f : E → F una aplicacion lineal. Si ω : F → K es una forma lineal, entoncesla aplicacion f∗(ω) := ω f : E → K tambien es lineal, de acuerdo con 3.1. Obtenemos asıuna aplicacion natural, llamada aplicacion traspuesta de f ,

f∗ : F ∗ −→ E∗ , f∗(ω)(e) = ω(f(e)),

que tambien es lineal, pues para cualesquiera e ∈ E, λ ∈ K, se cumple que

f∗(ω + ω′)(e) = (ω + ω′)(f(e)) = ω(f(e)) + ω′(f(e))

= f∗(ω)(e) + f∗(ω′)(e) =(f∗(ω) + f∗(ω′)

)(e),

f∗(λω)(e) = λω(f(e)) = λf∗(ω)(e).

Proposicion 6.11 Si A es la matriz de una aplicacion lineal f : E → F en ciertas basese1, . . . , en de E y v1, . . . , vm de F , entonces la matriz B de f∗ : F ∗ → E∗, en las bases dualesη1, . . . , ηm de F ∗ y ω1, . . . , ωn de E∗, es la matriz traspuesta: B = At.

Demostracion: Tenemos que A = (aij) ∈Mm×n(K) y B = (bij) ∈Mn×m(K), donde

f(ej) =m∑i=1

aijvi , f∗(ηj) =n∑i=1

bijωi.

Luego bkl = f∗(ηl)(ek) = ηl(f(ek)) = alk.

Teorema 6.12 Sea f : E → F una aplicacion lineal entre espacios vectoriales de dimensionfinita. Se cumple que

Ker f∗ = (Im f)o , Im f∗ = (Ker f)o .

Demostracion: La condicion 0 = f∗ω = ω f significa que ω(f(e)) = 0, ∀e ∈ E; es decir,que la forma lineal ω se anula en Im f . Luego Ker f∗ = (Im f)o.

Ademas Im f∗ ⊆ (Ker f)o, porque f∗(ω)(e) = ω(f(e)) = 0, ∀e ∈ Ker f , y ambos subes-pacios vectoriales de E∗ coinciden porque tienen la misma dimension (3.4, 6.4, 6.8):

dim (Im f∗) = dimF ∗ − dim (Ker f∗) = dimF − dim (Im f)o

= dim (Im f) = dimE − dim (Ker f) = dim (Ker f)o.

Corolario 6.13 El rango por filas de cualquier matriz coincide con el rango por columnas:

dim (Im f∗) = dim (Im f).

Demostracion: dim (Im f∗) = dim (Ker f)o = dimE − dim (Ker f) = dim (Im f).

Corolario 6.14 La aplicacion lineal f : E → F es epiyectiva (resp. inyectiva) si y solo sisu traspuesta f∗ : F ∗ → E∗ es inyectiva (resp. epiyectiva).

38

Demostracion: La aplicacion lineal f∗ es inyectiva si y solo si

0 = dim (Ker f∗) = dim (Im f)o = dimF − dim (Im f);

es decir, justo cuando Im f = F , lo que significa que f es epiyectiva.Ademas, f∗ es epiyectiva si y solo si

dimE∗ = dim (Im f∗) = dim (Ker f)o = dimE − dim (Ker f);

es decir, justo cuando dim (Ker f) = 0, lo que significa que f es inyectiva.

39

7. Formas Cuadraticas

7.1. Metricas Simetricas

Definicion: Una aplicacion S : E × E → K es una metrica si es bilineal y simetrica:

1. S(e+ e′, v) = S(e, v) + S(e′, v) , S(λe, v) = λS(e, v) ; ∀e, e′, e ∈ E, λ ∈ K.

S(v, e+ e′) = S(v, e) + S(v, e′) , S(v, λe) = λS(v, e) ; ∀e, e′, e ∈ E, λ ∈ K.

2. S(e, v) = S(v, e) , ∀e, v ∈ E.

A menudo pondremos e · v := S(e, v), y la matriz de la metrica S en una base e1, . . . , ende E es la matriz simetrica de n filas y columnas A = (aij), donde aij := ei · ej , de modoque el producto e · v del vector e ∈ E de coordenadas Xt = (x1, . . . , xn) con el vector v decoordenadas Y t = (y1, . . . , yn) es

e · v =

(n∑i=1

xiei

n∑j=1

yjej

=

n∑i,j=1

aijxiyj = (x1 . . . xn)

a11 . . . a1n. . . . . . . . .an1 . . . ann

y1...yn

e · v = XtAY.

Si A = (aij) es la matriz de S en otra base e1, . . . , en de E, y B = (bij) es la matriz de

cambio de base, las coordenadas X, Y de e y v en la nueva base cumplen que X = BX,Y = BY . Luego XtAY = e · v = XtAY = XtBtABY , y la matriz de S en la nueva base es

A = BtAB.

Definicion: La forma cuadratica asociada a una metrica S es la aplicacion q : E → K,q(e) = e · e = S(e, e), y determina totalmente a la metrica porque

12 (q(e+ v)− q(e)− q(v)) = 1

2 (e · e+ e · v + v · e+ v · v − e · e− v · v) = e · v.

En el sistema de coordenadas (x1, . . . , xn) definido por una base tendremos

q(x1, . . . , xn) = XtAX =∑i aiix

2i +

∑i<j 2aijxixj ,

donde A = (aij) es la matriz de la metrica. Vemos ası que, en coordenadas, la forma cuadrati-ca viene dada por un polinomio homogeneo de grado 2.

Ejemplos:

1. En el caso real (y no en el complejo) los productos escalares son las metricas definido-positivas, y una base es ortonormal justo cuando la matriz de la metrica es la matrizunidad In, es decir, cuando la forma cuadratica asociada es x21 + . . .+ x2n.

2. Los conos (con vertice en el origen) son las figuras geometricas definidas por la anulacionde una forma cuadratica

∑ij aijxixj = 0.

3. En Mecanica Clasica los sucesos forman un espaciotiempo de Galileo: un espaciovectorial real E de dimension 4, dotado de una forma lineal no nula ω : E → R (fijada launidad de tiempo, ω(pq) se interpreta como el tiempo transcurrido entre los sucesos p yq) y de un producto escalar 〈 | 〉 definido en los vectores espaciales o de simultaneidad; esdecir, en el subespacio vectorial V := Kerω. Una base e0, e1, e2, e3 de E es un observadorinercial (con trayectoria a traves del origen) o sistema de referencia inercial cuandoω(e0) = 1 y e1, e2, e3 es una base ortonormal de V , y se entiende que las correspondientescoordenadas (t, x, y, z) son el tiempo y la posicion medidos por el observador inercial: las

40

rectas Re1, Re2 y Re3 son los tres ejes espaciales fijados por el observador, mientras quee0 es su velocidad 4-dimensional, pues la trayectoria del observador es la recta (t, 0, 0, 0).

La metrica g(e, v) := ω(e)ω(v) se llama metrica del tiempo porque el intervalo detiempo entre dos sucesos p y q = p+ e es

√g(e, e) = |ω(e)|. En un sistema de referencia

inercial, la matriz de g es diag(1, 0, 0, 0), y la forma cuadratica asociada es t2.

Lema 7.1 En el caso real, el signo de |A| no depende de la base, solo de la metrica.

Demostracion: |A| = |BtAB| = |B|2|A| tiene el mismo signo que |A| porque |B| 6= 0, ya quelas matrices de cambio de base siempre son invertibles.

Teorema 7.2 Sea S una metrica sobre un espacio vectorial real E, y sea A = (aij) sumatriz en una base e1, . . . , en de E. La metrica es un producto escalar si y solo si sonpositivos todos los menores principales

a11 ,

∣∣∣∣a11 a12a21 a22

∣∣∣∣ ,∣∣∣∣∣∣a11 a12 a13a21 a22 a23a31 a32 a33

∣∣∣∣∣∣ , . . . ,∣∣∣∣∣∣a11 . . . a1r. . . . . . . . .ar1 . . . arr

∣∣∣∣∣∣ , . . . ,∣∣∣∣∣∣a11 . . . a1n. . . . . . . . .an1 . . . ann

∣∣∣∣∣∣ = |A|.

Demostracion: Segun el lema, el determinante de la matriz de un producto escalar siemprees positivo, porque lo es en las bases ortonormales. Luego, si S es un producto escalar, losmenores principales son positivos, pues son el determinante de la matriz de S en una basedel espacio vectorial Re1 + . . .+ Rer, 1 ≤ r ≤ n.

Recıprocamente, si todos los menores principales son positivos, procediendo por induc-cion sobre la dimension n, podemos suponer que S es definido-positiva en el hiperplanoH = Re1 + . . .+ Ren−1, que por tanto admite alguna base ortonormal u1, . . . , un−1.

Tomemos un vector no nulo e ∈ E tal que u1 · e = . . . = un−1 · e = 0, que existe porquela aplicacion lineal E → Rn−1, e 7→ (u1 · e, . . . , un−1 · e) no puede ser inyectiva.

Tenemos que e /∈ H, porque S es definido-positiva en H; luego los vectores u1, . . . , un−1, eforman una base de E. La matriz de S en esta base es diagonal diag(1, . . . , 1, a).

Por el lema, el signo de a coincide con el de |A|. Luego a > 0, y la matriz de S en la baseu1, . . . , un−1, e/

√a de E es In, de modo que la metrica S es definido-positiva.

Definicion: La polaridad asociada a una metrica S (o a su forma cuadratica) es la apli-cacion ϕ : E → E∗, ϕ(e)(v) = e · v = S(e, v), que es lineal:

ϕ(e+ e′)(v) = (e+ e′) · v = e · v + e′ · v = ϕ(e)(v) + ϕ(e′)(v) = (ϕ(e) + ϕ(e′))(v),

ϕ(λe)(v) = (λe) · v = λ(e · v) = λϕ(e)(v) = (λϕ(e))(v),

y el rango de la metrica (o de la forma cuadratica) es rgS = dim (Imϕ).

Si A = (aij) es la matriz de S en una base e1, . . . , en de E, y consideramos la base dualω1, . . . , ωn en E∗, entonces la matriz de ϕ en estas bases tambien es A porque, segun 6.5, lai-esima coordenada de ϕ(ej) en la base dual es ϕ(ej)(ei) = ej · ei = aij . Luego, de acuerdocon 3.3, el rango de una metrica coincide con el rango de su matriz en cualquier base:

rgS = rgA.

Ejemplo: En el caso real, la polaridad asociada a un producto escalar es el isomorfismonatural E ∼−→ E∗ considerado en 6.7.

41

7.2. Clasificacion de Metricas

Definicion: Dada una metrica S, un vector e ∈ E es isotropo si q(e) = e · e = 0.

Si todos los vectores son isotropos, entonces q = 0, y por tanto S = 0.La condicion de que un vector e ∈ E no sea isotropo significa que no esta en su ortogonal

(Ke)⊥ := v ∈ E : e ·v = 0, y por tanto que la suma Ke+(Ke)⊥ es directa: Si λe ∈ (Ke)⊥,entonces λe · e = 0 y λ = 0.

Lema 7.3 Si e ∈ E no es isotropo, entonces dim (Ke)⊥ = n− 1 y E = Ke⊕ (Ke)⊥.

Demostracion: La forma lineal ϕ(e) : E → K no es nula, porque ϕ(e)(e) = e · e 6= 0; luegosu imagen es de dimension 1 y, segun 3.4, su nucleo (Ke)⊥ es un subespacio vectorial dedimension n− 1.

Como dim (Ke⊕ (Ke)⊥) = 1 + (n− 1) = dimE, concluimos que Ke⊕ (Ke)⊥ = E.

Lema 7.4 En alguna base e1, . . . , en la matriz de S es diagonal: ei · ej = 0 cuando i 6= j.

Demostracion: Por induccion sobre n = dimE, y es obvio cuando n = 1 o q = 0.Cuando n > 1 y q 6= 0, consideramos un vector no isotropo e1 ∈ E.Como dim (Ke1)

⊥ = n − 1, por hipotesis de induccion existe alguna base e2, . . . , en de(Ke1)

⊥ en que la matriz de S es diagonal.Ahora los vectores e1, e2, . . . , en forman una base de E porque lo generan:

Ke1 +Ke2 + . . .+Ken = Ke1 + (Ke1)⊥ = E,

y en esta base la matriz de S es diagonal, porque e1 · ej = 0 cuando 1 < j ≤ n.

Teorema 7.5 En el caso complejo, toda metrica de rango r admite una base en que sumatriz es diag(1, r. . ., 1, 0, . . . , 0), y su forma cuadratica es x21 + . . .+ x2r.

Demostracion: Segun el lema anterior, en alguna base e1, . . . , en la matriz de la metrica esdiag(λ1, . . . , λm, 0, . . . 0), donde los coeficientes λi = ei ·ei no son nulos, de modo que m = r.

Sustituyendo ei por e′i = ei/

√λi tendremos que e′i · e′i = 1, y obtenemos una base en que

la matriz de la metrica es diag(1, r. . ., 1, 0, . . . , 0).

Teorema de Inercia de Sylvester (1814-1897): En el caso real, toda metrica S de rangor admite una base en que su matriz es diag(1, p. . ., 1,−1, q. . .,−1, 0, . . . , 0), con p + q = r, ysu forma cuadratica es x21 + . . .+ x2p − x2p+1 − . . .− x2p+q.

El par (p, q) no depende de la base elegida, y se llama signatura de la metrica.

Demostracion: Segun el lema anterior, en alguna base e1, . . . , en la matriz de la metrica esdiag(λ1, . . . , λr, 0, . . . 0), donde los coeficientes λi = ei · ei no son nulos.

Sustituyendo ei por e′i = ei/

√|λi| tendremos que e′i ·e′i = ±1 y, reordenando los vectores

e′1, . . . , e′r, . . . , en, obtendremos una base en que la matriz de S tiene la forma deseada.

Por ultimo, para ver que el numero p (y por tanto q = r − p) no depende de la baseelegida, basta probar que p coincide con el maximo p′ de las dimensiones de los subespaciosvectoriales V+ ⊆ E en que S es definido-positiva:

Si en una base la matriz de S es diag(1, p. . ., 1,−1, q. . .,−1, 0, . . . , 0), la metrica es definido-positiva en un subespacio vectorial de dimension p (el que generan los p primeros vectoresde la base), ası que p ≤ p′.

Ademas, en el subespacio vectorial W que generan los restantes n−p vectores de la basese cumple que e · e ≤ 0, ∀e ∈W , de modo que W ∩ V+ = 0, y tenemos que

n− p+ dimV+ = dimW + dimV+ = dim (W + V+) ≤ dimE = n.

Luego dimV+ ≤ p; de modo que p′ ≤ p, y concluimos que p = p′.

42

Teorıa de la Relatividad Especial

La hipotesis fundamental de la Teorıa de la Relatividad es que los sucesos forman unespacio E de dimension 4, y que en cada suceso p ∈ E las trayectorias de la luz (en elvacıo) definen un cono, dado por una metrica g de signatura (+,−,−,−): una metrica deLorentz (1853-1928). En general la metrica depende del suceso p; pero en pequenas regionesy en pequenos intervalos de tiempo es razonable suponer que el cono es constante:

En la Teorıa de la Relatividad Especial (fijado un origen del espaciotiempo y la unidadde tiempo) los sucesos forman un espaciotiempo de Minkowski (1864-1909): un espaciovectorial real E de dimension 4, dotado de una metrica g de signatura (+,−,−,−). Unvector e = pq = q − p es isotropo, e · e = 0, cuando es de tipo luz, en el sentido de queun rayo de luz emitido en p pasa por q, y las trayectorias de la luz son las rectas p+ Re dedireccion generada por un vector de tipo luz.

Fijada una constante c > 0 (entendida como velocidad de la luz, y depende de la unidadde longitud) un observador inercial (con trayectoria a traves del origen) o sistema dereferencia inercial es cualquier base e0, e1, e2, e3 de E en que la ecuacion del cono de luzsea t2 − 1

c2 (x2 + y2 + z2) = 0; es decir, que la matriz de g sea

g =

1 0 0 00 − 1

c2 0 00 0 − 1

c2 00 0 0 − 1

c2

El tiempo medido por un observador inercial es la forma lineal ϕ(e0) = e0· (ası que

depende de su velocidad tetradimensional e0) porque el intervalo de tiempo observado entredos sucesos p, q es precisamente e0 · (pq), y los sucesos son simultaneos justo cuando pqes ortogonal a la velocidad tetradimensional e0 del observador: los vectores espaciales o desimultaneidad para un observador de velocidad e0 son los vectores del ortogonal V := (Re0)⊥,y su geometrıa viene dada por la forma cuadratica x2 + y2 + z2, que es precisamente larestriccion de la forma cuadratica x2 + y2 + z2 − c2t2 asociada a −c2g. Para un observadorinercial, el espacio es el espacio vectorial euclıdeo ((Re0)⊥,−c2g).

Un vector e = pq = q − p es de tipo tiempo cuando e · e > 0, y τ :=√e · e es el

tiempo propio entre p y q, pues es el tiempo que transcurre entre ambos sucesos paraun observador cuando p y q ocurren en la misma posicion, y es de tipo espacio cuandoe · e < 0, y s :=

√−c2(e · e) es la distancia entre ambos sucesos para un observador cuando

p y q son simultaneos. Por eso g recibe el nombre de metrica del tiempo y g := −c2g elde metrica espacial, y es de signatura (+,+,+,−).

Cuando c → ∞, el lımite de la forma cuadratica del tiempo t2 − 1c2 (x

2 + y2 + z2) es t2,la forma cuadratica con la que se miden los intervalos temporales en la Mecanica Clasica,mientras que la forma cuadratica del espacio x2 + y2 + z2 − c2t2 carece de lımite.

Paradoja de los Gemelos: Consideremos un sistema de referencia inercial e0, e1, e2, e3.Si un viajero parte con velocidad constante ve1 durante un tiempo t, y luego regresa convelocidad constante −ve1, el intervalo de tiempo entre la partida y la llegada es 2t. Cal-culemos el tiempo propio τ para ese viajero. El trayecto de ida viene dado por el vectorw = te0+vte1, y el de vuelta por w′ = te0−vte1. Como

√w · w =

√w′ · w′ = t

√1− (v/c)2,

vemos que τ = 2t√1− (v/c)2, y τ < 2t siempre que v 6= 0.

Cuando v c, tenemos que√1− (v/c)2 ≈ 1− 1

2 (v/c)2, y la diferencia entre el tiempo

observado 2t y el tiempo propio τ es ≈ t(v/c)2.Por ejemplo, si viaja durante 1 ano a 10.000 km/h (llega a Marte) y luego regresa,

v/c ≈ 10−5 y el tiempo propio es ≈ 3 · 10−3 segundos menor que nuestro propio tiempo.

Contraccion de Longitudes: Consideremos una varilla de longitud l, en reposo en unsistema de referencia inercial e0, e1, e2, e3, y calculemos su longitud l′ para un observador

43

inercial que se mueve con velocidad v en la direccion de la varilla (digamos e1). Para el nuevoobservador inercial, el vector espacial w que determina la varilla es w = λe0+ le1 para algunλ ∈ R, y como ha de ser ortogonal a e0 + ve1

0 = w · (e0 + ve1) = λ− vl/c2 , λ = vl/c2

w = l( vc2e0 + e1

)l′ =

√〈w,w〉 = l

√1− (v/c)2 = l − 1

2 (v/c)2l − . . .

Las longitudes se contraen en un factor ≈ 12 (v/c)

2 cuando v c.Por ejemplo, el diametro de la Tierra es de unos 12,700 km; luego el viajero a Marte del

ejemplo anterior observa una contraccion de unos 0.6 mm en la direccion e1.

Transformaciones de Lorentz: Dado un sistema de referencia inercial e0, e1, e2, e3, si otroobservador inercial se mueve con velocidad aparente ve1, su velocidad tetradimensional serae′0 = γ(e0 + ve1), γ ∈ R, y la condicion e′0 · e′0 = 1 muestra que

γ =1√

1− v2

c2

=c√

c2 − v2·

Un vector ortogonal a e′0 y de modulo 1 (para −c2g) es e′1 = γ(vc2 e0 + e1

), ası que

e′0 := γ(e0 + ve1) , e′1 := γ

(vc2 e0 + e1

), e′2 := e2 , e

′3 := e3

es un sistema de referencia inercial que se mueve con velocidad aparente v en la direccion e1(y mantiene los otros dos ejes espaciales). Si t, x, y, z) son las coordenadas de un suceso enel sistema de referencia inicial, las coordenadas (t′, x′, y′, z′) del mismo suceso para el nuevoobservador vienen dadas por una transformacion de Lorentz:

txyz

=

γ γ v

c2 0 0γv γ 0 00 0 1 00 0 0 1

t′

x′

y′

z′

,

t′

x′

y′

z′

=

γ −γ v

c2 0 0−γv γ 0 00 0 1 00 0 0 1

txyz

.

7.3. Cuadricas Centrales

Definicion: En un espacio euclıdeo real E, reciben el nombre de cuadricas centrales(conicas centrales cuando n = 2) los lugares geometricos de ecuacion q(x1, . . . , xn) = cte.para alguna forma cuadratica q : E → R, entendiendo que el lugar geometrico es el mismocuando la ecuacion se multiplica por un escalar no nulo, de modo que siempre se puedesuponer que la constante es 1 o 0, caso en que es un cono.

Si ϕ : E → E∗ es la polaridad asociada a una metrica S en E, como el producto escalar

define un isomorfismo natural E ∼−→ E∗, e 7→ 〈e|, tenemos un endomorfismo T : Eϕ−→ E∗ ' E

tal que e′ = T (e) justo cuando ϕ(e) = 〈e′|. Es decir,

e · v = ϕ(e)(v) = 〈T (e)|v〉 , ∀e, v ∈ E.

Como e · v = v · e, vemos que T es un endomorfismo simetrico:

〈T (e)|v〉 = e · v = 〈e, T (v)〉.

Ahora, de acuerdo con el Teorema Espectral, T admite una base ortonormal u1, . . . , unde vectores propios, T (ui) = αiui, donde α1, . . . , αn ∈ R. En esta base se cumple que

ui · uj = 〈T (ui)|uj〉 = 〈αiui|uj〉 = αiδij ,

44

ası que la forma cuadratica asociada a la metrica es α1x21 + . . .+ αnx

2x.

Los ejes de una cuadrica central q(x1, . . . , xn) = cte. son las rectas generadas por algunvector propio del endomorfismo T asociado a la correspondiente metrica y al productoescalar, de modo que toda cuadrica admite un sistema de ejes perpendiculares en los que suecuacion se reduce a

α1x21 + . . .+ αnx

2x = cte.

Nota: Si A es la matriz de la metrica S en cierta base e1, . . . , en de E, y B es la matrizdel producto escalar en tal base, entonces, considerando en E∗ la base dual, la matriz dela polaridad ϕ : E → E∗ es A, y la matriz del isomorfismo natural E ∼−→ E∗ es B; luego la

matriz en tal base del endomorfismo T : Eϕ−→ E∗ ' E es B−1A.

En particular, cuando la base es ortonormal, la matriz de T es A.

Ejemplos: Cuando n = 2, segun sea su ecuacion reducida, las conicas centrales reciben lossiguientes nombres:

x2

a2 + y2

b2 = 1 Elipsex2

a2 + y2

b2 = 0 Par de rectas imaginarias concurrentesx2

a2 − y2

b2 = 1 Hiperbolax2

a2 − y2

b2 = 0 Par de rectas concurrentes

−x2

a2 − y2

b2 = 1 Conica imaginariax2

a2 = 1 Par de rectas paralelasx2

a2 = 0 Par de rectas coincidentes

−x2

a2 = 1 Par de rectas imaginarias paralelas0x2 + 0y2 = 1 Vacıo0x2 + 0y2 = 0 El plano

Cuando n = 3, segun sea su ecuacion reducida, las cuadricas centrales reciben los si-guientes nombres:

x2

a2 + y2

b2 + z2

c2 = 1 Elipsoidex2

a2 + y2

b2 + z2

c2 = 0 Cono imaginariox2

a2 + y2

b2 − z2

c2 = 1 Hiperboloide regladox2

a2 + y2

b2 − z2

c2 = 0 Conox2

a2 − y2

b2 − z2

c2 = 1 Hiperboloide no reglado

−x2

a2 − y2

b2 − z2

c2 = 1 Elipsoide imaginariox2

a2 + y2

b2 = 1 Cilindro elıpticox2

a2 + y2

b2 = 0 Par de planos imaginarios concurrentesx2

a2 − y2

b2 = 1 Cilindro hiperbolicox2

a2 − y2

b2 = 0 Par de planos concurrentes

−x2

a2 − y2

b2 = 1 Cilindro imaginariox2

a2 = 1 Par de planos paralelosx2

a2 = 0 Par de planos coincidentes

−x2

a2 = 1 Par de planos imaginarios paralelos0x2 + 0y2 + 0z2 = 1 Vacıo0x2 + 0y2 + 0z2 = 0 El espacio

Calculo de la Signatura de una Metrica

Sea S una metrica en un espacio vectorial real E. Si A es la matriz de S en una basee1, . . . , en de E, y consideramos en E el producto escalar para el que e1, . . . , en es una base

45

ortonormal, entonces A es la matriz en tal base del endomorfismo T : E → E asociado ala metrica S y a ese producto escalar auxiliar. Por tanto el polinomio caracterıstico de Tes justamente |xI − A|. De acuerdo con el Teorema Espectral, el polinomio caracterıstico|xI − A| tiene todas sus raıces reales, y acabamos de ver que si tiene p raıces positivas(contadas con su multiplicidad) y q raıces negativas (contadas con su multiplicidad), y portanto tiene la raız x = 0 con multiplicidad n− (p+ q), entonces en alguna base ortonormalde E la forma cuadratica asociada a S es

α1x21 + . . .+ αpx

2p + . . .+ αp+qx

2p+q

donde α1, . . . , αp son positivos y αp+1, . . . , αp+q son negativos. Vemos ası que la signaturade S es justamente (p, q).

Regla de Descartes (1596-1650): Si un polinomio con coeficientes reales tiene todas susraıces reales, entonces el numero de raıces positivas, contadas con su multiplicidad, coincidecon el numero de variaciones de signo en la sucesion de coeficientes no nulos.

Ejemplo: En el polinomio x9−3x8−5x7+18x6+3x5−27x4+9x3, la sucesion de coeficientesno nulos es (1,−3,−5, 18, 3,−27, 9), que tiene 4 variaciones de signo. Si el polinomio tuvieratodas sus raıces reales, 4 serıan positivas, y 2 serıan negativas, porque el polinomio tiene 9raıces reales (contadas con su multiplicidad) y la raız x = 0 tiene multiplicidad 3.

En el polinomio x8−8x6+21x4−18x2, la sucesion de coeficientes no nulos es (1,−8, 21,−18),que tiene 3 variaciones de signo. Si el polinomio tuviera todas sus raıces reales, 3 serıan po-sitivas, y 3 negativas, porque la raız x = 0 tiene multiplicidad 2.

46

8. Tensores

Definicion: Dados K-espacios vectoriales E1, . . . , Er, F , una aplicacion T : E1× . . .×Er →F es K-multilineal cuando es K-lineal en cada variable,

T (. . . , ei + vi, . . .) = T (. . . , ei, . . .) + T (. . . , vi, . . .),

T (. . . , λei, . . .) = λT (. . . , ei, . . .),

y las aplicaciones multilineales E1 × . . . × Er → F forman un K-espacio vectorial con lassiguientes operaciones (compruebense los axiomas de espacio vectorial):

(T + T )(e1, . . . , er) = T (e1, . . . , er) + T (e1, . . . , er),

(λT )(e1, . . . , er) = λ · T (e1, . . . , er).

Fijada una base ei1, . . . , einien cada uno de los espacios vectoriales Ei, tendremos que

T( n1∑j1=1

λ1j1e1j1 , . . . ,nr∑jr=1

λrjrerjr)=

n1∑j1=1

. . .nr∑jr=1

λ1j1 . . . λrjrT (e1j1 , . . . , erjr ).

Teorema 8.1 Fijada una base en cada uno de los espacios vectoriales E1, . . . , Er, si dosaplicaciones multilineales T, T : E1× . . .×Er → F coinciden en las sucesiones formadas convectores de tales bases, entonces T = T .

Definiciones: Las aplicaciones multilineales T : E× p. . . ×E × E∗× q. . . ×E∗ −→ k recibenel nombre de tensores de tipo (p, q) sobre el K-espacio vectorial E, y forman un K-espaciovectorial T qpE. Por convenio, los tensores de tipo (0,0) son los escalares, T 0

0E = K.Los tensores de tipo (p, 0) se llaman covariantes de orden p, y los tensores de tipo (0, q)

se llaman contravariantes de orden q.

Ejemplos:

1. Los tensores covariantes de orden 1 son las formas lineales, y los tensores contravariantesde orden 1 son los vectores: T1E = E∗, y T 1E = E∗∗ = E.

2. Una metrica es un 2-tensor covariante que ademas es simetrico.

En el caso real (que no en el complejo) un producto escalar T : E×E → R, T (e, v) = 〈e|v〉,es un 2-tensor covariante, que ademas es simetrico y definido-positivo.

3. Cada endomorfismo f : E → E define un (1,1)-tensor T (e, ω) := ω(f(e)

).

4. Si una metrica S es de rango maximo, rgS = dimE, entonces la polaridad asociadaϕ : E → E∗, ϕ(e)(v) = S(e, v), es un isomorfismo, de modo que cada tensor covariantedefine un tensor contravariante y viceversa. En particular la propia metrica S define unametrica dual, que es un 2-tensor contravariante:

S∗ : E∗ × E∗ → K, S∗(ϕ(e), ϕ(v)) = S(e, v).

Si A = (aij) es la matriz de S en una base e1, . . . , en de E, sabemos que A es tambienla matriz de la polaridad asociada ϕ : E → E∗, ϕ(e)(v) = e · v = S(e, v), cuando en E∗

se considera la base dual. Por tanto, si X, Y son las coordenadas de ϕ(e) y ϕ(v) en labase dual, tendremos que S∗(ϕ(e), ϕ(v)) = (A−1X)tA(A−1Y ) = XtA−1Y , y vemos quela matriz de la metrica dual S∗ en la base dada es justamente A−1.

Por ejemplo, en un espacio de Minkowski (E, g) tenemos la metrica del tiempo g y lametrica espacial g = −c2g, que son 2-tensores covariantes simetricos, y sus metricas

47

duales g∗ y g∗, que son 2-tensores contravariantes simetricos. En un sistema de referenciainercial sus respectivas matrices son

g =

1 0 0 00 − 1

c2 0 00 0 − 1

c2 00 0 0 − 1

c2

, g∗ =

1 0 0 00 −c2 0 00 0 −c2 00 0 0 −c2

g =

−c2 0 0 00 1 0 00 0 1 00 0 0 1

, g∗ =

− 1c2 0 0 00 1 0 00 0 1 00 0 0 1

5. Consideremos un espaciotiempo de Galileo (E,ω, 〈 | 〉) y la polaridad ϕ : V ∼−→ V ∗ definida

por el producto escalar, donde V = Kerω. La metrica espacial g∗ : E∗ × E∗ → R,g∗(ω1, ω2) := 〈ϕ−1(ω1|V )|ϕ−1(ω2|V )〉, es un 2-tensor contravariante simetrico, y su matrizen la base dual de un sistema de referencia inercial es diag(0, 1, 1, 1).

8.1. Producto Tensorial

Definicion: Dado un (p, q)-tensor T y un (r, s)-tensor T sobre un mismo espacio vectorialE, su producto tensorial es el siguiente (p+ r, q + s)-tensor T ⊗ T ,

(T ⊗ T )(e1, . . . , ep+r, ω1, . . . , ωq+s) = T (e1, . . . , ep, ω1, . . . , ωq) · T (ep+1, . . . , ωq+1, . . .).

Propiedades del Producto Tensorial:

1. (λT + µT ′)⊗ T = λ(T ⊗ T ) + µ(T ′ ⊗ T ) , T ⊗ (λT + µT ′) = λ(T ⊗ T ) + µ(T ⊗ T ′).

2. (T ⊗ T )⊗ T ′ = T ⊗ (T ⊗ T ′).

3. f∗(T ⊗ T ) = f∗(T )⊗ f∗(T ), cuando T y T son covariantes.

4. f∗(T ⊗ T ) = f∗(T )⊗ f∗(T ), cuando T y T son contravariantes.

Demostracion: Pongamose = (e1, . . . , ep), e

′ = (ep+1, . . . , ep+r), ω = (ω1, . . . , ωq), ω′ = (ωq+1, . . . , ωq+s).(

(λT + µT ′)⊗ T)(e, e′, ω, ω′) = (λT + µT ′)(e, ω)T (e′, ω′)

= λT (e, ω)T (e′, ω′) + µT ′(e, ω)T (e′, ω′) =(λ(T ⊗ T ) + µ(T ′ ⊗ T )

)(e, e′, ω, ω′)

y analogamente T ⊗ (λT + µT ′) = λ(T ⊗ T ) + µ(T ⊗ T ′).La segunda propiedad es clara. Veamos la tercera (la cuarta es analoga):

(f∗(T ⊗ T ))(e, e′) = (T ⊗ T )(f(e), f(e′)) = T (f(e)) · T (f(e′))= (f∗T )(e) · (f∗T )(e′) = (f∗(T )⊗ f∗(T ))(e, e′).

Teorema 8.2 dim (T qpE) = (dimE)p+q. De hecho, si e1, . . . , en es una base de E, y ω1, . . . , ωnes su base dual, entonces una base de T qpE esta definida por los tensores

ωi1 ⊗ . . .⊗ ωip ⊗ ej1 ⊗ . . .⊗ ejq , 1 ≤ i1, . . . , ip, j1, . . . , jq ≤ n.

Demostracion: Fijemos una sucesion i1, . . . , ip, j1, . . . , jq. Como ωi(ej) = δij ,

(ωi1 ⊗ . . .⊗ ωip ⊗ ej1 ⊗ . . .⊗ ejq )(ei1 , . . . , eip , ωj1 , . . . , ωjq ) = 1,

y los restantes tensores de la familia dada se anulan en (ei1 , . . . , eip , ωj1 , . . . , ωjq ).

48

Luego ωi1 ⊗ . . .⊗ ωip ⊗ ej1 ⊗ . . .⊗ ejq no es combinacion lineal de los restantes tensores,y vemos que la familia considerada es linealmente independiente.

Para probar que tal familia genera T qpE, basta ver que cualquier tensor T ∈ T qpE es

T =n∑

i1,...,ip,j1,...,jq=1

Tj1...jqi1...ip

ωi1 ⊗ . . .⊗ ωip ⊗ ej1 ⊗ . . .⊗ ejq ,

Tj1...jqi1...ip

:= T (ei1 , . . . , eip , ωj1 , . . . , ωjq )

La diferencia se anula en las sucesiones (ei1 , . . . , eip , ωj1 , . . . , ωjq ); luego es nula por 8.1.

Ejemplos:

1. Sea A = (aij) la matriz de un endomorfismo f : E → E en una base e1, . . . , en de E,es decir, f(ej) =

∑i aijei. Si ω1, . . . , ωn denota la base dual, el (1,1)-tensor T (e, ω) =

ω(f(e)) asociado a f sera T =∑ij T

ji ωi ⊗ ej , donde T

ji = T (ei, ωj) = ωj(f(ei)) = aji.

El coeficiente aij de A es justamente la coordenada T ij del tensor asociado a f .

2. Sea A = (aij) la matriz de una metrica S en una base e1, . . . , en de E. Si ω1, . . . , ωndenota la base dual, tendremos S =

∑ij Sijωi⊗ωj , donde Sij = S(ei, ej) = aij . Es decir,

el coeficiente aij de la matriz A es justamente la coordenada Sij de S.

Contraccion de Indices: Existe una unica aplicacion lineal C11 : T

qpE → T q−1

p−1E tal que

C11 (ω1 ⊗ . . .⊗ ωp ⊗ e1 ⊗ . . .⊗ eq) = ω1(e1)ω2 ⊗ . . .⊗ ωp ⊗ e2 ⊗ . . .⊗ eq. (14)

Demostracion: Fijada una base de E, consideramos la aplicacion lineal C11 : T

qpE → T q−1

p−1Eque cumple (14) en la correspondiente base de T qpE.

Ahora los dos terminos de (14) son aplicaciones multilineales

E∗× p. . . ×E∗ × E× q. . . ×E −→ T q−1p−1E

que coinciden en las sucesiones formadas con vectores de la base dada y su base dual; luegocoinciden en todas las sucesiones segun 8.1.

Nota: Analogamente se define la contraccion Cji : TqpE → T q−1

p−1E del ındice covariante

i con el ındice contravariante j, la contraccion Cklij del ındice covariante i con el ındicecontravariante j y del ındice covariante j con el ındice contravariante l, etc.

Por ejemplo, dado un tensor T de coordenadas T efgabcd, las coordenadas de C31T son

T efbcd = T efiibcd :=n∑i=1

T efiibcd,

(donde se adopta el convenio de Einstein: hay una suma extendida a todos los posiblesvalores de los ındices repetidos) y las coordenadas del tensor C32

13T son T ebd = T ejiibjd.

Subida y Bajada de Indices: Fijada una metrica simetrica gij , los ındices contravariantespueden transformarse en ındices covariantes; y fijado un 2-tensor contravariante simetricogij , los ındices covariantes pueden transformarse en ındices contravariantes:

T .........i... = giaT...a......... , T ...j......... = gjaT .........a... .

Definicion: Dado un (p, q)-tensor T con p ≥ 1, su contraccion interior con un vectore ∈ E es el (p− 1, q)-tensor (ieT )(e2, . . . , ep, ω1, . . . , ωq) = T (e, e2, . . . , ep, ω1, . . . , ωq).

49

9. Tensores Alternados

Definicion: Dado un p-tensor covariante T ∈ TpE, para cada permutacion σ ∈ Sp ponemos

(σT )(e1, . . . , ep) = T (eσ(1), . . . , eσ(p)).

y esta accion del grupo Sp sobre TpE tiene las siguientes propiedades:

1. La aplicacion σ : TpE −→ TpE es lineal.

2. Para toda aplicacion lineal f : F → E se cumple que f∗(σT ) = σ(f∗T ).

3. τ(σT ) = (τσ)T ; ∀σ, τ ∈ Sp.

4. σ(ω1 ⊗ . . .⊗ ωp) = ωσ−1(1) ⊗ . . .⊗ ωσ−1(p); ∀ω1, . . . , ωp ∈ E∗.

Demostracion: Las dos primeras se dejan como ejercicio. Veamos la tercera y la cuarta.(τ(σT )

)(e1, . . . , ep) = (σT )(eτ(1), . . . , eτ(p)) = T (eτ(σ1), . . . , eτ(σp))

= T (e(τσ)1, . . . , e(τσ)p) =((τσ)T

)(e1, . . . , ep),

(σ(ω1 ⊗ . . .⊗ ωp))(e1, . . . , ep) = ω1(eσ(1)) · . . . · ωp(eσ(p))= ωσ−1(1)(e1) · . . . ·ωσ−1(p)(ep) = (ωσ−1(1) ⊗ . . .⊗ ωσ−1(p))(e1, . . . , ep).

Definicion: Decimos que un p-tensor covariante Ω es hemisimetrico o alternado, o quees una p-forma lineal, cuando σΩ = (sgnσ)Ω para toda permutacion σ ∈ Sp,

Ω(eσ(1), . . . , eσ(p)) = (sgnσ)Ω(e1, . . . , ep).

Los tensores alternados forman un subespacio vectorial ΛpE ⊆ T 0pE, y por convenio

Λ0E = T 00E = K y Λ1E = T1E = E∗, de modo que las 1-formas lineales son simplemente

las formas lineales ω ∈ E∗.

Ejemplo: En el caso de un 2-tensor covariante Ω, la condicion de que sea alternado significaque Ω(e, v) = −Ω(v, e), ∀e, v ∈ E, y en particular Ω(e, e) = 0, ∀e ∈ E. De hecho, esta ultimacondicion equivale a la de ser alternado, pues implica que

0 = Ω(e+ v, e+ v) = Ω(e, e) + Ω(e, v) + Ω(v, e) + Ω(v, v) = Ω(e, v) + Ω(v, e).

Si Ωij son las coordenadas de Ω en una base de E, la condicion de ser alternado significaque Ωij = −Ωji; es decir, que la matriz A = (Ωij) cumple que At = −A.

Definicion: La hemisimetrizacion de un p-tensor covariante T es el tensor

h(Tp) =∑σ∈Sp

(sgnσ)(σT )

y convenimos que h(T ) = T cuando p = 0, 1. De acuerdo con la propiedad 4,

h(ω1 ⊗ . . .⊗ ωp) =∑σ∈Sp

(sgnσ)(ωσ(1) ⊗ . . .⊗ ωσ(p)). (15)

Lema 9.1 La aplicacion h : TpE −→ ΛpE es lineal y epiyectiva, y si h(T ) = 0, entoncespara todo q-tensor covariante T se cumple que

h(T ⊗ T ) = h(T ⊗ T ) = 0.

50

Demostracion: El tensor h(T ) es alternado porque para toda permutacion τ ∈ Sp,

τ( ∑σ∈Sp

(sgnσ)(σT ))= (sgn τ)

∑σ∈Sp

(sgn τσ)(τσT ) = (sgn τ)h(T ).

Las aplicaciones σ : TpE → TpE son lineales; luego la aplicacion h =∑σ σ : TpE → ΛpE

es lineal. Veamos que es epiyectiva:Consideremos las coordenadas Ωi1...ip = Ωp(ei1 , . . . , eip) de una p-forma Ω en una base

e1, . . . , en de E, de modo que Ωσ(i1)...σ(ip) = (sgnσ)Ωi1...ip . Si ω1, . . . , ωn denota la basedual, se cumple que

Ω =∑

1≤i1,...,ip≤nΩi1...ipωi1 ⊗ . . .⊗ ωip

=∑

i1≤...≤ip

( ∑σ∈Sp

(sgnσ)λi1...ipωσ(i1) ⊗ . . .⊗ ωσ(ip)

)=

∑i1≤...≤ip

λi1...iph(ωi1 ⊗ . . .⊗ ωip) = h( ∑i1≤...≤ip

λi1...ipωi1 ⊗ . . .⊗ ωip

). (16)

Finalmente, identifiquemos cada permutacion σ ∈ Sp con una permutacion σ ∈ Sp+q quedeja fijos los numeros p+ 1, . . . , p+ q. Se cumple que∑

σ∈Sp

(sgnσ)σ(T ⊗ T ) = h(T )⊗ T = 0,∑σ∈Sp

(sgn τσ)(τσ(T ⊗ T )

)= 0, para todaτ ∈ Sp+q,

y vemos que en h(T⊗T ) la suma correspondiente a los elementos de τSp es nula. Como, segun1.4, el grupo Sp+q puede descomponerse en union de subconjuntos Sp+q = τ1SP ∪ . . .∪ τrSpque son mutuamente disjuntos, vemos que h(T ⊗ T ) = 0.

Igualmente se prueba que h(T ⊗ T ) = 0.

9.1. Producto Exterior

Definicion: El producto exterior de dos tensores alternados Ω ∈ ΛpE, Ω ∈ ΛqE es

Ω ∧ Ω = h(T ) ∧ h(T ) := h(T ⊗ T ) ∈ Λp+qE,

y no depende de los tensores T y T elegidos: si Ω = h(T ′), entonces T ′ = T + H conh(H) = 0, y de acuerdo con el lema h(T ′ ⊗ T ) = h(T ⊗ T +H ⊗ T ) = h(T ⊗ T ).

Como h(Ω) = (p!)Ω y h(Ω) = (q!)Ω, el producto exterior es

Ω ∧ Ω =1

p!q!h(Ω⊗ Ω).

Propiedades del Producto Exterior:

1. (λΩ1 + µΩ2) ∧ Ω = λ(Ω1 ∧ Ω) + µ(Ω2 ∧ Ω).

Ω ∧ (λΩ1 + µΩ2) = λ(Ω ∧ Ω1) + µ(Ω ∧ Ω2).

2. (Ω ∧ Ω) ∧ Ω′ = Ω ∧ (Ω ∧ Ω′).

3. Ω ∧ Ω = (−1)pqΩ ∧ Ω, ∀Ω ∈ ΛpE, Ω ∈ ΛqE.

4. ω ∧ ω = 0, ∀ω ∈ E∗.

5. f∗(Ω ∧ Ω) = f∗(Ω) ∧ f∗(Ω).

6. ω1 ∧ . . . ∧ ωp =∑σ∈Sp

(sgnσ)(ωσ(1) ⊗ . . .⊗ ωσ(p)), ∀ω1, . . . , ωp ∈ E∗.

51

7. dimΛpE =(np

), y por tanto ΛpE = 0 cuando p > n. De hecho, si ω1, . . . , ωn es una base

de E∗, entonces las p-formas ωi1 ∧ . . . ∧ ωip , i1 < . . . < ip, forman una base de ΛpE, ypara toda p-forma Ω se cumple que

Ω =∑

i1≤...≤ipΩi1...ip ωi1 ∧ . . . ∧ ωip , Ωi1...ip := Ω(ei1 , . . . , eip).

8. ω1, . . . , ωp ∈ E∗ son linealmente independientes si y solo si ω1 ∧ . . . ∧ ωp 6= 0.

Demostracion: Las propiedades 1, 2 y 5 se siguen de las correspondientes propiedades delproducto tensorial.

Para demostrar (4), consideramos la trasposicion τ = (12). Tenemos que

ω ∧ ω = h(ω ⊗ ω) = ω ⊗ ω − τ(ω ⊗ ω) = ω ⊗ ω − ω ⊗ ω = 0.

(3) Demostremos primero el caso p = q = 1. Dadas 1-formas ω, ω′, tenemos que

0 = (ω + ω′) ∧ (ω + ω′) = ω ∧ ω + ω ∧ ω′ + ω′ ∧ ω + ω′ ∧ ω′ = ω ∧ ω′ + ω′ ∧ ω ;

luego ω∧ω′ = −ω′∧ω. Ahora el caso Ω = ω1∧. . .∧ωp, Ω = θ1∧. . .∧θq se sigue directamente,y el caso general se sigue de la bilinealidad del producto exterior.

(6) Es consecuencia directa de 15.

(7) Las p-formas ωi1 ∧ . . . ∧ ωip , con i1 < . . . < ip, generan ΛpE porque, segun 16,

Ω =∑

i1≤...≤ipΩ(ei1 , . . . , eip)ωi1 ∧ . . . ∧ ωip ,

y ωi1 ∧ . . . ∧ ωip = 0 cuando algun ındice esta repetido.Son linealmente independientes porque (ωi1 ∧ . . . ∧ ωip)(ej1 , . . . , ejp) = 0, salvo cuando

j1, . . . , jp es una reordenacion de i1 < . . . < ip.

(8) Si la familia ω1, . . . , ωp es linealmente independiente, puede extenderse hasta obteneruna base de E∗. Luego ω1 ∧ . . . ∧ ωp es parte de una base de ΛpE, y no es nulo.

Si ω1, . . . , ωp son linealmente dependientes, alguna es combinacion lineal de las restantes,y la propiedad 4 muestra que ω1 ∧ . . . ∧ ωp = 0.

Ejemplo: En un espaciotiempo de Minkowski (E, g) las fuerzas electromagneticas vienenrepresentadas por un endomorfismo F : E → E, donde se interpreta que para un observadorinercial de 4-velocidad e0, la fuerza que actua sobre la unidad de carga en reposo es F (e0), oequivalentemente por el 2-tensor covariante F (e, v) := g(F (e), v), donde g denota la metricaespacial. Ahora bien, la fuerza que mide un observador ha de ser un vector espacial, asıque F (e0, e0) = 0, y es natural suponer que el tensor F del campo electromagnetico es una2-forma, ası que en cualquier sistema de referencia inercial e0, e1, e2, e3 tendremos que

F = E1ω0 ∧ ω1 + E2ω0 ∧ ω2 + E3ω0 ∧ ω3 − 1c (B3ω1 ∧ ω2 −B2ω1 ∧ ω3 +B1ω2 ∧ ω3),

donde E = E1e1+E2e2+E3e3 y B = B1e1+B2e2+B3e3 dependen del observador inercialy reciben el nombre de campo electrico y campo magnetico respectivamente.

Es decir, Ei = F0i, B1 = cF23, B2 = −cF13, B3 = cF12, y un calculo directo prueba quela matriz del endomorfismo F es

A =

0 1

c2E11c2E2

1c2E3

E1 0 1cB3 − 1

cB2

E2 − 1cB3 0 1

cB1

E31cB2 − 1

cB1 0

|xI −A| = x4 − 1

c2 (‖E‖2 − ‖B‖2)x2 − 1c4 〈E|B〉2

52

y vemos que los escalares

‖E‖2 − ‖B‖2 = E21 + E2

2 + E23 −B2

1 −B22 −B2

3 , 〈E|B〉2 = (E1B1 + E2B2 + E3B3)2

no dependen del observador inercial, son invariantes del campo electromagnetico.Para un observador inercial, la fuerza electromagnetica que actua sobre una unidad de

carga que se mueva con velocidad aparente v = v1e1+ v2e2+ v3e3 es la componente espacialE + 1

c

((v2B3 − v3B2)e1 + (v3B1 − v1B3)e2 + (v1B2 − v2B1)e3

)del vector F (e0 + v).

Teorema 9.2 ie(Ω ∧ Ω) = (ieΩ) ∧ Ω + (−1)pΩ ∧ (ieΩ), ∀Ω ∈ ΛpE, Ω ∈ ΛqE.

Demostracion: Si e = 0, es ambos terminos son nulos.Si e 6= 0, fijemos una base e = e1, . . . , en y su base dual ω1, . . . , ωn.Podemos suponer que Ω=ωi1 ∧ . . . ∧ ωip = ωi1 ∧ ωI , y Ω = ωj1 ∧ . . . ∧ ωjq = ωj1 ∧ ωJ .Cuando i1 > 1 y j1 > 1, ambos terminos son nulos. Cuando i1 = 1 y j1 > 1,

ie(Ω ∧ Ω) = ie(ω1 ∧ ωI ∧ Ω) = ωI ∧ Ω,

(ieΩ) ∧ Ω + (−1)pΩ ∧ (ieΩ) = ωI ∧ Ω + (−1)pΩ ∧ 0 = ωI ∧ Ω,

y el caso i1 > 1, j1 = 1 es similar. Cuando i1 = 1 y j1 = 1,

ie(Ω ∧ Ω) = ie(ω1 ∧ ωI ∧ ω1 ∧ ωJ) = ie(0) = 0,

(ieΩ) ∧ Ω + (−1)pΩ ∧ (ieΩ) = ωI ∧ Ω + (−1)pω1 ∧ ωI ∧ ωJ= ωI ∧ Ω + (−1)p(−1)p−1ωI ∧ ω1 ∧ ωJ = ωI ∧ Ω− ωI ∧ Ω = 0.

9.2. Determinantes y Formas de Volumen

Proposicion 9.3 (ω1 ∧ . . . ∧ ωp)(e1, . . . , ep) = |ωi(ej)| = |ωj(ei)|.

Demostracion: Tenemos que ω1 ∧ . . .∧ωp =∑σ(sgnσ)(ωσ(1)⊗ . . .⊗ωσ(p)) por la propiedad

6, y ω1 ∧ . . . ∧ ωp = h(ω1 ⊗ . . . ⊗ ωp) =∑σ(sgnσ)(σ(ω1 ⊗ . . . ⊗ ωp))) por definicion del

producto exterior. Luego

(ω1 ∧ . . . ∧ ωp)(e1, . . . , ep) =∑σ

(sgnσ)ωσ(1)(e1) . . . ωσ(p)(ep) = |ωj(ei)|,

(ω1 ∧ . . . ∧ ωp)(e1, . . . , ep) =∑σ

(sgnσ)ω1(eσ(1)) . . . ωp(eσ(p)) = |ωi(ej)|.

Teorema del Rango: El rango de una matriz es el mayor orden de sus menores no nulos.

Demostracion: Dadas formas lineales ω1, . . . , ωp ∈ E∗, las coordenadas de su producto ex-terior ω1 ∧ . . . ∧ ωp en una base e1, . . . , en de E son

(ω1 ∧ . . . ∧ ωp)(ei1 , . . . , eip) =

∣∣∣∣∣∣ω1(ei1) . . . ωp(ei1). . . . . . . . .

ω1(eip) . . . ωp(eip)

∣∣∣∣∣∣ .Este determinante es el menor de orden p formado con las filas i1, . . . , ip de la matriz

que tiene por columnas las coordenadas de ω1, . . . , ωp en la base dual. Ahora bien, por lapropiedad 8 de producto exterior, estas p columnas son linealmente independientes si y solosi ω1 ∧ . . . ∧ ωp 6= 0, lo que significa que alguna de sus coordenadas no es nula.

Definicion: Como dimΛnE = 1 cuando n = dimE, todo endomorfismo ΛnE → ΛnE esla multiplicacion por cierto escalar. Ahora bien, cada endomorfismo T : E → E induce unendomorfismo T ∗ : ΛnE → ΛnE, (T ∗Ω)(e1, . . . , en) = Ω(T (e1), . . . , T (en)), que ha de ser lamultiplicacion por un escalar det(T ), llamado determinante de T ,

ΩE(T (e1), . . . , T (en)

)= (T ∗ΩE)(e1, . . . , en) = (detT )ΩE(e1, . . . , en). (17)

53

Proposicion 9.4 El determinante de un endomorfismo T : E → E coincide con el deter-minante de su matriz A = (aij) en cualquier base, det(T ) = |A|.

Demostracion: T ∗(ω1 ∧ . . . ∧ ωn) = (T ∗ω1) ∧ . . . ∧ (T ∗ωn), y T∗(ωi) =

∑j aijωj .

Teorema 9.5 det(T S) = (detT )(detS).

Demostracion: (TS)∗ = S∗T ∗.

Lema 9.6 Sea n = dimE y 0 6= ΩE ∈ ΛnE. Unos vectores e1, . . . , en forman una base deE si y solo si ΩE(e1, . . . , en) 6= 0.

Demostracion: Si e1, . . . , en forman una base de E, entonces la coordenada de ΩE en lacorrespondiente base de ΛnE es ΩE(e1, . . . , en), y no es nula porque ΩE 6= 0.

Si e1, . . . , en son linealmente dependientes, alguno es combinacion lineal de los restantes;luego ΩE(e1, . . . , en) = 0, porque ΩE(. . . , ei, . . . , ei, . . .) = 0.

Teorema 9.7 Un endomorfismo T es invertible si y solo si det(T ) 6= 0.

Demostracion: Fijada una base e1, . . . , en en E, y una n-forma 0 6= ΩE ∈ ΛnE,

ΩE(T (e1), . . . , T (en)

)= (detT )ΩE(e1, . . . , en),

de acuerdo con 17. Luego det(T ) 6= 0 si y solo si T (e1), . . . , T (en) es una base de E, lo queequivale a que T sea un isomorfismo.

Teorema 9.8 En un R-espacio vectorial euclıdeo E de dimension n, solo hay dos n-formas±ΩE tales que |ΩE(u1, . . . , un)| = 1 para toda base ortonormal u1, . . . , un de E.

Demostracion: Fijemos una base ortonormal u1, . . . , un en E, y sea ω1, . . . , ωn su base dual.Como (λω1 ∧ . . .∧ ωn)(u1, . . . , un) = λ, las unicas formas de volumen que pueden tomar

valor ±1 en todas las bases ortonormales son ±ω1 ∧ . . . ∧ ωn, y para concluir hemos de verque (ω1 ∧ . . . ∧ ωn)(v1, . . . , vn) = ±1 para cualquier otra base ortonormal v1, . . . , vn.

Sea B = (bij) la matriz de cambio de base; es decir, vj =∑i bijui.

La condicion vi · vj = δij significa que BtB = I, de modo que |B|2 = |BtB| = 1, y vemosque |B| = ±1 (recuerdese que K = R).

Concluimos que (ω1 ∧ . . . ∧ ωn)(v1, . . . , vn) = |ωi(vj)| = |bij | = |B| = ±1.

Definicion: En un R-espacio vectorial euclıdeo E de dimension n, llamaremos formas devolumen (area cuando n = 2) a las n-formas ±ΩE tales que |ΩE(u1, . . . , un)| = 1 paracualquier base ortonormal u1, . . . , un de E, y diremos que |ΩE(e1, . . . , en)| es el volumen(area cuando n = 2) del paralelepıpedo determinado por los vectores e1, . . . , en ∈ E.

La demostracion del teorema anterior muestra que si ΩE es una n-forma y |ΩE(u1, . . . , un)| =1 en alguna base ortonormal u1, . . . , un, entonces cumple tal condicion en toda base orto-normal, ası que las formas de volumen en E son ±ΩE .

De acuerdo con 17, para cualquier endomorfismo T : E → E se cumple que[Volumen del paralelepıpedode aristas Te1, . . . , T en

]= |detT |

[Volumen del paralelepıpedo

de aristas e1, . . . , en

]Definiciones: Dar una orientacion en un espacio vectorial euclıdeo real E es dar una (delas dos posibles) forma de volumen ΩE , y diremos que una base e1, . . . , en es directa o queesta bien orientada cuando ΩE(e1, . . . , en) > 0.

Sea ΩE la forma de volumen de un R-espacio vectorial euclıdeo orientado E de dimension3. Si e, v ∈ E, entonces la forma lineal ivieΩE = ΩE(e, v,−) se corresponde, via la polaridad

54

ϕ : E → E∗ definida por el producto escalar, con un vector e × v ∈ E, llamado productovectorial de e y v, de modo que para todo vector u ∈ E se cumple que

(e× v) · u = ΩE(e, v, u).

Propiedades del Producto Vectorial:

1. (λe+ µe′)× v = λ(e× v) + µ(e′ × v), e× (λv + µv′) = λ(e× v) + µ(e× v′).

2. e× v = −v × e.

3. Los vectores e y v son linealmente independientes si y solo si e × v 6= 0, y en tal casoe× v es ortogonal a ambos factores, su modulo es el area del paralelogramo determinadopor e y v, y la base e, v, e× v es directa.

Demostracion: Para ver que dos vectores de E coinciden, basta ver que tienen el mismoproducto escalar con cualquier vector u ∈ E. Ahora bien,(

(λe+ µe′)× v)· u = ΩE(λe+ µe′, v, u) = λΩE(e, v, u) + µΩE(e

′, v, u),(λ(e× v) + µ(e′ × v)

)· u = λ(e× v) · u+ µ(e′ × v) · u = λΩE(e, v, u) + µΩE(e

′, v, u).(e× (λv + µv′)

)· u = ΩE(e, λv + µv′, u) = λΩE(e, v, u) + µΩE(e, v

′, u),(λ(e× v) + µ(e× v′)

)· u = λ(e× v) · u+ µ(e× v′) · u = λΩE(e, v, u) + µΩE(e, v

′, u).

(e× v) · u = ΩE(e, v, u) = −ΩE(v, e, u) = −(v × e) · u.

Veamos tambien que e× v es ortogonal a ambos factores:

(e× v) · e = ΩE(e, v, e) = 0 , (e× v) · v = ΩE(e, v, v) = 0.

Por otra parte, si e y v son linealmente dependientes, entonces (e×v)·u = ΩE(e, v, u) = 0,∀u ∈ E, porque e, v, u no puede ser base de E. Luego e× v = 0.

Si e y v son linealmente independientes, pueden ampliarse hasta obtener una base e, v, ude E. Luego (e × v) · u = ΩE(e, v, u) 6= 0 y vemos que e × v 6= 0. En tal caso, tendremose × v = λu, donde λ = ‖e × v‖, ‖u‖ = 1, de modo que iuΩE es una de las dos formas dearea del plano Re+ Rv: Si u1, u2 es una base ortonormal de dicho plano, entonces u, u1, u2es una base ortonormal en E, ası que (iuΩE)(u1, u2) = ΩE(u, u1, u2) = ±1. Luego[

Area del paralelo–gramo de aristas e, v

]= |(iuΩE)(e, v)| = |ΩE(u, e, v)| = |(e× v) · u| = |λu · u| = ‖e× v‖.

Por ultimo, la base e, v, e× v es directa porque

ΩE(e, v, e× v) = (e× v) · (e× v) > 0.

55

Indice alfabetico

angulo, 24aplicacion, 5

antilineal, 18biyectiva, 5epiyectiva, 5inversa, 5inyectiva, 5lineal, 18multilineal, 47traspuesta, 38

argumento, 4

base, 13directa, 54dual, 34ortonormal, 25usual, 13

bra, 35

conica, 44ciclo, 6ciclos disjuntos, 6cociente

de numeros complejos, 3composicion, 5conjugado, 3cono, 40, 44contraccion

de ındices, 49interior, 49

coordenadas, 13cuadrica central, 44

dependencia lineal, 13determinante, 7, 53dimension, 15direccion, 12distancia, 23, 25

ecuaciones implıcitas, 14ecuaciones parametricas, 14eje

de una cuadrica, 45endomorfismo, 27

autoadjunto, 32diagonalizable, 29simetrico, 32

escalar, 11, producto, 23

espacio vectorial, 11cociente, 13

dual, 34euclıdeo, 24hermıtico, 24

espaciotiempode Galileo, 40de Minkowski, 43

exponencial compleja, 5

formula de Euler, 4forma

cuadratica, 40de volumen, 54lineal, 34, 50

generadores, 13gradiente, 36grupo, 8

abeliano, 8alternado, 10conmmutativo, 8especial, 10lineal, 9ortogonal, 9simetrico, 9unitario, 9

hemisimetrizacion, 50

identidad, 5imagen, 5, 10independencia lineal, 13isometrıa, 23isomorfismo, 19

ket, 35

logaritmo, 5

metodo de Gram-Schmidt, 26metrica, 40

de Lorentz, 43del tiempo, 41, 43dual, 47espacial, 43, 48

modulo de unnumero complejo, 3vector, 23

matriz, 7autoadjunta, 32conjugada, 7de una metrica, 40

56

hermıtica, 32inversa, 7invertible, 7simetrica, 32traspuesta, 7unidad, 7unitaria, 26

menorde una matriz, 8principal, 41

morfismo de grupos, 10multiplicidad de una raız, 27

nucleo, 10numeros complejos, 3

observador inercial, 40, 43operacion externa, 11operacion interna, 8operador

hermıtico, 32lineal, 27unitario, 23

orientacion, 54ortogonal, 23

paralelismo, 12parte imaginaria, 3parte real, 3permutacion, 5

impar, 6par, 6

plano, 15polaridad, 41polinomio caracterıstico, 28producto

de matrices, 7de numeros complejos, 3directo, 12escalar, 23exterior, 51tensorial, 48

proyeccion ortogonal, 25punto, 11

medio, 15

raız simple, 27rango, 8, 41recta, 15referencia inercial, 40, 43regla de

Cramer, 8Descartes, 46Ruffini, 27

signatura, 42signo de una permutacion, 6simetrıa, 25subespacio

incidente, 37ortogonal, 24propio, 28vectorial, 11

subgrupo, 9subvariedad lineal, 12suma

de numeros complejos, 3de subespacios vectoriales, 12directa, 17

tensor, 47alternado, 50contravariante, 47covariante, 47hemisimetrico, 50

teoremade D’Alembert, 27de Hamilton-Cayley, 29de isomorfıa, 20de Lagrange, 9de Rouche-Frobenius, 8, 17del rango, 8, 53espectral, 32

transformaciones elementales, 7trasposicion, 6

valor propio, 28vector, 11

isotropo, 42propio, 28

volumen, 54

57