Artigos

9.1: A Matriz de uma Transformação Linear


Seja (T: V para W ) uma transformação linear onde ( func {dim} V = n ) e ( func {dim} W = m ). A ideia é converter um vetor ( vect {v} ) em (V ) em uma coluna em ( RR ^ n ), multiplicar essa coluna por (A ) para obter uma coluna em ( RR ^ m ), e converta esta coluna de volta para obter (T ( vect {v}) ) em (W ).

Converter vetores em colunas é uma questão simples, mas uma pequena mudança é necessária. Até agora o pedido dos vetores em uma base não teve importância. No entanto, nesta seção, falaremos de um base ordenada ( { vect {b} _ {1}, vect {b} _ {2}, dots, vect {b} _ {n} } ), que é apenas uma base onde a ordem em quais os vetores listados é levado em consideração. Portanto, ( { vect {b} _ {2}, vect {b} _ {1}, vect {b} _ {3} } ) é diferente ordenou base de ( { vect {b} _ {1}, vect {b} _ {2}, vect {b} _ {3} } ).

Se (B = { vect {b} _ {1}, vect {b} _ {2}, dots, vect {b} _ {n} } ) é uma base ordenada em um vetor espaço (V ), e se [ vect {v} = v_1 vect {b} _1 + v_2 vect {b} _2 + cdots + v_n vect {b} _n, quad v_i in RR ] é um vetor em (V ), então os números (determinados exclusivamente) (v_ {1}, v_ {2}, dots, v_ {n} ) são chamados de coordenadas de ( vect {v} ) com respeito à base (B ).

Vetor de coordenadas (C_B ( vect {v}) ) de ( vect {v} ) para uma base (B ) 027894 O vetor coordenado de ( vect {v} ) com respeito a (B ) é definido como [C_B ( vect {v}) = (v_1 vect {b} _1 + v_2 vect {b} _2 + cdots + v_n vect {b} _n) = leftB begin {array} {c} v_1 v_2 vdots v_n end {array} rightB ]

A razão para escrever (C_ {B} ( vect {v}) ) como uma coluna em vez de uma linha ficará clara mais tarde. Observe que (C_ {B} ( vect {b} _ {i}) = vect {e} _ {i} ) é a coluna (i ) de (I_ {n} ).

027904 O vetor de coordenadas para ( vect {v} = (2, 1, 3) ) com respeito à base ordenada (B = {(1, 1, 0), (1, 0, 1), (0, 1, 1) } ) de ( RR ^ 3 ) é (C_B ( vect {v}) = leftB begin {array} {c} 0 2 1 end {array} rightB ) porque [ vect {v} = (2, 1, 3) = 0 (1, 1, 0) + 2 (1, 0, 1) + 1 (0, 1, 1 ) ]

027908 Se (V ) tem dimensão (n ) e (B = { vect {b} _ {1}, vect {b} _ {2}, dots, vect {b} _ {n} } ) é qualquer base ordenada de (V ), a transformação de coordenadas (C_ {B}: V para RR ^ n ) é um isomorfismo. Na verdade, (C_B ^ {- 1}: RR ^ n para V ) é dado por [C_B ^ {- 1} leftB begin {array} {c} v_1 v_2 vdots v_n end {array} rightB = v_1 vect {b} _1 + v_2 vect {b} _2 + cdots + v_n vect {b} _n quad mbox {para todos} quad leftB começar {matriz} {c} v_1 v_2 vdots v_n end {matriz} rightB mbox {in} RR ^ n. ]

A verificação de que (C_ {B} ) é linear é o Exercício [ex: ex9_1_13]. Se (T: RR ^ n para V ) é o mapa denotado (C_B ^ {- 1} ) no teorema, verifica-se (Exercício [ex: ex9_1_13]) que (TC_ {B} = 1_ {V} ) e (C_BT = 1 _ { RR ^ n} ). Observe que (C_ {B} ( vect {b} _ {j}) ) é a coluna (j ) da matriz identidade, então (C_ {B} ) carrega a base (B ) à base padrão de ( RR ^ n ), provando novamente que é um isomorfismo (Teorema [thm: 022044])

15cm

Agora seja (T: V para W ) qualquer transformação linear onde ( func {dim} V = n ) e ( func {dim} W = m ), e seja (B = { vect {b} _ {1}, vect {b} _ {2}, dots, vect {b} _ {n} } ) e (D ) são bases ordenadas de (V ) e (W ), respectivamente. Então (C_ {B}: V to RR ^ n ) e (C_ {D}: W to RR ^ m ) são isomorfismos e temos a situação mostrada no diagrama onde (A ) é uma matriz (m vezes n ) (a ser determinada). Na verdade, o composto [C_DTC_B ^ {- 1}: RR ^ n to RR ^ m mbox {é uma transformação linear} ] então o Teorema [thm: 005789] mostra que um único (m vezes n ) matriz (A ) existe tal que [C_DTC_B ^ {- 1} = T_A, quad mbox {equivalentemente} C_DT = T_AC_B ] (T_ {A} ) atua por multiplicação à esquerda por ( A ), então esta última condição é [C_D [T ( vect {v})] = AC_B ( vect {v}) mbox {para todos} vect {v} mbox {in} V ] Este requisito determina completamente (A ). Na verdade, o fato de que (C_ {B} ( vect {b} _ {j}) ) é a coluna (j ) da matriz identidade dá [ mbox {coluna} j mbox {de} A = AC_B ( vect {b} _j) = C_D [T ( vect {b} _j)] ] para todos (j ). Portanto, em termos de suas colunas, [A = leftB begin {array} {cccc} C_D [T ( vect {b} _1)] & C_D [T ( vect {b} _2)] & cdots & C_D [T ( vect {b} _n)] end {array} rightB ]

Matriz (M_ {DB} (T) ) de (T: V para W ) para as bases (D ) e (B ) 027950 Isso é chamado de matriz de (T ) correspondendo às bases ordenadas (B ) e (D ), e usamos a seguinte notação: [M_ {DB} (T) = leftB begin {array} {cccc} C_D [T ( vect {b} _1)] & C_D [T ( vect {b} _2)] & cdots & C_D [T ( vect {b} _n)] end {array} rightB ]

Esta discussão é resumida no seguinte teorema importante.

027955 Seja (T: V para W ) uma transformação linear onde ( func {dim} V = n ) e ( func {dim} W = m ), e seja (B = { vect {b} _ {1}, dots, vect {b} _ {n} } ) e (D ) são bases ordenadas de (V ) e (W ), respectivamente . Então a matriz (M_ {DB} (T) ) dada é a única matriz (m vezes n ) (A ) que satisfaz [C_DT = T_AC_B ] Portanto, a propriedade definidora de (M_ {DB} (T) ) é [C_D [T ( vect {v})] = M_ {DB} (T) C_B ( vect {v}) mbox {para todos} vect {v} mbox {in} V ] A matriz (M_ {DB} (T) ) é dada em termos de suas colunas por [M_ {DB} (T) = leftB begin {array} {cccc} C_D [ T ( vect {b} _1)] & C_D [T ( vect {b} _2)] & cdots & C_D [T ( vect {b} _n)] end {array} rightB ]

O fato de que (T = C_D ^ {- 1} T_AC_B ) significa que a ação de (T ) em um vetor ( vect {v} ) em (V ) pode ser realizada primeiro tomando coordenadas (isto é, aplicando (C_ {B} ) a ( vect {v} )), então multiplicando por (A ) (aplicando (T_ {A} )), e finalmente convertendo o resultante (m ) - tupla de volta a um vetor em (W ) (aplicando (C_D ^ {- 1} )).

027973 Defina (T: vectspace {P} _ {2} to RR ^ 2 ) por (T (a + bx + cx ^ {2}) = (a + c, b - a - c) ) para todos os polinômios (a + bx + cx ^ {2} ). If (B = { vect {b} _ {1}, vect {b} _ {2}, vect {b} _ {3} } ) e (D = { vect { d} _ {1}, vect {d} _ {2} } ) onde [ vect {b} _1 = 1, vect {b} _2 = x, vect {b} _3 = x ^ 2 quad mbox {e} quad vect {d} _1 = (1, 0), vect {d} _2 = (0, 1) ] computar (M_ {DB} (T) ) e verifique o teorema [thm: 027955].

Temos (T ( vect {b} _ {1}) = vect {d} _ {1} - vect {d} _ {2} ), (T ( vect {b} _ { 2}) = vect {d} _ {2} ), e (T ( vect {b} _ {3}) = vect {d} _ {1} - vect {d} _ {2 } ). Portanto, [M_ {DB} (T) = leftB begin {array} {ccc} C_D [T ( vect {b} _1)] & C_D [T ( vect {b} _2)] & C_D [T ( vect {b} _n)] end {array} rightB = leftB begin {array} {rrr} 1 & 0 & 1 -1 & 1 & -1 end {array} rightB ] Se ( vect {v} = a + bx + cx ^ {2} = a vect {b} _ {1} + b vect {b} _ {2} + c vect {b} _ {3 } ), então (T ( vect {v}) = (a + c) vect {d} _ {1} + (b - a - c) vect {d} _ {2} ), então [C_D [T ( vect {v})] = leftB begin {array} {c} a + c b - a - c end {array} rightB = leftB begin {array} {rrr} 1 & 0 & 1 -1 & 1 & -1 end {array} rightB leftB begin {array} {c} a b c end {array} rightB = M_ {DB} (T) C_B ( vect {v}) ] como o Teorema [thm: 027955] afirma.

O próximo exemplo mostra como determinar a ação de uma transformação de sua matriz.

028008 Suponha que (T: vectspace {M} _ {22} ( RR) to RR ^ 3 ) seja linear com a matriz (M_ {DB} (T) = leftB begin {array} {rrrr } 1 & -1 & 0 & 0 0 & 1 & -1 & 0 0 & 0 & 1 & -1 end {array} rightB ) onde [B = left { leftB begin {array} {cc} 1 & 0 0 & 0 end {array} rightB, leftB begin {array} {cc} 0 & 1 0 & 0 end {array} rightB, leftB begin {array} {cc} 0 & 0 1 & 0 end {array} rightB, leftB begin {array} {cc} 0 & 0 0 & 1 end {array} rightB right } mbox {e} D = {(1, 0, 0), (0, 1, 0), (0, 0, 1) } ] Calcular (T ( vect {v} ) ) onde ( vect {v} = leftB begin {array} {cc} a & b c & d end {array} rightB ).

A ideia é calcular (C_ {D} [T ( vect {v})] ) primeiro, e então obter (T ( vect {v}) ). Temos [C_D [T ( vect {v})] = M_ {DB} (T) C_B ( vect {v}) = leftB begin {array} {rrrr} 1 & -1 & 0 & 0 0 & 1 & -1 & 0 0 & 0 & 1 & -1 end {array} rightB leftB begin {array} {c} a b c d end { matriz} rightB = leftB begin {array} {c} a - b b - c c - d end {array} rightB ]

[ begin {alinhados} mbox {Conseqüentemente} T ( vect {v}) & = (a - b) (1, 0, 0) + (b - c) (0, 1, 0) + (c - d) (0, 0, 1) & = (a - b, b - c, c - d) end {alinhado} ]

Os próximos dois exemplos serão mencionados posteriormente.

028025 Seja (A ) uma matriz (m vezes n ), e seja (T_ {A}: RR ^ n para RR ^ m ) a transformação da matriz induzida por (A: T_ {A} ( vect {x}) = A vect {x} ) para todas as colunas ( vect {x} ) em ( RR ^ n ). Se (B ) e (D ) são as bases padrão de ( RR ^ n ) e ( RR ^ m ), respectivamente (ordenados como de costume), então [M_ {DB} ( T_A) = A ] Em outras palavras, a matriz de (T_ {A} ) correspondente às bases padrão é o próprio (A ).

Escreva (B = { vect {e} _ {1}, dots, vect {e} _ {n} } ). Como (D ) é a base padrão de ( RR ^ m ), é fácil verificar que (C_ {D} ( vect {y}) = vect {y} ) para todas as colunas ( vect {y} ) em ( RR ^ m ). Portanto, [M_ {DB} (T_A) = leftB begin {array} {cccc} T_A ( vect {e} _1) & T_A ( vect {e} _2) & cdots & T_A ( vect {e } _n) end {array} rightB = leftB begin {array} {cccc} A vect {e} _1 & A vect {e} _2 & cdots & A vect {e} _n end { array} rightB = A ] porque (A vect {e} _ {j} ) é a (j ) ésima coluna de (A ).

028048 Sejam (V ) e (W ) ter bases ordenadas (B ) e (D ), respectivamente. Seja ( func {dim} V = n ).

  1. A transformação de identidade (1_ {V}: V para V ) tem matriz (M_ {BB} (1_ {V}) = I_ {n} ).

  2. A transformação zero (0: V para W ) tem matriz (M_ {DB} (0) = 0 ).

O primeiro resultado no Exemplo [exa: 028048] é falso se as duas bases de (V ) não forem iguais. Na verdade, se (B ) é a base padrão de ( RR ^ n ), então a base (D ) de ( RR ^ n ) pode ser escolhida para que (M_ {DB } (1 _ { RR ^ n}) ) acaba sendo qualquer matriz invertível que desejarmos (Exercício [ex: ex9_1_14]).

Os próximos dois teoremas mostram que a composição das transformações lineares é compatível com a multiplicação das matrizes correspondentes.

028067

14cm

Sejam (V stackrel {T} { to} W stackrel {S} { to} U ) transformações lineares e sejam (B ), (D ) e (E ) bases ordenadas finitas de (V ), (W ) e (U ), respectivamente. Então [M_ {EB} (ST) = M_ {ED} (S) cdot M_ {DB} (T) ]

Usamos a propriedade do Teorema [thm: 027955] três vezes. Se ( vect {v} ) está em (V ), [M_ {ED} (S) M_ {DB} (T) C_B ( vect {v}) = M_ {ED} (S) C_D [T ( vect {v})] = C_E [ST ( vect {v})] = M_ {EB} (ST) C_B ( vect {v}) ] Se (B = { vect {e} _ {1}, dots, vect {e} _ {n} } ), então (C_ {B} ( vect {e} _ {j}) ) é a coluna (j ) de (I_ {n} ). Portanto, tomando ( vect {v} = vect {e} _ {j} ) mostra que (M_ {ED} (S) M_ {DB} (T) ) e (M_ {EB} (ST ) ) têm colunas iguais (j ) th. O teorema segue.

028086 Seja (T: V para W ) uma transformação linear, onde ( func {dim} V = func {dim} W = n ). Os seguintes são equivalentes.

  1. (T ) é um isomorfismo.

  2. (M_ {DB} (T) ) é invertível para todas as bases ordenadas (B ) e (D ) de (V ) e (W ).

  3. (M_ {DB} (T) ) é invertível para algum par de bases ordenadas (B ) e (D ) de (V ) e (W ).

Quando este for o caso, ([M_ {DB} (T)] ^ {- 1} = M_ {BD} (T ^ {- 1}) ).

(1) ( Rightarrow ) (2). Temos (V stackrel {T} { to} W stackrel {T ^ {- 1}} { to} V ), então Teorema [thm: 028067] e Exemplo [exa: 028048] dão [ M_ {BD} (T ^ {- 1}) M_ {DB} (T) = M_ {BB} (T ^ {- 1} T) = M_ {BB} (1v) = I_n ] Da mesma forma, (M_ {DB} (T) M_ {BD} (T ^ {- 1}) = I_ {n} ), provando (2) (e a última afirmação do teorema).

(2) ( Rightarrow ) (3). Isso é claro.

14cm

(3) ( Rightarrow ) (1). Suponha que (T_ {DB} (T) ) seja invertível para algumas bases (B ) e (D ) e, por conveniência, escreva (A = M_ {DB} (T) ). Então temos (C_ {D} T = T_ {A} C_ {B} ) pelo Teorema [thm: 027955], então [T = (C_D) ^ {- 1} T_AC_B ] pelo Teorema [thm: 027908] onde ((C_ {D}) ^ {- 1} ) e (C_ {B} ) são isomorfismos. Logo, (1) segue se pudermos demonstrar que (T_ {A}: RR ^ n to RR ^ n ) também é um isomorfismo. Mas (A ) é invertível por (3) e verifica-se que (T_AT_ {A ^ {- 1}} = 1 _ { RR ^ n} = T_ {A ^ {- 1}} T_A ). Portanto, (T_ {A} ) é de fato invertível (e ((T_ {A}) ^ {- 1} = T_ {A ^ {- 1}} )).

Na seção [sec: 7_2] definimos o ( func {rank} ) de uma transformação linear (T: V para W ) por ( func {rank} T = func {dim} ( função {im} T) ). Além disso, se (A ) é qualquer matriz (m vezes n ) e (T_ {A}: RR ^ n para RR ^ m ) é a transformação da matriz, mostramos que ( func {rank} (T_ {A}) = func {rank} A ). Portanto, pode não ser surpreendente que ( func {rank} T ) seja igual a ( func {rank} ) de qualquer matriz de (T ).

028139 Seja (T: V para W ) uma transformação linear onde ( func {dim} V = n ) e ( func {dim} W = m ). Se (B ) e (D ) são quaisquer bases ordenadas de (V ) e (W ), então ( func {rank} T = func {rank} [M_ {DB} ( T)] ).

Escreva (A = M_ {DB} (T) ) por conveniência. O espaço da coluna de (A ) é (U = {A vect {x} mid vect {x} ) em ( RR ^ n } ). Isso significa ( func {rank} A = func {dim} U ) e então, porque ( func {rank} T = func {dim} ( func {im} T) ), é suficiente para encontrar um isomorfismo (S: func {im} T para U ). Agora, todo vetor em ( func {im} T ) tem a forma (T ( vect {v}) ), ( vect {v} ) em (V ). Pelo teorema [thm: 027955], (C_ {D} [T ( vect {v})] = AC_ {B} ( vect {v}) ) encontra-se em (U ). Portanto, defina (S: func {im} T para U ) por [S [T ( vect {v})] = C_D [T ( vect {v})] mbox {para todos os vetores} T ( vect {v}) in func {im} T ] O fato de que (C_ {D} ) é linear e um-para-um implica imediatamente que (S ) é linear e um- para um. Para ver que (S ) está ligado, seja (A vect {x} ) qualquer membro de (U ), ( vect {x} ) em ( RR ^ n ) . Então ( vect {x} = C_ {B} ( vect {v}) ) para algum ( vect {v} ) em (V ) porque (C_ {B} ) é sobre . Portanto, (A vect {x} = AC_ {B} ( vect {v}) = C_ {D} [T ( vect {v})] = S [T ( vect {v})] ) , então (S ) está ligado. Isso significa que (S ) é um isomorfismo.

028158 Defina (T: vectspace {P} _ {2} to RR ^ 3 ) por (T (a + bx + cx ^ {2}) = (a - 2b, 3c - 2a, 3c - 4b) ) para (a ), (b ), (c in RR ). Compute ( func {rank} T ).

Uma vez que ( func {rank} T = func {rank} [M_ {DB} (T)] ) para algum bases (B subseteq vectspace {P} _ {2} ) e (D subseteq RR ^ 3 ), escolhemos as mais convenientes: (B = {1, x, x ^ { 2} } ) e (D = {(1, 0, 0), (0, 1, 0), (0, 0, 1) } ). Então (M_ {DB} (T) = leftB begin {array} {ccc} C_ {D} [T (1)] & C_ {D} [T (x)] & C_ {D} [T ( x ^ {2})] end {array} rightB = A ) onde [A = leftB begin {array} {rrr} 1 & -2 & 0 -2 & 0 & 3 0 & -4 & 3 end {array} rightB. quad mbox {Desde} A to leftB begin {array} {rrr} 1 & -2 & 0 0 & -4 & 3 0 & -4 & 3 end {array} rightB para leftB begin {array} {rrr} 1 & -2 & 0 0 & 1 & - frac {3} {4} 0 & 0 & 0 end {array} rightB ] temos ( func {rank} A = 2 ). Portanto, ( func {rank} T = 2 ) também.

Concluímos com um exemplo que mostra que a matriz de uma transformação linear pode ser muito simples por uma escolha cuidadosa das duas bases.

028178 Seja (T: V para W ) uma transformação linear onde ( func {dim} V = n ) e ( func {dim} W = m ). Escolha uma base ordenada (B = { vect {b} _ {1}, dots, vect {b} _ {r}, vect {b} _ {r + 1}, dots, vect {b} _ {n} } ) de (V ) em que ( { vect {b} _ {r + 1}, dots, vect {b} _ {n} } ) é uma base de ( func {ker} T ), possivelmente vazio. Então ( {T ( vect {b} _ {1}), dots, T ( vect {b} _ {r}) } ) é uma base de ( func {im} T ) pelo teorema [thm: 021572], então estenda-o para uma base ordenada (D = {T ( vect {b} _ {1}), dots, T ( vect {b} _ {r}) , vect {f} _ {r + 1}, dots, vect {f} _ {m} } ) de (W ). Porque (T ( vect {b} _ {r + 1}) = cdots = T ( vect {b} _ {n}) = vect {0} ), temos [M_ {DB} (T) = leftB begin {array} {cccccc} C_D [T ( vect {b} _1)] & cdots & C_D [T ( vect {b} _r)] & C_D [T ( vect { b} _ {r + 1})] & cdots & C_D [T ( vect {b} _n)] end {array} rightB = leftB begin {array} {cc} I_r & 0 0 & 0 end {array} rightB ] Incidentalmente, isso mostra que ( func {rank} T = r ) pelo Teorema [thm: 028139].

Exercícios para 1

soluções

1

Em cada caso, encontre as coordenadas de ( vect {v} ) em relação à base (B ) do espaço vetorial (V ).

  1. (V = vectspace {P} _2 ), ( vect {v} = 2x ^ 2 + x - 1 ), (B = {x + 1, x ^ 2, 3 } )

  2. (V = vectspace {P} _2 ), ( vect {v} = ax ^ 2 + bx + c ), (B = {x ^ 2, x + 1, x + 2 } )

  3. (V = RR ^ 3 ), ( vect {v} = (1, -1, 2) ),
    (B = {(1, -1, 0), (1, 1, 1), (0, 1, 1) } )

  4. (V = RR ^ 3 ), ( vect {v} = (a, b, c) ),
    (B = {(1, -1, 2), (1, 1, -1), (0, 0, 1) } )

  5. (V = vectspace {M} _ {22} ), ( vect {v} = leftB begin {array} {rr} 1 & 2 -1 & 0 end {array} rightB ),
    (B = left { leftB begin {array} {rr} 1 & 1 0 & 0 end {array} rightB, leftB begin {array} {rr} 1 & 0 1 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 1 & 1 end {array} rightB, leftB begin {array} {rr} 1 & 0 0 & 1 end {array} rightB right } )

  1. ( leftB begin {array} {c} a 2b - c c - b end {array} rightB )

  2. ( frac {1} {2} leftB begin {array} {c} a - b a + b -a + 3b + 2c end {array} rightB )

Suponha que (T: vectspace {P} _ {2} to RR ^ 2 ) seja uma transformação linear. Se (B = {1, x, x ^ {2} } ) e (D = {(1, 1), (0, 1) } ), encontre a ação de (T ) dado:

  1. (M_ {DB} (T) = leftB begin {array} {rrr} 1 & 2 & -1 -1 & 0 & 1 end {array} rightB )

  2. (M_ {DB} (T) = leftB begin {array} {rrr} 2 & 1 & 3 -1 & 0 & -2 end {array} rightB )

  1. Portanto, [ begin {alinhados} T ( vect {v}) & = (2a + b + 3c) (1, 1) + (-a - 2c) (0, 1) & = (2a + b + 3c, a + b + c). End {alinhado} ]

Em cada caso, encontre a matriz da transformação linear (T: V para W ) correspondente às bases (B ) e (D ) de (V ) e (W ), respectivamente .

  1. (T: vectspace {M} _ {22} to RR ), (T (A) = func {tr} A );
    (B = left { leftB begin {array} {rr} 1 & 0 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 1 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 1 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } ), (D = {1 } )

  2. (T: vectspace {M} _ {22} to vectspace {M} _ {22} ), (T (A) = A ^ T );
    (B = D = left { leftB begin {array} {rr} 1 & 0 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 1 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 1 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } )

  3. (T: vectspace {P} _2 para vectspace {P} _3 ), (T [p (x)] = xp (x) ); (B = {1, x, x ^ 2 } ) e (D = {1, x, x ^ 2, x ^ 3 } )

  4. (T: vectspace {P} _2 para vectspace {P} _2 ), (T [p (x)] = p (x + 1) );
    (B = D = {1, x, x ^ 2 } )

  1. ( leftB begin {array} {cccc} 1 & 0 & 0 & 0 0 & 0 & 1 & 0 0 & 1 & 0 & 0 0 & 0 & 0 & 1 end {array } rightB )

  2. ( leftB begin {array} {ccc} 1 & 1 & 1 0 & 1 & 2 0 & 0 & 1 end {array} rightB )

Em cada caso, encontre a matriz de
(T: V a W ) correspondendo às bases (B ) e (D ), respectivamente, e usá-lo para calcular (C_ {D} [T ( vect {v})] ) e, portanto, (T ( vect {v}) ).

  1. (T: RR ^ 3 a RR ^ 4 ), (T (x, y, z) = (x + z, 2z, y - z, x + 2y) ); Padrão (B ) e (D ); ( vect {v} = (1, -1, 3) )

  2. (T: RR ^ 2 a RR ^ 4 ), (T (x, y) = (2x - y, 3x + 2y, 4y, x) ); (B = {(1, 1), (1, 0) } ), (D ) padrão; ( vect {v} = (a, b) )

  3. (T: vectspace {P} _2 to RR ^ 2 ), (T (a + bx + cx ^ 2) = (a + c, 2b) );
    (B = {1, x, x ^ 2 } ), (D = {(1, 0), (1, -1) } );
    ( vect {v} = a + bx + cx ^ 2 )

  4. (T: vectspace {P} _2 to RR ^ 2 ), (T (a + bx + cx ^ 2) = (a + b, c) );
    (B = {1, x, x ^ 2 } ), (D = {(1, -1), (1, 1) } );
    ( vect {v} = a + bx + cx ^ 2 )

  5. (T: vectspace {M} _ {22} to RR ), (T leftB begin {array} {cc} a & b c & d end {array} rightB = a + b + c + d );
    (B = left { leftB begin {array} {rr} 1 & 0 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 1 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 1 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } ),
    (D = {1 } ); ( vect {v} = leftB begin {array} {cc} a & b c & d end {array} rightB )

  6. (T: vectspace {M} _ {22} to vectspace {M} _ {22} ),
    (T leftB begin {array} {cc} a & b c & d end {array} rightB = leftB begin {array} {cc} a & b + c b + c & d end {array} rightB );
    (B = D = {} )
    ( left { leftB begin {array} {rr} 1 & 0 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 1 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 1 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } ); ( vect {v} = leftB begin {array} {cc} a & b c & d end {array} rightB )

  1. ( leftB begin {array} {cc} 1 & 2 5 & 3 4 & 0 1 & 1 end {array} rightB );
    (C_D [T (a, b)] = leftB begin {array} {cc} 1 & 2 5 & 3 4 & 0 1 & 1 end {array} rightB leftB begin {array} {cc} b a - b end {array} rightB = leftB begin {array} {c} 2a - b 3a + 2b 4b a end {array} rightB )

  2. ( frac {1} {2} leftB begin {array} {rrr} 1 & 1 & -1 1 & 1 & 1 end {array} rightB ); (C_D [T (a + bx + cx ^ 2)] = frac {1} {2} leftB begin {array} {rrr} 1 & 1 & -1 1 & 1 & 1 end { matriz} rightB leftB begin {array} {c} a b c end {array} rightB = frac {1} {2} leftB begin {array} {c} a + b - c a + b + c end {array} rightB )

  3. ( leftB begin {array} {cccc} 1 & 0 & 0 & 0 0 & 1 & 1 & 0 0 & 1 & 1 & 0 0 & 0 & 0 & 1 end {array } rightB ); (C_D left (T leftB begin {array} {cc} a & b c & d end {array} rightB right) = leftB begin {array} {cccc} 1 & 0 & 0 & 0 0 & 1 & 1 & 0 0 & 1 & 1 & 0 0 & 0 & 0 & 1 end {array} rightB leftB begin {array} {c} a b c d end {array} rightB = leftB begin {array} {c} a b + c b + c d end {array} rightB )

Em cada caso, verifique o Teorema [thm: 028067]. Use a base padrão em ( RR ^ n ) e ( {1, x, x ^ {2} } ) em ( vectspace {P} _ {2} ).

  1. ( RR ^ 3 stackrel {T} { to} RR ^ 2 stackrel {S} { to} RR ^ 4 ); (T (a, b, c) = (a + b, b - c) ), (S (a, b) = (a, b - 2a, 3b, a + b) )

  2. ( RR ^ 3 stackrel {T} { to} RR ^ 4 stackrel {S} { to} RR ^ 2 );
    (T (a, b, c) = (a + b, c + b, a + c, b - a) ),
    (S (a, b, c, d) = (a + b, c - d) )

  3. ( vectspace {P} _2 stackrel {T} { to} RR ^ 3 stackrel {S} { to} vectspace {P} _2 ); (T (a + bx + cx ^ 2) = (a, b - c, c - a) ), (S (a, b, c) = b + cx + (a - c) x ^ 2 )

  4. ( RR ^ 3 stackrel {T} { to} vectspace {P} _2 stackrel {S} { to} RR ^ 2 );
    (T (a, b, c) = (a - b) + (c - a) x + bx ^ 2 ),
    (S (a + bx + cx ^ 2) = (a - b, c) )

  1. (M_ {ED} (S) M_ {DB} (T) = {} )
    ( leftB begin {array} {rrrr} 1 & 1 & 0 & 0 0 & 0 & 1 & -1 end {array} rightB leftB begin {array} {rrr} 1 & 1 & 0 0 & 1 & 1 1 & 0 & 1 -1 & 1 & 0 end {array} rightB = {} )
    ( leftB begin {array} {rrr} 1 & 2 & 1 2 & -1 & 1 end {array} rightB = M_ {EB} (ST) )

  2. (M_ {ED} (S) M_ {DB} (T) = {} )
    ( leftB begin {array} {rrr} 1 & -1 & 0 0 & 0 & 1 end {array} rightB leftB begin {array} {rrr} 1 & -1 & 0 -1 & 0 & 1 0 & 1 & 0 end {array} rightB = {} )
    ( leftB begin {array} {rrr} 2 & -1 & -1 0 & 1 & 0 end {array} rightB = M_ {EB} (ST) )

Verifique o teorema [thm: 028067] para
( vectspace {M} _ {22} stackrel {T} { para} vectspace {M} _ {22} stackrel {S} { para} vectspace {P} _2 ) onde (T (A) = A ^ {T} ) e
(S leftB begin {array} {cc} a & b c & d end {array} rightB = b + (a + d) x + cx ^ 2 ). Use as bases
(B = D = left { leftB begin {array} {rr} 1 & 0 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 1 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 1 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } )
e (E = {1, x, x ^ {2} } ).

Em cada caso, encontre (T ^ {- 1} ) e verifique se ([M_ {DB} (T)] ^ {- 1} = M_ {BD} (T ^ {- 1}) ).

  1. (T: RR ^ 2 a RR ^ 2 ), (T (a, b) = (a + 2b, 2a + 5b) );
    (B = D = ) padrão

  2. (T: RR ^ 3 a RR ^ 3 ), (T (a, b, c) = (b + c, a + c, a + b) ); (B = D = ) padrão

  3. (T: vectspace {P} _2 to RR ^ 3 ), (T (a + bx + cx ^ 2) = (a - c, b, 2a - c) ); (B = {1, x, x ^ 2 } ), (D = ) padrão

  4. (T: vectspace {P} _2 para RR ^ 3 ),
    (T (a + bx + cx ^ 2) = (a + b + c, b + c, c) );
    (B = {1, x, x ^ 2 } ), (D = ) padrão

  1. (T ^ {- 1} (a, b, c) = frac {1} {2} (b + c - a, a + c - b, a + b - c) );
    (M_ {DB} (T) = leftB begin {array} {ccc} 0 & 1 & 1 1 & 0 & 1 1 & 1 & 0 end {array} rightB );
    (M_ {BD} (T ^ {- 1}) = frac {1} {2} leftB begin {array} {rrr} -1 & 1 & 1 1 & -1 & 1 1 & 1 e -1 end {array} rightB )

  2. (T ^ {- 1} (a, b, c) = (a - b) + (b - c) x + cx ^ 2 );
    (M_ {DB} (T) = leftB begin {array} {ccc} 1 & 1 & 1 0 & 1 & 1 0 & 0 & 1 end {array} rightB );
    (M_ {BD} (T ^ {- 1}) = leftB begin {array} {rrr} 1 & -1 & 0 0 & 1 & -1 0 & 0 & 1 end {array } rightB )

Em cada caso, mostre que (M_ {DB} (T) ) é invertível e use o fato de que (M_ {BD} (T ^ {- 1}) = [M_ {BD} (T)] ^ { -1} ) para determinar a ação de (T ^ {- 1} ).

  1. (T: vectspace {P} _2 to RR ^ 3 ), (T (a + bx + cx ^ 2) = (a + c, c, b - c) ); (B = {1, x, x ^ 2 } ), (D = ) padrão

  2. (T: vectspace {M} _ {22} to RR ^ 4 ),
    (T leftB begin {array} {cc} a & b c & d end {array} rightB = (a + b + c, b + c, c, d) );
    (B = left { leftB begin {array} {rr} 1 & 0 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 1 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 1 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB right } ), (D = ) padrão

  1. Portanto, (C_B [T ^ {- 1} (a, b, c, d)] = {} )
    (M_ {BD} (T ^ {- 1}) C_D (a, b, c, d) = {} )
    ( leftB begin {array} {rrrr} 1 & -1 & 0 & 0 0 & 1 & -1 & 0 0 & 0 & 0 & 1 & 0 0 & 0 & 0 & 1 end {array} rightB leftB begin {array} {c} a b c d end {array} rightB = leftB begin {array} {c} a - b b - c c d end {array} rightB ), então (T ^ {- 1} (a, b, c, d) = leftB begin {array} {cc} a -b & b - c c & d end {array} rightB ).

Seja (D: vectspace {P} _ {3} to vectspace {P} _ {2} ) o mapa de diferenciação dado por (D [p (x)] = p ^ prime (x) ). Encontre a matriz de (D ) correspondente às bases (B = {1, x, x ^ {2}, x ^ {3} } ) e
(E = {1, x, x ^ {2} } ), e use-o para calcular
(D (a + bx + cx ^ {2} + dx ^ {3}) ).

Use o Teorema [thm: 028086] para mostrar que
(T: V a V ) não é um isomorfismo se ( func {ker} T neq 0 ) (suponha ( func {dim} V = n )). [Dica: Escolha qualquer base ordenada (B ) contendo um vetor em ( func {ker} T ).]

Seja (T: V to RR ) uma transformação linear, e seja (D = {1 } ) a base de ( RR ). Dada qualquer base ordenada (B = { vect {e} _ {1}, dots, vect {e} _ {n} } ) de (V ), mostre que
(M_ {DB} (T) = [T ( vect {e} _ {1}) cdots T ( vect {e} _ {n})] ).

Seja (T: V to W ) um isomorfismo, seja (B = { vect {e} _ {1}, dots, vect {e} _ {n} } ) um base ordenada de (V ), e seja (D = {T ( vect {e} _ {1}), dots, T ( vect {e} _ {n}) } ). Mostre que (M_ {DB} (T) = I_ {n} ) - a matriz de identidade (n vezes n ).

Tem (C_ {D} [T ( vect {e} _ {j})] ) = coluna (j ) de (I_ {n} ). Portanto (M_ {DB} (T) = leftB begin {array} {cccc} C_ {D} [T ( vect {e} _ {1})] & C_ {D} [T ( vect { e} _ {2})] & cdots & C_ {D} [T ( vect {e} _ {n})] end {array} rightB = I_ {n} ).

[ex: ex9_1_13] Complete a prova do Teorema [thm: 027908].

[ex: ex9_1_14] Seja (U ) qualquer matriz invertível (n vezes n ), e seja (D = { vect {f} _ {1}, vect {f} _ {2 }, dots, vect {f} _ {n} } ) onde ( vect {f} _ {j} ) é a coluna (j ) de (U ). Mostre que (M_ {BD} (1 _ { RR ^ n}) = U ) quando (B ) é a base padrão de ( RR ^ n ).

Seja (B ) uma base ordenada do (n ) - espaço dimensional (V ) e seja (C_ {B}: V para RR ^ n ) a transformação de coordenadas. Se (D ) é a base padrão de ( RR ^ n ), mostre que (M_ {DB} (C_ {B}) = I_ {n} ).

Seja (T: vectspace {P} _ {2} to RR ^ 3 ) definido por
(T (p) = (p (0), p (1), p (2)) ) para todos (p ) em ( vectspace {P} _ {2} ). Deixar
(B = {1, x, x ^ {2} } ) e (D = {(1, 0, 0), (0, 1, 0), (0, 0, 1) } ).

  1. Mostre que (M_ {DB} (T) = leftB begin {array} {ccc} 1 & 0 & 0 1 & 1 & 1 1 & 2 & 4 end {array} rightB ) e concluir que (T ) é um isomorfismo.

  2. Generalize para (T: vectspace {P} _ {n} para RR ^ {n + 1} ) onde
    (T (p) = (p (a_ {0}), p (a_ {1}), pontos, p (a_ {n})) ) e (a_ {0}, a_ {1}, dots, a_ {n} ) são números reais distintos.

  1. Se (D ) é a base padrão de ( RR ^ {n + 1} ) e (B = {1, x, x ^ {2}, dots, x ^ {n} } ), então (M_ {DB} (T) = {} )
    ( leftB begin {array} {cccc} C_D [T (1)] & C_D [T (x)] & cdots & C_D [T (x ^ n)] end {array} rightB = leftB begin {array} {ccccc} 1 & a_0 & a_0 ^ 2 & cdots & a_0 ^ n 1 & a_1 & a_1 ^ 2 & cdots & a_1 ^ n 1 & a_2 & a_2 ^ 2 & cdots & a_2 ^ n vdots & vdots & vdots & & vdots 1 & a_n & a_n ^ 2 & cdots & a_n ^ n end {array} rightB ).

    Esta matriz tem determinante diferente de zero pelo Teorema [thm: 008552] (uma vez que os (a_ {i} ) são distintos), então (T ) é um isomorfismo.

Seja (T: vectspace {P} _ {n} to vectspace {P} _ {n} ) definido por (T [p (x)] = p (x) + xp ^ prime ( x) ), onde (p ^ prime (x) ) denota a derivada. Mostre que (T ) é um isomorfismo encontrando (M_ {BB} (T) ) quando (B = {1, x, x ^ {2}, dots, x ^ {n} } ).

Se (k ) for qualquer número, defina
(T_ {k}: vectspace {M} _ {22} to vectspace {M} _ {22} ) por (T_ {k} (A) = A + kA ^ {T} ).

  1. Se (B = )
    ( left { leftB begin {array} {rr} 1 & 0 0 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 0 0 & 1 end {array} rightB, leftB begin {array} {rr} 0 & 1 1 & 0 end {array} rightB, leftB begin {array} {rr} 0 & 1 - 1 & 0 end {array} rightB right } ) encontre (M_ {BB} (T_k) ) e conclua que (T_k ) é invertível se (k neq 1 ) e (k neq -1 ).

  2. Repita para (T_ {k}: vectspace {M} _ {33} to vectspace {M} _ {33} ). Você pode generalizar?

Os exercícios restantes requerem as seguintes definições. Se (V ) e (W ) são espaços vetoriais, o conjunto de todas as transformações lineares de (V ) para (W ) será denotado por [ vectspace {L} (V, W) = {T mid T: V to W mbox {é uma transformação linear} } ] Dado (S ) e (T ) em ( vectspace {L} (V, W) ) e (a ) em ( RR ), defina (S + T: V para W ) e (aT: V para W ) por [ begin {alinhado} (S + T) ( vect {v}) & = S ( vect {v}) + T ( vect {v}) & mbox {para todos} vect {v} mbox {in} V (aT ) ( vect {v}) & = aT ( vect {v}) & mbox {para todos} vect {v} mbox {in} V end {alinhado} ]

[ex: ex9_1_19] Mostre que ( vectspace {L} (V, W) ) é um espaço vetorial.

[ex: ex9_1_20] Mostre que as seguintes propriedades são válidas, desde que as transformações se vinculem de forma que todas as operações sejam definidas.

  1. (R (ST) = (RS) T )

  2. (1_ {W} T = T = T1_ {V} )

  3. (R (S + T) = RS + RT )

  4. ((S + T) R = SR + TR )

  5. ((aS) T = a (ST) = S (aT) )

  1. ([(S + T) R] ( vect {v}) = (S + T) (R ( vect {v})) = S [(R ( vect {v}))] + T [ (R ( vect {v}))] = SR ( vect {v}) + TR ( vect {v}) = [SR + TR] ( vect {v}) ) vale para todos ( vect {v} ) em (V ). Portanto, ((S + T) R = SR + TR ).

Dados (S ) e (T ) em ( vectspace {L} (V, W) ), mostre que:

  1. ( func {ker} S cap func {ker} T subseteq func {ker} (S + T) )

  2. ( func {im} (S + T) subseteq func {im} S + func {im} T )

  1. Se ( vect {w} ) reside em ( func {im} (S + T) ), então ( vect {w} = (S + T) ( vect {v}) ) para algum ( vect {v} ) em (V ). Mas então ( vect {w} = S ( vect {v}) + T ( vect {v}) ), então ( vect {w} ) está em ( func {im} S + func {im} T ).

Sejam (V ) e (W ) espaços vetoriais. Se (X ) é um subconjunto de (V ), defina [X ^ {0} = {T mbox {in} vectspace {L} (V, W) mid T ( vect { v}) = 0 mbox {para todos} vect {v} mbox {em} X } ]

  1. Mostre que (X ^ {0} ) é um subespaço de ( vectspace {L} (V, W) ).

  2. Se (X subseteq X_ {1} ), mostre que (X_1 ^ 0 subseteq X ^ 0 ).

  3. Se (U ) e (U_ {1} ) são subespaços de (V ), mostre que
    ((U + U_1) ^ 0 = U ^ 0 cap U_1 ^ 0 ).

  1. Se (X subseteq X_ {1} ), deixe (T ) ficar em (X_1 ^ 0 ). Então (T ( vect {v}) = vect {0} ) para todos ( vect {v} ) em (X_ {1} ), de onde (T ( vect {v} ) = vect {0} ) para todos os ( vect {v} ) em (X ). Assim, (T ) está em (X ^ {0} ) e mostramos que (X_1 ^ 0 subseteq X ^ {0} ).

Defina (R: vectspace {M} _ {mn} to vectspace {L} ( RR ^ n, RR ^ m) ) por (R (A) = T_ {A} ) para cada (m vezes n ) matriz (A ), onde (T_ {A}: RR ^ n para RR ^ m ) é dado por (T_ {A} ( vect {x} ) = A vect {x} ) para todos ( vect {x} ) em ( RR ^ n ). Mostre que (R ) é um isomorfismo.

Seja (V ) qualquer espaço vetorial (não presumimos que seja de dimensão finita). Given (vect{v}) in (V), define (S_{vect{v}} : RR o V) by (S_{vect{v}}(r) = rvect{v}) for all (r) in (RR).

  1. Show that (S_{vect{v}}) lies in (vectspace{L}(RR, V)) for each (vect{v}) in (V).

  2. Show that the map (R : V o vectspace{L}(RR, V)) given by (R(vect{v}) = S_{vect{v}}) is an isomorphism. [Dica: To show that (R) is onto, if (T) lies in (vectspace{L}(RR, V)), show that (T = S_{vect{v}}) where (vect{v} = T(1)).]

  1. (R) is linear means (S_{vect{v}+vect{w}} = S_{vect{v}} + S_{vect{w}}) and (S_{avect{v}} = aS_{vect{v}}). These are proved as follows: (S_{vect{v}+vect{w}}(r) = r(vect{v} + vect{w}) = rvect{v} + rvect{w} = Svect{v}(r) + Svect{w}(r) = (Svect{v} + Svect{w})(r)), and (S_{avect{v}}(r) = r(avect{v}) = a(rvect{v}) = (aS_{vect{v}})(r)) for all (r) in (RR). To show (R) is one-to-one, let (R(vect{v}) = vect{0}). This means (S_{vect{v}} = 0) so (0 = S_{vect{v}}(r) = rvect{v}) for all (r). Hence (vect{v} = vect{0}) (take (r = 1)). Finally, to show (R) is onto, let (T) lie in (vectspace{L}(RR, V)). We must find (vect{v}) such that (R(vect{v}) = T), that is (S_{vect{v}} = T). In fact, (vect{v} = T(1)) works since then (T(r) = T(r dotprod 1) = rT(1) = rvect{v} = S_{vect{v}}(r)) holds for all (r), so (T = S_{vect{v}}).

Let (V) be a vector space with ordered basis (B = {vect{b}_{1}, vect{b}_{2}, dots, vect{b}_{n}}). For each (i = 1, 2, dots, m), define (S_{i} : RR o V) by (S_{i}(r) = rvect{b}_{i}) for all (r) in (RR).

  1. Show that each (S_{i}) lies in (vectspace{L}(RR, V)) and (S_{i}(1) = vect{b}_{i}).

  2. Given (T) in (vectspace{L}(RR, V)), let
    (T(1) = a_{1}vect{b}_{1} + a_{2}vect{b}_{2} + cdots + a_{n}vect{b}_{n}), (a_{i}) in (RR). Show that (T = a_{1}S_{1} + a_{2}S_{2} + cdots + a_{n}S_{n}).

  3. Show that ({S_{1}, S_{2}, dots, S_{n}}) is a basis of (vectspace{L}(RR, V)).

  1. Given (T : RR o V), let (T(1) = a_{1}vect{b}_{1} + cdots + a_{n}vect{b}_{n}), (a_{i}) in (RR). For all (r) in (RR), we have ((a_{1}S_{1} + cdots + a_{n}S_{n})(r) = a_{1}S_{1}(r) + cdots + a_{n}S_{n}(r) = (a_{1}rvect{b}_{1} + cdots + a_{n}rvect{b}_{n}) = rT(1) = T(r)). This shows that (a_{1}S_{1} + cdots + a_{n}S_{n} = T).

[ex:9_1_26] Let (func{dim }V = n), (func{dim }W = m), and let (B) and (D) be ordered bases of (V) and (W), respectively. Show that (M_{DB} : vectspace{L}(V, W) o vectspace{M}_{mn}) is an isomorphism of vector spaces. [Dica: Let (B = {vect{b}_{1}, dots, vect{b}_{n}}) and (D = {vect{d}_{1}, dots, vect{d}_{m}}). Given (A = leftB a_{ij} ightB) in (vectspace{M}_{mn}), show that (A = M_{DB}(T)) where (T : V o W) is defined by
(T(vect{b}_{j}) = a_{1j}vect{d}_{1} + a_{2j}vect{d}_{2} + cdots + a_{mj}vect{d}_{m}) for each (j).]

If (V) is a vector space, the space (V^{*} = vectspace{L}(V, RR)) is called the dual of (V). Given a basis (B = {vect{b}_{1}, vect{b}_{2}, dots, vect{b}_{n}}) of (V), let (E_{i} : V o RR) for each (i = 1, 2, dots, n) be the linear transformation satisfying [E_i(vect{b}_j) = left{ egin{array}{ll} 0 & mbox{ if } i eq j 1 & mbox{ if } i = j end{array} ight.] (each (E_{i}) exists by Theorem [thm:020916]). Prove the following:

  1. (E_{i}(r_{1}vect{b}_{1} + cdots + r_{n}vect{b}_{n}) = r_{i}) for each (i = 1, 2, dots, n)

  2. (vect{v} = E_{1}(vect{v})vect{b}_{1} + E_{2}(vect{v})vect{b}_{2} + cdots + E_{n}(vect{v})vect{b}_{n}) for all (vect{v}) in (V)

  3. (T = T(vect{b}_{1})E_{1} + T(vect{b}_{2})E_{2} + cdots + T(vect{b}_{n})E_{n}) for all (T) in (V^{*})

  4. Given (vect{v}) in (V), define (vect{v}^{*} : V o RR) by
    (vect{v}^{*}(vect{w}) = E_{1}(vect{v})E_{1}(vect{w}) + E_{2}(vect{v})E_{2}(vect{w}) + cdots + E_{n}(vect{v})E_{n}(vect{w})) for all (vect{w}) in (V). Show that:
  5. (vect{v}^{*} : V o RR) is linear, so (vect{v}^{*}) lies in (V^{*}).

  6. (vect{b}_i^{*} = E_{i}) for each (i = 1, 2, dots, n).

  7. The map (R : V o V^{*}) with (R(vect{v}) = vect{v}^{*}) is an isomorphism. [Dica: Show that (R) is linear and one-to-one and use Theorem [thm:022192]. Alternatively, show that (R^{-1}(T) = T(vect{b}_{1})vect{b}_{1} + cdots + T(vect{b}_{n})vect{b}_{n}).]

  1. Write (vect{v} = v_{1}vect{b}_{1} + cdots + v_{n}vect{b}_{n}), (v_{j}) in (RR). Apply (E_{i}) to get (E_{i}(vect{v}) = v_{1}E_{i}(vect{b}_{1}) + cdots + v_{n}E_{i}(vect{b}_{n}) = v_{i}) by the definition of the (E_{i}).


Chapter 9 : Linear transformation

A function from a set $X$ to a set $Y$ is rule telling how elements of both sets are associated each other.

The element $y in Y$ associated, under the function, to the element $x in X$ is the so-called image.
The element $x in X$ associated, under the function, to the element $y in Y$ is the so-called pre-image.

Example I

The function represented in Figure 9.1 associates the grades of the students belonging to the class D1 in respect to the last examination of statistics. We have :

  • $X= < ext, ext, ext, ext, ext, ext>$. $Y=<1,2,3,4,5,6>$.
  • The image of $ ext$ under the function is $4$.
  • The pre-image of $5$ under the function is $< ext, ext>$.
  • $ ext$ does not have any image (absent at the examination).
  • $1$ and $2$ both do not have any pre-image.


1 resposta 1

Remember that $T$ maps polynomials to polynomials. A polynomial is a special type of function, and as such, we can substitute particular values into the given polynomial. In this case, the map $T$ takes a polynomial function, substitutes $t = 4$ into the polynomial to get a constant, and then turns that constant into the constant function.

For example, to compute $T(2t^2 - 1)$ we substitute $t = 4$ into the polynomial $2t^2 - 1$ to obtain the constant $2(4)^2 - 1 = 31$ . So, $T(2t^2 - 1) = 0t^2 + 0t + 31.$

To form the matrix, you need to compute $T(1), T(t),$ and $T(t^2)$ , i.e. find the image of the basis under $T$ . Then, you need to compute the coordinate column vectors for the resulting polynomials under the given basis.

Let's get you started. If we evaluate $T(1)$ , we substitute $t = 4$ into the constant polynomial $1$ to get $1$ (the constant polynomial takes the value of $1$ at any $t$ , including $t = 4$ ). So, $T(1) = 1 cdot 1 + 0 cdot t + 0 cdot t^2.$ Therefore, the coordinate column vector with respect to the basis $(1, t, t^2)$ is $egin 1 0 0 end.$ This forms the first column of your matrix. Do the same with $t$ and $t^2$ , and you'll get the other two columns.


Existence and Uniqueness¶

Notice that some of these transformations map multiple inputs to the same output, and some are incapable of generating certain outputs.

For example, the projections above can send multiple different points to the same point.

We need some terminology to understand these properties of linear transformations.

Definição. A mapping (T: mathbb^n ightarrow mathbb^m) is said to be para (mathbb^m) if each (mathbf) in (mathbb^m) is the image of at least one ( mathbf) in (mathbb^n) .

Informally, (T) is onto if every element of its codomain is in its range.

Another (important) way of thinking about this is that (T) is onto if there is a solution (mathbf) of

for all possible (mathbf.)

This is asking an existence question about a solution of the equation (T(mathbf) = mathbf) for all (mathbf.)

Here, we see that (T) maps points in (mathbb^2) to a plane lying dentro de (mathbb^3) .

That is, the range of (T) is a strict subset of the codomain of (T) .

So (T) is not onto (mathbb^3) .

In this case, for every point in (mathbb^2) , there is an (mathbf) that maps to that point.

So, the range of (T) is equal to the codomain of (T) .

So (T) is para (mathbb^2) .

Here, the red points are the images of the blue points.

What about this transformation? Is it onto (mathbb^2) ?

Here again the red points (which all lie on the (x) -axis) are the images of the blue points.

What about this transformation? Is it onto (mathbb^2) ?

Definição. A mapping (T: mathbb^n ightarrow mathbb^m) is said to be um a um if each (mathbf) in (mathbb^m) is the image of at most one ( mathbf) in (mathbb^n) .

If (T) is one-to-one, then for each (mathbf,) the equation (T(mathbf) = mathbf) has either a unique solution, or none at all.

This is asking an existence question about a solution of the equation (T(mathbf) = mathbf) for all (mathbf) .

Let’s examine the relationship between these ideas and some previous definitions.

If (Amathbf = mathbf) is consistent for all (mathbf) , is (T(mathbf) = Amathbf) onto? one-to-one?

(T(mathbf)) is onto. (T(mathbf)) may or may not be one-to-one. If the system has multiple solutions for some (mathbf) , (T(mathbf)) is not one-to-one.

If (Amathbf = mathbf) is consistent and has a unique solution for all (mathbf) , is (T(mathbf) = Amathbf) onto? one-to-one?

If (Amathbf = mathbf) is not consistent for all (mathbf) , is (T(mathbf) = Amathbf) onto? one-to-one?

(T(mathbf)) is não onto. (T(mathbf)) may or may not be one-to-one.

If (T(mathbf) = Amathbf) is onto, is (Amathbf = mathbf) consistent for all (mathbf) ? is the solution unique for all (mathbf) ?

If (T(mathbf) = Amathbf) is one-to-one, is (Amathbf = mathbf) consistent for all (mathbf) ? is the solution unique for all (mathbf) ?


Chapter 9: Linear Mappings

This chapter is about linear mappings . A mapping is simply a function that takes a vector in and outputs another vector. A linear mapping is a special kind of function that is very useful since it is simple and yet powerful.

Example 9.1: Image Compresssion
Linear mappings are common in real world engineering problems. One example is in image ou video compression. Here an image to be coded is broken down to blocks, such as the $4 imes 4$ pixel blocks as shown in Figure 9.1.

A real encoder is more complicated than this picture, and contain many optimizations. For instance, the linear mapping is not implemented using a matrix multiplication, but in a faster way that is mathematically equivalent to it.

Definition 9.1: Mapping
A mapping $F$ is a rule that, for every item in one set $N$, provides one item in another set $M$
começar F: N ightarrow M. end (9.1)
This may look abstract, but in fact you have already been dealing with mappings , but under the name functions. Another way to state the same thing is
começar y = F(x). fim (9.2)
The form
começar F: x ightarrow y, x in N. end (9.3)
is also used. For example the function $y = x^2$, shown in Figure 9.3, is a rule that, for every item in the set of real numbers $mathbb$, provides another item from the set of real numbers $mathbb$. Thus, in this example, both $N$ and $M$ equals $mathbb$. Definition 9.2: Domain, Codomain, and Range of a Mapping
Assume we have a mapping $y = F(x)$ where $x in N$ and $y in M$. Then $N$ is the domínio of the mapping , and $M$ is the codomínio of the mapping . O alcance (or alternatively, the image) of the mapping is the set $V_F$, where
começar V_F = . fim (9.4)

The vertical bar should be read as "such that" or "with the property of". In this example, the expression can be read out as "$V_F$ is the set of all elements $F(x)$ such that $x$ belongs to the set $N$". For the example $y=x^2$, the range equals the set of positive real numbers including zero, $V_F = mathbb_$. Therefore, in this case, we only reach a subset of the codomain , i.e., $V_F$ is a subset of $M$.

In linear algebra, the inputs and outputs of a function are vectors instead of scalar. Assume we have a coordinate system $vc_1,vc_2$ and that $eginx_1 x_2 end$ is the coordinate for the vector $vc$. We can now have a function $vc = F( vc )$ that maps every $vc$ to a new vector $vc = beginy_1 y_2 end$ according to, for instance,

começar começar y_1 = x_1 y_2 = 0 end fim (9.5)
It is not possible to draw a simple graph for this mapping , since four dimensions would be needed for that (two for the input and two for the output). However, it is often possible to get an intuitive understanding of the mapping by drawing both the input and the output in the same diagram. Interactive Illustration 9.5 shows this for the mapping mentioned above. Note that you can move the red input arrow $vc$ and see how the blue output arrow $vc$ moves.

As can be seen, the effect of the mapping is to project any input vector on to the $vc_1$-axis. Any vector in the plane can be used as input, hence the domain is $mathbb^2$. The codomain is also $mathbb^2$, since the output is a vector of two dimensions, but the range or image is the $vc_1$-axis. The range is marked with green in the second step of the figure.

A slightly more interesting example of a mapping is the following

começar começar y_1 = cos(frac<3>) x_1 - sin(frac<3>) x_2, y_2 = sin(frac<3>) x_1 + cos(frac<3>) x_2. fim fim (9.6)
As can be seen, the factors before the $x_1$s and $x_2$s resemble a rotation matrix (see Definition 6.10) by $pi/3$ radians. This mapping is illustrated in the Interactive Illustration 9.6, where again the input vector is marked with red and the output vector is marked with blue.

As can be seen by playing around with Interactive Ilustration 9.6, the output vector is a rotated copy of the input vector with the rotation angle $frac<3>$. As a matter of fact, we can write Equation (9.6) in matrix form as

começar começar y_1 y_2 end = left(egin cos frac <3>& -sin frac <3> sin frac <3>& cos frac <3>end ight) egin x_1 x_2 end fim (9.7)
or, shorter,
começar vc = mx vc. fim (9.8)
It is now easy to see that the matrix $mx$ is just a two-dimensional rotation matrix as defined in Definition 6.10 in Chapter 6. When a mapping can be written in matrix form, i.e., in the form $vc = mx vc$, we call $mx$ the transformation matrix.

The example in Interactive Illustration 9.3 can also be written in matrix form,

começar começar y_1 y_2 end = left(egin 1 & 0 0 & 0 end ight) egin x_1 x_2 end, end (9.9)
where the transformation matrix in this case equals $left(egin 1 & 0 0 & 0 end ight)$. That raises the question whether all vector mappings be written on the form $vc = mx vc$ for some $mx$ with constant coefficients? The answer is no. As an example, the mapping
começar começar y_1 = x_1 x_2 + x_2 y_2 = x_1 + e^ fim fim (9.10)
cannot be written as $vc = mxvc$. It is of course possible to write $egin y_1 y_2 end = left(egin x_2 & 1 1 & frac<>> fim ight) egin x_1 x_2 end$, but that violates the rule that $mx$ should consist of constant coefficients, i.e, independent of $vc$. To investigate which mappings can be written in this form, we first introduce the concept of a linear mapping .

Definition 9.3: Linear Mapping
A linear mapping is a mapping $F$, which satisfies

começar começar F( vc' + vc'') = F(vc') + F(vc''), F( lambda vc ) = lambda F(vc) end fim (9.11)

Example 9.2: Shopping Cart to Cost
Assume that a shop only sells packages of penne, jars of Arrabiata sauce, and bars of chocolate. The contents of your shopping cart can be modelled as a vector space. Introduce addition of two shopping carts as putting all of the items of both carts in one cart. Introduce multiplication of a scalar as multiplying the number of items in a shopping cart with that scalar. Notice that here, there are practical problems with multiplying a shopping cart with non-integer numbers or negative numbers, which makes the model less useful in practice. Introduce a set of basis shopping carts. Let $vc_1$ correspond to the shopping cart containing one package of penne, let $vc_2$ correspond to the shopping cart containing one jar of Arrabiata sauce, and let $vc_3$ correspond to the shopping cart containing one bar of chocolate. Then each shopping cart $vc$ can be described by three coordinates $(x_1, x_2, x_3)$ such that $vc = x_1 vc_1 + x_2 vc_2 + x_3 vc_3$.

In real life this map is often non-linear , e.g., a shop might have campaigns saying 'buy 3 for the price of 2'. But modelling the mapping as a linear map is often a reasonable and useful model. Again (as is common with mathematical modelling) there is a discrepancy between mathematical model and reality. The results of mathematical analysis must always be used with reason and critical thinking. Even if the cost of a shopping cart of 1 package of penne is 10, it does not always mean that you can sell packages of penne to the store for 10 each.

Assume we have a basis $vc_1$,$vc_2$ in $N$ and $M$. We can then write the input $vc$ and the output $vc$ in this basis ,

começar vc & = x_1 vc_1 + x_2 vc_2, vc & = y_1 vc_1 + y_2 vc_2. end (9.12)
Inserting the expression for $vc$ in $vc = F(x)$, we get
começar vc = F(vc) = F(x_1 vc_1 + x_2 vc_2), end (9.13)
and since $F$ is linear , we can apply the first and second conditions of linearity,
começar vc = F(x_1 vc_1) + F(x_2 vc_2) = x_1F(vc_1) + x_2F(vc_2). fim (9.14)
Since $F$ maps one vector to another vector, $F(vc_1)$ must also be a vector that can be expressed in the basis . Assume it has the coordinates $egina_ <11> a_ <21>end$ in the base $vc_1$, $vc_2$,
começar F(vc_1) = a_<11>vc_1 + a_<21>vc_2. fim (9.15)
Likewise, we assume
começar F(vc_2) = a_<12>vc_1 + a_<22>vc_2. fim (9.16)
We can now continue the expansion of $F(vc)$ as
começar vc = x_1(a_<11>vc_1 + a_<21>vc_2) + x_2(a_<12>vc_1 + a_<22>vc_2) = (x_1 a_ <11>+ x_2 a_<12>)vc_1 + (x_1 a_ <21>+ x_2 a_<22>)vc_2 end (9.17)
Comparing this expression to the second row of Equation (9.12), we understand that $y_1$ must equal $a_<11>x_1 + a_<12>x_2$ and $y_2 = a_<21>x_1 + a_<22>x_2$. Nós temos
começar começar y_1 y_2 end = left(egin a_ <11>& a_ <12> a_ <21>& a_ <22>end ight) egin x_1 x_2 end fim (9.18)
that is
começar vc = mxvc. fim (9.19)
Now we need to prove the converse, that if $vc = mxvc$, then the mapping is linear . Assume we have one input $vc'$ with coordinates $vc' = x_1' vc_1 + x_2' vc_2$ or in vector form $vc' = eginx'_1x'_2end$, and another input $vc''$ or in vector form $vc'' = eginx''_1x''_2end$. The first condition follows directly from rule $(vii)$ of matrix arithmetic properties in Theorem 6.1, that is,
começar F(vc' + vc'') = mx(vc' + vc'') = mxvc' + mxvc'' = F(vc') + F(vc''). fim (9.20)
The second condition also follows from matrix algebra
começar F(lambda vc) = mx(lambda vc') = lambda mx vc' = lambda F(vc) end (9.21)
since a scalar $lambda$ can be placed on either side of a matrix ($mxlambda = lambda mx$). The proof is thus complete.

We will prove the case when $N = M = 3$, but the proof for other values of $M$ and $N$ is similar.

The first basis vector $vc_1$ can be written as $vc_1 = 1 vc_1 + 0vc_2 + 0 vc_3$ and thus has the coordinates $(1, 0, 0)$. Using $vc = begin 1 0 0end$ in the formula $vc = mxvc$ gives

começar começar y_1 y_2 y_3end = left(egin a_ <11>& a_ <12>& a_<13> a_ <21>& a_ <22>& a_<23> a_ <31>& a_ <32>& a_<33> end ight) egin 1 0 0 end = left(egin 1 a_ <11>+ 0 a_ <12>+ 0 a_<13> 1 a_ <21>+ 0 a_ <22>+ 0 a_<23> 1 a_ <31>+ 0 a_ <32>+ 0 a_<33> end ight) = egin a_ <11> a_ <21> a_ <31>end, end (9.22)
which is the first column in $mx$. Thus the image $F(vc_1)$ of the basis vector $vc_1$ is the first column of $mx$, denoted $vc_<,1>$. Likewise, the second basis vector can be written $vc_2 = 0 vc_1 + 1 vc_2 + 0 vc_3$, and thus has the coordinates $(0, 1, 0)$. Its image is therefore
começar left(egin a_ <11>& a_ <12>& a_<13> a_ <21>& a_ <22>& a_<23> a_ <31>& a_ <32>& a_<33> end ight) egin 0 1 0 end = left(egin 0 a_ <11>+ 1 a_ <12>+ 0 a_<13> 0 a_ <21>+ 1 a_ <22>+ 0 a_<23> 0 a_ <31>+ 1 a_ <32>+ 0 a_<33> end ight) = egin a_ <12> a_ <22> a_ <32>end, end (9.23)
which is the second column vector $vc_<,2>$ of the matrix $mx$. Similarly for the third basis vector we get
começar left(egin a_ <11>& a_ <12>& a_<13> a_ <21>& a_ <22>& a_<23> a_ <31>& a_ <32>& a_<33> end ight) egin 0 0 1 end = left(egin 0 a_ <11>+ 0 a_ <12>+ 1 a_<13> 0 a_ <21>+ 0 a_ <22>+ 1 a_<23> 0 a_ <31>+ 0 a_ <32>+ 1 a_<33> end ight) = egin a_ <13> a_ <23> a_ <33>end, end (9.24)
which is the third column of $mx$. This can be extended to any numbers of $M$ and $N$.

Example 9.3: Finding a Linear Mapping's Matrix
A linear mapping $vc = F(vc)$ rotates a two-dimensional vector $vc$ counterclockwise 90 degrees. Find the transformation matrix $mx$ of the matrix form $vc = mx vc$ when the standard orthonormal basis $vc_1=(1,0)$, $vc_2=(0,1)$ is used.


Linear Transformation

Linear transformation (linear map, linear mapping or linear function) is a mapping V →W between two vector spaces, that preserves addition e scalar multiplication.
— Wikipedia (Linear map)

Formally, for vector spaces V, C over the same field K, the function f: VC is a linear map if any two vectors u,v ∈ V and any scalar c ∈ K satisfies the two following conditions:

(1): f(você+v)=f(você)+f(v)
(2): f(cvocê)=cf(você)


Combining transformations

The process of combining transformations is known as composition. Two or more linear transformations can be combined with relative ease using matrix multiplication. For example, let's assume we have two matrices, A e B , that represent two different linear transformations. Assuming that we have a position vector matrix X1 , We can apply these transformations one after the other (first A , então B ), as follows:

The same end result can be achieved by applying the transformation that is created by multiplying matrices A e B together. Note, however, that the order in which the matrices must be multiplied is the opposite of the order in which they should be applied. Thus, in order to achieve the same end result as we did previously we would have:

Consider the following triangle:

Triangle ABC has xy coordinates: ( 3, 5 ), ( 4, 1 ), ( 2, 1 )

Supposing we want to rotate the triangle clockwise through ninety degrees, and then reflect it in the y -eixo. The two transformations matrices would be:

cos (90°)sin (90°) = 01 Rotation by 90° in a clockwise direction
-sin (90°)cos (90°)-10
-10 Reflection in the y -axis
01

Applying these transformations separately, we get:

01 342 = 511
-10511-3-4-2
-10 511 = -5-1-1
01-3-4-2-3-4-2

Here is the first transformation:

Triangle ABC is rotated ninety degrees to become triangle A'B'C'

Here is the second transformation:

Triangle ABC is reflected in the y -axis to become triangle A'B'C'

We could create a transformation matrix that combines these operations by multiplying the two individual transformation matrices together as follows:

Note that we multiply the matrices in the opposite order to that in which we want them to be applied. If we now multiply the resulting transformation matrix by the position vector matrix of our original triangle we get:

If you refer back to the results we got when we carried out the rotation and reflection transformations separately, you will see that the final x e y coordinates for each point are identical.


9.1: The Matrix of a Linear Transformation

3.2.3 Affine Transformation of the Euclidean Plane Printout
A mathematician, like a painter or a poet, is a maker of patterns. If his patterns are more permanent than theirs, it is because they are made with ideas.
Godfrey Harold Hardy (1877–1947)

What is the form of a transformation matrix for the analytic model of the Euclidean plane? We investigate this question. Let A = [ uma eu j ] be a transformation matrix for the Euclidean plane and (x, y, 1) be any point in the Euclidean plane. Então


Since the last matrix must be the matrix of a point in the Euclidean plane, we must have uma 31 x + uma 32 y + uma 33 = 1 for every point (x, y, 1) in the Euclidean plane. In particular, the point (0, 0, 1) must satisfy the equation. Hence, a 33 = 1. Further, the points (0, 1, 1) and (1, 0, 1) satisfy the equation and imply uma 32 = 0 and uma 31 = 0, respectively. Therefore, the transformation matrix must have the form

which motivates the following definition.

Definição. An affine transformation of the Euclidean plane , T, is a mapping that maps each point X of the Euclidean plane to a point T( X) of the Euclidean plane defined by T(X) = AX where det(A) is nonzero and

where each uma eu j é um número real.

Exercise 3.19. Prove that every affine transformation of the Euclidean plane has an inverse that is an affine transformation of the Euclidean plane . (Hint. Write the inverse by using the adjoint. Refer to a linear algebra text.)

Proposition 3.3. An affine transformation of the Euclidean plane is a transformation of the Euclidean plane.

Exercise 3.20. Prove Proposition 3.3.

Proposition 3.4. The set of affine transformations of the Euclidean plane form a group under matrix multiplication.

Prova. Since the identity matrix is clearly a matrix of an affine transformation of the Euclidean plane and the product of matrices is associative, we need only show closure and that every transformation has an inverse.
Deixar A e B be the matrices of affine transformations of the Euclidean plane. Since det(A) and det(B) are both nonzero, we have that det(AB) = det(A) · det(B) is not zero. Also,

is a matrix of an affine transformation of the Euclidean plane. (The last row of the matrix is 0 , 0, 1.) Hence closure holds.
Complete the proof by showing the inverse property.//

Exercise 3.21. Given three points P(0, 0, 1), Q(1, 0, 1), and R(2, 1, 1), and an affine transformation T. (a) Find the points P' = T( P), Q' = T(Q), and R' = T(R) where the matrix of the transformation is . (b) Sketch triangle PQR and triangle P'Q'R' . (c) Describe how the transformation moved and changed the triangle PQR.

Exercise 3.22. Find the matrix of an affine transformation that maps P(0, 0, 1) to P'(0, 2, 1), Q(1, 0, 1) to Q'(2, 1, 1), and R(2, 3, 1) to R'(7, 9, 1).

Exercise 3.23. Show the group of affine transformations of the Euclidean plane is not commutative.


9.1: The Matrix of a Linear Transformation

The main objective of principal components analysis (PC) is to reduce the dimension of the observations. The simplest way of dimension reduction is to take just one element of the observed vector and to discard all others. This is not a very reasonable approach, as we have seen in the earlier chapters, since strength may be lost in interpreting the data. In the bank notes example we have seen that just one variable (e.g. = length) had no discriminatory power in distinguishing counterfeit from genuine bank notes. Um método alternativo é ponderar todas as variáveis ​​igualmente, ou seja, considerar a média simples de todos os elementos no vetor. Novamente, isso é indesejável, uma vez que todos os elementos de são considerados com igual importância (peso).

Uma abordagem mais flexível é estudar uma média ponderada, a saber

O vetor de ponderação pode então ser otimizado para investigar e detectar características específicas. Chamamos (9.1) uma combinação linear padronizada (SLC). Qual SLC devemos escolher? Um objetivo é maximizar a variação da projeção, ou seja, escolher de acordo com

As "direções" interessantes de são encontradas através da decomposição espectral da matriz de covariância. De fato, a partir do Teorema 2.5, a direção é dada pelo autovetor correspondente ao maior autovalor da matriz de covariância.

As Figuras 9.1 e 9.2 mostram duas dessas projeções (SLCs) do mesmo conjunto de dados com média zero. Na Figura 9.1, uma projeção arbitrária é exibida. A janela superior mostra a nuvem de pontos de dados e a linha na qual os dados são projetados. A janela do meio mostra os valores projetados na direção selecionada. A janela inferior mostra a variação da projeção real e a porcentagem da variação total explicada.

A Figura 9.2 mostra a projeção que captura a maior parte da variância dos dados. Essa direção é de interesse e está localizada ao longo da direção principal da nuvem de pontos. A mesma linha de pensamento pode ser aplicada a todos os dados ortogonais a esta direção que leva ao segundo autovetor. O SLC com a maior variância obtida da maximização (9.2) é o primeiro componente principal (PC). Ortogonal à direção, encontramos o SLC com a segunda maior variância:, o segundo PC.

Procedendo desta forma e escrevendo em notação de matriz, o resultado para uma variável aleatória com e é a transformação PC que é definida como

Aqui, centralizamos a variável para obter uma variável PC de média zero.

A transformação do PC é, portanto,

Portanto, o primeiro componente principal é

Vamos calcular as variações desses PCs usando as fórmulas (4.22) - (4.26):

Isso pode ser expresso de forma mais geral e é dado no próximo teorema.

A conexão entre a transformação do PC e a busca pelo melhor SLC é feita no seguinte teorema, que segue diretamente de (9.2) e do Teorema 2.5.


Decomposição de transformações matriciais: estruturas autônomas e formas quadráticas

5.1 INTRODUÇÃO

No capítulo anterior, discutimos vários casos especiais de transformações de matriz, como rotações, reflexos e alongamentos, e retratamos seus efeitos geometricamente. Também apontamos o efeito geométrico de vários composto transformações, como uma rotação seguida de um alongamento.

A motivação para este capítulo é, no entanto, exatamente o oposto daquela do Capítulo 4. Aqui, começamos com uma transformação de matriz mais ou menos arbitrária e consideramos formas de decomposição no produto de matrizes que são mais simples do ponto de vista geométrico. Como tal, nosso objetivo é fornecer, em parte, um conjunto de abordagens complementares àquelas ilustradas no Capítulo 4.

A adoção desse ponto de vista reverso nos permite introduzir uma série de conceitos importantes em autovalores e autovetores de matriz de análise multivariada, as propriedades de autoestrutura de matrizes simétricas e não simétricas, a decomposição de valor singular de uma matriz e formas quadráticas. Este novo material, junto com o dos três capítulos anteriores, deve fornecer a maior parte do contexto para a compreensão das operações de vetores e matrizes na análise multivariada. Além disso, examinaremos os conceitos cobertos anteriormente, como classificação da matriz, inversa da matriz e singularidade da matriz, de outra perspectiva - extraída do contexto de autoestruturas.

Encontrar a autoestrutura de uma matriz quadrada, como encontrar sua inversa, é quase uma questão de rotina na era atual dos computadores. Não obstante, parece útil discutir os tipos de cálculos envolvidos, embora nos limitemos a pequenas matrizes de ordem 2 × 2 ou 3 × 3. Dessa forma, podemos ilustrar muitos desses conceitos geométrica e numericamente.

Uma vez que o tópico das autoestruturas pode se tornar bastante complexo, começamos o capítulo com uma discussão geral das autoestruturas nas quais os valores próprios e os vetores próprios podem ser encontrados de forma simples e rápida. A ênfase aqui é em descrever o geométrico aspectos de autoestruturas relacionados a tipos especiais de mudanças de vetores de base que tornam a natureza do mapeamento tão simples quanto possível, por exemplo, como um trecho em relação ao conjunto apropriado de vetores de base.

Esse tratamento simples e descritivo também nos permite amarrar o presente material sobre autoestruturas com a discussão no Capítulo 4, que se centrou nas transformações do vetor de ponto e base. Ao fazer isso, retornamos ao exemplo numérico mostrado na Seção 4.3 e obtemos a autoestrutura da matriz de transformação ali descrita.

A próxima seção principal do capítulo continua a discussão das autoestruturas, mas agora no contexto da análise multivariada. Para apresentar essa abordagem complementar - baseada em encontrar um composto linear de forma que a variância das projeções dos pontos sobre ele seja máxima - voltamos ao pequeno problema numérico extraído dos dados de amostra da Tabela 1.2. Assumimos que temos um conjunto de pontuações médias corrigidas de doze funcionários em X1 (atitude em relação à empresa) e X2 (número de anos ao serviço da empresa). O problema é encontrar uma composição linear das duas pontuações separadas que exiba a variação máxima entre os indivíduos. Esta motivação leva a uma discussão de estruturas auto-matriciais envolvendo simétrico matrizes e a técnica multivariada de análise de componentes principais.

A próxima seção principal do capítulo trata de várias propriedades de estruturas auto-matriciais. O caso mais comum de matrizes simétricas (com entradas com valor real) é discutido em alguns detalhes, enquanto o caso mais complexo envolvendo estruturas auto-simétricas de matrizes não simétricas é descrito mais brevemente. A relação da autoestrutura com a classificação da matriz também é descrita aqui.

A decomposição em valor singular de uma matriz quadrada ou retangular e sua relação com a decomposição da matriz é outro conceito central em procedimentos multivariados. Conseqüentemente, a atenção está centrada neste tópico, e a discussão também está relacionada ao material abordado no Capítulo 4. Aqui, no entanto, nos concentramos no decomposição de matrizes no produto de outras matrizes que individualmente exibem interpretações geométricas bastante simples.

As formas quadráticas são retomadas em seguida e relacionadas ao material precedente. Além disso, uma discussão adicional sobre a autoestrutura de matrizes quadradas não simétricas, relacionada a técnicas multivariadas como análise discriminante múltipla e correlação canônica, é apresentada no contexto do terceiro problema de amostra no Capítulo 1.

Assim, se a inversão da matriz e a classificação da matriz são importantes na regressão linear e procedimentos relacionados para estudar um único critério, associação de múltiplos preditores, estruturas auto-matriciais e formas quadráticas são os conceitos essenciais para lidar com relacionamentos de múltiplos critérios e múltiplos preditores.


Assista o vídeo: Matriz de uma Transformação Linear P2 (Outubro 2021).