Projeção (álgebra linear)

transformação linear que, ao ser aplicada várias vezes a um valor, fornece o mesmo resultado que forneceria se fosse aplicada apenas uma vez

Em álgebra linear e análise funcional, uma projeção é uma transformação linear de um espaço vetorial em si mesmo, de modo que , ou seja, sempre que é aplicado duas vezes a algum vetor, o resultado é o mesmo que se tivesse sido aplicado uma única vez (uma propriedade conhecida como idempotência). Embora abstrata, esta definição de "projeção" formaliza e generaliza adequadamente a ideia de projeção gráfica. Também se pode considerar o efeito de uma projeção em um objeto geométrico, examinando o efeito que a projeção tem nos pontos do objeto.

A transformação P é a projeção ortogonal na linha m

Definições

editar

Uma projeção em um espaço vetorial   é um operador linear   tal que  .

Quando o espaço   é munido de um produto interno e é completo (ou seja, quando   é um espaço de Hilbert), o conceito de ortogonalidade pode ser usado. Uma projeção   em um espaço Hilbert   é chamada de projeção ortogonal se satisfaz   para quaisquer  . Uma projeção em um espaço de Hilbert que não é ortogonal é chamada de projeção oblíqua.

Matriz de projeção

editar
  • No caso de dimensões finitas, uma matriz quadrada   é chamada de matriz de projeção se for igual a seu quadrado, isto é, se  .[1] :p. 38
  • Uma matriz quadrada   é chamada de matriz de projeção ortogonal se   para uma matriz real, e respectivamente   para uma matriz complexa, onde   denota a transposição de   e   denota a transposição adjunta, ou hermitiana, de  .[1] :p. 223
  • Uma matriz de projeção que não é ortogonal é chamada de matriz de projeção oblíqua.

Os autovalores de uma matriz de projeção devem ser 0 ou 1.

Exemplos

editar

Projeção ortogonal

editar

Por exemplo, a função que leva o ponto   do espaço tridimensional   ao ponto   é uma projeção ortogonal no plano xy. Esta função pode ser representada pela matriz

 

A ação desta matriz em um vetor arbitrário pode ser expressa por

 

Para ver que   é de fato uma projeção, ou seja, que vale a relação  , podemos calcular

 .

Observando também que  , vemos que a projeção é uma projeção ortogonal.

Projeção oblíqua

editar

Um exemplo simples de uma projeção não-ortogonal (oblíqua) pode ser dado por

 

Pela multiplicação de matrizes, vê-se logo que

 

provando que   é de fato uma projeção. Porém, a projeção só será ortogonal se, e somente se, tivermos  ; pois somente para este caso será válida a relação  .

Propriedades e classificação

editar
 
A transformação T é a projeção ao longo de k, sobrejetivamente em m. A imagem de t é m, e seu núcleo é k.

Idempotência

editar

Por definição, uma projeção   é idempotente (ou seja,  )

Complementariedade da imagem e do núcleo

editar

Seja   um espaço vetorial de dimensão finita e   uma projeção em  . Suponha que os subespaços   e   são o imagem e o núcleo de  , respectivamente. Então   tem as seguintes propriedades:

  1.   é o operador identidade em    
  2. Temos a soma direta  . Cada vetor   pode ser decomposto unicamente como   com   e  , onde   e   é o operador identidade.

A imagem e o núcleo de uma projeção são complementares, assim como   e  . O operador   também é uma projeção, visto que a imagem e o núcleo de   são o núcleo e imagem de  , e vice-versa.

Espectro

editar

Em espaços vetoriais de dimensão infinita, o espectro de uma projeção está contido em  , pois

 

Apenas 0 ou 1 podem ser autovalores de uma projeção. Isso significa que uma projeção ortogonal   é sempre uma matriz positiva semi-definida. Em geral, os autoespaços correspondentes são o núcleo e a imagem da projeção, respectivamente. A decomposição de um espaço vetorial em somas diretas não é única. Portanto, dado um subespaço  , pode haver muitas projeções cuja imagem (ou núcleo) é  .

Se a projeção é não-trivial, ela possui um polinômio mínimo  , que se fatora em raízes distintas, e assim   é diagonalizável.

Produto de projeções

editar

O produto de projeções não é, em geral, uma projeção, mesmo que ambas sejam ortogonais. Se duas projeções comutam, então seu produto é uma projeção, mas o inverso não é verdadeiro: o produto de duas projeções que não comutam pode sim ser uma projeção.

Se duas projeções ortogonais comutam, então seu produto é uma projeção ortogonal. Se o produto de duas projeções ortogonais é uma projeção ortogonal, então as duas projeções ortogonais comutam (de maneira mais geral: dois endomorfismos autoadjuntos comutam se, e somente se, seu produto é também autoadjunto).

Projeções ortogonais

editar

Quando o espaço vetorial   tem um produto interno e é completo (é um espaço de Hilbert) o conceito de ortogonalidade pode ser usado. Uma projeção ortogonal é uma projeção para a qual o intervalo   e o espaço nulo   são subespaços ortogonais. Assim, para cada   e   em  ,  . Equivalentemente:

 

Uma projeção é ortogonal se, e somente se, for autoadjunta. Usando as propriedades autoadjunta e idempotente de  , para qualquer   e   em   temos  ,  , e

 

onde   é o produto interno associado a  . Portanto,   e   são projeções ortogonais.[2] A volta, ou seja, se   é ortogonal, então é auto-adjunta, segue de

 

para qualquer   e   em   ; portanto  .

Propriedades e casos especiais

editar

Uma projeção ortogonal é um operador limitado. Isso ocorre porque para cada   no espaço vetorial temos, pela desigualdade de Cauchy-Schwarz :

 

Assim,  .

Para espaços vetoriais, reais ou complexos, de dimensão finita, o produto interno padrão pode ser substituído por  .

Projeções oblíquas

editar

O termo projeção oblíqua é algumas vezes usado para se referir a projeções não-ortogonais. Essas projeções também são usadas para representar figuras espaciais em desenhos bidimensionais, embora não com tanta frequência quanto as projeções ortogonais. Enquanto o cálculo do ajuste em uma regressão de mínimos quadrados requer uma projeção ortogonal, o cálculo do valor ajustado de uma regressão de variáveis instrumentais requer uma projeção oblíqua.

As projeções são definidas por seu núcleo e os vetores da base usados para caracterizar sua imagem (que é o complemento do núcleo). Quando os vetores da base são ortogonais ao núcleo, a projeção é uma projeção ortogonal. Quando os vetores de base não são ortogonais ao espaço nulo, a projeção é uma projeção oblíqua. Sejam os vetores   uma base para a imagem da projeção, e monte esses vetores em uma matriz  , de ordem  . A imagem e o núcleo são espaços complementares, logo o núcleo tem dimensão  . Segue que o complemento ortogonal do espaço nulo tem dimensão  . Seja   uma base para o complemento ortogonal do núcleo da projeção, e monte uma matriz   com esses vetores. Então a projeção é definida por

 

Esta expressão generaliza a fórmula para projeções ortogonais dada anteriormente.[3][4]

Encontrando a projeção com um produto interno

editar

Seja   um espaço vetorial (neste exemplo, um plano) gerado por vetores ortogonais  . Seja   um vetor qualquer. Podemos definir uma projeção de   para   como

 

na qual índices repetidos são somados (seguindo a convenção de Einstein). O vetor   pode ser escrito como uma soma ortogonal de modo que  . O operador   é às vezes denotado como  . Há um teorema em álgebra linear que afirma que este   é a distância mais curta de   para  , e é frequentemente usado em áreas como aprendizado de máquina.

 
y está sendo projetado no espaço vetorial V

Formas canônicas

editar

Qualquer projeção   em um espaço vetorial de dimensão   é uma matriz diagonalizável, uma vez que seu polinômio mínimo divide  , que se separa em fatores lineares distintos. Portanto, existe uma base na qual   tem a forma

 

Onde   é a ordem de  . Aqui   é a matriz de identidade de ordem  , e   é a matriz nula de ordem  . Se o espaço vetorial é complexo e munido de um produto interno, então existe uma base ortonormal na qual a matriz de P é dada por[5]

 

onde  . Os números inteiros   e os números reais   estão determinados de forma única. Observe que  . O fator   corresponde ao subespaço invariante máximo no qual   atua como uma projeção ortogonal (de modo que o próprio P seja ortogonal se, e somente se,  ) e os blocos   correspondem às componentes oblíquas.

Projeções em espaços vetoriais normados

editar

Quando o espaço vetorial subjacente   é um espaço vetorial normado (não necessariamente de dimensão finita), questões analíticas, irrelevantes no caso de dimensão finita, precisam ser consideradas. Suponhamos então que   é um espaço de Banach.

Muitos dos resultados algébricos discutidos acima sobrevivem à passagem para este contexto. Uma determinada decomposição de soma direta de   em subespaços complementares ainda especifica uma projeção, e vice-versa. Se   é a soma direta  , então o operador definido por   ainda é uma projeção com imagem   e núcleo  . Também é claro que  . Por outro lado, se   é a projeção em  , i.e.,  , então é facilmente verificado que  . Em outras palavras,   também é uma projeção. A relação   implica   e   é a soma direta  .

No entanto, diferentemente do caso de dimensão finita, as projeções não precisam ser contínuas, em geral. Se um subespaço   de   não é fechado na topologia normal, então a projeção em   não é contínua. Em outras palavras, a imagem de uma projeção contínua   deve ser um subespaço fechado. Além disso, o núcleo de uma projeção contínua (na verdade, de um operador linear contínuo qualquer) é fechado. Portanto, uma projeção contínua   leva a uma decomposição de   em dois subespaços fechados complementares:  .

O inverso também vale, com uma hipótese adicional. Suponha ser   um subespaço fechado de  . Se existe um subespaço fechado   tal que  , então a projeção   com imagem   e núcleo   é contínua. Isso segue do teorema do gráfico fechado. Suponha que   e  . É preciso mostrar que  . Já que   é fechado e  ,   encontra-se em  , isto é,  . Além disso,  . Por   ser fechado e  , temos que  , i.e.,  , o que demonstra a afirmação.

O argumento acima faz uso da hipótese de que ambos   e   são fechados. Em geral, dado um subespaço fechado  , não é necessário que exista um subespaço fechado complementar  , embora para espaços de Hilbert isso sempre possa ser feito tomando o complemento ortogonal. Para espaços de Banach, um subespaço unidimensional sempre tem um subespaço complementar fechado. Esta é uma consequência imediata do teorema de Hahn-Banach. Seja   ser o subespaço gerado por  . Por Hahn-Banach, existe um funcional linear limitado   tal que φ(u) = 1. O operador   satisfaz  , logo é uma projeção.A limitação de   implica a continuidade de   e portanto   é um subespaço complementar fechado de  .

Aplicações e outras considerações

editar

As projeções (ortogonais ou não) desempenham um papel importante em algoritmos para certos problemas de álgebra linear:

Como mencionado acima, as projeções são um caso especial de operadores idempotentes. Analiticamente, as projeções ortogonais são generalizações não-comutativas de funções características. Operadores idempotentes são usados na classificação, por exemplo, de álgebras semisimples, enquanto a teoria da medida tem seu início em funções características de conjuntos mensuráveis. Portanto, como se pode imaginar, as projeções são frequentemente encontradas no contexto de álgebras de operadores. Em particular, uma álgebra de von Neumann é gerada por sua rede completa de projeções.

Generalizações

editar

De maneira mais geral, dado um mapa entre espaços vetoriais normados   pode-se exigir analogamente que este mapa seja uma isometria no complemento ortogonal do núcleo: que   ser uma isometria; em particular, ela deve ser sobrejetora. O caso de uma projeção ortogonal ocorre quando   é um subespaço de  . Na geometria Riemanniana, isso é usado na definição de uma submersão Riemanniana.

Ver também

editar
  • Matriz de centralização, que é um exemplo de matriz de projeção.
  • Ortogonalização
  • Subespaço invariável
  • Propriedades do traço
  • O algoritmo de projeção de Dykstra para calcular a projeção em uma interseção de conjuntos
  1. a b Horn, Roger A.; Johnson, Charles R. (2013). Matrix Analysis, second edition. [S.l.]: Cambridge University Press. ISBN 9780521839402 
  2. Meyer, p. 433
  3. Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC 
  4. Meyer, equation (7.10.39)
  5. Doković, D. Ž. (agosto de 1991). «Unitary similarity of projectors». Aequationes Mathematicae. 42: 220–224. doi:10.1007/BF01818492 

Referências

editar
  • Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC 
  • Dunford, N.; Schwartz, J. T. (1958). Linear Operators, Part I: General Theory. [S.l.]: Interscience 
  • Meyer, Carl D. (2000). Matrix Analysis and Applied Linear Algebra. [S.l.]: Society for Industrial and Applied Mathematics. ISBN 978-0-89871-454-8 
  • MIT Linear Algebra Lecture on Projection Matrices , do MIT OpenCourseWare
  • Linear Algebra 15d: The Projection Transformation, de Pavel Grinfeld.
  • Tutorial de projeções geométricas planas - um tutorial simples de se seguir que explica os diferentes tipos de projeções geométricas planas.