Projeção (álgebra linear)
Em álgebra linear e análise funcional, uma projeção é uma transformação linear de um espaço vetorial em si mesmo, de modo que , ou seja, sempre que é aplicado duas vezes a algum vetor, o resultado é o mesmo que se tivesse sido aplicado uma única vez (uma propriedade conhecida como idempotência). Embora abstrata, esta definição de "projeção" formaliza e generaliza adequadamente a ideia de projeção gráfica. Também se pode considerar o efeito de uma projeção em um objeto geométrico, examinando o efeito que a projeção tem nos pontos do objeto.
Definições
editarUma projeção em um espaço vetorial é um operador linear tal que .
Quando o espaço é munido de um produto interno e é completo (ou seja, quando é um espaço de Hilbert), o conceito de ortogonalidade pode ser usado. Uma projeção em um espaço Hilbert é chamada de projeção ortogonal se satisfaz para quaisquer . Uma projeção em um espaço de Hilbert que não é ortogonal é chamada de projeção oblíqua.
Matriz de projeção
editar- No caso de dimensões finitas, uma matriz quadrada é chamada de matriz de projeção se for igual a seu quadrado, isto é, se .[1] :p. 38
- Uma matriz quadrada é chamada de matriz de projeção ortogonal se para uma matriz real, e respectivamente para uma matriz complexa, onde denota a transposição de e denota a transposição adjunta, ou hermitiana, de .[1] :p. 223
- Uma matriz de projeção que não é ortogonal é chamada de matriz de projeção oblíqua.
Os autovalores de uma matriz de projeção devem ser 0 ou 1.
Exemplos
editarProjeção ortogonal
editarPor exemplo, a função que leva o ponto do espaço tridimensional ao ponto é uma projeção ortogonal no plano xy. Esta função pode ser representada pela matriz
A ação desta matriz em um vetor arbitrário pode ser expressa por
Para ver que é de fato uma projeção, ou seja, que vale a relação , podemos calcular
- .
Observando também que , vemos que a projeção é uma projeção ortogonal.
Projeção oblíqua
editarUm exemplo simples de uma projeção não-ortogonal (oblíqua) pode ser dado por
Pela multiplicação de matrizes, vê-se logo que
provando que é de fato uma projeção. Porém, a projeção só será ortogonal se, e somente se, tivermos ; pois somente para este caso será válida a relação .
Propriedades e classificação
editarIdempotência
editarPor definição, uma projeção é idempotente (ou seja, )
Complementariedade da imagem e do núcleo
editarSeja um espaço vetorial de dimensão finita e uma projeção em . Suponha que os subespaços e são o imagem e o núcleo de , respectivamente. Então tem as seguintes propriedades:
- é o operador identidade em
- Temos a soma direta . Cada vetor pode ser decomposto unicamente como com e , onde e é o operador identidade.
A imagem e o núcleo de uma projeção são complementares, assim como e . O operador também é uma projeção, visto que a imagem e o núcleo de são o núcleo e imagem de , e vice-versa.
Espectro
editarEm espaços vetoriais de dimensão infinita, o espectro de uma projeção está contido em , pois
Apenas 0 ou 1 podem ser autovalores de uma projeção. Isso significa que uma projeção ortogonal é sempre uma matriz positiva semi-definida. Em geral, os autoespaços correspondentes são o núcleo e a imagem da projeção, respectivamente. A decomposição de um espaço vetorial em somas diretas não é única. Portanto, dado um subespaço , pode haver muitas projeções cuja imagem (ou núcleo) é .
Se a projeção é não-trivial, ela possui um polinômio mínimo , que se fatora em raízes distintas, e assim é diagonalizável.
Produto de projeções
editarO produto de projeções não é, em geral, uma projeção, mesmo que ambas sejam ortogonais. Se duas projeções comutam, então seu produto é uma projeção, mas o inverso não é verdadeiro: o produto de duas projeções que não comutam pode sim ser uma projeção.
Se duas projeções ortogonais comutam, então seu produto é uma projeção ortogonal. Se o produto de duas projeções ortogonais é uma projeção ortogonal, então as duas projeções ortogonais comutam (de maneira mais geral: dois endomorfismos autoadjuntos comutam se, e somente se, seu produto é também autoadjunto).
Projeções ortogonais
editarQuando o espaço vetorial tem um produto interno e é completo (é um espaço de Hilbert) o conceito de ortogonalidade pode ser usado. Uma projeção ortogonal é uma projeção para a qual o intervalo e o espaço nulo são subespaços ortogonais. Assim, para cada e em , . Equivalentemente:
Uma projeção é ortogonal se, e somente se, for autoadjunta. Usando as propriedades autoadjunta e idempotente de , para qualquer e em temos , , e
onde é o produto interno associado a . Portanto, e são projeções ortogonais.[2] A volta, ou seja, se é ortogonal, então é auto-adjunta, segue de
para qualquer e em ; portanto .
Propriedades e casos especiais
editarUma projeção ortogonal é um operador limitado. Isso ocorre porque para cada no espaço vetorial temos, pela desigualdade de Cauchy-Schwarz :
Assim, .
Para espaços vetoriais, reais ou complexos, de dimensão finita, o produto interno padrão pode ser substituído por .
Projeções oblíquas
editarO termo projeção oblíqua é algumas vezes usado para se referir a projeções não-ortogonais. Essas projeções também são usadas para representar figuras espaciais em desenhos bidimensionais, embora não com tanta frequência quanto as projeções ortogonais. Enquanto o cálculo do ajuste em uma regressão de mínimos quadrados requer uma projeção ortogonal, o cálculo do valor ajustado de uma regressão de variáveis instrumentais requer uma projeção oblíqua.
As projeções são definidas por seu núcleo e os vetores da base usados para caracterizar sua imagem (que é o complemento do núcleo). Quando os vetores da base são ortogonais ao núcleo, a projeção é uma projeção ortogonal. Quando os vetores de base não são ortogonais ao espaço nulo, a projeção é uma projeção oblíqua. Sejam os vetores uma base para a imagem da projeção, e monte esses vetores em uma matriz , de ordem . A imagem e o núcleo são espaços complementares, logo o núcleo tem dimensão . Segue que o complemento ortogonal do espaço nulo tem dimensão . Seja uma base para o complemento ortogonal do núcleo da projeção, e monte uma matriz com esses vetores. Então a projeção é definida por
Esta expressão generaliza a fórmula para projeções ortogonais dada anteriormente.[3][4]
Encontrando a projeção com um produto interno
editarSeja um espaço vetorial (neste exemplo, um plano) gerado por vetores ortogonais . Seja um vetor qualquer. Podemos definir uma projeção de para como
na qual índices repetidos são somados (seguindo a convenção de Einstein). O vetor pode ser escrito como uma soma ortogonal de modo que . O operador é às vezes denotado como . Há um teorema em álgebra linear que afirma que este é a distância mais curta de para , e é frequentemente usado em áreas como aprendizado de máquina.
Formas canônicas
editarQualquer projeção em um espaço vetorial de dimensão é uma matriz diagonalizável, uma vez que seu polinômio mínimo divide , que se separa em fatores lineares distintos. Portanto, existe uma base na qual tem a forma
Onde é a ordem de . Aqui é a matriz de identidade de ordem , e é a matriz nula de ordem . Se o espaço vetorial é complexo e munido de um produto interno, então existe uma base ortonormal na qual a matriz de P é dada por[5]
onde . Os números inteiros e os números reais estão determinados de forma única. Observe que . O fator corresponde ao subespaço invariante máximo no qual atua como uma projeção ortogonal (de modo que o próprio P seja ortogonal se, e somente se, ) e os blocos correspondem às componentes oblíquas.
Projeções em espaços vetoriais normados
editarQuando o espaço vetorial subjacente é um espaço vetorial normado (não necessariamente de dimensão finita), questões analíticas, irrelevantes no caso de dimensão finita, precisam ser consideradas. Suponhamos então que é um espaço de Banach.
Muitos dos resultados algébricos discutidos acima sobrevivem à passagem para este contexto. Uma determinada decomposição de soma direta de em subespaços complementares ainda especifica uma projeção, e vice-versa. Se é a soma direta , então o operador definido por ainda é uma projeção com imagem e núcleo . Também é claro que . Por outro lado, se é a projeção em , i.e., , então é facilmente verificado que . Em outras palavras, também é uma projeção. A relação implica e é a soma direta .
No entanto, diferentemente do caso de dimensão finita, as projeções não precisam ser contínuas, em geral. Se um subespaço de não é fechado na topologia normal, então a projeção em não é contínua. Em outras palavras, a imagem de uma projeção contínua deve ser um subespaço fechado. Além disso, o núcleo de uma projeção contínua (na verdade, de um operador linear contínuo qualquer) é fechado. Portanto, uma projeção contínua leva a uma decomposição de em dois subespaços fechados complementares: .
O inverso também vale, com uma hipótese adicional. Suponha ser um subespaço fechado de . Se existe um subespaço fechado tal que , então a projeção com imagem e núcleo é contínua. Isso segue do teorema do gráfico fechado. Suponha que e . É preciso mostrar que . Já que é fechado e , encontra-se em , isto é, . Além disso, . Por ser fechado e , temos que , i.e., , o que demonstra a afirmação.
O argumento acima faz uso da hipótese de que ambos e são fechados. Em geral, dado um subespaço fechado , não é necessário que exista um subespaço fechado complementar , embora para espaços de Hilbert isso sempre possa ser feito tomando o complemento ortogonal. Para espaços de Banach, um subespaço unidimensional sempre tem um subespaço complementar fechado. Esta é uma consequência imediata do teorema de Hahn-Banach. Seja ser o subespaço gerado por . Por Hahn-Banach, existe um funcional linear limitado tal que φ(u) = 1. O operador satisfaz , logo é uma projeção.A limitação de implica a continuidade de e portanto é um subespaço complementar fechado de .
Aplicações e outras considerações
editarAs projeções (ortogonais ou não) desempenham um papel importante em algoritmos para certos problemas de álgebra linear:
- Decomposição QR (ver transformação de Householder e decomposição de Gram – Schmidt);
- Decomposição de valor singular
- Redução para a forma de Hessenberg (a primeira etapa em muitos algoritmos de autovalor)
- Regressão linear
- Elementos projetivos de álgebras de matriz são usados na construção de certos K-grupos na K-teoria de operadores
Como mencionado acima, as projeções são um caso especial de operadores idempotentes. Analiticamente, as projeções ortogonais são generalizações não-comutativas de funções características. Operadores idempotentes são usados na classificação, por exemplo, de álgebras semisimples, enquanto a teoria da medida tem seu início em funções características de conjuntos mensuráveis. Portanto, como se pode imaginar, as projeções são frequentemente encontradas no contexto de álgebras de operadores. Em particular, uma álgebra de von Neumann é gerada por sua rede completa de projeções.
Generalizações
editarDe maneira mais geral, dado um mapa entre espaços vetoriais normados pode-se exigir analogamente que este mapa seja uma isometria no complemento ortogonal do núcleo: que ser uma isometria; em particular, ela deve ser sobrejetora. O caso de uma projeção ortogonal ocorre quando é um subespaço de . Na geometria Riemanniana, isso é usado na definição de uma submersão Riemanniana.
Ver também
editar- Matriz de centralização, que é um exemplo de matriz de projeção.
- Ortogonalização
- Subespaço invariável
- Propriedades do traço
- O algoritmo de projeção de Dykstra para calcular a projeção em uma interseção de conjuntos
Notas
editar- ↑ a b Horn, Roger A.; Johnson, Charles R. (2013). Matrix Analysis, second edition. [S.l.]: Cambridge University Press. ISBN 9780521839402
- ↑ Meyer, p. 433
- ↑ Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC
- ↑ Meyer, equation (7.10.39)
- ↑ Doković, D. Ž. (agosto de 1991). «Unitary similarity of projectors». Aequationes Mathematicae. 42: 220–224. doi:10.1007/BF01818492
Referências
editar- Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC
- Dunford, N.; Schwartz, J. T. (1958). Linear Operators, Part I: General Theory. [S.l.]: Interscience
- Meyer, Carl D. (2000). Matrix Analysis and Applied Linear Algebra. [S.l.]: Society for Industrial and Applied Mathematics. ISBN 978-0-89871-454-8
- MIT Linear Algebra Lecture on Projection Matrices , do MIT OpenCourseWare
- Linear Algebra 15d: The Projection Transformation, de Pavel Grinfeld.
- Tutorial de projeções geométricas planas - um tutorial simples de se seguir que explica os diferentes tipos de projeções geométricas planas.