Um subconjunto de um espaço vectorial diz-se linearmente dependente se existe um subconjunto finito de e escalares não todos nulos, tais que O subconjunto diz-se linearmente independente se para qualquer subconjunto finito de se tem [2][3]
Nestas situações, diz-se também que os vectores do subconjunto são linearmente dependentes (LD) ou linearmente independentes (LI), respectivamente. Com base nessa definição não é difícil de concluir que um subconjunto é linearmente dependente se, e somente se, pelo menos um dos vetores do conjunto é combinação linear dos demais.[4]
Suponhamos que é um conjunto de vectores de , em que e
Ainda, fixemos as constantes , tais que
Por definição, se for a única possibilidade para que a equação anterior seja verdadeira, então os vectores serão linearmente independentes. Por outro lado, se qualquer uma das constantes admitir um valor diferente de zero, então o conjunto de vectores será linearmente dependente.[5]
Observe que podemos reescrever a equação
como
Efetuando as multiplicações, teríamos
que também poderia ser representada como segue
Assim, temos uma equação matricial da forma , em que
e
Observe que a solução trivial () é válida. Porém, é preciso descobrir se tal solução é única.[5] Para isso, podemos resolver o sistema por meio de operações elementares nas linhas da matriz aumentada
Logo, o conjunto de vectores será linearmente independente, caso o sistema linear tenha unicamente a solução trivial (todas as constantes valendo ), ou seja, se o sistema for classificado como possível e determinado (SPD). Porém, se houverem infinitas soluções, de modo que o sistema seja classificado como possível e indeterminado (SPI), então o conjunto de vectores será linearmente dependente.[1][6]
Sendo assim, em , é possível descobrir se um conjunto de vectores é linearmente independente ou não por meio da resolução de um sistema homogêneo.[7]
A partir de uma matriz, pode-se verificar se suas colunas são linearmente independentes. Uma forma de realizar esta verificação, é por meio de uma equação da forma
a qual representa um sistema homogêneo na forma matricial, de modo que podemos definir se existem soluções não triviais para . Se houverem vectores não nulos para satisfazendo a equação , então segue que as colunas de são linearmente dependentes. Porém, caso a única solução seja , então segue que as colunas de são linearmente independentes.[8]
Em alguns casos, não é necessário utilizar os algoritmos citados anteriormente, pois apenas analisando os vectores do conjunto é possível classificá-lo como linearmente dependente. Vejamos alguns casos citados a seguir.
Qualquer conjunto de vectores que contenha o vector nulo será linearmente dependente,[9] mesmo que tal conjunto seja unitário, isto é, mesmo que tenha apenas um vector.[8]
Por exemplo, suponha que , e sejam vectores não nulos de e que , , e sejam constantes reais. Ainda, seja o vector nulo de , de modo que
Observe que fixando , podemos variar sem alterar o resultado da combinação, ou seja, as soluções para o sistema são infinitas. Generalizando esse raciocínio para uma quantidade arbitrária de vetores podemos concluir que qualquer conjunto de vectores que contenha o vector nulo é um conjunto linearmente dependente.[9]
Conjuntos de vectores que contenham dois ou mais vectores múltiplos escalares entre si são conjuntos linearmente dependentes.[10] Isso decorre do fato de que, se existe algum vector do conjunto que é múltiplo de outro vector, então ele pode ser expresso como combinação linear dos demais vectores.[6]
Por exemplo, sejam e , com e . Note que , ou seja, e são múltiplos e, portanto, temos a possível combinação linear . Logo, o conjunto é linearmente dependente.
Em um espaço vectorial de dimensão finita, se o número de vectores do conjunto a ser verificado for superior à dimensão do espaço vetorial, então o conjunto será linearmente dependente. Assim, um conjunto com vectores em é linearmente dependente se .[9]
De fato, seja uma matriz de ordem , com e . Note que a equação
é equivalente a um sistema de equações e incógnitas. Como , haverá um número superior de variáveis do que equações e, portanto, o sistema linear homogêneo terá infinitas soluções. Deste modo, a equação admite solução não trivial, caracterizando as colunas de como linearmente dependentes. Logo, os vectores são linearmente dependentes.[9]
Quando o número de vectores de um subconjunto de for igual ao número de componentes de cada vector (), é possível utilizar o determinante para definir se o conjunto de vectores é linearmente dependente ou não. [4]
Para realizar uma verificação a partir de um determinante, basta utilizar cada vector do conjunto como sendo uma coluna (ou linha) de uma matriz e, em seguida, calcular seu determinante. Se o resultado for igual a , então o conjunto de vectores será linearmente dependente. Por outro lado, caso o determinante seja diferente de , então o conjunto será linearmente independente. O conceito pode ser estendido para o caso de independência linear de colunas de matrizes quadradas.[11]
Se for uma base de um espaço vectorial e for um conjunto de vectores em , tal que , então o conjunto é linearmente dependente.[7]
De fato, como o conjunto forma uma base para o espaço vectorial , segue que os vectores de são linearmente independentes.[13] Ainda, o número de vectores do conjunto é igual à dimensão de . Logo, se é um conjunto do espaço vectorial , sendo que o número de vectores de é maior que o número de vectores de , segue que o número de vectores do conjunto será maior que a dimensão de , de modo que tal conjunto será linearmente dependente.[9]
Seja um conjunto de dois ou mais vectores. Dizemos que é linearmente dependente se, e somente se, pelo menos um dos vectores de for combinação linear dos demais.[14]
Demonstração:
Vamos mostrar que se pelo menos um dos vectores de for combinação linear dos demais vectores, então é linearmente dependente.
De fato, se for uma combinação linear dos outros vectores de , então podemos reordenar os vectores do conjunto, escrevendo como
em que são constantes que tornam a equação anterior válida. Perceba que é possível subtrair em ambos os lados da equação
e assim
ou seja,
Como a equação anterior admite uma constante não nula, ou seja, como a equação
possui uma solução não trivial, segue pela definição que o conjunto é linearmente dependente.
Agora, vamos verificar que se é linearmente dependente, então pelo menos um dos vectores de será combinação linear dos demais.
Caso , então a equação
admite como solução e, portanto, ao menos um dos vectores de pode ser representado como combinação linear dos demais.
Porém, se , então como é linearmente dependente, existem constantes , não todas nulas que satisfazem
Suponha que seja o maior índice para o qual . Observe que se e , teríamos um resultado inválido, pois seria impossível. Logo e, assim,
ou ainda,
o que comprova que ao menos um vector do conjunto pode ser escrito como combinação linear dos demais.[15]
Dois vectores de um plano são linearmente dependentes se e só se um for múltiplo do outro (isto é, se são colineares).[14]
Em :
O conjunto {(1,0,0),(0,1,0),(0,0,1)} é linearmente independente.[7]
O conjunto {(1,0,0),(1,1,0),(1,1,1)} é linearmente independente.[6]
Qualquer subconjunto de com mais de três vectores é linearmente dependente.[9]
Três vectores não nulos e não colineares são linearmente dependentes se estiverem contidos em um mesmo plano.[18]
Três vectores são linearmente dependentes se, e somente se, o determinante da matriz em que cada vector está disposto em uma linha (ou coluna) for igual a zero.
Callioli, Carlos A.; Hygino H. Domingues; Roberto C. F. Costa (1990). Álgebra Linear e Aplicações 6 ed. São Paulo: Atual. ISBN 9788570562975A referência emprega parâmetros obsoletos |coautor= (ajuda)
Noble, Ben; James W. Daniel (1986). Álgebra Linear Aplicada. Rio de Janeiro: Prentice-Hall do Brasil. ISBN 9788570540225A referência emprega parâmetros obsoletos |coautor= (ajuda)