Usuário(a):MGromov/Testes49
Página inicial: Testes
Edições completas: Mecânica estatística • Modelo Hodgkin-Huxley • Neurociência computacional • Modelo probabilístico para redes neurais • Teoria de campo médio • Modelo FitzHugh–Nagumo • Processo Lévy • Cadeias de Markov • Processo de Poisson • Galves–Löcherbach model • Stochastic chains with memory of variable length • Lesão do plexo braquial • Somatotopia • Função densidade • Modelos de grafos aleatórios exponenciais • Processo de Gram-Schmidt • Equação de Chapman–Kolmogorov • Predefinição:Processos estocásticos • Algoritmo de autovalores • Transição de fase • Hipótese do cérebro crítico • Critical brain hypothesis • Passeio aleatório • Plasticidade sináptica • Potencial pós-sináptico excitatório • Potencial pós-sináptico inibitório • Modelo de Morris-Lecar • Plexo braquial • Processo gaussiano • Campo aleatório de Markov • Eletroencefalografia • Modelo de Hindmarsh-Rose • Sistemas de partícula em interação • Medida de Gibbs • Nervo escapular dorsal • Nervo radial • Nervo peitoral lateral • Nervo musculocutâneo • Medida de Dirac • Nervo torácico longo • Sigma-álgebra • Nervo peitoral medial • Nervo ulnar • Potencial evocado • Estimulação magnética transcraniana repetitiva • Teorema de Donsker • Desigualdade de Boole • Codificação neural • Aprendizado de máquina • Independência condicional • Inferência estatística • Nervo subclávio • Nervo supraescapular • Nervo mediano • Nervo axilar • Movimento browniano geométrico • Caminho autoevitante • Tempo local • Nervo subescapular superior • Nervo toracodorsal • Nervo subscapular inferior • Caminho (teoria dos grafos) • Campo aleatório • Lei do logaritmo iterado
Edições em andamento: Nervo cutâneo medial do braço (N) • Nervo cutâneo medial do antebraço (N) • Cérebro estatístico (N) • Statistician brain • Distribuição de probabilidade condicional (N) • Esperança condicional (N) • Integral de Itō (N) • Martingale • Variação quadrática (N) • Processo Ornstein–Uhlenbeck • Ruído branco • Teoria ergódica • Avalanche neuronal (N) • Teoria da percolação (N) • Função totiente de Euler • Ruído neuronal (N) • Distribuição de Poisson • Córtex cerebral • Estímulo (fisiologia)
Teoria das probabilidades |
---|
Em teoria das probabilidades, dois eventos e são condicionalmente independentes se, dado um terceiro evento , a ocorrência ou não-ocorrência de e a ocorrência ou não-ocorrência de são eventos independentes em sua distribuição de probabilidade condicional dado . Em outras palavras, e são condicionalmente independentes dado se, e somente se, sabendo que ocorre, saber se ocorre não fornece nenhuma informação sobre a probabilidade de ocorrer, e saber se ocorre não fornece nenhuma informação sobre a probabilidade de ocorrer.
Definição formal
editarNa notação padrão da teoria de probabilidade, os eventos e são condicionalmente independentes dado um terceiro evento se, e somente se,
- ,
ou equivalentemente,
- .
Duas variáveis aleatórias e são condicionalmente independentes dada uma terceira variável aleatória se, e somente se, eles são independentes na sua distribuição de probabilidade condicional dado . Isto é, e são condicionalmente independentes dado se, e somente se, dado qualquer valor de , a distribuição de probabilidade de é a mesmo para todos os valores de e a distribuição de probabilidade de é a mesma para todos os valores de .
Dois eventos e são condicionalmente independentes dada uma σ-álgebra se
onde denota a expectativa condicional da função indicadora do evento , , dada a sigma-álgebra . Isto é,
- .
Duas variáveis aleatórias e são condicionalmente independentes dada uma σ-álgebra se a equação acima vale para todo o em e em .
Duas variáveis aleatórias e são condicionalmente independentes dada uma variável aleatória se eles são independentes dada : a σ-álgebra gerada por . Isso é comumente escrito:
- ou
Isto se lê como " é independente de , dado "; e o condicionamento aplica-se a declaração toda.
Se pressupõe um conjunto contável de valores, isto é equivalente a independência condicional de e para os eventos da forma . A independência condicional de mais de dois eventos, ou de mais de duas variáveis aleatórias, é definida de forma análoga.
Exemplos
editar- Suponha que é 0 com probabilidade 0,5 e 1 em caso contrário. Quando tome e como independentes, cada uma tendo valor 0 com probabilidade de 0,99 e 1 em caso contrário. Quando , e novamente estão independentes, mas desta vez eles tomam o valor 1 com probabilidade de 0,99. Então, . Mas e são dependentes, por que . Isto por que , mas se então é muito provável que e, assim, , então .
- Suponha , cada um tomando os valores 0 e 1 com probabilidade 0,5. Seja o produto . Em seguida, quando , , mas , então, é falso.[nota 2]
- Sejam os dois eventos as probabilidades de pessoas A e B chegarem em casa a tempo para o jantar, e o terceiro evento é o fato de que uma tempestade de neve atingiu a cidade. Enquanto ambos A e B têm uma menor probabilidade de chegar em casa a tempo para o jantar, as probabilidades menores ainda serão independentes umas das outras. Isto é, o conhecimento de que A está atrasado, não diz se B irá se atrasar. Eles podem viver em bairros diferentes, viajar distâncias diferentes, e utilizar diferentes meios de transporte. No entanto, se você souber que eles vivem no mesmo bairro, usam o mesmo transporte, e trabalham no mesmo lugar, então, os dois eventos não são condicionalmente independentes.
- A independência condicional depende da natureza do terceiro evento. Se você rolar dois dados, pode-se assumir que os dois dados se comportam de forma independente um do outro. Saber os resultados do primeiro dado não diz sobre os resultados do segundo dado, isto é, os dois dados são independentes. Se, no entanto, o resultado do primeiro dado é 3, e alguém informa sobre um terceiro evento - que a soma dos dois resultados é par, por exemplo - então esta informação adicional restringe as opções do segundo resultado para um número ímpar. Em outras palavras, dois eventos podem ser independente, mas não condicionalmente independentes.
- A altura e o vocabulário não são independentes, mas elas são condicionalmente independentes, se você adicionar a idade.[1]
Usos na inferência bayesiana
editarSeja a proporção de eleitores que vão votar "sim" em um referendo. Em uma pesquisa de opinião, escolhe-se eleitores aleatoriamente a partir da população. Para , seja ou , correspondendo, respectivamente, a se o -ésimo eleitor escolhido vai ou não votar "sim".
Em uma abordagem frequentista de inferência estatística não se atribuiria qualquer distribuição de probabilidade para (a menos que as probabilidades possam ser, de alguma forma, interpretadas como frequências relativas de ocorrência de algum evento ou como proporções de alguma população) e pode-se dizer que são variáveis aleatórias independentes.
Por outro lado, em uma abordagem bayesiana de inferência estatística, atribuiria-se uma distribuição de probabilidade para , independentemente da não-existência de qualquer interpretação de "frequência", e interpretaria-se as probabilidades como graus de crença de que está em qualquer intervalo para o qual a probabilidade é atribuída. Nesse modelo, as variáveis aleatórias não são independentes, mas elas são condicionalmente independentes, dado o valor de . Em particular, se um grande número de s são observados sendo iguais a 1, tal observação implica uma alta probabilidade condicional de que está próximo de 1, e, portanto, uma alta probabilidade condicional que o próximo a ser observado será igual a 1.
Regras de independência condicional
editarUm conjunto de regras que regem as afirmações da independência condicional são derivados a partir da definição básica.[2][3]
Uma vez que estas implicações se mantém para qualquer espaço de probabilidade, eles ainda irão se manter se considerar-se um sub-universo condicionando tudo em outra variável, digamos . Por exemplo, também significaria que .
As cinco regras abaixo foram denominadas "axiomas grafóides" por Pearl e Paz,[4] porque elas se mantém em grafos, se é interpretado significando que "todos os caminhos de para são interceptados pelo conjunto ".[5]
Simetria
editarDecomposição
editarProva:
- (significado de )[nota 3]
- (ignora-se a variável integrando-a)
- Uma prova similar mostra a independência de e .
União fraca
editarProva:
- Por definição, .
- Devido à propriedade de decomposição , .
- Combinando as duas igualdades tem-se , que estabelece .
A segunda condição pode ser provada do mesmo modo.
Contração
editarProva:
Esta propriedade pode ser comprovada por , cada igualdade do que é afirmado por e , respectivamente.
Contração-união-fraca-decomposição
editarColocando os três acima juntos, tem-se que:
Intersecção
editarPara distribuições de probabilidade estritamente positivas,[3] o seguinte também é verdadeiro:
Ver também
editarNotas
- ↑ Para entender esse caso, é preciso entender que é a probabilidade de uma intersecção de e (a área sombreada de roxo) na área . Como na imagem a esquerda existem dois quadrados onde e se interseccionam dentro da área , e a área tem 12 quadrados, . De modo similar, e .
- ↑ Os dois primeiros exemplos mostram que nem implica nem é expressa por .
- ↑ A vírgula, nesta fórmula e nas similares, pode ser lida como um "E".
Referências
- ↑ «Could someone explain conditional independence?». math.stackexchange.com. Consultado em 28 de novembro de 2016
- ↑ Dawid, A. P. (1979). «Conditional Independence in Statistical Theory». Journal of the Royal Statistical Society, Series B. 41 (1): 1–31. JSTOR 2984718. MR 0535541
- ↑ a b J Pearl, Causality: Models, Reasoning, and Inference, 2000, Cambridge University Press
- ↑ Pearl, Judea; Paz, Azaria (1985). Graphoids: A Graph-Based Logic for Reasoning About Relevance Relations. [S.l.: s.n.]
- ↑ Pearl, Judea (1988). Probabilistic reasoning in intelligent systems: networks of plausible inference. [S.l.]: Morgan Kaufmann