Usuário(a):MGromov/Testes48



Página inicial: Testes

Edições completas: Mecânica estatística  • Modelo Hodgkin-Huxley  • Neurociência computacional  • Modelo probabilístico para redes neurais  • Teoria de campo médio  • Modelo FitzHugh–Nagumo  • Processo Lévy  • Cadeias de Markov  • Processo de Poisson  • Galves–Löcherbach model  • Stochastic chains with memory of variable length  • Lesão do plexo braquial  • Somatotopia  • Função densidade  • Modelos de grafos aleatórios exponenciais • Processo de Gram-Schmidt  • Equação de Chapman–Kolmogorov  • Predefinição:Processos estocásticos  • Algoritmo de autovalores  • Transição de fase  • Hipótese do cérebro crítico  • Critical brain hypothesis  • Passeio aleatório  • Plasticidade sináptica  • Potencial pós-sináptico excitatório  • Potencial pós-sináptico inibitório  • Modelo de Morris-Lecar  • Plexo braquial  • Processo gaussiano  • Campo aleatório de Markov  • Eletroencefalografia  • Modelo de Hindmarsh-Rose  • Sistemas de partícula em interação  • Medida de Gibbs  • Nervo escapular dorsal  • Nervo radial  • Nervo peitoral lateral  • Nervo musculocutâneo  • Medida de Dirac  • Nervo torácico longo  • Sigma-álgebra  • Nervo peitoral medial  • Nervo ulnar  • Potencial evocado  • Estimulação magnética transcraniana repetitiva  • Teorema de Donsker  • Desigualdade de Boole  • Codificação neural  • Aprendizado de máquina  • Independência condicional  • Inferência estatística  • Nervo subclávio  • Nervo supraescapular  • Nervo mediano  • Nervo axilar  • Movimento browniano geométrico  • Caminho autoevitante  • Tempo local  • Nervo subescapular superior  • Nervo toracodorsal  • Nervo subscapular inferior  • Caminho (teoria dos grafos)  • Campo aleatório  • Lei do logaritmo iterado

Edições em andamento: Nervo cutâneo medial do braço (N)  • Nervo cutâneo medial do antebraço (N)  • Cérebro estatístico (N)  • Statistician brain  • Distribuição de probabilidade condicional (N)  • Esperança condicional (N)  • Integral de Itō (N)  • Martingale  • Variação quadrática (N)  • Processo Ornstein–Uhlenbeck  • Ruído branco  • Teoria ergódica  • Avalanche neuronal (N)  • Teoria da percolação (N)  • Função totiente de Euler  • Ruído neuronal (N)  • Distribuição de Poisson  • Córtex cerebral  • Estímulo (fisiologia)




Referência: Boole's inequality

Em teoria da probabilidade, a desigualdade de Boole diz que, para qualquer conjunto de eventos finito ou contável, a probabilidade de que pelo menos um dos eventos aconteça não é maior que a soma das probabilidades dos eventos individuais. A desigualdade de Boole é nomeada em homenagem a George Boole.

Formalmente, para um conjunto contável de eventos de A1, A2, A3, ..., temos

Em termos de teoria da medida, a desigualdade de Boole segue do fato de que uma medida (e, certamente, qualquer medida de probabilidade) é σ-sub-aditivo.

Prova usando indução

editar

A desigualdade de Boole pode ser provada para conjuntos de eventos finitos, utilizando o método de indução.

Para o caso  , segue-se que

 .

Para o caso  , tem-se que

 .

Como  , e porque a operação de união é associativa, tem-se que

 .

Como

 ,

pelo primeiro axioma de probabilidade, tem-se que

 ,

e, portanto,

 .

Prova sem o uso de indução

editar

Para quaisquer eventos   em um espaço de probabilidade, tem-se que

 

Um dos axiomas de um espaço de probabilidade é que, se   são subconjuntos disjuntos do espaço de probabilidade, então

 

o que é chamado de aditividade contável.

Se   então  

De fato, a partir dos axiomas de uma distribuição de probabilidade,

 

Observando-se que ambos os termos à direita são não-negativos.

Então é preciso modificar os conjuntos de   para que eles se torne disjuntos.

 

Se  , então sabe-se que

 

Portanto, pode-se fazer a seguinte equação:

 

Desigualdades de Bonferroni

editar

A desigualdade de Boole pode ser generalizada para encontrar limitantes superiores e inferiores sobre a probabilidade de uniões finitas de eventos.[1] Estes limites são conhecidos como desigualdades de Bonferroni, em homenagem à Carlo Emilio Bonferroni.

Definindo

 

e

 

bem como

 

para todos os números inteiros de k em {3, ..., n}.

Então, para k ímpares em {1, ..., n},

 ,

e para k pares em {2, ..., n},

 .

A desigualdade de Boole é recuperada definindo k = 1. Quando k = n, então a igualdade se mantém e a identidade resultante é o princípio da inclusão–exclusão.

Veja também

editar

References

editar
  1. Casella, George; Berger, Roger L. (2002). Statistical Inference. [S.l.]: Duxbury. pp. 11–13. ISBN 0-534-24312-6 

Este artigo incorpora material de Bonferroni inequalities do PlanetMath, que é licenciado sob GFDL.

Categoria:Estatística Categoria:Probabilidade Categoria:Teoria dos conjuntos