Bayes sats

Bayes sats
Teorem Redigera Wikidata
Del avsannolikhetsteori, bayesiansk statistik Redigera Wikidata
Aspekt avsannolikhet Redigera Wikidata
Uppkallad efterThomas Bayes Redigera Wikidata
Huvudtemabetingad sannolikhet Redigera Wikidata
Upp­täc­ka­re eller upp­fin­na­reThomas Bayes Redigera Wikidata
Upp­täckts­da­tum1763 Redigera Wikidata
Defi­nie­ran­de formel Pr ( A | B ) = Pr ( B | A ) Pr ( A ) Pr ( B ) {\displaystyle \Pr(A|B)={\frac {\Pr(B|A)\Pr(A)}{\Pr(B)}}}  Redigera Wikidata
Symbol i defi­nie­ran­de formel Pr ( A | B ) {\displaystyle \Pr(A|B)} , Pr ( B | A ) {\displaystyle \Pr(B|A)} , Pr ( A ) {\displaystyle \Pr(A)} , Pr ( B ) {\displaystyle \Pr(B)}  Redigera Wikidata
Används avbayesiansk statistik, naiv bayesiansk klassificerare, Bayesian probability Redigera Wikidata

Bayes sats eller Bayes teorem är en sats inom sannolikhetsteorin, som används för att bestämma betingade sannolikheter; sannolikheten för ett utfall givet ett annat utfall. Satsen har fått sitt namn av matematikern Thomas Bayes (1702-1761). Dess betydande roll inom statistiken grundar sig sedan länge på att satsen förenklar beräkningar av betingade sannolikheter.[1]

Bayes sats

Låt A 1 , . . . , A n {\displaystyle A_{1},...,A_{n}} vara n {\displaystyle n} disjunkta (oförenliga) händelser med positiv sannolikhet. Antag att händelserna utgör hela utfallsrummet: i = 1 n A i = Ω {\displaystyle \bigcup _{i=1}^{n}A_{i}=\Omega } . Bayes sats innebär då att

P ( A i | B ) = P ( A i ) P ( B | A i ) j = 1 n P ( A j ) P ( B | A j ) {\displaystyle P(A_{i}|B)={\frac {P(A_{i})P(B|A_{i})}{\sum _{j=1}^{n}P(A_{j})P(B|A_{j})}}}

där nämnaren är lika med P ( B ) {\displaystyle P(B)} enligt lagen om total sannolikhet.

För specialfallet n = 1 {\displaystyle n=1} ger Bayes sats

P ( A | B ) = P ( A ) P ( B | A ) P ( B ) {\displaystyle P(A|B)={\frac {P(A)P(B|A)}{P(B)}}}

där P ( A | B ) {\displaystyle P(A|B)} är sannolikheten för A, givet B.

Tillämpningar

Möjligen Thomas Bayes (död 1761).

Bayes sats används flitigt inom statistiken, bland annat för dolda Markovmodeller. Satsen och Bayes namn har blivit kända under internet-eran, genom att satsen har implementerats i Bayesiska skräppostfilter för att på ett statistiskt sätt kunna separera skräp-e-post från önskad e-post.[källa behövs]

Bayes sats används till att kombinera insamlade, statistiska data med andra informationskällor såsom expertutlåtande samt allmänt kända fakta. Användandet kan uppnå en objektiv slutsats, som väger in såväl traditionella statistiska data som mer okonventionell information. Detta gör den populär, då det ofta är svårt att inkludera mer generell information i en objektiv beslutsanalys.[1]

Härledning

Bayes sats.

Definitionen av betingad sannolikhet är

P ( A | B ) = P ( A B ) P ( B ) ( 1 ) {\displaystyle P(A|B)={P(A\cap B) \over P(B)}\quad (1)}

på samma sätt har vi

P ( B | A ) = P ( A B ) P ( A ) P ( A ) P ( B | A ) = P ( A B ) ( 2 ) {\displaystyle P(B|A)={\frac {P(A\cap B)}{P(A)}}\Rightarrow P(A)P(B|A)=P(A\cap B)\quad (2)}

Ersätts uttrycket för P ( A B ) {\displaystyle P(A\cap B)} från (2) i (1) erhålls

P ( A | B ) = P ( A ) P ( B | A ) P ( B ) {\displaystyle P(A|B)={\frac {P(A)P(B|A)}{P(B)}}}

vilket är Bayes sats för specialfallet n = 1 {\displaystyle n=1} ovan.

För det generella fallet sätter vi

P ( B ) = i = 1 n P ( A i ) P ( B | A i ) {\displaystyle P(B)=\sum _{i=1}^{n}P(A_{i})P(B|A_{i})}

så att

P ( A i | B ) = P ( A i ) P ( B | A i ) P ( B ) = P ( A i ) P ( B | A i ) j = 1 n P ( A j ) P ( B | A j ) {\displaystyle P(A_{i}|B)={\frac {P(A_{i})P(B|A_{i})}{P(B)}}={\frac {P(A_{i})P(B|A_{i})}{\sum _{j=1}^{n}P(A_{j})P(B|A_{j})}}}

Se även

Noter och referenser

  1. ^ [a b] Stefan Arnborg; Bayes metod att hantera osäkerhet, Nada, KTH.
  • Stokastik av Sven Erick Alm, Tom Britton, 2011, sida 31.

Externa länkar

  • Bayes' Theorem, Wolfram MathWorld.