Gesamentlike entropie

Vanaf testwiki
Weergawe deur imported>Rooiratel op 09:43, 15 April 2022 (Kategorie:Inligtingsteorie bygevoeg (HotCat.js))
(verskil) ← Ouer weergawe | Huidige weergawe (verskil) | Nuwer weergawe → (verskil)
Gaan na navigasie Gaan na soektog

Sjabloon:Inligtingsteorie

'n Misleidende[1] Venn diagram wat optel- en aftrekkingsverwantskappe toon tussen verskeie inligtingsmaatstawwe wat met gekorreleerde veranderlikes X en Y geassosieer word. Die area wat deur beide sirkels vervat is, is die gesamentlike entropie H(X,Y). Die sirkel aan die linkerkant (rooi en violet) is die individuele entropie H(X), waar die rooi die voorwaardelike entropie H(X|Y) is. Die sirkel aan die regterkant (blou en violet) is H(Y), waar blou H(Y|X) is. Die violet is die wedersydse inligting I(X;Y).

In Inligtingsteorie, is Gesamentlike entropie 'n maatstaf van die onsekerheid wat verband hou met 'n stel van ewekansige veranderlike.[2]

Definisie

Die gesamentlike Shannon entropie (in bisse) van twee diskrete ewekansige veranderlike X en Y met beelde 𝒳 en 𝒴 word gedefinieer as[3]Sjabloon:Rp

H(X,Y)=x𝒳y𝒴P(x,y)log2[P(x,y)]

waar x en y is besondere waardes van X en Y, onderskeidelik, P(x,y) is die gesamentlike waarskynlikheid van hierdie waardes wat saam voorkom, en P(x,y)log2[P(x,y)] word gedefinieer as 0 as P(x,y)=0.

Vir meer as twee ewekansige veranderlikes X1,...,Xn brei die uit na

H(X1,...,Xn)=x1𝒳1...xn𝒳nP(x1,...,xn)log2[P(x1,...,xn)] 

waar x1,...,xn is besondere waardes van X1,...,Xn, onderskeidelik, P(x1,...,xn) is die waarskynlikheid dat hierdie waardes saam voorkom, en P(x1,...,xn)log2[P(x1,...,xn)] word gedefinieer as 0 as P(x1,...,xn)=0.

Verwysings

Sjabloon:Verwysings

Sjabloon:Normdata

  1. Verwysingfout: Invalid <ref> tag; no text was provided for refs named ref1
  2. Verwysingfout: Invalid <ref> tag; no text was provided for refs named korn
  3. Verwysingfout: Invalid <ref> tag; no text was provided for refs named cover1991