X
{\displaystyle X}
zorizko aldagai diskretuak
x
{\displaystyle x}
balioa hartzearen baldintzapean
Y
{\displaystyle Y}
zorizko aldagai diskretuaren entropia
H
(
Y
|
X
=
x
)
{\displaystyle \mathrm {H} (Y|X=x)}
notazioaz adierazten da.
Y
{\displaystyle Y}
aldagaiaren probabilitate-funtzioa
p
Y
(
y
)
{\displaystyle p_{Y}{(y)}}
izanik, haren entropia (ez baldintzazkoa) horrela definitzen da:
H
(
Y
)
:=
E
[
I
(
Y
)
]
{\displaystyle \mathrm {H} (Y):=\mathbb {E} [\operatorname {I} (Y)]}
, hau da, informazio-kantitatearen itxaropen matematikoa . Kalkuluak eginez, zera lortzen da:
H
(
Y
)
=
∑
i
=
1
n
P
r
(
Y
=
y
i
)
I
(
y
i
)
=
−
∑
i
=
1
n
p
Y
(
y
i
)
log
2
p
Y
(
y
i
)
,
{\displaystyle \mathrm {H} (Y)=\sum _{i=1}^{n}{\mathrm {Pr} (Y=y_{i})\,\mathrm {I} (y_{i})}=-\sum _{i=1}^{n}{p_{Y}(y_{i})\log _{2}{p_{Y}(y_{i})}},}
I
(
y
i
)
{\displaystyle \operatorname {I} (y_{i})}
izanik
Y
{\displaystyle Y}
aldagaiak
y
i
{\displaystyle y_{i}}
balioa hartzeak ematen duen informazio kantitatea .
Antzeko moduan, baina baldintzazko itxaropen matematikoa erabiliz, defini daiteke
X
{\displaystyle X}
zorizko aldagai diskretuak
x
{\displaystyle x}
balioa hartzearen baldintzapean
Y
{\displaystyle Y}
zorizko aldagai diskretuak duen entropia:
H
(
Y
|
X
=
x
)
=
E
[
I
(
Y
)
|
X
=
x
]
=
−
∑
i
=
1
n
Pr
(
Y
=
y
i
|
X
=
x
)
log
2
Pr
(
Y
=
y
i
|
X
=
x
)
.
{\displaystyle \mathrm {H} (Y|X=x)=\mathbb {E} [\operatorname {I} (Y)|X=x]=-\sum _{i=1}^{n}{\Pr(Y=y_{i}|X=x)\log _{2}{\Pr(Y=y_{i}|X=x)}}.}
X
{\displaystyle X}
aldagaiaren
x
{\displaystyle x}
balio posible guztietarako
H
(
Y
|
X
=
x
)
{\displaystyle \mathrm {H} (Y|X=x)}
balioen batez besteko haztatua kalkulatuz lortzen da
H
(
Y
|
X
)
{\displaystyle \mathrm {H} (Y|X)}
baldintzazko entropia.
H
(
Y
|
X
)
≡
∑
x
∈
X
p
(
x
)
H
(
Y
|
X
=
x
)
=
−
∑
x
∈
X
p
(
x
)
∑
y
∈
Y
p
(
y
|
x
)
log
p
(
y
|
x
)
=
−
∑
x
∈
X
∑
y
∈
Y
p
(
x
,
y
)
log
p
(
y
|
x
)
=
−
∑
x
∈
X
,
y
∈
Y
p
(
x
,
y
)
log
p
(
y
|
x
)
=
−
∑
x
∈
X
,
y
∈
Y
p
(
x
,
y
)
log
p
(
x
,
y
)
p
(
x
)
.
{\displaystyle {\begin{aligned}\mathrm {H} (Y|X)\ &\equiv \sum _{x\in {\mathcal {X}}}\,p(x)\,\mathrm {H} (Y|X=x)\\&=-\sum _{x\in {\mathcal {X}}}p(x)\sum _{y\in {\mathcal {Y}}}\,p(y|x)\,\log \,p(y|x)\\&=-\sum _{x\in {\mathcal {X}}}\sum _{y\in {\mathcal {Y}}}\,p(x,y)\,\log \,p(y|x)\\&=-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log \,p(y|x)\\&=-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log {\frac {p(x,y)}{p(x)}}.\\\end{aligned}}}
Konbenioa:
0
log
0
{\displaystyle 0\log 0}
eta
0
log
c
/
0
{\displaystyle 0\log c/0}
espresioen emaitza zero dela onartzen da,
c
>
0
{\displaystyle c>0}
izanik.
Oro har,
H
(
Y
|
X
)
≤
H
(
Y
)
{\displaystyle \mathrm {H} (Y|X)\leq \mathrm {H} (Y)}
betetzen da.
X
{\displaystyle X}
eta
Y
{\displaystyle Y}
aldagaiak elkarrekiko independenteak badira,
H
(
Y
|
X
)
=
H
(
Y
)
{\displaystyle \mathrm {H} (Y|X)=\mathrm {H} (Y)}
betetzen da.
X
{\displaystyle X}
eta
Y
{\displaystyle Y}
aldagaiak elkarren mendekoak badira,
H
(
Y
|
X
)
=
0
{\displaystyle \mathrm {H} (Y|X)=0}
betetzen da, hau da, baldintzazko entropia zero izango da,
X
{\displaystyle X}
aldagaiaren balioa ezagutzearen ondorioz
Y
{\displaystyle Y}
aldagaia erabat zehaztuta geratzen bada.
Aurreko propietatetik ondoriozta daiteke
H
(
X
|
X
)
=
0
{\displaystyle H(X|X)=0}
betetzen dela.
Bayesen teoremaren arabera, zera betetzen da:
H
(
Y
|
X
)
=
H
(
X
|
Y
)
−
H
(
X
)
H
(
Y
)
.
{\displaystyle \mathrm {H} (Y|X)\,=\,\mathrm {H} (X|Y)-\mathrm {H} (X) \mathrm {H} (Y).}
I
(
X
;
Y
)
≤
H
(
X
)
{\displaystyle \operatorname {I} (X;Y)\leq \mathrm {H} (X)}
betetzen da,
I
(
X
;
Y
)
{\displaystyle \operatorname {I} (X;Y)}
izanik
X
{\displaystyle X}
eta
Y
{\displaystyle Y}
aldagaien elkarrekiko informazioa .