Kullbackova nerovnost je v teorii informace a statistice spodní mez Kullbackovy–Leiblerovy divergence vyjádřená pomocí poměrové funkce teorie velkých odchylek[1]. Pokud P a Q jsou rozdělení pravděpodobnosti na reálné ose taková, že P je absolutně spojitá funkce vzhledem ke Q (píšeme P<<Q) a jejich první momenty existují, pak
![{\displaystyle D_{KL}(P\|Q)\geq \Psi _{Q}^{*}(\mu '_{1}(P)),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dc4151f4945321f78ff4cd49d466480df6f9d165)
kde
je poměrová funkce, tj. konvexní transformace kumulantové vytvořující funkce rozdělení
, a
je první moment rozdělení
Důsledkem Kullbackovy nerovnosti je Cramérova–Raova mez.
Nechť P a Q jsou rozdělení pravděpodobnosti (míry) na reálné ose, jejichž první momenty existují, a P<<Q.
Uvažujme přirozenou rodinu exponenciálních rozdělení rozdělení Q danou vztahem
![{\displaystyle Q_{\theta }(A)={\frac {\int _{A}e^{\theta x}Q(dx)}{\int _{-\infty }^{\infty }e^{\theta x}Q(dx)}}={\frac {1}{M_{Q}(\theta )}}\int _{A}e^{\theta x}Q(dx)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9fac438aadfa4d052d6c1ebbc147660b0b16c141)
pro každou měřitelnou množinu A, kde
je momentová vytvořující funkce rozdělení Q. Přitom Q0=Q. Pak
![{\displaystyle D_{KL}(P\|Q)=D_{KL}(P\|Q_{\theta })+\int _{\mathrm {supp} P}\left(\log {\frac {\mathrm {d} Q_{\theta }}{\mathrm {d} Q}}\right)\mathrm {d} P.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/95903b86acc0addab874eae9c59fc2b1d1f7e9e1)
Gibbsova nerovnost říká, že
, z čehož plyne
![{\displaystyle D_{KL}(P\|Q)\geq \int _{\mathrm {supp} P}\left(\log {\frac {\mathrm {d} Q_{\theta }}{\mathrm {d} Q}}\right)\mathrm {d} P=\int _{\mathrm {supp} P}\left(\log {\frac {e^{\theta x}}{M_{Q}(\theta )}}\right)P(dx)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/529619fefea8ee7a5d178ba65d9cfb17159372dc)
Zjednodušením pravé strany dostáváme pro každé reálné θ, pro něž
![{\displaystyle D_{KL}(P\|Q)\geq \mu '_{1}(P)\theta -\Psi _{Q}(\theta ),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2177d2929e1890b72f8d013a036cfc944942fb81)
kde
je první moment neboli střední hodnota rozdělení P, a
se nazývá kumulantová vytvořující funkce. Použitím suprema uzavřeme proces konvexní transformace a dostaneme vzorec pro poměrovou funkci:
![{\displaystyle D_{KL}(P\|Q)\geq \sup _{\theta }\left\{\mu '_{1}(P)\theta -\Psi _{Q}(\theta )\right\}=\Psi _{Q}^{*}(\mu '_{1}(P)).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/290d898c462f34d23505026184991cf05f79dcdd)
Nechť Xθ je rodina rozdělení pravděpodobnosti na reálné ose indexované reálným parametrem θ vyhovující určitým podmínkám regularity. Pak
![{\displaystyle \lim _{h\rightarrow 0}{\frac {D_{KL}(X_{\theta +h}\|X_{\theta })}{h^{2}}}\geq \lim _{h\rightarrow 0}{\frac {\Psi _{\theta }^{*}(\mu _{\theta +h})}{h^{2}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ca975d4b6ea55d5966b04062b3823241609b90b8)
kde
je konvexní transformace kumulantové vytvořující funkce rozdělení
a
je prvním momentem
Postupnými úpravami levé strany dostáváme:
![{\displaystyle {\begin{aligned}\lim _{h\to 0}{\frac {D_{KL}(X_{\theta +h}\|X_{\theta })}{h^{2}}}&=\lim _{h\to 0}{\frac {1}{h^{2}}}\int _{-\infty }^{\infty }\log \left({\frac {\mathrm {d} X_{\theta +h}}{\mathrm {d} X_{\theta }}}\right)\mathrm {d} X_{\theta +h}\\&=\lim _{h\to 0}{\frac {1}{h^{2}}}\int _{-\infty }^{\infty }\log \left(1-\left(1-{\frac {\mathrm {d} X_{\theta +h}}{\mathrm {d} X_{\theta }}}\right)\right)\mathrm {d} X_{\theta +h}{\text{... funkci }}\log(1-t){\text{ vyjádříme Taylorovým rozvojem }}\\&=\lim _{h\to 0}{\frac {1}{h^{2}}}\int _{-\infty }^{\infty }\left[\left(1-{\frac {\mathrm {d} X_{\theta }}{\mathrm {d} X_{\theta +h}}}\right)+{\frac {1}{2}}\left(1-{\frac {\mathrm {d} X_{\theta }}{\mathrm {d} X_{\theta +h}}}\right)^{2}+o\left(\left(1-{\frac {\mathrm {d} X_{\theta }}{\mathrm {d} X_{\theta +h}}}\right)^{2}\right)\right]\mathrm {d} X_{\theta +h}\\&=\lim _{h\to 0}{\frac {1}{h^{2}}}\int _{-\infty }^{\infty }\left[{\frac {1}{2}}\left(1-{\frac {\mathrm {d} X_{\theta }}{\mathrm {d} X_{\theta +h}}}\right)^{2}\right]\mathrm {d} X_{\theta +h}\\&=\lim _{h\to 0}{\frac {1}{h^{2}}}\int _{-\infty }^{\infty }\left[{\frac {1}{2}}\left({\frac {\mathrm {d} X_{\theta +h}-\mathrm {d} X_{\theta }}{\mathrm {d} X_{\theta +h}}}\right)^{2}\right]\mathrm {d} X_{\theta +h}\\&={\frac {1}{2}}{\mathcal {I}}_{X}(\theta )\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/61e7ebe408be7eaeaf00873051611dec1ea892d9)
což je polovina Fisherovy informace parametru θ.
Pravou stranu nerovnosti lze upravit takto:
![{\displaystyle \lim _{h\rightarrow 0}{\frac {\Psi _{\theta }^{*}(\mu _{\theta +h})}{h^{2}}}=\lim _{h\rightarrow 0}{\frac {1}{h^{2}}}{\sup _{t}\{\mu _{\theta +h}t-\Psi _{\theta }(t)\}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/99a5c221fcfc1a895d6c33ce487c41cb03b08b01)
Tohoto suprema je dosaženo pro t=τ, kde první derivace kumulantové vytvořující funkce je
přičemž
, takže
![{\displaystyle \Psi ''_{\theta }(0)={\frac {d\mu _{\theta }}{d\theta }}\lim _{h\rightarrow 0}{\frac {h}{\tau }}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fe9ef93084017cbcce0c80da2d2946bb8a320eb3)
Navíc
![{\displaystyle \lim _{h\rightarrow 0}{\frac {\Psi _{\theta }^{*}(\mu _{\theta +h})}{h^{2}}}={\frac {1}{2\Psi ''_{\theta }(0)}}\left({\frac {d\mu _{\theta }}{d\theta }}\right)^{2}={\frac {1}{2\mathrm {Var} (X_{\theta })}}\left({\frac {d\mu _{\theta }}{d\theta }}\right)^{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d6ab54bd22aff996bc84f8126a2799baeed72a42)
Máme:
![{\displaystyle {\frac {1}{2}}{\mathcal {I}}_{X}(\theta )\geq {\frac {1}{2\mathrm {Var} (X_{\theta })}}\left({\frac {d\mu _{\theta }}{d\theta }}\right)^{2},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6571e385edaa4915a54b31c0b3d6824d531827c6)
což lze upravit na
![{\displaystyle \mathrm {Var} (X_{\theta })\geq {\frac {(d\mu _{\theta }/d\theta )^{2}}{{\mathcal {I}}_{X}(\theta )}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/111d2f3558951aa8599bc247fd1e0a60d5497617)
V tomto článku byl použit překlad textu z článku Kullback's inequality na anglické Wikipedii.
- ↑ FUCHS, Aimé; LETTA, Giorgio. L'inégalité de Kullback. Application à la théorie de l'estimation. Svazek 4. Strasbourg: [s.n.], 1970. (Séminaire de probabilités). Dostupné online.