4.4.3
JS Divergence
สรุป
- Jensen-Shannon Divergence เป็นเวอร์ชันสมมาตรของ KLD
- มีขอบเขตและเสถียรกว่าในการเปรียบเทียบการกระจาย
นิยาม #
ให้ (M = \frac{1}{2}(P + Q)):
$$ \mathrm{JS}(P, Q) = \frac{1}{2} \mathrm{KLD}(P \| M) + \frac{1}{2} \mathrm{KLD}(Q \| M) $$