JS Divergence

4.4.3

JS Divergence

อัปเดต 2020-02-26 อ่าน 1 นาที
สรุป
  • Jensen-Shannon Divergence เป็นเวอร์ชันสมมาตรของ KLD
  • มีขอบเขตและเสถียรกว่าในการเปรียบเทียบการกระจาย

นิยาม #

ให้ (M = \frac{1}{2}(P + Q)):

$$ \mathrm{JS}(P, Q) = \frac{1}{2} \mathrm{KLD}(P \| M) + \frac{1}{2} \mathrm{KLD}(Q \| M) $$