KL情報量 Nov 27, 2017 divergence 分歧; 差异 Kullback-Leibler divergence KLダイバージェンス1 二つの確率分布p(x)とq(x)のKLダイバージェンスは以下のように定義されます KLダイバージェンスはゼロ以上 pとqが同じ分布である必要十分条件はKLダイバージェンスがゼロである KL情報量2 公式 性質 KL情報量が0の時は真の分布と近似の分布が一致する 以下によって$p(x\vert\phi)$を求める Jensen-Shannon ダイバージェン KL不对称 所以引入JS 参考文献 岩田具治, 「トピックモデル」,p6 ↩ 奥村学,「トピックモデルによる統計的潜在意味解析」,p41 ↩