• divergence
    分歧; 差异

  • Kullback-Leibler divergence

KLダイバージェンス1

二つの確率分布p(x)とq(x)のKLダイバージェンスは以下のように定義されます

  • KLダイバージェンスはゼロ以上
  • pとqが同じ分布である必要十分条件はKLダイバージェンスがゼロである

KL情報量2

  • 公式
  • 性質

KL情報量が0の時は真の分布と近似の分布が一致する

  • 以下によって$p(x\vert\phi)$を求める

Jensen-Shannon ダイバージェン

KL不对称

所以引入JS

参考文献

  1. 岩田具治, 「トピックモデル」,p6 

  2. 奥村学,「トピックモデルによる統計的潜在意味解析」,p41