Pitman-Yor言語モデルのハイパーパラメータの推定に関して

2016年10月16日

概要

  • Pitman-Yor言語モデルのハイパーパラメータのサンプリングにおける更新式の詳細な導出について

はじめに

教師なし形態素解析などにも応用できるベイズ階層言語モデルに注目し、過去に階層Pitman-Yor言語モデル(HPYLM)可変長n-gram言語モデル(VPYLM)を実装してきました。

これらの実装において2つのハイパーパラメータをデータから推定する必要があり、この部分はTeh先生の論文に載っている更新式を使うのが慣例となっていますが、この式は何の説明もなく出てくるため、どのようにして導出されたのかをこの記事でまとめます。

ここからの説明はすべて論文をもとに行います。

また、この記事で説明されていない記号・変数はすべて論文に説明があります。

客の配置の確率について

論文では$seating\ arrangement$となっている、代理客も含めたすべての客の配置をこの記事では$\boldsymbol \Theta$と表すことにします。

この$\boldsymbol \Theta$の確率は論文の(23)式で表されますが、再掲しておきます。

この式も説明なく出てくるので、ここではまずこの式の導出のやり方を説明します。

まず論文(10)式の、次に観測される客$x_{c\cdot+1}$の確率

から、次に観測される客が座るテーブル$k_{c\cdot+1}$がテーブル$K$になる確率を求めておくと、

となります。

ここで、$\delta_{\phi_k}$は質量$1$の点(point mass)ですので、ただの数字の$1$とみてかまいません。

また$c_k$は$k$番目のテーブルの客数、$c_{\cdot}$は総客数です。

ちなみに論文の式(11)は、

次に観測される単語$x_{c\cdot+1}$が$w$である確率であって、どのテーブルかは考慮されないため注意が必要です。

(式(4)で$w$を提供している全てのテーブルについて足し合わせるとこの式が得られます)

まず中華料理店過程(CRP)で、基底分布$G_0$から単語$w_1$が生成された状態を考えます。

CRP

(CRPではテーブルがないときは必ず$G_0$から生成されます)

この時の$p(\boldsymbol \Theta)$は

となります。

次にこの状態から、経験分布から$w_1$が生成された状態を考えると、

CRP

$p(\boldsymbol \Theta)$は

となります。

これは式(4)の第1項で総客数$c_{\cdot}=1$、テーブル$k=1$の客数$c_1=1$とすることで得られる確率を式(5)に掛けたものになっています。

(CRPでは単語は、$G_0$と、現在の客の配置からなる経験分布の混合分布から生成されます。経験分布から生成されたときは式(4)の第1項を考えます。)

次に$G_0$から$w_2$が生成された場合を考えます。

CRP

この時の$p(\boldsymbol \Theta)$は

となります。

今回は基底分布から生成されたため、式(4)の第二項で$c_{\cdot}=2$、$t_{\cdot}=1$として得られる、3人目の客が2番目のテーブルに座る確率

を式(6)に掛けると式(7)が得られます。

図では客は3人いますが、$c_{\cdot}=2$であることに注意が必要です。(3人目の客を生成するための確率ですので、客数を3にしてしまってはいけません)

次に経験分布から$w_2$が生成された場合を考えると、

CRP

この時の$p(\boldsymbol \Theta)$は

となります。

さらに経験分布から$w_2$が生成された場合を考えると、

CRP

この時の$p(\boldsymbol \Theta)$は

となります。

式(4)の第1項で2番目のテーブルの客数$c_2=2$、総客数$c_{\cdot}=4$として得られる、5人目の客が2番目のテーブルに座る確率

を式(9)に掛けると式(10)が得られます。

次に$w_3$が$G_0$から生成されたとすると、

CRP

この時の$p(\boldsymbol \Theta)$は

となります。

次に$G_0$から$w_1$がもう一度生成されたとします。

CRP

この時の$p(\boldsymbol \Theta)$は

となります。

最後に経験分布から$w_1$が生成されたとすると、

CRP

この時の$p(\boldsymbol \Theta)$は

となります。

ここまで来ると式(14)と式(1)の関係が見えてくると思います。

ただしここでは階層を考えていないので、論文の$\boldsymbol u$の記号は省略します。

まず分母の$(\theta+1)(\theta+2)(\theta+3)(\theta+4)(\theta+5)(\theta+6)(\theta+7)$は$[\theta]^{(t_{\cdot})}_1$に対応します。

$G_0(w_1)^2G_0(w_2)G_0(w_3)$は$\prod_w G_0(w)^{t_w}$です。

論文では$c_{0w\cdot}$となっていますがこれは$w$を提供しているテーブル数です。

分子は2つに分割します。

まずに対応し、に対応します。

階層を考えるときも上記と同様にすることで、式(1)を導出することができます。

ハイパーパラメータのサンプリング

次に$d$と$\theta$の更新式を、論文の付録Cをもとに導出します。

補助変数を用いたサンプリング手法となっていますが、この手法はEscoberらのBayesian Density Estimation and Inference Using Mixturesの6章「Learning about $\alpha$ and further illustration」に基づいています。

始めに式(1)を変形します。

ここからはこの式をもとに説明を行います。

またベータ積分の定義

を使います。

まず式(15)の分母に注目し変形すると、

となります。

その他の変形は論文に載っているので省略しますが、最終的に式(15)は

と表すことができます。

この式(18)は補助変数$x_{\boldsymbol u},y_{\boldsymbol u i},z_{\boldsymbol uwkj}$について、周辺化を行って消去したものとして考えることができます。

つまり、

と考えます。

さらにハイパーパラメータの$d$と$\theta$を確率変数とみなし、式(19)を

であると考えます。

ここで1つのハイパーパラメータに着目し、ベイズの定理からその事後分布を考えます。

例えば$d_0$であれば

となります。

($\propto$は比例を意味します)

ここで$p(d_0 \mid x_{\boldsymbol u},y_{\boldsymbol u i},z_{\boldsymbol uwkj}, \boldsymbol \Theta)$を以下のように定義します。

これは式(22)から$d_0$の影響を受ける項のみを取り出したものです。

$d_0$は事前分布としてベータ分布$Beta(a_0, b_0)$を仮定しているため、式(23)は

となります。

正確にはベータ分布は分母にベータ関数$B(a_0, b_0)$がありますが、これは$d_0$の影響を受けないため無視します。

$y_{\boldsymbol ui}$は、式(22)から影響を与える項を取り出すとベルヌーイ分布の形をしていることがわかります。

ただしベルヌーイ分布では足して1になる制約があるため、事後分布を以下のように定義します。

よって$y_{\boldsymbol ui}$は以下のベルヌーイ分布からサンプリングし値を決定します。

$z_{\boldsymbol uwkj}$も式(22)から影響を与える項を取り出すとベルヌーイ分布の形をしているため、$y_{\boldsymbol ui}$と同様に

のようにサンプリングし値を決定します。

$y_{\boldsymbol ui}$と$z_{\boldsymbol uwkj}$が決まれば、式(24)から新しい$d_0$をサンプリングします。

$\theta_{\mid\boldsymbol u\mid}$の更新式も同様にして導出することができますが今回は省略します。

おわりに

式が複雑すぎて何をやっているのか見えなくなりますが、基本的には

の場合にベイズの定理から$z$の事後分布を考え、

事後分布から$z$をサンプリングするのと変わりません。