文档详情

机器学习 课件 3.3吉布斯采样方法.pdf

发布:2025-04-05约2.1千字共18页下载文档
文本预览下载声明

吉布斯采样方法

吉布斯采样(GibbsSampling)

Gibbs

Gibbs

1.X0{x10,x20,...,xn0}

2.Xi{x1i,x2i,...,xni}x1i+1x1i+1~p(x1|Xi-1)

3.x2x2~p(x2|x1,x3,...xn)

i+1i+1i+1ii

4.xni+1xni+1~p(xn|x1i+1,x2i+1,...x(n-1)i+1)

5.2~4X2~4X

LDA的参数学习

LDA的参数学习

Inference

P(θ,Z,φ,W;ɑ,β)-P(Z,W;ɑ,β)-P(Z;ɑ,β)-P(Z(m,n);Z-(m,n)ɑ,β)

UsingGibbsSampler

LDA的参数学习

Inference

LDA的参数学习

参数推断(Inference)

所有的相互之间是独立的,而且对ϕ也是独立的,因此,我们可以单独地处

理每个和每个ϕ。现在,我们仅仅聚焦在只有的部分:

LDA的参数学习

参数推断(Inference)

我们进一步聚焦在只有一个的部分:

实际上,它是模型在第j个文档的隐藏部分。现在,我们把每个概率分布的

精确表达式写出来,就得到了下面的表达式:

LDA的参数学习

参数推断(Inference)

假设是在第j个文档中被赋予第i个主题的第r个词总个数;

因此,是三维的。如果这三维里面的任何一维没有被指定一个特定值,

用()的形式表示。例如表示第j个文档中被赋予第i个主题的所

有词的数量。因此,上述表达式的最右边可以被写为:

LDA的参数学习

参数推断(Inference)

因此,对积分可以变为:

j

清楚地,在这个积分里面的等式与狄利克雷分布的形式一样,而

LDA的参数学习

参数推断(Inference)

因此,

LDA的参数学习

参数推断(Inference)

现在,我们对部分进行处理。

实际上,部分的处理与部分是非常类似的,

因此我们将推导结果直接列出

LDA的参数学习

参数推断(Inference)

因此,在将ϕ和都通过积分消除之后得到

的最终表达式,如下:

这里,吉布斯采样的目标是要去近似分布P(Z|W;,)。因为P(W;,

)对任何的Z都是不变的,所以吉布斯采样的等式可以等价于P(Z,W;

,)。关键在于要推导出下列条件概率:

LDA的参数学习

参数推断(Inference)

这里,Z(m,n)表示在第m个文档中的第n个词对应的隐变量。进一步,我们

假设这个词是词表里面的第v个词。Z-(m,n)表示除了Z(m,n)之外的所有Z。注

意:吉布斯采样仅仅需要采样Z(m,n)的一个值,而不需要精确解

本质上,只需要概率之间的比率就可以达到求取Z(m,n)的目标,因此上述公

式可以简化为:

LDA的参数学习

参数推断(Inference)

LDA的参数学习

参数推断(Inference)

最终,假设与具有同样的意

义,除了Z(m,n)被排除在外。上述的公式能通

显示全部
相似文档