跳到主要内容

耦合

阐述

随机变量的耦合

两个 X\mathcal X 上的分布 μ,ν\mu,\nu 的耦合是一个联合分布 η\eta,它的边际分布分别是 μ,ν\mu,\nu

随机过程的耦合

两个 X\mathcal X 上的随机过程具有相同的矩阵 PP,则它的耦合是另一个 Markov 链 (Xi,Yi)(X_i,Y_i),它的边际分布其中

P(Xi+1=xXi=x,Yi=y)=P(x,x)P(Yi+1=yXi=x,Yi=y)=P(y,y)\begin{array}{r} \mathbb{P}\left(X_{i+1}=x^{\prime} \mid X_i=x, Y_i=y\right)=P\left(x, x^{\prime}\right) \\ \mathbb{P}\left(Y_{i+1}=y^{\prime} \mid X_i=x, Y_i=y\right)=P\left(y, y^{\prime}\right) \end{array}

并且我们要求当 Xi=YiX_i=Y_i 的时候,它们将继续一起移动。

实例

考虑这样一个问题:在 G={1,,n}G=\{1,\cdots,n\} 上的随机游走,若两个 Markov 链分别开始于 X0=x,Y0=yX_0=x,Y_0=y,并且 x<yx<y,则从直觉上应该有

P(Xi=nX0=x)P(Yi=nY0=y)\mathbb P(X_i=n|X_0=x)\le\mathbb P(Y_i=n|Y_0=y)

如果使用耦合,则很容易证明:让两个链一起移动,此时必有 XiYiX_i\le Y_i,因此

P(Xi=n)=P(Xi=n,Yi=n)P(Yi=n)\mathbb P(X_i=n)=\mathbb P(X_i=n,Y_i=n)\le\mathbb P(Y_i=n)

性质

相关内容

参考文献