Skip to content

*)ランダムウォーク

最終更新日時: 2025年08月25日 12:57

期待値E[X]E[X]は確率変数の平均値を表し、分散Var(X)Var(X)はそのばらつきを表します。

分散の定義:

Var(X)=E[(XE[X])2]=E[X2](E[X])2\begin{aligned} Var(X) &= E[(X - E[X])^2]\\ &= E[X^2] - (E[X])^2 \end{aligned}

物理学では期待値をX\langle X \rangleと表記することが多く、これはE[X]E[X]と同じ意味です。

ランダムウォークで平均二乗変位が時間に比例する理由

Section titled “ランダムウォークで平均二乗変位が時間に比例する理由”

ランダムウォークで平均二乗変位(Mean Squared Displacement, MSD)、E[ΔXt2]\mathbb{E}[\Delta X_t^2] が時間に比例する理由は、各ステップの移動が独立しており、分散が時間ごとに積み重なっていくためです。以下に詳細を説明します。

  • ランダムウォークしたtステップ後の位置はXtX_tとする
  • ランダムウォークする点が最初は原点にいてX0=0X_0=0とする
  • ステップ毎にΔx\Delta xだけ確率ppで右に移動する
  • 1次元ランダムウォークでは、時間 tt における位置 XtX_t は次のように表現できる。
Xt=X0+i=1tΔXi=i=1tΔXi\begin{align} X_t =& X_0+\sum_{i=1}^t \Delta X_i\\ =& \sum_{i=1}^t \Delta X_i\\ \end{align}

ここで:

  • ΔXi\Delta X_iii-番目のステップでの移動量。
    • 確率 pp+Δx+\Delta x
    • 確率 1p1-pΔx-\Delta x
    • ただし左右に同じ確率で移動するならp=12p=\frac{1}{2}
  • ΔXi\Delta X_i は独立かつ同一の確率分布に従う。
  • E[ΔXi]=0\mathbb{E}\left[{\Delta X_i}\right]=0 (なぜなら、左右に同確率で移動するので)

位置XtX_tの期待値を計算する

E[Xt]=E[i=1tΔXi]=E[ΔX0+ΔX1+ΔX2+...]=0\begin{align} \mathbb{E} [X_t] =& \mathbb{E} [\sum_{i=1}^t \Delta X_i]\\ =& \mathbb{E} [\Delta X_0+\Delta X_1+\Delta X_2+...]\\ =&0 \end{align}

二乗期待値の計算を試みる。(2)を使って、二乗を式展開すると、

E[Xt2]=E[(i=1tΔXi)2]=E[i=1t(ΔXi)2+2i<jΔXiΔXj]\begin{align} \mathbb{E}[X_t^2] =& \mathbb{E}\left[\left(\sum_{i=1}^t \Delta X_i\right)^2\right]\\ =& \mathbb{E}\left[\sum_{i=1}^t (\Delta X_i)^2 + 2 \sum_{i<j} \Delta X_i \Delta X_j\right] \end{align}

ΔXi\Delta X_i は独立しているため、異なる iji \neq j については、

E[ΔXiΔXj]=E[ΔXi]E[ΔXj]\mathbb{E}[\Delta X_i \Delta X_j] = \mathbb{E}[\Delta X_i] \cdot \mathbb{E}[\Delta X_j]

E[ΔXi]=0\mathbb{E}[\Delta X_i] = 0 より、交差項 2i<jΔXiΔXj2 \sum_{i<j} \Delta X_i \Delta X_j は消える。

残りは各ステップの二乗の和のみが残り、

E[Xt2]=i=1tE[(ΔXi)2]\begin{align} \mathbb{E}[X_t^2] = \sum_{i=1}^t \mathbb{E}[(\Delta X_i)^2] \end{align}

以上より位置の二乗の期待値は、各ステップの変異量の二乗の期待値の合算値であることが分かった。 次に、E[(ΔXi)2]\mathbb{E}[(\Delta X_i)^2]を求める

E[(ΔXt)2]\mathbb{E}[(\Delta X_t)^2]の算出をするために、ΔXi\Delta X_i の確率分布を考える。

ΔXi={+Δx確率 p,Δx確率 1p\Delta X_i = \begin{cases} +\Delta x & \text{確率 } p, \\ -\Delta x & \text{確率 } 1-p \end{cases}

その二乗期待値は:

E[(ΔXi)2]=(+Δx)2p+(Δx)2(1p)=(Δx)2p+(Δx)2p(Δx)2=(Δx)2\begin{aligned} \mathbb{E}[(\Delta X_i)^2] =& (+\Delta x)^2 \cdot p + (-\Delta x)^2 \cdot (1-p)\\ =& (\Delta x)^2 \cdot p + (\Delta x)^2 -p\cdot (\Delta x)^2\\ =& (\Delta x)^2 \end{aligned}

上記より、

E[Xt2]=i=1tE[(ΔXi)2]=i=1t(Δx)2=t(Δx)2\begin{aligned} \mathbb{E}[X_t^2] = & \sum_{i=1}^t \mathbb{E}[(\Delta X_i)^2]\\ = & \sum_{i=1}^t (\Delta x)^2\\ = & t\cdot(\Delta x)^2\\ \end{aligned}

変異量の分散は二乗平均から平均の二乗の差であるため、変位ΔXt\Delta X_tの分散を計算してみる。

Var[ΔXt]=E[(ΔXt)2](E[ΔXt])2\mathrm{Var}[\Delta X_t] = \mathbb{E}[(\Delta X_t)^2] - (\mathbb{E}[\Delta X_t])^2

任意のステップttでの変異量は平均値として0なので、E[ΔXt]=0\mathbb{E}[\Delta X_t] = 0 のため、

Var[ΔXt]=E[(ΔXt)2]=(Δx)2\begin{aligned} \mathrm{Var}[\Delta X_t] =& \mathbb{E}[(\Delta X_t)^2]\\ =& (\Delta x)^2 \end{aligned} Var[Xt]=E[Xt2](E[Xt])2=t(Δx)20=t(Δx)2\begin{aligned} \mathrm{Var}[X_t] & =\mathbb{E}[X_t^2]-(\mathbb{E}[X_t])^2\\ & =t \cdot (\Delta x)^2 - 0\\ & =t \cdot (\Delta x)^2 \end{aligned}

各ステップの分散が独立しているため、時間 tt にわたる分散は次のように加算されます:

E[Xt2]=tVar[ΔXi]=t(Δx)2\mathbb{E}[X_t^2] = t \cdot \mathrm{Var}[\Delta X_i] = t \cdot (\Delta x)^2

最終的に:

E[Xt2]=t(Δx)2\mathbb{E}[X_t^2] = t \cdot (\Delta x)^2

この結果から、平均二乗変位が時間 tt に比例することが示されます。


ランダムウォークで平均二乗変位が時間に比例する理由は、

  1. 各ステップの移動が独立している。
  2. 分散がステップごとに積み重なる。
  3. 各ステップの二乗期待値が分散と等しい。

これにより、時間に比例して広がりが大きくなる特性が得られます。

ランダムウォークと拡散係数の理論的導出

Section titled “ランダムウォークと拡散係数の理論的導出”