確率論で用いられる言葉の整理

この記事は, 旧ブログから移植された記事です. よって, その内容として, 旧ブログに依存した文脈が含まれている可能性があります. 予めご了承下さい.

当ブログ内では, 既に確率論の話題としてベイズの定理のエントリが存在するが, 今後同様にして確率論の話題を本ブログで取り上げる際に, 用語へのリファレンスを self-contained で張れるよう, 本エントリにて一度整理しておくこととした.

確率の定義

そもそも一言に「確率」といえども, それは古典的確率, 統計的確率, 公理的確率というように大別できる.

古典的確率

古典的確率は, Ω\Omega の要素数といま注目している事象の場合の数の比を用いるもので, すべての事象が等確率で発生することを前提条件とする. 理想的なサイコロの出目の確率などがこれに当てはまる.

統計的確率

統計的確率は, 「Ω\Omega の部分集合 = 事象」の発生回数と, その試行回数の比を用いるもので, 打率などがこれに当てはまる.

公理的確率

公理的確率とは, 確率の公理により定義された確率であり, 同公理における理論体系上では各事象の発生する確率が異なるものをも扱うことができる. この確率の公理では集合論, 測度論の言葉が使われるが, 同理論に関して深堀りすると本エントリの主題から大きく逸れてしまうため, ここではあまり深くは触れずに持ち出すこととしている.

集合のあつまりを一般に集合族というが, 次に示すのはその 1 種である1.

σ\sigma-加法族

標本空間 Ω\Omega の部分集合族 F\mathcal{F} が次の 3 つの性質を満足するとき, F\mathcal{F}σ\sigma-加法族という.
  1. F\emptyset\in \mathcal{F}
  2. AFAcFA\in\mathcal{F}\Rightarrow A^{c}\in\mathcal{F}
  3. A1,A2,Fi=1AiF\displaystyle A_1,A_2,\cdots\in\mathcal{F}\Rightarrow \bigcup^{\infty}_{i=1}A_i \in\mathcal{F}

ここで, AcA^{c} は集合 AA の補集合.

σ\sigma-加法族は, 空集合と補集合, 加算無限個の集合の和集合について閉じることを要請し, 確率の公理は, この σ\sigma-加法族の関数に対して次の条件を付与する.

コルモゴロフの公理

σ\sigma-加法族 F\mathcal{F} 上の関数 PP が次の 3 つの性質を満足するとき, PP を確率関数という.
  1. 0P(A)1, AF0\leq P(A)\leq 1,\ ^\forall A\in\mathcal{F}
  2. P(Ω)=1P(\Omega) = 1
  3. A1,A2,FA_1,A_2,\cdots\in\mathcal{F} があって, i=1Ai=\displaystyle \bigcap^{\infty}_{i=1}A_i = \emptyset(互いに排反) P(i=1Ai)=i=1P(Ai)\displaystyle\Rightarrow P(\bigcup_{i=1}^\infty A_i)=\sum_{i=1}^\infty P(A_i)

可算無限個の事象が互いに排反な事象の和集合の値は, 各事象の値の和となる.

なお, 標本空間を Ω=x1,x2,,xn\Omega ={x_1,x_2,\cdots,x_n}, p1,,pnp_1,\dots,p_n がそれぞれ 0pi1\displaystyle 0\leq p_{i}\leq 1 で, i=1npi=1\displaystyle \sum_{i=1}^{n}p_{i}=1 であるとき, Ω\Omega の部分集合 AA に対して関数 PPP(A)=i  xiApiP(A)=\displaystyle\sum_{{i\ |\ x_i\in A}}p_i とすると PP は確率関数となるから, 統計的確率論の問題は公理的確率論の問題として扱うことができるといえ, 自ずと公理的確率論が統計的確率論の拡張であることがいえる.

基本的な言葉

用語 意味 表現
標本空間 試行に付随して決まる, 試行の取りうるすべての結果から成る \emptyset でない集合. Ω\Omega
標本 標本空間の元. 試行の結果発生しうる個々の事柄. ωΩ\omega\in\Omega
事象 標本空間の部分集合. 試行の結果発生しうる事柄. AΩA\subset\Omega
確率変数 ある事象が確率的に取りうる数.
  • 確率変数 XX の取りうる値 x1,x2,x_1, x_2,\cdots それぞれに対応する確率 p1,p2,p_1, p_2,\cdots が存在する場合, 隣り合う数の間に値が存在しない確率変数(サイコロの出目など)をとくに離散型確率変数といい, 離散確率変数 XX がある値 xx をとるとき, 標本から実現値 R\mathbb{R} への関数 f(x)f(x) を確率質量関数という.
  • 離散型確率変数でない確率型変数を連続型確率変数という (ϵδ\epsilon-\delta 論法で厳密に説明できる).
XX
実現値 確率変数がとる具体的な値. xnx_n
確率分布 確率変数がある値となる確率, 又はある集合に属する確率を与える関数 (JIS 規格より). P(A)P(A)
「独立同一分布に従う」 確率変数 X1,X2,,XnX_1,X_2,\cdots,X_n が互いに独立で, かつそれらが同一の確率分布に従うことをいう.
  • 注意されたいのが, 「独立同一分布」といわれる分布はない. この用例は, 「独立同一分布」という分布に従うというようにも捉えられるかもしれないが, そのような意味ではない.
  • i.i.d\rm i.i.d 標本 X1,X2,,XnX_1,X_2,\cdots,X_n の同時の確率密度関数は f(x1,x2,,xn)=g(x1)g(x2)g(xn)f(x_1,x_2,\cdots,x_n)=g(x_1)g(x_2)\cdots g(x_n).
i.i.d\rm i.i.d, independent and identically distributed.
  • 算術平均
  • 相加平均
  • 単純平均
  • </ulL
全体の総和をそれらの個数で割った値. 1ni=1nXi\displaystyle\dfrac{1}{n}\sum^{n}_{i=1}X_i.
  • 確率変数 XX の平均: X\overline{X}
  • 母平均: μ\mu
期待値 確率変数のとりうる値にそれが起こる確率を掛けた値の総和のこと(加重平均). すなわち, 確率変数 XX の取り得る値 xx に関する確率 P(xi)P(x_i) があって, {i=1nxiP(xi):Xは離散的確率変数xP(x)dx:Xは連続的確率変数 \begin{cases} \displaystyle\sum^{n}_{i=1}x_i P(x_i) &:X {\rm は離散的確率変数}\\ \displaystyle\int^\infty_{-\infty} xP(x)dx &:X {\rm は連続的確率変数} \end{cases}
  • 離散, 連続共に和の期待値は期待値の和(期待値の線形性)2: E[i=1nXi]=i=1nE[Xi]\displaystyle E\left[\sum_{i=1}^nX_i\right]=\sum_{i=1}^nE\left[X_i\right], 連続の場合も同様.
離散
  • nn 個の P(x1),P(x2),,P(xn)P(x_1),P(x_2),\cdots,P(x_n) がすべて等しいとき Pi=1n (1in)P_i=\dfrac{1}{n}\ (1\leq i\leq n) となり, X\overline{X} と等しくなる.
連続
  • f(x)=xP(x)f(x)=xP(x) としたとき, f(x)f(x) は確率密度関数といわれる.
  • 連続型確率変数がある 1 点の値をとる確率は 0 である (0 でなければ, 連続量とはいえない: P(X=a)=aaf(x)dx=0P(X=a)=\int^{a}_{a}f(x)dx=0) から, 事象 XX の確率については aXba\leq X\leq b と幅を持たせて表す必要がある. 従って, (連続量が表されたグラフを思い浮かべれば想像に容易いが)その [a,b][a,b] 間の面積が求まれば, 事象 XX に対する確率が求まることとなるので, 事象 XXaa 以上 bb 以下となる確率を P(aXb)=abf(x)dxP(a\leq X\leq b)=\int_a^bf(x)dx とかける.
  • コルモゴロフの公理より f(x)dx=1\int_{-\infty}^{\infty}f(x)dx=1 がいえ, これを規格化条件という.
  • 定数 aa の期待値は aa である: E[a]=aP(x)dx=aP(x)dxE\left[a\right]=\int^\infty_{-\infty}aP(x)dx=a\int^\infty_{-\infty}P(x)dx だから E[a]=a(i)E\left[a\right]=a\tag{i}
  • 定数 aa と確率変数 XX の和の期待値は, 確率変数 XX の期待値に定数 aa を加えた値である: E[a+X]=(a+x)P(x)dx=aP(x)dx+xP(x)dxE\left[a+X\right]=\int^\infty_{-\infty}(a+x)P(x)dx=\int^\infty_{-\infty}aP(x)dx+\int^\infty_{-\infty}xP(x)dx だから E[a+X]=a+E[X](ii)E\left[a+X\right]=a+E\left[X\right]\tag{ii}
  • 定数 bb と確率変数 XX の積の期待値は, 確率変数 XX の期待値の bb 倍の値である: E[bX]=bxP(x)dx=bxP(x)dxE\left[bX\right]=\int^\infty_{-\infty}bxP(x)dx=b\int^\infty_{-\infty}xP(x)dx だから E[bX]=bE[X](iii)E\left[bX\right]=bE\left[X\right]\tag{iii}
  • 定数 bb と確率変数の積に定数 aa を加えた値の期待値は, 確率変数 XX の期待値の bb 倍に aa を加えた値である: (i),(iii)(i),(iii) より E[bX+a]=bE[X]+a(iv)E\left[bX+a\right]=bE\left[X\right]+a\tag{iv}
  • 確率変数 XX の期待値: E[X]E\left[X\right]
  • 標本平均 X\overline{X} の期待値3: μ\mu
条件付き確率 ある事象が起きる条件のもとで, 別のある事象が起こる確率. P(AB)=P(AB)P(B) (P(AB):=A および B が発生する確率)P(A\mid B)=\dfrac{P(A\cap B)}{P(B)}\ (\because P(A\cap B):=A\ {\rm および}\ B\ {\rm が発生する確率})
  • 2 つの事象の確率について, 相互が一方の事象の発生確率がもう一方の事象の発生確率に影響を与えないとき, これを独立であるという. すなわち P(AB)=P(A)P(A\mid B)=P(A)
  • 2 つの事象について, 一方の事象が発生したときに, もう一方の事象は発生しないことがいえるとき, これを排反であるという. すなわち P(AB)=0P(A\mid B)=0
  • P(AB)=P(B)P(AB)P(A\cap B)=P(B)P(A\mid B) を条件付き確率の乗法定理という.
  • ベイズの定理
BB の下で AA が発生する確率: P(AB)P(A\mid B)
条件付き期待値 確率変数 XX の値が xx であるときの YY の期待値. E[YX=x]E\left[Y|X=x\right] E[YX=x]=i=1nyiP(Y=yi,X=x)P(X=x)E\left[Y|X=x\right]=\sum^{n}_{i=1}y_i\dfrac{P(Y=y_i,X=x)}{P(X=x)}
  • E[Y]=E[E[YX]]E\left[Y\right]=E\left[E\left[Y|X\right]\right] が成りたつ4.
E[YX], EY[YX]E\left[Y|X\right],\ E_Y\left[Y|X\right]
条件付き分散 V[XY]=E[X2Y]E[XY]2V[X\mid Y]=E[X^2\mid Y]-E[X\mid Y]^2
  • V[Y]=E[V[YX]]+V[E[YX]]V\left[Y\right]=E\left[V\left[Y|X\right]\right]+V\left[E\left[Y|X\right]\right] が成り立つ (証明略).
V[YX], VY[YX]V\left[Y|X\right],\ V_Y\left[Y|X\right]
  • 規格化
  • 正規化
ある関数が規格化条件を満足するように定数倍すること. 平均を引いて, 標準偏差で割る (Xμσ\dfrac{X-\mu}{\sigma})5 こと.
  • 連続的確率変数を扱う場合にのみ使われる言葉.
  • 例えば, f(x)=xf(x)=x[0,1][0,1] 上で 01xdx=12\int_0^1xdx=\dfrac{1}{2} となってしまうため, 規格化条件を満たさないが, 全体を 2 倍して f(x)=2xf(x)=2x とすると, 全区間で積分して 11 になるので規格化条件を満たす. 従って, f(x)=2xf(x)=2x は確率度関数となる.
N/A
  • 分散
  • 標本分散
期待値とのずれを表す指標の 1 つ. ずれの総計で各々が相殺しないように二乗和をとり, その個数 nn で割った値. すなわち, 1ni=1n(XiE[X])2=E[(XE[X])2]\dfrac{1}{n}\displaystyle\sum_{i=1}^n(X_i-E\left[X\right])^2=E\left[(X-E\left[X\right])^2\right]
  • ここで, 確率変数 X1,X2,,XnX_1,X_2,\cdots,X_n の確率分布がすべて等しいとき, 1ni=1n(XiX)2=X2X2\displaystyle\dfrac{1}{n}\sum^{n}_{i=1}(X_i-\overline{X})^2=\overline{X^2}-\overline{X}^2 と高校数学でよくみる形式でかける.
  • 定数の分散は 00 である: V[a]=E[(aE[a])2]=E[(aa)2]V\left[a\right]=E\left[(a-E\left[a\right])^2\right]=E\left[(a-a)^2\right] だから E[0]=0(v)E\left[0\right]=0\tag{v}
  • 定数 aa と確率変数 XX の和の分散は, 確率変数 XX の分散である: V[a+X]=E[(a+XE[a+X])2]=E[(a+XE[a]E[X])2]=E[(a+XaE[X])2]=E[(XE[X])2]\begin{aligned} V\left[a+X\right]&=&E\left[(a+X-E\left[a+X\right])^2\right] \\ &=&E\left[(a+X-E\left[a\right]-E\left[X\right])^2\right] \\ &=&E\left[(a+X-a-E\left[X\right])^2\right]\\ &=&E\left[(X-E\left[X\right])^2\right] \end{aligned} だから V[a+X]=V[X](vi)V\left[a+X\right]=V\left[X\right]\tag{vi}
  • 定数 bb と確率変数 XX の積の分散は, 確率変数 XX の分散と bb の二乗の積である: V[bX]=E[(bXE[bX])2]=E[(bXbE[X])2]=E[b(XE[X])2]=E[b2(XE[X])2]=b2E[(XE[X])2] \begin{aligned} V\left[bX\right]&=&E\left[(bX-E\left[bX\right])^2\right] \\ &=&E\left[(bX-bE\left[X\right])^2\right] \\ &=&E\left[{b(X-E\left[X\right])}^2\right] \\ &=&E\left[b^2(X-E\left[X\right])^2\right] \\ &=&b^2E\left[(X-E\left[X\right])^2\right] \end{aligned} だから V[bX]=b2V[X](vii)V\left[bX\right]=b^2V\left[X\right]\tag{vii}
  • 定数 bb と確率変数 XX の積と aa の和の分散は, 確率変数 XX の分散と定数 bb の二乗の積である: (vi),(vii){\rm (vi), (vii)} より V[bX+a]=b2V[X](viii)V\left[bX+a\right]=b^2V\left[X\right]\tag{viii}
  • 確率変数 XX の分散: V[X]V\left[X\right]
  • 母集団の分散: σ2\sigma^2
  • 標本分散: s2s^2
  • 標本平均の分散6: V[X]=σ2nV\left[\overline{X}\right]=\dfrac{\sigma^2}{n}
  • 分散
  • 不偏分散
標本数 nn で割ったのに対し, n1n-1 で割った値. 標本分散の期待値が母分散に等しくなるように補正したもの(詳細は下記): 1n1i=1n(XiE[X])2\displaystyle\dfrac{1}{n-1}\sum^n_{i=1}(X_i-E\left[X\right])^2 U2,σ^2U^2,\hat{\sigma}^2
標準偏差 分散の計算で行われた二乗を外した形. V[X],σ,s\sqrt{V[X]},\sigma,s. 各記号は, 分散の記号と同様にして用いられる慣習がある.

不偏分散

上記の表で示した通り, 不偏分散は, 標本分散の期待値が母分散に等しくなるように補正したもののことをいう. 標本分散は, 標本のばらつきの指標を得ることが主な目的であったのに対して, 不偏分散は, 標本から母分散の推定値を得ることが主な目的であり, その点において両者は異なる. その目的に従って, 標本分散の期待値 E[s2]E\left[s^2\right] は, 母分散の n1n\dfrac{n-1}{n} 倍となっているという事実(E[s2]=n1nσ2σ2E\left[s^2\right]=\dfrac{n-1}{n}\sigma^2\not =\sigma^2)から, 標本分散を nn1\dfrac{n}{n-1} 倍する(しかしながら, サンプル数 nn が十分に大きいとき, 両者は近似的に等しくなることが大数の弱法則よりいえる). この形が不偏分散である.

不偏分散

1n1i=1n(XiE[X])2\displaystyle\dfrac{1}{n-1}\sum^n_{i=1}(X_i-E\left[X\right])^2

命題 1

E[s2]=n1nσ2E\left[s^2\right]=\dfrac{n-1}{n}\sigma^2

命題 1

いま i.i.d\rm i.i.d 標本 X1,X2,,XnX_1,X_2,\cdots,X_n について考えると, この標本分散は上記の表で示した通り s2=X2X2=1ni=1n(XiX)2\displaystyle s^2=\overline{X^2}-\overline{X}^2=\dfrac{1}{n}\sum^{n}_{i=1}(X_i-\overline{X})^2 で, 母分散は σ2=E[(Xμ)2]\sigma^2=E\left[(X-\mu)^2\right] である. ここで, XiX=XiμX+μX_i-\overline{X}=X_i-\mu-\overline{X}+\mu とおくと,

=1n[(X1μ)(Xμ)2++(Xnμ)(Xμ)2]=1n(X1μ)22(X1μ)(Xμ)+(Xμ)2++(Xnμ)22(Xnμ)(Xμ)+(Xμ)2=1ni=1n(Xiμ)221nj=1n(Xjμ)(Xμ)+(Xμ)2=1ni=1n(Xiμ)22(Xμ)2+(Xμ)2=1ni=1n(Xiμ)2(Xμ)2 \begin{aligned} &=&\dfrac{1}{n}\left[{(X_1-\mu)-(\overline{X}-\mu)}^2+\cdots+{(X_n-\mu)-(\overline{X}-\mu)}^2\right] \\ &=&\dfrac{1}{n}{(X_1-\mu)^2-2(X_1-\mu)(\overline{X}-\mu)+(\overline{X}-\mu)^2+\cdots+(X_n-\mu)^2-2(X_n-\mu)(\overline{X}-\mu)+(\overline{X}-\mu)^2} \\ &=&\dfrac{1}{n}\sum_{i=1}^n(X_i-\mu)^2-2\dfrac{1}{n}\sum_{j=1}^{n}(X_j-\mu)(\overline{X}-\mu)+(\overline{X}-\mu)^2 \\ &=&\dfrac{1}{n}\sum_{i=1}^n(X_i-\mu)^2-2(\overline{X}-\mu)^2+(\overline{X}-\mu)^2 \\ &=&\dfrac{1}{n}\sum_{i=1}^n(X_i-\mu)^2-(\overline{X}-\mu)^2 \end{aligned}

である. この期待値は

E[s2]=1ni=1nE[(Xiμ)2]E[(Xμ)]=σ2E[(Xμ)2](1) \begin{aligned} E\left[s^2\right]&=&\dfrac{1}{n}\sum_{i=1}^nE\left[(X_i-\mu)^2\right]-E\left[(\overline{X}-\mu)\right] \\ &=&\sigma^2-E\left[(\overline{X}-\mu)^2\right] \tag{1} \end{aligned}

で, \(\) の第二項は標本平均分散だから,

E[s2]=σ2σ2n=n1nσ2 \begin{aligned} E\left[s^2\right]&=&\sigma^2-\dfrac{\sigma^2}{n}\\ &=&\dfrac{n-1}{n}\sigma^2 \end{aligned}

正規分布, ガウス分布

正規分布/ガウス分布

上図7のような, 連続型の確率分布が左右対称である分布を正規分布といい, その陰関数は f(x)=12πexp(12(xμσ)2)f(x)=\dfrac{1}{\sqrt{2\pi}}\exp(-\dfrac{1}{2}(\dfrac{x-\mu}{\sigma})^2) であり, これを N(μ,σ)N(\mu,\sigma) とも書く. また, その確率密度関数は

正規分布の確率密度関数

標準偏差 σ\sigma, 母平均 μ\mu, 分散 σ2\sigma^2 に対して, f(x)=12πσexp((xμ)22σ2)(2)f(x)=\dfrac{1}{\sqrt{2\pi}\sigma}\exp(-\dfrac{(x-\mu)^2}{2\sigma^2})\tag{2}

である.

また μ=0,σ=1\mu=0,\sigma=1 である正規分布をとくに標準正規分布といい(上図青で描かれた分布がそれに該当する), その場合の陰関数は f(x)=12πexp(12x2)f(x)=\dfrac{1}{\sqrt{2\pi}}\exp(-\dfrac{1}{2}x^2) となる. また, これを N(μ,σ)=N(0,1)N(\mu,\sigma)=N(0,1) とも書く. ここで一度, 式 \(\) が規格化条件を満たすことを確認する. 確認には, ガウス積分の公式を用いる.

命題 2

(2)(2) は規格化条件を満たす.

命題 2

(2)(2) が規格化条件を満たすことは次の式を満たすことである. f(x)dx=12πσexp((xμ)22σ2)dx\displaystyle\int_{-\infty}^{\infty}f(x)dx=\dfrac{1}{\sqrt{2\pi}\sigma}\int_{-\infty}^{\infty}\exp(-\dfrac{(x-\mu)^2}{2\sigma^2})dx

ここで, xμ=yx-\mu=y と変数変換すると 12πσexp(y22σ2)dy\dfrac{1}{\sqrt{2\pi}\sigma}\int_{-\infty}^{\infty}\exp(-\dfrac{y^2}{2\sigma^2})dy この積分部分はガウス積分の公式より, 2σ2π\sqrt{2\sigma^2\pi} となり f(x)f(x) を全区間で積分すると 1 となる. よって, (2)(2) は規格化条件を満たす.

正規分布においては, 区間 [σ,σ][-\sigma,\sigma] を 1 シグマ区間という. 平均 ±1σ\pm{1\sigma} 内に収まる確率は 6868 %, 平均 ±2σ\pm{2\sigma} 内に収まる確率は 9595 %, 平均 ±3σ\pm{3\sigma} 内に収まる確率は 99.799.7 % であると知られている.

大数の法則

大数の法則は,

大数の法則

期待値 μ\mui.i.d\rm i.i.d 無限列 X1,X2,X_1,X_2,\cdots の標本平均 X=1ni=1nXi\displaystyle\overline{X}=\dfrac{1}{n}\sum_{i=1}^{n}X_i と定数 c>0^\forall c\gt 0 に対して, limnP(Xnμ>c)=0\lim_{n\to\infty}P(\left|\overline{X}_{n}-\mu\right|\gt c)=0 がいえる. これを大数の弱法則という. また P(limnXn=μ)=1 P(\lim_{n\to\infty}\overline{X}_n=\mu)=1 がいえる. これを大数の強法則という.

である. なお, この法則を確率論の用語で, Xn\overline{X}_nμ\mu に確率収束するという. 端折って解釈すると, ある母集団から無作為抽出するサンプル数を十分に大きくしたとき, それらから成る標本の平均は, 母平均そのものとみなしてもよいという主張である. 例えば, サイコロの目の理論的な平均値は i=16i6=3.5\frac{\sum^{6}_{i=1} i}{6}=3.5 であるが, サイコロを例えば 2 回降っただけではこの通りの平均値にならないかもしれない. しかしながら, これを無限回行えば, その平均は 3.53.5 に限りなく近くということである. ここでは簡単のために大数の弱法則についてのみの証明とする. そのために, まずマルコフの不等式, チェビシェフの不等式の証明を行う.

マルコフの不等式

任意の確率変数 XX と定数 c>0c\gt 0 に対して, P(Xc)E[X]c P(\left|X\right|\geq c)\leq \dfrac{E\left[\left|X\right|\right]}{c}

マルコフの不等式

XX を連続型確率変数とすると, 確率密度関数 fX(x)f_X(x) に対して,

cP(Xc)=ccfX(x)dxcxfX(x)dx0cxfX(x)dx+cxfX(x)dx=0xfX(x)dx=E[X] \begin{aligned} cP(\left|X\right|\geq c)&=&c\int^{\infty}_{c}f_X(x)dx \\ &\leq&\int^{\infty}_{c}\left|x\right|f_X(x)dx \\ &\leq&\int^c_0\left|x\right|f_X(x)dx+\int^\infty_c\left|x\right|f_X(x)dx \\ &=&\int^\infty_0\left|x\right|f_X(x)dx \\ &=&E[\left|X\right|] \end{aligned}

P(Xc)E[X]c\therefore P(\left|X\right|\geq c)\leq\dfrac{E[\left|X\right|]}{c}. XX が離散型確率変数である場合は総計により同様にして求まる.

チェビシェフの不等式

E[Y]=μ,V[Y]=σ2E[Y]=\mu,V[Y]=\sigma^2 とするとき, a>0^\forall a\gt 0 に対して, P(Yμaσ)1a2P(Yμa)σ2a2P(\left|Y-\mu\right|\geq a\sigma)\leq\dfrac{1}{a^2}\Leftrightarrow P(\left|Y-\mu\right|\geq a)\leq\dfrac{\sigma^2}{a^2}

チェビシェフの不等式

マルコフの不等式より, X=(Yμ)2,c=a2σ2X=(Y-\mu)^2,c=a^2\sigma^2 とすると

P((Yμ)2a2σ2)E[(Yμ)2]a2σ2=σ2a2σ2=1a2\begin{aligned} P((Y-\mu)^2\geq a^2\sigma^2)&\leq&\dfrac{E\left[(Y-\mu)^2\right]}{a^2\sigma^2} \\ &=&\dfrac{\sigma^2}{a^2\sigma^2} \\ &=&\dfrac{1}{a^2} \end{aligned}

P(Yμaσ)1a2\therefore P(\left|Y-\mu\right|\geq a\sigma)\leq\dfrac{1}{a^2}. c=a2c=a^2 とすると, 同様にして P(Yμa)σ2a2P(\left|Y-\mu\right|\geq a)\leq\dfrac{\sigma^2}{a^2}.

準備が整ったので, 以下大数の弱法則を証明する.

大数の弱法則

確率変数 Y\overline{Y}i.i.d\rm i.i.d 標本平均 1ni=1nYi\displaystyle\dfrac{1}{n}\sum_{i=1}^{n}Y_i とすると, 期待値の線型性より E[Y]=μ,V[Y]=σ2nE\left[\overline{Y}\right]=\mu,V\left[\overline{Y}\right]=\dfrac{\sigma^2}{n}. ここで, チェビシェフの不等式より P(Yμa)σ2na2P(\left|\overline{Y}-\mu\right|\geq a)\leq\dfrac{\dfrac{\sigma^2}{n}}{a^2} だから, nn\to\infty のとき, 右辺は 00 に収束する.

中心極限定理

中心極限定理は

中心極限定理

平均 μ\mu, 分散 σ2\sigma^2 の母集団から無作為抽出された標本平均 Xn\overline{X}_n は, 母集団の分布に無関係に, nn が十分に大きいとき, 近似的に平均 μ\mu, 分散 σ2n\dfrac{\sigma^2}{n}(標準偏差 σn\dfrac{\sigma}{\sqrt{n}}) に従う. i.i.d\Leftrightarrow \rm i.i.d 標本 X1,X2,,XnX_1,X_2,\cdots,X_n があって, E[Xi]=μ,V[Xi]=σ2E\left[X_i\right]=\mu,V\left[X_i\right]=\sigma^2 で, nn\to\infty のとき, Xn\overline{X}_n の分布は N(μ,σ2n)N(\mu,\dfrac{\sigma^2}{n}) に近く.

という定理である. 大数の弱法則とこの中心極限定理ともにサンプル平均 Xn\overline{X}_n の振る舞いに関する定理であるが, 後者においては, サンプル平均と, 真の平均との誤差について論ずる定理である点が異なる. つまり, 大数の弱法則より Xnμ\overline{X}_n\approx\mu であることはわかったが, その差 Xnμ\overline{X}_n-\mu はどのような挙動となるのか, また 00 に近づいていくのはわかったが, どのように近づいていくのかについて論じているのが, 中心極限定理である8. 中心極限定理は, それが正規分布に近似するといっているので, 起きた事象の珍しさを測るための指標として用いることができ, これが統計における検定に役立つ. また, すべての平均と分散が定義できるような分布9に対していえることから, 様々な事象が正規分布に従うことを正当化するための理論的根拠としてよく用いられる.

参考文献


  1. σ\sigma-加法族は, 完全加法族, 可算加法族, σ\sigma-集合代数, σ\sigma-集合体ともいわれる.↩︎

  2. 簡単のため, 確率変数 X,YX, Y に対して E[X,Y]=E[X]+E[Y]E\left[X,Y\right]=E\left[X\right]+E\left[Y\right] を示して証明とする. ここで, i:=i=1n,j:=j=1n\sum_i:=\sum^n_{i=1},\sum_j:=\sum^n_{j=1} とし, 確率変数 XX がその取り得る値 xix_i となる確率を P(xi)P(x_i), 同様に YY がその取り得る値 yjy_j となる確率を P(yj)P(y_j) とする. また, そのどちらもが同時に発生する確率を P(xi,yj)P(x_i,y_j) とする. E[X+Y]=ij(xi+yj)P(xi,yj)=ijxiP(xi,yj)+ijyjP(xi,yj)=ixijP(xi,yj)+jyjiP(xi,yj)=ixiP(xi)jyjP(yj)=E[X]+E[Y]\begin{aligned} E\left[X+Y\right]&=&\sum_i\sum_j(x_i+y_j)P(x_i,y_j) \\ &=&\sum_i\sum_j x_iP(x_i,y_j)+\sum_i\sum_j y_jP(x_i,y_j) \\ &=&\sum_i x_i\sum_j P(x_i,y_j)+\sum_j y_j\sum_i P(x_i,y_j) \\ &=&\sum_i x_iP(x_i)\sum_j y_jP(y_j) \\ &=& E\left[X\right]+E\left[Y\right] \end{aligned}

    連続的確率変数に対しても, 積分の線型性から同様. \square↩︎

  3. (iii){\rm (iii)} および期待値の線形性より E[X]=E[1ni=1nXi]=1nE[X1++Xn]=1nnμ=μ\begin{aligned}E\left[\overline{X}\right]&=&E\left[\dfrac{1}{n}\sum^n_{i=1}X_i\right] \\ &=&\dfrac{1}{n}E\left[X_1+\cdots+X_n\right] \\ &=&\dfrac{1}{n}n\mu \\ &=&\mu \end{aligned}

    \square↩︎

  4. 簡単のため, 連続型確率変数 X,YX,Y に対する E[Y]=E[E[YX]]E\left[Y\right]=E\left[E\left[Y|X\right]\right] を示して証明とする. E[Y]E\left[Y\right] は条件付き期待値の定義から E[Y]=yf(x,y)dxdyE\left[Y\right]=\int^\infty_{-\infty}\int^\infty_{-\infty}yf(x,y)dxdy ここで, f(x,y)f(x,y)X,YX,Y の同時確率密度関数である. 従って, E[Y]=yf(x,y)dxdy=yf(x,y)f(x)f(x)dxdy=[yf(yx)dx]f(x)dx=E[Xy]f(x)dydx=E[E[YX]]\begin{aligned}E\left[Y\right]&=&\int^\infty_{-\infty}\int^\infty_{-\infty}yf(x,y)dxdy \\ &=&\int^\infty_{-\infty}\int^\infty_{-\infty}y\dfrac{f(x,y)}{f(x)}f(x)dxdy \\ &=&\int^\infty_{-\infty}\left[\int^\infty_{-\infty}yf(y|x)dx\right]f(x)dx \\ &=& \int^\infty_{-\infty}E\left[X|y\right]f(x)dydx \\ &=&E\left[E\left[Y|X\right]\right]\end{aligned}

    \square↩︎

  5. 平均 μ\mu, 分散 σ2\sigma^2 の確率変数 XX を正則化した変数 Z=XμσZ=\dfrac{X-\mu}{\sigma} の期待値と分散を確認してみると, 平均は ,, より E[Z]=E[Xμσ]=1σE[Xμ]=1σ(E[X]μ)=1σ(μμ)=0\begin{aligned}E\left[Z\right]&=&E\left[\dfrac{X-\mu}{\sigma}\right] \\ &=&\dfrac{1}{\sigma}E\left[X-\mu\right] \\ &=& \dfrac{1}{\sigma}(E\left[X\right]-\mu) \\ &=&\dfrac{1}{\sigma}(\mu-\mu) \\ &=&0\end{aligned} 分散は ,, より V[Z]=V[Xμσ]=1σ2V[Xμ]=1σ2V[X]=σ2σ2=1\begin{aligned}V\left[Z\right]&=&V\left[\dfrac{X-\mu}{\sigma}\right] \\ &=&\dfrac{1}{\sigma^2}V\left[X-\mu\right] \\ &=&\dfrac{1}{\sigma^2}V\left[X\right] \\ &=&\dfrac{\sigma^2}{\sigma^2} \\ &=& 1\end{aligned}

    となり標準正規分布に従うことがわかる.↩︎

  6. \(\) および期待値の線形性より V[X]=V[1ni=1nXi]=1n2V[X1++Xn]=1n2nσ2=σ2n\begin{aligned}V\left[\overline{X}\right]&=&V\left[\dfrac{1}{n}\sum^n_{i=1}X_i\right] \\ &=&\dfrac{1}{n^2}V\left[X_1+\cdots+X_n\right] \\ &=&\dfrac{1}{n^2}n\sigma^2 \\ &=&\dfrac{\sigma^2}{n}\end{aligned}

    \square↩︎

  7. matplotlib 等で生成. 標準偏差 σ\sigma[1,5][1,5] としたとき.↩︎

  8. 参考文献から一部引用: ベーシックな大数の弱法則は中心極限定理から導出することができます。→The Laws of Large Numbers Compared(snip) しかし,より一般的な(仮定を弱めた)大数の弱法則は中心極限定理から導出することはできません。つまり「中心極限定理が大数の法則を包含している」と言うことはできないのです。↩︎

  9. 平均, 分散が定義できない分布の例としてよく挙げられるものの 1 つ: コーシー分布.↩︎


活動継続のためのご支援を募集しています