Yuki-KG’s blog

アメリカやイギリス、英語のことなど書いています。

英語で数学〜確率・統計(2)〜

小学校の算数や、中学高校の数学でいろいろ習いましたが、そこで習った言葉や公式や定理について、英語でなんて言うんだろうと思ったことありませんか?

そんな、算数や数学で出てくる英語をまとめてみました。

「英語で数学〜確率・統計(1)〜」はこちらをご覧ください。

Contents

確率論

場合の数

たとえば、車を買おうとして、その車のボディタイプはセダンとハッチバックの2通りがあり、色は黒、赤、黄緑、青、水色の5通りがあり、モデルはGL、SS、SLの3通りがあるとします。ボディタイプと色とモデルの選択が互いに独立である (independent of each other) とすると、車の選択肢はそれぞれをかけ算して \(2\times 5\times 3 = 30\) 通りあることになります。

もし、「ハッチバックには黒はない」といった条件があるときは、ある選択肢は他の選択肢に従属する (dependent on another choice) ことになります(この場合だと、色の選択肢はボディタイプの選択肢に従属することになります)。

順列 (permutation) と組み合わせ (combination)、階乗 (factorial)

\(n\) 個のサンプルから \(r\) 個抽出するとき、その順番を意識する場合、その場合の数を順列 (permutation) といい、 \({}_n\mathrm{P}_r\) のように書きます。

\[ {}_n\mathrm{P}_r = \prod_{i=1}^r (n-i+1) \]

です。つまり \(n\) からはじめて1ずつ減らしながら \(r\) 回かけ算をした値になります。

順番を意識しないで \(n\) 個のサンプルから \(r\) 個抽出する場合の数を組み合わせ (combination) といい、\( {}_n\mathrm{C}_r \) あるいは \(\left(\begin{array}{c} n \\ r\end{array}\right)\) のように書きます。

\[ \left(\begin{array}{c} n \\ r\end{array}\right) = \frac{n!}{(n-r)!r!} =  \frac{{}_n\mathrm{P}_r}{r!} \]

となります。ここで \(r!\) のことを \(r\) の階乗 (factorial of \(r\)) といい、

\[ r! = \prod_{i=1}^ri \]

となります。

N.B. プログラマー向けに。

\[ \begin{eqnarray} \left(\begin{array}{c} n \\ r\end{array}\right) & = & \frac{{}_n\mathrm{P}_r}{r!} \\ & = & \frac{(n-r+1)(n-r+2)\cdots (n-1)n}{1\cdot 2\cdot \cdots \cdot (r-1)r} \\ & = & \frac{n-r+1}{1}\cdot \frac{n-r+2}{2}\cdot \cdots \cdot \frac{n-1}{r-1} \cdot \frac{n}{r} \\ & = & \prod_{i=1}^r\frac{n-r+i}{i} \end{eqnarray} \]

となります。分母、分子でそれぞれ階乗を求めなくても、 \( \frac{n-r+i}{i} \) を \(i\) を \(1\) ずつ増やしながら \(r\) 回かけ算すればいいことになります。この求め方であれば \(n\) や \(r\) が何百あってもオーバーフローを起こさずに \( {}_n\mathrm{C}_r \) を求められます。

順列・組み合わせ

\(n\) と \(r\) に整数を入力し、ラジオボタンでどちらかを選択してください。

\(n = \)    \(r = \)

階乗

\(n\) に整数を入力してください(\(n \le 170\))。

\(n = \)    計算!

二項定理 (binomial theorem)

二項式 (binomial) \(x+y\) の\(n\)乗は、

\[ (x+y)^n = \left(\begin{array}{c} n \\ 0\end{array}\right)x^n + \left(\begin{array}{c} n \\ 1\end{array}\right)x^{n-1}y + \left(\begin{array}{c} n \\ 2\end{array}\right)x^{n-2}y^2 \\ + \cdots + \left(\begin{array}{c} n \\ n-1\end{array}\right)xy^{n-1} + \left(\begin{array}{c} n \\ n\end{array}\right) y^n \\ = \sum_{i=0}^n \left(\begin{array}{c} n \\ i\end{array}\right) x^{n-i}y^i \]

になります。これを二項定理 (binomial theorem) といいます。

二項定理

\(x\) と \(y\) に数字を、\(n\) に整数を入力してください。

\(x = \)    \(y = \)
\(n = \)

相対度数 (relative frequency)

12試合をして、9回勝ったチームがあるとしたとき、勝利の度数 (frequency) は \(9\) 、勝利の相対度数 (relative frequency) は \(9/12=75\) %となります。

92人に対して仕事に行くときの交通機関の調査をし、

車と答えた人が35人
電車と答えた人が42人
自転車と答えた人が8人
徒歩と答えた人が7人

いたとすると、それぞれの相対度数は

車: \(35\div 92 = 0.38 \)
電車: \(42\div 92 = 0.46 \)
自転車: \(8\div 92 = 0.09 \)
徒歩: \(7\div 92 = 0.08 \)

となります。

事象 (event) と確率 (probability)

1から6までの目がふられた立方体のサイコロを振ることを考えます。1の目が出るという事象 (event) が起こる確率 (probability) は \(1/6\)、出る目が2の確率は \(1/6\)、3の確率は \(1/6\)、…という風に、ある事象について、それが起こる確率があります。確率0の事象は不可能である (impossible) し、確率1の事象は確実な (certain) ことです。確率0.5の事象は起こるか起こらないか五分五分である (even chance) し、そこから1に近づくほど可能性が大きく (likely) なり、0に近づくほど可能性が小さく (unlikely) なります。

ある事象について、それ以外の全ての事象のことを余事象 (complement) といいます。コインのおもて (head) が出るという事象の余事象は、うら (tail) が出るという事象になります。また事象 {月曜日, 水曜日} の余事象は {火曜日, 木曜日, 金曜日, 土曜日, 日曜日} になります。

ある事象が起こる確率と、その余事象が起こる確率をたすと、1になります。

コインを1回投げるとき、おもてが出る事象と、うらが出る事象は、同時には起こりません。そういう関係のことを背反である (mutually exclusive) といいます。コインを2回投げるとき、1回目におもてが出る事象と、2回目にうらが出る事象とは、互いに影響をおよぼしません。そういう関係のことを独立である (independent) といいます。

それに対し、トランプの山札 (deck) から (card) を2枚続けてひくときは、1枚目の札の中身によって、2枚目の札の中身が影響します。たとえば1枚目にキングが出たときは、山札にはあと3枚しかキングは残っていないので、2枚目にキングをひく可能性は少なくなりますし、1枚目がキングでないときは、2枚目にキングをひく可能性が少し大きくなります。このように、ある事象が別の事象に影響をおよぼすとき、これらの事象は従属である (dependent) といいます。

事象と確率の関係を樹形図 (tree diagram) を使って図示することがあります。

事象 \(A\) の起こる確率のことを \(P(A)\) のようにあらわします。トランプの山札から札を2枚続けてひくとき、「1枚目にキングをひく」という事象を \(A\) とすると、 \(P(A)=4/52\) になります。「2枚目にキングをひく」という事象を \(B\) とすると、

  • 1枚目にひいた札がキングだったとき: \(P(B)=3/51\)
  • 1枚目にひいた札がキングでなかったとき: \(P(B)=4/51\)

となります。これを \(P(B|A)=3/51\) のようにあらわすことがあります。この \(P(B|A)\) のことを条件付き確率 (conditional probability) といい、「事象 \(A\) が起きたことを前提とした、事象 \(B\) が起こる確率」のことをいいます。事象 \(A\) と事象 \(B\) が同時に起きる確率は、

\[ P(A\cap B)=P(A) \times P(B|A) \]

であらわされます。

また、

\[ P(A|B) = \frac{P(A)P(B|A)}{P(B)} \]

となります。これをベイズの定理 (Bayes' theorem) といいます。

確率分布 (probability distribution)

ある試行 (experiment) の結果 (outcome) に応じて値が決まる変数を確率変数 (probability variable) といい、上記のサイコロでいうと振って出る目の数がそれにあたります。それを \(X\) としたとき、\(X=1\) になる確率 \(p_1\) は \(\frac{1}{6}\) になります。これを \(P(X=1) = p_1 = \frac{1}{6}\) のように書きあらわすことがあります。

一般に確率変数\(X\)の値を \(x_1, x_2, x_3, \cdots , x_n\) とし、それぞれに対応する確率を \(p_1, p_2, p_3, \cdots, p_n\) としたとき、

\[ 0 \le p_i \le 1 \ (i=1, 2, \cdots , n) \\ \sum_{i=1}^n p_i = 1 \]

となります。 \(X=a\) となる確率を \(P(X=a)\) 、 \(X\) が \(a\) 以上 \(b\) 以下の値をとる確率を \(P(a\le X\le b)\) のようにあらわします。

\(x_1, x_2, x_3, \cdots , x_n\) と \(p_1, p_2, p_3, \cdots, p_n\) の対応関係のことを確率分布 (probability distribution) といいます。

一様分布 (uniform distribution)

上記のサイコロの例の場合、 \(x_i\) に対する \(p_i\) はいずれも \(1/6\) で一定になるため、このような分布を一様分布 (uniform distribution) といいます。

一様分布の平均値 (mean) あるいは期待値 (expected value) \(\mu\) は、\( \mu = \sum xp \) となります。

分散 (variance) は、\( \mathrm{Var}(X) = \sum x^2p-\mu^2 \)、標準偏差 (standard deviation) は、\(\sqrt{\mathrm{Var}(X)} \) であらわされます。

この場合、平均値(期待値)は、

\[ \mu = 1\times \frac{1}{6} + 2\times \frac{1}{6} + 3\times \frac{1}{6} \\ +4\times \frac{1}{6} + 5\times \frac{1}{6} + 6\times \frac{1}{6} \\ = 3.5 \]

となります。

分散は、

\[ \mathrm{Var}(X) = 1^2\times\left(\frac{1}{6}\right) + 2^2\times\left(\frac{1}{6}\right) + 3^2\times\left(\frac{1}{6}\right) \\ + 4^2\times\left(\frac{1}{6}\right) + 5^2\times\left(\frac{1}{6}\right) + 6^2\times\left(\frac{1}{6}\right) - 3.5^2 \\ = 2.92 \]

標準偏差

\[ \sqrt{\mathrm{Var}(X)} = \sqrt{2.92} = 1.71 \]

となります。

一様分布

\(1\) から までの数字をランダムに表示させる場合の確率、平均値、分散、標準偏差を求めます。

確率分布は連続値となる確率変数に対しても適用できます。連続値となる確率変数に対しては、確率密度関数 (probability density function) を使います。連続値 \(a\) から \(b\) までをとりうる確率変数 \(X\) があるとき、それが一様分布であれば、\(X\) は \(a\) から \(b\) までの範囲の値をランダムにとるということになります。\(X\) と、確率密度関数 \(p(X)\) の関係をグラフにあらわすと、

f:id:Yuki-KG:20220212233002j:plain

このように長方形の形になります(上のグラフは \(a=0, b=1\) の場合)。

連続値の場合は、\(X\) が特定の値をとる確率を求めることはできず、\(X\) がある範囲をとる確率を求めることになります。

\(X\) が \(a\) から \(b\) までの範囲の値をとる確率は、\(a\) から \(b\) までの確率密度関数の面積(この長方形の面積)を求めることになります。

たとえば、91分間隔で水を噴き出す間欠泉があったとき、そこで20分待ったときに間欠泉が噴き出すのが見られる確率を求めてみます。

20分待ったときに噴き出す確率は、\(a\) から \(a+20\) の間の確率分布の面積を求めて、

\[ \frac{1}{91} \times (a+20-a) \\ = \frac{1}{91}\times 20 \\ = \frac{20}{91} \\ = 0.22 \]

となります。

一様分布の積分布関数 (cumulative distribution function: CDF) は、下図のような形になります。

f:id:Yuki-KG:20220212233121j:plain

二項分布 (binomial distribution)

おもて (head) とうら (tail) のどちらかが出るコインを3回投げて、3回ともおもてが出る確率 \(\mathrm{P(HHH)}\) は \(\left(\frac{1}{2}\right)^3 = \frac{1}{8} \) です。

では、3回のうち2回おもてが出る確率はどうでしょう? そう、表表裏が出る場合、表裏表が出る場合、裏表表が出る場合の3通りあるので、それぞれの確率

\[ \mathrm{P(HHT) + P(H TH) + P(THH)} = \frac{1}{8} + \frac{1}{8} + \frac{1}{8} = \frac{3}{8} \]

ですね。同じように、3回のうち1回おもてが出る確率は

\[ \mathrm{P(HTT) + P(TTH) + P(THT)} = \frac{1}{8} + \frac{1}{8} + \frac{1}{8} = \frac{3}{8} \]

3回投げて1回もおもてが出ない確率 \(\mathrm{P(TTT)}\) は \(\left(\frac{1}{2}\right)^3 = \frac{1}{8} \) です。おもてが出る回数 \(X\) となる確率 \(P(X)\) は、

\[ P(X=3) = \frac{1}{8} \\ P(X=2) = \frac{3}{8} \\ P(X=1) = \frac{3}{8} \\ P(X=0) = \frac{1}{8} \]

ということができます。

まとめると、コインを \(n\) 回投げて \(k\) 回おもてが出る確率は

\[ P(X=k) = \left(\begin{array}{c} n \\ k\end{array}\right) \left(\frac{1}{2}\right)^n \]

です。\(n=10\)の場合の例について下のグラフに示します。

f:id:Yuki-KG:20220211224426j:plain

さて、ではコインにいかさまがしてあって、おもてが出る確率が \(0.8\)、うらが出る確率が \(0.2\) だったとしたらどうでしょう?

そのコインを3回投げて、3回ともおもてが出る確率 \(\mathrm{P(HHH)}\) は \(0.8^3=0.512\) になりますね。

では、3回投げて2回おもてが出る確率はどうでしょう? そうです、

\[ \mathrm{P(HHT) + P(H TH) + P(THH)} \\ = 0.8\times 0.8\times 0.2 + 0.8\times 0.2\times 0.8 + 0.2\times 0.8\times 0.8 = 0.384 \]

ですね。同じように、3回のうち1回おもてが出る確率は

\[ \mathrm{P(HTT) + P(TTH) + P(THT)} \\ = 0.8\times 0.2\times 0.2 + 0.2\times 0.2\times 0.8 + 0.2\times 0.8\times 0.2 = 0.096 \]

3回投げて1回もおもてが出ない確率 \(\mathrm{P(TTT)}\) は \(0.2^3 = 0.008 \) です。

一般に、 \(n\) 回の試行で確率 \(p\) の事象が \(k\) 回起きる確率は

\[ P(X=k) = \left(\begin{array}{c} n \\ k\end{array}\right) p^k(1-p)^{n-k} \]

となります。このような \(X\) は二項分布 (binomial distribution) に従っています。

\(n=10, p=0.8\)の場合の例について下のグラフに示します。さっきの \(p=0.5\) の場合よりも、\(X\) の分布が右に寄っていることがわかると思います。

f:id:Yuki-KG:20220211230934j:plain

このように、ピーク値よりもマイナス側に分布のロングテールがあるような状態のことをnegative skewあるいは左に歪んでいる (skewed to the left) 、左裾が長い (the long tail is on the left hand side) といいます。逆に、ピーク値よりもプラス側に分布のロングテールがあるような状態のことをpositive skewあるいは右に歪んでいる (skewed to the right)、右裾が長い (the long tail is on the right hand side) といいます。このskewの度合いのことを歪度 (skewness) といい、negative skewのときは負の値を、positive skewのときは正の値をとります。歪度はExcelOpenOffice CalcのSKEW()関数で計算することができます。

二項分布の平均値(期待値) \(\mu\) は、\( \mu = np \) 、分散は \(np(1-p)\)、標準偏差は \(\sqrt{np(1-p)}\)  であらわされます。また二項分布の歪度は

\[ \frac{1-2p}{(1-p)\sqrt{np(1-p)}} \]

で求められます。

二項分布

\(p\) に数字(\(0\le p\le 1\))を、\(n\) と \(k\) に整数を入力してください。

\(p = \)
\(n = \)    \(k = \)

正規分布 (normal distribution)

人の身長、機械が生産するもののサイズ、血圧、測定誤差、テストの点数など、自然界に存在する数値の多くは、その確率密度関数正規分布 (normal distribution) に従います。正規分布とは、

  • 平均値が中央値 (median)、最頻値 (mode) と同じ
  • 平均値(中央値、最頻値)を軸に確率密度関数が左右対称
  • 全体の半数が平均値より小さく、残り半数が平均値より大きい

という特徴をもっており、確率密度関数をグラフにすると、真ん中が一番高く釣鐘状になるのが特徴で、bell curveと呼ばれます。

f:id:Yuki-KG:20220212233633j:plain

平均値から左右にそれぞれ標準偏差分だけ広がった区間に、全体の68%が含まれ、平均値から左右にそれぞれ標準偏差の2倍分(2シグマ)だけ広がった区間に、全体の95%が、平均値から左右にそれぞれ標準偏差の3倍分(3シグマ)だけ広がった区間に、全体の99.7%が含まれます。

たとえば、ある学校の生徒のうち95%が身長1.1〜1.7メートルの間だとしたとき、このデータが正規分布に従うとすると、その平均値と標準偏差を求めるとします。

平均値は、1.1と1.7のちょうど間になるので、\( (1.1+1.7)\div 2=1.4 \)メートルになります。

95%は標準偏差の2倍分だけ広がった区間(あわせて4倍分)になるので、標準偏差

\( (1.7-1.1)\div 4 = 0.6\div 4=0.15\) メートルになります。

どんな値も

  • 1シグマ以内に入ることはlikely
  • 2シグマ以内に入ることはvery likely
  • 3シグマ以内に入ることはalmost certainly

といえるでしょう。

平均値からの標準偏差のことを上のようにシグマとよんだり、標準得点 (standard score) とよんだり、Zスコア (z-score) とよぶこともあります。

同じ学校で身長 \(1.85\) メートルの生徒がいたとします。そのときは、\(1.85\) メートルは平均値 \(1.4\) メートルから \( 1.85 - 1.4 = 0.45 \) メートル離れており、標準偏差 \(0.15\) メートルなので、\( 0.45 \div 0.15 = 3\) シグマ離れていることになります。このことを
その生徒の身長はZスコア3.0である
ということができます。

このように、

  • まず、値から平均値を引く。
  • 次に、それを標準偏差で割る。

ことにより、値を標準得点(Zスコア)に変換することができます。この操作を標準化 (standardizing) といいます。標準得点(Zスコア)は標準正規分布 (standard normal distribution) に従うといい、平均値 \(0\)、標準偏差 \(1\) となります。

たとえば、ある教授が11人の学生を対象に行ったあるテストの得点の結果(60点満点)が

\[ \{20, 15, 26, 32, 18, 28, 35, 14,26, 22, 17\} \]

だったとします。合否の基準を30点に設定してしまうと、ほとんどの人は30点取れていないので、落第になってしまいます。

このテストが難しすぎたのかもしれないと考えた教授は、得点を標準化し、平均点よりも1シグマを超えて下回る点しか取れなかった学生だけを落とすことにしました。

平均点は \(23\) 点、標準偏差は \(6.6\) なので、これらの標準得点は

{-0.45, -1.21, 0.45, 1.36, -0.76, 0.76, 1.82, -1.36, 0.45, -0.15, -0.91}

となります。標準得点が \(-1\) を下回る学生は2人(下線を引いた得点)なので、落ちる学生は2人だけで済み、より公正な試験ができたのでした。

ちなみに、二項分布は試行回数 \(n\) がじゅうぶん大きいときには平均値 \(np\)、標準偏差 \(\sqrt{np(1-p)}\) の正規分布に近づくことがわかっています。

ポアソン分布 (Poisson distribution)

ある一定時間のあいだに電話がかかってくる事象など、めったに起きない事象についての確率分布はポアソン分布 (Poisson distribution) に従うとされています。

ポアソン分布に従う事象がある一定時間の間に平均 \(\lambda\) 回生起するとき、その時間内に事象が \(k\) 回生起する確率は

\[ P(X=k) = \frac{\lambda^ke^{-\lambda}}{k!} \]

となります。ここで \(e=2.718\cdots \) は自然対数の底 (base of natural logarithm) で、ネイピア数 (Napier's constant) またはオイラー (Euler's number) といいます。

\(\lambda=1\) の場合(赤)、\(\lambda=2\) の場合(青)、\(\lambda=3\) の場合(緑)、\(\lambda=5\) の場合(茶)、\(\lambda=10\) の場合(黒)について、ポアソン分布のグラフを下図に示します。

f:id:Yuki-KG:20220212000946j:plain

ポアソン分布の場合、平均値、分散ともに \(\lambda\) になります。

ちなみに、二項分布は試行回数 \(n\) がじゅうぶん大きく、かつ \(p\) がじゅうぶん小さいときには平均値 \(np =\lambda \)、分散 \(np(1-p) = \lambda \) のポアソン分布に近づくことがわかっています。

ポアソン分布

\(\lambda \) に数字を、 \(k\) に整数を入力してください。

\(\lambda = \)
\(k = \)

指数分布 (exponential distribution)

電話で通話するとき、通話時間(保留時間)は指数分布 (exponential distribution) に従うといわれています。一定時間内に通話を終える確率を \(\mu\) とすると、確率密度関数

\[ P(t)= \mu e^{-\mu t} \]

であらわされます。

指数分布の平均値は \(\frac{1}{\mu}\) となります。これを電話の世界では平均保留時間ともよびます。

指数分布の標準偏差も \(\frac{1}{\mu}\) となります。なので分散は \(\frac{1}{\mu^2} \) になります。

指数分布は連続量なので、確率をあらわすときは例えば \(t\le T\) 以内の範囲に入る確率、という感じであらわします。そのような確率は

\[ \begin{eqnarray} P(t\le T) & = & \int_0^T \mu e^{-\mu t}dt \\ & = & 1-e^{-\mu T} \end{eqnarray} \]

であらわされます。

平均保留時間 \(180\) 秒、つまり \( \mu=\frac{1}{180} \) の場合の指数分布の確率密度関数と累積分布関数を下図に示します。

f:id:Yuki-KG:20220213152939j:plain

f:id:Yuki-KG:20220213152958j:plain

これを見ると、5分(300秒)以内に通話を終える確率は81.1%ということになります。

指数分布

\(\frac{1}{\mu} \) と \(t\) に数字を入力してください。

\(\frac{1}{\mu} = \)
\(t = \)

参考