ヨビノリ動画、めっちゃ面白いですよね!
ヨビノリさんは、数学を中心にわかりやすく、楽しく教えてくださるYouTuberさんでして、例えば下記は「中学数学から始める三角関数」の中の1つの「遊び」です。
見ている水平線までどれくらい距離があるのかを三角関数(ピタゴラスの定理)を用いて算出しています(スケールがデカくて面白い!)。パパと息子の見ている地平線は1キロ以上も違うということを知ったので、もう少し息子が大きくなったらドヤ顔で教えようと思っています。こうやって印象に残る「遊び」といった例をたくさん紹介してくれるので、理解度と定着力が全然違うと思っています。
先日はやっと興味のあった確率統計の動画リストを視聴完了しました。いやー、面白かったです!
↓動画リストはこちら
きっと何回も見返したくなると思うので、忘備録がてらメモを記録しました。特に例が面白いので、動画内の”例”を振り返ってどの動画なのか分かるようにしました。
超楽しい21本ノック、行ってみよう!
1、母集団と平均
用語の定義や書き方のお作法(大文字と小文字の違い)を分かりやすく教えてくれます。
2、点推定
平均や分散などピンポイントの推定。なぜ不偏分散を使うのか(なぜn-1なのか?)の説明がすごい!難しい数式なしに、直感で分かる説明です。
3、区間推定(分散が既知)
分散が既知の推定。例ではなんと1人の身長のデータから、平均を推定します。信頼区間の数直線の説明もわかりやすいです。
4、区間推定(分散が未知)
分散が分からないので、標本から得られる不偏分散を使う。t分布はちょっと正規分布に比べると凹んでいて、裾野も広い。nが大きいと正規分布に近づく。
5、区間推定(母集団分布が未知)
中心極限定理の話。標本平均は、母集団の分布がどんな形でも正規分布に従う。例題は、「あるYouTuberの平均再生数」を推定するという話。
6、母比率の推定
Yes/Noのような質問(ベルヌーイ試行)で、比率を推定する。中心極限定理を使う。例は、「ヨビノリの認知率」を推定する。
7、母分散の推定(平均も分散も未知で正規分布を仮定するとき)
商品の内容量の分散など、品質保証の確認などに用いられる。カイ二乗分布は左右非対称で自由度によって形が大きく異なる分布。例は、「あるお菓子は製品として何g分散があるか」。
8、母平均の推定
例は、「10年前より平均身長は伸びたと言えるか」、「商品の内容量が減ったと言えるか」。
9、ウェルチの検定(等分散を仮定しない)
差の検定。例は、「2県で数学のテストの標本平均に差があった場合、片方が優秀と言えるか」。
10、最小二乗法
偏差の二乗の和を最小にする直線のこと。連立方程式を用いて証明する。
11、チェビチェフの不等式
どんな分布でもレアな事象(例は3シグマ離れること)は、ある一定の確率以内と言える。正規分布だと3シグマの外の値を取る確率は約0.3%だが、チェビチェフの不等式でその他の分布にも当てはめると11%くらい。
12、中心極限定理の気持ち
平均の分布はどんな母集団分布でも正規分布に従う。例は、「新成人の身長の推定をしたときの分散が妥当かどうか」。
13、ベイズの定理
条件付き確率。例は、「罹患率が0.01%の病気の時、陽性と判断された場合に本当に罹患している場合の確率」。あるテストで陽性とされたことで、事前確率が0.01%から事後確率0.05%へと変化する。
14、ベイジアンネットワーク
因果関係を視覚的に表現する方法。ノードの条件付け(観測)によって条件付き独立となる例をいくつか示す。
15、ポアソン分布
単位時間あたりに平均λ回起こる事象がちょうどk回起こる確率。離散確率分布になる。例は、「1時間あたり平均5回視聴される動画が、1時間に10回視聴される確率」。
16、指数分布
単位時間あたり平均λ回起こる事象の発生間隔がx単位時間である確率密度(次に起こるまでの間隔)。例は、「1時間に平均30人来るお店である客が来てから次の客が来るまでの間隔が10分以内である確率」、「1年に2回壊れる傘が、1回壊れた後に次に壊れるまでが1ヶ月以内である確率」
この21本の中でヨビノリやすさんが特に輝く回です。必見!
17、ゴットの推定
存続期間の推定。例は、「ベルリンの壁が壊れるまで何年か」、「人類の存続は何年か」、「宇宙はあと何年存続するのか」、「YouTubeはあと何年サービスが続くか」
18、サンクトペテルブルクのパラドックス
無限大の期待値をどう解釈するか。賭け金について、参加費の指標になるものについて。
19、教師あり学習と教師なし学習の違い
教師ありは正解がある(希望通り動いて欲しい:迷惑メールの振り分けなど)。教師なしはクラスタリングなどを用い、予期しないことも割り振りしたり、本質の抽出、次元の削減を行うことを目的とする。
20、ディープラーニングとは
機械学習の中の1つ。入力層から出力層までの間に2層以上あるものがDL。音声認識や画像認識、ゲームなどに用いられる。
21、相関と因果をみんなに分かりやすく
相関は因果を必ずしも意味しない。共通の要因があるときに擬似相関が生まれやすい。「擬似」とつくので誤解しやすいが、相関は数学的にある。ただし因果がない。
読んでくれて、ありがとう!
これからもヨビノリさんにはお世話になります。動画で勉強できるなんて、去年までは思いもしなかったけれど、本当に良い時代になったなあ(しみじみ)。