SlideShare une entreprise Scribd logo
1  sur  139
Télécharger pour lire hors ligne
統計学の基礎の基礎
2015/10/2
Ken ichi Matsui
自己紹介
・Facebookページ
  https://www.facebook.com/matsukenbook
・Twitterアカウント
  @kenmatsu4
・Qiitaでブログを書いています(統計、機械学習、Python等)
   http://qiita.com/kenmatsu4
   (3500 contributionを超えました!)
・趣味
   - バンドでベースを弾いたりしています。
   - 主に東南アジアへバックパック旅行に行ったりします
   (カンボジア、ミャンマー、バングラデシュ、新疆ウイグル自治区 etc)
旅行の写真 : http://matsu-ken.jimdo.com
Twitterアイコン
統計学の基礎の基礎
コレですw
・統計学で何ができる?
・統計学の2つの目的
・グラフを描こう
・基本統計量 平均、分散、標準偏差って何?
・相関係数
・標本調査(母集団と標本)
・推測
・仮説検定(さわりだけ)
・おわりに
今日のアジェンダ
1.統計学で何ができる?
薬の効果の検定
グループごとに条件を変えて、その結果に違いが
あるかを検定する
とある薬を飲んだ
グループ
とある薬を飲んでいない
グループ
Webサイトのレイアウト変更
A/Bテスト
検索
広告
検索
広告
広告パターンA 広告パターンB
変更してみる
A/Bテスト
取得したデータ
クリックした クリックしない
広告パターンA 25 (18%) 117 (82%)
広告パターンB 10 (24%) 32 (76%)
Webサイトのレイアウト変更
検索
広告
検索
広告
広告パターンA 広告パターンB
変更してみる
A/Bテスト
クリックした クリックしない
広告パターンA 25 (18%) 117 (82%)
広告パターンB 10 (24%) 32 (76%)
取得したデータ
Webサイトのレイアウト変更
検索
広告
検索
広告
広告パターンA 広告パターンB
変更してみる
どちらが効果がある?
A/Bテスト
クリックした クリックしない
広告パターンA 25 (18%) 117 (82%)
広告パターンB 10 (24%) 32 (76%)
取得したデータ
どちらが効果がある?
Webサイトのレイアウト変更
検索
広告
検索
広告
広告パターンA 広告パターンB
変更してみる
実は差がない!
> ab_data <- matrix(c(25,117,10,32), ncol=2, byrow=T)
> chisq.test(ab_data)
Pearson's Chi-squared test with Yates' continuity correction
data: ab_data
X-squared = 0.45721, df = 1, p-value = 0.4989
A/Bテスト
計算してみると、
もしこの実験を繰り返すことが
できたとすると、49.9%くらいの
確率でこれくらい(これ以上)の差は
発生しうる。
→ 施策に効果があるとは言えない!
例:とあるアイスクリーム店の前の通行人と売上の関係
回帰分析
2.統計学の2つの目的
・記述統計
・推測統計
記述統計
トータル
最高スコア 990
最低スコア 10
平均スコア 583.7
標準偏差 170.1
例:TOEIC公開テスト第202回の試験
→ 第202回の受験者全員を対象にデータを要約
http://www.toeic.or.jp/toeic/about/data/data_avelist/data_ave01_04.html
http://www.toeic.or.jp/toeic/about/data/data_avelist/data_dist01_04.html
記述統計
トータル
最高スコア 990
最低スコア 10
平均スコア 583.7
標準偏差 170.1
例:TOEIC公開テスト第202回の試験
→ 第202回の受験者全員を対象にデータを要約
http://www.toeic.or.jp/toeic/about/data/data_avelist/data_ave01_04.html
http://www.toeic.or.jp/toeic/about/data/data_avelist/data_dist01_04.html
手元のデータを
要約している。
推測統計
例:工場での製品生産、一部の経済統計
→ サンプル(標本)から全体(母集団)を推測
標本抽出
標本抽出
ex:家計調査
ex:製品の重さ
推測統計
例:工場での製品生産、一部の経済統計
→ サンプル(標本)から全体(母集団)を推測
平均、標準偏差を計算
平均、標準偏差を計算
ex:製品の重さ
ex:家計調査
推測統計
例:工場での製品生産、一部の経済統計
→ サンプル(標本)から全体(母集団)を推測
推測する
推測する
ex:製品の重さ
ex:家計調査
3. グラフをたくさん描こう
ID total_bill tip gender smoker day time size
0 16.99 1.01 Female No Sun Dinner 2
1 10.34 1.66 Male No Sun Dinner 3
2 21.01 3.5 Male No Sun Dinner 3
3 23.68 3.31 Male No Sun Dinner 2
4 24.59 3.61 Female No Sun Dinner 4
5 25.29 4.71 Male No Sun Dinner 4
6 8.77 2 Male No Sun Dinner 2
7 26.88 3.12 Male No Sun Dinner 4
…
…
…
…
…
…
…
…
使用するデータ
例:飲食店の顧客別支払い金額データ
ヒストグラム
例:飲食店の顧客別支払い金額データ
支払額(ドル)
人数
https://github.com/mwaskom/seaborn-data
ヒストグラム
ある幅に入っているデータの個数(度数)を、
棒の縦の長さで表したグラフ。
(※ 面積が度数と比例するように描く)
例:飲食店の顧客別支払い金額データ(曜日別)
支払額(ドル)
人数
ヒストグラム
例:曜日ごと、性別ごと売上高
箱ヒゲ図
50%点
25%点
75%点
最小値
最大値
外れ値
箱ヒゲ図:データも一緒にプロット
50%点
25%点
75%点
最小値
最大値
外れ値
例:曜日ごと、性別ごと売上高
箱ヒゲ図:外れ値の計算方法
Q1(25%点) - 1.5 IQRより小さい
Q2(75%点) + 1.5 IQRより大きい
外れ値 外れ値
https://en.wikipedia.org/wiki/Interquartile_range
例:飲食店の総支払額 vs チップ額
散布図
散布図 (+回帰分析)
例:飲食店の総支払額 vs チップ額
時系列グラフ (2軸グラフ)
例:日経平均株価、為替(ドル円)
為替(ドル円)
日経平均株価
4. 基本統計量って何?
・平均
・分散
・標準偏差
基本統計量
・代表値 … 分布全体を一つの数で
      表したもの
平均値、中央値、最頻値など
青が平均が大きく、
赤が平均が小さい
基本統計量
・散布度 … データの散らばりの程度を
数値化したもの
分散、標準偏差、変動係数など
青が散らばりが大きく、
赤が散らばりが小さい。
平均は同じ。
ここで、ちょっとだけ
数学の話をします
統計学ではデータを
数字で表すので
少し数学が必要に
なるのです
変数とは
x = 5
変数とは
x = 5
a = 10
変数とは
x = 5
a = 10
a ⇥ x = 10 ⇥ 5 = 50
変数とは
a = 10
x = 3
a ⇥ x = 10 ⇥ 3 = 30
変数とは:Excelで言うと
A B C D
1
2 x 5
3 a 10
4
5 a × x 50
6
7
= B2 * B3
という数式が入っている
変数とは:Excelで言うと
A B C D
1
2 x 3
3 a 10
4
5 a × x 30
6
7
= B2 * B3
という数式が入っている
変数とは:Excelで言うと
A B C D
1
2 x 3
3 a 10
4
5 a × x 30
6
7
セルに数値を入れているのと同じこと!
= B2 * B3
という数式が入っている
変数とは:データを扱う
名前 数学
田中 96
高橋 63
鈴木 85
渡辺 66
清水 91
木村 89
山本 77
変数とは:データを扱う
名前 数学
田中 96
高橋 63
鈴木 85
渡辺 66
清水 91
木村 89
山本 77
ID  数学
1 96
2 63
3 85
4 66
5 91
6 89
7 77
IDにする
変数とは:データを扱う
名前 数学
田中 96
高橋 63
鈴木 85
渡辺 66
清水 91
木村 89
山本 77
ID  数学
1 96
2 63
3 85
4 66
5 91
6 89
7 77
IDにする 変数にする
ID  数学
1
2
3
4
5
6
7
x1
x2
x3
x4
x5
x6
x7
変数とは:データを扱う
名前 数学
田中 96
高橋 63
鈴木 85
渡辺 66
清水 91
木村 89
山本 77
ID  数学
1 96
2 63
3 85
4 66
5 91
6 89
7 77
IDにする 変数にする
x5:右下の数字(添字)はデータのIDを表す
ID  数学
1
2
3
4
5
6
7
x1
x2
x3
x4
x5
x6
x7
合計する
名前
 
数学
 田中 96
高橋 63
鈴木 85
渡辺 66
清水 91
木村 89
山本 77
合計 567
= sum(B2 : B8)
という数式が入っている
合計する
ID  数学
 1
2
3
4
5
6
7
合計
x1
x2
x3
x4
x5
x6
名前
 
数学
 田中 96
高橋 63
鈴木 85
渡辺 66
清水 91
木村 89
山本 77
合計 567
x7
x1 + x2 + x3 + x4 + x5 + x6 + x7
合計する
ID  数学
 1
2
3
4
5
6
7
合計
名前
 
数学
 田中 96
高橋 63
鈴木 85
渡辺 66
清水 91
木村 89
山本 77
合計 567 書くのが大変!!!
x1
x2
x3
x4
x5
x6
x7
x1 + x2 + x3 + x4 + x5 + x6 + x7
合計する
Excelには
 「B2 + B3 + B4 + B5 + B6 + B7 + B8」
を省略する短い書き方
 「= sum(B2 : B8) 」
が存在する。
合計する
数学には?
Excelには
 「B2 + B3 + B4 + B5 + B6 + B7 + B8」
を省略する短い書き方
 「= sum(B2 : B8) 」
が存在する。
合計する
あります!
x1 + x2 + x3 + x4 + x5 + x6 + x7
=
7X
i=1
xi
合計する
あります!
i は1から始まる
という意味
i は7まで続きます、
という意味
この範囲の i について
全部足し合わせる、
という意味
=
7X
i=1
xi
x1 + x2 + x3 + x4 + x5 + x6 + x7
・平均
・分散
・標準偏差
戻ります。
平均
平均
ご存知「平均」です。
データを全部足し合わせて、データの数で割
ります。
¯x =
1
7
(x1 + x2 + x3 + x4 + x5 + x6 + x7)
=
1
7
7X
i=1
xi
分散・標準偏差
データの散らばりの程度を数値化したもの
分散・標準偏差
分散 =
1
N
NX
i=1
(xi ¯x)2
標準偏差 =
v
u
u
t 1
N
NX
i=1
(xi ¯x)2
分散・標準偏差
分散 =
1
N
NX
i=1
(xi ¯x)2
標準偏差 =
v
u
u
t 1
N
NX
i=1
(xi ¯x)2
わけわからないですよね?
分散・標準偏差
「偏差」とは?
ID
 
点数
 
偏差  
1 96 96-81= 15
2 63 63-81=
-183 85 85-81= 4
4 66 66-81=
-155 91 91-81= 10
6 89 89-81= 8
7 77 77-81= -4
分散・標準偏差
「偏差」とは?
ID
 
点数
 
偏差  
1 96 96-81= 15
2 63 63-81=
-183 85 85-81= 4
4 66 66-81=
-155 91 91-81= 10
6 89 89-81= 8
7 77 77-81= -4
各データの平均値からの差のこと
分散・標準偏差:の前に平均偏差
この、偏差の平均値を取りたいが・・・
ID  偏差 
 1 15
2 -18
3 4
4 -15
5 10
6 8
7 -4
全部足すと 0 になってしまう
(左右釣り合いが取れるところが
平均値なので)
分散・標準偏差:の前に平均偏差
ID  偏差 
 
プラス化
1 15 15
2 -18 18
3 4 4
4 -15 15
5 10 10
6 8 8
7 -4 4
反転
なので、マイナスを取ってやる
分散・標準偏差:の前に平均偏差
ID  偏差 
 
プラス化
1 15 15
2 -18 18
3 4 4
4 -15 15
5 10 10
6 8 8
7 -4 4
平均 10.57
なので、マイナスを取り除いてやる
偏差の平均
= 10.57
平均からの距離を
平均したもの
分散・標準偏差:の前に平均偏差
=
1
n
nX
i=1
|xi ¯x|
平均偏差
偏差を足し合わせてデータ数:nで割る。
つまり平均をとっている。
偏差を全てプラスに変える
ために絶対値を取る。
ID  偏差 
 
プラス化
1 15 15
2 -18 18
3 4 4
4 -15 15
5 10 10
6 8 8
7 -4 4
平均 10.57
分散・標準偏差
先ほどは下記の図のように、平均値からの差を
線の長さで表現していましたが、
分散・標準偏差
今度はマイナスの値を取り除くために2乗します。
2乗するということは面積であると考えられます。
分散・標準偏差
+ + +
=
いろいろなサイズの正方形を
足して、データの個数で割ると、
面積の平均が求まる。
これが分散の直感的イメージ。
+ … + + 個数
面積の平均値
①
②
③ ④
n
分散・標準偏差
偏差
=
1
n
nX
i=1
(xi ¯x)2
分散
二乗した偏差を足し合わせてデータ数:nで割る。
この場合も二乗偏差の平均をとっている。
つまり、オレンジの面積の平均になる。
偏差を全てプラスに変えるために二乗する。
「二乗する」ということは面積をイメージして良い。
分散・標準偏差
長さ: 5
長さ:5
面積 =
5 x 5 = 25
p
長さ: 5
ルート
面積が長さになる!
の計算をすると
分散・標準偏差
長さ: 5
長さ:5
面積 =
5 x 5 = 25
p
長さ: 5
ルート
面積が長さになる!
の計算をすると
標準偏差 =
v
u
u
t 1
N
NX
i=1
(xi ¯x)2
単位を長さに戻した
分散・標準偏差
この全データが
中心から離れている
具合の平均的な値
名前  数学  偏差 偏差2乗 人数で割る ルート
田中 96 15 225
高橋 63 -18 324
鈴木 85 4 16
渡辺 66 -15 225
清水 91 10 100
木村 89 8 64
山本 77 -4 16
合計 970 138.57 11.77
標準偏差は11.77
分散・標準偏差
平均 81.00
Ex: 偏差値
名前  数学  偏差 標準偏差
何個分? ← 10倍 ← + 50
田中 96 15 1.27 12.74 62.74
高橋 63 -18 -1.53 -15.29 34.71
鈴木 85 4 0.34 3.40 53.40
渡辺 66 -15 -1.27 -12.74 37.26
清水 91 10 0.85 8.50 58.50
木村 89 8 0.68 6.80 56.80
山本 77 -4 -0.34 -3.40 46.60
平均 81.00 標準偏差 11.77
これが「偏差値」
5.相関係数
相関係数とは
支払総額
チップ
相関係数とは
支払総額
チップ
「支払総額」が増えると
「チップ」も増える傾向にある
→ 相関している
相関係数とは
支払総額
チップ
「支払総額」が増えると
「チップ」も増える傾向にある
→ 相関している
相関係数:0.675734
相関係数とは
相関係数とは
相関係数とは
相関係数: 1 は
完全に横軸と縦軸が
依存関係にあり、一方が増えると
もう一方も増えている。
相関係数とは
相関係数: -1 は
やはり、完全に横軸と縦軸が
依存関係にあり、一方が増えると
もう一方が減っている。
相関係数とは
相関係数: 0 は
横軸と縦軸が全くなく
一方が増えてももう一方は
それとは関係なく値が決まる。
相関係数とは
式で表すと・・・
r =
1
n
Pn
i=1(xi ¯x)(yi ¯y)
q
1
n
Pn
i=1(xi ¯x)2
q
1
n
Pn
i=1(yi ¯y)2
相関係数とは
式で表すと・・・
さっきの標準偏差と一緒!
r =
1
n
Pn
i=1(xi ¯x)(yi ¯y)
q
1
n
Pn
i=1(xi ¯x)2
q
1
n
Pn
i=1(yi ¯y)2
相関係数とは
式で表すと・・・
さっきの標準偏差と一緒!
r =
1
n
Pn
i=1(xi ¯x)(yi ¯y)
q
1
n
Pn
i=1(xi ¯x)2
q
1
n
Pn
i=1(yi ¯y)2
2乗しているので必ずプラス
相関係数とは
式で表すと・・・
r =
1
n
Pn
i=1(xi ¯x)(yi ¯y)
q
1
n
Pn
i=1(xi ¯x)2
q
1
n
Pn
i=1(yi ¯y)2
これを共分散という
相関係数とは
共分散
1
n
nX
i=1
(xi ¯x)(yi ¯y)
横軸の平均からの距離 (偏差)
平均より小さいところは
マイナスになる。
相関係数とは
共分散
1
n
nX
i=1
(xi ¯x)(yi ¯y)
縦軸の平均からの距離 (偏差)
平均より小さいところは
マイナスになる。
相関係数とは
平均値
相関係数 : 0.8
1
n
nX
i=1
(xi ¯x)(yi ¯y)
相関係数とは
マイナス
マイナス
プラス
プラス
相関係数 : 0.8
1
n
nX
i=1
(xi ¯x)(yi ¯y)
相関係数とは
マイナス
マイナス
プラス
プラス
相関係数 : 1
1
n
nX
i=1
(xi ¯x)(yi ¯y)
相関係数とは
マイナス
マイナス
プラス
プラス
相関係数 : -1
1
n
nX
i=1
(xi ¯x)(yi ¯y)
相関係数とは
マイナス
マイナス
プラス
プラス
相関係数 : 0
1
n
nX
i=1
(xi ¯x)(yi ¯y)
相関係数とは
注意!
相関というものは、因果関係とは別の概念
相関係数とは
注意!
相関というものは、因果関係とは別の概念
例: アイスクリームの売り上げが伸びると
水死者数も確実に増える。
例: アイスクリームの売り上げが伸びると
水死者数も確実に増える。
相関係数とは
注意!
相関というものは、因果関係とは別の概念
アイスクリームを買うと、誰かが溺
死するわけではなく、ともに
夏に多いと言うこと
水死者
数↑
アイス
売上↑
夏の気温
例: アイスクリームの売り上げが伸びると
水死者数も確実に増える。
相関係数とは
注意!
相関というものは、因果関係とは別の概念
アイスクリームを買うと、誰かが溺
死するわけではなく、ともに
夏に多いと言うこと
水死者
数↑
アイス
売上↑
夏の気温
因果関係は統計学の外の
ドメイン知識で判断する。
相関係数とは
https://ja.wikipedia.org/wiki/相関関係と因果関係
6. 標本調査(母集団と標本)
サンプル(標本)から全体(母集団)を推測
標本調査 (母集団と標本)
母集団
特徴や傾向を知りたい
集団全体のこと
標本
実際に調査を行いデータを
取る母集団の一部
サンプル(標本)から全体(母集団)を推測
標本抽出
標本調査 (母集団と標本)
母集団
特徴や傾向を知りたい
集団全体のこと
標本
実際に調査を行いデータを
取る母集団の一部
対象の母集団に対して偏りなく
ランダムに抽出することが重要
標本調査 (母集団と標本)
電話調査 (日中) 標本
標本抽出
日本人全体
推測できる?
標本調査 (母集団と標本)
標本
標本抽出
日本人全体
できない。
日中電話に出れる
人の全体になる。
電話調査 (日中)
推測できる?
7. 推測
正規分布
統計学で最も重要な確率分布。
データの分布が平均値を頂点とし
た左右対称の山形で表示される。
この面積が、確率を
表している。
赤い線の下の面積を全部
足すと1になるようになっている。
推測:正規分布とは
コイン投げ
表は1 裏は0
[1, 0, 1, 0, 0, 0, 0, 1, 0, 0,
0, 1, 0, 0, 1, 0, 1, 0, 0, 1]
ランダムに20回投げると、
このようなデータとなる
推測:正規分布とは
コイン投げ
表は1 裏は0
[1, 0, 1, 0, 0, 0, 0, 1, 0, 0,
0, 1, 0, 0, 1, 0, 1, 0, 0, 1]
ランダムに20回投げると、
このようなデータとなる
表の数を数えると
7 になる。
推測:正規分布とは
コイン投げ
9 12 11 4 10 12 10 9 9 9 8 9 10 11 11 8 12 11
15 7 16 8 11 10 13 10 11 12 7 11 11 11 8 9 10
13 12 10 12 8 11 8 12 8 10 12 11 11 13 13 7
11 8 13 12 7 5 9 12 9 8 11 11 10 10 10 10 5
16 6 14 9 10 13 11 7 11 10 8 11 13 8 9 13 7
12 9 11 10 10 7 12 8 12 11 6 14 9 13 13
20回1セットとして、それを100セット実施
すると下記のようなデータになる。
推測:正規分布とは
コイン投げ
10,000セット実施してグラフにしてみる。
推測:正規分布とは
コイン投げ
10,000セット実施してグラフにしてみる。
これがほぼ
正規分布!
推測:正規分布とは
コイン投げ
10,000セット実施してグラフにしてみる。
これがほぼ
正規分布!
なので、2択でそれぞれ
の確率が50%という
完全なランダムの
積み重ねでできたもの。
推測:正規分布とは
100万件データのヒストグラム
平均: 30、 標準偏差: 5
推測:正規分布とは
100万件データのヒストグラム
平均: 30、 標準偏差: 5
954,375 個 22,878 個22,747 個
標準偏差左右に
2つ分ずつ
数えてみた
標準偏差:5
推測:正規分布とは
100万件データのヒストグラム
平均: 30、 標準偏差: 5
954,375 個 22,878 個22,747 個
95.44% 2.29%2.27%
標準偏差2つ分
数えてみた
標準偏差左右に
2つ分ずつ
推測:正規分布とは
100万件データのヒストグラム
平均: 30、 標準偏差: 5
954,375 個 22,878 個22,747 個
95.44% 2.29%2.27%
数えてみた
標準偏差左右に
2つ分ずつ
真ん中の標準偏差2つ分の範囲に
入る確率は約95%!
推測:正規分布とは
推測:母集団の平均値の推定
母集団
標本抽出 標本
ここから100個
標本として抽出する
推測:母集団の平均値の推定
標本
標本平均:30.59
標本標準偏差:
5.03
標本平均と、標本標準偏差を計算する
推測:母集団の平均値の推定
標本
標本平均と、標本標準偏差を計算する
この標本標準偏差を
標本数 で割る。
0.503
標本平均:30.59
標本標準偏差:
5.03
この例の場合、
100 = 10 で割る
推測:母集団の平均値の推定
標本
標本平均と、標本標準偏差を計算する
標準偏差を2つ分
ずつの区間
標本平均:30.59
標本標準偏差:
5.03
0.503
この標本標準偏差を
標本数 で割る。
推測:母集団の平均値の推定
標本
標本平均:30.50
拡大
0.503
29.58 31.60
サンプリングを100回
行うと、そのうちの95%
は、真の平均値を捕捉
できる。
推測:標本平均の標準偏差が小さくなる理由
母集団
標本抽出
標本抽出をするたびに、
少し違う形の分布となる
→ 標本平均が毎回違う
標本
ここから100個
標本として抽出する
何回もやってみる。母集団のミニ版がたくさんできる
推測:標本平均の標準偏差が小さくなる理由
何回もやってみる。母集団のミニ版がたくさんできる個々の平均が母集団の
平均の 30 に近い!
推測:標本平均の標準偏差が小さくなる理由
標本
平均値の分布
推測:標本平均の標準偏差が小さくなる理由
標本平均を集めたもの
をまたグラフに書いてみる
平均値の分布
拡大してみる。
推測:標本平均の標準偏差が小さくなる理由
拡大してみる。
平均値の分布
推測:標本平均の標準偏差が小さくなる理由
確かに、標本サイズ100のルート、 100 = 10で
元の標準偏差:5を割ったものとなっている!
拡大してみる。
平均値の分布
29.0 31.0
推測:標本平均の標準偏差が小さくなる理由
29.0∼31.0の区間を取ると、
95%の標本平均が入っている
推測:標本平均の標準偏差が小さくなる理由
50回試してみると、ほとんどが真の平均30
を捉えられている。
8.仮説検定 (さわりだけ)
仮説検定:新入生向け試験の点数
毎年の結果から、平均:450点, 標準偏差: 80点
の正規分布で近似できるとわかっている。
これを母集団とする。
母集団
仮説検定:新入生向け試験の点数
英語力が変わらないとすると、「効果がない」を
表現するのは、今までの平均点と同じ450点
母集団
450点
帰無仮説:「差がない」「効果がない」を表す仮説
仮説検定:新入生向け試験の点数
今年の新入生の結果
標本
[430 534 504 463 520 504 575 569 437 402 402 613 602 494 412 467 579 486
450 531 498 392 489 424 461 415 417 386 545 511 372 555 727 391 430 309]
平均:480点、標準偏差:82点、36人のデータ
仮説検定:新入生向け試験の点数
今年の新入生の結果
平均値の分布
平均:480点、標準偏差:82点、36人のデータ
→ 平均値の標準偏差は 82 36 = 13.7
453.1 507.8
仮説検定:新入生向け試験の点数
今年の新入生の結果
平均値の分布
平均:480点、標準偏差:82点、36人のデータ
→ 平均値の標準偏差は 82 36 = 13.7
453.1 507.8
この幅に、帰無仮説の値
450点が入らないので
今年の新入生は「有意に
点数が高い」と言える!
参考
・「ビジネスに活かすデータマイニング」 尾崎 隆 著
・「日本統計学会公式認定 統計検定3級対応
  データの分析」日本統計学会編
・「データサイエンティスト養成読本」
・「【統計学】初めての「標準偏差」(統計学に挫折
しないために)」 http://goo.gl/yM0QHU
・ 今日使ったプログラムコード
https://goo.gl/Wckrdm

Contenu connexe

Tendances

相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心takehikoihayashi
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
統計的因果推論勉強会 第1回
統計的因果推論勉強会 第1回統計的因果推論勉強会 第1回
統計的因果推論勉強会 第1回Hikaru GOTO
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33horihorio
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布についてhoxo_m
 
PyMCがあれば,ベイズ推定でもう泣いたりなんかしない
PyMCがあれば,ベイズ推定でもう泣いたりなんかしないPyMCがあれば,ベイズ推定でもう泣いたりなんかしない
PyMCがあれば,ベイズ推定でもう泣いたりなんかしないToshihiro Kamishima
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会takehikoihayashi
 
馬に蹴られるモデリング
馬に蹴られるモデリング馬に蹴られるモデリング
馬に蹴られるモデリングShushi Namba
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRDaisuke Yoneoka
 
統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践id774
 
ベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づけるベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づけるitoyan110
 
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則koba cky
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-Shiga University, RIKEN
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定Akira Masuda
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)Hidetoshi Matsui
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析Hirotaka Hachiya
 
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-Koichiro Gibo
 

Tendances (20)

相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
統計的因果推論勉強会 第1回
統計的因果推論勉強会 第1回統計的因果推論勉強会 第1回
統計的因果推論勉強会 第1回
 
ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33ロジスティック回帰の考え方・使い方 - TokyoR #33
ロジスティック回帰の考え方・使い方 - TokyoR #33
 
階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について階層モデルの分散パラメータの事前分布について
階層モデルの分散パラメータの事前分布について
 
PyMCがあれば,ベイズ推定でもう泣いたりなんかしない
PyMCがあれば,ベイズ推定でもう泣いたりなんかしないPyMCがあれば,ベイズ推定でもう泣いたりなんかしない
PyMCがあれば,ベイズ推定でもう泣いたりなんかしない
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
馬に蹴られるモデリング
馬に蹴られるモデリング馬に蹴られるモデリング
馬に蹴られるモデリング
 
ブートストラップ法とその周辺とR
ブートストラップ法とその周辺とRブートストラップ法とその周辺とR
ブートストラップ法とその周辺とR
 
統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践統計学における相関分析と仮説検定の基本的な考え方とその実践
統計学における相関分析と仮説検定の基本的な考え方とその実践
 
ベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づけるベルヌーイ分布からベータ分布までを関係づける
ベルヌーイ分布からベータ分布までを関係づける
 
20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則20130716 はじパタ3章前半 ベイズの識別規則
20130716 はじパタ3章前半 ベイズの識別規則
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定ようやく分かった!最尤推定とベイズ推定
ようやく分かった!最尤推定とベイズ推定
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
データ解析13 線形判別分析
データ解析13 線形判別分析データ解析13 線形判別分析
データ解析13 線形判別分析
 
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
Rubinの論文(の行間)を読んでみる-傾向スコアの理論-
 

En vedette

基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理Ken'ichi Matsui
 
基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料at grandpa
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル敦志 金谷
 
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社Satoru Yamamoto
 
DeNAの大規模データマイニング活用したサービス開発
DeNAの大規模データマイニング活用したサービス開発DeNAの大規模データマイニング活用したサービス開発
DeNAの大規模データマイニング活用したサービス開発Koichi Hamada
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Ryosuke Okuta
 
機械学習概論 講義テキスト
機械学習概論 講義テキスト機械学習概論 講義テキスト
機械学習概論 講義テキストEtsuji Nakai
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Ken Morishita
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)徹 上野山
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~nlab_utokyo
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 
データマイニング入門
データマイニング入門データマイニング入門
データマイニング入門hrfm
 
機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPythonKimikazu Kato
 
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜Yasutomo Kawanishi
 
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~Yasutomo Kawanishi
 
Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門Takami Sato
 

En vedette (20)

基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
 
基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
 
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
ABテスト・LPOのための統計学【社内向けサディスティックエディション】データアーティスト株式会社
 
DeNAの大規模データマイニング活用したサービス開発
DeNAの大規模データマイニング活用したサービス開発DeNAの大規模データマイニング活用したサービス開発
DeNAの大規模データマイニング活用したサービス開発
 
企業における統計学入門
企業における統計学入門企業における統計学入門
企業における統計学入門
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
 
機械学習概論 講義テキスト
機械学習概論 講義テキスト機械学習概論 講義テキスト
機械学習概論 講義テキスト
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
 
はじめての「R」
はじめての「R」はじめての「R」
はじめての「R」
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 
データマイニング入門
データマイニング入門データマイニング入門
データマイニング入門
 
機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython
 
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
 
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
 
Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門Scikit learnで学ぶ機械学習入門
Scikit learnで学ぶ機械学習入門
 

Similaire à 統計学の基礎の基礎

K070k80 点推定 区間推定
K070k80 点推定 区間推定K070k80 点推定 区間推定
K070k80 点推定 区間推定t2tarumi
 
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料Ken'ichi Matsui
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法Ken'ichi Matsui
 
020 1変数の集計
020 1変数の集計020 1変数の集計
020 1変数の集計t2tarumi
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計t2tarumi
 
第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)Prunus 1350
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 
K070 点推定
K070 点推定K070 点推定
K070 点推定t2tarumi
 
086 独立性の検定
086 独立性の検定086 独立性の検定
086 独立性の検定t2tarumi
 
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20) 2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20) Akira Asano
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へZansa
 
秘密分散法の数理
秘密分散法の数理秘密分散法の数理
秘密分散法の数理Akito Tabira
 
非正則素数チェッカー #日曜数学会
非正則素数チェッカー #日曜数学会非正則素数チェッカー #日曜数学会
非正則素数チェッカー #日曜数学会Junpei Tsuji
 
Math in Machine Learning / PCA and SVD with Applications
Math in Machine Learning / PCA and SVD with ApplicationsMath in Machine Learning / PCA and SVD with Applications
Math in Machine Learning / PCA and SVD with ApplicationsKenji Hiranabe
 
Rで実験計画法 後編
Rで実験計画法 後編Rで実験計画法 後編
Rで実験計画法 後編itoyan110
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Shintaro Fukushima
 
推計学のすすめ4の2順位相関係数
推計学のすすめ4の2順位相関係数推計学のすすめ4の2順位相関係数
推計学のすすめ4の2順位相関係数nozma
 
数学教材(中間発表)
数学教材(中間発表)数学教材(中間発表)
数学教材(中間発表)Mizuguchi1205
 
諸学者向け!進数変換の基礎知識
諸学者向け!進数変換の基礎知識諸学者向け!進数変換の基礎知識
諸学者向け!進数変換の基礎知識Toshiyuki M
 

Similaire à 統計学の基礎の基礎 (20)

K070k80 点推定 区間推定
K070k80 点推定 区間推定K070k80 点推定 区間推定
K070k80 点推定 区間推定
 
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料「全ての確率はコイン投げに通ず」 Japan.R 発表資料
「全ての確率はコイン投げに通ず」 Japan.R 発表資料
 
Tokyor24 doradora09
Tokyor24 doradora09Tokyor24 doradora09
Tokyor24 doradora09
 
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
基礎からのベイズ統計学 輪読会資料 第4章 メトロポリス・ヘイスティングス法
 
020 1変数の集計
020 1変数の集計020 1変数の集計
020 1変数の集計
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計
 
第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)第5章 統計的仮説検定 (Rによるやさしい統計学)
第5章 統計的仮説検定 (Rによるやさしい統計学)
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
K070 点推定
K070 点推定K070 点推定
K070 点推定
 
086 独立性の検定
086 独立性の検定086 独立性の検定
086 独立性の検定
 
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20) 2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
秘密分散法の数理
秘密分散法の数理秘密分散法の数理
秘密分散法の数理
 
非正則素数チェッカー #日曜数学会
非正則素数チェッカー #日曜数学会非正則素数チェッカー #日曜数学会
非正則素数チェッカー #日曜数学会
 
Math in Machine Learning / PCA and SVD with Applications
Math in Machine Learning / PCA and SVD with ApplicationsMath in Machine Learning / PCA and SVD with Applications
Math in Machine Learning / PCA and SVD with Applications
 
Rで実験計画法 後編
Rで実験計画法 後編Rで実験計画法 後編
Rで実験計画法 後編
 
Numpy scipyで独立成分分析
Numpy scipyで独立成分分析Numpy scipyで独立成分分析
Numpy scipyで独立成分分析
 
推計学のすすめ4の2順位相関係数
推計学のすすめ4の2順位相関係数推計学のすすめ4の2順位相関係数
推計学のすすめ4の2順位相関係数
 
数学教材(中間発表)
数学教材(中間発表)数学教材(中間発表)
数学教材(中間発表)
 
諸学者向け!進数変換の基礎知識
諸学者向け!進数変換の基礎知識諸学者向け!進数変換の基礎知識
諸学者向け!進数変換の基礎知識
 

Plus de Ken'ichi Matsui

音楽波形データからコードを推定してみる
音楽波形データからコードを推定してみる音楽波形データからコードを推定してみる
音楽波形データからコードを推定してみるKen'ichi Matsui
 
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテストデータサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテストKen'ichi Matsui
 
分析コンペティションの光と影
分析コンペティションの光と影分析コンペティションの光と影
分析コンペティションの光と影Ken'ichi Matsui
 
Kaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solution
Kaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solutionKaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solution
Kaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solutionKen'ichi Matsui
 
データ分析コンテストとデータサイエンティストの働きかた
データ分析コンテストとデータサイエンティストの働きかたデータ分析コンテストとデータサイエンティストの働きかた
データ分析コンテストとデータサイエンティストの働きかたKen'ichi Matsui
 
確率分布の成り立ちを理解してスポーツにあてはめてみる
確率分布の成り立ちを理解してスポーツにあてはめてみる確率分布の成り立ちを理解してスポーツにあてはめてみる
確率分布の成り立ちを理解してスポーツにあてはめてみるKen'ichi Matsui
 
SIGNATE 産業技術総合研究所 衛星画像分析コンテスト 2位入賞モデルの工夫点
SIGNATE産業技術総合研究所 衛星画像分析コンテスト2位入賞モデルの工夫点SIGNATE産業技術総合研究所 衛星画像分析コンテスト2位入賞モデルの工夫点
SIGNATE 産業技術総合研究所 衛星画像分析コンテスト 2位入賞モデルの工夫点Ken'ichi Matsui
 
Variational Autoencoderの紹介
Variational Autoencoderの紹介Variational Autoencoderの紹介
Variational Autoencoderの紹介Ken'ichi Matsui
 
DS LT祭り 「AUCが0.01改善したって どういうことですか?」
DS LT祭り 「AUCが0.01改善したって どういうことですか?」DS LT祭り 「AUCが0.01改善したって どういうことですか?」
DS LT祭り 「AUCが0.01改善したって どういうことですか?」Ken'ichi Matsui
 
統計的学習の基礎 4章 前半
統計的学習の基礎 4章 前半統計的学習の基礎 4章 前半
統計的学習の基礎 4章 前半Ken'ichi Matsui
 
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
基礎からのベイズ統計学 輪読会資料  第8章 「比率・相関・信頼性」基礎からのベイズ統計学 輪読会資料  第8章 「比率・相関・信頼性」
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」Ken'ichi Matsui
 
第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」
第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」
第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」Ken'ichi Matsui
 
「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料
「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料
「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料Ken'ichi Matsui
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
Random Forest による分類
Random Forest による分類Random Forest による分類
Random Forest による分類Ken'ichi Matsui
 
白い陽気なやつとPythonでたわむれる
白い陽気なやつとPythonでたわむれる白い陽気なやつとPythonでたわむれる
白い陽気なやつとPythonでたわむれるKen'ichi Matsui
 
異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知Ken'ichi Matsui
 
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"Ken'ichi Matsui
 

Plus de Ken'ichi Matsui (20)

音楽波形データからコードを推定してみる
音楽波形データからコードを推定してみる音楽波形データからコードを推定してみる
音楽波形データからコードを推定してみる
 
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテストデータサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
 
分析コンペティションの光と影
分析コンペティションの光と影分析コンペティションの光と影
分析コンペティションの光と影
 
Kaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solution
Kaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solutionKaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solution
Kaggle Google Quest Q&A Labeling 反省会 LT資料 47th place solution
 
BERT入門
BERT入門BERT入門
BERT入門
 
データ分析コンテストとデータサイエンティストの働きかた
データ分析コンテストとデータサイエンティストの働きかたデータ分析コンテストとデータサイエンティストの働きかた
データ分析コンテストとデータサイエンティストの働きかた
 
確率分布の成り立ちを理解してスポーツにあてはめてみる
確率分布の成り立ちを理解してスポーツにあてはめてみる確率分布の成り立ちを理解してスポーツにあてはめてみる
確率分布の成り立ちを理解してスポーツにあてはめてみる
 
SIGNATE 産業技術総合研究所 衛星画像分析コンテスト 2位入賞モデルの工夫点
SIGNATE産業技術総合研究所 衛星画像分析コンテスト2位入賞モデルの工夫点SIGNATE産業技術総合研究所 衛星画像分析コンテスト2位入賞モデルの工夫点
SIGNATE 産業技術総合研究所 衛星画像分析コンテスト 2位入賞モデルの工夫点
 
Introduction of VAE
Introduction of VAEIntroduction of VAE
Introduction of VAE
 
Variational Autoencoderの紹介
Variational Autoencoderの紹介Variational Autoencoderの紹介
Variational Autoencoderの紹介
 
DS LT祭り 「AUCが0.01改善したって どういうことですか?」
DS LT祭り 「AUCが0.01改善したって どういうことですか?」DS LT祭り 「AUCが0.01改善したって どういうことですか?」
DS LT祭り 「AUCが0.01改善したって どういうことですか?」
 
統計的学習の基礎 4章 前半
統計的学習の基礎 4章 前半統計的学習の基礎 4章 前半
統計的学習の基礎 4章 前半
 
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
基礎からのベイズ統計学 輪読会資料  第8章 「比率・相関・信頼性」基礎からのベイズ統計学 輪読会資料  第8章 「比率・相関・信頼性」
基礎からのベイズ統計学 輪読会資料 第8章 「比率・相関・信頼性」
 
第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」
第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」
第13回数学カフェ「素数!!」二次会 LT資料「乱数!!」
 
「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料
「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料
「ベータ分布の謎に迫る」第6回 プログラマのための数学勉強会 LT資料
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
Random Forest による分類
Random Forest による分類Random Forest による分類
Random Forest による分類
 
白い陽気なやつとPythonでたわむれる
白い陽気なやつとPythonでたわむれる白い陽気なやつとPythonでたわむれる
白い陽気なやつとPythonでたわむれる
 
異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知異常検知と変化検知 第4章 近傍法による異常検知
異常検知と変化検知 第4章 近傍法による異常検知
 
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"
 

統計学の基礎の基礎