SlideShare une entreprise Scribd logo
1  sur  60
機械学習のモデルのぞいてみない?
~ブラックボックスのままでいいの?~
数式変換チャレンジ!
2019/6/29 あさこ
本日おもちかえりいただくもの
▪ 機械学習・AIのモデルの基礎となる数式(ちょっとだけ高校数学)
▪ 想像できるようになるために基礎を学ぶことが必要
→グループワークでイメージをつかむ
一緒に勉強していきましょう!
最後にふりかえりします!
あじぇんだ
1. 勉強会テーマ選定のきっかけ(5分)
2.概論(今回の勉強会のスコープ確認)(20分)
プチグループワーク(10分)
3.線形回帰分析(最小二乗法)・ベイズ推定(30分)
<<休憩 10分>>
4.グループワーク2 (ベイズ推定)(20分)
5.グループワーク発表(10分)
6.終わりに、ふりかえり (10分)
自己紹介
▪ あさこ です
▪ 趣味 風車めぐり・温泉めぐり・ツーリング・バスケットボール・その他楽しいことならなんでも!
▪ 経歴
– おしごと:SEPGに所属。
– 主に、プロセス改善に従事。統計分析、ツールの管理、プロジェクト推進、・・・なんでも屋さんです。
– 2児の母です。
– 大学では数理科学を専攻していました。グラフ理論、統計学が好きです。
▪ 所属しているコミュニティなど
– NaITE(長崎IT技術者会) スタッフ
– Redmine大好きグループの一員(Redmineエバンジェリスト会(自称)のイチメンバー)
▪ Twitter:@acha_821
4
1.勉強会テーマ選定のきっかけ
1.勉強会テーマ選定のきっかけ
▪ JaSST Tokyo 2019の基調講演、クロージングパネルでのひとこ
とにちょっとあせった。(小並感)
▪ JaSST とは ソフトウエアテストシンポジウム というソフトウエアテ
ストをテーマとしたシンポジウムです。東京では、毎年3月あたりに
開かれています。
▪ その他、東京以外にも北は北海道、南は九州と、全国各地で開
催されております。(オープニングでも紹介済)
http://www.jasst.jp/
1.勉強会テーマ選定のきっかけ
▪ JaSST Tokyo 2019の基調講演。
– Tariq King氏(Ultimate Software)
(以下は、発表者個人の表現方法であり、誇張表現をしています。)
– ユーたち、機械学習・AIをなににつかってんの?
– ぼくはAIをテスト実行の道具として使っているよ。そのうち、道具なので、自己修正していく
機能もつけたいな。
– え?中身しらないで使っている人いるの?それっていみあるの?
– ぼくは、ホワイトボックスにしていくよ。
▪ クロージングパネルも、同上な流れ…
1.勉強会テーマ選定のきっかけ
▪ ということで、大好きな数学さんと向き合う機会を皆さんと持ちたいと思い
ました。
▪ 数学も、ツールの一つ。
▪ 間違っている部分もあるかもしれないので、ご指摘・アドバイス大歓迎で
す!
2.概論
2.概論 (機械学習?AI?)
▪ 機械学習・AIの考え方の部分は、セッション1でお話がありました。(ぶんなげ)
▪ 数学も、機械学習もAIも、下記の図の通り、「ツール」になります。(個人的な見解)
技術
(手段・ツール)
知恵プロセス
ドメイン知識
応用する知恵
経験
機械学習のツール群
数学(数式)など
ルール
お作法 など 共通部分
情報→知識→知恵
2.概論 (機械学習?AI?)
▪ 考え方の部分は、セッション1でお話がありました。(ぶんなげ)
▪ 機械学習・AIシステムが利用されるのは、一般的に以下のような感じでしょうか。
現世界の
何か
変換
(認識/分析/対処)
現世界の
何か
2.概論 (機械学習?AI? どんなものをつかえばいい?)
変換
(認識/分析/対処)
What? How?
・何がおこなわれているか?
・主にどんな手段・ツールがつかわれるのか?
・何ができるの?
Why?
・何がしたいの?
・何をみたいの?
・何のために必要なの?
などなど
その裏には…
ここが目的
ではない!
(ツールの部分)
大事なのは、
「背景・理由」
2.概論 (Why? → PoC とか)
変換
(認識/分析/対処)
Why?
・何がしたいの?
・何をみたいの?
・何のために必要なの?
などなど
What? How?
・何がおこなわれているか?
・主にどんな手段・ツールがつかわれるのか?
・何ができるの?
仮説検証(PoC)の手
段として、以下を検討
背景・理由を満たすに
は?という順番になる
2.概論 (機械学習?AI?)
▪ 先ほどの便図で考えると、こんなイメージ。(個人的な見解)
技術
(手段・ツール)
情報→知識→
知恵
プロセス
Why?What?
How?
2.概論 (この勉強会のスコープ)まとめ
Why?(顧客のニーズ)
・何がしたいの?
・何をみたいの?
・何のために必要なの?
What? How?
・何をすればよいか
・主にどんな手段・ツールを使うのがよいか
・どんなデータがあって、どういう結果になるのか
・顧客のニーズを満たすことができるのか?
・どうあればよいのか
・ニーズを満たすために採用した手
段・ツールは最適か
・目的を満たすことはできるか
仮説検証(PoC)
として、以下を検討
2.概論 (What? How?)
▪ 手段・ツール+知恵+プロセス
機械学習・AIの中で何がお紺われているかを理解し、
ユーザ・顧客に解決方法を提案できる力
2.概論 (ちょっと脱線 社会人のスキル状態遷移)
技術
(手段・ツール)
知恵プロセス
新人
技術
(手段・ツール)
知恵プロセス
学校・塾など教育機関
小学校~大学などで勉
強して来たよ
組織で
仕事のやり方はなんとなく理解
して経験したよ
(コミュニケー^ション・政
治・規則(ルール)・ふるまい
など)
3年後
技術
(手段・ツール)
知恵プロセス
?年後
組織・独自
組織の
・技術。プロセスを応用する情報
・ドメイン固有の知識
・自分の強み・弱み(自分理解、自己受容) など
2.概論 (What? How?)
▪ 手段・ツール+知恵
▪
–教師なし
–教師あり
–強化学習
先ほど説明が
ありましたねぇ。
2.概論 (いきなりグループワーク!-10分)
▪ 4人一組で、グループになって事例をあげてみましょう!
– どういうときに使うかな?それはどうしてかな?
▪ どうしてそう思ったか?も添えてくださいね。
▪ 付箋紙にどんどん書いて、上げていってみてください!
– 教師なし
– 教師あり
– 強化学習
どんなときに、以下を使いますか?
2.概論 (いきなりグループワーク!-5分)
▪ 発表してみましょう!
– 教師なし
▪ ラーメンの画像分類
– 教師あり
▪ 次郎いやだ分類
– 強化学習
▪ 次郎ににている野郎を排除する学習
どんなときに、以下を使いますか?(結果)
2.概論 (いきなりグループワーク!-5分)
▪ 発表してみましょう!
– 教師なし
▪ (Twitterとか)トレンド分析
– 教師あり
▪ 保守運用タイミングの通知とかを教えてくれるもの
– 強化学習
▪ AlphaGo
どんなときに、以下を使いますか?(結果)
2.概論 (いきなりグループワーク!-5分)
▪ 発表してみましょう!
– 教師なし
▪ 美人かどうか
– 教師あり
▪ 最適な彼女を教えてくれる
– 強化学習
▪ センター試験の問題を教えてくれる(予想)
どんなときに、以下を使いますか?(結果)
2.概論 (いきなりグループワーク!-5分)
▪ 発表してみましょう!
– 教師なし
▪ 複数のデータをまとめる(類似のデータを分類する)
– 教師あり
▪ 自治体の保育園の選定
– 強化学習
▪ 自動運転
どんなときに、以下を使いますか?(結果)
2.概論 (いきなりグループワーク!)
▪ 発表してみましょう!
– 教師なし
▪ クラスター分析..など
– 教師あり
▪ 線形回帰、ベイズ統計..etc
▪ 正解率などで評価
– 強化学習
▪ ゲーム操作などによる学習など
どんなときに、以下を使いますか?(一例)
いよいよ数式に入っ
ていくよ!
3.線形回帰分析(最小二乗法)・ベイズ推定
微分方程式と最小二乗法(単回帰分析)
3.線形回帰分析(最小二乗法)・ベイズ推定
▪ 教師あり
– 線形回帰、ベイズ統計..etc
▪ 線形回帰
–単回帰分析(最小二乗法)
▪ 前提
– 同一母集団に属している
– データ群は正規分布している
おさらい 母集団と標本
• 母集団(調査の対象となる全体)から一つの標本を抽出
する
• これは母集団の確率分布に従う確率変数 𝑋 が 𝑥 という値を
とることに相当
• 抽出を繰り返すとき,確率変数 𝑋 のとる値 𝑥 は毎回異なる
母集団と標本
おさらい 平均と分散
• 標本平均 𝑋 = 𝑖=1
𝑛
𝑋𝑖/𝑛 と標本分散 𝑆2
= 𝑖=1
𝑛
𝑋𝑖 − 𝑋 2
/(𝑛 − 1) および母平均 𝜇 と
母分散 𝜎2
標本平均と標本分散と母平均と母分散
• 𝐸 𝑋 = 𝜇,
• 𝑉 𝑋 =
𝜎2
𝑛
,
• 𝐸 𝑆2
= 𝜎2
成り立つ式
おさらい 確率分布(確率密度)
※ wikipediaより
※ 画像引用元:wikipedia
確率分布(確率密度)
※ 画像引用元:wikipedia
3.線形回帰分析(最小二乗法)・ベイズ推定
▪ 単回帰分析
– 同一母集団に属している
– データ群は正規分布している 𝑦 = 𝑎𝑥 + 𝑏
𝑥𝑥𝑖
𝑦𝑖
𝑦
𝑑𝑖
・測定データ 𝑥𝑖, 𝑦𝑖 𝑖 = 1,2, ⋯ , 𝑛 に対して,
直線 𝑦 = 𝑎𝑥 + 𝑏 をあてはめる
・𝑥𝑖 から予想される 𝑦 の値 𝑎𝑥𝑖 + 𝑏 と測定データ 𝑦𝑖
との残差 𝑑𝑖 ≡ 𝑦𝑖 − 𝑎𝑥𝑖 + 𝑏 の
二乗和が最小となるように係数 𝑎, 𝑏 を決める
技術
(手段・ツール)
知恵プロセス
3.線形回帰分析(最小二乗法)・ベイズ推定
• ちょっと、かんがえてみよう。
• 扱おうとしているデータのドメインは?
• 関係性は線形で本当に大丈夫?
• 特異点となるようなものもいれてない?
などなど
相関をみる(回帰分析をしよう)
データ同士の関係性、データの持つ意味を考えて、どういう回
帰分析を行うのが最適なのか?を最初に考えることも必要と
考えます。
データ同士の「微分量」をみていくことで、分析をします。
① 𝑑𝑦/𝑑𝑥 = 𝑘 ⇒ 𝑦 = 𝑘𝑥 + 𝑐
② 𝑑𝑦/𝑑𝑥 = 𝑘𝑦 ⇒ 𝑦 = 𝑐 exp(𝑘𝑥)
③ 𝑑𝑦/𝑑𝑥 = 𝑘𝑥 ⇒ 𝑦 = 1/2 𝑘𝑥2
+ 𝑐
※数式中の 𝑐 と 𝑘 は定数でタイプごとに独立
相関をみる 関係式(1/2)
相関をみる 関係式(2/2)
相関をみる 回帰モデルのタイプ
2017/1/21 36©NaITE
※これら4タイプは共通の一次式 𝑌 = 𝐴𝑋 + 𝐵 に帰着することができ、
線形モデルを用いて回帰分析が可能になる。
※4タイプのモデルのうち、最適なモデルの採択は決定係数で判定する。
𝐿 𝑎, 𝑏 ≡ 𝑖=1
𝑛
𝑑𝑖
2
= 𝑖=1
𝑛
[𝑦𝑖 − (𝑎𝑥𝑖 + 𝑏)]2 → 最小になるように
𝜕𝐿
𝜕𝑎
= −2
𝑖
𝑥𝑖 𝑦𝑖 − 𝑎𝑥𝑖 + 𝑏 = 0 ⇒ 𝑎
𝑖
𝑥𝑖
2
+ 𝑏
𝑖
𝑥𝑖 =
𝑖
𝑥𝑖 𝑦𝑖
𝜕𝐿
𝜕𝑏
= −2
𝑖
𝑦𝑖 − 𝑎𝑥𝑖 + 𝑏 = 0 ⇒ 𝑎
𝑖
𝑥𝑖 + 𝑏𝑛 =
𝑖
𝑦𝑖
𝑎 =
𝑛 𝑖 𝑥𝑖 𝑦𝑖 − 𝑖 𝑥𝑖 𝑖 𝑦𝑖
𝑛 𝑖 𝑥𝑖
2
− 𝑖 𝑥𝑖
2 , 𝑏 =
𝑖 𝑥𝑖
2
𝑖 𝑦𝑖 − 𝑖 𝑥𝑖 𝑖 𝑥𝑖 𝑦𝑖
𝑛 𝑖 𝑥𝑖
2
− 𝑖 𝑥𝑖
2
3.線形回帰分析(最小二乗法)・ベイズ推定 appendix
3.線形回帰分析(最小二乗法)・ベイズ推定 appendix
休憩!
10分間です~
3.線形回帰分析(最小二乗法)・ベイズ推定
ベイズ推定
3.線形回帰分析(最小二乗法)・ベイズ推定
▪ ベイズ統計・・・・仮定が多い
▪ 普通の統計学・・・頻度主義の統計学
3.線形回帰分析(最小二乗法)・ベイズ推定
▪ べイズ推定とは?
– 目の前に現れる事実と、これまでの流れ・経験を組
み合わせた推定方法のこと
▪ モデル選択
– 事前情報をどのように取り込んだらよいのか、経験 を
取り込むにはどのようにしたらよいのか?
3.線形回帰分析(最小二乗法)・ベイズ推定
▪ ベイズ推定が活躍する舞台は、データの数が少ないときに、 人
の経験やこれまでの実績などを加味することで、次に起 こること
がどれくらいありそうかという予言をします
▪ 事前分布 事前情報に基づいて、そうなりそうな度合いを 場合
ごとに示したもの
– 例:宝石がありそうな度合いの分布
▪ 尤度関数
– 事実に戻づいて状況を把握する 「もっともらしさ」
– 例:宝石がこの部屋にありそうかなさそうか
3.線形回帰分析(最小二乗法)・ベイズ推定
▪ 最尤推定
–事前情報に頼らず、実際に調べた結果 のみに基づ
いてどうだ、と結論づける方法
– 例:Excelのソルバー機能
▪ ベイズ推定
–経験と最尤推定の結果との違和 感を埋める役割を
果たす。
3.線形回帰分析(最小二乗法)・ベイズ推定
▪ 尤度関数と事前分布を組み合わせたものを事後確
率分布という
– 例:部屋に宝石がありそうな度合い (見つかる可能性)
▪ 事前分布に基づいて推定し、その推定した結果 (事
後確率分布)を利用して再度推定をする。
これを、ベイズ更新という。
3.線形回帰分析(最小二乗法)・ベイズ推定
▪ ベイズの定理
– わからない数値があって、それにまつわる手掛かりとして別の
数値を教えてもらう。それを逆に解いてわからない数値を知る
というもの。
▪ 逆の条件付き確率 P(X|Y) Yの結果からXを原因とす
る確率
5.グループワーク(ベイズ推定)
3.線形回帰分析(最小二乗法)・ベイズ推定
▪ 考えるもの
▪ 母集団 (H)
▪ 母集団を二分する事象 (X,^X)
▪ 前提となる事象 (Y,^Y)
▪ P(X|Y) = P(Y|X) × P(X)
5.グループワーク(ベイズ推定)
▪ おさらい
–事前分布に、得た情報を付け加えて更新を行うことを
ベイズ更新といいます。
▪ 事前分布P(X)を更新します。
P(X|Y) = P(Y|X) × P(X)
▪ それぞれの確率は、グループで決めてOKです。
5.グループワーク(ベイズ推定)
▪ 一番最初の事前確率などを決めて、更新させるまで
–もとめたいのは P(Y|X)
–P(Y)
–P(X)
–P(X|Y)
–条件付確率の公式からも導けます
▪ 発表 各グループ3分
5.グループワーク(ベイズ推定)
▪ どんなパターンができたでしょうか?
-母集団 らーめん もとめるもの 食べれる次郎
-母集団 写真 もとめるもの ひとのかお
-母集団 野菜 もとめるもの 鮮度の良いブロッコリー
-母集団 職場が同じ女性 もとめるもの 一緒にいて楽しい
-母集団 保育園の当選者 もとめるもの 希望の保育園だった
6.おわりに~ふりかえり~
6.おわりに~ふりかえり~
▪ 「見てそれとわかること(≠みて理解すること)
=基礎数学」
–数学的な原理を感じ取り、構造を理解すること
–構造を理解することで、自ら導き出せるようになる
では、勉強会のふりかえりをしましょう!
6.おわりに~ふりかえり~ YWT(セッション1,2含めて)
▪ やったこと/わかったこと
– 次郎について考えた
– ベイズ推定を理解したっ!
– 物事の分割の仕方がなんとなくわかった!
– データ次第で結果がかわる
– データ次第で結果がかわるので、意思決定が難しい~
– こどものぺんぎんをりかいするには、ちゃんとこどもを学習しないと。
– ベイズ、単回帰
– 従来のコードと機械学習のコードの違い
– 目的が大事
– ベイズ推定の着目点がなんとなくわかった
– 機械学習イケるかも
– 機械学習でなにができるのか、が理解できた
6.おわりに~ふりかえり~ つぎにやりたいなとおもうこと
▪ 次にやろうと思うこと
– みなさんそれぞれで、家に帰ってから振り返ってみてください。
– 勉強会は参加するだけじゃなくて、いろいろご自分で
「考えること」で、知恵に昇華されていくと思います。
▪ 自分がどこに興味があるのか
▪ それはなんでだろう?
▪ 課題は何だろう?
▪ やりたいとおもうところはなんだろう?
などなど
6.おわりに~ふりかえり~ 最初に期待したところはみたされましたか?
▪ 期待しているところを教えてね
– ガチな数学のお勉強
→当然、1回で身につくはずがないッ!何回もご自分で繰り返し、
紙と鉛筆に向き合ってください!!
– 機械学習の全体像をざっくりしりたい
→本やネットを見ていれば、なんとなくはわかるでしょう。全体を把
握したのち、自分はどうしていきたいのか?どこに興味があるのか?を
把握できるようになることが肝要なのではないでしょうか。
– 勉強熱心な僕はどんな勉強会にでも顔を出すッ!
→とりあえず、お疲れ様ですwww
参考文献1
▪ 「ベイズ推定入門 モデル選択からベイズ的最適化まで」 大関 真之 著
▪ 「統計学入門 (基礎統計学Ⅰ) 」 東京大学教養学部統計学教室
▪ データ指向のソフトウェア品質マネジメント―メトリクス分析による「事実にもと
づく管理」の実践 野中 誠 (著), 小池 利和 (著), 小室 睦 (著)
参考文献2
▪ 「人工知能システムのプロジェクトがわかる本」 本橋 陽介 著
▪ 「AIプロダクト品質保証ガイドライン」
http://www.qa4ai.jp/QA4AI.Guideline.201905.pdf
6.おわりに~ふりかえり~
お持ち帰りいただけそうでしょうか?
▪ 機械学習・AIのモデルの基礎となる数式(ちょっとだけ
高校数学)
▪ 想像できるようになるために基礎を学ぶことが必要
→グループワークでイメージをつかむ
ありがとうございました!

Contenu connexe

Tendances

データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎Hirotaka Hachiya
 
Math in Machine Learning / PCA and SVD with Applications
Math in Machine Learning / PCA and SVD with ApplicationsMath in Machine Learning / PCA and SVD with Applications
Math in Machine Learning / PCA and SVD with ApplicationsKenji Hiranabe
 
線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノートKenji Hiranabe
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
線形代数の視覚的理解 V1.1-Gストラング勉強会
線形代数の視覚的理解 V1.1-Gストラング勉強会線形代数の視覚的理解 V1.1-Gストラング勉強会
線形代数の視覚的理解 V1.1-Gストラング勉強会Kenji Hiranabe
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎Hirotaka Hachiya
 
データ解析5 単回帰分析
データ解析5 単回帰分析データ解析5 単回帰分析
データ解析5 単回帰分析Hirotaka Hachiya
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習Hirotaka Hachiya
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析Hirotaka Hachiya
 
スプラトゥーン2 × 数学(訂正版)
スプラトゥーン2 × 数学(訂正版)スプラトゥーン2 × 数学(訂正版)
スプラトゥーン2 × 数学(訂正版)Takunology
 
データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎Hirotaka Hachiya
 
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用Hirotaka Hachiya
 
データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用Hirotaka Hachiya
 
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学HiroyukiTerada4
 
数値解析と物理学
数値解析と物理学数値解析と物理学
数値解析と物理学すずしめ
 

Tendances (16)

データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎
 
Math in Machine Learning / PCA and SVD with Applications
Math in Machine Learning / PCA and SVD with ApplicationsMath in Machine Learning / PCA and SVD with Applications
Math in Machine Learning / PCA and SVD with Applications
 
線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
線形代数の視覚的理解 V1.1-Gストラング勉強会
線形代数の視覚的理解 V1.1-Gストラング勉強会線形代数の視覚的理解 V1.1-Gストラング勉強会
線形代数の視覚的理解 V1.1-Gストラング勉強会
 
人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎人工知能2018 5 機械学習の基礎
人工知能2018 5 機械学習の基礎
 
データ解析5 単回帰分析
データ解析5 単回帰分析データ解析5 単回帰分析
データ解析5 単回帰分析
 
【Deep Learning (MIT Press)】線形代数 2.1~2.7
【Deep Learning (MIT Press)】線形代数 2.1~2.7【Deep Learning (MIT Press)】線形代数 2.1~2.7
【Deep Learning (MIT Press)】線形代数 2.1~2.7
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析
 
スプラトゥーン2 × 数学(訂正版)
スプラトゥーン2 × 数学(訂正版)スプラトゥーン2 × 数学(訂正版)
スプラトゥーン2 × 数学(訂正版)
 
データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎
 
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
 
データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用
 
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
 
数値解析と物理学
数値解析と物理学数値解析と物理学
数値解析と物理学
 

Plus de Asako Yanuki

Sqip2018 チームビルディングにおける心理的障壁の傾向と緩和策の提案
Sqip2018 チームビルディングにおける心理的障壁の傾向と緩和策の提案Sqip2018 チームビルディングにおける心理的障壁の傾向と緩和策の提案
Sqip2018 チームビルディングにおける心理的障壁の傾向と緩和策の提案Asako Yanuki
 
bayesian inference
bayesian inferencebayesian inference
bayesian inferenceAsako Yanuki
 
信頼度成長曲線を語る夕べ
信頼度成長曲線を語る夕べ信頼度成長曲線を語る夕べ
信頼度成長曲線を語る夕べAsako Yanuki
 
Redmine tokyo #13 LT
Redmine tokyo #13 LT Redmine tokyo #13 LT
Redmine tokyo #13 LT Asako Yanuki
 
Distribution naite19
Distribution naite19 Distribution naite19
Distribution naite19 Asako Yanuki
 
Psp概説(エッセンス)
Psp概説(エッセンス)Psp概説(エッセンス)
Psp概説(エッセンス)Asako Yanuki
 
NaITE#17オープニング資料
NaITE#17オープニング資料 NaITE#17オープニング資料
NaITE#17オープニング資料 Asako Yanuki
 
NaITE#14 メトリクス解析(データ解析)の初歩
NaITE#14 メトリクス解析(データ解析)の初歩NaITE#14 メトリクス解析(データ解析)の初歩
NaITE#14 メトリクス解析(データ解析)の初歩Asako Yanuki
 
めとりくすおたく
めとりくすおたくめとりくすおたく
めとりくすおたくAsako Yanuki
 
生産性と品質データの解析手法についての提案 紹介
生産性と品質データの解析手法についての提案 紹介生産性と品質データの解析手法についての提案 紹介
生産性と品質データの解析手法についての提案 紹介Asako Yanuki
 

Plus de Asako Yanuki (15)

RedminePERSONA
RedminePERSONARedminePERSONA
RedminePERSONA
 
Jasst hokkaidoLT
Jasst hokkaidoLTJasst hokkaidoLT
Jasst hokkaidoLT
 
Sqip2018 チームビルディングにおける心理的障壁の傾向と緩和策の提案
Sqip2018 チームビルディングにおける心理的障壁の傾向と緩和策の提案Sqip2018 チームビルディングにおける心理的障壁の傾向と緩和策の提案
Sqip2018 チームビルディングにおける心理的障壁の傾向と緩和策の提案
 
bayesian inference
bayesian inferencebayesian inference
bayesian inference
 
信頼度成長曲線を語る夕べ
信頼度成長曲線を語る夕べ信頼度成長曲線を語る夕べ
信頼度成長曲線を語る夕べ
 
Redmine tokyo #13 LT
Redmine tokyo #13 LT Redmine tokyo #13 LT
Redmine tokyo #13 LT
 
Naite20 cmmi
Naite20 cmmiNaite20 cmmi
Naite20 cmmi
 
JasstTokyo2017
JasstTokyo2017JasstTokyo2017
JasstTokyo2017
 
Na ite 19_op
Na ite 19_opNa ite 19_op
Na ite 19_op
 
Distribution naite19
Distribution naite19 Distribution naite19
Distribution naite19
 
Psp概説(エッセンス)
Psp概説(エッセンス)Psp概説(エッセンス)
Psp概説(エッセンス)
 
NaITE#17オープニング資料
NaITE#17オープニング資料 NaITE#17オープニング資料
NaITE#17オープニング資料
 
NaITE#14 メトリクス解析(データ解析)の初歩
NaITE#14 メトリクス解析(データ解析)の初歩NaITE#14 メトリクス解析(データ解析)の初歩
NaITE#14 メトリクス解析(データ解析)の初歩
 
めとりくすおたく
めとりくすおたくめとりくすおたく
めとりくすおたく
 
生産性と品質データの解析手法についての提案 紹介
生産性と品質データの解析手法についての提案 紹介生産性と品質データの解析手法についての提案 紹介
生産性と品質データの解析手法についての提案 紹介
 

機械学習のモデルのぞいてみない? ~ブラックボックスのままでいいの?~