1. まとめトップ

機械学習を知識ゼロから学ぶpdf

機械学習について書かれているある程度ページ数の多いPDFを集めました。・概要編/パターン認識と機械学習系資料/ライブラリ等具体的な利用方法/英語書籍の順に並べています。

更新日: 2016年07月07日

cyousemiさん

  • このまとめをはてなブックマークに追加
116 お気に入り 128156 view
お気に入り追加

概要編(利用シーンや、教師なし学習とか、オンライン学習とか、よく出てくる各手法などをわかりやすくまとめられているもの)

第 I 部 推薦システムの概要 1
第 1 章 推薦システム 2
第 2 章 推薦システムの分類と目的 5
2.1 推薦の個人化の度合い . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 推薦システムの運用目的の分類 . . . . . . . . . . . . . . . . . . . . . 8
2.3 推薦システムの予測タスクの分類 . . . . . . . . . . . . . . . . . . . . 10
2.4 推薦システムの利用動機の分類 . . . . . . . . . . . . . . . . . . . . . 11
第 3 章 推薦システム設計の要素 13
3.1 推薦の性質 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 推薦候補の予測に関する制約 . . . . . . . . . . . . . . . . . . . . . . . 19
第 II 部 推薦システムの実行過程 21
第 4 章 推薦システムの実行過程 22
第 5 章 データの入力 24
5.1 暗黙的と明示的な嗜好データの獲得 . . . . . . . . . . . . . . . . . . . 25
5.2 明示的な獲得 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.3 暗黙的な獲得 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.4 嗜好データのその他の要因 . . . . . . . . . . . . . . . . . . . . . . . . 32
5.5 嗜好データ以外のデータ . . . . . . . . . . . . . . . . . . . . . . . . . 32

第 6 章 嗜好の予測 34
6.1 内容ベースと協調フィルタリングの比較 . . . . . . . . . . . . . . . . . 38
第 7 章 推薦の提示 43
7.1 推薦の配送 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
7.2 推薦アイテムの選別 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
7.3 推薦の表示形式 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
7.4 多様性の向上 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.5 推薦理由 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
第 III 部 推薦システムのアルゴリズム 49
第 8 章 協調フィルタリング 50
8.1 メモリベース法とモデルベース法 . . . . . . . . . . . . . . . . . . . . 50
第 9 章 メモリベース型協調フィルタリング 52
9.1 利用者間型メモリベース法 . . . . . . . . . . . . . . . . . . . . . . . . 52
9.2 アイテム間型メモリベース法 . . . . . . . . . . . . . . . . . . . . . . . 58
9.3 メモリベース法に関するその他の研究 . . . . . . . . . . . . . . . . . . 59
第 10 章 協調フィルタリング:モデルベース法 61
10.1 クラスタモデル . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
10.2 関数モデル . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
10.3 確率モデル . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
10.4 時系列モデル . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

第 11 章 協調フィルタリング:ハイブリッド 80
第 12 章 内容ベースフィルタリング 82
12.1 入力の形式 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
12.2 推薦規則の獲得 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
第 13 章 嗜好の予測:まとめ 85
13.1 ハイブリッド法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
13.2 嗜好の予測手法の選択 . . . . . . . . . . . . . . . . . . . . . . . . . . 91
第 IV 部 推薦システムのその他の話題 94
第 14 章 プライバシー保護協調フィルタリング 95
14.1 暗号化による方法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
14.2 ランダム化による方法 . . . . . . . . . . . . . . . . . . . . . . . . . . 98
第 15 章 サクラ攻撃 99
15.1 サクラ攻撃の基本 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
15.2 サクラ攻撃の種類 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
15.3 サクラ攻撃に対する防御 . . . . . . . . . . . . . . . . . . . . . . . . . 104
第 16 章 推薦システムのその他の問題や視点 106
16.1 対話型システム . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
16.2 標本利用者の選別 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
16.3 推薦システムの運用 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
第 V 部 まとめ 113
第 17 章 参考資料の紹介 114
17.1 代表的な文献,解説記事,および書籍 . . . . . . . . . . . . . . . . . . 114
17.2 チュートリアル講演 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
17.3 Web サイト . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
17.4 テスト用データ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
17.5 ソフトウェア . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

1. 導入
-1. 情報の変換過程のモデル化
-2. ベイズ統計による推論
-3. 識別モデルと生成モデル
-4. 最尤推定とMAP推定
-5. データの性質
-6. 距離の定義
2. 数学のおさらい
-1. 行列の微分
-2. 線形代数学で役立つ公式
-3. 正規分布と条件付正規分布
3. Bayes推論
-1. Bayes推論の枠組み
-2. 多項分布とディリクレ分布
-3. 正規分布
-4. 指数型分布族
-5. 共役分布と事後分布
4. 線形回帰と識別
-1. 線形回帰
-2. 正規方程式
-3. 正規化項の導入
-4. 線形識別
-5. 生成モデルを利用した識別
5. 学習データと予測性能
-1. 過学習
-2. 損失関数と Bias,Variance, Noise
-3. K-Nearest Neighbor法への適用
-4. 線形回帰への適用
6. カーネル法
-1. 線形識別の一般化
-2. カーネルの構築法
-3. 最大マージン分類器
-4. ソフトマージンの分類器
-5. SVMによる回帰モデル
-6. SVM実装上の工夫
7. オンライン学習
-1. オンライン学習とは
-2. オンライン学習の評価法
-3. パーセプトロン
-4. Passive Aggressive Algorithm
8. 最適化と学習アルゴリズム
-1. 勾配降下法
-2. ニュートン法
-3. 確率的勾配降下法
9. クラスタリング
-1. 階層型クラスタリング
-2. K-means
10. モデル推定
-1. 潜在変数のあるモデル
-2. EMアルゴリズム
-3. 変分ベイズ法
11. マルコフ連鎖モンテカルロ法
-1. 次元の呪いからの脱却
-2. Metroplis-Hastings Algorithm
-3. Gibbs Sampling
12. スムージング
-1. 未観測のデータの扱い
-2. バックオフスムージング
-3. Good-Turingの推定
13. 評価方法
-1. 順位なし結果の評価(再現率、精度、適合率、F値)
-2. 順位付き結果の評価
14. 機械学習の歴史
-1. 歴史以前
-2. 人工知能の時代
-3. 実用化の時代
15. 参考文献

Deep Learning(深層学習) =多層ニューラルネットを使った機械学習の方法論
ニューラルネット(NN)=脳の仕組みをまねた学習方法

目次抜粋
◆イントロダクション
–DNN(動的ニューラルネットワーク)の事例紹介
◆NNの基礎と研究の略史
–なぜNN研究は廃れたか?
◆プレトレーニング
–Encoder-decoder paradigm
◆Convolutional Neural Networks (CNN)
–プーリングと不変特徴
–CNN vs. fully-connected NN
◆ニューロサイエンス
–どこまで分かっている?
◆生成モデル
–Restricted Boltzmann Machine (RBM)
–Deep Belief Network (DBN)
◆実践編
–cuda-convnetを使ったMNISTの学習
◆まとめ

各種手法

■ノンパラメトリックベイズ

ベイズ法の基礎知識
・雨について
・最尤推定の答え
・最大事後確率(MAP)推定
・ベイズ推定

HMMモデル
・今日の目的:教師なし品詞推定
・使用するモデル:HMM
・教師ありマルコフモデル学習
・教師なしHMM学習(最尤推定)
・HMMの最尤推定の問題点
・ベイズ法の利点

ベイジアンHMM
・確率のスムージング
・スムージングとベイズ
・ディリクレ過程の式
・基底測度(base measure)とは
・ハイパーパラメータ
・ベイジアンHMMの構築

Bayesian HMMの学習〜サンプリング〜
・ベイジアンHMMの確率推定
・サンプリングの基本
・具体的なアルゴリズム
・ギブスサンプリング
・ギブスサンプリングの例
・実際にやってみると
・HMMにおけるギブスサンプリング
・1つのタグをサンプルするアルゴリズム
・全てのタグをサンプルするアルゴリズム
・終わり!
・品詞の数
・ハイパーパラメータの選び方
・バグ探し

課題と評価方法
・課題
・教師なし品詞推定の評価
・品詞のマッピング
・ノンパラメトリックとは?

■能動学習 Active Learning

1 2 3 4





まとめながら、機械学習等を、理解しています
動画の順番は集めた順なので、別に意味はないです。入門度からいうとごたまぜから見るのがお勧め。
直近の目標は、アプリで操作記録等を元に何かするものを作りたい。

このまとめに参加する



  • 話題の動画をまとめよう