Pattern Classification (Richard O. Duda) (2nd Ed)
Contents 1 Introduction 3 1.1 Machine Perception . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 An Example . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.1 Related fields . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3 The Sub-problems ofP attern Classification . . . . . . . . . . . . . . . 11 1.3.1 Feature Extraction . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3.2 Noise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.3 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.4 Model Selection . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.5 Prior Knowledge . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.6 Missing Features . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.3.7 Mereology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.3.8 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.3.9 Context . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.3.10 Invariances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.3.11 Evidence Pooling . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.3.12 Costs and Risks . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.3.13 Computational Complexity . . . . . . . . . . . . . . . . . . . . 16 1.4 Learning and Adaptation . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . . . . 17 1.4.3 Reinforcement Learning . . . . . . . . . . . . . . . . . . . . . . 17 1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Summary by Chapters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Bibliographical and Historical Remarks . . . . . . . . . . . . . . . . . . . . 19 Bibliography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1 . . . . . . 11 1.3.1 Feature Extraction . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3.2 Noise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.3 Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.4 Model Selection . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.5 Prior Knowledge . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.6 Missing Features . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.3.7 Mereology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.3.8 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.3.9 Context . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.3.10 Invariances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.3.11 Evidence Pooling . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.3.12 Costs and Risks . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.3.13 Computational Complexity . . . . . . . . . . . . . . . . . . . . 16 1.4 Learning and Adaptation . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.1 Supervised Learning . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.2 Unsupervised Learning . . . . . . . . . . . . . . . . . . . . . . . 17 1.4.3 Reinforcement Learning . . . . . . . . . . . . . . . . . . . . . . 17 1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Summary by Chapters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Bibliographical and Historical Remarks . . . . . . . . . . . . . . . . . . . . 19 Bibliography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1
用户评论