lihang_algorithms

用python和sklearn实现李航老师的《统计学习方法》中所提到的算法

实验数据:MNIST数据集,这里用kaggle中处理好的数据

官方下载地址:http://yann.lecun.com/exdb/mnist/

kaggle中处理好的数据:https://www.kaggle.com/c/digit-recognizer/data

第二章 感知机

适用问题:二类分类

实验数据:由于是二分类器,所以将MINST数据集train.csv的label列进行了一些微调,label等于0的继续等于0,label大于0改为1。这样就将十分类的数据改为二分类的数据。获取地址train_binary.csv

代码:perceptron/perceptron.py

运行结果:

代码(用sklearn实现):perceptron/perceptron_sklearn.py

运行结果:

第三章 k邻近法

适用问题:多类分类

三个基本要素:k值的选择、距离度量及分类决策规则

代码:knn/knn.py

运行结果:

代码(用sklearn实现):knn/knn_sklearn.py

运行结果:

第四章 朴素贝叶斯法

适用问题:多类分类

基于贝叶斯定理和特征条件独立假设

常用的三个模型有:

高斯模型:处理特征是连续型变量的情况

多项式模型:最常见,要求特征是离散数据

伯努利模型:要求特征是离散的,且为布尔类型,即true和false,或者1和0

第五章 决策树

适用问题:多类分类

三个步骤:特征选择、决策树的生成和决策树的剪枝

常见的决策树算法有:

ID3:特征划分基于信息增益

C4.5:特征划分基于信息增益比

CART:特征划分基于基尼指数

第六章 逻辑斯谛回归

二项逻辑斯谛回归

(多项)逻辑斯谛回归

第六章 最大熵模型

适用问题:多类分类

下面用改进的迭代尺度法(IIS)学习最大熵模型,将特征函数定义为:

与其他分类器不同的是,最大熵模型中的f(x,y)中的x是单独的一个特征,不是一个n维特征向量,因此我们需要对每个维度特征加一个区分标签;如X=(x0,x1,x2,...)变为X=(0_x0,1_x1,2_x2,...)

代码:maxEnt/maxEnt.py

运行结果:

第七章 支持向量机

适用问题:二类分类

实验数据:二分类的数据 train_binary.csv

SVM有三种模型,由简至繁为

当训练数据训练可分时,通过硬间隔最大化,可学习到硬间隔支持向量机,又叫线性可分支持向量机

当训练数据训练近似可分时,通过软间隔最大化,可学习到软间隔支持向量机,又叫线性支持向量机

当训练数据训练不可分时,通过软间隔最大化及核技巧(kernel trick),可学习到非线性支持向量机

代码(用sklearn实现):svm/svm_sklearn.py

注:可用拆解法(如OvO,OvR)将svm扩展成适用于多分类问题(其他二分类问题亦可),sklearn中已经实现

运行结果:

第八章 提升方法

提升方法就是组合一系列弱分类器构成一个强分类器,AdaBoost是其代表性算法

AdaBoost算法

适用问题:二类分类,要处理多类分类需进行改进

代码(用sklearn实现):AdaBoost/AdaBoost_sklearn.py

实验数据为train.csv的运行结果:

实验数据为train_binary.csv的运行结果:

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐